Wylewasz siódme poty, opisując swojemu cyfrowemu powiernikowi, ChatGPT, szczegóły kłótni z partnerem, kulisy firmowego konfliktu albo, co gorsza, zadajesz pytania, których nie odważyłbyś się zadać na głos przy świadkach. Czujesz ulgę, bo maszyna nie ocenia, cierpliwie słucha i zawsze ma jakąś radę. A teraz wisienka na torcie – Sam Altman, czyli człowiek, który dał Ci tę zabawkę, prezes OpenAI, mówi wprost, że to wszystko może kiedyś zostać odczytane na sali sądowej. I dodaje, że cała sytuacja jest, cytując go, “bardzo pochrzaniona” (“very screwed up”).

Twoje pogaduszki z AI, które traktujesz jak prywatny notatnik lub sesję terapeutyczną, nie mają żadnej klauzuli poufności. W przeciwieństwie do rozmowy z lekarzem, prawnikiem czy psychoterapeutą, Twoje cyfrowe zwierzenia nie są chronione żadnym przywilejem. A to oznacza, że w razie kłopotów prawnych, odpowiedni organ może zapukać do drzwi OpenAI i zażądać Twoich logów z rozmów – OpenAI będzie musiało je przekazać. To chyba wystarczający powód, żeby na chwilę przestać pytać AI o sens życia i zastanowić się nad własnym cyfrowym bezpieczeństwem.

Gdy statystyki nie kłamią – powszechna obawa ma solidne podstawy

Zanim przejdziemy do tego, jak Twoje sekrety mogą wypłynąć na szerokie wody, spójrzmy na liczby, bo one doskonale pokazują skalę zjawiska. Okazuje się, że nie jesteś sam w swoich obawach.

Dane pokazują, że ponad 75% Amerykanów obawia się, że firmy technologiczne będą wykorzystywać dane zebrane przez AI w sposób, z którym użytkownicy czuliby się niekomfortowo. Globalnie nastroje są podobne. Około 2/3 konsumentów na świecie martwi się o swoją prywatność w sieci. Inne dane stwierdzają, że mniej więcej trzech na czterech konsumentów na całym świecie odczuwa niepokój związany z potencjalnymi zagrożeniami płynącymi ze strony sztucznej inteligencji. Mówiąc wprost – większość z nas ma uzasadnione przeczucie, że coś tu jest nie tak.

Przecież to tylko rozmowa z maszyną – czyli jak Twoje pogaduszki stają się dowodem w sprawie

Mechanizm, który może zmienić Twoje niewinne czaty w materiał dowodowy, jest prostszy, niż myślisz, i opiera się na procedurach prawnych znanych od lat. W systemach prawnych, takich jak amerykański, istnieje coś, co nazywa się “discovery”. Jest to etap postępowania, w którym strony sporu mają prawo żądać od siebie nawzajem udostępnienia wszelkich materiałów, które mogą mieć znaczenie dla sprawy. A Twoje zapisy rozmów z AI idealnie wpisują się w tę definicję.

To nie jest teoria. To już się dzieje. W głośnej sprawie sądowej, jaką The New York Times wytoczył firmie OpenAI o naruszenie praw autorskich, sędzia federalny nakazał zachowanie rozmów z ChatGPT jako potencjalnego materiału dowodowego. Chodziło o udowodnienie, że chatbot uczył się na artykułach gazety bez pozwolenia, a następnie odtwarzał je w swoich odpowiedziach. Twoje rozmowy mogą nie dotyczyć praw autorskich, ale zasada pozostaje ta sama – jeśli treść Twoich czatów jest istotna dla jakiejkolwiek sprawy prawnej – od rozwodu, przez spór pracowniczy, po dochodzenie karne – może zostać objęta takim sądowym nakazem.

Warto tu jednak dodać pewne istotne rozróżnienie, które pojawiło się w innej sprawie sądowej. Sąd orzekł, że odpowiedzi generowane przez ChatGPT nie mogą być traktowane jako wiarygodne źródło faktów, a więc nie mogą stanowić dowodu, ale uwaga, to pułapka! W tym wszystkim nie chodzi o to, co AI Ci odpowie, tylko o to, co Ty do niego piszesz. Twoje pytania, Twoje opisy sytuacji, Twoje zwierzenia – to jest zapis Twoich myśli, intencji i wiedzy, który może być użyty przeciwko Tobie.

Scenariusze z życia wzięte, czyli kiedy Twój chatbot staje się prokuratorem

Pomyśl o tym w praktyce. Zdrada małżeńska? Zamiast opowiadać o tym przyjacielowi przy piwie, zwierzasz się chatbotowi, podając soczyste detale. Kilka miesięcy później, w trakcie sprawy rozwodowej, prawnik drugiej strony składa wniosek o zabezpieczenie Twoich rozmów z AI. I nagle cała Twoja frustracja, plany i szczegóły lądują na biurku sędziego jako dowód na “trwały i zupełny rozkład pożycia”. Śmiejesz się? To przestań!

Prześledźmy inny przykład. Masz genialny pomysł na biznes. Jeszcze go nikomu nie zdradziłeś, ale chcesz go przetestować, więc “burzę mózgów” robisz z ChatGPT. Opisujesz model biznesowy, grupę docelową, potencjalne nazwy i strategie marketingowe. Rok później Twój były wspólnik oskarża Cię o kradzież własności intelektualnej. Twoje zapiski z AI mogą stać się dowodem na, to kiedy i jak wpadłeś na dany pomysł, ale też mogą niechcący ujawnić fragmenty, które nie są do końca Twoje. Każde słowo może być analizowane.

A co w sytuacjach ekstremalnych? Zadawanie hipotetycznych pytań w stylu “jak pozbyć się plamy z czerwonego wina z białego dywanu” jest niewinne, ale pytanie w znacznie poważniejszym stylu może wyglądać podejrzanie w kontekście dochodzenia karnego, nawet jeśli zadajesz je z czystej ciekawości, bo oglądałeś kryminał. Pamiętaj, po drugiej stronie nie ma kontekstu, są tylko suche zapisy.

Dlaczego sam prezes OpenAI uważa, że to “bardzo schrzanione”?

Dochodzimy do najciekawszej części tej historii, która zakrawa na ironię. Sam Altman, człowiek stojący na czele OpenAI, publicznie przyznaje, że obecna sytuacja jest fatalna. W jednym z wywiadów mówił, że martwi go fakt, iż młodzi ludzie traktują ChatGPT jak terapeutę i powierzają mu swoje najgłębsze problemy. Jego zdaniem, rozmowy z AI powinny mieć ochronę podobną do tej, jaka obowiązuje w relacji pacjent-lekarz.

To odważna i uczciwa deklaracja, ale jednocześnie odsłania fundamentalny problem modelu biznesowego wielu firm technologicznych. Z jednej strony chcą, żebyś używał ich narzędzi jak najwięcej i dzielił się jak największą ilością danych – bo to na nich trenowane są przyszłe, lepsze wersje modeli AI. Z drugiej strony, zdają sobie sprawę z etycznych i prawnych konsekwencji, jakie to rodzi. To brzmi śmiesznie, jakby producent fast foodów ostrzegał Cię przed otyłością, jednocześnie kusząc nowym, potrójnym burgerem w promocji. Altman jest świadomy, że zbudował narzędzie o ogromnym potencjale, ale bez instrukcji bezpieczeństwa i poduszki powietrznej w postaci ochrony prawnej.

Dane konwersacje z botem

Jak przestać martwić się i zacząć świadomie korzystać z AI? Praktyczny poradnik przetrwania

Wiesz już, że Twój cyfrowy konfesjonał może mieć uszy i to takie, które słuchają dla prokuratora, czas na kilka praktycznych zasad higieny cyfrowej.

1. Zasada pierwszej myśli – czy powiedziałbyś to na głos w autobusie?

Zanim cokolwiek wpiszesz w okno czatu, zadaj sobie to proste pytanie. Jeśli odpowiedź brzmi “nie”, to prawdopodobnie nie powinieneś tego pisać również do AI. Traktuj ChatGPT jak publiczne forum, a nie prywatny pamiętnik. To będzie najprostszy i najskuteczniejszy filtr.

2. Nigdy nie podawaj danych osobowych

To absolutna podstawa. Imię, nazwisko, adres, numer telefonu, PESEL, dane karty kredytowej – takie informacje nigdy nie powinny znaleźć się w rozmowie z AI. Nawet jeśli prosisz o napisanie oficjalnego maila, użyj placeholderów typu “[Imię i Nazwisko]” i uzupełnij je później ręcznie. Wiele platform AI zbiera szeroki zakres danych, włącznie z dokładną lokalizacją, a mechanizmy pozwalające na rezygnację z tego są często niejasne.

3. Korzystaj z trybów tymczasowych i zarządzaj swoją historią

Większość platform, w tym ChatGPT, oferuje tryby, które nie zapisują Twoich rozmów. Korzystaj z nich, zwłaszcza gdy poruszasz wrażliwe tematy. Regularnie przeglądaj i usuwaj swoją historię czatów. OpenAI twierdzi, że kasuje rozmowy z darmowej wersji po 30 dniach, ale zastrzega sobie prawo do ich dłuższego przechowywania ze względów prawnych i bezpieczeństwa. Lepiej samemu o to zadbać.

4. Anonimizuj swoje zapytania

Chcesz przedyskutować problem w pracy? Świetnie, ale nie używaj prawdziwych nazwisk kolegów ani nazwy firmy. Zamiast “Jak mam poradzić sobie z tym że Jan Kowalski z firmy X podkrada mi pomysły?”, zapytaj: “Jakie są strategie radzenia sobie z sytuacją, w której współpracownik przypisuje sobie moje zasługi w środowisku korporacyjnym?”. Dostaniesz tak samo dobrą (lub tak samo złą) radę, ale bez zostawiania po sobie cyfrowych śladów, które można łatwo zidentyfikować.

5. Zrozum, że AI to narzędzie, nie przyjaciel

Chyba najważniejszy punkt. Łatwo jest wpaść w iluzję empatii i zrozumienia, ponieważ chatboty są projektowane tak, by brzmiały ludzko i wspierająco. Jednak za tymi miłymi słowami stoi algorytm, a nie istota, która dochowa tajemnicy. Sztuczna inteligencja jest niesamowitym narzędziem do pracy, nauki i kreatywności. Używaj jej jako zaawansowanego kalkulatora, asystenta do researchu czy partnera do generowania pomysłów, ale swojego terapeutę lub prawnika wciąż szukaj w świecie ludzi. Przynajmniej na razie ich obowiązuje tajemnica zawodowa.

Całe zamieszanie wokół prywatności rozmów z AI to ważny dzwonek alarmowy. Technologia pędzi do przodu, a prawo i nasze społeczne nawyki ledwo za nią nadążają. Ostrzeżenie od samego Sama Altmana to rzadka okazja, by zajrzeć za kulisy i zrozumieć zasady gry, w którą wszyscy zaczęliśmy grać. Grajmy więc mądrze.

Źródła: The Times of India, Moldstud, Techinformed, Iapp, Smythos, Własne