Twoje najskrytsze myśli, plany biznesowe i nocne rozważania wpisywane w okno ChatGPT do niedawna miały jednego, niechcianego czytelnika – system archiwizacji OpenAI, który mógł przekazać je dalej. Każde wciśnięcie przycisku „usuń” było iluzją, ponieważ twoje dane i tak trafiały do przechowalni, czekając na ewentualny nakaz sądowy. Era pozornej prywatności właśnie dobiegła końca. Firma przywróciła opcję, która sprawia, że „usuń” nareszcie znaczy „usuń”.

Krótka historia o tym, jak czaty stały się zakładnikiem

Przez ostatnie miesiące opcja „usuń” w ChatGPT działała bardziej jak zamiatanie problemów pod dywan niż faktyczne pozbywanie się ich. Skasowane przez ciebie rozmowy, wbrew twojej woli, wcale nie znikały. Były starannie archiwizowane i przechowywane, a wszystko za sprawą batalii sądowej, jaką The New York Times wytoczył OpenAI. Sąd w Nowym Jorku nakazał firmie zachowywanie wszystkich konwersacji, ponieważ mogły one stanowić dowód w sprawie o naruszenie praw autorskich.

Na szczęście, na początku tygodnia, sędzia Ona Wang zatwierdziła wspólny wniosek o uchylenie nakazu archiwizacji. Oznacza to, że funkcja permanentnego usuwania rozmów została przywrócona. Jest jednak pewien haczyk, o którym trzeba pamiętać. Jeśli kasowałeś swoje konwersacje w okresie obowiązywania nakazu sądowego, twoje dane wciąż są zarchiwizowane. Trafiły do swoistej “zamrażarki dowodowej” i pozostaną dostępne dla prawników The New York Times. Zatem ulga jest, ale nie dla wszystkich i nie w stu procentach. Konwersacje usunięte przed lub po okresie obowiązywania nakazu mają już znikać na dobre.

Spowiednik, który może zeznawać – dlaczego ta zmiana jest tak ważna

Scenariusz, w którym twoje prywatne wyznania są nagrywane i mogą zostać odtworzone na sali sądowej, przypomina fabułę thrillera. Podobnie wygląda sytuacja z chatbotami AI. Twoje pogawędki z maszyną nie są chronione żadną tajemnicą, jak ma to miejsce w przypadku rozmów z lekarzem czy prawnikiem. W razie kłopotów z prawem odpowiednie organy mogą zażądać od OpenAI twoich logów. O ryzyku związanym z traktowaniem AI jako powiernika pisaliśmy już zresztą na naszym blogu, ale problem jest na tyle poważny, że warto do niego wracać.

Paradoksalnie, świadom tego jest sam twórca ChatGPT. Sam Altman przyznał publicznie, że obecny stan rzeczy jest, cytując go, “bardzo pochrzaniony” (“very screwed up”). Martwi go fakt, że ludzie, zwłaszcza młodzi, traktują chatbota jak terapeutę. Obawy użytkowników nie biorą się znikąd, co potwierdzają dane. Ponad 2/3 Amerykanów obawia się, że firmy technologiczne wykorzystają dane zebrane przez AI w sposób, z którym użytkownicy nie czuliby się komfortowo.

Przeczytaj więcej: O czym lepiej nie mówić ChatGPT?

Kiedy niewinne pytania stają się materiałem dowodowym

Można sądzić, że prowadzone rozmowy z AI są zbyt błahe, by kogokolwiek zainteresowały. Nic bardziej mylnego. Sprawy sądowe, od sporów biznesowych o własność intelektualną po prywatne batalie na salach rozpraw, coraz częściej sięgają po dowody cyfrowe. A zapis twoich rozmów z AI jest właśnie takim dowodem – czarno na białym pokazuje, co myślałeś, co planowałeś i o co pytałeś. Nawet hipotetyczne pytania, wyrwane z kontekstu i przedstawione w sądzie, mogą postawić cię w bardzo niekorzystnym świetle.

Pamięć absolutna czy prawo do niepamięci

OpenAI da ci gumkę do mazania o znacznie większej mocy. Możesz zetrzeć swoje ślady, wyczyścić tablicę i zacząć od nowa, licząc, że tym razem nikt nie patrzył. Pamiętaj jednak o starej zasadzie internetu – to, co raz zostało powiedziane maszynie, mentalnie nigdy do końca nie znika. Najbezpieczniejszym sekretem pozostaje zawsze ten, którego nigdy nie wpisałeś w żadne pole tekstowe.

Źródła: Ars Technica, Open AI