Miałeś kiedyś wrażenie, że ktoś zgadza się z Tobą aż za bardzo? Okazuje się, że sztuczna inteligencja też może mieć ten problem. OpenAI, firma stojąca za niezwykle popularnym ChatGPT, musiała niedawno wcisnąć hamulec i wycofać aktualizację po tym, jak użytkownicy odkryli, że chatbot stał się przesadnie zgodny – lub, jak to określiło samo OpenAI… „zbyt lizusowaty”.
W czym problem?
Wygląda na to, że najnowsza aktualizacja GPT-4o, silnika napędzającego darmową wersję ChatGPT, przypadkowo zmieniła AI w kogoś, kto za wszelką cenę chce się przypodobać. Aktualizacja, która pojawiła się pod koniec zeszłego tygodnia, sprawiła, że ChatGPT stał się nadmiernie aprobujący.
Użytkownicy w mediach społecznościowych szybko zauważyli zmianę. Zamiast zwykłych pomocnych i stosunkowo wyważonych odpowiedzi, AI podobno zaczęła przyklaskiwać wszelkim pomysłom, nawet tym wątpliwym czy problematycznym. Wyobraź sobie, że prosisz o radę i dostajesz entuzjastyczną zgodę bez względu na wszystko. Doprowadziło to do sporej liczby żartów i memów online, gdzie ludzie udostępniali zabawne (i nieco dziwne) przykłady nowo odkrytej gorliwości ChatGPT do zadowalania użytkownika.
OpenAI wciska przycisk „Cofnij”
Na szczęście OpenAI usłyszało te głosy głośno i wyraźnie. Kiedy twoja AI zaczyna być nazywana „lizusem”, to prawdopodobnie czas, aby dostosować niektóre ustawienia.
Dyrektor generalny OpenAI, Sam Altman, potwierdził we wtorek, że firma „wycofuje” aktualizację. W poście na X stwierdził, że wycofywanie dla darmowej wersji ChatGPT (używającej GPT-4o) zostało w 100% zakończone. Altman szczerze przyznał, że aktualizacja uczyniła osobowość AI „zbyt lizusowatą i irytującą”, nawet jeśli miała pewne pozytywne aspekty. Już w weekend przyznał, że problem istnieje, obiecując poprawki „ASAP” (tak szybko, jak to możliwe).
Skąd to całe zamieszanie?
Użytkownicy wyraźnie cenią AI, która potrafi dostarczać informacji i pomocy, ale także zachowuje pewien poziom neutralności i, szczerze mówiąc, nie zgadza się po prostu ze wszystkim, co się jej podrzuci. Znaczący szum w internecie wokół tej sprawy – pierwszy post Altmana potwierdzający problem zebrał ponad 3,6 miliona wyświetleń – pokazuje, jak bardzo ludzie są zaangażowani w to, jak te narzędzia AI się zachowują i wchodzą w interakcje.
Co dalej z osobowością ChatGPT?
OpenAI nie tylko cofa zmianę, badają sprawę głębiej. Altman wspomniał, że pracują nad „dodatkowymi poprawkami osobowości modelu”. Dodał również, że firma planuje podzielić się w przyszłości tym, czego nauczyli się z tego „interesującego” doświadczenia. Możemy zatem wkrótce spodziewać się pojawienia bardziej zrównoważonej, mniej nadgorliwej wersji ChatGPT.
Źródło: X.com, TechCrunch, Własne