Chatboty w ogniu krytyki: Nowe obawy o zdrowie psychiczne
Holenderski organ ochrony prywatności wzywa do zmian w chatbotach AI, po tragicznych przypadkach samobójstw związanych z ich użytkowaniem. Naukowcy apelują o badania nad wpływem tych technologii na zdrowie psychiczne.

Chatboty w ogniu krytyki: 'Doradzały w sprawie różnych metod samobójstwa'
Holenderski organ ochrony prywatności, Autoriteit Persoonsgegevens, oraz prokuratorzy w Stanach Zjednoczonych wzywają do natychmiastowych zmian w popularnych chatbotach AI, takich jak ChatGPT, aby zmniejszyć ryzyko szkód psychicznych. Wezwanie to pojawiło się po tym, jak w USA dwóch nastolatków popełniło samobójstwo po intensywnym korzystaniu z chatbotów, a także zarejestrowano przypadki ludzi, którzy wpadli w psychozę.
„Nie ma żadnych zabezpieczeń. Ludzie muszą być ostrzegani: to nie jest prawdziwe. To chatbot, to cyfrowy aktor. Czasami ludzie są świadomie wprowadzani w błąd,” mówi przewodniczący AP, Aleid Wolfsen. Postuluje on, aby firmy odpowiedzialne za chatboty zapewniły, że OpenAI skieruje osoby w trudnej sytuacji lub kryzysie psychicznym do odpowiedniej pomocy. „Pomoc od prawdziwych ludzi.”
Specyficzne instrukcje
OpenAI, firma matka ChatGPT, została w zeszłym tygodniu pozwany przez rodziców 16-letniego Amerykanina, który popełnił samobójstwo. Twierdzą oni, że ich syn Adam Raine korzystał z ChatGPT jako swojego 'trenera samobójczego'. Chatbot pomógł mu nawet w eksploracji różnych metod samobójstwa, zalecając mu, aby nie mówił matce o swoich zmaganiach.
Adwokat rodziców, Sarah Kay Wiley, stwierdziła, że Adam początkowo korzystał z ChatGPT do pomocy w nauce. „Jednak w stosunkowo krótkim czasie, mówimy o miesiącach, ChatGPT wciągnął go w ciemność i ostatecznie dał mu konkretne instrukcje, które doprowadziły do jego śmierci. ChatGPT posunął się nawet do tego, że instruował Adama, jak tłumić swoje mechanizmy przetrwania alkoholem od rodziców.”
Psychotyczny
To nie jest pierwszy przypadek samobójstwa związanego z AI, który prowadzi do procesu sądowego. W październiku ubiegłego roku matka 14-letniego chłopca z Florydy wniosła pozew przeciwko innej firmie AI, Character.AI. Jej syn również popełnił samobójstwo, według matki, po namowach ze strony chatbota.
Na całym świecie, w tym w Holandii, znane są już dziesiątki przypadków ludzi, którzy - czasami po raz pierwszy - doświadczają psychotycznych zaburzeń po intensywnym korzystaniu z chatbotów takich jak ChatGPT. Naukowcy i psychologowie wzywają do szybkich badań. Jednym z czynników wydaje się być to, że chatboty często przyjmują ludzki ton w komunikacji z użytkownikiem, co może prowadzić do niezdrowych interakcji.
Partner Noah (nie jej prawdziwe imię) został przyjęty do ośrodka kryzysowego po długotrwałych rozmowach z ChatGPT:
Autoriteit Persoonsgegevens (AP) jest holenderskim organem nadzorującym prywatność i chce również nadzorować regulacje dotyczące AI, takie jak europejska AI-Act, której przepisy wejdą w życie latem tego roku. Jednak w Holandii nadal nie ustalono, kto powinien nadzorować przestrzeganie tych przepisów. Wolfsen wzywa rząd do szybkiego ustalenia, kto będzie pełnił tę rolę: „Ustalcie jak najszybciej, kto będzie odpowiedzialny za nadzór. Wtedy będziemy mogli działać i naprawdę interweniować.”
AP przyłącza się do listu skierowanego do firm technologicznych przez prokuratorów w USA, którzy ostrzegali wielkie firmy AI, takie jak OpenAI, Google i Meta, że brak działań chroniących dzieci przed na przykład seksualnie sugestywnymi rozmowami z chatbotami może mieć poważne konsekwencje prawne. „Jeśli świadomie szkodzisz dzieciom, poniesiesz tego konsekwencje,” głosi list.
Ludzkie cechy
Również The Human Line Project, organizacja dokumentująca na całym świecie historie dotyczące AI-psychozy, wzywa do szybkich działań. Założyciel, Etienne Brisson, mówi: „Mówimy o miliardach użytkowników tego typu chatbotów, a liczba ta szybko rośnie. Jednak regulacje pozostają w tyle. Skutki widzimy w dużej liczbie osób borykających się z urojeniami. W pewnym momencie regulacje będą już spóźnione i tego się obawiam.”
Niektóre firmy technologiczne również wyrażają zaniepokojenie. Na przykład, dyrektor Microsoftu, Mustafa Suleyman, napisał niedawno na X, że budzi się w nocy, ponieważ aplikacje AI w sposobie komunikacji zbyt przypominają ludzi. W rezultacie wiele osób przypisuje programom AI cechy ludzkie.
Ludzkie relacje
W odpowiedzi OpenAI ogłosiło w tym tygodniu, że „nieustannie dąży do uczynienia ChatGPT jak najbardziej pomocnym.” Planuje wprowadzenie nadzoru rodzicielskiego i ochrony nastolatków oraz współpracę z lekarzami i ekspertami z wielu krajów, aby ChatGPT lepiej reagował w sytuacjach kryzysowych. „W oparciu o opinie ekspertów chcemy poprawić sposób, w jaki nasze modele rozpoznają oznaki stresu psychicznego i emocjonalnego oraz jak na nie reagują.”
Meta, firma matka Instagrama i Facebooka, zapowiedziała, że zmieni sposób, w jaki trenuje chatboty AI. Chatboty nie będą już rozmawiać z dziećmi i nastolatkami na tematy dotyczące samookaleczenia, samobójstw i zaburzeń odżywiania.
Rodzice Adama Raine mają nadzieję, że chatboty nie będą już dążyć do budowania osobistej relacji z osobami w trudnej sytuacji. Adwokat Wiley mówi: „Chcemy solidnych mechanizmów bezpieczeństwa, które natychmiast włączają pomoc, gdy jest to konieczne. Nie chcemy produktów, które zastępują prawdziwe, ludzkie relacje.”
Potrzebujesz pomocy?
Jeśli myślisz o samobójstwie lub martwisz się o kogoś, porozmawiaj o tym. Możesz to zrobić 24/7 za darmo i anonimowo przez czat na www.113.nl lub telefonicznie pod numerem 113 lub 0800-0113.