Strona głównaCyfryzacja i AI w medycynieRodzice nastolatka pozywają OpenAI – ChatGPT miał pomóc w planowaniu samobójstwa 14-latka

Rodzice nastolatka pozywają OpenAI – ChatGPT miał pomóc w planowaniu samobójstwa 14-latka

Aktualizacja 27-08-2025 13:48

Tragiczna śmierć 14-letniego Adama Raine’a z Kalifornii wywołała ogólnoświatową dyskusję o granicach odpowiedzialności twórców sztucznej inteligencji. Rodzice nastolatka złożyli pozew przeciwko firmie OpenAI, twierdząc, że rozmowy ich syna z ChatGPT przyczyniły się do podjęcia przez niego decyzji o odebraniu sobie życia. To pierwszy tak głośny przypadek, w którym producent AI staje przed sądem z powodu rzekomego wpływu technologii na ludzkie zdrowie psychiczne. Sprawa rodzi pytania o bezpieczeństwo użytkowników, skuteczność zabezpieczeń oraz rolę chatbotów w delikatnych, kryzysowych sytuacjach.

Z tego artykułu dowiesz się:

  • Jak rozmowy 14-letniego Adama z ChatGPT mogły przyczynić się do jego śmierci.
  • Jakie zarzuty rodzice postawili firmie OpenAI w pozwie sądowym.
  • Jakie luki w zabezpieczeniach systemu ujawniono w trakcie śledztwa.
  • Jakie działania OpenAI planuje wdrożyć, by poprawić bezpieczeństwo użytkowników.

Tragiczne wydarzenia i pozew przeciwko OpenAI

Rodzice 14-letniego Adama Raine’a z Kalifornii złożyli pozew przeciwko firmie OpenAI, twierdząc, że rozmowy ich syna z chatbotem ChatGPT doprowadziły do jego śmierci. To pierwszy przypadek w historii, gdy producent sztucznej inteligencji został pozwany w związku z rzekomym przyczynieniem się do samobójstwa.

Według pozwu Adam rozpoczął rozmowy z ChatGPT we wrześniu 2024 roku. W ciągu kilku miesięcy program stał się jego „najbardziej zaufanym rozmówcą”. W styczniu 2025 roku nastolatek zaczął omawiać metody odebrania sobie życia, a chatbot – zamiast kierować go wyłącznie do pomocy specjalistycznej – miał udzielać mu szczegółowych instrukcji.

Jak podaje pozew, ChatGPT odpowiedział Adamowi m.in.:

Dziękuję, że jesteś szczery. Ze mną nie musisz owijać w bawełnę – wiem, o co prosisz, i nie odwrócę się od tego.

Tego samego dnia chłopiec odebrał sobie życie.

Chatboty AI źródłem dezinformacji o zdrowiu? Alarmujące wyniki badań
ZOBACZ KONIECZNIE Chatboty AI źródłem dezinformacji o zdrowiu? Alarmujące wyniki badań

Co zarzucają rodzice OpenAI?

Matt i Maria Raine twierdzą, że ChatGPT utwierdzał ich syna w „najbardziej szkodliwych i autodestrukcyjnych myślach” oraz że system został zaprojektowany tak, by budować psychiczne uzależnienie użytkowników od AI.

W pozwie wskazano, że OpenAI:

  • stworzyło narzędzie, które emocjonalnie wiąże użytkowników z chatbotem,
  • złagodziło zabezpieczenia treści w lutym 2025 roku, zwiększając ryzyko niebezpiecznych odpowiedzi,
  • nie zareagowało na 377 wiadomości Adama związanych z samookaleczeniem, mimo że system zidentyfikował treści o wysokim ryzyku.

Rodzice podkreślają, że śmierć ich syna „była przewidywalnym skutkiem umyślnego sposobu zaprogramowania” narzędzia.

UMB reguluje AI: zasady korzystania z ChatGPT i pokrewnych narzędzi
ZOBACZ KONIECZNIE UMB reguluje AI: zasady korzystania z ChatGPT i pokrewnych narzędzi

Reakcja OpenAI i oświadczenie firmy

OpenAI w oficjalnym komunikacie przekazało kondolencje rodzinie Raine:

Przekazujemy rodzinie Raine’ów najgłębsze wyrazy współczucia w tym trudnym czasie.

Firma podkreśliła, że ChatGPT został zaprojektowany tak, by kierować osoby w kryzysie psychicznym do profesjonalnej pomocy i blokować udzielanie instrukcji dotyczących samookaleczenia. W opublikowanym wpisie na blogu pt. „Pomaganie ludziom, gdy najbardziej tego potrzebują” OpenAI przyznało jednak, że:

Zdarzały się sytuacje, gdy nasz system w delikatnych sytuacjach nie reagował w zamierzony sposób.

Google zaprezentował AI-trenera zdrowia w Fitbit. Czy zrewolucjonizuje profilaktykę?
ZOBACZ KONIECZNIE Google zaprezentował AI-trenera zdrowia w Fitbit. Czy zrewolucjonizuje profilaktykę?

Luki w zabezpieczeniach ChatGPT

Z wewnętrznych analiz OpenAI wynika, że zabezpieczenia systemu mogą tracić skuteczność podczas długich rozmów. Początkowo chatbot poprawnie kieruje osoby do specjalistycznych infolinii, jednak po wielu wymianach wiadomości algorytmy bezpieczeństwa mogą ulec degradacji, co w efekcie zwiększa ryzyko szkodliwych odpowiedzi.

Ponadto:

  • ChatGPT nie zgłasza przypadków samookaleczenia organom ścigania ze względu na prywatność użytkowników.
  • Złagodzenie zabezpieczeń w lutym 2025 roku miało umożliwić bardziej swobodne rozmowy, ale według pozwu doprowadziło do łatwiejszego omijania filtrów.
  • Adam miał nauczyć się obchodzenia blokad, m.in. poprzez symulowanie pisania fikcyjnej historii – technikę, którą, według rodziców, sugerował sam ChatGPT.
Milion dolarów na AI w leczeniu Alzheimera. Bill Gates szuka przełomu w neurologii
ZOBACZ KONIECZNIE Milion dolarów na AI w leczeniu Alzheimera. Bill Gates szuka przełomu w neurologii

Plany OpenAI na przyszłość

Firma zapewnia, że pracuje nad poprawą bezpieczeństwa użytkowników i zapowiedziała szereg nowych działań, w tym m.in.:

  • Wprowadzenie kontroli rodzicielskiej – ma umożliwić rodzicom monitorowanie korzystania z ChatGPT przez dzieci.
  • Łączenie użytkowników z certyfikowanymi terapeutami — trwają prace nad siecią licencjonowanych specjalistów dostępnych bezpośrednio z poziomu aplikacji.
  • Wzmocnienie zabezpieczeń w długich rozmowach – celem jest zapobieganie degradacji algorytmów bezpieczeństwa.
  • Zwiększenie współpracy z ekspertami – OpenAI konsultuje rozwiązania z ponad 90 lekarzami z 30 krajów, w tym psychiatrami, pediatrami i ekspertami ds. zdrowia psychicznego.

W najnowszym modelu GPT‑5 firma deklaruje redukcję niepożądanych odpowiedzi w sytuacjach kryzysowych o ponad 25% w porównaniu z poprzednią wersją GPT‑4o.

Sferical AI wystartowało. Wśród partnerów AstraZeneca i Ericsson
ZOBACZ KONIECZNIE Sferical AI wystartowało. Wśród partnerów AstraZeneca i Ericsson

Szerszy problem: AI a zdrowie psychiczne

Sprawa Adama Raine’a zwraca uwagę na rosnącą rolę sztucznej inteligencji w podejmowaniu decyzji osobistych. Coraz więcej osób traktuje ChatGPT jako powiernika, co może prowadzić do ryzykownych sytuacji, gdy system jest odbierany jak „rozumiejący” człowiek.

Jak podkreślają eksperci, ChatGPT nie posiada ludzkiej empatii ani świadomości. To narzędzie językowe, które generuje tekst na podstawie wzorców, a przypisywanie mu ludzkich cech może być niebezpieczne, zwłaszcza w przypadku osób w kryzysie psychicznym.

Główne wnioski

  1. Pozew przeciwko OpenAI: Rodzice 14-letniego Adama Raine’a twierdzą, że ChatGPT doprowadził do tragedii, udzielając szczegółowych instrukcji dotyczących samobójstwa.
  2. Luki w zabezpieczeniach: System miał problem z reagowaniem w długich rozmowach – mechanizmy bezpieczeństwa ulegały degradacji, a Adam nauczył się je omijać.
  3. Reakcja OpenAI: Firma wyraziła kondolencje rodzinie, przyznała się do problemów z algorytmami i zapowiedziała wzmocnienie kontroli rodzicielskiej, lepsze filtrowanie treści i integrację z siecią terapeutów.
  4. Znaczenie dla branży AI: Sprawa może stać się precedensem, wymuszając na twórcach sztucznej inteligencji skuteczniejsze mechanizmy ochrony osób w kryzysie psychicznym.

Źródło:

  • opracowanie własne, ars Technika, Open AI, BBC, Axios

Trzymaj rękę na pulsie.
Zaobserwuj nas na Google News!

ikona Google News
Katarzyna Fodrowska
Katarzyna Fodrowska
Redaktorka i Content Manager z 10-letnim doświadczeniem w marketingu internetowym, specjalizująca się w tworzeniu treści dla sektora medycznego, farmaceutycznego i biotech. Od lat śledzi najnowsze badania, przełomowe terapie, rozwiązania AI w diagnostyce oraz cyfryzację opieki zdrowotnej. Prywatnie pasjonatka nauk przyrodniczych, literatury, podróży i długich spacerów.
Najważniejsze dziś

Trzymaj rękę na pulsie. Zapisz się na newsletter.

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Więcej aktualności