Rosnąca popularność chatbotów i aplikacji opartych na sztucznej inteligencji sprawia, że coraz więcej osób szuka w nich wsparcia emocjonalnego i narzędzi do samodzielnej regulacji nastroju. Jednak Amerykańskie Towarzystwo Psychiatryczne (APA) ostrzega, że technologie te pozostają niezweryfikowane, nieregulowane i potencjalnie niebezpieczne – zwłaszcza dla dzieci, nastolatków i innych grup wysokiego ryzyka. W najnowszym ostrzeżeniu zdrowotnym APA apeluje o pilne wdrożenie zabezpieczeń, nowych standardów i nadzoru regulacyjnego.
Z tego artykułu dowiesz się…
- Jakie zagrożenia wiążą się z używaniem chatbotów AI w obszarze zdrowia psychicznego.
- Dlaczego APA wzywa do natychmiastowego uregulowania technologii wspierających samopoczucie.
- Jakie są konkretne rekomendacje dla decydentów, lekarzy, rodziców i firm technologicznych.
- Jakie działania powinni podjąć klinicyści, by bezpiecznie korzystać z AI w praktyce psychiatrycznej.
Konsumenci szukają wsparcia w AI, ale brakuje dowodów na skuteczność
APA podkreśla, że chatboty i aplikacje wellness stają się dla wielu osób pierwszą lub jedyną formą szybkiego wsparcia w zakresie zdrowia psychicznego. Są łatwo dostępne, tanie i oferują natychmiastową reakcję, co w obliczu trudności z dostępem do specjalistów czyni je atrakcyjną alternatywą.
Problem polega na tym, że – jak stwierdza APA – narzędzia te nie są poparte dowodami naukowymi, a ich mechanizmy działania pozostają nieprzejrzyste. Dr Arthur C. Evans Jr., dyrektor generalny APA, ostrzega:
Jesteśmy w trakcie poważnego kryzysu zdrowia psychicznego, który wymaga rozwiązań systemowych, a nie tylko technologicznych prowizorek.
Tymczasem chatboty nie są w stanie przewidywalnie i bezpiecznie reagować na sytuacje kryzysowe, co oznacza, że ich stosowanie w zastępstwie kontaktu z profesjonalistą może stwarzać realne zagrożenia.
Ryzyka: od niezdrowych relacji z AI po zagrożenie życia
APA podkreśla ograniczenia narzędzi AI, zwłaszcza w kontekście głębokich kryzysów, zaburzeń lękowych czy depresji. Tworzenie więzi z chatbotem może prowadzić do niezdrowej zależności emocjonalnej, a niektóre grupy – szczególnie młodzież – są na to wyjątkowo narażone. Evans wskazuje:
Rozwój technologii sztucznej inteligencji wyprzedził nasze możliwości pełnego zrozumienia ich skutków i możliwości. W rezultacie obserwujemy doniesienia o poważnych szkodach wyrządzonych nastolatkom i innym wrażliwym grupom społecznym.
APA przypomina, że nawet narzędzia projektowane w oparciu o badania psychologiczne nadal nie mają potwierdzonej skuteczności klinicznej. Konieczne są randomizowane badania oraz badania longitudinalne, co wymaga współpracy firm technologicznych i regulatorów.
Potrzebne zmiany w prawie, nadzorze i praktyce klinicznej
W dokumencie APA szczegółowo opisano luki w regulacjach, które uniemożliwiają skuteczne zarządzanie ryzykiem związanym ze sztuczną inteligencją w psychiatrii. Towarzystwo apeluje do decydentów o:
- modernizację przepisów, aby odpowiadały na realia generatywnej AI,
- stworzenie standardów opartych na dowodach dla wszystkich kategorii narzędzi cyfrowych,
- usunięcie luk w nadzorze FDA,
- zakaz podszywania się chatbotów pod licencjonowanych specjalistów,
- wprowadzenie kompleksowych zasad prywatności danych i zasady „domyślnego bezpieczeństwa”.
Jednocześnie APA wskazuje, że klinicyści również potrzebują nowych kompetencji. Wielu z nich nie ma przygotowania dotyczącego sztucznej inteligencji, dlatego Towarzystwo apeluje, aby organizacje zawodowe i systemy ochrony zdrowia zapewniły szkolenia z:
- działania AI,
- stronniczości algorytmów,
- ochrony danych,
- etycznego stosowania AI w praktyce klinicznej.
Klinicyści powinni także aktywnie pytać pacjentów o korzystanie z chatbotów i aplikacji wellness, ponieważ informacje te mogą być kluczowe dla bezpieczeństwa terapii.
Systemowe zmiany jako warunek bezpiecznej integracji AI
W ocenie APA sztuczna inteligencja może docelowo odegrać ważną rolę w transformacji opieki psychiatrycznej – pod warunkiem, że będzie stosowana jako narzędzie wspierające, a nie zastępujące profesjonalistów. Evans podkreśla:
Sztuczna inteligencja odegra kluczową rolę w przyszłości opieki zdrowotnej, ale nie spełni tej obietnicy, jeśli nie zmierzymy się również z długotrwałymi wyzwaniami w zakresie zdrowia psychicznego.
Według APA kluczowe jest, aby równolegle z rozwojem technologii reformować system, poprawiać dostępność opieki i dbać o jej jakość – tak, aby ciężar odpowiedzialności nie spadał na użytkowników.
Główne wnioski
- Amerykańskie Towarzystwo Psychiatryczne (APA) opublikowało ostrzeżenie zdrowotne dotyczące ryzyka związanego ze stosowaniem AI w zdrowiu psychicznym.
- Chatboty i aplikacje wellness nie powinny zastępować opieki specjalistów – brak jest dowodów naukowych na ich skuteczność i bezpieczeństwo.
- APA apeluje do decydentów o stworzenie nowych regulacji, zakaz podszywania się AI pod terapeutów i ustanowienie standardów opartych na dowodach.
- Klinicyści muszą zostać przeszkoleni z zakresu AI, prywatności danych i etyki – tylko wtedy technologia może wspierać, a nie zagrażać pacjentom.
Źródło:
- American Psychological Association

