Strona głównaBadaniaCzy sztuczna inteligencja może przewidzieć samobójstwo? Z nowych badań wynika, że nie

Czy sztuczna inteligencja może przewidzieć samobójstwo? Z nowych badań wynika, że nie

Aktualizacja 12-09-2025 17:18

Udostępnij

Sztuczna inteligencja (AI) i uczenie maszynowe są coraz częściej stosowane w medycynie, w tym w obszarze zdrowia psychicznego. Wielu ekspertów wiązało z nimi nadzieję na dokładniejsze prognozowanie zachowań samobójczych i samookaleczeń. Jednak najnowsze badania opublikowane w czasopiśmie PLOS Medicine pokazują, że obecne algorytmy nie spełniają tych oczekiwań.

Z tego artykułu dowiesz się…

  • Dlaczego sztuczna inteligencja nie radzi sobie z przewidywaniem samobójstw i samookaleczeń.
  • Jakie były wyniki największej do tej pory metaanalizy obejmującej ponad 35 milionów dokumentacji medycznych.
  • W jaki sposób algorytmy AI wypadają w porównaniu z tradycyjnymi skalami ryzyka.
  • Jakie znaczenie mają te odkrycia dla praktyki klinicznej i przyszłych wytycznych.

50 lat prób przewidywania zachowań samobójczych

Przez ostatnie pół wieku opracowywano różne skale oceny ryzyka, mające identyfikować osoby najbardziej zagrożone samobójstwem lub samookaleczeniem. Niestety, wszystkie te narzędzia charakteryzowały się ograniczoną skutecznością. Rozwój uczenia maszynowego i dostęp do ogromnych zbiorów danych medycznych rozbudziły nadzieję na przełom.

Najnowsza analiza przeprowadzona przez zespół z Uniwersytetu w Melbourne pokazuje jednak, że także w przypadku sztucznej inteligencji dokładność predykcji jest niewystarczająca.

Rodzice nastolatka pozywają OpenAI – ChatGPT miał pomóc w planowaniu samobójstwa 14-latka
ZOBACZ KONIECZNIE Rodzice nastolatka pozywają OpenAI – ChatGPT miał pomóc w planowaniu samobójstwa 14-latka

Metaanaliza obejmująca miliony pacjentów

Badacze przeprowadzili systematyczny przegląd i metaanalizę 53 badań, które łącznie objęły ponad 35 milionów elektronicznych dokumentacji medycznych oraz prawie 250 000 przypadków samobójstw i samookaleczeń leczonych w szpitalach.

Zespół stwierdził, że algorytmy miały umiarkowaną czułość i wysoką swoistość – oznacza to, że dobrze identyfikowały osoby o niskim ryzyku, które nie powróciły do opieki medycznej z powodu samookaleczenia ani nie zmarły w wyniku samobójstwa. Problemem okazała się jednak zdolność wskazywania osób realnie zagrożonych.

Opracowano nową metodę leczenia depresji poporodowej – 80% mniej myśli samobójczych po 6 sesjach
ZOBACZ KONIECZNIE Opracowano nową metodę leczenia depresji poporodowej – 80% mniej myśli samobójczych po 6 sesjach

Wyniki badań – gdzie zawiodła sztuczna inteligencja?

Analiza ujawniła, że algorytmy sztucznej inteligencji błędnie klasyfikowały jako osoby 

niskiego ryzyka ponad połowę pacjentów, którzy faktycznie podjęli próbę samobójczą lub samookaleczenie. Spośród osób zakwalifikowanych jako wysokiego ryzyka, jedynie 6% zmarło w wyniku samobójstwa, a mniej niż 20% ponownie zgłosiło się do szpitala z powodu samookaleczenia.

Autorzy badania podsumowali jednoznacznie:

Stwierdziliśmy, że właściwości predykcyjne tych algorytmów uczenia maszynowego były słabe i nie lepsze od tradycyjnych skal oceny ryzyka.

87% samobójstw w Polsce popełniają mężczyźni. Jak temu zapobiec?
ZOBACZ KONIECZNIE 87% samobójstw w Polsce popełniają mężczyźni. Jak temu zapobiec?

Ograniczenia badań i jakość danych

Badacze zauważyli, że ogólna jakość przeanalizowanych badań była niska, a większość cechowała się wysokim lub niejasnym ryzykiem błędu systematycznego. W związku z tym nie istnieją wystarczające podstawy, by włączać algorytmy sztucznej inteligencji do praktyki klinicznej w zakresie oceny ryzyka samobójstwa.

Autorzy podkreślili:

Rośnie zainteresowanie możliwościami sztucznej inteligencji i uczenia maszynowego w zakresie precyzyjnej identyfikacji pacjentów z wysokim ryzykiem samobójstwa i samookaleczenia. Nasze badania pokazują, że opracowane algorytmy słabo prognozują, kto umrze śmiercią samobójczą lub ponownie zgłosi się do służby zdrowia w celu leczenia samookaleczenia, a także charakteryzują się wysokim wskaźnikiem wyników fałszywie dodatnich.

Depresja maskowana – gdy pierwszym objawem jest próba samobójcza
ZOBACZ KONIECZNIE Depresja maskowana – gdy pierwszym objawem jest próba samobójcza

Wnioski dla praktyki klinicznej

Na całym świecie obowiązujące wytyczne praktyki klinicznej odradzają stosowanie skal ryzyka jako podstawy do podejmowania decyzji terapeutycznych. Nowe badanie dostarcza kolejnych dowodów na to, że również narzędzia AI nie są w stanie poprawić jakości prognoz.

Jak stwierdzają autorzy:

Nasze badanie pokazuje, że algorytmy uczenia maszynowego nie są lepsze w przewidywaniu przyszłych zachowań samobójczych niż tradycyjne narzędzia oceny ryzyka, na których opierały się te wytyczne. Nie widzimy dowodów uzasadniających zmianę tych wytycznych.

👉 Wyniki oraz opis badań znajdziesz pod TYM LINKIEM

Główne wnioski

  1. Algorytmy AI miały umiarkowaną czułość i wysoką swoistość – dobrze identyfikowały osoby o niskim ryzyku, ale zawodziły przy wskazywaniu osób realnie zagrożonych.
  2. Ponad połowa osób zagrożonych została błędnie sklasyfikowana jako niskiego ryzyka, co podważa wiarygodność tych narzędzi w praktyce klinicznej.
  3. Tylko 6% osób zakwalifikowanych jako wysokiego ryzyka faktycznie zmarło w wyniku samobójstwa, a mniej niż 20% ponownie zgłosiło się do opieki zdrowotnej z powodu samookaleczenia.
  4. Brak dowodów na przewagę AI nad tradycyjnymi narzędziami – autorzy badań podkreślają, że nie ma podstaw do zmiany obecnych wytycznych klinicznych.

Źródło:

  • PLOS Medicine
  • Public Library of Science

Trzymaj rękę na pulsie. Zaobserwuj nas na Google News!

ikona Google News
Redakcja Alert Medyczny
Redakcja Alert Medyczny
Alert Medyczny to źródło najświeższych informacji i fachowych analiz, stworzone z myślą o profesjonalistach działających w branży medycznej i farmaceutycznej.

Ważne tematy

Trzymaj rękę na pulsie. Zapisz się na newsletter.

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Więcej aktualności