Sztuczna inteligencja (AI) i uczenie maszynowe są coraz częściej stosowane w medycynie, w tym w obszarze zdrowia psychicznego. Wielu ekspertów wiązało z nimi nadzieję na dokładniejsze prognozowanie zachowań samobójczych i samookaleczeń. Jednak najnowsze badania opublikowane w czasopiśmie PLOS Medicine pokazują, że obecne algorytmy nie spełniają tych oczekiwań.
Z tego artykułu dowiesz się…
- Dlaczego sztuczna inteligencja nie radzi sobie z przewidywaniem samobójstw i samookaleczeń.
- Jakie były wyniki największej do tej pory metaanalizy obejmującej ponad 35 milionów dokumentacji medycznych.
- W jaki sposób algorytmy AI wypadają w porównaniu z tradycyjnymi skalami ryzyka.
- Jakie znaczenie mają te odkrycia dla praktyki klinicznej i przyszłych wytycznych.
50 lat prób przewidywania zachowań samobójczych
Przez ostatnie pół wieku opracowywano różne skale oceny ryzyka, mające identyfikować osoby najbardziej zagrożone samobójstwem lub samookaleczeniem. Niestety, wszystkie te narzędzia charakteryzowały się ograniczoną skutecznością. Rozwój uczenia maszynowego i dostęp do ogromnych zbiorów danych medycznych rozbudziły nadzieję na przełom.
Najnowsza analiza przeprowadzona przez zespół z Uniwersytetu w Melbourne pokazuje jednak, że także w przypadku sztucznej inteligencji dokładność predykcji jest niewystarczająca.
Metaanaliza obejmująca miliony pacjentów
Badacze przeprowadzili systematyczny przegląd i metaanalizę 53 badań, które łącznie objęły ponad 35 milionów elektronicznych dokumentacji medycznych oraz prawie 250 000 przypadków samobójstw i samookaleczeń leczonych w szpitalach.
Zespół stwierdził, że algorytmy miały umiarkowaną czułość i wysoką swoistość – oznacza to, że dobrze identyfikowały osoby o niskim ryzyku, które nie powróciły do opieki medycznej z powodu samookaleczenia ani nie zmarły w wyniku samobójstwa. Problemem okazała się jednak zdolność wskazywania osób realnie zagrożonych.
Wyniki badań – gdzie zawiodła sztuczna inteligencja?
Analiza ujawniła, że algorytmy sztucznej inteligencji błędnie klasyfikowały jako osoby
niskiego ryzyka ponad połowę pacjentów, którzy faktycznie podjęli próbę samobójczą lub samookaleczenie. Spośród osób zakwalifikowanych jako wysokiego ryzyka, jedynie 6% zmarło w wyniku samobójstwa, a mniej niż 20% ponownie zgłosiło się do szpitala z powodu samookaleczenia.
Autorzy badania podsumowali jednoznacznie:
Stwierdziliśmy, że właściwości predykcyjne tych algorytmów uczenia maszynowego były słabe i nie lepsze od tradycyjnych skal oceny ryzyka.
Ograniczenia badań i jakość danych
Badacze zauważyli, że ogólna jakość przeanalizowanych badań była niska, a większość cechowała się wysokim lub niejasnym ryzykiem błędu systematycznego. W związku z tym nie istnieją wystarczające podstawy, by włączać algorytmy sztucznej inteligencji do praktyki klinicznej w zakresie oceny ryzyka samobójstwa.
Autorzy podkreślili:
Rośnie zainteresowanie możliwościami sztucznej inteligencji i uczenia maszynowego w zakresie precyzyjnej identyfikacji pacjentów z wysokim ryzykiem samobójstwa i samookaleczenia. Nasze badania pokazują, że opracowane algorytmy słabo prognozują, kto umrze śmiercią samobójczą lub ponownie zgłosi się do służby zdrowia w celu leczenia samookaleczenia, a także charakteryzują się wysokim wskaźnikiem wyników fałszywie dodatnich.
Wnioski dla praktyki klinicznej
Na całym świecie obowiązujące wytyczne praktyki klinicznej odradzają stosowanie skal ryzyka jako podstawy do podejmowania decyzji terapeutycznych. Nowe badanie dostarcza kolejnych dowodów na to, że również narzędzia AI nie są w stanie poprawić jakości prognoz.
Jak stwierdzają autorzy:
Nasze badanie pokazuje, że algorytmy uczenia maszynowego nie są lepsze w przewidywaniu przyszłych zachowań samobójczych niż tradycyjne narzędzia oceny ryzyka, na których opierały się te wytyczne. Nie widzimy dowodów uzasadniających zmianę tych wytycznych.
👉 Wyniki oraz opis badań znajdziesz pod TYM LINKIEM
Główne wnioski
- Algorytmy AI miały umiarkowaną czułość i wysoką swoistość – dobrze identyfikowały osoby o niskim ryzyku, ale zawodziły przy wskazywaniu osób realnie zagrożonych.
- Ponad połowa osób zagrożonych została błędnie sklasyfikowana jako niskiego ryzyka, co podważa wiarygodność tych narzędzi w praktyce klinicznej.
- Tylko 6% osób zakwalifikowanych jako wysokiego ryzyka faktycznie zmarło w wyniku samobójstwa, a mniej niż 20% ponownie zgłosiło się do opieki zdrowotnej z powodu samookaleczenia.
- Brak dowodów na przewagę AI nad tradycyjnymi narzędziami – autorzy badań podkreślają, że nie ma podstaw do zmiany obecnych wytycznych klinicznych.
Źródło:
- PLOS Medicine
- Public Library of Science