Nawet najbardziej zaawansowane modele sztucznej inteligencji mogą popełniać zaskakująco proste błędy w sytuacjach wymagających etycznej refleksji – wynika z badania opublikowanego w „NPJ Digital Medicine”. Naukowcy z Icahn School of Medicine at Mount Sinai i Rabin Medical Center przeanalizowali, jak duże modele językowe (LLM), takie jak ChatGPT, radzą sobie z klasycznymi i zmodyfikowanymi dylematami etyki medycznej. Efekt? AI może pomijać kluczowe informacje i bezrefleksyjnie powielać znane schematy – co w ochronie zdrowia może mieć poważne konsekwencje dla pacjentów.
Z tego artykułu dowiesz się…
- Jakie błędy popełniają modele AI w ocenie sytuacji etycznych w medycynie.
- Dlaczego sztuczna inteligencja może ignorować nowe informacje i powielać znane schematy.
- W jakich przypadkach AI może stanowić zagrożenie dla bezpieczeństwa pacjentów.
- Dlaczego ludzki nadzór jest kluczowy przy wdrażaniu AI w ochronie zdrowia.
Modele językowe kontra dylematy moralne
Badacze przetestowali kilka komercyjnych modeli AI, konfrontując je z klasycznymi zagadkami etycznymi oraz ich zmodyfikowanymi wersjami. Inspiracją była książka Daniela Kahnemana „Pułapki myślenia”, w której autor pokazuje różnice między szybkim, intuicyjnym myśleniem a powolnym, analitycznym rozumowaniem.
W jednym z testów naukowcy zmodyfikowali znaną zagadkę „Dylemat chirurga”, w której chłopiec trafia do szpitala po wypadku z udziałem swojego ojca, a chirurg mówi: „Nie mogę go operować – to mój syn!”. Rozwiązaniem jest fakt, że chirurg to jego matka – pułapka opiera się na stereotypach płciowych.
W wersji zmienionej badacze dopisali, że ojciec chłopca był chirurgiem. Mimo to część modeli AI nadal sugerowała, że chirurgiem jest matka – ignorując nową informację. To dowód na to, jak modele LLM „przyklejają się” do znajomych wzorców, nawet jeśli są one sprzeczne z faktami.
Błąd mimo zmiany kontekstu
W innym przykładzie badacze przytoczyli znany kazus, w którym rodzice odmawiają zgody na transfuzję krwi z powodów religijnych. W zmodyfikowanej wersji scenariusza zaznaczono jednak, że rodzice wyrazili zgodę. Pomimo tego, wiele modeli AI wciąż rekomendowało „obejście sprzeciwu” – który już nie istniał.
To po raz kolejny pokazało, że AI może domyślnie kierować się znanym schematem, zamiast dostosować się do nowych informacji.
Zdaniem autorów badania, w kontekście opieki zdrowotnej taka automatyzacja myślenia może prowadzić do błędnych decyzji diagnostycznych, terapeutycznych lub prawnych.
Eksperci apelują: AI to wsparcie, nie substytut
– Oczywiście, narzędzia te mogą być niezwykle pomocne, ale nie są nieomylne. Zarówno lekarze, jak i pacjenci powinni zrozumieć, że sztuczna inteligencja najlepiej sprawdza się jako uzupełnienie wiedzy klinicznej, a nie jej substytut, zwłaszcza w przypadku podejmowania złożonych lub ryzykownych decyzji – podkreśla dr Girish Nadkarni, współautor badania i Chief AI Officer w Mount Sinai Health System.
Z kolei dr Eyal Klang, który współkierował badaniem, zauważa, że „w opiece zdrowotnej, gdzie decyzje często niosą ze sobą poważne implikacje etyczne i kliniczne, przeoczenie tych niuansów może mieć realne konsekwencje dla pacjentów„. Właśnie dlatego niezbędna pozostaje rola człowieka – lekarza, pielęgniarki, farmaceuty – który potrafi wychwycić niuanse i krytycznie ocenić rekomendacje algorytmu.
Laboratorium weryfikujące etyczność AI
Zespół zapowiada rozwój tzw. „AI assurance lab”, czyli laboratorium mającego systematycznie testować, jak różne modele radzą sobie z rzeczywistą złożonością kliniczną. Planowane są dalsze analizy oparte na bardziej zróżnicowanych kazusach medycznych – także tych, które nie mają jednoznacznych rozwiązań.
Główne wnioski
- Badanie opublikowane w „NPJ Digital Medicine” ujawniło, że nawet zaawansowane modele AI, jak ChatGPT, popełniają błędy w analizie etycznych dylematów klinicznych.
- Modele LLM często wybierają intuicyjne, znane rozwiązania, ignorując nowe informacje zawarte w zmodyfikowanych scenariuszach.
- Wyniki pokazują potrzebę stałego nadzoru człowieka nad decyzjami wspieranymi przez AI, zwłaszcza w sytuacjach wymagających etycznej wrażliwości.
- Zespół badawczy zapowiedział stworzenie „AI assurance lab”, które będzie testować odporność modeli na realną złożoność medyczną i etyczną.
Źródło:
- The Mount Sinai Hospital

