Sztuczna inteligencja (AI) coraz śmielej wkracza do diagnostyki onkologicznej, szczególnie w analizie obrazów medycznych. Nowe badania pokazują jednak, że większa „przezroczystość” algorytmów nie zawsze działa na korzyść lekarzy ani pacjentów. Paradoksalnie – nadmiar wyjaśnień może obniżać skuteczność diagnozy raka.
Z tego artykułu dowiesz się…
- Dlaczego większa liczba wyjaśnień generowanych przez AI nie zawsze poprawia trafność diagnozy raka i w jakich sytuacjach może ją obniżać.
- Jak wyjaśnialność sztucznej inteligencji wpływa na zaufanie lekarzy oraz ich sposób podejmowania decyzji klinicznych.
- Czym jest obciążenie poznawcze w diagnostyce obrazowej i dlaczego ma kluczowe znaczenie dla bezpieczeństwa pacjentów.
- Jak projektować systemy AI w medycynie, aby realnie wspierały lekarzy, a nie utrudniały pracy klinicznej.
Sztuczna inteligencja w diagnostyce obrazowej – realna zmiana w medycynie
Postęp w informatyce medycznej oraz dostęp do ogromnych zbiorów danych sprawiły, że algorytmy AI stały się niezwykle skuteczne w analizie zdjęć rentgenowskich, rezonansu magnetycznego czy tomografii komputerowej. W onkologii oznacza to szybsze wykrywanie zmian nowotworowych i wsparcie lekarzy w podejmowaniu decyzji klinicznych.
Systemy sztucznej inteligencji potrafią szybko przetwarzać tysiące obrazów i dostarczać prognozy znacznie szybciej niż ludzie – mówi Onur Asan, adiunkt w Stevens Institute of Technology. Jak dodaje – w przeciwieństwie do ludzi, sztuczna inteligencja nie męczy się ani nie traci koncentracji z upływem czasu.
Problem „czarnej skrzynki” i potrzeba wyjaśnialności
Mimo rosnącej skuteczności, wielu klinicystów nadal podchodzi do AI z dystansem. Główną barierą pozostaje tzw. problem „czarnej skrzynki”, czyli brak jasności, w jaki sposób algorytm dochodzi do konkretnego wyniku.
Kiedy klinicyści nie wiedzą, jak sztuczna inteligencja generuje swoje prognozy, jest mniej prawdopodobne, że jej zaufają – podkreśla Asan. To właśnie ta nieufność stała się punktem wyjścia do badań nad rolą wyjaśnień generowanych przez AI.
Badanie z udziałem onkologów i radiologów
Zespół Onura Asana, we współpracy z Olyą Rezaeian oraz Alparslanem Emrahem Bayrakiem, przeprowadził eksperyment z udziałem 28 onkologów i radiologów. Lekarze analizowali obrazy raka piersi przy wsparciu narzędzia AI, otrzymując jednocześnie różne poziomy wyjaśnień dotyczących ocen algorytmu.
Po zakończeniu zadania uczestnicy oceniali m.in. poziom zaufania do AI, trudność analizy oraz własną skuteczność diagnostyczną.
Więcej wyjaśnień ≠ większe zaufanie
Wyniki okazały się zaskakujące. Choć AI poprawiała ogólną dokładność diagnozy w porównaniu z grupą kontrolną, bardziej szczegółowe wyjaśnienia nie zwiększały zaufania lekarzy.
Odkryliśmy, że większa zrozumiałość nie oznacza większego zaufania – mówi Asan. Dodatkowe informacje wymagały od lekarzy przetwarzania większej liczby danych, co wydłużało czas podejmowania decyzji i obniżało skuteczność pracy.
Obciążenie poznawcze jako realne zagrożenie
Kluczowym problemem okazało się rosnące obciążenie poznawcze. Im bardziej złożone były wyjaśnienia AI, tym większe ryzyko błędów diagnostycznych.
Nie chcemy zwiększać obciążenia poznawczego użytkowników poprzez dodawanie kolejnych zadań – podkreśla Asan. Nadmiar informacji może odciągać uwagę od samego obrazu medycznego, co w onkologii ma krytyczne znaczenie.
Ryzyko ślepego zaufania do algorytmu
Badania wykazały również inny niepokojący mechanizm – nadmierne zaufanie do AI. W części przypadków lekarze polegali na sugestiach algorytmu kosztem własnej analizy obrazu.
Jeśli system sztucznej inteligencji nie jest dobrze zaprojektowany i popełnia błędy, podczas gdy użytkownicy mają do niego duże zaufanie, niektórzy lekarze mogą popaść w ślepe zaufanie, wierząc, że wszystko, co sugeruje sztuczna inteligencja, jest prawdą, i nie analizować wystarczająco dokładnie wyników – ostrzega Asan.
Dwa badania, jeden wniosek
Wnioski zespołu zostały opisane w dwóch publikacjach naukowych:
- „Wpływ wyjaśnień AI na zaufanie lekarzy i dokładność diagnostyczną w raku piersi” („Applied Ergonomics”, 1 listopada 2025 r.),
- „Explanationability and AI Confidence in Clinical Decision Support Systems: Effects on Trust, Diagnostic Performance, and Cognitive Load in Breast Cancer Care” („International Journal of Human–Computer Interaction”, 7 sierpnia 2025 r.).
Oba badania podkreślają, że wyjaśnialność AI musi być projektowana z dużą ostrożnością.
Projektowanie AI z myślą o lekarzach, nie algorytmach
Zdaniem Asana przyszłość AI w medycynie nie stoi pod znakiem zapytania, ale wymaga lepszego projektowania systemów oraz odpowiedniego szkolenia użytkowników.
Nasze odkrycia sugerują, że projektanci powinni zachować ostrożność, dodając wyjaśnienia do systemów AI – zaznacza badacz. Równie istotne jest szkolenie lekarzy, które powinno koncentrować się na interpretacji wyników AI, a nie bezkrytycznym zaufaniu do technologii.
Równowaga między użytecznością a łatwością obsługi
Jak podsumowuje Asan, kluczowe są dwa czynniki decydujące o adopcji technologii: użyteczność i prostota.
Badania pokazują, że istnieją dwa główne parametry decydujące o tym, czy dana osoba korzysta z jakiejkolwiek technologii – postrzegana użyteczność i postrzegana łatwość obsługi – mówi. Jeśli więc lekarze uznają to narzędzie za przydatne w ich pracy i łatwe w obsłudze, to będą z niego korzystać.
Główne wnioski
- Sztuczna inteligencja zwiększa dokładność diagnozy raka w porównaniu z brakiem wsparcia AI, co potwierdzono w badaniu z udziałem 28 onkologów i radiologów.
- Bardziej szczegółowe wyjaśnienia AI nie zwiększają zaufania lekarzy i mogą wydłużać czas podejmowania decyzji, obniżając skuteczność diagnostyczną.
- Nadmierna liczba informacji zwiększa obciążenie poznawcze, co podnosi ryzyko błędów i potencjalnej szkody dla pacjenta.
- Kluczowa jest równowaga między użytecznością a prostotą systemów AI oraz odpowiednie szkolenie lekarzy, aby uniknąć ślepego zaufania do algorytmów.
Źródło:
- Stevens Institute of Technology
- https://www.sciencedirect.com/science/article/pii/S0003687025001139
- https://www.tandfonline.com/doi/abs/10.1080/10447318.2025.2539458

