Strona głównaBadaniaWięcej wyjaśnień AI nie zawsze oznacza lepszą diagnozę raka – nowe badania

Więcej wyjaśnień AI nie zawsze oznacza lepszą diagnozę raka – nowe badania

Aktualizacja 28-12-2025 00:30

Sztuczna inteligencja (AI) coraz śmielej wkracza do diagnostyki onkologicznej, szczególnie w analizie obrazów medycznych. Nowe badania pokazują jednak, że większa „przezroczystość” algorytmów nie zawsze działa na korzyść lekarzy ani pacjentów. Paradoksalnie – nadmiar wyjaśnień może obniżać skuteczność diagnozy raka.

Z tego artykułu dowiesz się…

  • Dlaczego większa liczba wyjaśnień generowanych przez AI nie zawsze poprawia trafność diagnozy raka i w jakich sytuacjach może ją obniżać.
  • Jak wyjaśnialność sztucznej inteligencji wpływa na zaufanie lekarzy oraz ich sposób podejmowania decyzji klinicznych.
  • Czym jest obciążenie poznawcze w diagnostyce obrazowej i dlaczego ma kluczowe znaczenie dla bezpieczeństwa pacjentów.
  • Jak projektować systemy AI w medycynie, aby realnie wspierały lekarzy, a nie utrudniały pracy klinicznej.

Sztuczna inteligencja w diagnostyce obrazowej – realna zmiana w medycynie

Postęp w informatyce medycznej oraz dostęp do ogromnych zbiorów danych sprawiły, że algorytmy AI stały się niezwykle skuteczne w analizie zdjęć rentgenowskich, rezonansu magnetycznego czy tomografii komputerowej. W onkologii oznacza to szybsze wykrywanie zmian nowotworowych i wsparcie lekarzy w podejmowaniu decyzji klinicznych.

Systemy sztucznej inteligencji potrafią szybko przetwarzać tysiące obrazów i dostarczać prognozy znacznie szybciej niż ludzie – mówi Onur Asan, adiunkt w Stevens Institute of Technology. Jak dodaje – w przeciwieństwie do ludzi, sztuczna inteligencja nie męczy się ani nie traci koncentracji z upływem czasu.

Algorytmy AI wykrywają raka trzustki wcześniej i dokładniej niż radiolodzy – przełomowe ustalenia
ZOBACZ KONIECZNIE Algorytmy AI wykrywają raka trzustki wcześniej i dokładniej niż radiolodzy – przełomowe ustalenia

Problem „czarnej skrzynki” i potrzeba wyjaśnialności

Mimo rosnącej skuteczności, wielu klinicystów nadal podchodzi do AI z dystansem. Główną barierą pozostaje tzw. problem „czarnej skrzynki”, czyli brak jasności, w jaki sposób algorytm dochodzi do konkretnego wyniku.

Kiedy klinicyści nie wiedzą, jak sztuczna inteligencja generuje swoje prognozy, jest mniej prawdopodobne, że jej zaufają – podkreśla Asan. To właśnie ta nieufność stała się punktem wyjścia do badań nad rolą wyjaśnień generowanych przez AI.

Sztuczna inteligencja przewyższa radiologów w wykrywaniu ukrytych ciał obcych w TK klatki piersiowej
ZOBACZ KONIECZNIE Sztuczna inteligencja przewyższa radiologów w wykrywaniu ukrytych ciał obcych w TK klatki piersiowej

Badanie z udziałem onkologów i radiologów

Zespół Onura Asana, we współpracy z Olyą Rezaeian oraz Alparslanem Emrahem Bayrakiem, przeprowadził eksperyment z udziałem 28 onkologów i radiologów. Lekarze analizowali obrazy raka piersi przy wsparciu narzędzia AI, otrzymując jednocześnie różne poziomy wyjaśnień dotyczących ocen algorytmu.

Po zakończeniu zadania uczestnicy oceniali m.in. poziom zaufania do AI, trudność analizy oraz własną skuteczność diagnostyczną.

Więcej wyjaśnień ≠ większe zaufanie

Wyniki okazały się zaskakujące. Choć AI poprawiała ogólną dokładność diagnozy w porównaniu z grupą kontrolną, bardziej szczegółowe wyjaśnienia nie zwiększały zaufania lekarzy.

Odkryliśmy, że większa zrozumiałość nie oznacza większego zaufania – mówi Asan. Dodatkowe informacje wymagały od lekarzy przetwarzania większej liczby danych, co wydłużało czas podejmowania decyzji i obniżało skuteczność pracy.

Nowe standardy w teleradiologii: MZ proponuje większe bezpieczeństwo pacjenta
ZOBACZ KONIECZNIE Nowe standardy w teleradiologii: MZ proponuje większe bezpieczeństwo pacjenta

Obciążenie poznawcze jako realne zagrożenie

Kluczowym problemem okazało się rosnące obciążenie poznawcze. Im bardziej złożone były wyjaśnienia AI, tym większe ryzyko błędów diagnostycznych.

Nie chcemy zwiększać obciążenia poznawczego użytkowników poprzez dodawanie kolejnych zadań – podkreśla Asan. Nadmiar informacji może odciągać uwagę od samego obrazu medycznego, co w onkologii ma krytyczne znaczenie.

Ryzyko ślepego zaufania do algorytmu

Badania wykazały również inny niepokojący mechanizm – nadmierne zaufanie do AI. W części przypadków lekarze polegali na sugestiach algorytmu kosztem własnej analizy obrazu.

Jeśli system sztucznej inteligencji nie jest dobrze zaprojektowany i popełnia błędy, podczas gdy użytkownicy mają do niego duże zaufanie, niektórzy lekarze mogą popaść w ślepe zaufanie, wierząc, że wszystko, co sugeruje sztuczna inteligencja, jest prawdą, i nie analizować wystarczająco dokładnie wyników – ostrzega Asan.

Dwa badania, jeden wniosek

Wnioski zespołu zostały opisane w dwóch publikacjach naukowych:

  • „Wpływ wyjaśnień AI na zaufanie lekarzy i dokładność diagnostyczną w raku piersi” („Applied Ergonomics”, 1 listopada 2025 r.),
  • „Explanationability and AI Confidence in Clinical Decision Support Systems: Effects on Trust, Diagnostic Performance, and Cognitive Load in Breast Cancer Care” („International Journal of Human–Computer Interaction”, 7 sierpnia 2025 r.).

Oba badania podkreślają, że wyjaśnialność AI musi być projektowana z dużą ostrożnością.

AI z AGH pomaga radiologom szybciej wykrywać zmiany nowotworowe i pourazowe
ZOBACZ KONIECZNIE AI z AGH pomaga radiologom szybciej wykrywać zmiany nowotworowe i pourazowe

Projektowanie AI z myślą o lekarzach, nie algorytmach

Zdaniem Asana przyszłość AI w medycynie nie stoi pod znakiem zapytania, ale wymaga lepszego projektowania systemów oraz odpowiedniego szkolenia użytkowników.

Nasze odkrycia sugerują, że projektanci powinni zachować ostrożność, dodając wyjaśnienia do systemów AI – zaznacza badacz. Równie istotne jest szkolenie lekarzy, które powinno koncentrować się na interpretacji wyników AI, a nie bezkrytycznym zaufaniu do technologii.

Równowaga między użytecznością a łatwością obsługi

Jak podsumowuje Asan, kluczowe są dwa czynniki decydujące o adopcji technologii: użyteczność i prostota.

Badania pokazują, że istnieją dwa główne parametry decydujące o tym, czy dana osoba korzysta z jakiejkolwiek technologii – postrzegana użyteczność i postrzegana łatwość obsługi – mówi. Jeśli więc lekarze uznają to narzędzie za przydatne w ich pracy i łatwe w obsłudze, to będą z niego korzystać.

Główne wnioski

  1. Sztuczna inteligencja zwiększa dokładność diagnozy raka w porównaniu z brakiem wsparcia AI, co potwierdzono w badaniu z udziałem 28 onkologów i radiologów.
  2. Bardziej szczegółowe wyjaśnienia AI nie zwiększają zaufania lekarzy i mogą wydłużać czas podejmowania decyzji, obniżając skuteczność diagnostyczną.
  3. Nadmierna liczba informacji zwiększa obciążenie poznawcze, co podnosi ryzyko błędów i potencjalnej szkody dla pacjenta.
  4. Kluczowa jest równowaga między użytecznością a prostotą systemów AI oraz odpowiednie szkolenie lekarzy, aby uniknąć ślepego zaufania do algorytmów.

Źródło:

  • Stevens Institute of Technology
  • https://www.sciencedirect.com/science/article/pii/S0003687025001139
  • https://www.tandfonline.com/doi/abs/10.1080/10447318.2025.2539458

Trzymaj rękę na pulsie.
Zaobserwuj nas na Google News!

ikona Google News
Redakcja Alert Medyczny
Redakcja Alert Medyczny
Alert Medyczny to źródło najświeższych informacji i fachowych analiz, stworzone z myślą o profesjonalistach działających w branży medycznej i farmaceutycznej.
Najważniejsze dziś

Trzymaj rękę na pulsie. Zapisz się na newsletter.

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Więcej aktualności