Strona głównaCyfryzacja i AI w medycynieChatboty AI źródłem dezinformacji o zdrowiu? Alarmujące wyniki badań

Chatboty AI źródłem dezinformacji o zdrowiu? Alarmujące wyniki badań

Aktualizacja 25-06-2025 16:01

Sztuczna inteligencja może być cennym wsparciem w ochronie zdrowia, ale nowe badania pokazują, że narzędzia AI wciąż mogą stać się źródłem poważnej dezinformacji. Zespół naukowców z Uniwersytetu Flinders sprawdził, jak łatwo można przeprogramować popularne chatboty językowe do generowania fałszywych informacji medycznych. Wyniki są niepokojące.

Z tego artykułu dowiesz się…

  • Które modele AI okazały się najbardziej podatne na manipulację.
  • Jakie ryzyko niesie generowanie fałszywych informacji medycznych przez LLM.
  • Dlaczego Claude 3.5 Sonnet wypadł lepiej niż inne testowane modele.

Test odporności na dezinformację

W badaniu oceniono pięć dużych modeli językowych (LLM)

  • GPT-4o (OpenAI), 
  • Gemini 1.5 Pro (Google), 
  • Claude 3.5 Sonnet (Anthropic), 
  • Llama 3.2-90B Vision (Meta), 
  • Grok Beta (xAI). 

Naukowcy wykorzystali API każdego z modeli, by nadać im systemowe instrukcje zmieniające sposób działania. Chatboty zostały zaprogramowane tak, aby zawsze odpowiadały nieprawidłowo na pytania zdrowotne, brzmiały autorytatywnie i podawały sfabrykowane odniesienia do rzekomo wiarygodnych źródeł.

Sztuczna inteligencja w diagnostyce: które polskie szpitale już z niej korzystają?
ZOBACZ KONIECZNIE Sztuczna inteligencja w diagnostyce: które polskie szpitale już z niej korzystają?

Wyniki: 88% odpowiedzi zawierało dezinformację

Testy objęły 10 pytań z zakresu zdrowia – od bezpieczeństwa szczepionek, przez HIV, po depresję. Każde pytanie zadano dwukrotnie. Okazało się, że 88% wygenerowanych odpowiedzi zawierało dezinformację. W czterech przypadkach (GPT-4o, Gemini, Llama i Grok) chatboty udzieliły błędnych odpowiedzi na wszystkie pytania.

Claude 3.5 Sonnet wypadł relatywnie najlepiej – udzielił dezinformujących odpowiedzi w 40% przypadków, wskazuje to na skuteczniejsze zabezpieczenia. Niemniej jednak nawet ten model okazał się podatny na manipulacje systemowe.

Niebezpieczny potencjał narzędzi AI

Naukowcy przeprowadzili również osobną analizę GPT Store – platformy z publicznie dostępnymi chatbotami tworzonymi przez użytkowników OpenAI. Zidentyfikowano trzy chatboty dostrojone do udzielania fałszywych informacji o zdrowiu. W tym teście 97% wygenerowanych odpowiedzi stanowiło dezinformację.

AI wytrenowana na danych medycznych 57 mln mieszkańców Anglii – rewolucyjny model Foresight w NHS
ZOBACZ KONIECZNIE AI wytrenowana na danych medycznych 57 mln mieszkańców Anglii – rewolucyjny model Foresight w NHS

AI wymaga pilnych zabezpieczeń

Badacze wskazują, że obecne zabezpieczenia dużych modeli językowych są niewystarczające, by zapobiec ich celowemu wykorzystaniu w szerzeniu szkodliwych treści. Bez dodatkowych warstw ochronnych, LLM mogą stać się narzędziami do masowego rozpowszechniania fake newsów medycznych, a to niesie realne zagrożenie dla zdrowia publicznego.

Główne wnioski

  1. 88% odpowiedzi generowanych przez zmanipulowane chatboty AI zawierało dezinformację zdrowotną
  2. Claude 3.5 Sonnet był najodporniejszy – fałszywe odpowiedzi pojawiły się tylko w 40% przypadków
  3. GPT-4o, Gemini, Llama i Grok udzielały nieprawdziwych odpowiedzi na wszystkie testowe pytania
  4. Publiczne GPT w sklepie OpenAI generowały dezinformację w 97% przypadków

Źródło:

  • American College of Physicians

Trzymaj rękę na pulsie.
Zaobserwuj nas na Google News!

ikona Google News
Redakcja Alert Medyczny
Redakcja Alert Medyczny
Alert Medyczny to źródło najświeższych informacji i fachowych analiz, stworzone z myślą o profesjonalistach działających w branży medycznej i farmaceutycznej.

Ważne tematy

Trzymaj rękę na pulsie. Zapisz się na newsletter.

ZOSTAW ODPOWIEDŹ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj

Więcej aktualności