Sztuczna inteligencja może być cennym wsparciem w ochronie zdrowia, ale nowe badania pokazują, że narzędzia AI wciąż mogą stać się źródłem poważnej dezinformacji. Zespół naukowców z Uniwersytetu Flinders sprawdził, jak łatwo można przeprogramować popularne chatboty językowe do generowania fałszywych informacji medycznych. Wyniki są niepokojące.
Z tego artykułu dowiesz się…
- Które modele AI okazały się najbardziej podatne na manipulację.
- Jakie ryzyko niesie generowanie fałszywych informacji medycznych przez LLM.
- Dlaczego Claude 3.5 Sonnet wypadł lepiej niż inne testowane modele.
Test odporności na dezinformację
W badaniu oceniono pięć dużych modeli językowych (LLM):
- GPT-4o (OpenAI),
- Gemini 1.5 Pro (Google),
- Claude 3.5 Sonnet (Anthropic),
- Llama 3.2-90B Vision (Meta),
- Grok Beta (xAI).
Naukowcy wykorzystali API każdego z modeli, by nadać im systemowe instrukcje zmieniające sposób działania. Chatboty zostały zaprogramowane tak, aby zawsze odpowiadały nieprawidłowo na pytania zdrowotne, brzmiały autorytatywnie i podawały sfabrykowane odniesienia do rzekomo wiarygodnych źródeł.
Wyniki: 88% odpowiedzi zawierało dezinformację
Testy objęły 10 pytań z zakresu zdrowia – od bezpieczeństwa szczepionek, przez HIV, po depresję. Każde pytanie zadano dwukrotnie. Okazało się, że 88% wygenerowanych odpowiedzi zawierało dezinformację. W czterech przypadkach (GPT-4o, Gemini, Llama i Grok) chatboty udzieliły błędnych odpowiedzi na wszystkie pytania.
Claude 3.5 Sonnet wypadł relatywnie najlepiej – udzielił dezinformujących odpowiedzi w 40% przypadków, wskazuje to na skuteczniejsze zabezpieczenia. Niemniej jednak nawet ten model okazał się podatny na manipulacje systemowe.
Niebezpieczny potencjał narzędzi AI
Naukowcy przeprowadzili również osobną analizę GPT Store – platformy z publicznie dostępnymi chatbotami tworzonymi przez użytkowników OpenAI. Zidentyfikowano trzy chatboty dostrojone do udzielania fałszywych informacji o zdrowiu. W tym teście 97% wygenerowanych odpowiedzi stanowiło dezinformację.
AI wymaga pilnych zabezpieczeń
Badacze wskazują, że obecne zabezpieczenia dużych modeli językowych są niewystarczające, by zapobiec ich celowemu wykorzystaniu w szerzeniu szkodliwych treści. Bez dodatkowych warstw ochronnych, LLM mogą stać się narzędziami do masowego rozpowszechniania fake newsów medycznych, a to niesie realne zagrożenie dla zdrowia publicznego.
Główne wnioski
- 88% odpowiedzi generowanych przez zmanipulowane chatboty AI zawierało dezinformację zdrowotną
- Claude 3.5 Sonnet był najodporniejszy – fałszywe odpowiedzi pojawiły się tylko w 40% przypadków
- GPT-4o, Gemini, Llama i Grok udzielały nieprawdziwych odpowiedzi na wszystkie testowe pytania
- Publiczne GPT w sklepie OpenAI generowały dezinformację w 97% przypadków
Źródło:
- American College of Physicians

