Uniwersytet Medyczny im. Piastów Śląskich we Wrocławiu poinformował o rosnącej liczbie fałszywych nagrań wideo i audio wykorzystujących wizerunek i głos pracowników uczelni. Materiały są generowane przez sztuczną inteligencję i zawierają nieprawdziwe treści, które mogą wprowadzać odbiorców w błąd. Władze UMW stanowczo odcinają się od tych produkcji i apelują do środowiska medycznego o zachowanie ostrożności.
Z tego artykułu dowiesz się…
- Jakie niebezpieczeństwa niesie wykorzystywanie AI do generowania fałszywych nagrań z udziałem ekspertów medycznych.
- Dlaczego Uniwersytet Medyczny we Wrocławiu stanowczo odcina się od materiałów tworzonych z użyciem AI.
- Gdzie sprawdzać autentyczność komunikatów publikowanych przez UMW.
- Jak zgłaszać podejrzane materiały do weryfikacji.
Sztuczna inteligencja imituje głosy naukowców
Zgodnie z komunikatem opublikowanym przez Uniwersytet Medyczny we Wrocławiu, w ostatnich tygodniach nasiliły się przypadki pojawiania się materiałów wideo i audio wykorzystujących wizerunek oraz głos ekspertów związanych z uczelnią. Zostały one wygenerowane przez algorytmy AI i nie mają nic wspólnego z rzeczywistą działalnością UMW.
Oficjalne komunikaty tylko przez sprawdzone kanały
Uniwersytet przypomina, że jedynym źródłem autentycznych informacji są oficjalne kanały komunikacji uczelni — strona internetowa, media społecznościowe oraz kanał z podcastami na YouTube. Pracownicy UMW nie publikują materiałów z użyciem AI i nie są autorami żadnych treści rozpowszechnianych w tego typu formie.
Władze uczelni podkreślają, że żaden z materiałów wideo lub audio wygenerowanych sztucznie nie został przez nich autoryzowany.
Sprawdzaj źródła, nie udostępniaj
W związku z nasilającym się zjawiskiem dezinformacji UMW apeluje o rozwagę w udostępnianiu treści krążących w mediach społecznościowych i komunikatorach. Szczególnie ważne jest, aby weryfikować źródła — nawet jeśli wypowiedzi pozornie pochodzą od znanych ekspertów.
W razie natrafienia na podejrzane materiały z udziałem osób kojarzonych z uczelnią, należy je zgłaszać bezpośrednio do Działu Komunikacji na adres: komunikacja@umw.edu.pl.
Rośnie zagrożenie deepfake’ami w medycynie
Zjawisko tworzenia treści przy użyciu AI coraz częściej dotyka również środowiska medycznego. Dezinformacja generowana z użyciem deepfake’ów może być szczególnie niebezpieczna — zarówno dla pacjentów, jak i dla instytucji ochrony zdrowia. Tylko w ostatnich miesiącach na łamach naszego serwisu informowaliśmy o deepfake’ach, w których wykorzystano wizerunki znanych lekarzy m.in. prof. Skarżyńskiego, czy prof. Szaflika.
Główne wnioski
- UMW ostrzega przed fałszywymi materiałami wideo i audio generowanymi przez AI, w których podszywa się pod pracowników uczelni.
- Oficjalne informacje publikowane są wyłącznie za pośrednictwem strony internetowej, mediów społecznościowych i kanału YouTube uczelni.
- Uczelnia apeluje o rozwagę przy rozpowszechnianiu treści, które mogą wprowadzać odbiorców w błąd i zachęca do ich zgłaszania.
- Adres kontaktowy do zgłaszania incydentów to: komunikacja@umw.edu.pl.
Źródło:
- UMW

