Uniwersytet Medyczny w Białymstoku wprowadza nowe zasady korzystania z narzędzi sztucznej inteligencji, takich jak ChatGPT, w działalności dydaktycznej, naukowej i administracyjnej. Nowe zarządzenie rektora ma przede wszystkim chronić dane osobowe i zapewnić zgodność z RODO.
Z tego artykułu dowiesz się…
- Jakie konkretne zasady wprowadził Uniwersytet Medyczny w Białymstoku w zakresie korzystania z narzędzi AI.
- Dlaczego pełna anonimizacja danych osobowych jest obowiązkowa przy pracy z ChatGPT i innymi modelami językowymi.
- Kto na uczelni podlega nowemu zarządzeniu i jakie są konsekwencje jego nieprzestrzegania.
- Jakie typy danych osobowych i wrażliwych są całkowicie zakazane do użycia w systemach AI.
Cele i zakres zarządzenia
Zarządzenie nr 97/2025 Rektora UMB z 24 lipca 2025 roku dotyczy wszystkich osób korzystających ze sztucznej inteligencji w ramach obowiązków służbowych – niezależnie od formy zatrudnienia czy etapu kształcenia. Dokument obejmuje pracowników, studentów, doktorantów, uczestników studiów podyplomowych oraz współpracowników uczelni, w tym obcokrajowców w ramach English Division.
Podstawowym celem aktu jest zapewnienie zgodności działań z RODO (Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679) oraz wewnętrznymi procedurami uczelni. Zarządzenie ma także ograniczyć ryzyko nieświadomego naruszenia ochrony danych w toku pracy z narzędziami AI.
AI tylko bez danych osobowych
Użytkownicy AI zobowiązani są do całkowitej i trwałej anonimizacji danych osobowych przed wprowadzeniem jakiejkolwiek treści do takich narzędzi jak ChatGPT, generatory tekstu czy inne chatboty. Anonimizacja musi uniemożliwiać zidentyfikowanie osoby fizycznej – także z użyciem informacji dodatkowych.
Zarządzenie jednoznacznie zabrania wprowadzania do systemów AI:
- imion, nazwisk oraz danych kadrowych i finansowych pracowników,
- danych studentów, ocen, numerów albumów i innych informacji osobowych,
- dokumentów z danymi pacjentów czy uczestników badań – nawet jeśli dane są spseudonimizowane,
- korespondencji e-mail, informacji patentowych, rejestrów zawierających dane osobowe.
Fikcyjne dane zamiast prawdziwych przykładów
W przypadkach, w których konieczne jest zaprezentowanie rzeczywistych scenariuszy w dydaktyce lub analizach naukowych, rektor zaleca stosowanie fikcyjnych danych. Tylko w ten sposób możliwe będzie zgodne z prawem korzystanie z możliwości narzędzi opartych na AI, bez ryzyka naruszenia zasad etycznych i przepisów prawnych.
Odpowiedzialność indywidualna
Zgodnie z zarządzeniem, każdy użytkownik odpowiada indywidualnie za nieprzestrzeganie zasad. Naruszenie przepisów może być traktowane jako pogwałcenie RODO, co w praktyce może prowadzić do poważnych konsekwencji prawnych – zarówno wewnątrz uczelni, jak i w kontaktach z zewnętrznymi instytucjami nadzorującymi ochronę danych.
Dlaczego to ważne dla całego środowiska medycznego?
Wdrażanie AI w instytucjach związanych z ochroną zdrowia, edukacją medyczną i badaniami klinicznymi wiąże się z ryzykiem operowania na danych szczególnie chronionych – takich jak dane o stanie zdrowia, wyniki badań czy dane uczestników eksperymentów. Regulacja na poziomie UMB może być impulsem do tworzenia podobnych dokumentów w innych uczelniach medycznych oraz w szpitalach i jednostkach badawczo-rozwojowych.
Główne wnioski
- UMB wprowadził Zarządzenie nr 97/2025, regulujące wykorzystanie narzędzi AI w celach służbowych, dydaktycznych i naukowych.
- Bezwzględnie zakazane jest wprowadzanie danych osobowych do systemów takich jak ChatGPT, nawet w formie spseudonimizowanej.
- Anonimizacja musi być trwała i nieodwracalna, a przykłady analizowane w AI powinny pochodzić z danych fikcyjnych.
- Odpowiedzialność za naruszenia spoczywa indywidualnie na użytkowniku, a każde złamanie zasad może być traktowane jako naruszenie RODO.
Źródło:
- UMB


