Rozwój sztucznej inteligencji w endoskopii przewodu pokarmowego wyprzedzał dotąd ramy prawne i etyczne regulujące jej stosowanie. Opublikowany właśnie pierwszy globalny konsensus w tej sprawie ma wypełnić tę lukę. Dokument, przygotowany przez międzynarodowy zespół ekspertów pod kierownictwem dr. Tylera M. Berzina z Beth Israel Deaconess Medical Center, ustanawia kompleksowe zasady odpowiedzialnego wdrażania AI w endoskopii – od zarządzania danymi, przez odpowiedzialność medyczno-prawną, po kwestie równości i stronniczości algorytmów.
Z tego artykułu dowiesz się…
- Jakie ramy prawne i etyczne po raz pierwszy uzgodniono globalnie dla stosowania AI w endoskopii.
- Kto opracował konsensus i w jakim trybie (międzynarodowa metoda delficka, publikacja w Annals of Internal Medicine).
- Jakie są kluczowe zasady w obszarach danych, odpowiedzialności medyczno-prawnej oraz równości i stronniczości algorytmów.
- Dlaczego dokument jest ważny teraz, gdy AI w endoskopii wchodzi do rutynowej praktyki klinicznej.
Przełomowy dokument dla endoskopii wspomaganej AI
Oświadczenie konsensusowe zostało opublikowane w prestiżowym czasopiśmie Annals of Internal Medicine i jest pierwszą na świecie próbą całościowego uregulowania prawnych i etycznych aspektów stosowania sztucznej inteligencji w endoskopii. Dokument powstał w momencie, gdy narzędzia AI – zwłaszcza systemy wspomagające wykrywanie polipów jelita grubego – weszły już do codziennej praktyki klinicznej, a kolejne zastosowania rozwijają się w szybkim tempie.
Jak podkreśla główny autor konsensusu, Tyler M. Berzin, gastroenterolog z BIDMC i członek wydziału Harvard Medical School:
W miarę jak narzędzia sztucznej inteligencji szybko wkraczają do praktyki klinicznej, potrzebujemy czegoś więcej niż tylko technicznej walidacji – potrzebujemy jasnych, etycznych i prawnych ram, które będą kierować ich odpowiedzialnym użytkowaniem.
Jak powstał konsensus: międzynarodowa metoda delficka
Konsensus został wypracowany z wykorzystaniem rygorystycznej metody delfickiej, uznawanej za złoty standard w procesach uzgadniania stanowisk eksperckich. W projekcie uczestniczyło 14 ekspertów z 11 krajów, reprezentujących cztery regiony świata. W efekcie osiągnięto porozumienie w sprawie 10 kluczowych oświadczeń, pogrupowanych w trzech strategicznych obszarach.
Projekt został zainicjowany przez Światowa Organizacja Endoskopii i uzyskał oficjalne poparcie Europejskie Towarzystwo Endoskopii Przewodu Pokarmowego, co podkreśla jego znaczenie dla globalnej praktyki klinicznej.
Zarządzanie danymi: prywatność, własność i transparentność
Pierwszy filar konsensusu dotyczy zarządzania danymi, które stanowią podstawę działania algorytmów sztucznej inteligencji. Eksperci jednoznacznie wskazują, że systemy AI muszą:
- być zgodne z lokalnymi i międzynarodowymi przepisami o ochronie danych,
- chronić prywatność pacjentów poprzez skuteczną anonimizację,
- zapewniać pełną transparentność w zakresie aktualizacji i modyfikacji algorytmów.
Szczególną uwagę zwrócono na kwestię własności danych, zwłaszcza w sytuacjach współpracy placówek medycznych z komercyjnymi dostawcami technologii AI. Organizacje ochrony zdrowia powinny jasno określać, kto jest właścicielem danych i w jakim zakresie mogą być one wykorzystywane do dalszego trenowania algorytmów.
Odpowiedzialność medyczno-prawna: kto odpowiada za decyzje AI?
Drugim kluczowym obszarem jest odpowiedzialność medyczno-prawna. Wraz z rosnącą rolą systemów wspomagających decyzje kliniczne pojawia się fundamentalne pytanie: kto ponosi odpowiedzialność w przypadku niekorzystnych skutków decyzji wspieranych przez AI? Panel ekspertów podkreśla konieczność:
- zaangażowania stowarzyszeń zawodowych i ekspertów prawa medycznego w opracowanie jednoznacznych wytycznych,
- rygorystycznej walidacji nowych wskaźników jakości generowanych przez AI, zanim zostaną one wykorzystane w praktyce klinicznej lub włączone do standardów regulacyjnych.
Konsensus jasno wskazuje, że sztuczna inteligencja nie może stać się „czarną skrzynką” zwalniającą ludzi z odpowiedzialności zawodowej.
Równość i stronniczość: ryzyko pogłębiania nierówności
Trzeci filar dokumentu dotyczy równości i stronniczości algorytmów. Eksperci zwracają uwagę, że systemy AI powinny być trenowane na demograficznie zróżnicowanych zbiorach danych, a publikacje naukowe i raporty wdrożeniowe muszą jasno opisywać charakterystykę badanej populacji.
Istnieje realne ryzyko, że sztuczna inteligencja – zamiast niwelować różnice – pogłębi nierówności w dostępie do opieki zdrowotnej, jeśli zaawansowane technologie trafią najpierw do najlepiej finansowanych ośrodków, omijając szpitale pełniące rolę sieci bezpieczeństwa. Autorzy konsensusu apelują o dalsze badania oceniające te zagrożenia już na etapie wdrożeń.
Powiązanie z globalnym projektem OperA
Praca nad konsensusem stanowi część projektu OperA (Optimizing Colorectal Cancer Prevention through Personalized Treatment with Artificial Intelligence) – największego międzynarodowego badania poświęconego wykorzystaniu AI w profilaktyce raka jelita grubego. Projekt ten jest realizowany przez sieć wiodących instytucji naukowych, w tym Beth Israel Deaconess Medical Center, University College London oraz Uniwersytet w Oslo.
Konsensus jako fundament, a nie zamknięty zbiór zasad
Autorzy podkreślają, że dokument nie jest końcem dyskusji, lecz punktem wyjścia, który będzie musiał ewoluować wraz z rozwojem technologii. Jak zaznacza dr Berzin:
Kliniczna obietnica sztucznej inteligencji jest nierozerwalnie związana z kwestiami bezpieczeństwa, równości i odpowiedzialności. Lekarze, pacjenci, systemy opieki zdrowotnej i organy regulacyjne stoją obecnie przed wyzwaniami prawnymi i etycznymi, z którymi nigdy wcześniej nie mieliśmy do czynienia w endoskopii. Te ramy stanowią punkt wyjścia – fundament, na którym możemy budować w miarę rozwoju technologii.
Główne wnioski
- Opublikowano pierwszy globalny konsensus dotyczący prawnych i etycznych zasad stosowania AI w endoskopii, przygotowany przez 14 ekspertów z 11 krajów metodą delficką.
- Dokument definiuje 10 oświadczeń w trzech obszarach: zarządzanie danymi, odpowiedzialność medyczno-prawna oraz równość i stronniczość algorytmów.
- Konsensus podkreśla obowiązek ochrony prywatności i jasnej własności danych, rygorystycznej walidacji wskaźników AI oraz braku „zwolnienia z odpowiedzialności” po stronie klinicystów.
- Prace powiązano z projektem ramy mają ewoluować wraz z technologią i służyć regulatorom, szpitalom oraz towarzystwom naukowym.
Źródło:
- Beth Israel Deaconess Medical Center
- https://www.acpjournals.org/doi/10.7326/ANNALS-25-03415

