Zdjęcie: Namiot sanitarny przed St. Mary Medical Center w Kalifornii. Szpital z dwustoma łóżkami nie sprostał szturmowi pacjentów chorujących na COVID-19. Źródło: REUTERS
Sztuczna inteligencja jest przez wielu uważana za kluczową technologię w medycynie. Systemy powinny przede wszystkim dostarczać dane o tym, który pacjent musi być najpilniej leczony.
Podczas kryzysu koronowego szpitale osiągają granice swoich możliwości. W nagłym przypadku, kiedy jest zbyt mało personelu pielęgniarskiego, trzeba zadecydować o tym, który pacjent będzie leczony. Celem tego tak zwanego selekcjonowania pacjentów w rozumieniu medycyny ratunkowej jest, zgodnie z międzynarodową definicją, aby „właściwy pacjent znalazł się we właściwym miejscu we właściwym czasie".
Aby wdrożyć „3R", w szpitalach na całym świecie stosuje się różne pięciostopniowe systemy, z których najbardziej znane to Emergency Severity Index (ESI) opracowany w USA i Manchester Triage System (MTS) utworzony w Wielkiej Brytanii.
Podczas gdy ESI bierze pod uwagę, jak pilne jest zapewnienie opieki medycznej pacjentowi i jaki wiąże się z tym wysiłek, MTS grupuje pacjentów według poziomów pilności, z których każdy związany jest z maksymalnym czasem oczekiwania na leczenie. Jak wynika z badań sponsorowanych, dzięki wsparciu danych, może to w przyszłości zautomatyzować podejmowanie decyzji w sytuacjach kryzysowych.
W Niemczech tylko systemy rekomendacji
Przykład ten dobrze pokazuje, w jaki sposób sztuczna inteligencja jest wykorzystywana na poziomie zawodowym. „W Niemczech aktualnie nie ma systemu sztucznej inteligencji, który jest dopuszczony do szerokich zastosowań klinicznych lub jest w pełni wykorzystywany”, mówi Philipp Kellmeyer, neurolog na Uniwersytecie Klinicznym we Freiburgu i naukowiec w grupie badawczej „Odpowiedzialna sztuczna inteligencja” w Institute for Advanced Studies (FRIAS) we Freiburgu.
Maksimum to tzw. systemy rekomendacyjne: „Na przykład wielu lekarzy pierwszego kontaktu ma w swoich aparatach EKG narzędzie analityczne, które ocenia krzywe, stwierdza, co jest nieprawidłowe, i wydaje zalecenia diagnostyczne”.
Obecnie systemy sztucznej inteligencji są nadal badane i testowane w kontekście klinicznym. Poprzez sztuczną inteligencję rozumie się maszynową metodę uczenia się, w tym na przykład sztucznych sieci neuronowych lub modeli dogłębnego uczenia się, które uczą na podstawie danych, aby osiągnąć pożądany wynik lub rozpoznać nowe wzorce i związki. Mogą to być dane z badań klinicznych lub elektronicznego archiwum pacjenta, które ma wkrótce zostać wprowadzone, a także dane tekstowe lub głosowe.
Ryzyko związane ze stronniczością wyników
Wyzwaniem jest jakość danych. „Wolimy mieć mniej danych, ale za to wysokiej jakości. Powód jest prosty: algorytmy są tylko tak dobre, jak dane, które widziały", mówi Jil Sander, kierowniczka jednostki biznesowej Healthcare Analytics w Fraunhofer- Instytut inteligentnej analizy- i systemów informatycznych (IAIS- Institut für Intelligente Analyse- und Informationssysteme).
Jeśli zbiór danych zawiera niewłaściwą tendencję, algorytm jest na nim trenowany. Taka stronniczość może prowadzić do tego, że sztuczna inteligencja będzie dostarczać stronnicze wyniki, na przykład na podstawie koloru skóry, wieku lub płci.
Philipp Kellmeyer również wie, jak ważne są dobre dane. „Naukowcy z Freiburga odkryli to na podstawie danych pacjentów chorych na epilepsję: Nieważne, jak szkolono system, jego dokładność w diagnozowaniu nie przekraczała 85-90%".
Powód: eksperci niekiedy stawiali inne diagnozy. „Aktualne wyniki badań nad rakiem skóry pokazują, że dzięki współpracy bardzo dobrze wyszkolonej sieci i ekspertów można zwiększyć wykrywalność do 90-95%”.
Kto przejmuje odpowiedzialność?
Są też inne wyzwania. Jednym z nich jest przejrzystość. Nie jest bowiem do końca jasne, w jaki sposób systemy oparte na sztucznej inteligencji podejmują decyzje, jaką wewnętrzną dynamikę uczenia się realizują algorytmy. Pozostaje pewien aspekt czarnej skrzynki, zwłaszcza w przypadku modeli głębokiego uczenia.
Kolejnym wyzwaniem jest niezawodność. „W kontekście medycznym należy oczywiście starać się unikać sytuacji, w której systemy przeszkolone w danej aplikacji zbyt wcześnie sygnalizują, że coś jest nie tak, lub w ogóle nie sygnalizują alarmu", mówi Jil Sander. Równie ważne jest to, kto bierze odpowiedzialność za stosowanie sztucznej inteligencji.
Ważną podstawą odpowiedzi na takie pytania jest techniczna możliwość testowania. W tym celu Fraunhofer IAIS chce we współpracy z Federalnym Urzędem ds. Bezpieczeństwa Informacji (BSI- Bundesamt für Sicherheit in der Informationstechnik) rozwinąć procedurę badań, która może posłużyć za podstawę dla standardów i norm technicznych. Philipp Kellmeyer chciałby przenieść ideę prawdziwych laboratoriów z Badenii-Wirtembergii do zastosowań medycznych. Tam innowacje są testowane w rzeczywistych warunkach.
Analityczka danych Jil Sander podkreśla, że wynik analizy danych i odpowiednie rekomendacje powinny być traktowane świadomie: „Oczywiście lekarz lub lekarka musi być w stanie powiedzieć: 'Zaraz, miałem/miałam już taki przypadek, powinienem/powinnam sprawdzić rekomendację'".
Dane mogą stawać się coraz bardziej przytłaczające
Dirk Helbing, profesor obliczeniowych nauk społecznych w Szwajcarskim Federalnym Instytucie Technologii w Zurychu (ETH- Eidgenössische Technische Hochschule) uważa, że „odejście od rekomendacji algorytmu będzie z czasem coraz trudniejsze, nie tylko ze względów na odpowiedzialność, ale także dlatego, że dane stają się coraz bardziej przytłaczające".
Ponadto, wraz z większą ilością danych, na pierwszy plan wysunęły się kwestie kosztów. „Zastanawiamy się, która operacja, który zabieg jest jeszcze tego wart?". Ostatecznie o życiu i śmierci decydowałyby algorytmy. „W czasach, kiedy mówimy o przeludnieniu i selekcji chorych, jest to niebezpieczne - zagraża życiu".
Dlatego fizyk i socjolog proponuje: „System musi mieć rezerwy. Ponadto pracownicy szpitala i przedstawiciele pacjentów powinni być bardziej zaangażowani w podejmowanie decyzji". Minie jeszcze trochę czasu, zanim systemy oparte na sztucznej inteligencji pojawią się w szpitalach. Jednak w przyszłości prawdopodobnie staną się one częścią codziennego życia klinicznego.