Logowanie do profilu lekarza

Przez login.gov

sztuczna inteligencja

Fot. Brian Penny/Pixabay

Technologia 22.03.2024 r.

Niebezpieczeństwa związane z wykorzystaniem AI w pracy lekarza

Autor: Artur Olesch

Sztuczna inteligencja może pomagać lekarzowi, wykrywając niewidoczne dla jego oka detale na zdjęciach medycznych, wyszukując dane w EDM i sugerując sposób leczenia. Ale może też wprowadzać w błąd, być stronnicza i usypiać czujność.

AI przestała być pieśnią przyszłości

Sztuczna inteligencja była dotychczas rzadko stosowana w medycynie, poza radiologią, w której od dawna pomaga identyfikować zmiany na zdjęciach medycznych. Aż około 80 proc. z 700 urządzeń medycznych korzystających z algorytmów AI i uczenia maszynowego, dopuszczonych na rynek przez Amerykańską Agencję Zdrowia i Żywności (FDA), to rozwiązania dla radiologii. Na kolejnym miejscu znajduje się kardiologia, ostatnio coraz częściej stosująca AI do szybkiej oceny zapisów badań holterowskich, interpretacji EKG albo planowania operacji serca z pomocą jego cyfrowych modeli.

W Polsce AI w medycynie jest rzadkością. Według badania Centrum e-Zdrowia z 2023 r. z rozwiązań opartych na sztucznej inteligencji korzysta zaledwie 6,4 proc. podmiotów leczniczych.

O ile radiologów AI już nie dziwi, korzystanie z niej przez lekarzy podstawowej opieki zdrowotnej nadal wydaje się pieśnią przyszłości. Nawet najbardziej zaawansowane systemy wspomagania decyzji klinicznych (Clinical Decision Support Systems) – choć mogą wydawać się wyjątkowo inteligentne, bo podpowiadają ścieżki leczenia zgodne z aktualnymi wytycznymi i badaniami naukowymi – oparte są na prostych drzewach decyzyjnych, a nie na sztucznej inteligencji. Także CDSS jest w Polsce nadal rzadkością, głównie ze względu na koszty licencji i sposób refundacji usług medycznych, który nie premiuje jakości.

Wszystko zmieniło się jesienią 2022 r., gdy OpenAI zaprezentował duży model językowy (Large Language Model) o nazwie ChatGPT. W kilka miesięcy na rynku pojawiło się wiele podobnych narzędzi: Bert (Google), Llama (Meta), Orca (Microsoft). Stało się jasne, że nowa technologia oznacza koniec długiej „zimy AI” w medycynie. LLM posiada bowiem cechę, jakiej nie miały poprzednie systemy AI – zdolność do analizy tekstów i obrazów oraz wyciągania wniosków na ich podstawie.

Sposób, w jaki generatywna AI (genAI) zmieni pracę lekarza, zaczął się krystalizować w 2023 r. Na rynku pojawiły się pierwsze praktyczne rozwiązania dla ochrony zdrowia. Google udostępnił w USA placówkom medycznym, korzystającym z jego chmury danych, model Med-PaLM wytrenowany na danych medycznych. Umożliwia on np. zadawanie pytań dotyczących diagnozy i leczenia pacjenta. Duże kliniki zaczęły wdrażać rozwiązania do systemów IT pozwalające lekarzom „rozmawiać” z elektroniczną dokumentacją medyczną, zamiast ręcznie przeszukiwać historię leczenia. „Pokaż mi wyniki badań poziomu cholesterolu całkowitego u pacjenta za ostatnich pięć lat z zaznaczeniem zmian po wprowadzeniu leczenia statynami w 2021 r.” – wystarczy „poprosić” system AI, a on błyskawicznie przeanalizuje dane w EDM i zestawi je z aktualnymi wytycznymi oraz badaniami naukowymi. Takie systemy wprowadzają do oferty na razie tylko dostawcy IT w USA, ale kwestią miesięcy jest ich pojawienie się również w Polsce. Po to, by ułatwić lekarzom pracę z EDM i poprawić komunikację z pacjentem, scedować na AI nielubiane prace administracyjne.

Korzyści ze stosowania AI są ogromne i to ochrona zdrowia może się okazać największym beneficjentem jej rozwoju. Ale sztuczna inteligencja ma też swoje cienie, o których powinni wiedzieć lekarze.

Stronniczość, halucynacje, kwestia bezpieczeństwa danych

W ostatnich miesiącach media często donosiły o tym, że ChatGPT zdaje egzaminy medyczne, albo przedstawiały historie pacjentów, których zdiagnozowała AI. Ale diabeł tkwi w szczegółach. Badanie przeprowadzone pod koniec 2023 r. przez naukowców z Uniwersytetu Long Island (USA) sugeruje, że ChatGPT odpowiedział poprawnie tylko na 10 z 39 pytań dotyczących stosowania leków. Zdał Europejski Egzamin z Kardiologii z wynikiem 60 proc., ale pozostałe 40 proc. błędnych odpowiedzi może być niebezpieczne dla chorych.

Entuzjastyczne nagłówki prasowe sugerują, że ChatGPT jest kompetentnym i wiarygodnym źródłem informacji dla lekarza. Jednak system został wytrenowany na danych z Internetu, czyli często na błędnych informacjach. Tymczasem coraz liczniejsi lekarze nieoficjalnie sięgają po ChatGPT, wspomagając się narzędziem w diagnozowaniu i planowaniu leczenia.

ChatGPT nie poda źródła informacji ani nie wyjaśni skąd taka, a nie inna odpowiedź. Lekarz nie ma szans sprawdzić, czy AI, podejmując decyzję, skorzystała z godnych zaufania źródeł wiedzy klinicznej. ChatGPT potrafi diagnozować trudne do rozpoznania przez lekarza choroby rzadkie, imponując swoimi możliwościami, ale ma wiele słabości. Jedną z nich są obliczenia matematyczne albo zmyślanie faktów, aby załatać braki w wiedzy. Przede wszystkim jednak żaden oferowany system klasy genAI nie jest certyfikowanym urządzeniem medycznym.

Drugie niebezpieczeństwo wiąże się z przetwarzaniem danych medycznych. Trzeba pamiętać, że wprowadzane do ChatGPT dane lądują na serwerze OpenAI, poza Europejskim Obszarem Gospodarczym. Dlatego użycie informacji personalnych pacjenta oznacza w praktyce złamanie RODO. Trudno przewidzieć, jak te dane zostaną wykorzystane do doskonalenia modelu. Trzeba więc unikać wprowadzania nawet anonimowych danych, ale zawierających identyfikatory pozwalające określić, kto jest pacjentem.

Każdy model AI jest tak dobry, jak dane, na podstawie których został wytrenowany. Od dawna wiadomo, że istnieje nadreprezentatywność danych z badań klinicznych populacji osób o jasnej karnacji skóry i mężczyzn. To odbija się na jakości wyników wnioskowania AI w stosunku do marginalizowanych grup pacjentów i może prowadzić do stronniczości. Podobny problem dotyczy algorytmów AI trenowanych na danych zawężonych demograficznie (np. na pacjentach z USA), które są stosowane u innej populacji (np. pacjentów w Polsce).

Inną pułapką upowszechnienia stosowania AI w medycynie jest przyzwyczajenie się do tego narzędzia, zanik krytycznego spojrzenia i nadmierne poleganie na zaleceniach sztucznej inteligencji. Lekarze popełniają błędy i AI może je korygować. Ale są też sytuacje odwrotne, gdy to AI się myli i lekarz mający dostęp do danych, których nie posiada AI (bo przykładowo nie może fizykalnie zbadać pacjenta), ma szanse interweniować. Gdy stosowanie rozwiązań sztucznej inteligencji np. do przeszukiwania danych w EDM stanie się powszechne, lekarze mogą być zdani na podpowiedzi AI, bo nie będą w stanie sami przeanalizować danych z pięciu lat wstecz. Takie uzależnienie od techniki i nieznajomość procesu przetwarzania danych przez AI (tzw. black box) będzie rodziło wiele problemów.

W artykule „ChatGPT oblewa test medycyny opartej na faktach” (ang. „ChatGPT fails the test of evidence-based medicine”) naukowcy podkreślają jeszcze jedno: nawet 10 proc. błędnych odpowiedzi ChatGPT może stwarzać ryzyko medyczne, jeśli lekarze i inne osoby zbytnio zaufają systemowi. Nikt nie uznałby studenta medycyny, który odpowiedział poprawnie na 100 proc. pytań, ale nigdy nie widział pacjenta, za autorytet.

AI otwiera ogromne możliwości, ale tylko wtedy, gdy lekarze będą wiedzieli, jak minimalizować ryzyko związane z tą nową, potężną technologią.

Artur Olesch

Autor: Artur Olesch

Treści autora ⟶

Nasza strona wykorzystuje pliki cookies. Dalsze korzystanie ze strony oznacza, zgodę na ich użycie, oraz akceptację Polityki Prywatności.