Nie masz konta? Zarejestruj się
fot. licencja OIL w Warszawie
Autor: Artur Olesch
W styczniu br. OpenAI zaprezentował ChatGPT Zdrowie, a w marcu swoją premierę miał Copilot Zdrowie Microsoftu. Każdy może wczytać do nich dokumentację medyczną, aby otrzymać personalizowane porady zdrowotne. A to oznacza upowszechnienie doradców zdrowia działających poza systemem zdrowia.
Dotąd był jeden ChatGPT od wszystkiego, niezależnie od tego, czy pytaliśmy o ułożenie zabawnego wiersza z życzeniami urodzinowymi, zaplanowanie wakacji, czy poradę zdrowotną. Ale wiodące koncerny generatywnej AI, jak OpenAI, Anthropic czy Microsoft, zdają sobie sprawę, że zdrowie to temat, o który użytkownicy pytają wyjątkowo często.
Jednym z powodów jest to, że systemy ochrony zdrowia na całym świecie są przeciążone – brakuje lekarzy, rosną koszty leczenia bez przełożenia na wyniki, pacjenci czekają miesiącami na wizyty u specjalistów, zmieniają się oczekiwania w zakresie profilaktyki i opieki napędzane innowacjami cyfrowymi w innych sektorach.
Jak jasno pokazują nam ostatnie dane, ChatGPT codziennie obsługuje ok. 40 mln zapytań związanych ze zdrowiem – to ponad 5 proc. wszystkich rozmów z AI. Co czwarty użytkownik przynajmniej raz w tygodniu pyta o zdrowie. Z kolei Microsoft podaje, że jego systemy AI (Bing i Copilot) odpowiadają każdego dnia na ponad 50 mln pytań zdrowotnych.
Samoleczenie nie jest żadną nowością. Pacjenci zawsze szukali rozwiązania swojego problemu zdrowotnego poza gabinetem lekarskim, w encyklopediach zdrowia, prasie, potem Google’u. Wraz z upowszechnieniem internetu i smartfonów dostępność wiedzy była coraz większa. Jednak AI to coś więcej niż tylko pasywne źródło informacji, bo autonomicznie podejmuje decyzje i „rozmawia” z pacjentem.
W ChatGPT Health, Claude albo Copilot Health użytkownik może udostępnić swoją dokumentację medyczną. Czatbot widzi wszystkie dane pacjenta, takie jak wyniki badań, historię leczenia czy zażywane leki. Do tego można jeszcze podłączyć urządzenia ubieralne, jak inteligentne zegarki czy opaski fitness.
Copilot deklaruje, że integruje już dane od 50 tys. świadczeniodawców i 50 urządzeń medycznych. W ten sposób wszystkie one trafiają do jednego miejsca i są na bieżąco analizowane przy każdej rozmowie o zdrowiu. Kiedy zapytamy, jakie badania profilaktyczne wykonać, albo poprosimy o zaplanowanie posiłków na kolejny tydzień, ChatGPT zajrzy do EDM i dopasuje zalecenia do stanu zdrowia i poziomu biomarkerów.
Taka bezpośrednia integracja czatbota AI z EDM jest na razie możliwa tylko w USA. W Europie blokadą pozostają restrykcyjne przepisy dotyczące ochrony danych osobowych. Przynajmniej na razie. W Polsce nic nie stoi na przeszkodzie, aby pacjent pobrał sobie dokumentację medyczną z Internetowego Konta Pacjenta (IKP) i wczytał do ChatGPT Zdrowie. Jest to okrężna droga, nie tak prosta jak w USA, ale i tak już teraz wiele osób po prostu skanuje wydruki kartotek zdrowia i udostępnia je AI, aby zapytać o diagnozę i porady dotyczące leczenia. I nieważne, że jest to ryzykowna praktyka, bo dane mogą wyciec na zewnątrz, a AI może podać błędne wskazówki – dla wielu pacjentów liczy się szybka pomoc w zasięgu ręki.
OpenAI, Anthropic i Microsoft podkreślają, że nie chodzi o zastępowanie lekarza, ale o to, aby pacjent zrozumiał swoje dane i lepiej przygotował się do wizyty. Z badania przeprowadzonego przez OpenAI wynika, że pacjenci korzystają z czatbotów najczęściej po godzinach pracy gabinetów lekarskich oraz w miejscowościach, gdzie dostęp do lekarza jest trudny. Pytania dotyczą interpretacji wyników badań laboratoryjnych oraz intymnych dolegliwości, ale także diagnozy i zaleceń lekarskich.
ChatGPT Health, Claude czy Copilot tłumaczą prostym językiem wyniki badań krwi (np. poziomu glukozy, cholesterolu) w kontekście historii choroby oraz wyszukują niepokojące wzorce z ostatnich lat. Dodatkowo Copilot gromadzi dane z aplikacji mobilnych (liczba kroków, jakość snu, tętno) i w ten sposób może podpowiedzieć, czy np. wzrost masy ciała może mieć związek ze zmianą diety lub leków, oraz zalecić zmiany w stylu życia.
Boty sugerują też pytania, jakie warto zadać lekarzowi odnośnie do konkretnych objawów. Jeśli wpiszemy symptomy, AI poda prawdopodobną diagnozę, a gdy objawy są niejednoznaczne – wskaże możliwe opcje do rozważenia i omówienia z lekarzem. A to oznacza, że pacjenci będą coraz częściej przychodzić na wizytę już po pierwszej opinii AI.
Jest też sporo funkcji profilaktycznych. Czatbot można zapytać o zalecane szczepienia w danej grupie wiekowej oraz nowe wyniki badań naukowych dotyczące konkretnych schorzeń. W tym przypadku modele AI sięgają do wiarygodnych źródeł, jak WHO czy organizacje zdrowia publicznego, CDC (Centrum Kontroli Chorób i Prewencji). W skomplikowanym amerykańskim systemie ubezpieczeń zdrowotnych AI pomaga w rozliczeniu kosztów leczenia i szukaniu najlepszych planów ubezpieczeniowych.
OpenAI i Microsoft podkreślają, że asystenci AI nie są przeznaczeni do leczenia, a w razie wątpliwości i niepokojących objawów należy skonsultować się z lekarzem.
Już kilka lat temu sztuczna inteligencja potrafiła zdać egzamin lekarski, uzyskując lepsze wyniki niż lekarze. Ale egzamin a praktyka lekarska to zupełnie inne światy. W badaniu NOHARM przeprowadzonym przez zespół naukowców z uniwersytetów Stanforda, Harvarda oraz kilku innych instytucji akademickich, najlepsze spośród 31 badanych modeli AI osiągały wyniki na poziomie ok. 60 proc. – a to oznacza, że tylko 6 na 10 rekomendacji było zgodnych z wiedzą medyczną.
Z kolei eksperyment Oxford Internet Institute sugeruje, że choć AI prawidłowo identyfikuje chorobę w 95 proc. przypadków, to podczas rozmowy z prawdziwymi pacjentami często zawodzi i się myli. Niektóre wyniki badań są niepokojące. Naukowcy z Icahn School of Medicine at Mount Sinai w Nowym Jorku pokazali, że w oczywistych przypadkach klinicznych AI działa dobrze i prawidłowo wskazuje potrzebę pilnej pomocy. Problem pojawia się przy bardziej złożonych, niejednoznacznych objawach – wtedy system często się myli. W ponad połowie przypadków uznanych przez lekarzy za pilne AI nie rozpoznało konieczności szybkiej interwencji.
Czatboty AI mają jasne i ciemne strony. Mogą zwiększyć świadomość pacjentów i wypełnić luki w dostępie do opieki, wyjaśnić wyniki badań i przebieg leczenia także poza godzinami pracy placówek, odpowiedzieć na pytania dotyczące wstydliwych chorób, z których czasami trudno im się zwierzyć drugiemu człowiekowi, nawet zaufanemu lekarzowi.
Największym wyzwaniem pozostaje jednak ryzyko halucynacji. Systemy AI mogą generować odpowiedzi, które brzmią wiarygodnie, ale nie są zgodne z wiedzą medyczną. W skrajnych przypadkach może to prowadzić do błędnych decyzji dotyczących zdrowia. OpenAI i Microsoft zostały już wielokrotnie pozwane do sądu za błędne porady medyczne.
Istotnym problemem jest także prywatność danych. Korzystanie z AI często oznacza przekazywanie wrażliwych informacji firmom technologicznym, a więc ich przetwarzanie nie podlega tym samym regulacjom, co przetwarzanie danych w systemach IT placówek medycznych.
Jednak mimo to narzędzia AI zyskują na popularności. A to oznacza kilka zmian dla lekarzy. Przybywać będzie pacjentów, którzy do gabinetu przychodzą z diagnozą AI tylko po to, aby otrzymać receptę albo skierowanie. Dlatego tak ważne jest, aby lekarze wiedzieli, jak działają czatboty i jakie mają ograniczenia.
Dobrą wiadomością jest to, że porada AI jest z reguły lepsza niż ta uzyskana od dr. Google’a. AI może pełnić rolę edukatora zdrowotnego dostępnego dzień i noc, koordynatora opieki, poprawiając poziom przestrzegania zaleceń terapeutycznych i wyniki leczenia. To ważne zwłaszcza dla osób chorych przewlekle, które z lekarzem mogą porozmawiać tylko kilka razy w roku, większość czasu spędzając sam na sam z chorobą, niepewnością i pytaniami. Być może pacjenci będą wcześniej zgłaszać się do lekarza, nie ignorując pierwszych objawów. Na ocenę wpływu sztucznej inteligencji na zdrowie pacjentów jest jeszcze za wcześnie, ale już teraz widać, że nie będzie to ani jednoznacznie pozytywny, ani negatywny wpływ.