Nie masz konta? Zarejestruj się
fot. licencja OIL w Warszawie
Autor: Artur Olesch
Co minutę do wyszukiwarki Google trafia 70 tys. zapytań dotyczących zdrowia. Filmy o zdrowiu na YouTube albo TikToku mają setki miliardów wyświetleń. Szukając porad i pomocy online, pacjenci trafiają w otchłań dezinformacji, która może być niebezpieczna.
W 2023 r. prasę obiegła informacja o śmierci nastolatka spowodowanej zażyciem 14 tabletek leku antyhistaminowego zawierającego difenhydraminę. Nie był to jednak wypadek, ale efekt trendu na TikToku o nazwie „Benadryl challenge”. „Zabawa” polegała na zażywaniu dużych dawek tego leku, aby wywołać halucynacje. Następnie osoby, które podjęły „wyzwanie”, publikowały filmy dokumentujące zmiany zachowania.
Tego typu wyzwania nie są rzadkością na TikToku. Niektóre mogą rozśmieszać, ale są nieszkodliwe – jak przykładowo wkładanie na noc pokrojonych ziemniaków do skarpetek, aby pozbyć się toksyn z organizmu. Ale są i takie, które są niebezpieczne dla zdrowia: #HotYoga, czyli intensywna joga w temperaturze 40 st. Celsjusza; zaklejanie ust taśmą klejącą, aby pozbyć się chrapania; picie środka czyszczącego boraksu z sodą oczyszczoną i solą, aby dodać sobie energii.
Mający 1,9 mld użytkowników TikTok to najważniejsze medium społecznościowe dla generacji Z. 43 proc. użytkowników jest w wieku 18–24 lat. Młodzi ludzie spędzają średnio 58 minut dziennie na oglądaniu publikowanych tam treści. W badaniu przeprowadzonym przez PlushCare okazało się, że 83,7 proc. porad na TikToku dotyczących zdrowia psychicznego wprowadza w błąd, a 14,2 proc. jest potencjalnie niebezpiecznych. Młode osoby ślepo ufają mającym miliony fanów influencerom, znajdują u siebie objawy choroby, których nie mają. Jednym z przykładów „cyberchondrii” jest ADHD, które w ostatnich miesiącach utrzymywało się na szczycie najpopularniejszych hashtagów z miliardami wyświetleń. Choroba nagle stała się popularna (w złym tego słowa znaczeniu), gdy celebryci zaczęli przypisywać sobie ADHD, aby zyskać jeszcze większy rozgłos i pozytywną aurę superaktywności. W ślad za nimi poszło tysiące fanów i trend szybko się rozlał. Jeszcze inne badania sugerują, że ok. 44 proc. wszystkich filmów publikowanych przez influencerów, którzy nie są lekarzami, wprowadza w błąd.
60 proc. Polaków w wieku 16–30 lat korzysta z ChatGPT – wynika z nowych danych Eurostatu. W badaniu „User Intentions to Use ChatGPT for Self-Diagnosis and Health-Related Purposes: Cross-sectional Survey Study” 78 proc. użytkowników zadeklarowało, że w razie potrzeby zapyta ChatGPT o diagnozę.
ChatGPT zachwyca swoimi zdolnościami komunikacji. Po raz pierwszy ze sztuczną inteligencją (AI) można porozmawiać jak z człowiekiem, poprosić o napisanie tekstu albo pracy domowej. Najnowszy model ChatGPT-4o bez problemu zdaje egzamin z medycyny. Test dla lekarzy w Wielkiej Brytanii zaliczył na 94 proc., a w USA – na 90 proc. (poprzedni model GPT nie poradził sobie jednak z polskim egzaminem z interny, uzyskując jedynie 47,5–53,33 proc. poprawnych odpowiedzi).
Co ciekawe, duże modele językowe – jak ChatGPT, Gemini, Co-Pilot albo zaprezentowany w lutym 2025 r. polski PLLuM – nie analizują logicznie informacji, nie mają żadnej wiedzy, a jedynie komponują odpowiedzi, kierując się rachunkiem prawdopodobieństwa. Mimo to wytrenowane na miliardach parametrów robią to wyjątkowo sprawnie. W 2023 r. na nagłówki prasowe trafił przypadek czteroletniego chłopca. Szukając źródła przewlekłego bólu, jego matka przez trzy lata odwiedziła 17 lekarzy. Bez skutku. W końcu wpisała wyniki badań do ChatGPT i ten prawidłowo wskazał nazwę choroby rzadkiej.
Oczywiście to tylko jedna strona medalu. Druga to taka, że ChatGPT często halucynuje i wprowadza w błąd. Niestety, robi to wyjątkowo przekonująco, uzasadniając logicznie swoje odpowiedzi wymyślonymi faktami tak sprawnie, że łatwo dać się zwieść. Według dostępnych statystyk najczęściej pytamy ChatGPT o choroby i ich przebieg, przyczyny objawów, metody leczenia. Równie często prosimy o wyjaśnienie terminologii medycznej albo interpretację wyników badań. Badanie przeprowadzone przez naukowców z Australii jest alarmujące: 61 proc. osób zadaje AI pytania o problem zdrowotny, który wymaga wizyty u lekarza. Nie ma jeszcze danych dotyczących opóźnień terapii albo błędnych diagnoz stawianych przez sztuczną inteligencję. Ale takie istnieją i wraz z popularyzacją AI będą się pojawiać coraz częściej.
Ok. 7 proc. wszystkich zapytań wpisywanych do wyszukiwarki Google dotyczy tematów związanych ze zdrowiem. Według statystyk w Google pacjenci szukają przede wszystkim bazowych informacji. W 2024 r. najpopularniejszymi pytaniami dotyczącymi zdrowia były: Czy zapalenie oskrzeli jest zaraźliwe? Czy zapalenie płuc jest zaraźliwe? Co to jest toczeń? Ile wody powinienem pić dziennie? Czy angina jest zaraźliwa? Jak długo trwa grypa? Co powoduje wysokie ciśnienie krwi?
Pytamy o to, jak się dobrze odżywiać, szukamy diet, porad dotyczących snu albo domowych sposobów leczenia przeziębienia. To dobrze, że tego typu informacje można znaleźć w internecie. Rola Google w edukacji zdrowotnej jest bezcenna. Jednak Google to też największa maszyna dezinformacyjna i źródło korozji zaufania pacjentów do lekarzy. Badanie przeprowadzone na 2 tys. mieszkańców USA wykazało, że dwie na trzy osoby, które googlują swoje objawy, otrzymują błędną diagnozę bardzo poważnej choroby. Na pytanie o ból głowy często od razu wyświetlają się informacje na temat raka mózgu, a na hasło „zmęczenie” Google wypluwa strony o chorobach tarczycy i o anemii.
Faktem jest, że Google stara się to poprawić. Pytając o zdrowie, coraz częściej sugerowane są strony zaufanych instytucji medycznych. Jeszcze kilka lat temu były to po prostu najbardziej popularne strony pełne fake newsów. Odkąd Google aktualizuje swoje algorytmy, aby wyświetlona informacja pochodziła z wiarygodnego źródła, fake newsy przeniosły się do mediów społecznościowych, gdzie nie ma praktycznie żadnej moderacji treści. Niemniej jednak Google nie jest encyklopedią medyczną, a algorytmy wyszukiwania biorą pod uwagę nie tylko rzetelność informacji, ale też inne parametry, jak np. liczbę cytowań, układ strony, ilość reklam itd. Badanie naukowców z Uniwersytetu Edith Cowan to potwierdza: tylko w 36 proc. przypadków diagnoza wyświetlona w Google na pierwszej pozycji była poprawna.
Media społecznościowe, Google oraz chatboty AI mają swoje dobre i złe strony. Bez nich pacjenci przychodziliby do lekarza z każdym, nawet najbardziej błahym, problemem. Ale to także narzędzia, które często bardziej szkodzą, niż pomagają. W social mediach mnożą się dezinformacje, w siłę rosną ruchy antyszczepionkowe i antynaukowe, a influencerzy propagują niebezpieczne trendy. Chatboty AI, takie jak ChatGPT, brzmią na tyle wiarygodnie, że wierzymy im nawet wtedy, gdy kłamią. Mające miliardy wyświetleń filmy na YouTube rozpowszechniają porady znachorów, których sensacyjne doniesienia dotyczące cudownych diet mają na celu jedynie przyciąganie uwagi i przekucie liczby kliknięć na zyski.
Sprzątanie tego bałaganu często spada na lekarzy. Gdy przychodzą pacjenci z wydrukami z Google albo ChatGPT, muszą prostować fakty, uspokajać i przekonywać. Nie ma co liczyć na to, że to się szybko zmieni – Google, YouTube, TikTok, Facebook, ChatGPT to rozwiązania dużych gigantów technologicznych kierujących się zyskiem, a nie przysięgą Hipokratesa.