28 kwietnia 2023

Ostateczna decyzja w rękach człowieka

Postęp techniczny oparty na sztucznej inteligencji może budzić słuszne obawy. Dlatego szeroko ujmowany rozwój rozwiązań opartych na Ai lub je wykorzystujących pociąga za sobą konieczność przygotowania stosownej regulacji prawnej. I takie regulacje powstają. Prace nad nimi na poziomie ogólnounijnym mają w założeniu zapewnić swobodny obrót towarów i usług z zastosowaniem technologii AI oraz usunąć zagrożenie fragmentaryzacją wspólnego rynku, co może mieć miejsce w przypadku wprowadzenia odmiennych rozwiązań w poszczególnych krajach.

SEBASTIAN SIKORSKI – profesor Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie, doktor habilitowany nauk prawnych, Wydział Prawa i Administracji, Instytut Nauk Prawnych, Katedra Prawa Administracyjnego i Samorządu Terytorialnego; adwokat specjalizujący się w obszarze prawa medycznego i administracyjnego. MICHAŁ FLORCZAK – doktor nauk medycznych, specjalista chorób wewnętrznych, specjalista medycyny ratunkowej, dyrektor medyczny Jutro Medical. Starszy asystent w Klinice Immunologii, Transplantologii i Chorób Wewnętrznych Warszawskiego Uniwersytetu Medycznego.

Regulacja rozwiązań AI (artificial intelligence – sztucznej inteligencji) w Unii Europejskiej z jednej strony ma zapewnić równe warunki działania i ochrony obywateli, z drugiej zaś wzmocnić konkurencyjność przemysłową Europy w tym obszarze. Nadal jednak – mimo istotnej aktywności koncepcyjnej organów UE – regulacje w tym zakresie znajdują się w fazie projektów. Przepisy są jednak już na tyle skonkretyzowane, że można dostrzec rysujący się problem jednoznacznego określenia ich relacji do obowiązujących – ale też wciąż projektowanych – innych aktów prawnych. Kluczowe jest bowiem takie doprecyzowanie projektowanych przepisów, aby z jednej strony uzupełniały regulacje już obowiązujące, z drugiej zaś nie wyłączały ich bądź nie powtarzały.

Jednym z kluczowych z prawnego punktu widzenia wyzwań jest podkreślenie sprawowania ostatecznego nadzoru przez człowieka przy każdym rozwiązaniu kwalifikowanym do AI. Na ten aspekt, jako zasadniczy, wskazuje zresztą Europejski Komitet Ekonomiczno-Społeczny, podkreślając konieczność zachowania niektórych decyzji wyłącznie w gestii człowieka, w szczególności, gdy „obejmują aspekt moralny i konsekwencje prawne lub wpływ na społeczeństwo”, w takich dziedzinach jak opieka zdrowotna.

Należy tu wyjaśnić pewne kwestie techniczne – w doktrynie opisywany jest podział na wąskie systemy AI, czyli takie, które mogą wykonać jedno lub kilka określonych zadań, oraz ogólną AI ujmowaną jako superinteligencja czy samoświadoma AI. Na obecnym poziomie rozwoju techniki mamy do czynienia z rozwiązaniami w ujęciu wąskim AI. Jednak trudno zgodzić się z twierdzeniem, że świadoma AI pozostaje na razie jedynie pewną hipotezą, a nawet być może taka silna AI nigdy nie powstanie. Na zasadzie sformułowania hipotezy, którą zweryfikuje dopiero przyszłość – być może odległa – należy przyjąć, że nie jest kwestią, czy takie rozwiązania będą możliwe, ale raczej kiedy się pojawią, bo wówczas prawo będzie musiało im sprostać. Trudne byłoby zapewne projektowanie regulacji prawnej z takim wyprzedzeniem, jednak już teraz zasadne wydaje się podkreślanie konieczności pozostawienia zawsze ostatecznej decyzji w rękach człowieka.

Już na obecnym etapie rozwoju AI należy zaznaczyć, że tego typu rozwiązania powinny jedynie wspierać lekarza w procesie diagnozowania i leczenia pacjenta. Nie powinno się natomiast dążyć do zastąpienia konsultacji lekarskich wyłącznie AI. Nawet platformy AI bardzo często zalecają właśnie konsultację lekarską po analizie objawów pacjenta.

Rozwiązania z zakresu AI w ochronie zdrowia są faktem i należy przyjąć, że skala ich zastosowania, a także zaawansowanie będzie się sukcesywnie zwiększać. Dlatego warto na rozwiązania tego typu patrzeć z wielu perspektyw. Z jednej strony personel medyczny – szczególnie lekarze – dzięki wykorzystaniu tych narzędzi będzie mógł szybciej i skuteczniej rozpoznawać choroby przewlekłe na wczesnym etapie oraz ich zaostrzenia. Przykładem może być reumatologia. Skąpość objawów początkowych, nietypowy i podobny kliniczny przebieg takich chorób jak toczeń rumieniowaty układowy czy reumatoidalne zapalenie stawów nie pozwala na szybkie rozpoznanie. Być może w przyszłości wykorzystanie do tego celu algorytmów AI zapewni wcześniejsze postawienie rozpoznania, lepszą analizę rokowania i wcześniejsze rozpoczynanie np. celowanego leczenia biologicznego. W wymienionych przypadkach mówi się już nawet o tzw. medycynie precyzyjnej. Z drugiej jednak strony porusza się istotny argument przeciwko szerszemu wykorzystaniu AI w medycynie. Badacze obawiają się, że wyniki badań przeprowadzanych w oparciu o algorytmy nie uwzględniałyby złożoności całego organizmu ludzkiego ani kwestii psychologicznych, niezwykle ważnych w relacji lekarz – pacjent. Należy jednak przyjąć, że procesu rozwoju tej technologii i jej zastosowania w medycynie po prostu nie można zatrzymać. W konsekwencji trzeba wydobywać to, co jest pozytywne w tych rozwiązaniach, i starać się przewidywać oraz eliminować zagrożenia.

Zgodnie z przepisem art. 6 projektu rozporządzenia Parlamentu Europejskiego i Rady Europejskiej z 21 kwietnia 2021 r. ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji, określone zostały zasady klasyfikacji systemów sztucznej inteligencji wysokiego ryzyka. Podkreślono jednocześnie powiązanie narzędzi z obszaru AI z odrębnymi produktami wskazanymi we wspomnianym przepisie. Na tym tle szczególne znaczenie ma rozróżnienie systemów wysokiego ryzyka i zaklasyfikowanie technologii AI używanej w sektorze ochrony zdrowia do owej grupy. W tym bowiem przypadku chronione są najwyższe wartości, jak zdrowie i życie człowieka, co podkreślają też projektodawcy. W motywie 28 wskazują bowiem, że systemy sztucznej inteligencji mogą przynosić szkodliwe skutki dla zdrowia i bezpieczeństwa ludzi, odnosząc te zagrożenia m.in. właśnie do sektora ochrony zdrowia, „w którym chodzi o szczególnie wysoką stawkę, jaką jest życie i zdrowie, więc coraz bardziej zaawansowane systemy diagnostyczne i systemy wspomagające decyzje podejmowane przez człowieka powinny być niezawodne i dokładne”.

Należy zwrócić uwagę również na określoną w art. 12 projektu konieczność rejestracji zdarzeń w przypadku systemów wysokiego ryzyka – z uwzględnieniem uznanych norm lub wspólnych specyfikacji. Funkcja rejestracji zdarzeń w założeniu musi także zapewniać monitorowanie działania systemu sztucznej inteligencji wysokiego ryzyka pod kątem występowania sytuacji, które mogą skutkować tym, że system sztucznej inteligencji będzie stwarzał ryzyko w rozumieniu art. 3 pkt 19 rozporządzenia (UE) 2019/1020. W tym miejscu pojawia się pewne zastrzeżenie, ponieważ definicja zawarta w tym przepisie odnosi się do „produktu stwarzającego ryzyko” oznaczające potencjalnie niekorzystny wpływ m.in. właśnie na zdrowie.

Projekt odnosi się również w przepisie art. 13 do przejrzystości i udostępniania informacji użytkownikom. Przejrzystość rozumiana jest jako umożliwiająca użytkownikom interpretację wyników działania systemu, co wiąże się z określonymi obowiązkami użytkownika i dostawcy. Szczególnie podkreślono tutaj wymóg dołączania do systemów sztucznej inteligencji wysokiego ryzyka instrukcji obsługi zawierającej „zwięzłe, kompletne, poprawne i jasne informacje, które są istotne, dostępne i zrozumiałe dla użytkowników”. Nasuwa się wątpliwość, na ile założenie to w praktyce będzie realizowane, biorąc pod uwagę złożoność rozwiązań z obszaru AI, co będzie miało także znaczenie dla zakresu odpowiedzialności.

W kontekście przywołanych uwag – konieczności kontroli przez człowieka rozwiązań AI – specjalnego znaczenia nabierają zasady nadzoru. W motywie 48 projektu bardzo wyraźnie została podkreślona konieczność projektowania i opracowywania rozwiązań AI wysokiego ryzyka w taki sposób, aby człowiek mógł efektywnie nadzorować ich funkcjonowanie. Dlatego jeszcze przed wprowadzeniem tych rozwiązań do obrotu lub ich oddaniem do użytku dostawca powinien wskazać odpowiednie środki w tym zakresie. W szczególności chodzi o rozwiązania polegające na „wbudowanych ograniczeniach operacyjnych”, których AI nie jest w stanie sama obejść i musi reagować na działania człowieka – operatora systemu. Upraszczając – maszyna musi się wyłączyć, jeśli wyciągniemy wtyczkę.

Artykuł jest streszczeniem jednego z rozdziałów raportu „Cyfryzacja zdrowia w interesie społecznym”.

Forum dyskusyjne - napisz komentarz

Musisz się zalogować, aby móc dodać komentarz.

Archiwum