Memoria [PL] Nr 102 | Page 18

uczenia się poprzez rozpoznawanie wzorców w zbiorach danych. Uczenie głębokie (deep learning) to podkategoria uczenia maszynowego, w której sztuczne sieci neuronowe trenuje się na ogromnych ilościach danych. Pozwala to algorytmom analizować i interpretować dokumenty czy obrazy podobnie, jak robią to ludzie – rozpoznając wzorce bez świadomości przyswajania poszczególnych faktów. Co niezwykłe, a zarazem nieco niepokojące, sieć neuronowa nie potrafi przedstawić jasnego, etapowego uzasadnienia swoich decyzji. Może ona na przykład bezbłędnie zidentyfikować na zdjęciu kurę, a my możemy próbować dociec, jakie czynniki uznała za kluczowe przy tej operacji, jednak algorytm nie dostarczy nam gotowej procedury, dzięki której sami lepiej odróżnialibyśmy kury od papużek.

Sztuczna inteligencja stała się już integralną częścią naszej codzienności. Indywidualne rekomendacje w serwisie Netflix, spersonalizowane wyniki wyszukiwania czy optymalizacja tras w Google Maps – wszystko to napędza AI. Inteligentni asystenci, tacy jak Siri czy Alexa, wykorzystują ją do rozumienia poleceń głosowych, a portale randkowe, jak choćby Hinge, sięgają po uczenie maszynowe, by trafniej dobierać sugestie. To nie wizja przyszłości, lecz rzeczywistość – nasze działania i przekonania już teraz są kształtowane przez decyzje algorytmów

i sieci neuronowych.

Badacze oczywiście zaczęli już szkolić systemy uczenia maszynowego na medycznych zbiorach danych. W 2017 roku na łamach czasopisma „Nature” grupa dermatologów opublikowała list opisujący zastosowanie głębokiej sieci neuronowej do klasyfikacji zmian skórnych jako łagodnych lub złośliwych1. Sieć ta osiągała średnio lepsze wyniki niż lekarze, co sugeruje, że technologia potrafi błyskawicznie opanować umiejętności, na których naukę ludzie poświęcają lata, a i tak rzadziej osiągają podobną precyzję. Niektórzy posunęli się nawet do stwierdzenia, że pewne zadania – zwłaszcza te wymagające analizy obrazu – wkrótce zostaną całkowicie przejęte przez algorytmy głębokiego uczenia. Pisze o tym lekarz i autor Siddhartha Mukherjee

w artykule na ten temat, opublikowanym

w 2017 r. w „The New Yorker”2.

Sztuczna inteligencja może przenikać do praktyki medycznej na wiele sposobów. Powszechny trend wdrażania elektronicznej dokumentacji medycznej (EHR) daje możliwość wykorzystania systemów przetwarzania języka naturalnego. Potrafią one „rozumieć” język pisany, co pozwala im analizować zapisy w kartach pacjentów oraz formułować rekomendacje na podstawie wykrytych wzorców. Naukowcy analizowali już stosowanie głębokich sieci neuronowych do wcześniejszego diagnozowania chorób

i przewidywania zdarzeń istotnych z punktu widzenia funkcjonowania szpitali, takich jak ponowne hospitalizacje. Niektórzy proponują wykorzystywanie technologii AI do wspierania osób z demencją. Pojawiają się głosy za opracowaniem systemów, które odtwarzałyby proces decyzyjny pacjentów niemogących już o sobie stanowić. Algorytmy te miałyby wskazywać wybory, jakich dokonaliby tacy chorzy, gdyby nadal byli

w pełni władz umysłowych, co pozwoliłoby ułatwić proces decyzyjny osobom sprawującym nad nimi opiekę. Biorąc pod uwagę obecność AI w innych sferach życia oraz postępy w jej medycznych zastosowaniach, można się spodziewać, że

w nadchodzących latach jej rola w medycynie będzie systematycznie rosnąć.

Zagadnienia etyczne

Wiele dylematów etycznych związanych

z wykorzystaniem sztucznej inteligencji

w medycynie wynika z faktu, że oprogramowanie oparte na uczeniu maszynowym działa w dużej mierze jak „czarna skrzynka”. Nie znając mechanizmów podejmowania decyzji, ryzykujemy, że narzędzia AI będą nieświadomie utrwalać

i potęgować ludzkie uprzedzenia zawarte

w zbiorach danych wprowadzanych do systemu. Jednym z najczęściej przytaczanych przykładów jest wykorzystanie przez wymiar sprawiedliwości narzędzi oceny ryzyka do prognozowania recydywy u osób skazanych. Dochodzenie przeprowadzone przez portal informacyjny ProPublica wykazało, że algorytmy te niemal dwukrotnie częściej mylnie wskazywały na ryzyko ponownego popełnienia przestępstwa w przypadku osób czarnoskórych niż białych3. Co uderzające, systemy te nie korzystały bezpośrednio

z danych o rasie oskarżonych, lecz opierały się na ich odpowiedziach w kwestionariuszach. Dowodzi to, że uprzedzenia mogą pojawić się nawet w sytuacjach, które z założenia wydają się neutralne. Nietrudno wyobrazić sobie scenariusz, w którym system AI, projektowany do tworzenia zindywidualizowanych planów leczenia, nieumyślnie pogłębia nierówności

w ochronie zdrowia, wynikające z uprzedzeń rasowych lub różnic w poziomie wiedzy medycznej pacjentów.

Czasami algorytmy błędnie interpretują otrzymane informacje, co może mieć katastrofalne skutki. Takim dobitnym przykładem jest sytuacja, w której inżynierowie przeszkolili system uczenia maszynowego, aby przewidywał ryzyko zgonu z powodu zapalenia płuc i rekomendował, czy pacjent wymaga hospitalizacji, czy może być bezpiecznie leczony ambulatoryjnie4. Paradoksalnie narzędzie uznało, że pacjenci

z zapaleniem płuc cierpiący jednocześnie na astmę są obarczeni znacznie niższym ryzykiem zgonu i zaleciło leczenie ambulatoryjne. W rzeczywistości tacy chorzy należą do grupy wysokiego ryzyka i rutynowo trafiają na oddziały intensywnej terapii, co

w efekcie poprawia ich rokowania. To właśnie wysoka skuteczność leczenia szpitalnego doprowadziła algorytm do błędnego (i opartego na błędnym kole) wniosku: skoro ta podgrupa pacjentów zwykle zdrowieje, można ich bezpiecznie leczyć poza szpitalem. Autorzy badania zauważyli, że dzięki zastosowaniu „zrozumiałego” modelu uczenia maszynowego byli w stanie prześledzić tok rozumowania oprogramowania. Gdyby posłużyli się siecią neuronową, prawdopodobnie doszłaby ona do tych samych wniosków, lecz w sposób nieprzejrzysty, co znacznie utrudniłoby wykrycie źródła błędu.

Istotnym zagadnieniem są także rozbieżne interesy twórców, nabywców i użytkowników systemów AI5. Choć zazwyczaj ufamy, że lekarze kierują się przede wszystkim dobrem pacjenta, nie są oni oczywiście nieomylnymi

i w pełni bezstronnymi ogniwami tej struktury. Oczekiwania pracodawców nastawionych na zysk oraz lęk przed pozwami o błąd w sztuce często prowadzą do zlecania zbędnych badań i nadmiernej diagnostyki. Teoretycznie sztuczną inteligencję można by zaprogramować tak, aby neutralizowała czynniki zagrażające bezpieczeństwu chorego. Trudno jednak nie założyć, że w systemie ochrony zdrowia opartym na logice rynkowej wdrażane oprogramowanie będzie odzwierciedlać motywy wykraczające poza samą troskę o jakość opieki medycznej.

Sumienie i autorytet w podejmowaniu decyzji medycznych

Wizja przyszłości, w której oprogramowanie AI kieruje każdym krokiem lekarza, nie jest jeszcze kwestią najbliższych lat. Perspektywa tak daleko posuniętej automatyzacji stwarza okazję do namysłu nad tym, jak lekarze powinni reagować, gdy ich kompetencje zostają podważone przez autorytet rzekomo wyższy, a jednak wciąż omylny. Aby wypracować model postępowania w takim hipotetycznym świecie, musimy najpierw ustalić, co decyduje o prawomocności autorytetu i jak należy go rozumieć

w kontekście medycznym. Dopiero wtedy będziemy mogli określić, w jaki sposób sumienie lekarza funkcjonuje

w standardowych warunkach pracy klinicznej.

Często postrzegamy „autorytet” wyłącznie

w kategoriach politycznych lub prawnych, lecz pojęcie to ma również kluczowe znaczenie

w świecie medycyny, który cechuje się wyraźną hierarchicznością. W ujęciu teoretycznym „autorytet” to ekspert w danej dziedzinie. W sensie praktycznym odnosi się on natomiast do osoby lub instytucji posiadającej prawo i moc sprawczą, by kierować grupą ludzi i sprawować nad nią kontrolę. Istnieją różne poglądy na temat tego, jak ustalić, czy dany autorytet jest legitymizowany. Na potrzeby niniejszych rozważań zdefiniuję uprawniony autorytet jako taki, który jest „słuszny, uzasadniony

i oparty na racjonalnych przesłankach”6,

a tym samym wymagają posłuszeństwa, nawet jeśli nie jest ono egzekwowane w sposób restrykcyjny.

18