Używanie sztucznej inteligencji do diagnozy


Steven Novella 2019-10-08


Podsumowanie niedawno opublikowanego systematycznego przeglądu i meta-analizy badań porównujących ludzką inteligencję do sztucznej (AI) w diagnozowaniu radiogramów stwierdza:


Analiza danych z 14 badań porównujących wyniki uczenia głębokiego z wynikami ludzi na tej samej próbie, pokazuje, że w najlepszym wypadku algorytmy uczenia głębokiego mogą poprawnie wykryć chorobę w 87% przypadków w porównaniu do 86% osiąganych przez ludzi z zawodów medycznych.


Po raz pierwszy mamy tu dowód, że wyniki AI mogą być  lepsze od wyników ludzi. Autorzy piszą także, jak to się często dzieje, że potrzebujemy więcej badań, potrzebujemy potwierdzenia z rzeczywistego świata i potrzebujemy więcej bezpośrednich porównań. Przynajmniej jednak AI jest na tym samym boisku, co wyniki osiągane przez ludzi. Jeśli nasze doświadczenia z szachami i Go mogą służyć za przewodnika, algorytmy AI od teraz będą coraz lepsze. Właściwie, biorąc pod uwagę opóźnienie w badaniu, publikacji, a następnie przeglądzie, prawdopodobnie już tak jest.  


Sądzę, że AI jest gotowa do wyprzedzenia ludzi w diagnozowaniu, ponieważ to konkretne zadanie jest dobrze nadające się dla algorytmów uczenia głębokiego. Jest także bardzo trudne dla ludzi, którzy często padają ofiarą wielu błędów poznawczych i heurystyki, które utrudniają postawienie optymalnej diagnozy. Wiele medycznej edukacji koncentruje się na poprawianiu tych błędów i zastąpienie ich klinicznym podejmowaniem decyzji, która działa lepiej. Żaden lekarz praktyk nie jest jednak doskonały lub bez słabych punktów. Nawet najbardziej doświadczony klinicysta także musi zmagać się z przytłaczającą ilością informacji.


Istnieje kilka sposobów zbliżania się do diagnozy. Jedna, w której celują ludzie, jest podejście gestalt, które zasadniczo bazuje na rozpoznawaniu wzorów. Wraz z doświadczeniem lekarze uczą się rozpoznawać ogólny wzór choroby. Ten wzór może obejmować oznaki lub objawy, które są szczególnie prognostyczne. W końcu kawałki wpadają na miejsce automatycznie.


Także klinicysta musi jednak podeprzeć intuicję i rozpoznawanie wzoru podejściem analitycznym. Nawet jeśli masz 99% pewności co do diagnozy, nadal znaczy to, że możesz mylić się w jednym procencie, co dla intensywnie pracującego klinicysty może oznaczać raz na tydzień lub dwa tygodnie. A więc klinicyści uczą się także asekurowania się i brania pod uwagę rzeczy, na których pominięcie nie mogą sobie pozwolić. Dlatego łączą to podejście z analizą korzyści i ryzyka w próbie zmaksymalizowania korzyści i zminimalizowania ryzyka.


Tu jednak także istnieją specyficzne nastawienia. Mamy tendencje do unikania ryzyka i nie chcemy być bezpośrednią przyczyną szkody. Czy wolisz podjąć 20% ryzyko bezpośredniego wyrządzenia szkody, czy 40% szansę biernego pozwolenia na zajście szkody? Dla dobra pacjenta należy podjąć 20% ryzyko, ale możemy instynktownie wzdragać się przed tą opcją.


W ostatecznym rachunku diagnoza to masa statystyki i matematyki. Dla zrobienia tego optymalnie potrzebujesz mnóstwa informacji na wyciągnięcie ręki. I w tym właśnie komputery są dobre. Jeśli masz AI z uczeniem głębokim, która może mieć olbrzymią bazę danych i używać algorytmów, by nakreślić optymalną drogę do poprawnej diagnozy, powinna z łatwością pobić najlepszego ludzkiego diagnostyka. Prawdziwa sztuczka polega na rozwinięciu i podtrzymywaniu tych systemów.


Oto prosty przykład: może graliście z Akinator, który używa algorytmu, żeby zgadnąć o jakiej postaci lub rzeczy myślisz z całego świata możliwości. Algorytm redukuje możliwości w sposób, który może nie być intuicyjny, ale jest zaskakująco poprawny.


Sądzę, że jesteśmy gotowi na rewolucję AI w medycynie. Medycyna już jest trudna i staje się codziennie coraz trudniejsza, kiedy publikuje się codziennie tysiące badań, uaktualniając naszą kolektywną bazę danych. Podejmowanie decyzji także jest złożone i jest wiele pułapek. Tym, czego nam potrzeba, jest połączenie tego, co ludzie robią dobrze, z tym, co AI robi dobrze. To może niezmiernie zmniejszyć błędy w medycynie i podnieść skuteczność, a to jest bardzo potrzebne, by powstrzymać rosnące koszty opieki zdrowotnej.  


Oto, co ludzie robią dobrze – są dobrzy w kontaktach z innymi ludźmi. To znaczy, wydobywanie klinicznie użytecznej informacji i ustawianie jej w kontekście. To jest trudniejsze, niż się intuicyjnie wydaje ludziom, którzy nie są lekarzami. Pacjenci nie podają obiektywnych faktów, które można załadować w AI. Opowiadają własną, subiektywną narrację o swojej chorobie, która jest pełna wypaczeń i błędów. Dekonstruowanie i rekonstruowanie medycznej narracji przy pomocy różnego rodzaju źródeł informacji, jest swego rodzaju sztuką i rozwinięcie jej zabiera lata.


Ludzie są także potrzebni do wyjaśnienia pacjentom ich opcji, a potem do pomocy przy wyborze jednej z tych różnych opcji. Komputery są wspaniałe w skomplikowanych obliczeniach, ale nie potrafią powiedzieć ci o stosunkowej wartości jakości życia kontra długości życia. Nie możesz optymalizować rezultatu, jeśli nie wiesz, jakich kryteriów użyć. Czy AI powinna iść diagnostyczną ścieżką, która jest najszybsza, najmniej bolesna, najtrafniejsza, najtańsza, pociąga najmniejsze ryzyko komplikacji czy daje największą szansę na wyleczenie? W wielu codziennych przypadkach może być jedna, wyraźna ścieżka, ale czasami takiej ścieżki nie ma. To jest rozmowa, którą doświadczony lekarz musi odbyć z pacjentem, ważąc różne zmienne, a potem przystosować podejście do osobistych potrzeb i priorytetów danego pacjenta.


Tak więc diagnostyczny algorytm AI będzie narzędziem, którego użyje klinicysta. Zasadniczo potrzebujemy dostępu do takiego algorytmu w gabinecie każdego lekarza, w każdej klinice i szpitalu. To nie zastąpi ludzkiego, klinicznego podejmowania decyzji, ulepszy je. Ludzie popełniają błędy, mają luki w wiedzy, zapominają rzeczy i nie są obiektywni z powodu emocji i niedawnych przeżyć. Komputery nie mają żadnej z tych wad. Są zimne, konsekwentne i logiczne, i mogą czerpać z bazy danych istotnych informacji.


AI może, na przykład, po uzyskaniu istotnych danych o objawach i wyników z wstępnych testów medycznych, stworzyć listę możliwych diagnoz z dokładnymi procentami. Następnie może nakreślić sposoby zawężenia tej listy, wiedząc, jaka konkretna informacja będzie miała największą wartość prognostyczną.  


AI może także używać uczenia głębokiego nie tylko do używania informacji, ale także do tworzenia informacji. Proszę pamiętać – to są uczące się algorytmy. Daj im doświadczenie z prawdziwego świata, czyli powiedz im, jaka jest ostateczna diagnoza, a mogą użyć tej informacji do poprawienia własnych wyników. Gdyby wszystkie szpitale używały połączonej sieci AI uczenia głębokiego diagnoz i gdyby zapisywano by tam końcowe diagnozy i wyniki wszystkich pacjentów, byłoby to olbrzymie badanie epidemiologiczne. To co dziś wymaga dziesięcioleci badań epidemiologicznych można by zrobić w kilka lat.


Już teraz mamy technologię do zrobienia tego. Po prostu musimy to zrobić. To byłaby wartościowa inwestycja, prawdopodobnie oszczędzająca służbie zdrowia kosztów przekraczających o wiele rzędów wielkości nakłady na infrastrukturę. Nie wspominając nawet o oszczędzeniu ludziom życia i cierpienia. 


Trwają badania i obserwujemy rozwój. Nie są jednak na skalę, na jaką powinny być, biorąc pod uwagę potencjał. To jest dziedzina, gdzie rząd może dokonać wielkich inwestycji i na dłuższą metę oszczędzić pieniędzy. Jest w tym korzyść z posiadania jednego, zintegrowanego systemu i prawdopodobnie musi przyjść z góry na dół. Może wymagać dania jakiegoś pchnięcia, jakiegoś rodzaju zachęty z przedstawieniem konkretnych celów. W końcu to się zdarzy nawet bez zaangażowania rządu, ale powinniśmy robić wszystko, by zdarzyło się to tak szybko jak to możliwe.

 

Using AI for Diagnosis

NeurologicaBlog, 26 września 2019

Tłumaczenie: Małgorzata Koraszewska



Steven Novella 

Neurolog, wykładowca na Yale University School of Medicine. Przewodniczący i współzałożyciel New England Skeptical Society. Twórca popularnych (cotygodniowych) podkastów o nauce The Skeptics’ Guide to the Universe. Jest również dyrektorem Science-Based Medicine będącej częścią James Randi Educational Foundation (JREF), członek Committee for Skeptical Inquiry (CSI) oraz członek założyciel Institute for Science in Medicine. Prowadzi blog Neurologica.