Nowa technologia AI przewiduje choroby, ale czy jest bezpieczna?

System AI Delphi-2M przewiduje ryzyko wystąpienia chorób, ale eksperci ostrzegają przed jego ograniczeniami i zagrożeniami.

Nowa technologia AI przewiduje choroby, ale czy jest bezpieczna?

Jakie ryzyko niesie ze sobą wystąpienie chorób takich jak rak czy zawał serca? System Delphi-2M ma na to odpowiedzieć. Ale czy jego wykorzystanie jest rzeczywiście korzystne, a może niesie ze sobą pewne zagrożenia?

„Gdy przeczytałem o tym projekcie, pomyślałem: znów model predykcyjny. Zaledwie 2% innowacji w dziedzinie AI jest faktycznie stosowanych w opiece zdrowotnej, jak wskazują badania. Innowacje często nie są dostosowane do praktyki” – mówi Michel van Genderen, internista-intensywista oraz współzałożyciel laboratorium etyki AI REAiHL, współpracy między Erasmus MC a TU Delft.

Van Genderen i jego zespół doradzają Światowej Organizacji Zdrowia (WHO) w kwestiach związanych z AI w opiece zdrowotnej. „Wdrożenie AI w medycynie może zakończyć się niepowodzeniem, jeśli nie będą ustalone moralne zasady. Musi być to bezpieczne i etyczne” – podkreśla.

Interpretacja danych

Narzędzie, które zostało opracowane, ocenia prawdopodobieństwo wystąpienia chorób takich jak rak, cukrzyca, choroby serca i wiele innych. Naukowcy twierdzą, że system może przewidzieć nawet do tysiąca różnych schorzeń, co jest istotne dla zapobiegania, diagnozowania i leczenia.

Profesor Mark Hoogendoorn z VU Amsterdam także rozwija modele AI przewidujące choroby, na przykład ryzyko wystąpienia raka jelita grubego. Choć jest entuzjastą, nie kryje swoich obaw. „W przypadku niektórych chorób model działa całkiem dobrze, ale dla innych już nie tak bardzo” – mówi.

Jak można interpretować te prognozy? Van Genderen zastanawia się. „Jak możesz mi zagwarantować, że model działa równie dobrze dla mężczyzny w wieku 70 lat, jak dla kobiety w tym samym wieku, czy dla kogoś z mniejszości etnicznej lub osoby w wieku 20 lat? Należy dokładnie zrozumieć, co te zestawy danych oznaczają” – dodaje.

Ekspert ostrzega, że droga do wdrożenia modeli AI w praktyce medycznej jest jeszcze długa. „Nie możemy sobie pozwolić na podejmowanie decyzji na podstawie modelu AI, jeśli pacjent nagle umiera, ponieważ coś zostało źle zinterpretowane” – mówi。

Van Genderen uważa, że podejście do AI w medycynie powinno być ostrożne. „To nie jest kwestia tego, że możemy wykorzystać model, ale jak go stosujemy. Chodzi o ludzkie życie.”

Wiek i płeć w modelach AI

Eksperci z Europejskiego Laboratorium Biologii Molekularnej (EMBL), Niemieckiego Centrum Badań nad Rakiem oraz Uniwersytetu w Kopenhadze opracowali to narzędzie AI. Medyczna historia pacjenta jest łączona z danymi o stylu życia, takimi jak palenie czy spożycie alkoholu, ale także otyłość, wiek i płeć.

Gdy Hoogendoorn przygląda się bliżej modelowi i jego predykcyjnej mocy, dostrzega, że głównie bierze pod uwagę wiek i płeć. „Już teraz takie czynniki są brane pod uwagę, nawet bez AI. W dłuższej perspektywie, na przykład przez 10 lat, model nie działa lepiej. Niektóre rzeczy w przyszłości są po prostu trudne do przewidzenia.”

Delphi-2M osiąga średnią dokładność 0,76, gdzie 1,0 oznacza idealne przewidywanie. Dla długoterminowych prognoz, na przykład na ponad 10 lat, średnia wynosi 0,7.

Czy wynik 0,7 jest wystarczająco dobry? Van Genderen zadaje pytanie: „Czy powinienem leczyć, czy nie? To bardzo trudne dyskusje. W końcu chodzi o ludzkie życie.”

Przewidywania a rzeczywistość

Van Genderen zwraca uwagę na wiele uprzedzeń w modelach AI. „Istnieje wiele badań, które to potwierdzają. System sprzyja dyskryminacji.” Jako przykład podaje wnioski AI, które sugerują, że czarne kobiety w ciąży odczuwają mniejszy ból.

Profesor Ewan Birney, dyrektor EMBL, który współtworzył Delphi-2M, podkreśla, że to tylko prognoza. „Podobnie jak w przypadku prognozy pogody. To nie jest pewność.”

Van Genderen dodaje: „To bez wątpienia bardzo inteligentna technologia, ale musimy zrozumieć, jakie cechy ma taki zestaw danych i upewnić się, że jest naprawdę dobry. Ostatecznie chodzi również o zaufanie między lekarzem a pacjentem.”

Własność danych

Birney rozumie obawy. „Model rzeczywiście lepiej działa w krótkich interwałach czasowych. Lekarze często mają więcej zaufania do tego, co dzieje się w najbliższej przyszłości.” Naukowiec ma nadzieję, że zostanie zbadane, gdzie model AI może mieć największy wpływ.

Jako przykład podaje planowanie opieki. „Możesz zdecydować, ile skanerów MRI powinno trafić do Amsterdamu, Leiden, Rotterdamu czy gdziekolwiek indziej.”

Van Genderen pozostaje ostrożny. „Delphi-2M to model językowy OpenAI, chatGPT. Chiński model językowy DeepSeek robi to samo. Trzysta chińskich szpitali niedawno zaczęło go stosować. Wszystkie wprowadzone dane stają się własnością firmy. Co z tym zrobią teraz lub za dwadzieścia lat? Co jeśli sprzedadzą to ubezpieczycielom? To bardzo fundamentalne pytanie: gdzie chcesz przechowywać swoje dane?”