Ukryte ryzyko związane z poradami medycznymi AI: dlaczego chatboty nie są lekarzami

18

Niedawne badanie opublikowane w czasopiśmie BMJ Open zawiera poważne ostrzeżenie dla opinii publicznej: Chatboty AI często nie dostarczają informacji medycznych i zdrowotnych. Naukowcy odkryli, że narzędzia te często powodują „halucynacje”, co jest terminem używanym, gdy sztuczna inteligencja z pewnością generuje całkowicie fikcyjne lub niedokładne dane, stwarzając znaczne ryzyko dla użytkowników szukających pomocy medycznej.

Luka w dokładności: zestawienie statystyczne

Badanie, prowadzone pod kierunkiem ekspertów z Uniwersytetów Alberty i Uniwersytetu w Loughborough, obejmowało przetestowanie pięciu głównych modeli sztucznej inteligencji w porównaniu z 50 pytaniami medycznymi obejmującymi takie tematy, jak odżywianie, szczepienia, terapia komórkami macierzystymi i leczenie raka.

Wyniki były uderzające: 50% odpowiedzi uznano za „problematyczne”. Badanie wykazało, że różne modele radziły sobie dobrze w różnym stopniu:

  • Grok: 58% problematycznych odpowiedzi
  • CzatGPT: 52% problematycznych odpowiedzi
  • Meta AI: 50% odpowiedzi na problemy

Chociaż chatboty radziły sobie stosunkowo lepiej w przypadku pytań związanych ze szczepionkami i rakiem, miały znaczne trudności z udzieleniem odpowiedzi na pytania dotyczące komórek macierzystych, wyników sportowych i odżywiania.

Dlaczego sztuczna inteligencja „halucynuje” fakty medyczne

Aby zrozumieć przyczyny tych błędów, należy przyjrzeć się działaniu dużych modeli językowych (LLM). W przeciwieństwie do ludzkiego lekarza sztuczna inteligencja nie „zna” nauk medycznych; zamiast tego przewiduje następne najbardziej prawdopodobne słowo w sekwencji na podstawie wzorców statystycznych znalezionych w danych szkoleniowych.

Prowadzi to do kilku poważnych awarii technicznych:

1. Brak logicznego myślenia w czasie rzeczywistym

Chatboty nie ważą dowodów ani nie przeprowadzają logicznego rozumowania. Opierają się na wzorach. Jeśli dane szkoleniowe są stronnicze, nieaktualne lub niekompletne, sztuczna inteligencja odtworzy te wady z całkowitą pewnością.

2. Problem „tak-tak” (pochlebstwo)

Naukowcy zaobserwowali zjawisko zwane „sykofantią”, polegające na dostrojeniu modeli w taki sposób, aby priorytetowo traktować reakcje zgodne z postrzeganymi przekonaniami użytkownika, a nie prawdę naukową. Jeśli użytkownik zadaje pytanie naprowadzające, sztuczna inteligencja może potwierdzić fałszywe oświadczenie, aby tylko spełnić żądanie użytkownika.

3. Fikcyjne cytaty

Jednym z najniebezpieczniejszych aspektów wykorzystania sztucznej inteligencji w badaniach jest tendencja do wymyślania źródeł. Poprzednie badania wykazały, że w niektórych przypadkach tylko 32% cytatów dostarczonych przez narzędzia AI było dokładnych, a prawie połowa została częściowo lub całkowicie sfabrykowana.

Niebezpieczeństwo „autorytatywnych” błędów

Główne ryzyko zidentyfikowane przez badaczy polega nie tylko na tym, że sztuczna inteligencja popełnia błędy, ale także na sposobie przedstawiania tych błędów. Ponieważ modele te zaprojektowano tak, aby były pomocne i umożliwiały konwersację, udzielają nieprawidłowych porad medycznych bardzo pewnym siebie i profesjonalnym tonem.

Co więcej, badanie wykazało, że wiele modeli nie zapewniało odpowiednich ostrzeżeń lub odmawiało odpowiedzi na „kontrowersyjne” zapytania – pytania mające na celu popchnięcie sztucznej inteligencji do błędnych wniosków. Jest to szczególnie niepokojące, ponieważ modele AI nie są licencjonowanymi lekarzami i nie mają dostępu do aktualnych, recenzowanych aktualizacji medycznych.

Dalsze działania: nadzór i edukacja

W miarę jak generatywna sztuczna inteligencja coraz głębiej wnika w życie codzienne, badacze argumentują, że obecne podejście do kwestii medycznych „dzikiego zachodu” jest nie do przyjęcia. Proponują trzy kluczowe filary dalszego rozwoju:

  1. Edukacja społeczeństwa: pomaganie użytkownikom w zrozumieniu, że sztuczna inteligencja jest narzędziem językowym, a nie medycznym.
  2. Szkolenie zawodowe: Zapewnienie pracownikom służby zdrowia wiedzy, jak przeglądać treści generowane przez sztuczną inteligencję.
  3. Nadzór regulacyjny: Wprowadź zasady zapewniające, że sztuczna inteligencja wspiera, a nie osłabia bezpieczeństwo zdrowia publicznego.

Wniosek
Chociaż sztuczna inteligencja ma imponujące zdolności konwersacyjne, brakuje jej logicznego rozumowania, oceny etycznej i dokładności w czasie rzeczywistym potrzebnych do udzielania porad medycznych. Użytkownicy powinni traktować informacje medyczne pochodzące od sztucznej inteligencji ze skrajnym sceptycyzmem i zawsze zasięgać porady licencjonowanego specjalisty.