Generatywna sztuczna inteligencja nadchodzi do opieki zdrowotnej, ale nie wszyscy są z tego zadowoleni

Kredyty obrazkowe: Nadieżda Fedronova/Getty/Getty Images

Generatywna sztuczna inteligencja, która może tworzyć i analizować obrazy, tekst, dźwięk, filmy i nie tylko, coraz częściej wkracza do opieki zdrowotnej, przy wsparciu zarówno dużych firm technologicznych, jak i start-upów.

Google Cloud, dział usług i produktów w chmurze Google, współpracuje z Highmark Health, organizacją non-profit z siedzibą w Pittsburghu, zajmującą się opieką zdrowotną, nad generatywnymi narzędziami AI zaprojektowanymi w celu personalizacji obsługi pacjentów. Dział AWS firmy Amazon twierdzi, że współpracuje z anonimowymi klientami nad sposobem wykorzystania generatywnej sztucznej inteligencji do analiz Medyczne bazy danych dotyczące „społecznych determinantów zdrowia”. Microsoft Azure pomaga w budowaniu generatywnego systemu sztucznej inteligencji dla Providence, sieci opieki zdrowotnej non-profit, w celu automatycznego sortowania wiadomości wysyłanych od pacjentów do opiekunów.

Do znanych startupów AI w opiece zdrowotnej zalicza się Ambience Healthcare, która opracowuje generatywną aplikację AI dla lekarzy; Nabla, asystentka ds. sztucznej inteligencji otoczenia dla praktyków; oraz Abridge, która tworzy narzędzia analityczne do dokumentacji medycznej.

Powszechny entuzjazm dla generatywnej sztucznej inteligencji znajduje odzwierciedlenie w inwestycjach w wysiłki na rzecz generatywnej sztucznej inteligencji ukierunkowane na opiekę zdrowotną. Łącznie generatywna sztuczna inteligencja w start-upach z branży opieki zdrowotnej zgromadziła dotychczas dziesiątki milionów dolarów w postaci kapitału wysokiego ryzyka, a zdecydowana większość inwestorów w sektor zdrowia twierdzi, że generatywna sztuczna inteligencja odniosła ogromny sukces. Bardzo mnie to dotknęło Ich strategie inwestycyjne.

Jednak zarówno profesjonaliści, jak i pacjenci mają mieszane uczucia co do tego, czy generatywna sztuczna inteligencja ukierunkowana na opiekę zdrowotną jest już gotowa do wykorzystania.

Generatywna sztuczna inteligencja może nie być tym, czego ludzie chcą

W Najnowsze badanie Deloittetylko około połowa amerykańskich konsumentów (53%) stwierdziła, że ​​wierzy, że generatywna sztuczna inteligencja może ulepszyć opiekę zdrowotną — na przykład zwiększając jej dostępność lub skracając czas oczekiwania na wizyty. Mniej niż połowa stwierdziła, że ​​oczekuje, że produktywna sztuczna inteligencja sprawi, że opieka medyczna będzie bardziej przystępna cenowo.

Andrew Borkowski, dyrektor ds. sztucznej inteligencji w Virginia Sunshine Healthcare Network, największym systemie opieki zdrowotnej dla VA w Stanach Zjednoczonych, nie uważa, że ​​ten pesymizm jest nieuzasadniony. Borkowski ostrzegł, że wdrożenie generatywnej sztucznej inteligencji może być przedwczesne ze względu na jej „znaczne” ograniczenia i obawy co do jej efektywności.

„Jednym z głównych problemów związanych z generatywną sztuczną inteligencją jest jej niezdolność do radzenia sobie ze złożonymi zapytaniami medycznymi lub sytuacjami awaryjnymi” – powiedział TechCrunch. „Jej ograniczona baza wiedzy – to znaczy brak aktualnych informacji klinicznych – i brak ludzkiego doświadczenia sprawiają, że nie nadaje się do udzielania kompleksowych porad medycznych lub zaleceń dotyczących leczenia”.

READ  Kwietniowy raport o zatrudnieniu utrzymał się na stałym poziomie 3,6 procent

Wiele badań wskazuje, że te punkty są uzasadnione.

W artykule opublikowanym w JAMA Pediatrics, chatbot generowany przez sztuczną inteligencję OpenAI, ChatGPT, który niektóre organizacje opieki zdrowotnej testują pilotażowo w ograniczonych przypadkach: Stwierdzono, że popełnia błędy Rozpoznanie chorób dziecięcych w 83% przypadków. I w Testy Lekarze z Beth Israel Deaconess Medical Center w Bostonie zauważyli, że model GPT-4 OpenAI jako pierwszej odpowiedzi prawie dwa razy na trzy zaklasyfikował błędną diagnozę.

Dzisiejsza generatywna sztuczna inteligencja boryka się również z medycznymi zadaniami administracyjnymi, które stanowią integralną część codziennej pracy lekarzy. W teście porównawczym MedAlign służącym do oceny, jak dobrze sztuczna inteligencja może wykonywać takie czynności, jak podsumowywanie dokumentacji zdrowotnej pacjenta i przeszukiwanie notatek, GPT-4 zawodzi w 35% przypadków.

OpenAI i wielu innych dostawców generatywnej sztucznej inteligencji Przestrzegają przed poleganiem na swoich modelach w zakresie porad medycznych. Ale Borkowski i inni twierdzą, że mogą zrobić więcej. „Poleganie wyłącznie na generatywnej sztucznej inteligencji w opiece zdrowotnej może prowadzić do fałszywych diagnoz, niewłaściwego leczenia, a nawet sytuacji zagrażających życiu” – powiedział Borkowski.

Jan Egger, który prowadzi terapie wspomagane sztuczną inteligencją w Instytucie Sztucznej Inteligencji w Medycynie na Uniwersytecie Duisburg-Essen i który bada zastosowania nowej technologii w opiece nad pacjentami, podziela obawy Borkowskiego. Uważa, że ​​obecnie jedynym bezpiecznym sposobem wykorzystania położniczej sztucznej inteligencji w opiece zdrowotnej jest ścisły nadzór i monitorowanie lekarza.

„Wyniki mogą być całkowicie błędne i coraz trudniej jest zachować tego świadomość” – powiedział Egger. „Z pewnością generatywną sztuczną inteligencję można wykorzystać na przykład do napisania wypisu ze szpitala, ale lekarze mają obowiązek to sprawdzić i podjąć ostateczną decyzję.

Generatywna sztuczna inteligencja może utrwalać stereotypy

Szczególnie szkodliwym sposobem, w jaki generatywna sztuczna inteligencja w opiece zdrowotnej może pójść nie tak, jest utrwalanie stereotypów.

W badaniu przeprowadzonym w 2023 r. w Stanford Medicine zespół badaczy przetestował ChatGPT i inne chatboty generowane przez sztuczną inteligencję w odpowiedzi na pytania dotyczące czynności nerek, pojemności płuc i grubości skóry. Współautorzy odkryli, że odpowiedzi ChatGPT nie tylko często były błędne, ale zawierały także wiele długo utrzymywanych błędnych przekonań o biologicznych różnicach między osobami czarnoskórymi i białymi – kłamstw, które jak wiadomo, prowadzą dostawców usług medycznych do błędnego diagnozowania problemów zdrowotnych .

READ  Akcje odbiły, gdy czwarty Fed podniósł 0,75%

Ironią jest to, że pacjenci, którzy najprawdopodobniej będą dyskryminowani przez generatywną sztuczną inteligencję w opiece zdrowotnej, są również tymi, którzy najczęściej z niej korzystają.

Osoby pozbawione opieki zdrowotnej – W dużej mierze ludzie kolorowiwedług badania przeprowadzonego przez KFF — chętniej wypróbowują generatywną sztuczną inteligencję w takich celach, jak znalezienie lekarza lub wsparcie w zakresie zdrowia psychicznego, jak wykazało badanie Deloitte. Jeśli zalecenia sztucznej inteligencji będą obarczone uprzedzeniami, może to pogłębić nierówności w traktowaniu.

Niektórzy eksperci twierdzą jednak, że generatywna sztuczna inteligencja poprawia się pod tym względem.

W badaniu Microsoft opublikowanym pod koniec 2023 r. Naukowcy stwierdzili, że osiągnęli dokładność na poziomie 90,2%. W czterech trudnych testach medycznych wykorzystujących GPT-4. Vanilla GPT-4 nie była w stanie osiągnąć tego wyniku. Jednak naukowcy twierdzą, że dzięki szybkiej inżynierii — zaprojektowaniu wektorów dla GPT-4 w celu uzyskania określonego wyniku — byli w stanie poprawić wynik modelu nawet o 16,2 punktu procentowego. (Warto zauważyć, że Microsoft jest głównym inwestorem w OpenAI.)

Poza chatbotami

Ale zadawanie pytań chatbotowi nie jest jedyną rzeczą, do której generatywna sztuczna inteligencja jest przydatna. Niektórzy badacze twierdzą, że obrazowanie medyczne mogłoby znacznie zyskać na mocy generatywnej sztucznej inteligencji.

W lipcu grupa naukowców odkryła system o nazwie cOparte na integracji odroczenie przepływu pracy klinicznej (CoDoC) w badaniu opublikowanym w Nature. System został zaprojektowany tak, aby zrozumieć, kiedy specjaliści zajmujący się obrazowaniem medycznym powinni polegać na sztucznej inteligencji w diagnostyce, a nie na tradycyjnych technikach. Według współautorów CoDoC osiągnął lepsze wyniki niż specjaliści, zmniejszając przepływ pracy klinicznej o 66%.

A w listopadzie A Chiński zespół badań eksperymentalnych Panda, model sztucznej inteligencji używany do wykrywania potencjalnych zmian w trzustce na zdjęciach rentgenowskich. A Badanie wykazało PANDA musi bardzo ostrożnie klasyfikować te zmiany, które często są wykrywane zbyt późno na interwencję chirurgiczną.

W rzeczywistości Arun Thirunavukkarasu, pracownik naukowy zajmujący się badaniami klinicznymi na Uniwersytecie Oksfordzkim, powiedział, że w generatywnej sztucznej inteligencji nie ma „nic wyjątkowego”, co wykluczałoby jej zastosowanie w placówkach opieki zdrowotnej.

„Możliwe są bardziej przyziemne zastosowania technologii generatywnej sztucznej inteligencji W W perspektywie krótko- i średnioterminowej obejmują one korektę tekstu, automatyczną dokumentację notatek i listów oraz ulepszone funkcje wyszukiwania w celu ulepszenia elektronicznej dokumentacji pacjentów. „Nie ma powodu, dla którego nie można zastosować technologii generatywnej sztucznej inteligencji – jeśli jest ona skuteczna”. W Tego typu role są na miejscu.

READ  Akcje mieszane w regionie Azji i Pacyfiku przed wyborami śródokresowymi w USA

„rygorystyczna nauka”

Choć generatywna sztuczna inteligencja jest obiecująca w określonych, wąskich obszarach medycyny, eksperci tacy jak Borkowski wskazują na przeszkody techniczne i związane z przestrzeganiem przepisów, które należy pokonać, zanim generatywna sztuczna inteligencja stanie się użyteczna – i niezawodna – jako uniwersalne narzędzie pomocniczej opieki zdrowotnej.

„Wykorzystanie generatywnej sztucznej inteligencji w opiece zdrowotnej wiąże się ze znacznymi obawami dotyczącymi prywatności i bezpieczeństwa” – powiedział Borkowski. „Wrażliwy charakter danych medycznych oraz możliwość ich niewłaściwego wykorzystania lub nieuprawnionego dostępu stwarzają poważne ryzyko dla poufności pacjentów i zaufania do systemu opieki zdrowotnej. Ponadto otoczenie regulacyjne i prawne dotyczące stosowania generatywnej sztucznej inteligencji w opiece zdrowotnej wciąż się zmienia Należy rozwiązać kwestie związane z odpowiedzialnością, ochroną danych i praktyką lekarską przez podmioty inne niż ludzie.

Nawet Thirunavkarasu, optymista co do generatywnej sztucznej inteligencji w opiece zdrowotnej, twierdzi, że za narzędziami skierowanymi do pacjenta powinna stać „twarda nauka”.

„Zwłaszcza bez bezpośredniego nadzoru medycznego muszą zostać przeprowadzone pragmatyczne, randomizowane badania kontrolne wykazujące korzyści kliniczne uzasadniające wdrożenie sztucznej inteligencji położniczej skierowanej do pacjentki” – stwierdził. „Postępowanie w oparciu o rozsądne zarządzanie jest niezbędne, aby przezwyciężyć wszelkie nieprzewidziane szkody wynikające z wdrożenia na dużą skalę”.

Światowa Organizacja Zdrowia wydała niedawno wytyczne wzywające do zapewnienia tego rodzaju naukowego i ludzkiego nadzoru nad generatywną sztuczną inteligencją w opiece zdrowotnej, a także do wprowadzenia audytu, przejrzystości i ocen wpływu tej sztucznej inteligencji przez niezależne strony trzecie. Celem, jaki Światowa Organizacja Zdrowia określa w swoich wytycznych, jest zachęcenie zróżnicowanej grupy ludzi do udziału w rozwoju generatywnej sztucznej inteligencji dla opieki zdrowotnej oraz umożliwienie wyrażania obaw i wnoszenia wkładu w trakcie całego procesu.

„Dopóki obawy nie zostaną odpowiednio rozwiązane i nie zostaną wprowadzone odpowiednie zabezpieczenia, powszechne wdrażanie medycznej sztucznej inteligencji może być… szkodliwe dla pacjentów i całej branży opieki zdrowotnej” – powiedział Borkowski.



Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *