Włoscy naukowcy ujawniają błędy. Sztuczna inteligencja okrutnie myli się w diagnozach

2 tygodni temu 19

Niepokojące wyniki badań. AI popełniła wiele błędów

Badania, rozpoczęte w 2023 r., były prowadzone pod kierunkiem Vincenzo Guastafierro z Instytutu Klinicznego i Uniwersytetu Humanitas w Rozzano koło Mediolanu. Naukowcy przeanalizowali odpowiedzi ChatGPT w 200 fikcyjnych przypadkach klinicznych, które opracowano we współpracy z lekarzami i zgodnie z aktualnymi wskazówkami diagnostycznymi.

Dalszy ciąg artykułu pod materiałem wideo

Rezultaty badań są niepokojące. W około 70 proc. przypadków sztuczna inteligencja dostarczyła błędnych odpowiedzi, a w 30 proc. odwoływała się do nieistniejących lub niedokładnych źródeł. Choć w 62 proc. przypadków chatboty udzieliły częściowo użytecznych odpowiedzi, jedynie 32 proc. z nich było całkowicie wolnych od błędów.

Najpoważniejsze pomyłki obejmowały błędne diagnozy raka skóry oraz pomylenie dwóch różnych typów nowotworu piersi. Co więcej, przy tych diagnozach AI cytowała nieistniejące źródła medyczne, co dodatkowo podważa wiarygodność technologii w tak kluczowych zastosowaniach.

Niezastąpione oko lekarza. Do AI trzeba podejść z rezerwą

Vincenzo Guastafierro, cytowany przez dziennik "Il Messaggero", zwrócił uwagę, by zachować ostrożność w wykorzystywaniu sztucznej inteligencji w medycynie. Według niego błędy w diagnozach mogłyby prowadzić do poważnych konsekwencji zdrowotnych. "Oko kliniczne lekarza pozostaje niezastąpione. AI musi być uważana za wsparcie, ale nie za zamiennik kompetencji człowieka" — zaznaczył.

Wyniki badań pokazują ograniczenia, jeśli chodzi o zastosowanie sztucznej inteligencji w medycynie i uwrażliwiają na konieczność jej odpowiedzialnego użycia. Jak pokazuje przykład z Włoch, technologia, choć obiecująca, wymaga jeszcze wielu udoskonaleń, zanim stanie się pełnoprawnym narzędziem w rękach lekarzy.

Przeczytaj źródło