Medyczna sztuczna inteligencja czasem widzi za dużo

Fot. Fotolia
Fot. Fotolia

Wystarczy niewielkie zakłócenie, by interpretująca obrazy sztuczna inteligencja rozpoznała nowotwór tam, gdzie go nie ma – informuje „Science”.

Rozwój zdolnej do rozpoznawania i interpretacji obrazów sztucznej inteligencji niesie z sobą obietnice przyspieszenia i udoskonalenia diagnostyki medycznej. Programy komputerowe mogłyby wspomóc, a może nawet zastąpić żmudną pracę radiologów, patomorfologów czy dermatologów. Pojawiają się jednak badania wskazujące na słabości sztucznej inteligencji, która potrafi uznać niewinną zmianę za poważną patologię.

Sam Finlayson z Harvard Medical School oraz jego trzej współpracownicy wprowadzili w błąd trzy algorytmy sztucznej inteligencji, zaprojektowane do skanowania obrazów medycznych. Wystarczyło zmienić kilka pikseli, by obrazy te zostały błędnie sklasyfikowane.

W jednym z przykładów zespół nieznacznie zmienił obraz znamienia na skórze, które wcześniej zostało sklasyfikowane jako niezłośliwe z 99-procentową pewnością. Następnie sztuczna inteligencja sklasyfikowała zmieniony obraz jako złośliwy ze 100-procentową pewnością – mimo, że dla ludzkiego oka oba obrazy są nie do odróżnienia.

Pozostałe dwa algorytmy AI służyły do wykrywania uszkodzeń siatkówki oka spowodowanych cukrzycą i oraz wykrywaniu odmy na zdjęciu rentgenowskim klatki piersiowej.

Obrócone obrazy także mogą być mylące dla sztucznej inteligencji - a takie niedoskonałości często występują w codziennej praktyce klinicznej. Choć ryzyko błędu jest niskie, przy powszechnym stosowaniu AI mogłoby dochodzić do wielu błędnych rozpoznań. Także bliskoznaczne słowa zastosowane do opisu stanu pacjenta mogą być dla sztucznej inteligencji mylące.

Sytuacja może również zachęcać do umyślnego wykonywania mylących zdjęć. Jeśli dermatolodzy otrzymają zwrot kosztów usunięcie znamienia od towarzystwa ubezpieczeniowego, ponieważ sztuczna inteligencja uznała je za zmianę złośliwą, pojawi się pokusa „modyfikacji” przypadków granicznych – by dostać pieniądze za większą liczbę procedur.

Ponieważ nie zawsze jest jasne, jakie czynniki wykorzystuje AI do podejmowania decyzji, w codziennym użytkowaniu mogą pojawiać się problemy, które nie występowały w warunkach laboratoryjnych. Pewien algorytm AI, mający wykrywać złamania szyjki kości udowej, nauczył się kojarzyć złamanie z zawansowanym wiekiem pacjenta i rodzajem urządzenia obrazującego, zamiast analizować sam obraz w poszukiwaniu złamania.

Jak zaznacza Finlayson, modyfikacje, które uodparniają AI na błędy, zmniejszają zarazem dokładność rozpoznania. (PAP)

Autor: Paweł Wernicki

pmw/ agt/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Odkryto planetę o gęstości waty cukrowej

  • Fot. Adobe Stock

    Teleskop Webba zarejestrował najodleglejsze połączenie czarnych dziur

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera