Kardiolog dr. Rohin Francis često upozorava na opasnosti korištenja umjetne inteligencije, posebno kada je riječ o zdravlju i samodijagnozi. Njegova glavna teza je da ljudi uz pomoć AI-a mogu ući u deluzivna stanja i dodatno učvrstiti vlastite pogrešne zaključke.
Kao ilustraciju navodi iskustvo iz studentskih dana kada je radio na psihijatrijskom odjelu. Tamo je razgovarao s čovjekom koji je patio od paranoidne shizofrenije i tvrdio da ga izvanzemaljci sabotiraju. Ono što ga je iznenadilo nije bila sama ideja, nego koliko je ta priča bila detaljno razrađena i logički povezana. Kasnije je shvatio da je pogreška uopće ulaziti u takve razgovore na način koji može dodatno učvrstiti takve uvjerenja.
Tu paralelu povlači s današnjom umjetnom inteligencijom.
Kada AI pojača problem
Navodi konkretan slučaj iz prakse gdje je pacijent tvrdio da ga susjedi truju. Kao dio standardne obrade napravili su analizu krvi i otkrili povišene razine natrijevog bromida, što ih je dovelo do dijagnoze bromizma.
Bromizam može uzrokovati mentalni umor, usporeno razmišljanje i deluzije.
Daljnjim razgovorom došli su do uzroka. Pacijent je razvio fiksaciju da je sol štetna i tražio alternativu. U komunikaciji s verzijom ChatGPT-a (3.5 ili 4.0) dobio je preporuku da koristi brom kao zamjenu.
Problem je što je brom supstanca koja se teško nabavlja i može biti toksična, a njegova konzumacija dovela je do stvarnih zdravstvenih problema i psihičkih simptoma.
Zašto se to događa
Francis ističe da su veliki jezični modeli dizajnirani tako da se često slažu s korisnikom i prate njegovu logiku, čak i kada je ona pogrešna. To može biti posebno opasno kod ljudi koji već imaju tendenciju razvijanja fiksacija.
Na taj način AI ne ispravlja pogrešku, nego je može dodatno razraditi i učiniti uvjerljivijom.
“Bro kultura” i pseudoznanje
Posebno upozorava na tzv. “bro kulturu”, gdje se kroz podcaste i društvene mreže promoviraju nedokazane prakse poput ekstremnog unosa zasićenih masti ili striktnih verzija keto dijete.
AI u takvom okruženju može dodatno pojačati uvjerenja jer korisnici traže potvrdu za ono što već žele vjerovati.
Dunning-Kruger efekt
Francis povezuje ovaj fenomen s Dunning-Kruger efektom, gdje ljudi s ograničenim znanjem precjenjuju vlastito razumijevanje.
Danas, uz lak pristup informacijama i AI alatima, sve više ljudi smatra da može samostalno postavljati dijagnoze i donositi medicinske odluke.
Pad točnosti odgovora
Ističe i da novija istraživanja pokazuju pad točnosti odgovora koje daje umjetna inteligencija. Dok su raniji podaci, često financirani od strane kompanija koje razvijaju te modele, pokazivali preciznost od 80 do 100%, noviji rezultati spuštaju se i do oko 40%.
Širi problem
Za Francisa je najveći problem što ljudi sve češće i osnovna pitanja postavljaju umjetnoj inteligenciji.
Takav pristup, kako tvrdi, dugoročno vodi prema smanjenju kritičkog razmišljanja i ovisnosti o sustavima koji nisu nepogrešivi.
B.M. FOTO: youtube




















