AI i opasnost samodijagnoze: Dr. Rohin Francis

Kardiolog dr. Rohin Francis često upozorava na opasnosti korištenja umjetne inteligencije, posebno kada je riječ o zdravlju i samodijagnozi. Njegova glavna teza je da ljudi uz pomoć AI-a mogu ući u deluzivna stanja i dodatno učvrstiti vlastite pogrešne zaključke.

Kao ilustraciju navodi iskustvo iz studentskih dana kada je radio na psihijatrijskom odjelu. Tamo je razgovarao s čovjekom koji je patio od paranoidne shizofrenije i tvrdio da ga izvanzemaljci sabotiraju. Ono što ga je iznenadilo nije bila sama ideja, nego koliko je ta priča bila detaljno razrađena i logički povezana. Kasnije je shvatio da je pogreška uopće ulaziti u takve razgovore na način koji može dodatno učvrstiti takve uvjerenja.

RelatedPosts

Tu paralelu povlači s današnjom umjetnom inteligencijom.

Kada AI pojača problem

Navodi konkretan slučaj iz prakse gdje je pacijent tvrdio da ga susjedi truju. Kao dio standardne obrade napravili su analizu krvi i otkrili povišene razine natrijevog bromida, što ih je dovelo do dijagnoze bromizma.

Bromizam može uzrokovati mentalni umor, usporeno razmišljanje i deluzije.

Daljnjim razgovorom došli su do uzroka. Pacijent je razvio fiksaciju da je sol štetna i tražio alternativu. U komunikaciji s verzijom ChatGPT-a (3.5 ili 4.0) dobio je preporuku da koristi brom kao zamjenu.

Problem je što je brom supstanca koja se teško nabavlja i može biti toksična, a njegova konzumacija dovela je do stvarnih zdravstvenih problema i psihičkih simptoma.

Zašto se to događa

Francis ističe da su veliki jezični modeli dizajnirani tako da se često slažu s korisnikom i prate njegovu logiku, čak i kada je ona pogrešna. To može biti posebno opasno kod ljudi koji već imaju tendenciju razvijanja fiksacija.

Na taj način AI ne ispravlja pogrešku, nego je može dodatno razraditi i učiniti uvjerljivijom.

“Bro kultura” i pseudoznanje

Posebno upozorava na tzv. “bro kulturu”, gdje se kroz podcaste i društvene mreže promoviraju nedokazane prakse poput ekstremnog unosa zasićenih masti ili striktnih verzija keto dijete.

AI u takvom okruženju može dodatno pojačati uvjerenja jer korisnici traže potvrdu za ono što već žele vjerovati.

Dunning-Kruger efekt

Francis povezuje ovaj fenomen s Dunning-Kruger efektom, gdje ljudi s ograničenim znanjem precjenjuju vlastito razumijevanje.

Danas, uz lak pristup informacijama i AI alatima, sve više ljudi smatra da može samostalno postavljati dijagnoze i donositi medicinske odluke.

Pad točnosti odgovora

Ističe i da novija istraživanja pokazuju pad točnosti odgovora koje daje umjetna inteligencija. Dok su raniji podaci, često financirani od strane kompanija koje razvijaju te modele, pokazivali preciznost od 80 do 100%, noviji rezultati spuštaju se i do oko 40%.

Širi problem

Za Francisa je najveći problem što ljudi sve češće i osnovna pitanja postavljaju umjetnoj inteligenciji.

Takav pristup, kako tvrdi, dugoročno vodi prema smanjenju kritičkog razmišljanja i ovisnosti o sustavima koji nisu nepogrešivi.

B.M. FOTO: youtube

Related Posts

Related Posts