Američan je na podlagi lastnih izkušenj pokazal, zakaj se ni vredno zanašati na umetno inteligenco.
Umetna inteligenca je danes v napačnih rokah že lahko nevarna / foto depositphotos.com
60-letni moški je bil hospitaliziran, potem ko je poslušal nasvete nevronske mreže ChatGPT. O tem poroča časnik Independent.
Ameriška medicinska revija je ta teden objavila poročilo o zdravljenju bolnika z bromizmom, ki se je razvil zaradi diete, ki mu jo je priporočil klepetalni robot.
Bromizem oziroma kronična zastrupitev z bromom je posledica uporabe snovi (najpogosteje nekaterih zdravil), ki vsebujejo povečan odmerek broma. Bromizem se kaže z določenimi fiziološkimi in nevropsihiatričnimi simptomi.
Bolnik, obravnavan v poročilu, v preteklosti ni imel psihiatričnih motenj, vendar so se pri njem v prvih 24 urah po hospitalizaciji pojavili povečana paranoja ter slušne in vidne halucinacije. “Bil je zelo žejen, hkrati pa je bil paranoičen glede vode, ki so mu jo ponudili,” je navedeno v poročilu.
Potem ko se je moško stanje izboljšalo z zdravljenjem s tekočino in elektroliti, so ga premestili na bolnišnični psihiatrični oddelek bolnišnice. Ko se je pacientovo duševno stanje stabiliziralo, so ga zdravniki lahko zaslišali in ugotovili vzroke redke bolezni, kot je bromizem.
Preberi tudi: “V Sloveniji se je pojavilo veliko število bolnikov, ki so bili oboleli za bromijo:
Izkazalo se je, da se je moški odločil, da se bo odpovedal kuhinjski soli (natrijevemu kloridu), ker je slišal za njene nevarnosti za zdravje. Odločil se je, da jo bo nadomestil z drugo vrsto soli – natrijevim bromidom. Na tej dieti je preživel tri mesece, preden so ga sprejeli v psihiatrično bolnišnico.Namizno sol je nadomestil z “natrijevim bromidom, ki ga je kupil na spletu po posvetovanju s ChatGPT, kjer je prebral, da je klorid mogoče nadomestiti z bromidom, čeprav verjetno za druge namene, kot je čiščenje,” je navedeno v poročilu.
Moški je na koncu tri tedne preživel v bolnišnici, preden je okreval dovolj, da so ga odpustili.
“Pomembno je upoštevati, da lahko ChatGPT in drugi sistemi umetne inteligence ustvarjajo znanstvene netočnosti, da niso sposobni kritično razpravljati o rezultatih in na koncu prispevajo k širjenju napačnih informacij,” opozarjajo avtorji poročila.
Druge novice o tehnologijah umetne inteligence
Kot je zapisal My, je Googlovo nevronsko omrežje Gemini nedavno doživelo nekakšen živčni zlom. Klepetalni robot se je po neuspešni nalogi začel sistematično zatikati v neskončnem krogu samokritike in samoprevare.
Povedali smo vam tudi, da je pomočnik Replit, ki temelji na umetni inteligenci, podjetniku uničil večmesečno delo. Bot je preprosto izbrisal spletno platformo, ko je naredil programsko napako in “paničaril”.