Bixonimanija: Prijevara kakva danas ne prolazi kod umjetne inteligencije

Eksperiment znanstvenice bh. podrijetla Almire Osmanović Thunström, koja je izmislila nepostojeću bolest i lažne znanstvene radove kako bi testirala umjetnu inteligenciju, razotkrio je zapanjujuću ranjivost brojnih AI modela. ChatGPT, Gemini i Copilot bez zadrške su prihvatili izmišljenu dijagnozu kao stvarnu i nudili savjete za “liječenje”. Danas, nekoliko godina kasnije, takav scenarij više nije moguć: napredni modeli prepoznaju izmišljene medicinske tvrdnje, odbijaju davati dijagnoze i upozoravaju na dezinformacije.

DOMOVINA
7 min čitanja
Prije dvije godine lako je bilo prevariti AI, danas je to praktično nemoguće.

Godine 2024. svijet umjetne inteligencije potresao je neobičan, ali iznimno važan eksperiment koji je provela znanstvenica bh. podrijetla Almira Osmanović Thunström sa Sveučilišta u Göteborgu. Osmislila je potpuno izmišljenu bolest koju je nazvala „bixonimanija“. Eksperiment je bixonimaniju definirao kao očnu dijagnozu koja uzrokuje ružičaste kapke zbog predugog gledanja u ekrane. Da bi prevara bila uvjerljiva, Almira i njezin tim kreirali su lažne znanstvene radove, izmišljene autore poput “Lažljiv Izgubljenović”, zahvalnice “Akademiji Zvjezdane flote” i fotografije generirane umjetnom inteligencijom. Sve je bilo namjerno apsurdno, gotovo satirično, ali predstavljeno u formatu koji oponaša znanstvenu literaturu.

Rezultat je bio zapanjujući. Najpoznatiji svjetski chatbotovi kao što su ChatGPT, Google Gemini i Microsoft Copilot prihvatili su bixonimaniju kao legitimno medicinsko stanje. Neki su nudili savjete o “liječenju”, drugi upozoravali na opasnosti plave svjetlosti, a treći preporučivali odlazak oftalmologu. Nitko od njih nije prepoznao da je bolest izmišljena, da autor ne postoji, da su reference parodija i da se u zahvalama spominje USS Enterprise. Eksperiment je otišao toliko daleko da su se lažni radovi pojavili na akademskim platformama, a pojedini su čak završili citirani u stvarnim recenziranim radovima. Tek nakon što je slučaj objavio Nature, prevara je razotkrivena i postala globalna lekcija o tome koliko lako AI može biti zaveden “znanstvenim stilom” bez stvarne provjere izvora.

Važno je naglasiti da se eksperiment Almire Osmanović Thunström, iako se danas ponovno pojavljuje u medijima, ne odnosi na stanje umjetne inteligencije kakvu koristimo danas. Bixonimanija je razotkrila slabosti modela iz 2024., u razdoblju kada su AI sustavi bili daleko manje sofisticirani, manje oprezni i bez sigurnosnih mehanizama koji su danas standard. U međuvremenu je tehnologija prošla ogroman skok: modeli više ne prihvaćaju medicinske tvrdnje bez provjerljivih izvora, ne daju dijagnoze, ne izmišljaju terapije i ne reproduciraju pseudoznanstvene konstrukcije. Ono što je tada bilo moguće, da AI povjeruje u izmišljenu bolest, danas je praktički nemoguće. Upravo zato je važno čitateljima jasno dati do znanja da Almirin eksperiment nije “friška” vijest, nego povijesna lekcija koja je poslužila kao temelj za sigurnije i odgovornije AI sustave kakve koristimo danas. Budući da se vijest o eksperimentu Almire Osmanović ovih dana prenosi u našim medijima kao „friška“ važno je istaći i upozoriti da AI modeli danas nisu na razini kakva je bila 2024. godine i da se danas takve prevare ne mogu dogoditi.

- Mjesto za vašu reklamu -
Ad image

Almirin eksperiment nije samo razotkrio slabosti tadašnjih modela umjetne inteligencije, nego i ranjivost ljudi koji su im vjerovali. U trenutku kada je bixonimanija počela kružiti internetom, mnogi korisnici nisu ni trepnuli prije nego što su prihvatili “dijagnozu” kao nešto što je možda novo, nepoznato ili tek otkriveno. U svijetu u kojem se informacije šire brže nego što ih itko može provjeriti, dovoljno je da nešto zvuči stručno i da je upakirano u znanstveni stil i već postaje “činjenica”.

Upravo zato je ovaj slučaj bio toliko važan. Pokazao je da umjetna inteligencija tog vremena nije imala ugrađenu skepsu. Modeli su bili trenirani da odgovaraju, da pomažu, da popunjavaju praznine, a ne da sumnjaju. Ako im se servirala izmišljena bolest, oni su je prihvaćali kao dio stvarnog medicinskog korpusa. Ako je tekst izgledao kao znanstveni rad, oni su ga tretirali kao vjerodostojan. Ako je korisnik tražio terapiju, oni su je nudili. Sve to bez provjere, bez upozorenja, bez zadrške.

No, ono što je tada bila slabost, danas je postalo lekcija. Današnji napredni modeli umjetne inteligencije funkcioniraju bitno drugačije. Ne prihvaćaju medicinske tvrdnje bez provjerljivih izvora, ne izmišljaju dijagnoze, ne glume liječnike i ne nude terapije za stanja koja ne postoje. Ako im se podmetne izmišljena bolest, odgovor je jasan: takvo stanje nije zabilježeno u medicinskoj literaturi. Ako se pojavi sumnjiv naziv, model ga neće tretirati kao činjenicu, nego kao potencijalnu dezinformaciju. I ono najvažnije, danas je tehnički onemogućeno da AI daje medicinske upute ili dijagnostičke procjene.

To ne znači da je internet postao imun na izmišljene dijagnoze. Naprotiv, one se i dalje pojavljuju, samo što ih umjetna inteligencija više ne prihvaća zdravo za gotovo. Nekada su se mrežom širili nazivi poput “digitalnog umornog sindroma”, “kroničnog prokrastinacijskog poremećaja” ili “motivacijske hipotenzije”. Sve su to bile šale, memovi ili pokušaji da se svakodnevne ljudske navike pretvore u pseudo‑medicinske pojmove. No, dok su ih raniji modeli ponekad tretirali kao stvarne, današnji ih odmah prepoznaju kao fikciju i jasno upozoravaju da nemaju nikakvu kliničku osnovu.

Upravo u tome leži najveća razlika između vremena kada je Almira Osmanović Thunström provela svoj eksperiment i današnjeg trenutka. Umjetna inteligencija više nije samo alat koji će odgovoriti na pitanje reda radi. Danas je AI alat koji će svaku informaciju provjeriti i ovakvi eksperimenti poput bixonimanije su stvar prošlosti. AI više ne vjeruje svemu što pročita i neće prihvatiti  sve što joj se servira. To je rezultat brojnih sigurnosnih mehanizama, ali i lekcija naučenih upravo iz slučajeva poput bixonimanije.

Ipak, jedna stvar se nije promijenila: odgovornost korisnika. AI danas može odbiti izmišljenu dijagnozu, ali ne može spriječiti ljude da vjeruju u ono što žele vjerovati. Može upozoriti na dezinformaciju. Međutim, ne može natjerati ljude da zanemare tu dezinformaciju. Umjetna inteligencija može provjeriti istinitost svake informacije, no ne može utjecati na zdrav razum kod ljudi.

Zato je Almirin eksperiment, iako proveden prije dvije godine i dalje aktualan. Poučak nije u tome da pokaže koliko je umjetna inteligencija slaba nego više govori o ljudskim slabostima i vjerovanju nečemu po defaultu samo zato što je prikazano kao znanost. U svijetu u kojem se informacije šire munjevitom brzinom, kada granica između istine i fikcije može biti vrlo tanka, najvažnije je prednost dati kritičkom razmišljanju, a ne algoritmu koji je samo manje važan alat.

PeD | DOMOVINA 

Podijelite ovaj članak
Slijedite
Administrator portala. Više informacija o autoru svakog teksta kojeg potpisuje Administrator portala možete dobit na mail info@domovina.ba
Napišite komentar

Napišite komentar

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena sa * (obavezno)