Digitalni svijet danas je preplavljen fotografijama i videima koji izgledaju uvjerljivo, a zapravo su rezultat umjetne inteligencije. Nekada je to bila domena zabave, filteri, memovi, šaljive montaže. No, granica je odavno prijeđena. Danas iste tehnologije koriste i ozbiljni mediji, pa čak i prestižne novinske kuće, često bez jasne oznake da je riječ o sadržaju oblikovanom algoritmom. Rezultat takve prakse je da se kod publike sve više javlja nepovjerenje prema medijima, jer jednostavno više nitko nikomu ne vjeruje.
Primjeri zlouporabe AI tehnologije su brojni. Fotografije s ratnih područja koje su “poboljšane” umjetnom inteligencijom izgledaju dramatičnije nego što stvarno jesu. Dim je gušći, plamen viši, lica izraženija. Takve sitne izmjene mijenjaju percepciju događaja. Prosvjed može izgledati nasilnije, sukob krvaviji, a tragedija veća. Publika još uvijek zna prepoznati sliku koja je rađena ili dorađena pomoću algoritma i reagira na manipulacije nepovjerenjem, pa se počinje sumnjati i u autentične snimke.
Stručnjaci upozoravaju da je linija između “poboljšavanja” i krivotvorenja tanka. Generativna umjetna inteligencija sklona je greškama, pa u fotografiju može dodati detalje koji nikada nisu postojali. U trenutku kada takve slike dospiju u javnost, one ne samo da oblikuju narativ, nego i potkopavaju samu ideju istine.
Mediji, koji su nekada bili jamci vjerodostojnosti, sada se suočavaju s paradoksom: objavljivanjem AI sadržaja bez oznaka sami pridonose krizi povjerenja. Publika se s pravom pita – ako je sve moguće izmijeniti, kome uopće vjerovati?
U vremenu kada ratovi, političke krize i društveni sukobi već stvaraju nesigurnost, vijesti začinjene krivotvorenim slikama dezinformiraju javnost i stvaraju nepovjerenje koje se teško stječe, a lako gubi. A upravo je povjerenje temelj svake javne komunikacije.
Autentični primjeri već pokazuju kako AI manipulacije mijenjaju percepciju stvarnosti, od ratnih fotografija s Bliskog istoka do slučajeva u SAD-u gdje su snimke policijskih intervencija “poboljšane” tako da sugeriraju oružje umjesto mobitela. Takvi primjeri jasno pokazuju da granica između stvarnog i lažnog postaje sve tanja.
Primjeri manipulacija koje su već zabilježene
- Rat na Bliskom istoku (2024–2025)
Fotografije s terena, poput snimke požara kod iračke zračne luke Irbil, bile su “pojačane” umjetnom inteligencijom. U originalu je dim bio znatno manji, dok je AI verzija dodala dramatične oblake i vatru, stvarajući dojam većeg razaranja. - Incident u Minneapolisu (SAD, 2025)
Nakon što su savezni agenti ustrijelili Alexa Prettija, na internetu se proširila AI fotografija temeljena na autentičnom videu. U originalu je Pretti držao mobitel, no AI verzija ga je prikazala kao da drži pištolj. To je izazvalo pogrešne interpretacije događaja i dodatnu polarizaciju javnosti. - Fotografija američkog pilota u Kuvajtu (2026)
Snimka autentičnog događaja i scena gdje je pilot iskočio padobranom “poboljšana” je AI-jem tako da izgleda realističnije, ali s greškom koju AI zna napraviti poput četiri prsta na ruci odali su AI prevaru. Mediji su je prenijeli kao vjerodostojnu, dok je kasnije otkriven SynthID vodeni žig, znak da je riječ o AI generiranom sadržaju.
Zašto su ti primjeri važni? Zato što i najmanje izmjene u načelu mijenjaju narativ. Dodavanje dima, promjena izraza lica ili “oružja” u ruci može potpuno promijeniti percepciju događaja. Praksa kada i prestižne medijske kuće objave AI sadržaj kao autentičan, a prevara se otkrije publika počinje sumnjati i u autentične snimke. Time se stvara kriza povjerenja. AI algoritam je napredovao i uistinu se mogu stvoriti vrlo vjerodostojne slike i scene. Ali kada se prevara otkrije javnost ne samo da osjeti kako je izigrana nego se gubi dugogodišnje povjerenje koje će teško biti vraćeno. Jer razvoj algoritama napreduje i sve je više za očekivati da će lažnih i izmijenjenih slika biti sve više i više. S pravom se postavlja pitanje može li se više ikomu vjerovati?
Autentični primjeri koje smo naveli, a nisu jedini, jasno pokazuju da problem nije hipotetski, već se oni događaju. AI manipulacije u ratnim i političkim kontekstima stvaraju novu razinu dezinformacija, a mediji i javnost tek uče kako se nositi s tim izazovom. Povjerenje, jednom narušeno, teško se vraća, zato je nužno da se svaki AI sadržaj jasno označava i provjerava prije objave. Dok će jedni te provjere raditi savjesno drugi će zloupotrebljavati moć algoritma i kontinuirano će izvještavati s lažnim slikama, jer je novinarstvo postalo biznis i vijesti se plasiraju onako kako netko plati, dok se istina sklanja pod tepih.
PeD | DOMOVINA
