Veštačka inteligencija (AI) duboko utiče na naš svakodnevni život, menjajući način na koji se informišemo i donosimo odluke u različitim oblastima. Jedna od glavnih karakteristika AI jeste brzina kojom su je ljudi i tržište rada usvojili.
Ovaj tempo usvajanja je bez presedana. U prošlosti su se nove tehnologije obično širile sporo. Na primer, iako su FM radio-talasi razvijeni tokom 1930–40-ih, bilo je potrebno nekoliko decenija da se ova tehnologija masovno prihvati. U Sjedinjenim Američkim Državama (SAD), FM je postao dominantan tek 1970-ih, dakle oko 30–40 godina nakon izuma. Čak je i televiziji trebalo nekoliko decenija da se masovno usvoji; iako je razvijena 1920–30-ih, ovaj medij se raširio tek 1950-ih, oko 25–30 godina nakon nastanka.
Ali AI, posebno generativni, usvojen je rekordnom brzinom. Na primer, četbot zasnovan na generativnom AI-u, “ChatGPT”, lansiran u novembru 2022. godine, dostigao je više od 100 miliona korisnika za samo dva meseca, postavši najbrže rasprostranjena aplikacija u istoriji. I za razliku od FM talasa, kojima su bile potrebne decenije da dopru do masa, AI se proširio globalno u roku od 2–3 godine, u različitim oblastima uključujući rad u redakcijama, univerzitetima, javnim institucijama, školama, malim biznisima i u svakodnevnoj individualnoj upotrebi.
Tako je AI srušio klasični ciklus tehnološkog usvajanja i postao deo svakodnevice pre nego što smo stigli uopšte da ga razumemo.
Iako je AI pružio vidljive koristi i olakšao rad u mnogim oblastima i profesijama, to je samo jedna strana medalje. Druga, znatno mračnija i zabrinjavajuća, jeste njegova sve češća upotreba za stvaranje i širenje lažnog sadržaja koji manipuliše javnom percepcijom i povećava rizike od dezinformacija u društvu.
AI je radikalno promenio način na koji se proizvodi onlajn sadržaj. Materijali za koje su nekada bili potrebni sati ili dani rada čitavih timova danas nastaju za nekoliko sekundi. To je omogućilo da proizvodnja sadržaja, uključujući lažne informacije, bude mnogo brža, jeftinija i dostupna svima.
Nekada je pokretanje dezinformacione kampanje zahtevalo tim ljudi, finansije i pažljivo planiranje. Danas jedan jedini čovek, bez velikih resursa ili specijalizovanog znanja, može da generiše ogromne količine ubedljivog materijala i da ga proširi društvenim mrežama za svega nekoliko minuta. Ova lakoća značajno je povećala rizik od širenja dezinformacija i omogućila pojedincima ili malim grupama da utiču na javno mnjenje gotovo bez prepreka.
Pre šireg prodora AI, netačni sadržaji i dezinformacije uglavnom su se širili kroz tekstove i članke sa naslovima koji stvaraju zabludu. U to vreme, jedan od najčešćih oblika vizuelne manipulacije bila je montaža fotografija pomoću programa za uređivanje.
Širenje AI znatno je otežalo i rad fokusiran na proveru činjenica, kao u slučaju Hibrid.info, platforme za kontrolu i proveru činjenica na kojoj radim. Nove tehnologije omogućavaju stvaranje netačnih sadržaja i sve profinjenijih dezinformacija, koje je često teško razlikovati od stvarnih. Danas naš rad više nije ograničen samo na identifikovanje manipulacija audiovizuelnih sadržaja putem uobičajenih tehnika editovanja, već sve češće obuhvata i proveru sadržaja koje je AI u celosti generisao ili njime manipulisao.
To značajno otežava borbu protiv dezinformacija i čini informativno okruženje još složenijim za snalaženje korisnika.
Alati za verifikaciju
WeVerify – dodatak za verifikaciju – Alat koji jednim klikom nudi više integrisanih opcija za proveru vizuelnog sadržaja. U ovaj alat moguće je učitati sliku ili link ka video-sadržaju, a alat analizira poreklo, metapodatke i može da pokaže da li je sadržaj manipulisan ili je ranije korišćen u drugim kontekstima.
Deepfake detektor - Korisnik može da učita video ili sliku, a ovaj alat analizira karakteristike lica, pokrete usana, audio-video sinkronizaciju i druge vizuelne elemente koji se obično deformišu u manipulisanim sadržajima. Na kraju alat daje procenu verovatnoće da je materijal originalan ili deepfake.
Glorious ContextuBot - Specijalizovan alat za verifikaciju audio-sadržaja koji identifikuje originalni izvor neke audio-snimke i kontekst u kom je ranije korišćena.
YouTube DataViewer - Analizira link video-sadržaja i prikazuje datum postavljanja, originalne sličice (thumbnails) i slučajeve kada je video ranije korišćen u drugim kontekstima. Ovo pomaže u proceni autentičnosti sadržaja i otkrivanju mogućih manipulacija.
Rizik od AI u informativnom poremećaju
Godine 2018. procenjivalo se da oko 14.700 lažnih video-snimaka kruži internetom. Od tada se njihov broj drastično povećao zbog popularnosti aplikacija za generisanje deepfake sadržaja, koje su lako dostupne i jednostavne za korišćenje, poput DeepFaceLab, Zao, FaceApp i Wombo. Danas je obim ovakvih sadržaja praktično nemoguće izmeriti.
Deepfake predstavlja video, audio ili slikovne sadržaje koje stvara AI. Ova tehnologija generiše lažne slike, snimke ili zvuke neke osobe, mesta ili događaja, koji izgledaju uverljivo originalno.
Korišćenje AI za stvaranje deepfake materijala učinilo je fabrikovane sadržaje mnogo uverljivijim. Video-snimci na kojima se politički lideri prikazuju kako daju izjave koje nikada nisu izgovorili, ili slike događaja koji se nikada nisu dogodili, mogu se lako proširiti i izazvati zabunu kod šire javnosti.
Tvorci ovih sadržaja preuzimaju isečke snimaka i izjava različitih osoba, a zatim preko aplikacija za izradu deepfake materijala montiraju njihov originalni glas, menjajući pritom sadržaj. Tako nastaju video-snimci koji izgledaju verodostojno, ali sadrže izjave koje osobe u njima nikada nisu dale.
Na Kosovu se ovaj oblik manipulacije najčešće javlja u slučajevima koji su pretežno političke prirode.
U jednom slučaju koji je obradio tim Hibrid.info, sadržaj je prikazivao tadašnjeg premijera Albina Kurtija kako govori na arapskom jeziku. U drugom slučaju tvrdilo se da je predsednik SAD, Donald Tramp, zapretio Srbiji.
Godine 2023. objavljen je audio-materijal za koji se tvrdilo da predstavlja telefonski razgovor između tadašnjeg kosovskog premijera Albina Kurtija i ambasadora SAD u Kosovu, Jeffreyja Hoveniera. Ovaj sadržaj je prvobitno objavljen na Telegramu, na jednom kanalu na srpskom, a zatim su ga preneli i drugi korisnici.
Međutim, i sam kanal koji je objavio ovaj audio-materijal naglasio je u svom postu da njegova autentičnost nije potvrđena. Izvor objave ne navodi detalje o poreklu sadržaja, ko ga je prvi plasirao niti kako je do njega došao. To je, zapravo, sve što se zna. Ni istraživanje portala Hibrid.info nije uspelo da potvrdi autentičnost ovog snimka. Takođe, isti sadržaj je demantovala i kancelarija premijera Kosova.
Osetljivi događaji privlače pažnju čitalaca i često ih navode da informacije prihvate bez razmišljanja o tome da li su tačne.
Sadržaji koje proizvodi AI obično dobijaju veći zamah tokom ratova, sukoba ili društvenih nemira, jer osetljivi događaji privlače pažnju čitalaca i često ih navode da informacije prihvate bez razmišljanja o tome da li su tačne.
Jasan primer je rat između Izraela i Hamasa, koji se pretvorio u jedan od prvih slučajeva u kojima je AI masovno korišćen za stvaranje i širenje vizuelnih sadržaja koji nisu odražavali stvarnost. Slike i video-snimci koje je proizveo AI prikazivani su kao autentični, a mnogi korisnici su ih prihvatali kao verodostojne, pod uticajem emocija koje su te scene izazivale.
Hibrid.info je verifikovao desetine sadržaja koje je stvorio AI, a koji su lažno predstavljani kao snimci iz rata u Palestini. Kroz ovakve lažne materijale nalozi na društvenim mrežama uspeli su da na svojim stranicama prikupe veliki broj komentara, reakcija i pratilaca. Na primer, tokom analize jedne fotografije podeljene na Fejsbuku, na kojoj se vide dva lekara kako obavljaju operaciju u razorenom objektu, a za koju se tvrdilo da predstavlja aktuelnu scenu iz Palestine, primećuje se da postoje jasni tragovi intervencije AI kroz izobličenja i nejasne vizuelne elemente.
Drugi primeri uključuju fotografiju dvoje dece kako se mole pored svoje mrtve majke, sliku muškarca sa petoro dece usred ruševina, prizore dece zarobljene u srušenim objektima, fotografiju tela jedne osobe pod ruševinama, kao i fotografiju na kojoj navijači fudbalskog kluba “Atletico Madrid” razvijaju palestinsku zastavu.
Izobličenja na rukama, prstima, očima i drugim delovima tela tipični su pokazatelji sadržaja koje je generisao AI. Takođe, AI često proizvodi neprecizne senke, ponavljajuće teksture, elemente pozadine koji se ne uklapaju prirodno u scenu, objekte nemogućih oblika, deformisan tekst i numeričke oznake, kao i osvetljenje koje nije u skladu sa okruženjem.
Pored sadržaja koje AI generiše u vezi sa nemirima ili konfliktima, kruže i prikazi koji se odnose na svakodnevne situacije i lične priče, praćeni emocionalno nabijenim opisima. Čak i ovi sadržaji koriste emocije kako bi privukli pažnju korisnika i često se prihvataju kao istiniti, pokazujući da manipulacija nije ograničena samo na teme rata, već se širi na svaki sadržaj koji ima za cilj da pogodi osetljivost ljudi.
Veliki deo korisnika ne proverava autentičnost sadržaja i prihvata ga kao istinit, ne dovodeći ga ni najmanje u pitanje.
Da bi se razumelo da li korisnici uspevaju da prepoznaju veštačku prirodu ovih slika, Hibrid.info je analizirao jedan konkretan post. Slika je bila praćena tekstom: “Imam 45 godina i u 3 sata jutros konačno sam postao otac… Ja i moja žena smo ostali bez roditelja i niko nam nije čestitao. Neka su blagosloveni svi oni koji nas blagosiljaju!”, koji je objavila stranica “NKosovë”. Objavu je lajkovalo više od 3.500 korisnika, a imala je oko 1.600 komentara. Iz komentara se jasno vidi da veliki deo korisnika ne proverava autentičnost sadržaja i prihvata ga kao istinit, ne dovodeći ga ni najmanje u pitanje.
Ovaj fenomen, u kojem se emocije koriste kao mamac za generisanje lajkova i komentara, naziva se “engagement bait” (mamac za angažman). Njegov cilj je da poveća interakcije korisnika – lajkove, deljenja, komentare i druge reakcije – kako bi se veštački podigao angažman stranice i njena vidljivost na internetu. Iako možda ne pratimo stranice koje ih objavljuju, ovakvi postovi nam se često pojavljuju. Ponekad se među komentarima ili reakcijama nađu i članovi porodice ili bliske osobe koje imamo na listi prijatelja, na primer na Facebooku.
Prednosti naspram rizika
Platforme za proveru činjenica ne mogu nadgledati sve dezinformacije zbog velikog obima i brzine širenja online. Sa rastom sadržaja koje stvara AI, ova nemogućnost postaje još očiglednija, naročito kada sadržaji ne dolaze sa poznatih kanala, već sa malih stranica, anonimnih profila ili mreža kreiranih posebno za manipulaciju javnim mnjenjem. U takvim slučajevima, verifikatori često reaguju tek kada je sadržaj već postao viralan, a šteta već učinjena.
To stvara potrebu da i same medijske organizacije preuzmu aktivniju ulogu u identifikovanju i suprotstavljanju lažnim sadržajima koje stvara AI. Mediji se ne mogu ograničiti samo na izveštavanje, već treba da integrišu alate, procese i stručnost kako bi prepoznavali digitalne manipulacije, objašnjavali ih javnosti i razvijali redovne rubrike za medijsku pismenost. U suprotnom, informativni prostor ostaje nezaštićen od aktera koji koriste tehnologiju u dezinformativne svrhe.
Istovremeno, odgovornost pada i na same čitaoce i korisnike. U okruženju u kojem sve može izgledati autentično, potrošači informacija treba da uspore impulsivnu reakciju i da obrade sadržaj pre nego što mu poveruju ili ga dalje podele. Jednostavne radnje kao što su provera izvora, verifikacija datuma, pretraga slike na Google-u ili upoređivanje informacija sa pouzdanim medijima mali su, ali ključni koraci za zaštitu od manipulacije.
Tako, iako se AI koristi za proizvodnju lažnih sadržaja i manipulaciju percepcijom javnosti, ista tehnologija nudi napredne alate koji mogu osnažiti sposobnost korisnika i medija da razlikuju istinit sadržaj od obmane. Ovi alati pomažu publici i profesionalcima da identifikuju izvor, provere datum nastanka sadržaja i otkriju tragove manipulacije u sadržajima koji kruže internetom.
U svakodnevnom radu Hibrid.info, verifikatori činjenica koriste niz takvih alata da provere svaku sumnjivu fotografiju, video ili drugi materijal. Svaki sadržaj se učitava na specijalizovane platforme za proveru porekla, metapodataka i sumnjivih vizuelnih elemenata, što omogućava brže i preciznije otkrivanje lažnih sadržaja stvorenih ili izmenjenih pomoću AI.
Na kraju, dezinformisanje u eri AI nije problem koji se rešava jednim alatom ili jednom platformom za proveru činjenica. Brzina i razmere proizvodnje i širenja lažnih sadržaja testiraju granice kapaciteta za verifikaciju i ozbiljno izazivaju informativni ekosistem. Kako generativna tehnologija postaje sve sofisticiranija, kolektivna odgovornost postaje sve veća. Mediji moraju da ulažu u nove veštine verifikacije i edukaciju publike, a korisnici da razvijaju sposobnost provere i procene pre nego što poveruju u sadržaj ili ga podele.
Budućnost javnog prostora zavisi od toga koliko brzo ćemo naučiti da živimo u realnosti u kojoj istina više nije jedino što izgleda istinito.
Naslovna slika: Dina Hajrullahu / K2.0