Inteligjenca artificiale (AI) po ndikon thellësisht në jetën tonë të përditshme, duke ndryshuar mënyrën se si informohemi dhe si marrim vendime në fusha të ndryshme. Një nga karakteristikat kryesore të AI është shpejtësia me të cilën është përvetësuar nga njerëzit dhe tregu i punës.
Ky ritëm i përvetësimit është i paprecedent. Në të kaluarën, teknologjitë e reja zakonisht janë përhapur ngadalë. Për shembull, ndonëse radiot me valë FM u zhvilluan në vitet 1930–40, u deshën disa dekada që kjo teknologji të adoptohej në masë. Në Shtetet e Bashkuara të Amerikës (SHBA), FM u bë dominues vetëm në vitet ‘70-a, pra rreth 30–40 vjet pas shpikjes. Edhe televizioni kërkoi dekada që të përvetësohej në masë; ndonëse u zhvillua në vitet 1920–30, ky medium u përhap tek në vitet ’50, pra rreth 25–30 vjet pas shpikjes.
Por AI, sidomos ajo gjenerative, është adoptuar me shpejtësi rekorde. Për shembull, chatbot-i me inteligjencë artificiale gjeneruese, “ChatGPT”, që u lansua në nëntor të vitit 2022, arriti mbi 100 milionë përdorues në vetëm dy muaj, duke u bërë aplikacioni më i përhapur më së shpejti në histori. E ndryshe nga valët e radios FM, që u deshën dekada përpara se të prekte masat, AI është përhapur në shkallë globale brenda 2–3 vitesh, në fusha të ndryshme përfshirë punën në redaksi, universitete, institucione publike, shkolla, biznese të vogla dhe përdorim të përditshëm individual.
Kështu, AI ka shkatërruar ciklin klasik të adoptimit teknologjik dhe është bërë pjesë e jetës para se të kemi kohë ta kuptojmë.
Ndërkohë që AI ka sjellë përfitime të dukshme dhe ka lehtësuar punën në shumë fusha e profesione, kjo është vetëm njëra anë e medaljes. Ana tjetër, më e errët dhe më shqetësuese, është përdorimi i vazhdueshëm për krijimin dhe përhapjen e përmbajtjeve të rreme, të cilat manipulojnë perceptimin publik dhe rrisin rreziqet e dezinformimit në shoqëri.
AI ka ndryshuar rrënjësisht mënyrën se si prodhohet përmbajtja online. Materialet që dikur kërkonin orë apo ditë pune nga ekipe të tëra, sot krijohen në sekonda. Kjo ka bërë që prodhimi i përmbajtjes, përfshirë informacionin e rremë, të jetë shumë më i shpejtë, më i lirë dhe i qasshëm për këdo.
Dikur, nisja e një fushate dezinformuese kërkonte ekip njerëzish, financa dhe planifikim të kujdesshëm. Sot, një person i vetëm, pa burime të mëdha apo njohuri të specializuara, mund të gjenerojë sasi të mëdha materiali bindës dhe ta shpërndajë në rrjetet sociale brenda pak minutash. Kjo lehtësi ka rritur ndjeshëm rrezikun e përhapjes së dezinformimit dhe u ka dhënë individëve apo grupeve të vogla aftësinë ta ndikojnë opinionin publik pothuajse pa pengesa.
Para përhapjes së gjerë të AI, përmbajtjet e pasakta e dezinformuese shpërndaheshin kryesisht përmes teksteve dhe artikujve me tituj keqorientues. Në atë kohë, një nga format më të zakonshme të manipulimit vizual ishin fotografitë e montuara përmes programeve të editimit.
Përhapja e AI ka bërë që edhe puna e verifikuesve të fakteve, si në rastin e Hibrid.info, platforma e kontrollimit dhe verifikimit të fakteve ku punoj, të vështirësohet dukshëm. Teknologjitë e reja po mundësojnë krijimin e përmbajtjeve të pasakta e dezinformuese gjithnjë e më të sofistikuara, të cilat shpesh janë shumë më të vështira për t’u dalluar nga ato autentike. Sot, puna jonë nuk kufizohet më vetëm te identifikimi i manipulimit të përmbajtjeve audiovizuale përmes teknikave të zakonshme të editimit, por gjithnjë e më shumë përfshin verifikimin e përmbajtjeve të gjeneruara ose të manipuluara plotësisht nga vetë AI.
Kjo e vështirëson dukshëm punën për ta luftuar dezinformimin dhe e bën mjedisin informativ edhe më të ndërlikuar për t’u naviguar nga përdoruesit.
Vegla verifikuese
WeVerify – shtojca e verifikimit është një vegël, e cila me një klikim ofron disa mjete të integruara për të verifikuar përmbajtjen vizuale. Në këtë vegël mund të ngarkohet imazhi ose vegëza e videos, dhe vegla do ta analizojë origjinën, të dhënat metadata dhe mund të tregojë nëse përmbajtja është e manipuluar ose është përdorur më parë në kontekste të tjera.
Deepfake Detector Përdoruesi mund të ngarkojë një video ose imazh, dhe kjo vegël analizon tiparet e fytyrës, lëvizjet e gojës, sinkronizimin audio–video dhe elementë të tjerë vizualë që zakonisht deformohen në përmbajtjet e manipuluara. Në fund, vegla jep një vlerësim rreth gjasave që materiali të jetë origjinal apo deepfake.
Glorious ContextuBot është një mjet i specializuar për verifikimin e audios që identifikon burimin origjinal të një përmbajtjeje audio dhe kontekstin në të cilin është përdorur më parë.
YouTube DataViewer analizon linkun e videos dhe tregon datën e ngarkimit, thumbnails origjinalë dhe rastet kur videoja është përdorur më parë në kontekste të tjera. Kjo ndihmon në vlerësimin e vërtetësisë së përmbajtjes dhe identifikimin e manipulimeve të mundshme.
Rreziku nga AI në çrregullimin informativ
Në vitin 2018, vlerësohej se rreth 14.700 video të rreme qarkullonin online. Që atëherë, numri i tyre është rritur në mënyrë drastike për shkak të popullaritetit të aplikacioneve që gjenerojnë deepfake dhe që janë lehtësisht të përdorshme, si DeepFaceLab, Zao, FaceApp dhe Wombo. Sot, vëllimi i këtyre përmbajtjeve është praktikisht i pamundur të matet.
Deepfake janë përmbajtje video, audio ose imazhe të krijuara nga AI. Kjo teknologji gjeneron pamje, video apo tinguj jo të vërtetë të një personi, vendi apo ngjarjeje, të cilat duken bindshëm origjinale.
Përdorimi i AI për krijimin e deepfake ka bërë që përmbajtjet e fabrikuara të duken shumë më të besueshme. Videot ku udhëheqësit politikë paraqiten duke dhënë deklarata që nuk i kanë bërë kurrë, ose imazhe të ngjarjeve që nuk kanë ndodhur, mund të shpërndahen me lehtësi dhe të krijojnë huti tek publiku i gjerë.
Publikuesit e këtyre përmbajtjeve marrin copëzash të pamjeve dhe fjalimeve të personave të ndryshëm dhe, përmes aplikacioneve që krijojnë deepfake, ia montojnë zërin origjinal duke ua ndryshuar përmbajtjen. Kështu krijohen video që duken të vërteta, por përmbajnë deklarata që personat në to nuk i kanë thënë kurrë.
Në Kosovë, kjo formë zakonisht haset në rastet kur kemi të bëjmë kryesisht me tema politike.
Në një rast të trajtuar nga Hibrid.info, një përmbajtje shfaqte kryeministrin në detyrë, Albin Kurtin duke folur në gjuhën arabe. E në një rast tjetër pretendohet se presidenti i SHBA, Donald Trump ka kërcënuar Serbinë.
Në vitin 2023, u publikua një audio-material që pretendonte se paraqet një bisedë telefonike mes kryeministrit në detyrë të Kosovës, Albin Kurtit dhe ambasadorit të SHBA në Kosovë, Jeffrey Hovenier. Kjo përmbajtje ishte publikuar në Telegram nga një kanal në gjuhën serbe, e më pastaj e njëjta ishte shpërndarë edhe nga publikues të tjerë.
Megjithatë, edhe vetë kanali që ka publikuar këtë audio-material, në postim e potencon se autenticiteti i saj është i pa vërtetuar. Nga publikuesi nuk jepen hollësi se nga ka ardhur kjo përmbajtje, kush është publikuesi i parë dhe si ka arritur të sigurohet. Në fakt, kjo është e gjitha çfarë dihet. As hulumtimi i Hibrid.info nuk ka arritur ta vërtetojë autenticitetin e kësaj videoje. Po ashtu, e njëjta përmbajtje është kundërshtuar nga vet zyra e kryeministrit të Kosovës.
Ngjarjet e ndjeshme tërheqin më shumë vëmendjen e lexuesve dhe shpesh i bëjnë ata ta pranojnë informacionin pa e shqyrtuar me kujdes nëse është i saktë apo i pasaktë.
Përmbajtjet e krijuara me AI zakonisht marrin hov më të madh gjatë periudhave të luftërave, konflikteve ose trazirave shoqërore, sepse ngjarjet e ndjeshme tërheqin më shumë vëmendjen e lexuesve dhe shpesh i bëjnë ata të pranojnë informacionin pa e shqyrtuar me kujdes nëse është i saktë apo i pasaktë.
Një shembull i qartë është lufta mes Izraelit dhe Hamasit, i cili u shndërrua në një nga rastet e para ku AI u përdor në masë të madhe për të krijuar dhe shpërndarë përmbajtje vizuale që nuk pasqyronin realitetin. Imazhet dhe videot e prodhuara me AI u paraqitën si të vërteta dhe shumë përdorues i morën ato si të besueshme, të ndikuar nga emocionet që këto pamje ngjallnin.
Hibrid.info ka verifikuar dhjetëra përmbajtje të krijuara nga AI, të cilat paraqiteshin rrejshëm sikur ishin pamje nga lufta në Palestinë. Përmes këtyre materialeve të rreme, llogaritë në rrjetet sociale arritën të mbledhin numër të madh komentesh, reagimesh dhe ndjekësish në faqet e tyre. Për shembull, gjatë analizimit të një fotografie të shpërndarë në Facebook, ku shihen dy mjekë duke kryer një operacion në një objekt të shkatërruar, ku pretendohet se paraqet një skenë aktuale në Palestinë, vërehet se ekzistojne gjurmë të qarta të ndërhyrjes së AI përmes shtrembërimeve dhe pamjeve të paqarta.
Shembuj të tjerë përfshijnë fotografinë e dy fëmijëve duke u lutur pranë nënës së tyre të vdekur, imazhin e një burri me pesë fëmijë në mes të gërmadhave, skena me fëmijë të bllokuar në rrënoja, fotografinë e trupit të një personi nën gërmadha, si dhe atë të tifozëve të klubit futbollistik “Atletico Madrid” duke shpalosur flamurin e Palestinës.
Shtrembërimet në duar, gishta, sy dhe elemente të tjera trupore janë tregues tipikë të përmbajtjeve të gjeneruara me AI. Po ashtu, AI shpesh prodhon hije të pasakta, tekstura të përsëritura, elemente të prapavisë që nuk lidhen natyrshëm me skenën, objekte me forma të pamundura, tekst ose numra të deformuar dhe një ndriçim që nuk përputhet me mjedisin e hapësirës.
Përveç përmbajtjeve të gjeneruara nga AI që lidhen me trazirat apo konfliktet, qarkullojnë edhe pamje që prekin situata të përditshme dhe histori personale, të shoqëruara me përshkrime emocionalisht të ngarkuara. Edhe këto shfrytëzojnë emocionet për të tërhequr vëmendjen e përdoruesve dhe shpesh pranohen si të vërteta, duke treguar se manipulimi nuk kufizohet vetëm te temat e luftës, por shtrihet në çdo përmbajtje që synon ta prekë ndjeshmërinë e njerëzve.
Një pjesë e madhe e përdoruesve nuk e verifikojnë vërtetësinë e përmbajtjes dhe e pranojnë atë si të mirëqenë, pa e vënë fare në dyshim.
Për ta kuptuar nëse përdoruesit arrijnë ta dallojnë natyrën artificiale të këtyre imazheve, Hibrid.info ka analizuar një postim konkret. Imazhi shoqërohej me mbishkrimin: “Jam 45 vjeç dhe në orën 3 të mëngjesit sot, më në fund u bëra baba… Unë dhe gruaja ime jemi jetimë dhe askush nuk na ka uruar. Qofshin të bekuar të gjithë ata që na bekon!” i cili ishte publikuar nga faqja “NKosovë”. Postimi kishte mbi 3.500 pëlqime dhe rreth 1.600 komente. Nga komentet e këtij shembulli është e qartë se një pjesë e madhe e përdoruesve nuk e verifikojnë vërtetësinë e përmbajtjes dhe e pranojnë atë si të mirëqenë, pa e vënë fare në dyshim.
Ky fenomen, ku emocionet shfrytëzohen si karrem për të gjeneruar pëlqime e komente, quhet “engagement bait” (karrem për angazhim). Qëllimi i tij është të nxisë ndërveprimet e përdoruesve, pëlqime, shpërndarje, komente dhe reagime të tjera, për të rritur artificialisht angazhimin e faqes dhe shtrirjen e saj online. Edhe pse mund të mos i ndjekim faqet që i publikojnë, postime të tilla na shfaqen shpesh, ku në disa raste nuk mungon as komenti apo reagimi i ndonjë të afërmi që e kemi në listën e miqve për shembull në Facebook.
Platformat e kontrolluesve të fakteve nuk mund të monitorojnë të gjitha dezinformatat për shkak të volumit të madh dhe përhapjes së shpejtë online. Me rritjen e përmbajtjeve të gjeneruara nga AI, kjo pamundësi bëhet edhe më e dukshme, sidomos kur përmbajtjet nuk vijnë nga kanale të njohura, por nga faqe të vogla, profile anonime ose rrjete të krijuara posaçërisht për të manipuluar opinionin. Në këto raste, verifikuesit e fakteve shpesh ndërhyjnë vetëm pasi përmbajtja është bërë virale, dhe dëmi tashmë është bërë.
Kjo krijon një nevojë që edhe vetë mediat të marrin një rol më aktiv në identifikimin dhe kundërshtimin e përmbajtjeve të rreme të krijuara nga AI. Mediat nuk mund të kufizohen vetëm në raportimin e ngjarjeve, por duhet të integrojnë në punën e tyre mjete, procese dhe ekspertizë për t’i dalluar manipulimet digjitale, t’ua sqarojnë publikut dhe të ndërtojnë rubrika të rregullta për edukim medial. Në të kundërtën, hapësira e informimit lihet e pambrojtur ndaj aktorëve që përdorin teknologjinë për qëllime dezinformuese.
Në të njëjtën kohë, përgjegjësia bie edhe mbi vetë lexuesit dhe përdoruesit. Në një mjedis ku gjithçka mund të duket autentike, konsumuesit e informacionit duhet ta ngadalësojnë reagimin e menjëhershëm dhe ta përpunojnë përmbajtjen para se ta besojnë apo ta shpërndajnë atë. Veprime të thjeshta si kontrolli i burimit, verifikimi i datës, kërkimi i imazhit në Google, ose krahasimi i informacionit me media të besueshme, janë hapa të vegjël, por thelbësorë për t’u mbrojtur nga manipulimi.
Kështu, edhe pse AI përdoret për të prodhuar përmbajtje të rreme dhe për të manipuluar perceptimin e publikut, e njëjta teknologji ofron mjete të avancuara që mund ta fuqizojnë aftësinë e përdoruesve dhe të mediave për ta dalluar përmbajtjen evërtetë nga mashtrimi. Këto vegla i mundësojnë publikut dhe profesionistëve ta identifikojnë burimin, të verifikojnë datën e krijimit dhe të zbulojnë shenja manipulimi në përmbajtjet që qarkullojnë online.
Në punën e përditshme të Hibrid.info, verifikuesit e fakteve përdorin një sërë veglash të tilla për të verifikuar çdo foto, video apo material të dyshimtë. Çdo përmbajtje ngarkohet në platforma të specializuara për kontroll të origjinës, metadata-ve dhe elementeve të dyshimta vizuale, duke bërë të mundur zbulimin më të shpejtë dhe më të saktë të përmbajtjeve të rreme të krijuara ose të modifikuara me AI.
Në fund të fundit, keqinformimi në epokën e AI nuk është problem që zgjidhet me një vegël apo me një platformë verifikimi faktesh. Shpejtësia dhe shkalla me të cilën prodhohet dhe shpërndahet përmbajtja e rreme po e testojnë kufirin e kapaciteteve të verifikimit dhe po e sfidojnë seriozisht ekosistemin e informimit. Ndërsa teknologjia gjenerative bëhet më e sofistikuar, edhe përgjegjësia kolektive bëhet më e rëndë. Mediat duhet të investojnë në aftësi të reja verifikimi dhe në edukimin mediatik, ndërsa përdoruesit duhet ta zhvillojnë aftësinë e kontrollimit dhe vlerësimit para se ta besojnë apo shpërndajnë përmbajtjen.
E ardhmja e hapësirës publike varet nga sa shpejt mësojmë të bashkëjetojmë me një realitet ku e vërteta nuk është më e vetmja ajo që duket e vërtetë.
Imazhi i Ballinës: Dina Hajrullahu/K2.0