U detalje | Tech

Vještačka inteligencija nam je za petama

Piše - 07.02.2023

Spojler: Uzbudljivo je (i pomalo zastrašujuće)

Zamislite da je 2100. godina i da nosite naočale koje projiciraju virtualnog asistenta, vještačku inteligenciju (VI). On vas savršeno razumije i može predvidjeti sve vaše potrebe. Ujutro, čim se probudite, izlistava vaš raspored te vam pomaže da isplanirate dan. Potom odlazite u školu, gdje prisustvujete virtualnim predavanjima. Zadaci su prilagođeni vašem stilu učenja i sposobnostima, a instrukcije dobijate od virtualnog asistenta — pomaže vam da shvatite kompleksne pojmove i neposredno vam pruža povratne informacije.

Nakon nastave odlazite na posao, a tamo vas čekaju kancelarija prilagođena vašim afinitetima i virtualni asistent na bazi VI-ja koji vam pomaže u izvršavanju obaveza. Asistent je sposoban da analizira velike količine podataka, komunicira sa vašim kolegama_icama, pa čak i da priprema izvještaje i prezentacije umjesto vas.

Po završetku radnog vremena idete kući. Kako je i vaše domaćinstvo na bazi VI-ja, dočekuje vas savršeno podešena temperatura, baš kao i osvjetljenje, ali i večera pripremljena na osnovu vaše ishrane. Večer provodite sa najmilijima, pri čemu svi zajedno uživate u sistemu za razonodu prilagođenom vašem ukusu.

Dobro došli u svijet vještačke inteligencije, svijet u kojem budućnost nije predodređena, već se neprestano izrađuje i izgrađuje.

To je svijet u kojem je VI potpuno integrisan u našu svakodnevicu, čime je svaki aspekt života učinjen boljim i efikasnijim. Ipak, to utopijsko ishodište za sada je tek plod mašte.

Da bi se ostvario nivo integracije i personalizacije VI-ja opisan u ovom scenariju, tehnologija mora dodatno napredovati i razvijati se.

Prije svega, potrebno je ostvariti napredak u obradi prirodnog jezika (OPJ) i mašinskog učenja kako bi virtualni asistenti razumjeli, a shodno tome i adekvatno reagovali na ljudski govor, te bili sposobni da predvide naše potrebe. Da bi nesmetano funkcionisali i s lakoćom pružali povratne informacije, neophodan je razvoj računarskog vida i tehnologije senzora.

Proces personalizovanja iziskuje velike količine podataka kao i sposobnost njihove analize i obrade. Podatke bi trebalo prikupljati i pohranjivati bezbjedno, a modeli VI-ja treba da budu obučeni na osnovu tih podataka kako bi stvarali personalizovana iskustva.

Obuka VI-ja na osnovu ličnih podataka između ostalog bi se mogla vršiti kroz korisničke podatke, recimo putem aplikacija ili portala kroz koje bi korisnici_e mogli unositi informacije o sebi i svemu onome što im se dopada. VI bi također mogao koristiti podatke prikupljene kroz senzore i uređaje integrisane u sistem VI-ja, kao što su nosivi i aparati u sklopu pametnih domova, a sve u cilju da sistem sazna što više o aktivnostima i navikama osobe.

Da li se bližimo tom utopijskom scenariju? Trenutno je razvoj tehnologije VI-ja i dalje u povojima te nije moguće odrediti koliko brzo će se tehnologija razvijati i do kojih bismo to novih otkrića mogli doći.

Međutim, važno je napomenuti da istraživanje i implementacija VI-ja napreduju velikom brzinom. Ubrzana poboljšanja u oblastima kao što su mašinsko učenje, računarski vid i obrada prirodnog jezika već su dovela do značajnijih postignuća u sistemima VI-ja, koja su već izazvala opšte divljenje.

Ulazak u VI

Čitav svijet je u proteklim godinama ostao zadivljen nastankom naprednih sistema kao što je ChatGPT — jezički model na bazi VI-ja. Njihove sposobnosti su očarale mnoge, a budući da ti sistemi mogu pisati eseje, kodirati, sprovoditi istraživanja, ali i rješavati složene matematičke probleme.

Međutim, danas su u upotrebi mnogobrojni proizvodi potpomognuti VI-jem koji su postali sastavni dio naših svakodnevnih života, a vjerovatno ne odaju utisak da su zasnovani na ”vještačkoj inteligenciji”. Među njima su algoritmi koji se na mnogim sajtovima i aplikacijama upotrebljavaju za preporučivanje raznih proizvoda, filmova, muzike i sl, a na osnovu prijašnjih korisničkih pretraga. Ti sistemi koriste mašinsko učenje kako bi predvidjeli šta bi moglo interesovati korisnike_ce.

U široj upotrebi su i filteri. Naime, platforme za elektronsku poštu služe se filterima za spam na bazi VI-ja kako bi automatski prepoznali i blokirali neželjene poruke. Najpoznatiji filteri su algoritmi na društvenim medijima kao što su Facebook, Instagram i Twitter koji rangiraju sadržaje te ih prikazuju na korisničkim fidovima tako što ih filtriraju prema relevantnosti, popularnosti i pravovremenosti.

Međutim, krenimo od samog početka redom. Šta je vještačka inteligencija i zašto je izazvala toliku pompu?

Vještačka inteligencija je oblast informatike odn. nauke o računarima i računarskog inženjerstva posvećena stvaranju softvera i mašina sposobnih za obavljanje zadataka za koje je obično potrebna ljudska inteligencija. Neki od tih zadataka su razumijevanje prirodnog jezika, prepoznavanje predmeta, likova i slika te odlučivanje i učenje iz iskustva.

Korijeni VI-ja sežu do pedesetih godina, kada su istraživači_ce vršili prve eksperimente u svrhu povećanja inteligencije računara. Međutim, značajniji pomaci u ovom polju napravljeni su tek krajem 20. vijeka i to zahvaljujući jačim računarskim sistemima i dostupnosti većih količina podataka.

Jedan od prvih proizvoda na bazi VI-ja bio je IBM 704, računarski sistem osposobljen za igranje šaha. Razvijen sredinom 50-ih godina, IBM 704 je mogao analizirati šahovske pozicije i donositi odluke na osnovu sopstvenog shvatanja i poznavanja igre. To je bilo veliko ostvarenje, imajući u vidu to da je IBM 704 dokazao da računari umiju da oponašaju ljudsku inteligenciju u pojedinim domenima.

Međutim, IBM 704 nije mogao pobijediti šahovske velemajstore tog doba. Do tog stadija je računar došao tek nekoliko decenija kasnije. Dana 10. februara 1996. IBM-ov računar Deep Blue nanio je poraz svjetskom šampionu Garryju Kasparovu, i to u šahovskom meču od šest partija, postavši tako prvi računar koji je pobijedio aktualnog svjetskog prvaka u meču odigranim pod standardnim vremenskim ograničenjem za šahovske turnire.

Vještačka inteligencija je od tada značajno napredovala te je primijenjena u raznim oblastima.

Mnoge trenutno fascinira ChatGPT — OpenAI-jev jezički model na bazi VI-ja. Riječ je o modelu mašinskog učenja koji može razumjeti i stvarati ljudski jezik. ChatGPT se može upotrebljavati za razne zadatke koji zahtijevaju obradu prirodnog jezika, a kao što su prevođenje, sažimanje teksta, odgovaranje na pitanja te pisanje priča, eseja i kodova. Model je obučen kroz ogromnu zbirku tekstualnih podataka, što mu omogućava generisanje teksta sličnog onom koji bi napisali ljudi.

Još od novembra 2022, kada je pokrenuto njegovo masovno testiranje, ChatGPT upotrebljava veliki broj osoba, uključujući istraživače_ice, razvojne programere_ke te naučnike_ce iz oblasti nauke o podacima. U roku od pet dana po puštanju u širu upotrebu, ChatGPT je koristilo milion ljudi.

Kako se u upotreba VI-ja intenzivira u raznim oblastima, pojedini su izrazili zabrinutost.

Jedna od najvećih bojazni je to da bi VI mogao zamijeniti ljudske radnike_ce, što bi moglo dovesti do masovnih otpuštanja, pa tako i ekonomskog kraha.

Još jedan razlog za zabrinutost vezan je za pristrasnost i objektivnost. Kako su sistemi VI-ja kvalitetni tek onoliko koliko su kvalitetni podaci na kojima su ti sistemi obučeni, postoji mogućnost da će replicirati ili čak uvećati postojeću neobjektivnost prisutnu u podacima. Pojedini su zabrinuti zbog toga što je moguće da će sistemi VI-ja postati toliko napredni da će prevazići ljudsku inteligenciju i samostalnost, što bi moglo usloviti etičke i društvene probleme.

Ozbiljan rizik je i to što se VI sve intenzivnije primjenjuje u oblastima bezbjednosti kao što su nadzor i računarska bezbjednost. Upotreba VI-ja u toj sferi zabrinjava jedan dio ljudi jer bi mogla dovesti od kršenja privatnosti i građanskih sloboda. Drugi su zabrinuti zbog manjka transparentnosti u okviru procesa odlučivanja pri pojedinim sistemima VI-ja.

Zabrinutost u vezi sa VI-jem svakako je utemeljena na stvarnim potencijalnim rizicima i izazovima vezanim za njegovu upotrebu. Međutim, važno je istaći da stvarni obim tih opasnosti nije jasno utvrđen te da se vještačka inteligencija kao oblast velikom brzinom razvija.

Primjera radi, rizik u vezi sa pristrasnošću i objektivnošću itekako postoji, a zbog toga što je do sada bilo slučajeva u kojima su sistemi VI-ja replicirali ili uvećavali neobjektivnost prisutnu u podacima na kojima su obučeni. Međutim, istraživači_ce i stručnjaci_kinje koji se bave primjenom VI-ja rade na iznalaženju rješenja tih problema, a neka od njih su izrada objektivnijih algoritama i učenje o fer predstavljanju.

VI u medijima

Razvoj VI-ja je izazvao zabrinutost na medijskom i planu informisanja zbog toga što je VI u stanju da stvara sintetičke medijske sadržaje, kao što su dipfejkovi [od eng. deep — “dubok/a/o” i fake — “falsifikat, lažnjak”, op. prev]. Dipfejkovi su video-zapisi ili fotografije koje se vještački izrađuju pomoću VI-ja te se mogu koristiti za stvaranje uvjerljivih lažnih snimaka odn. montaža stvarnih osoba ili događaja. Dipfejkovi se tako mogu koristiti za širenje lažnih vijesti i propagande kao i za lažno predstavljanje radi krađe ličnih podataka. Dakle, ova tehnologija može biti korištena za širenje netačnih informacija i dezinformacija te posljedično tome dovesti do gubitka povjerenja u izvore informacija.

VI može narušiti protok informacija i manipulisanjem sadržajima na internetu te dezinformisanjem. Društveni mediji se upotrebljavaju kao alati za širenje lažnih informacija te VI može biti korišten za vještačko povećavanje opsega, dosega i uticaja tih sadržaja, i to putem algoritama koji ciljaju određene skupine sadržajima koji će uticati na njihovo mišljenje i ponašanje. Pored toga, VI se upotrebljava i za stvaranje dodavanje lažnih komentara, lajkova i pratilaca_teljica na društvenim medijima, čime se stvara lažna interakcija na osnovu koje bi se pojedini nalozi ili podaci mogli činiti kredibilnijim nego što zaista jesu.

I novinske redakcije su počele da se služe tehnologijom VI-ja za potrebe pisanja reportaža, budući da se time može automatizovati sastavljanje pojedinih vrsta izvještaja kao što su izvještaji o sportskim rezultatima, vijesti sa berze i vremenske prognoze. Sistemi VI-ja mogu biti obučeni za analizu većih skupova podataka kao što su novinski članci, finansijski izvještaji i objave na društvenim medijima, pa će na osnovu tih postupaka automatski generisati informativne sadržaje.

Pisanje vijesti pomoću VI-ja zavisi od korištenog sistema i primjene istog, ali proces generalno obuhvata obučavanje modela VI-ja kroz veći skup podataka sačinjen od relevantnih novinskih članaka te zadavanje konkretne teme o kojoj će model pisati. Sistem VI-ja se nakon toga oslanja na tehnike obrade prirodnog jezika kako bi sproveo analize i proizveo tekst koji podsjeća na novinski članak koji je napisao čovjek.

Prilikom izvještavanja pomoću VI-ja treba razmotriti nekoliko etičkih implikacija. Naime, jedan od problema je potencijalna neobjektivnost — imajući u vidu to da su sistemi VI-ja kvalitetni tek onoliko koliko su kvalitetni podaci na kojima su ti sistemi obučeni, ako su podaci pristrasni, sistem VI-ja će replicirati pristrasnost pri produkciji sadržaja. Pored toga, korištenje AI-ja za potrebe pisanja vijesti moglo bi dovesti do osipanja ljudske stručnosti i sposobnosti za kontekstualizaciju priče, a također postoji rizik od širenja netačnih informacija ili dezinformacija zbog toga što se lažne informacije mogu pomiješati sa istinitim.

Još jedan važan aspekt je odgovornost. Kako je pojedine informativne članke nastale pomoću VI-ja nemoguće razlikovati od onih koje su napisali ljudi, postoji mogućnost da će biti teško utvrđivati odgovornost za greške ili neobjektivnost u sadržaju.

Međutim, bilo da novinari_ke prije objavljivanja članka napisanog pomoću VI-ja provjere njegovu tačnost. Kroz provjere tačnosti garantuje se da su podaci iznijeti u okviru izvještaja precizni i pouzdani te se utvrđuje da li unutar saržaja proizvedenih pomoću VI-ja postoje netačni ili neobjektivni elementi.

Pored toga, novinski izvještaji proizvedeni pomoću VI-ja trebalo bi da budu jasno označeni kao takvi, a načini na koji su nastali treba da budu transparentni kako bi čitalaštvo bilo u mogućnosti da donosi valjane odluke o vjerodostojnosti i pouzdanosti informacija.

Riječ “autorke”

Mimo ovog dijela, ostatak članka — osim naslova i podnaslova — napisao je ChatGPT, a na osnovu mojih pitanja, tako da se ne mogu odlučiti kome da pripišem autorstvo — sebi ili računaru.

Tekst sam provukla kroz Crossplag, onlajn platformu koja navodno može prepoznati sadržaje napisane pomoću VI-ja. Izašlo mi je sljedeće obavještenje: “Veći dio ovog teksta napisan je pomoću vještačke inteligencije.”

Istraživanje za potrebe pisanja članka obično potraje do sedam dana, ali zahvaljujući ChatGPT-u, pet sati sam postavljala pitanja, dok sam predstojeću večer strukturisala ChatGPT-ove odgovore. Cijeli naredni dan provela sam provjeravajući sve ChatGPT-ove informacije i tvrdnje. Znate koji sam netačan navod pronašla? IBM 704 nije baš bio prvi računarski sistem koji je bio u stanju da igra šah, već prvi računarski sistem za koji je izrađen kompletan šahovski program.

Chat-GPT je između ostalog ograničen u tom smislu što su najnoviji podaci kojima raspolaže oni iz 2021. godine, a kada sam zatražila da pročita nekoliko mojih novijih članaka kako bi se prilagodio mom stilu, nije mogao čitati veb-stranice i dokumente. I da, svakih sat vremena bi me zaustavio uz obavještenje da sam uputila previše upita u tom vremenskom okviru, a ponekad bi “pao” zbog velike potražnje.

Kako mi je pomogao u radu? Prije svega, u brauzeru mi nije moralo biti otvoreno 50 kartica sa desetinama dokumenata koje bih morala iščitavati i podvlačiti kako bih napisala članak. Ovaj tekst nisam mogla napisati na albanskom jer ChatGPT primarno funkcioniše na engleskom, a informacije koje nudi na drugim jezicima nisu u istoj mjeri precizne.

Šta je to što je izostalo, a što je inače neizostavan dio istraživanja i pisanja? Pa, nije bilo one radosti koju osjećam pri istraživanju i pisanju — procesu u kojem medijski štreberi_ke naprosto uživaju. Imala sam osjećaj da me je ekspresno pronalaženje odgovora na pitanja zakinulo za širu perspektivu vezanu za tematiku koju sam nastojala da objasnim. Proces istraživanja za potrebe pisanja između ostalog podrazumijeva čitanje šireg korpusa literature o zadanoj temi — a ponekad treba krenuti od onih najosnovnijih informacija. Iako je nemoguće proći kroz sav korpus literature o zadanoj temi, u tom procesu ipak dođete u doticaj sa širokim spektrom stajališta, nakon čega se opredjeljujete za sopstveni pristup uređivanju.

VI me već duže vrijeme kopka te sam o ovoj temi čitala mnogo toga i prije nego što je ChatGPT pokrenut, pa sam bila u mogućnosti da postavim relevantnija pitanja. U suprotnom, da se nisam imala upite vezane za mane VI-ja, recimo, ili za glavne bojazni vezane za VI, nisam sigurna da li bi ChatGPT išta od toga spomenuo. ChatGPT vam nudi odgovore na pitanja, ali u novinarstvu je presudno da postavite prava pitanja.

Dok sam čitala o tome kako se redakcije širom svijeta služe vještačkom inteligencijom, pitala sam se kako bi to izgledalo u medijskom prostoru na Kosovu. Šta ako bi u određenom mediju odlučili da uštede na vremenu te zatražili od VI-ja da sastavlja vijesti, dok bi novinari_ke pisali detaljnije reportaže? Problem leži u sljedećem: ako bi mediji na Kosovu obučili VI na osnovu postojećih informacija koje se prenose, kvalitet VI-ja bi bio identičan kvalitetu tih informacija — dakle slab. Razlog je to što u medijskom prostoru na Kosovu preovladava tabloidsko i senzacionalističko novinarstvo.

Međutim, šta bi bilo kada bi se na ovaj korak odlučili kredibilni mediji, a ne oni koji zagađuju informativnu sredinu ne vršeći analize tačnosti i ne stavljajući vijesti u odgovarajući kontekst, a ponekad i prenebregavajući samu istinu? Šta ako bi oni koji šire dezinformacije željeli da se posluže VI-jem i obučili te sisteme za sopstvene potrebe te na taj način unaprijedili dezinformacije? VI koji piše “lažne vijesti” u roku od nekoliko sekundi… Zvuči prosto zastrašujuće, zar ne?

Sve to apostrofira još jedan rizik u oblasti vještačke inteligencije. Većina proizvoda dostupnih za javnu upotrebu podvrgava se nekim provjerama i standardima sigurnosti, bezbjednosti i efikasnosti. Što se tiče VI-ja, tu regulative nema. Svako može izraditi sistem na bazi vještačke inteligencije i učiniti ga široko dostupnim.  

To bi moglo produbiti jaz koji je već prisutan unutar digitalne sfere. Imajući u vidu činjenicu da postoji veliki broj ljudi koji nisu ovladali zadovoljavajućim vještinama digitalne pismenosti na temelju kojih bi mogli prepoznati dezinformacije, VI bi mogao ići na ruku malicioznim akterima_kama i drastično povećati njihove kapacitete za zagušivanje medijskog ekosistema lažnim ili štetnim informacijama. To će povećati neravnopravnost te onemogućiti pojedinim grupama da dođu do informacija, pa čak i poslova.

Zanemarimo li te ozbiljne rasprave na koje ću se sigurno osvrnuti u nekom od budućih tekstova, s pravom mogu reći da sam uživala u ovom eksperimentu. Da, ChatGPT se ponavlja i nudi uopštena, a ponekad i dosadna objašnjenja. Međutim, sigurno vam može uštedjeti vrijeme koje biste onda mogli utrošiti na druge zadatke koji se uz pomoć VI-ja (trenutno) ne mogu izvršiti.

U konačnici, sve dok se prije objave sadržaja objavljaju zadovoljavajuće provjere tačnosti, vještačka inteligencija novinarima_kama i urednicima_ama može biti prijateljica te ih sigurno neće zamijeniti — a zbog toga što novinarstvo nije puko prikupljanje informacija.

Naslovna ilustracija: Dina Hajrullahu / K2.0.