
Kodirana rodna diskriminacija
Veštačka inteligencija reprodukuje nejednakosti prema ženama.
|11.12.2025
|
Čak i kod najkorišćenijih alata generativne veštačke inteligencije, kao što je ChatGPT, primećeni su određeni oblici rodne pristrasnosti prema ženama.
Podaci na kojima se obučavaju AI sistemi reprodukuju postojeće nejednakosti iz stvarnog sveta.
Čak i internet pretraživač poput Google-a, koji koristimo svakodnevno, može algoritamski da reprodukuje duboku rodnu diskriminaciju.
Javnost, donosioci odluka i korisnici/e moraju bolje da razumeju kako AI sistemi funkcionišu, kako se grade i kako se “hrane” podacima, kakve rizike predstavljaju i kako se diskriminacija može identifikovati.

Kaltrina Shala
Kaltrina Shala je pravnica specijalizovana za pravo tehnologije, veštačku inteligenciju i regulisanje digitalnih platformi. Živi u Berlinu, gde pruža ekspertizu u oblasti politika digitalizacije, pravne primene tehnoloških inovacija, kao i regulacije algoritamskih sistema.
NAPOMENAStavovi autora/ice članka ne odražavaju nužno stavove Kosova 2.0.
Ovaj članak je napisan na albanskom.
Želite da podržite naše novinarstvo? Pridružite se "HIVE" ili razmotrite donaciju.