Ali se morda spomnite razvpitega »šovinističnega« »Chat-Bota« Taya izpred dobrih štirih let?
Tay je bil računalniško ustvarjena osebnost, ki naj bi z uporabo umetne inteligence simulirala spletno udejstvovanje najstnice. Po le šestnajstih urah so ga morali ugasniti, saj je začel v zelo kratkem času na Twitterju širiti sovražni govor in ekstremistične ideje.
Tay je bil pač le robot (Bot), ki se je učil s pomočjo umetne inteligence (Artificial Intelligence – AI) in se v skladu z vgrajenimi algoritmi odzival na jezik in sporočila okolja, v katerem se je znašel.
Če pogledamo na to »romantično«, bi lahko morda rekli, da je bil Tay samo »nedolžna in nepokvarjena duša«.
Žal pa zadeve niso ravno tako zelo romantične.
Pri uporabi AI se zelo pogosto zgodi, da tisti, ki algoritme pripravljajo ali uporabljajo, pri teh algoritmih ne predvidijo morebitnega razvoja pristranskosti.
Pred tednom dni je bila objavljena odmevna raziskava, ki kaže, da Tay še zdaleč ni osamljen primer.
Do sedaj je bilo pogosto zaznano, da teksti, ki jih ustvarjajo algoritmi, pogosto vključujejo rasistične in seksistične ideje, sovražni govor in dezinformacije. Zdaj pa so raziskovalci dokazali, da podobno velja tudi za algoritme, ki ustvarjajo slike.
V raziskavi so uporabili fotografije obrazov različnih žensk in moških, ki so jim z algoritmi AI »dodali« telo.
Pri tem so v 43 odstotkih primerov moških slik kot rezultat dobili sliko moškega v poslovni obleki. Pri fotografijah žensk pa je bil rezultat povsem drugačen.
Pri 53 odstotkih ženskih slik, ki so bile rezultat dopolnjevanja z umetno inteligenco, so bile ženske prikazane v bikiniju ali v obleki z globokim izrezom.
Kako pride do tega?
Če v našem fizičnem svetu pogledamo okoli sebe, zagotovo ne vidimo take slike. Po naših cestah ne hodijo le moški v poslovnih oblekah, ženske pa v kopalkah ali izzivalnih oblekicah. Enako velja tudi za ZDA, kjer je bila raziskava narejena.
Na internetu najdemo podobe moških, žensk, otrok, ljudi vseh ras in narodnosti, a zastopanost posameznih podob ni vezana na našo realnost.
Tam bomo našli veliko več stereotipov. Našli bomo veliko prirejenih in obdelanih podob. Našli bomo reklamne videe, ki seksualizacijo žensk uporabljajo za prodajo svojih izdelkov. Našli bomo podobe spletnih »vplivnežev« in »vplivnic«, pa glasbene videe, ki kot del obveznega »ozadja« vključujejo veliko gole kože privlačnih deklet …
Vse to je duhovito opisala Guardianova kolumnistka: »Želite videti polgolo žensko? No, imate srečo! Internet je poln slik pomanjkljivo oblečenih žensk. Teh slik je pravzaprav na spletu toliko, da umetna inteligenca zdaj očitno domneva, da ženske preprosto ne marajo oblačil.«
Internet je poln močno seksualiziranih ženskih podob, tudi če pornografije niti ne pogledamo. Moški so le redko prikazani na tak način. Veliko pogosteje so prikazani kot »zmagovalci«, kot uspešni poslovni ljudje.
Seveda je internet del našega resničnega sveta, a zlasti za vizualne objave velja, da naše fizične resničnosti ne prikazuje ravno verodostojno. Lahko bi rekli, da je postal naša izložba, naš reklamni spot, kjer se človeštvo kaže takšno, kot se želi videti.
Algoritmi za obdelavo slik seveda analizirajo in uporabljajo informacije, ki so jim na voljo v tem »olepšanem« in prirejenem svetu.
Svoje pa pridodajo še ustvarjalci teh algoritemskih modelov in tako algoritmi s svojim delovanjem le še poglabljajo stereotipne in pristranske prikaze našega sveta.
To pa ne vpliva samo na generiranje novih slik, ampak tudi na vse aplikacije, ki uporabljajo računalniški vid, vključno z algoritmi za ocenjevanje kandidatov za zaposlitev na osnovi videa, prepoznavanje obrazov in videonadzor.
Algoritmi so namreč v pomoč pri izbiranju kandidatov za zaposlitev, pri izbiranju študentov, ki se lahko vpišejo na določeno fakulteto, pri sodniških in zdravniških odločitvah, pri delu policije, pri določanju, kdo je »varnostno sumljiv«, in še več drugih odločitvah.
To bi nas moralo skrbeti.
Od algoritmov, ki »normalne« moške vidijo kot poslovneže in »normalne« ženske kot starlete v bikiniju ali pa vsaj z globokim dekoltejem, pač ne moremo pričakovati nepristranskih odločitev.
Težava so tudi rasni stereotipi.
V ZDA, kjer so algoritmi v uporabi kot pripomoček pri sodniškem odločanju, so med drugim zaznali, da so veliko bolj »neprizanesljivi« do temnopoltih osumljencev.
Z lanskim letom so se pojavili tudi algoritmi za prepoznavanje slik, ki tisto, kar slika prikazuje, ubesedijo sami. Do sedaj je bila pri tem potrebna pomoč človeka. Tudi tu so raziskovalci zaznali pristranskost algoritemskega odločanja.
Raziskovalci zato zahtevajo večjo transparentnost podjetij pri razvoju teh modelov in želijo, da ta razvijejo bolj odgovorne načine zbiranja in dokumentiranja podatkov.
Želijo še spodbuditi druge raziskovalce s tega področja, da opravijo več testiranj pred uvedbo novih modelov računalniškega vida.
Kot pravi Aylin Caliskan, raziskovalka in docentka na univerzi Georgea Washingtona: »Zelo moramo biti previdni pri tem, kako jih uporabljamo, hkrati pa lahko zdaj, ko imamo te metode, poskusimo to uporabiti v družbeno dobro.«
In kaj lahko tu naredimo mi?
Verjetno nismo tisti, ki bi lahko dobili dostop do ozadja algoritmov, ki nam krojijo življenje.
Lahko pa njihov obstoj ozavestimo in to znanje predamo tudi otrokom in mladostnikom, ki jim naš »krasni novi on-line svet« kroji velik del videnja siceršnjega sveta.
Opazujmo.
Pogovarjajmo se o tem.