fbpx
Časoris
Umetna inteligenca. Foto: Mike MacKenzie/Flickr
Umetna inteligenca. Foto: Mike MacKenzie/Flickr

Umetna inteligenca nas lahko navdušuje, a obenem plaši

Zadnje čase veliko slišim o uporabi AI v različne namene, a ne vem, zakaj je letos tako veliko govora o tem. Zanima me, ali se je zgodilo kaj prelomnega ali je razlog kje drugje.

V letošnjem letu se je umetna inteligenca (AI – Artificial Inteligence) po mnogih letih ponovno vrnila na naslovnice časopisov. Tudi nobena konferenca, ki se ukvarja s spletom in njegovim vplivom na družbo, je ne more zaobiti. Skratka, umetna inteligenca je trenutno res tema leta, je res »in«.

O čem pa govorimo, ko govorimo o AI?

Ko sem se pogovarjala z nekaterimi raziskovalci, ki se pri nas ukvarjajo z razvojem AI, so mi razložili, da pravzaprav ni zares pravega razloga, da bi ravno zdaj začeli govoriti o resnem preboju pri razvoju AI. Pravijo, da se to področje seveda že dolgo razvija, a da o pravi umetni inteligenci še ne moremo govoriti in da je veliko bolj ustrezen izraz »strojno učenje«.  

Kar pa se je spremenilo v zadnjih letih, je dostopnost velike količine informacij o vseh nas, število »sledi«, ki jih tako ali drugače puščamo na spletu. Pri uporabi algoritmov, ki jih danes označujemo z izrazom umetna inteligenca, gre namreč predvsem za uporabo velikih količin podatkov (Big Data), ki omogočajo zelo dobro prepoznavanje vzorcev in, na tej podlagi, tudi različne analize in predvidevanja. 

Kaj to pomeni v praksi?

AI lahko na osnovi naših osebnostnih lastnosti, spola, starosti, družbenega statusa, našega obnašanja in navad zelo dobro predvidi, kaj so naše želje, potrebe in strahovi. AI lahko marsikje zelo dobro predvidi naše prihodnje korake in odločitve.

AI lahko iz načina, kako premikamo računalniško miško, ugotovi celo, da smo v zgodnjem stadiju katerega izmed obolenj, kot je na primer demenca.

AI je zaradi učenja na velikih količinah podatkov zelo dobra v prepoznavanju obrazov, čeprav to ne velja enako za obraze pripadnikov različnih ras. Dokazano je, da je na primer veliko slabša pri prepoznavanju temnopoltih obrazov.

AI lahko prepoznava naša čustva in naše razpoloženje. AI lahko na primer prepozna počutje zaposlenega in predvidi, kako je možno izboljšati delovno okolje za izboljšanje njegovega počutja. Lahko na primer spremeni osvetlitev, temperaturo zraka, prezračevanje …

AI se uporablja za analizo in predvidevanje naših potrošniških navad. AI uporabljajo varnostne službe in policija pri prepoznavanju obrazov in vedenja ljudi. AI v določeni meri uporabljajo celo obcestni oglasni panoji v nekaterih mestih, ki tako mimoidočim prikazujejo personalizirane oglase.

AI je ponekod postala celo del ljubezenskega življenja ljudi, ki iščejo emocionalno oporo na spletu.

AI je v uporabi tudi kot podpora pri zdravniških in sodnih odločitvah, kjer zdravnikom in sodnikom predlaga diagnoze in sodne odločitve na osnovi dosedanjih praks.

AI sicer morda še ni zares tisto, kar bi lahko obravnavali kot »inteligenco«, a je vsekakor ne gre podcenjevati, saj so lahko rezultati algoritmov, ki »sklepajo« na osnovi velikih količin podatkov, res impresivni.

AI lahko že v sedanji obliki na različne načine služi dobrobiti posameznika in družbe. Uporabimo jo lahko na primer za izboljšanje naših življenjskih razmer, za izboljšanje pretočnosti javnega prometa, za zmanjševanje količine nepotrebnih odpadkov in zavržene hrane, za zgodnje prepoznavanje in zdravljenje bolezni, za lajšanje osamljenosti starejših z »družabniškimi« roboti, za preprečevanje zločinov … Seznam možnih uporab je zelo dolg.

Žal pa nam trenutno prevladujoča uporaba AI v svetu ne daje razloga za optimizem. AI se v tem trenutku največ uporablja na načine, ki ne koristijo skupnosti. Uporablja se tudi kot orodje manipulacij, ki ne vplivajo le na posameznika, ampak na vse nas.

In na katerih področjih je v tem hipu uporaba AI prevladujoča?

Velike korporacije (Facebook, Google, Amazon, Uber …) AI uporabljajo za analizo podatkov o uporabnikih. Tu gre za vse podatke, ki jih o nas pridobijo sami, in za tiste, ki jih lahko kupijo.

Že dolgo kroži rek, da nas Facebook pozna veliko bolje kot naši bližnji. In žal ima ta rek še kako realno podlago.

Na podlagi analiz lahko predvidijo skorajda vse, kar jih zanima o nas. Največ se posvečajo ciljnemu oglaševanju, ki ga personalizirajo na podlagi naših nakupovalnih navad, osebnostnih lastnosti, naših strahov, trenutnih okoliščin … Na tak način pa nam ne prodajajo le izdelkov in storitev, »prodajajo« nam tudi informacije in dezinformacije, ki vplivajo na naše politične odločitve.

Najbolj razvpit primer manipulacij, ki so vodile k spremembi volilnih izidov, je seveda afera Cambridge Analytica, ki je dosegla medije po tem, ko so preko žvižgača v javnost pricurljale informacije o početju podjetja. Podjetje je uporabljalo spletno omrežje Facebook za zbiranje informacij o uporabnikih in profiliranje uporabnikov, potem pa je preko istega omrežja za naročnike izvajalo kampanje širjenja lažnih novic. Vsak uporabnik je bil tako deležen individualiziranega toka dezinformacij. Podjetje je sicer zaprlo svoja vrata, a posledice so z nami tukaj in zdaj. Tako izvolitev Donalda Trumpa kot rezultati referenduma o Brexitu so nekaj, kar zadeva nas vse.

Naslednje veliko področje je množični nadzor. Morda se nam zdi, da kitajski nadzor Ujgurov in sistem javnega slovesa, ki spominjata na neke druge čase, nista nekaj, kar bi zadevalo tudi nas. Žal pa kitajsko znanje in tehnologije s tega področja počasi prihajajo tudi k nam in na nas je, ali bomo to dopustili. Vlade nepoučene državljane kaj zlahka prepričajo, da bodo »varni«, če le dopustijo popoln nadzor javnega prostora. V Evropo te tehnologije prihajajo »skozi zadnja vrata«. – v Srbiji so na primer ravnokar začeli uporabljati AI storitve kitajskega velikana Huawei

Tudi v ZDA in Veliki Britaniji je zelo razširjena uporaba AI v varnostne namene. Žal pa se občasno dogajajo anomalije, kot je na primer napačna identifikacija. Zlahka se nam na primer zgodi, da nas ob vstopu v ZDA ali v Veliko Britanijo na meji napotijo na dolgotrajno in mučno obravnavo na osnovi algoritemske odločitve, ki nas je označila kot potencialno problematično osebo, ker na primer poznamo »napačne« ljudi, se gibljemo po »napačnih« krajih, ker je naš videz tako ali drugače »napačen«, ker imamo enako ali podobno ime kot neka »napačna« oseba ali pa se je algoritem enostavno »zmotil« …

Tudi trenutna uporaba AI algoritmov pri sodniških odločitvah lahko v sedanji obliki ponavlja in še poglablja obstoječe vzorce, kar lahko namesto bolj pravičnega sojenja vodi celo k še bolj pristranskim sodbam.

Nikakor pa ne želim reči, da je vse črno. Z naraščanjem rabe narašča tudi prepoznavanje teh pojavov in zavedanje negativnih posledic, ki jih lahko prinesejo tehnologije AI. Ne le na globalni ravni, tudi pri nas je mnogo ljudi, ki se posvečajo širšemu razmisleku o uporabi AI, kot jo poznamo sedaj. To jesen se je tej tematiki posvetil tudi Festival Grounded, s temo »Avtomatizacija in oblast«, ki je prinesel serijo vrhunskih predavanj in pogovorov, ki so se posvetili različnim vplivom AI na nas.

Maja

Maja

Vreča dela na Arnesu in sodeluje v projektu Safe.si. Želi si, da bi čim več ljudi razumelo ozadja novih tehnologij - da bi bili več kot le uporabniki, da bi bili pametni uporabniki interneta.

Dodaj komentar

Pomagajte otrokom

Časoris je brezplačno na voljo vsem otrokom, pa tudi učiteljem in staršem, a ne nastaja brez stroškov.

Če želite, nam lahko pomagate. Že en evro na mesec pomeni veliko razliko.

Podprite nas s simbolično naročnino.

Postanite pokrovitelj Časorisa!

Že z evrom na mesec pripomorete, da bodo otroci še naprej imeli svoj Časoris!

Pišite nam na donacije@casoris.si in posredovali vam bomo podatke za nakazilo na račun Zavoda Časoris.

Ali kliknite na spodnji gumb in vpišite željeni znesek.




Vreme

Ljubljana, Slovenija
Showers
3°C
 

Lažne novice in dezinformacije: Kaj moramo vedeti?

Časoris je spletni časopis za radovedne otroke (in njihove starše ter učitelje). Pridruži se nam!

Sledi nam

Naj ti ne bo nerodno, pridruži se nam. V Časorisu smo radovedni, radi spoznavamo otroke in se veselimo novih bralk in bralcev.