Dirbtinis intelektas (DI) vis dažniau naudojamas sprendimams, kurie daro tiesioginę įtaką žmonių gyvenimams – nuo įdarbinimo ir kreditų suteikimo iki socialinių išmokų ar viešųjų paslaugų administravimo. Technologijos žada efektyvumą ir objektyvumą, tačiau tarptautiniai pavyzdžiai rodo ir kitą pusę: automatizuoti sprendimai gali kurti diskriminaciją, kuri kartais būna sunkiai atpažįstama.
Nyderlandų vaiko priežiūros išmokų skandalas laikomas vienu skaudžiausių algoritminio sprendimų priėmimo pavyzdžių Europoje. Siekdama efektyviau kovoti su sukčiavimu, valstybė naudojo rizikos vertinimo algoritmus, kurie tam tikrus asmenis automatiškai priskirdavo didesnės rizikos grupei. Praktikoje tai reiškė tūkstančius šeimų, netikėtai apkaltintų sukčiavimu, priverstų grąžinti dideles sumas ir nugrimzdusių į skolas. Vėliau paaiškėjo, kad algoritmas neproporcingai paveikė žmones, turinčius dvigubą pilietybę, bei migrantų šeimas.
Kiti atvejai parodė, kad problema kyla ne vien valstybinėse įstaigose. JAV „Amazon“ sukurtas darbuotojų atrankos algoritmas, apmokytas istoriniais duomenimis, išmoko, jog vyrai yra tinkamesni kandidatai. Sistema automatiškai nuvertino CV, kuriuose atsirasdavo su moterimis siejamų žodžių.
Nematoma diskriminacija: kai žmogus nežino, kad buvo įvertintas
Lygių galimybių kontrolierė Birutė Sabatauskaitė pabrėžia, kad šiuos skirtingus atvejus jungia vienas itin pavojingas bruožas – diskriminacijos nematomumas.
„Tai yra vienas labiausiai šokiruojančių šių atvejų aspektų. Žmonės ne tik nesuprato, kodėl su jais taip elgiamasi, bet dažnai net nežinojo, kad sprendimai buvo priimti automatizuotai ir kad jų priėmimui įtakos turėjo kažkuris iš jų tapatybės požymių: lytis, kilmė, socialinė padėtis ir kita“, – sako ji.
Žmonės staiga susidūrė su itin rimtomis pasekmėmis – reikalavimu grąžinti dideles pinigų sumas, ilgametėmis skolomis. Pasak kontrolierės, tai iš esmės keičia žmogaus santykį su valstybe ar institucija.
Kodėl algoritminė diskriminacija dažnai pavojingesnė?
Nors algoritmus kuria žmonės, jų sprendimai dažnai suvokiami kaip neutralesni, objektyvesni. Tačiau B. Sabatauskaitė atkreipia dėmesį, kad algoritmus visų pirma vis tiek kuria žmonės, todėl neįmanoma jų visiškai atsieti nuo žmogiškų nuostatų. Vis dėlto, kai sistema pradeda veikti, tiesioginis santykis su žmogumi dažnai išnyksta.
„Gyvame darbo pokalbyje galima pamatyti darbdavio reakciją, užduoti klausimą ar pastebėti neteisingą elgesį. Tačiau jei gavai neigiamą atsakymą dar iki pokalbio, gali nežinoti, jog tavo CV tiesiog atmetė algoritmas“, – dėsto ji.
Viena didžiausių grėsmių, kurią išskiria lygių galimybių kontrolierė, yra mastas ir aklas pasitikėjimas.
„Viena sistema gali paveikti tūkstančius. Žmogus mato tik sprendimo rezultatą, bet nemato proceso. Be to, žmonės yra linkę per daug pasitikėti DI sprendimais ir negalvoja, kad sistema gali klysti“, – pabrėžia ji.
Kas nukenčia labiausiai?
Algoritminės sistemos dažnai skaudžiausiai kerta tiems, kurie jau yra pažeidžiamoje padėtyje.
Pavyzdžiui, žmonės, kuriems sunku pildyti oficialius dokumentus – dėl kalbos barjero ar nepažįstamos administracinės sistemos, – dažnai atsiduria silpnesnėje pozicijoje. Tai ypač aktualu migrantams, pabėgėliams ar laikinai atvykusiems studentams.
„Užsienio pavyzdžiai rodo, kad tokios nedidelės klaidos kaip netiksliai atsakyti klausimai ar gramatinės klaidos algoritminėse sistemose gali būti vertinamos kaip rizikos ženklai. Taip susiformuoja ydingas ratas, stiprinantis jau egzistuojančią socialinę nelygybę.“, – aiškina B. Sabatauskaitė.
Kas atsako už žalą, kai sprendimą priima algoritmas?
Lietuvoje DI taikymas viešajame sektoriuje jau vyksta, tačiau dažnai be aiškios strategijos ir pakankamų kompetencijų. Valstybės kontrolės auditas parodė, kad automatizuoti sprendimai naudojami policijoje, viešojo transporto planavime, medicinoje, tačiau kartu atskleidė ir žinių bei gebėjimų stoką.
Visgi, net ir šiuo metu veikiančios arba kuriamos DI sistemos turi atitikti lygiateisiškumo principą, būti nešališkos ir nediskriminuoti. Už galutinį sprendimo priėmimą vis tiek yra atsakingi žmonės, tad jų sprendimus ir dabar galima apskųsti.
Žmogaus teisių ekspertas Eitvydas Zurba pabrėžia, kad algoritmai nekeičia esminio atsakomybės principo.
„Dažniausiai atsakys institucija ar įmonė, kuri priėmė sprendimą, nepaisant to, kokius įrankius ji naudoja sprendimą priimant“, – aiškina jis.
Eksperto teigimu, frazė „taip nusprendė sistema“ teisiškai nieko nereiškia. „Tai tik patogus pasiteisinimas ir kai kuriais atvejais gali būti traktuojamas net kaip kaltės pripažinimas.“
Pasak E. Zurbos, šiandien žmogus turi svarbias teises – visi turi teisę reikalauti, kad sprendimą peržiūrėtų realus žmogus, kad būtų paaiškinta priimto sprendimo logika ir kad egzistuotų galimybė sprendimą apskųsti.
2024 m. priimtas ir šių metų vasarą įsigaliosiantis Europos Sąjungos (ES) Dirbtinio intelekto aktas (angl. AI Act), nustato, kaip galima naudoti dirbtinį intelektą, bei stiprina žmogaus teisių apsaugą šioje srityje.
„Dirbtinio intelekto aktas numato, jog žmogus turi būti informuotas, kad sąveikauja su dirbtinio intelekto sistema. Tai padeda užtikrinti budrumą ir situacijos aiškumą. Antra, ES teisė kiekvienam suteikia galimybę reikalauti žmogaus įsikišimo – tai bene pati svarbiausia teisė“, – teigia pašnekovas.
Dirbtinio intelekto aktas: daugiau saugiklių, bet ne stebuklas
Nors ES Dirbtinio intelekto aktas numato aukštus reikalavimus vadinamosioms aukštos rizikos sistemoms, E. Zurba įspėja, kad visi pavojai neišnyksta.
„Privatumas išlieka didžiausiu iššūkiu – ne tai, kokius duomenis pateikiate, o tai, ką algoritmas gali išskaičiuoti. Iš jūsų veiklos socialiniuose tinkluose, buvimo vietos istorijos ir pirkinių krepšelio DI gali itin tiksliai nuspėti jūsų politines pažiūras, seksualinę orientaciją, sveikatos būklę (pvz., depresiją ar nėštumą) ar finansinę padėtį“, – sako jis.
Be to, E. Zurba atkreipia dėmesį, kad aktas netaikomas nacionalinio saugumo srityje, o tai reiškia, kad valstybės gali bandyti šia išimtimi grįsti savo naudojamas DI sistemas, pvz., pasienyje valdant migracijos srautus, ir taip išvengti kai kurių žmogaus teisių saugiklių.
„Sunku įsivaizduoti pasekmes ir ką reikštų tokių technologijų taikymas realiame ginkluotame konflikte, be didesnio žmogaus įsikišimo“, – svarsto jis.
Abu ekspertai sutaria: svarbiausia pamoka Lietuvai – neskubėti pirkti sistemų, kurių sprendimų priėmimo negalima paaiškinti. Reikia įsitikinti, kad sistema buvo sukurta ir veiks sąžiningai. Be to, be kritiškai mąstančio naudotojo ir tinkamai apmokytų darbuotojų net geriausios technologijos taps rizika.




