Andmelühiskond. Vaid üks pilk ja ongi kõik? Tehisaru ja laste näokuvade suuräri
Viimastel aastatel on üksjagu kõneainet pakkunud alaealiste vanuse kindlakstegemise (ingl age assurance) tehnoloogilised lahendused, peaasjalikult tehisintellektile tuginevad kontrollmeetmed, mille järele on avalikus ja erasektoris üha suurem nõudlus, kuna laste ohutuse tagamine nii füüsilises kui digikeskkonnas on alati olnud äärmiselt tähtis. 2021. aastal avaldatud 5Rightsi aruandes1 on vanuse kindlakstegemise digitehnoloogiate funktsionaalsete ülesannetena välja toodud kaks põhilist: vanuse kindlakstegemine võimaldab teenusepakkujal tuvastada alaealise kasutaja olemasolu ja – võib-olla olulisemaltki – vanuse kindlakstegemine sunniks teenusepakkujaid lõpetama teesklemise, et nende teenust alaealised kindlasti ei kasuta. Nii näiteks esitletakse näotuvastustarkvara rakendamist kui üht võimalust, kuidas piirata alla 13aastaste laste ligipääsu ühismeedia erisugustele keskkondadele2 või lahendust, millega hoida kontrolli all teismeliste arvutimängusõltuvust.3 Iseküsimus on, kuivõrd mõistlik on peltsebuli peltsebuliga välja ajada.
Tehnoloogiafirmasid, kes näotuvastustarkavara pakuvad, on aastate jooksul tekkinud omajagu. Omajagu on jõutud ka katsetada, kuidas selline tehnoloogia töötab. Näiteks noorte hulgas äärmiselt populaarne keskkond Instagram tahtis näotuvastustarkava rakendada soovist piirata alla 13aastaste ligipääsu.4 Instagramile vastavat teenust pakkunud Yoti kinnitab, et nende tehnoloogia võimaldab 99,91% juhtudest hinnata, kas 13–17 aasta vanused kasutajad on nooremad kui 25,5 kuid nooremate eagruppide puhul on eksimisvõimalus siiski suurem ja tõenäosus, et tarkvara tuvastab, et tegemist on alla 13aastase noorega, on umbes 96%.
Yoti, mille näotuvastuslahendust hakati tänavu suvel rakendama ka Austraalias, rõhutab oma teenuse efektiivsust ja privaatsusele orienteeritust. Nii lubatakse, et alaealise poolt vanuse kindlakstegemiseks tehtud selfi kustutakse kohe pärast vastavat kontrolli. Iseenesest on tegemist igati mõistliku viisiga, kuidas üleüldine digituvastamine on korraldatud, kuid vajadus „kohe kustutamist“ eraldi esile tuua võiks kriitilisema inimese siiski hetkeks mõtlema panna. Kui korraldus on mõistlik, miks peab selle erakordsust üle kordama? Üpris lihtsakoelises, kuigi mõneti laisas vastuses mainitaks kahtlemata tõika, et digitehnoloogia valdkonnas on „mõistlik“ tihtilugu aspekt, mille eest tuleb täiendavalt maksta. Ka „AndmeLühiskonna“ rubriigi varasemates artiklites on nenditud, et ühiskondlikud tagajärjed millegipärast ei vilgu tehnoloogiaettevõtjate radaril nii eredalt kui võiksid. Kui üldse vilguvad.
Näiteks võib küsida, kellele ja milleks on kasulik, et AI-põhised imikumonitorid salvestaksid imiku näoilmeid aastakümneteks oma serveritesse. Tema võimalikku oksendamist ennustada aitava algoritmi treenimiseks7 võib see ju olla vajalik, kuid küsitav on, mida kogutavate andmetega edasi tehakse. Hiljutised juhtumid näitavad, et lihtsalt igaks juhuks kogutud andmeid või veebi riputatud sisu võib ka kümneid aastaid hiljem leida rakenduse mõnes tehisintellekti treenimise andmebaasis.
Just nii juhtus arvukate Austraalia ja Brasiilia lapsi kujutavate fotodega, mis leiti populaarsest tehisintellekti treenimiseks kasutatud andmebaasist LAION-5B, ilma et fotodel kujutatud oleksid sellisest teadlikud või selleks nõusoleku andnud.8,9 Mõned lugejad ilmselt kihvatavad kohe, öeldes, et „kahju kannatanud on ise süüdi, mis nad siis panid fotod internetti!“. Selline oli ka andmebaasi haldava Saksa organisatsiooni LAION reageering skandaalile. Nüansirikkamaks muudab teema aga tõik, et paljud fotod olid veebi salvestatud ammu enne LAION-5B andmebaasi loomist, olid kaitstud toonaste privaatsussätetega ja paljud neist ei olnud üldise netiotsinguga leitavad.
Kuid pereblogisse riputatud lastefotosid või kooli veebilehelt leitud klassipilte võib AI-ajastul kasutada hoopis rõlgematel eesmärkidel kui tehisaru treenimine – neid võib kerge vaevaga kasutada seksualiseeritud süvavõltsingute loomiseks. Olgugi et esimesed kriitilised artiklid nõusolekuta loodud seksuaalse sisuga süvavõltsingutest jõudsid avalikkuse ette juba aastaid tagasi, on see õõvastav küberkiusamise viis generatiivse intellekti võidukäigu taustal hoogustunud. Näiteks 2023. aasta septembris tuli Hispaania väikelinna koolis 20 tütarlapsel ja nende vanematel silmitsi seista olukorraga, kus koolis ringlesid kõnealuste tüdrukute alastipildid, mida nad ei olnud ise loonud ega talletanud. Nimelt olid sama kooli poisid võtnud klasspildi, paar eurot ja „kõrge“ moraalsustasemega teenusepakkuja, et tehisintellekti toel klassiõdedest paljastavad fotod luua.10 Tüdrukud langesid kiusamise ja ähvarduste ohvriks, kogesid paanikahoogusid ning langesid depressiooni, kusjuures noorim ohvritest oli vaid 11aastane. Samalaadsed juhtumid on aset leidnud juba väga paljudes riikides ning tekitanud vajaduse otsida kiireid ja tõhusaid õiguslikke meetmeid. Kiireid samme selleks, kuidas mittekonsensuslikult loodud seksualiseeritud süvavõltsingute loojad ja jagajad kriminaalvastutusele võtta, on astunud mitmed riigid,11,12 kuid kas ja kuidas peaks vastutama teenusepakkujad, kes selliseid kahtlasi tehnoloogilisi rakendusi loovad? Kas pole õige aeg ka sel teemal diskuteerida?
1 But How Do they Know it is a Child? Age Assurance in the Digital World. 5Rights Foundation 2021.
2 Josh Taylor, Would face scanning technology keep Australian kids off social media? The UK regulator doubts it. – Guardian 18. VI 2024.
3 Jiang Yaling, Tencent Deploys Facial Recognition to Detect Minors Gaming at Night. Sixth Tone – 6. VII 2021.
4 Frank Hersey, Instagram takes Yoti facial age estimation to Europe, Australia, Canada, Japan. – BiometricUpdate.com 2. III 2023.
5 Yoti Facial Age Estimation. White Paper. Yoti 2023.
6 Chris Burt, Facebook introduces Yoti age estimation in Australia ahead of global rollout. – BiometricUpdate.com 6. VI 2024.
7 Drew Harwell, AI baby monitors attract anxious parents: ‘Fear is the quickest way to get people’s attention’. – Washington Post 25. II 2020.
8 Australia: Children’s Personal Photos Misused to Power AI Tools. Human Rights Watch 2. VII 2024.
9 Brazil: Children’s Personal Photos Misused to Power AI Tools. Human Rights Watch 10. VI 2024.
10 Leo Herrera, AI and the future of sex. – MIT Tech Review, 26. VIII 2024.
11 Mark Dreyfus, New criminal laws to combat sexually explicit deepakes. Australian Government 5. VI 2024.
12 Christy Cooney, Creating sexually explicit deepfakes to become criminal offence. – BBC 16. IV 2024.