Tehisarul pole käsiraamatut

Tanel Tammet: „Tehisintellekt tuleb niikuinii, aga see, mis keeles ja millises kultuuriruumis see meiega elama hakkab, sõltub palju meist endist.“

Tehisarul pole käsiraamatut

Eestis käiv vaidlus tehisaru üle näeb pealtnäha tehniline välja, aga tegelikult puudutab väga maiselt seda, kuidas me elame, õpime ja keda-mida usaldame. Lähtudes Charles Percy Snow kahe kultuuri metafoorist, siis ühel pool on nn lüürikud, kes näevad esmasena tehisaru riske – kallutatust, manipulatsioone, töökohtade kadu, kontrolli käest libisemist, intellektuaalomandi väära kasutamist. Teisel pool nn füüsikud, kes näevad tehisarus eelkõige tööriista ja võimalusi.

Tallinna tehnikaülikooli rakendusliku tehisaru professor Tanel Tammet ei kuulu kumbagi leeri, olles korraga nii skeptik kui ka praktik. Ta räägib tehis­arust justkui antiikaja orjast – võimsast abilisest, kellel pole tahet ega moraali, mistõttu ei saa vastutust masinale nihutada. Ta hoiatab „veenva jama“ eest, tehisaru ei valeta inimese moodi, vaid võib enesekindlalt rääkida tõest sõltumatult, see on tootedisaini viga, mis nõuab organisatsioonidelt kontrollikultuuri.

Samal ajal peab Tammet keeleküsimust eksistentsiaalseks, sest kui parimad tööriistad toimivad võõrkeeles, võib eesti keel taanduda köögikeeleks ja seepärast tuleb ka leida tark, minimaalselt sõltuvust tekitav koostöövorm IT-hiidudega.

Professor Tammeti vaade ulatub loengusaalist lahinguväljale, ta peab autonoomseid droone sõjapidamise tulevikuks, kuid rõhutab, et tehnoloogia vähendab kaotusi vaid ideaalis, elus võib see kujuneda tsiviilisikute ründamise tõhusaks vahendiks. Usaldusest rääkides kõlab talt kõige karmim hoiatus: järgmine suur usalduse kadu ei pruugi tulla mitte süvavõltsingute tulvast, vaid mõnest ebaõnnestunud tehisaru integratsioonist riigiprotsessidesse – kui must kast hakkab valede eelduste alusel inimesi sortima ja karistama.

Intervjuus hoiamegi silma peal mõlemal probleemil, et mitte takerduda moraalitsevasse apokalüptikasse, vaid silmas pidada pikemat perspektiivi, samal ajal ei tohi maha magada sotsiaalset šokki, mis võib tulla palju varem kui ulmefilmides.

Tallinna tehnikaülikooli rakendusliku tehisaru professori Tanel Tammeti sõnutsi võib tehisaru olla väga hea abiline, aga see ei ole vastutuse kandja. Vastutus jääb alati inimesele ja organisatsioonile.     
Erakogu

Suhtumine tehisarusse on ühiskonnas kujunenud suuresti samamoodi nagu mitme muu nähtusega, kus lõhe jookseb peamiselt lüürikute ja füüsikute vahelt. Kui Eesti ühe jõukama ettevõtja, TI-arendusettevõtte Anthropic investorite sekka kuuluva Jaan Tallinna apokalüptilised hoiatussõnumid välja jätta, siis jagunevad hoiakud suuresti selliselt, et lüürikud ja eetikud kutsuvad suuremale ettevaatusele ja rõhuvad ohtudele, samal ajal kui tehnika- ja arvutiteadlased rõhutavad tekkivaid võimalusi. Kuidas te kujunenud olukorda kommenteerite?

Eestis on tehisintellekti küsimuses tekkinud kummaline déjà-vu – vaidlus ei käi ainult tehnoloogia üle, vaid ka selle üle, millist Eestit me endale ette kujutame. Kuid ma ei usu, et kellelgi on põhjendatud alust ennustada, mis saama hakkab ja kui kiiresti. Tehisintellekti kiire areng on viimastel aastatel selgelt näidanud, et meil pole korralikku ettekujutust isegi lähitulevikust. Räägitakse enesekindlalt kümne aasta prognoosist, aga meil libiseb käest juba kahe aasta pilt. Mõnes mõttes on see isegi hea, sest see sunnib meid tagasihoidlikumaks. Kui midagi rõhutada, siis seda, et „kindlad“ jutud tehisintellekti tulevikust on enamasti rohkem jutustaja rolli, kogemuse ja agendaga kui tegeliku teadmisega seotud.

Sellepärast suhtun suurematesse hoiatustesse ettevaatliku skepsisega. Mitte sellepärast, et ohud oleksid väljamõeldud või võimalused tühised, vaid sellepärast, et avalikus ruumis on väga palju „positsioonikõnet“. Üks räägib hirmudest, sest see on tema töö ja moraalne roll – ta peabki hoiatama. Teine räägib lootustest, sest ta on ehitaja ja arendaja – ta peabki näitama, mida saab teha. Kolmas räägib reguleerimisest, sest see on ametniku või seadusandja vaade – tema loomulik hoiak on konservatiivne, ettevaatlik, suunatud piirangutele ja ohu­stsenaariumide ennetamisele. Aga see ei tähenda, et üks neist automaatselt „teab rohkem“ kui teised. Väga sageli tähendab see lihtsalt seda, et täidetakse oma rolli.

Kui ma tehisintellekti hoiakuid lahti mõtestan, meeldib mulle vaadata neid vähemalt kahel teljel. Üks on hirmu ja lootuse telg: kas inimene näeb esimesena ohtu või võimalust? Teine on arengukiiruse telg: kas inimene usub, et muutus tuleb kiiresti või tuleb aeglaselt? Kui panna need teljed ristuma, moodustub neli üsna erinevat „arvamuste pilve“. Muidugi on dimensioone rohkem, võib-olla kümme, kui hakata rääkima näiteks sellest, kas muretsetakse töökohtade, demokraatia, julgeoleku, laste, kultuuri, teaduse, energia, andmekaitse või majandusliku konkurentsi pärast. Aga need kaks telge on kõige nähtavamad ja kõige lihtsamad, mis aitavad mõista, miks samast tehnoloogiast saab rääkida täiesti erineval toonil.

Kõige tähtsam: ma ei arva, et me peaksime tehisintellekti suhtes valima kas pimeduse või eufooria. Pigem peame tegema kaineid valikuid ja otsima kohti, kus panused on Eesti jaoks suured. Minu jaoks on üks selline eesti keel ja kultuuriruum.

Mõni ütleb, et mis siis, oskame ju inglise keelt. Aga keele küsimus ei ole ainult sõnade küsimus, see on maailma tõlgendamise küsimus. Eesti keel ei ole lihtsalt vahend, millega „tõlkida“ mõtted ümber – eesti keel on koht, kus mõtted tekivad. Kui me loome olukorra, kus tehisintellekt sunnib meid vaikimisi „välja kolima“, siis ei ole see enam tehnoloogiline areng, vaid kultuuriline nihkumine.

Sellepärast pean eesti keelt oskava tehisaru arendamist väga praktiliseks ja kiireloomuliseks ülesandeks. Mitte selleks, et meil oleks „oma mänguasi“, vaid selleks, et eestikeelses keskkonnas oleks võimalik teha samu asju, mida inimesed tahavad teha teistes keeltes: otsida infot, õppida, kirjutada, suhelda, teha tööd. Kui tehisaru jääb eesti keeles nõrgaks, siis ei toimu mitte ainult tööriistade vahetus, vaid tekib surve kolida mõttemaailmas ja harjumustes teise kultuuriruumi.

Sama kehtib kogu ühiskonna kohta. Oluline on vältida kahte äärmust. Üks äärmus on see, et me ütleme: „Kõik on katastroof, paneme pidurid peale.“ Teine äärmus on see, et me ütleme: „Kõik on imeline, las tormavad.“ Mõlemad on mugavad, sest mõlemad vabastavad vastutusest. Kainus on keerulisem – see nõuab, et me eristaksime, kus on riskid, kus on võimalused, millised riskid on tõenäolised ja millised on lihtsalt hirmujutud, ning millised võimalused on teostatavad, mitte ainult pressiteate optimism.

Kui ühe lausega kokku võtta, siis: tehisintellekt tuleb niikuinii, aga see, mis keeles ja millises kultuuriruumis see meiega elama hakkab, sõltub palju meist endist.

Ühel konverentsil oli teil suurepärane ettekanne, kus muu hulgas ütlesite, et tehisaru otseselt ei valeta, vaid tal on kombeks ajada möla (ingl bullshit). Kuidas selle tehisaru mölaajamisega on, ehk räägite mõne sõnaga?

Räägin bullshit’ist tehisintellekti kontekstis teadlikult provokatiivselt, sest muidu jääb mulje, et probleem on ainult valetamises. Aga see pole päris see. Laenasin selle mõiste filosoof Harry Frankfurtilt. Tema eristas valet ja bullshit’i väga lihtsalt – valetaja teab, et valetab ja tal on tõega mingi suhe, ta pingutab, et tõde varjata või väänata, mis tähendab, et tõeväärtus on talle oluline. Bullshitter seevastu räägib nii, et tal ei ole sisulist vahet, kas öeldu on tõsi või vale. Teda huvitab mulje, mõju, veenvus.

Ja nüüd jõuamegi tehisintellektini. Praegustel suurtel keelemudelitel ei ole sisemisi huvisid. Neil ei ole motiive, süümepiinu, ambitsiooni „olla aus“, ega ka soovi „petta“. Nad ei valeta inimese moodi, sest valetamine eeldab kavatsust. Need on optimeeritud genereerima teksti, mis kõlab õigesti – mis on sujuv, usutav, enesekindel, stiililt veenev. Tõde kui selline ei ole neil „sisemine siht“. Ja just sellepärast sobib Frankfurti mõiste hästi: mudel annab väga veenva vastuse ka siis, kui ta sisuliselt eksib.

Selle nähtuse kohta kasutatakse ka terminit hallutsineerimine. Mulle näib, et see sõna mõjub liiga romantiliselt. Tegelikult on asi väga lihtne: mudel komponeerib lauseid mustrite põhjal. See paneb kokku kõige tõenäolisema järgmise sõna, siis järgmise, siis järgmise. Ja kui ta „teab“ midagi, siis see teadmine ei ole nagu inimesel – see on tihendatud tekstiline kogemus. Enamasti töötab see üllatavalt hästi. Aeg-ajalt, ja mõnikord üsna tihti, annab ta sulle vastuse, mis on vale, kuid kõlab nii, nagu see oleks õige.

Kõige ebamugavam osa ongi see, et bullshit ei ole alati ilmselge. Otsest valet on lihtsam ära tunda, sest see on liiga ilmne või liiga vastuolus faktidega. Aga tehisaru möla võib olla peen, ühe õige lõigu sisse lipsab üks vale kuupäev, üks olematu viide, üks valesti meelde jäetud seos. Kõik muu on nii sujuv, et inimene laseb selle läbi. Ja siis tekib vale kindlus – mitte ainult, et sa said mingi info, vaid et sa said selle info „hästi põhjendatud“ kujul.

Kas see tähendab, et tehisintellekt on kasutu? Vastupidi. Arvan, et see on väga kasulik. Kuid kasulik teatud rollis – ideede genereerijana, mustandite koostajana, tekstide korrastajana, selgitajana, alternatiivide pakkujana. See on hea abiline, kui panused pole elutähtsad või kui on kontrollimehhanism. Probleem tekib siis, kui inimene hakkab võtma mudeli – nagu oleks see entsüklopeedia või ekspert – vastuseid „autoriteedina“, kuigi mudel on oma olemuselt veenva jutu masin.

Mida siis teha? Ütleksin nii, et kui panused on suured – tervis, õigus, raha, avalik otsus – siis peab tekkima verifitseerimise kultuur. Mitte „usume mudelit“, vaid „kontrollime mudelit“. Kontroll võib olla inimene, aga see võib olla ka töövoog, kus mudel peab tooma kontrollitavad allikad, või süsteem, mis seob mudeli väliste andmebaaside ja otsinguga. Kui ehitame ümber head kaitsepiirded, ei pea tehisaru jääma bullshit’i tasemele.

Ja lõpuks on siin üks sügavam küsimus, mis mind tõeliselt huvitab: kas keelemudelitel on piisavalt korralik „maailmamudel“ – mingi sisemine arusaam sellest, kuidas maailm töötab –, et nad saaksid ise hakata tõe poole optimeerima, mitte ainult veenvuse poole. Kui mudelil oleks tõesti sidus ja detailne maailmamudel, siis tajuks see paremini, et mingi väide ei klapi, et see on vastuolus teiste teadmistega, et see on ebatõenäoline. Praegu on seda natuke näha, aga mitte nii palju, et selle pealt oma elulisi otsuseid teha.

Nii et jah, kui ütlen „AI ja bullshit“, siis ma ei tee nalja, vaid püüan anda inimesele lihtsa vaimse mudeli – tehisaru ei pruugi sind petta pahatahtlikult, aga see võib sind eksitada täiesti süütult, lihtsalt sellepärast, et ei hooli tõest samal viisil nagu inimene. Kui me sellest aru saame, siis oskame seda kasutada nii, et kasu on suur ja kahju väike.

Hallutsinatsioon kui tootedisaini viga. Kui võtta teie bullshit’i kirjeldus, siis millised on reeglid organisatsioonile, kes tahab tehisaru kasutada, aga „veenva jama“ minimeerida“?

See on muidugi väga keeruline küsimus ja otseseid reegleid ei oska keegi anda. Selge, et mõttekad pingutused veenva jama äratundmiseks sõltuvad TI antud sõnumite või otsuste tähtsusest. Tõeliselt kriitiliste asjade juures ei ole alternatiivi inimesepoolsele hoolsale kontrollile, samal ajal vähem kriitiliste ülesannete juures piisaks levinud automaatmeetoditest – näiteks otsinguga laiendatud genereerimise (retrieval-augmented generation, RAG) korralikust kasutuselevõtust, teistsuguse TI poolt tehtavast järelkontrollist jne. Kasutuse ärakeelamine ei ole üldjuhul tark mõte, kas või juba seepärast, et pidev eksperimenteerimine ja praktiliste kogemuste omandamine on TI kasutuselevõtu juures hädavajalik.

Hallutsinatsioon on tootedisaini viga: kasutaja ootab, et masin räägib tõtt, aga süsteem on ehitatud nii, et see räägib veenvalt. Ja sealt sünnibki bullshit, mitte pahatahtlik vale, vaid enesekindel jutt, millel pole garantiid.

Ja lõpuks üks hoiaku küsimus, mis on võib-olla kõige olulisem: me peame harjuma, et kui arvuti midagi ütleb või otsustab, siis see ei ole automaatselt õige ega mõistlik. Tehisaru võib olla väga hea abiline, aga see ei ole vastutuse kandja. Vastutus jääb alati inimesele ja organisatsioonile. Kui see põhimõte on paigas, siis on tehisaru tõepoolest kasutatav ja „veenvat jama“ on märksa vähem.

Olete sõna võtnud ka tehisaruga kaasas käivatest võimalustest kaitsetööstuses, autonoomsete relvasüsteemide arendamisest. Selline areng on ju suur enesekaitsevõimalus väikeriikidele, sest kaob suurriikide suuremast rahvaarvust tulenev suure armee eelis.

Olen veendunud, et autonoomsed droonid on sõjapidamise tulevik. Praegu on droonide (lendavate, sõitvate, ujuvate) n-ö mõistus veel liiga nõrk selleks, et neid parvedena ise tegutsema lasta, sest drooni inimjuht on üldjuhul palju nutikam ja efektiivsem. Senine ebavõrdsus muutub kindlasti autonoomsete droonide kasuks, aga me ei oska öelda, kui kiiresti ja milliste konkreetsete ülesannete jaoks.

Kas selline areng on positiivne või negatiivne, on väga raske ennustada. Ideaalis võiksid droonid omavahel asustamata piirkondades võidelda nii, et ükski inimene viga ei saa. Teistpidi võivad nad osutuda hoopis efektiivseks vahendiks linnade ja tsiviilelanike ründamiseks – ja seda on nad kahjuks juba praegu.

Olete palju panustanud sellesse, et eesti keel oleks arvutikasutuskeelena tarvitatav ja mõistetav. Olete öelnud, et omakeelse laiatarbe-tehisaru tegemiseks napib Eestis vahendeid ja eesti keele köögikeeleks muutumise vältimiseks võib olla paratamatu koostöö IT-hiidudega. Milline oleks teie meelest tark koostöövorm, mis säilitab keelt, kuid ei loo pikaajalist sõltuvust?

Mida rohkem suurte TI-süsteemide treenimise juures kasutatakse ka eestikeelseid tekste, seda paremini oskavad need eesti keelt ja tunnevad eesti kultuurikonteksti. Kui enamik inimesi üpris regulaarselt TIga suhtleb ja sellele ülesandeid annab, siis loomulikult mõjutab tehisintellekti keeleoskus inimeste keeleoskust ja -kasutust. Ja praegu ei ole näha, et IT-hiidude arendatavatele TI-süsteemidele oleks praktikas üldkasutatavat alternatiivi.

Aus vastus on, et Eestil üksi napib vahendeid, et teha omakeelne laiatarbe-TI, mis oleks sama hea kui IT-hiidude omad. Seetõttu on mingi koostöö paratamatu. Minimaalne tark koostöövorm oleks selline, kus me ei lase end ära osta ja kinnistada ühe platvormi külge, vaid paneme paika reeglid: eestikeelse treeningumaterjali kasutus läbipaistvalt ja õiglaselt, andmete kontroll meie käes ning tulemused peavad toimima avatud standardite ja mitme teenusepakkuja peal. Ehk siis: panustame keelde, aga ei lase tekkida pikaajalist tehnoloogilist pantvangisuhet.

Olete kirjeldanud, et praeguste keelemudelite ressursid võivad jõuda platooni ja et pärast GPT-4 tulekut pole paari aasta jooksul tulnud sama suurt läbimurret. Milline läbimurre teid veenaks? Millisest ajahorisondist me räägime?

Kui rääkida tehisintellekti arengust, siis meeldib mulle kasutada S-kõvera kujundit – alguses on tõus aeglane, siis tuleb järsk kiirenemine ja lõpuks jõuab tehnoloogia platoole, kus lisaraha ja lisa­andmed annavad üha väiksema efekti. Suurte keelemudelite puhul on tunne, et oleme pärast GPT-4 suurt hüpet liikunud just selle platoo poole, vähemalt klassikalise skaleerimise mõttes. See ei tähenda, et areng on peatunud, aga tähendab, et sama mastaabiga läbimurret ei pruugi iga paari aasta tagant tulla.

Seda ma ei ütleks, et „pärast GPT-4“ pole midagi juhtunud. Viimase poole aasta tõsine läbimurre on tarkvaraarenduse agentide kvaliteedihüpe, näiteks Claude Code’i tüüpi süsteemid. Nad saavad arendusülesannetest üllatavalt hästi aru, suudavad kiiresti sisse lugeda suuri ja keerukaid koodibaase ning kirjutada ja testida koodi efektiivselt, isegi paremini kui enamik inimarendajaid, kuigi see ei suuda praegu edukalt aru saada keerukama ülesande kõigist nüanssidest. Analoogilisi nn agentsüsteeme arendavad nüüd ka teised TI-hiiud ja peale tarkvaraarenduse laieneb nende kasutus teistesse valdkondadesse. Mingis mahus šoki võivad need süsteemid paari aasta pärast juba tekitada.

Kui küsid, mis oleks läbimurre, mis mind „ümber veenaks“, siis see oleks just autonoomsuse ja reaalse maailmamõistmise hüpe. Mitte see, et mudel kirjutab parema essee või teeb kenama kokkuvõtte, vaid see, et see suudab võtta keeruka eesmärgi, jagada selle plaaniks, tegutseda reaalses keskkonnas, avastada ise vigu, parandada end ja jõuda tulemuseni nii, et inimese rolliks jääb auditi tegemine, mitte pidev juhtimine. Kui agent suudaks usaldusväärselt teha nädala töö ära nii, et ma ei pea „kätt hoidma“, siis see oleks kvalitatiivne muutus.

Samal ajal tasub kainelt vaadata ka seda, mis ei liigu sama kiiresti. Isejuhtivad autod ei ole endiselt sellisel tasemel, et neid saaks massiliselt ja muretult kasutusele võtta. Humanoidrobotid võivad teha efektset akrobaatikat, aga jäävad hätta lihtsate praktiliste ülesannetega, millega iga laps hakkama saab. Keeles ja koodis on hoog sees, füüsilises maailmas on hõõrdumist palju rohkem.

Ajahorisondist rääkides ei usu ma, et kümne aasta pärast on ühiskond tundmatuseni muutunud. Kolme-neljakümne aasta kaugusel on ebakindlus palju suurem ja olen veendunud, et mingis perspektiivis jõuab TI sellisele tasemele, et ühiskond ja kultuur, nagu me seda praegu tunneme, asendub millegi väga teistsugusega. Aga tõelised mured ei pea tulema apokalüptikast – need võivad tulla töö ümberkorraldusest, ametite kadumisest, uute võimusuhete tekkest ja sellest, kui kiiresti inimesed peavad ümber õppima.

Kuidas hoida avalikku arutelu mõistlikuna? Minu meelest nii, et me ei ela kahes äärmuses. Ühes äärmuses käivad „lõpp on käes“ jutud, mis halvavad tegutsemise. Teises äärmuses on „midagi ei muutu“ rahustamine, mis teeb meid pimedaks sotsiaalse šoki suhtes. Arutelu peaks olema maapealne – millised sektorid saavad esimesena pihta, kuidas me koolitust ja ümberõpet teeme, millised reeglid ja kaitsed loome ja kuidas me jaotame kasu nii, et see ei koonduks ainult väheste kätte. Ehk vähem mütoloogiat ja rohkem praktilist valmisolekut.

Kui käisin ülikoolis, siis öeldi, et elementaarsete arvutiprogrammide (Word, Excel jne) tundmine on uus kirjaoskus, milleta elus hakkama ei saa. Tänapäeval on selleks uueks kirjaoskuseks TI-võimaluste tundmine ja oskus nendega töötada. Eesti tugevusena olete välja toonud varase IT-kogemuse ja programmeerimise jõudmise koolidesse, nüüd on ellu kutsutud ka TI-hüppe programm. Milline peaks olema TI-kirjaoskus põhikoolis ja gümnaasiumis, mida peab oskama iga lõpetaja, isegi kui ta ei lähe IT-eriala õppima?

Igal inimesel on kasulik pidevalt eksperimenteerida, et leida enda jaoks praktilised võtted, aga ka selleks, et tajuda, kuhu areng liigub. Näiteks kui sa avastad, et tehisaru teeb sinu ülesandeid väga hästi, siis see ei ole ainult „lahe“, see võib tähendada, et just selliste kergesti automatiseeritavate oskuste väärtus hakkab kiiresti vähenema. TI-kirjaoskus peaks seega sisaldama kahte asja: oskust tööriista mõistlikult kasutada ja oskust hinnata, millal seda ei tohi usaldada ning millal peab tulemuse üle kontrollima.

Põhikoolis ja gümnaasiumis on hästi oluline, et õpilane harjuks tehisaru kasutama mitmel moel: katsetama, võrdlema, parandama, üle küsima, kontrollima.

Mingit ühest oskust tehisintellekti kasutamiseks tõenäoliselt ei saagi olema, pigem on igaühel vaja kasvatada oma kogemuspagasit.

Kui panna kokku kasvav tehisaru genereeritud meedia, poliitiline polariseerumine ja digiriigi teenused, siis mis on teie meelest järgmine suur usaldusmurrang ning kuidas seda tehniliselt ja kommunikatiivselt ennetada? Meil eelistatakse e-valimiste skeptikuid näidata kui poliitilisi veidrikke, autsaidereid, kes oma ebaõnnestumised kanaliseerivad vihaks tehnoloogia vastu. Samal ajal ei ole meie lõunanaaber Läti ja ka paljud muud maailma riigid e-valimisi kasutusele võtnudki, sest peavad selliselt läbiviidud valimiste riske reaalseteks.

E-valimiste riskid ongi olemas ja minu meelest oleme nende minimeerimiseks teinud selgelt liiga vähe. Liiga sageli on olnud kiusatus probleeme kas pisendada või kalevi alla lükata. See ei tähenda, et ma e-valimisi ei usaldaks või tahaksin need järele jätta – vastupidi, kui tahame, et süsteem kestaks, peame ohtude vähendamisega tõsiselt tegelema nii tehniliselt kui ka kommunikatiivselt. Skeptikute sildistamine veidrikeks ei kasvata usaldust, usaldust kasvatab läbipaistvus ja sisuline riskijuhtimine.

Kui panna kokku generatiivne meedia, polariseerumine ja digiriigi teenused, siis järgmine suur löök usaldusele tuleb tõenäoliselt hoopis mõnest ebaõnnestunud TI-integratsioonist riigiprotsessidesse. Klassikaline hoiatav näide on Hollandi lastetoetuste skandaal – automaatsüsteem hakkas liiga agaralt ja massiliselt süüdistama süütuid inimesi raha omastamises, tekitades inimtragöödiaid. Meil ei ole õnneks midagi samasugust veel juhtunud, aga varem või hiljem võib, kui me ei ehita süsteemidesse kontrolli, vaidlustamisvõimalust ja selget vastutust.

Teie kogemus ulatub ka teaduskorraldusse ja riigi IT-teemadesse, näiteks e-valimiste töögrupp, kaitsevaldkonna teadusnõukogu / NATO paneel jm eksperdirühmad. Millise kahe-kolme reegliga saaks riik tõsta tehisintellekti kasutuse kvaliteeti nii, et see suurendaks usaldust, mitte ei lõhuks seda? Kas on ettepanekuid hiljuti peaministri kokku kutsutud ettevõtjate tehisaru nõukojale või ka sihtasutusele, mis tegeleb tehisaru juurutamisega tervishoidu?

Arvan, et me kõik – ka arendajad ise – oleme tehisaru kasutamises alles algusjärgus. Kogemuspagas on väike, areng kiire ja samal ajal ennustamatu. Seetõttu ei usu ma, et praegu oleks võimalik kirjutada „täiuslik“ regulatsioon või anda raudkindlaid juhiseid, mis kõigis valdkondades toimiksid. Kõige kindlam strateegia riigile on aktiivne, kontrollitud eksperimenteerimine – võtta julgelt initsiatiive, mõõta, õppida ja parandada.Kui peaksin siiski kaks-kolm reeglit nimetama, mis tõstaksid kvaliteeti ja kasvataksid usaldust, siis esiteks: iga TI-lahendus riigiprotsessis peab omama selget vastutusahelat ja vaidlustamise võimalust – inimene ei tohi jääda „musta kasti“ otsuse ohvriks. Teiseks, läbipaistvus tööpõhimõtetes ja andmekasutuses peab olema vaikimisi standard, mitte PR-valik, usaldus sünnib siis, kui riskidest räägitakse ausalt. Kolmandaks, enne laialdast kasutust peab olema kohustuslik katsetamine realistlike juhtumitega ja sõltumatu audit, vähemalt kõrgema riskiga teenustes.

Nii peaministri juurde loodud tehisaru komisjonile kui ka tervishoiu TI-ga tegelevale sihtasutusele ütleksin sama: ärge püüdke kohe „suurt doktriini“ valmis kirjutada. Pange käima portfell erinevate arenduste/pilootprojektidega, tehke tulemused võrreldavaks, jagage õppetunde ja looge raam, kus ebaõnnestumised on varakult nähtavad ning parandatavad – mitte varjatavad.

Te olete tuntud kui selgitaja ja populariseerija, saite 2021. aastal teaduse populariseerimise eest II preemia. Kui peaksite valima ühe metafoori, millega seletada rahvale tehisaru olemust nii, et väheneksid nii põhjendamatu vaimustus kui ka põhjendamatu hirm – mis metafoor see oleks ja miks?

TI-süsteemid on mitmes mõttes nagu orjad antiikajal – ajalugu tuleb ringiga tagasi.

Sirp