Seksistlik rassistlik algoritmiisand

LEA LARIN

Augusti lõpus tõi Apple koos pangandusgigandi Goldman Sachsiga USAs turule iPhone’i omanikele mõeldud krediitkaardi. Apple Cardi reklaamiti kui lihtsat, läbipaistvat, turvalist ja privaatset rakendust, mis juba mõni minut pärast taotlemist võimaldab mobiiliga makseid teha poodides, veebilehtedel ja telefonirakendustes. Madal intress, soodustused Apple’i enda rakendustes raha kulutades ning võimalus oma rahakasutamist jälgida ja planeerida, lühidalt jah, me tahame sind, Apple Card, sest sa aitad meil tarbida ja kulutad, ptüi, see tähendab et oma rahaasjad kontrolli alla saada ja tervislik finantskäitumine omandada.

Järjekordne sammuke tehnoloogiagigandi maailmavallutusplaanides sai aga novembris ootamatu järje. Nimelt säutsus tarkvaraarendaja David Heinmeier Hansson Twitteris, et kaart pakkus talle 20 korda rohkem krediiti kui abikaasale. Ja seda hoolimata tõigast, et Hanssonid on kaua abielus olnud, neil on ühist vara ning mehe krediidikäitumist on pangad hinnanud naise omast kehvemaks.

Hanssoni säuts levis kulutulena ning järgnes ridamisi sellesarnaseid süüdistusi, üheks kannatanuks osutus ka Apple’i kaasasutaja Steve Wozniak, kelle naisele pakuti kümme korda väiksemat krediiti, hoolimata tõigast, et paaril on kõik varad ja pangaarved ühised. Vastuseks kaebustele alustas New Yorgi osariik uurimist, kuna sealse seaduse kohaselt ei tohi algoritm tahtlikult ega tahtmatult diskrimineerida soo või mõne muu tunnuse alusel.

See lugu sai laialdast tähelepanu kannatanute kõrge staatuse tõttu, sotsiaalse ronimisredeli alumistel pulkadel seisjate kaebused ei pruugi avalikkuseni jõuda. Aga tegu ei ole pelgalt esimese maailma probleemiga. Tehisintellekti (TI) ja algoritme kasutatakse üha laialdasemalt paljude protsesside kiirendamiseks ja automatiseerimiseks, mis seni hellades inimkätes hoitud. Algoritm teeb aina rohkem inimese elu mõjutavaid otsuseid ja valikuid.

Tervishoius. Kas teate, et algoritm suudab EKGde järgi õõvastava täpsusega ennustada, kes kui kaua veel maised rõõme nautida saab? Probleem on aga selles, et arstid ei tea, mille järgi TI oma järeldused teeb. Ajakirjas Science ilmus aga just uurimus, mis paljastab, kuidas USAs on mustanahalistel patsientidel märksa väiksem tõenäosus vajalikku kallihinnalist ravi saada. Algoritm võtab kõrgema taseme (kallimat) ravi vajajate hindamisel arvesse seniseid kulutusi meditsiinile, mida valged ja paremal järjel elajad on endale lubada saanud, mustanahalised alati mitte. Nii saabki vaid 17,7% mustanahalistest säärast ravi, mida algoritm samasuguse tervisehädaga valgetele võimaldab.

Tööle värbamisel. Tehnoloogiahiid Amazon alustas vaikselt viie aasta eest sarnase automatiseerimise – mis seni kõiges ladude haldamisest kuni hinnapoliitikani kompaniile edu toonud – juurutamist tööle värbamisel. Mõte oli selles, et tehisintellektile antakse nt sada CVd, mida masin hindab viie tärni ulatuses, nagu Amazonis ikka kaupu hinnatakse, ja lõpuks valib välja viis parimat, keda tahetakse värvata. Kahjuks selgus kurb tõsiasi, et Amazoni tehistööriist ei salli naisi. Põhjus oli lihtne, algoritm oli ehitatud töötajate andmetele tuginedes, ning seni on IT-sektoris domineerinud mehed. Amazoni töötajatest on mehi 60%, Facebookis 64%, Apple’is 68%, Google’is 69%, Microsoftis 74%. Facebookis ja Google’is on tumedanahalisi insenere alla 2%. Seega uuris algoritm CVsid ja otsustas välistada kõik need, kus esines mingilgi kujul sõna „naine“, à la „korvpallinaiskonna kapten“ vms.

Internetiturunduses, kus algoritm otsustab, milline reklaam tarbijani üldse jõuab. Kevadel andis USA eluasemeministeerium sisse hagi Facebooki vastu, süüdistades platvormi kinnisvaraalase diskrimineerimise võimaldamises, kuna reklaamiandjad saavad oma kuulutusi näidata vaid teatud rassist, rahvusest, religioonist või soost Facebooki kasutajatele.

Kas tõesti on inimkond sattunud eelarvamuste küüsis seksistliku algoritmiisanda võimusesse? Ei, pigem tuleb peeglisse vaadata, tehisintellekt on täpselt oma looja nägu. IBMi, Microsofti ja Amazoni näotuvastusprogrammid eksivad vaid 1% juhtudest, kui kõne all on heledanahaline mees. Tumedanahalise naise puhul on vigu 35%.

Kui sulle meeldis see postitus jaga seda oma sõpradega

[LoginRadius_Share]
 

Leia veel huvitavat lugemist

Värske Rõhk
Hea laps
LR
Keel ja kirjandus
Akadeemia
Kunstel
Muusika
Õpetajate leht
Täheke
TeaterMuusikaKino
Vikerkaar
Looming
Müürileht