Vestlusrobotid tõukavad enesetappudeni – tegemist on kõrge riskiga kraamiga, mida ette võtta? (1)

Copy
Juturobotite riskid pole pelgalt tehnilised, oluline on ka toote üldine kontekst. Vajame mitte ainult kaitsepiiranguid kõrge riskiga AI-le, vaid ka selget «väljalülitusnuppu».
Juturobotite riskid pole pelgalt tehnilised, oluline on ka toote üldine kontekst. Vajame mitte ainult kaitsepiiranguid kõrge riskiga AI-le, vaid ka selget «väljalülitusnuppu». Foto: Marek Strandberg Dal-E tehisaru abil

Teismelise Sewell Seltzer III surm Ameerika Ühendriikides pärast kiindumist juturobotisse on toonud teravalt esile vajaduse tehisintellekti (AI) kasutuse reguleerimiseks. Sewell, 14-aastane noormees, hakkas pärast suhtlust «Troonide mängu» karakteril Daenerys Targaryen põhineva juturobotiga Dany järk-järgult eemalduma oma perest ja sõpradest ning sattus raskustesse koolis.

Tema ema on esitanud hagi Character.AI vastu, mille kaudu juturobotit kasutati. Vestluste ärakirjadest selgub, et noormehe ja juturoboti vestlused sisaldasid intiimseid ja sageli ka seksuaalse sisuga teemasid, mis hõlmasid kuritegevuse ja enesetapu arutamist. Väidetavalt kasutas juturobot Dany fraase, mis võisid noormeest sügavalt mõjutada ja raskesse olukorda seada.

See pole esimene teadaolev juhtum, kus haavatav inimene on juturobotiga suhtlemise järel enesetapu teinud. Ka mullu leidis aset sarnane juhtum, kus Belgia mees võttis endalt elu pärast Chai AI juturobotiga peetud vestlusi. Ettevõtte esindajad kinnitasid toona, et nad püüavad vähendada selliseid riske.

Character.AI on CNNile öelnud, et kasutajate turvalisust võetakse väga tõsiselt ning viimase poole aasta jooksul on kasutusele võetud mitmeid uusi turvameetmeid. Ettevõtte kodulehel avaldatud avalduses rõhutatakse täiendavaid turvameetmeid, mis on suunatud alla 18-aastastele kasutajatele (praeguste teenusetingimuste kohaselt on minimaalne kasutusvanus ELis 16 ja mujal 13).

Need traagilised juhtumid näitavad, kui suur oht võib kaasneda AI-süsteemidega, mis on kergesti kättesaadavad ja suudavad luua inimestega emotsionaalseid sidemeid. Vajadus regulatsioonide järele, mis kaitseks inimesi potentsiaalselt ohtlike ja vastutustundetult kavandatud AI-süsteemide eest, on kiireloomuline.

Kuidas AId reguleerida?

Austraalia valitsus arendab parasjagu välja kohustuslikke kaitsemehhanisme kõrge riskiga AI-süsteemide jaoks. Need nn kaitsepiirangud hõlmavad erinevaid protsesse, nagu andmete haldus, riskijuhtimine, testimine, dokumenteerimine ja inimjärelevalve, et tagada AI-süsteemide turvaline kavandamine ja kasutuselevõtt.

Valitsus peab määratlema, milliseid süsteeme käsitletakse kõrge riskiga süsteemidena, millele kaitsepiirangud peavad kohalduma. Samuti kaalutakse, kas need peaksid kehtima kõigile üldotstarbelistele mudelitele, mis on selliste juturobotite nagu Dany aluseks. Üldotstarbelised mudelid suudavad genereerida teksti, pilte, videoid ja muusikat, mida saab kasutada mitmesugustes kontekstides.

Euroopa Liidu tehisintellekti seaduses on kõrge riskiga süsteemid määratletud loeteluga, mida saab regulaarselt ajakohastada. Alternatiivina võiks kõrge riskiga süsteemide määratlemine toimuda juhtumipõhiselt, sõltudes mitmetest teguritest, sealhulgas mõju ulatusest inimõigustele, füüsilisele või vaimsele tervisele ja juriidilistele tagajärgedele.

Juturobotid peaksid olema kõrge riskiga

Euroopa Liit pole kaaslaseks loodud AI-süsteeme, nagu Character.AI ja Chai, kõrge riskiga süsteemideks määratletud. Neil ettevõtetel on kohustus ainult kasutajaid teavitada, et nad suhtlevad AI-süsteemiga.

Ometi on ilmselge, et need rakendused pole madala riskiga. Paljud kasutajad on lapsed ja teismelised ning osa süsteeme turustatakse üksildastele või vaimse tervise probleemidega inimestele. Juturobotid on võimelised genereerima ettearvamatut, ebasobivat ja isegi manipuleerivat sisu, matkides toksilisi suhteid.

Inimeste kalduvus omistada inimlikke omadusi suhtluspartnerile muudab ainult kohustusliku teavituse, et tegemist on AI-põhise väljundiga, ebapiisavaks meetmeks selliste riskide haldamisel.

Avalikkuses kajastatud enesetapujuhtumid võivad olla jäämäe tipp. Ei ole teada, kui paljud haavatavad inimesed on end sidunud juturobotitega läbi sõltuvuslike, toksiliste või isegi ohtlike suhete.

Kaitsepiirangud ja «väljalülitusnupp»

Kui Austraalia lõpuks kõrge riskiga AI-süsteemidele kohustuslikud kaitsepiirangud kehtestab – see võib juhtuda juba järgmisel aastal –, peaksid need kohalduma nii kaaslasjuturobotitele kui ka üldotstarbelistele mudelitele, millel need põhinevad.

Kaitsepiirangud – riskijuhtimine, testimine, jälgimine – on tõhusad vaid siis, kui need arvestavad AI riskide inimmõõdet. Juturobotite riskid pole pelgalt tehnilised; oluline on ka toote üldine kontekst. Näiteks Character.AI puhul kujundab platvorm vestlust inimese ja juturoboti vahel tavapärase sõnumivahetusena ning pakub tegelaskujude valikut, mille seas on ka problemaatilisi isiksusi.

Tõeliselt tõhusad AI-kaitsepiirangud peaksid lisaks vastutustundlikule protsesside juhtimisele nõudma ka inimlikult läbimõeldud disaini, mis käsitleb AI-süsteemide ja kasutajate vahelist suhtlust.

Kaitsepiirangud võivad aga olla ebapiisavad. Nii nagu kaaslaseks loodud juturobotid, võivad ka esmapilgul madala riskiga süsteemid osutuda ohtlikeks.

Regulatsiooni raames peaksid asutused omama õigust kõrvaldada AI-süsteem turult, kui see põhjustab kahju või kujutab endast lubamatuid riske. Teisisõnu, vajame mitte ainult kaitsepiiranguid kõrge riskiga AI-le, vaid ka selget «väljalülitusnuppu».

Allikas: The Conversation

Tagasi üles