Valitsus peab määratlema, milliseid süsteeme käsitletakse kõrge riskiga süsteemidena, millele kaitsepiirangud peavad kohalduma. Samuti kaalutakse, kas need peaksid kehtima kõigile üldotstarbelistele mudelitele, mis on selliste juturobotite nagu Dany aluseks. Üldotstarbelised mudelid suudavad genereerida teksti, pilte, videoid ja muusikat, mida saab kasutada mitmesugustes kontekstides.
Euroopa Liidu tehisintellekti seaduses on kõrge riskiga süsteemid määratletud loeteluga, mida saab regulaarselt ajakohastada. Alternatiivina võiks kõrge riskiga süsteemide määratlemine toimuda juhtumipõhiselt, sõltudes mitmetest teguritest, sealhulgas mõju ulatusest inimõigustele, füüsilisele või vaimsele tervisele ja juriidilistele tagajärgedele.
Juturobotid peaksid olema kõrge riskiga
Euroopa Liit pole kaaslaseks loodud AI-süsteeme, nagu Character.AI ja Chai, kõrge riskiga süsteemideks määratletud. Neil ettevõtetel on kohustus ainult kasutajaid teavitada, et nad suhtlevad AI-süsteemiga.
Ometi on ilmselge, et need rakendused pole madala riskiga. Paljud kasutajad on lapsed ja teismelised ning osa süsteeme turustatakse üksildastele või vaimse tervise probleemidega inimestele. Juturobotid on võimelised genereerima ettearvamatut, ebasobivat ja isegi manipuleerivat sisu, matkides toksilisi suhteid.
Inimeste kalduvus omistada inimlikke omadusi suhtluspartnerile muudab ainult kohustusliku teavituse, et tegemist on AI-põhise väljundiga, ebapiisavaks meetmeks selliste riskide haldamisel.
Avalikkuses kajastatud enesetapujuhtumid võivad olla jäämäe tipp. Ei ole teada, kui paljud haavatavad inimesed on end sidunud juturobotitega läbi sõltuvuslike, toksiliste või isegi ohtlike suhete.
Kaitsepiirangud ja «väljalülitusnupp»
Kui Austraalia lõpuks kõrge riskiga AI-süsteemidele kohustuslikud kaitsepiirangud kehtestab – see võib juhtuda juba järgmisel aastal –, peaksid need kohalduma nii kaaslasjuturobotitele kui ka üldotstarbelistele mudelitele, millel need põhinevad.