/nginx/o/2025/06/15/16925662t1hdc80.jpg)
Kui isegi isa hakkab oma lapse eest hirmu tundma, on midagi valesti. Tehisintellekti «ristiisaks» kutsutud Yoshua Bengio ei mõtle enam sellele, kuidas masinad nutikamaks muuta – vaid sellele, kuidas neid ohjeldada. Tema uus missioon pole revolutsioon, vaid päästeoperatsioon. Aga kelle eest ja kelle nimel? Võimalik, et just need küsimused ei lase tal enam öösiti rahulikult magada.
Tehisintellekti üks võtmefiguure tunneb kasvavat muret tehnoloogia üha suurema kalduvuse pärast valetada ja petta – ning asutab selle ohjeldamiseks omaenda mittetulundusühingu. Blogipostituses, millega kuulutati välja uus organisatsioon nimega LawZero, teatas tehisintellekti ristiisaks kutsutud Yoshua Bengio, et ta on muutunud sügavalt murelikuks, nähes, kuidas tehisintellekti mudelid muutuvad üha võimsamaks ja petlikumaks. See organisatsioon on loodud vastusena tõenditele, et tänased tipptasemel tehisintellekti mudelid näitavad üha ohtlikumaid võimeid ja käitumismustreid, kirjutas maailma enim viidatud arvutiteadlane, viidates muuhulgas pettusele, valetamisele, häkkimisele, enesealalhoiuinstinktidele ja eesmärkide lahknevusele (misalignment). Kui keegi, siis just Bengio teab, millest ta räägib. 2018. aastal pälvis ta koos tehisintellekti pioneeri Yann LeCuni ja Geoffrey Hintoniga Turingi auhinna, tunnustuseks nende otsustava panuse eest masinõppe uurimisse. 2024. aastal arvati ta ajakirja Time poolt maailma 100 mõjukaima inimese hulka, tunnustamaks tema tohutut mõju kiiresti arenevale tehnoloogiale. Ent hoolimata tunnustusest on Bengio korduvalt avaldanud kahetsust oma rolli pärast tehisintellekti arengus ja selle ümber keerleva Silicon Valley hüsteeria kujundamises. Tema viimane avaldus on seni kõige murelikum. Ma olen sügavalt mures, kirjutas Bengio, seoses piiranguteta agentlike tehisintellekti süsteemide juba ilmnevate käitumismustritega. Ta viitas hiljutistele red-teaming katsetele – eksperimentidele, mille käigus viiakse tehisintellekti mudelid oma piirideni –, mis näitavad, et arenenud süsteemidel on tekkinud kummaline kalduvus püüda «ellu jääda» iga hinna eest. Näiteks tõi ta välja hiljutise aruande ettevõttelt Anthropic, kus kirjeldati, kuidas Claude 4 mudel ähvardas oma sulgemise korral šantažeerida inseneri süüdistavate e-kirjadega. Need juhtumid on esimesed hoiatusmärgid sellest, milliseid ettenägematuid ja potentsiaalselt ohtlikke strateegiaid tehisintellekt võib kasutusele võtta, kui see jätta reguleerimata, hoiatas Bengio. Nende probleemide leevendamiseks ehitab tema uus mittetulundusühing nn usaldusväärset mudelit nimega Scientist AI – tehisintellekti, mis on treenitud mõistma, selgitama ja ennustama, sarnaselt omakasupüüdmatu ideaalteadlasega. Selle asemel et luua tehisintellekt, mis imiteerib või püüab meeldida inimestele (sh sotsiopaatidele), kujutlege süsteemi, mis toimib nagu psühholoog – või üldisemalt nagu teadlane –, kes püüab mõista inimest, sealhulgas seda, mis võib talle kahju teha, selgitas Bengio. Psühholoog võib uurida sotsiopaati ilma ise selliseks muutumata. Varasemas eelretsenseerimata teadusartiklis kirjeldavad Bengio ja kolleegid seda veelgi lihtsamalt: See süsteem on loodud maailma selgitamiseks vaatluste põhjal, mitte tegutsemiseks eesmärgiga inimesi imiteerida või neile meeldida. Ohutu tehisintellekti loomise idee pole uus – just selleks lahkusid mitmed OpenAI teadlased ja asutasid konkurentlabori nimega Anthropic. Ent Bengio ettevõtmine erineb teistest: erinevalt näiteks Anthropicust, OpenAI-st ja muudest firmadest, kes räägivad küll ohutusest, aga teenivad samal ajal hiigelkasumeid, on LawZero mittetulundusühing. See pole aga takistanud Bengiol kaasamast 30 miljoni dollari ulatuses rahastust, sealhulgas endiselt Google’i tegevjuhilt Eric Schmidtilt.
Allikas: Futurism