Mõtetelugemise masin? Tehisintellekt suutis taastada pildid, millest inimene mõtleb (1)

Kaido Einama
, ajakirjanik
Copy
Magnetresonants-skanneriga ajuaktiivsust lugedes õnnestus teadlastel need andmed tehisintellektile ette anda, et teksti asemel hoopis nende põhjal lasta pilt luua. Tulemuseks oligi selline pilt, millele inimene parajasti mõtles. Pilt on illustreeriv.
Magnetresonants-skanneriga ajuaktiivsust lugedes õnnestus teadlastel need andmed tehisintellektile ette anda, et teksti asemel hoopis nende põhjal lasta pilt luua. Tulemuseks oligi selline pilt, millele inimene parajasti mõtles. Pilt on illustreeriv. Foto: MART PRODUCTION / Pexels

Jaapani teadlastel õnnestus pildiloomise tehisintellekti Stable Diffusion ja ajulainete skannerit ühendades luua masin, mis ennustab pilte, millest inimene mõtleb. Tulemused on üllatavalt täpsed.

Stseene, kus inimene mõtleb millestki ja teadlased näevad ekraanilt seda maailma, on olnud juba lugematus hulgas ulmefilmides ja raamatutes, kuid nüüd on midagi sellist ka päriselt teoks saanud.

Jaapani teadlase Yu Takadi juhitud teadlaste tiim suutis piltide sünteesimisega tegelevale tehisintellektile Stable Diffusion ette sööta inimese ajulained, mida mõõdeti funktsionaalse manetresonants-skanneriga (fMRI) ja masin tekitaski needsamad pildid, mis inimestel hetkel mõttes olid. fMRI on seade, mis mõõdab väikseid muutusi vere voolamises ajuveresoontes, mis tekivad seoses ajutegevusega. Seda infot võib kasutada aju aktiivsuse mõõtmiseks.

Hiljuti avaldatud uurimistöös kirjeldati katset, milles kujutised taastati ilma spetsiaalset masinõpet rakendamata. Osaka ülikooli teadlased salvestasid fMRI-ga ajus toimuvad muutused, mis tekkisid pärast pildi vaatamist. 

Lõpuks dekodeeriti kõrgemas visuaalses ajukoore osas tekkinud signaalid ning seda kasutati sisendina tehisintellektile pildi loomiseks, nii nagu tekstist pildiks lahendused töötavadki. Kasutusel oli Stable Diffusioni meetod, mis hakkab kaosest kujutist looma ning muudab selle järk-järgult täpsemaks, kuni pilt vastab soovitud kujule.

Ülal on pildid, mida inimesed nägid ja millest mõtlesid, all aga ajulainete põhjal tehisintellekti poolt loodud kujutised. Sarnasus on üsna suur, kuid mitte päris alati.
Ülal on pildid, mida inimesed nägid ja millest mõtlesid, all aga ajulainete põhjal tehisintellekti poolt loodud kujutised. Sarnasus on üsna suur, kuid mitte päris alati. Foto: teadustöö / Yu Takagi, Shinji Nishimoto / Osaka ülikool

Stable Diffusion on 2022. aastal avaldatud süvaõppemudel, millega saadakse etteantud tekstist või muust sisendist kujutis. Seda kasutatakse peamiselt detailsete piltide loomiseks, aga meetodit saab muidugi kasutada ka muude ülesannete jaoks. 

Stable Diffusion kasutab kujutiste loomiseks omapärast difusioonimudelit, mis lisab piltidele pidevalt müra, kuni need muutuvad justkui juhuslikeks piksliteks ja ennustab sellest siis tagurpidise protsessiga töödeldes algset pilti. Samal meetodil on võimalik inimese ajulainetest tuletada teravaid pilte.

Seega selle asemel, et anda tehisintellektile ette tekst, mille põhjal pilt joonistada näiteks ratsutavast kosmonaudist, antakse hoopis algandmetena ajulained, mis tekivad inimesel, mõeldes soovitud pildile või nähtud pildile. Stable Diffusion asub siis selle põhjal mürast looma kujutist, mis etteantud täpsustuste arvu järgi annab lõpuks piisavalt terava kujutise.

Nii suutiski mängukarust, lennukist, torniga majast või lennukist mõtleva inimese ajulainete skaneerimine anda masinale piisavalt infot, et luua pea samasugused pildid, mida inimesed olid ise enne näinud. Mõtete lugemine on seega justkui peaaegu võimalik.

Kommentaarid (1)
Copy
Tagasi üles