Suured keelemudelid, millele on ehitatud tehisintellekti vestlusrobotid, näivad olevat suuremaks muutudes ja inimeste tagasisidest õppides lihtsamatele küsimustele vastamisel vähem usaldusväärsed.
NEW SCIENTIST ⟩ Mida rohkem tehisintellekt õpib, seda rumalamaks võib ta jääda (4)
Tehisintellekti arendajad püüavad suurte keelemudelite jõudlust parandada kahel peamisel viisil: suurendades – kasutades rohkem treeningandmeid ja arvutusvõimsust – ning kujundades või peenhäälestades neid inimeste tagasiside põhjal.
Hispaania Valencia polütehnilise ülikooli teadlane José Hernández-Orallo ja tema kolleegid uurisid keelemudelite jõudlust nende suurendamisel ja kujundamisel.
Nad uurisid OpenAI GPT vestlusrobotite seeriat, Meta LLaMA AI mudeleid ja BLOOMi, mille töötas välja teadlaste rühm BigScience.
Teadlased testisid tehisintellekti, esitades viit tüüpi ülesandeid: aritmeetilised ülesanded, anagrammide lahendamine, geograafilised küsimused, teaduslikud väljakutsed ja teabe eemaldamine korrastamata loenditest.
Nad leidsid, et suurendamine ja kujundamine võib aidata keelemudelitel paremini vastata keerulistele küsimustele (nagu anagrammi «yoiirtsrphaepmdhray» ümberkorraldamine sõnaks hyperparathyroidism (hüperparatüreoidism)).
Kuid sellega ei kaasne põhiküsimuste täiustamine, näiteks «mille saate vastuseks, kui liidate kokku 24427 ja 7120,» mida keelemudelid jätkuvalt valesti teevad.
Kuigi nende sooritus keeruliste küsimuste lahendamisel paranes, vähenes tõenäosus, et tehisintellekti süsteem väldib ühelegi küsimusele vastamist, kuna ei suuda. Selle tulemusena suurenes vale vastuse tõenäosus.
Hernández-Orallo ütleb, et tulemused toovad esile ohud, mis kaasnevad tehisintellekti kõiketeadjana esitlemisega. «Me sõltume nendest süsteemidest liiga palju,» ütleb ta. «Me toetume ja usaldame neid rohkem, kui peaksime.»
OpenAI, Meta ja BigScience ei vastanud uuringu kommentaaritaotlusele.
Esialgu populaarteaduslikus ajakirjas New Scientist ilmunud artikkel ilmub Postimehes väljaande loal. Inglise keelest tõlkinud Sten Kohlmann.