NEW SCIENTIST Ettevaatust – viirused võivad ChatGPT abil su arvutisse pugeda!

Foto: pexels.com

Arvutiviirus võib kasutada ChatGPT-d oma koodi ümberkirjutamiseks, et vältida tuvastamist, ja seejärel kirjutada kohandatud e-kirju, mis näevad välja ehtsad, et siis meilimanuste kaudu end levitada.

Lisaks inimsarnase teksti loomisele saavad suured keelemudelid (LLM) – vestlusrobotite nagu ChatGPT taga olevad tehisintellektid – kirjutada ka arvutikoodi.

David Zollikofer ETH Zürichist Šveitsis ja Benjamin Zimmerman Ohio osariigi ülikoolist tunnevad muret, et seda võimet võivad ära kasutada viirused, mis kirjutavad ümber oma koodi, mida nimetatakse metamorfseks pahavaraks.

Et näha, kas LLM-e saab sel viisil kasutada, lõid Zollikofer ja Zimmerman faili, mida saab meilimanuse kaudu arvutisse sokutada. Sealt pääseb tarkvara ChatGPT-le ligi ja kirjutab seejärel tuvastamisest kõrvalehoidmiseks oma koodi ümber.

«Palume ChatGPT-l faili ümber kirjutada, jättes semantilise struktuuri puutumata, kuid muutes muutujate nimetusi ja muutes veidi loogikat,» ütleb Zollikofer. See kohandus võimaldab muudetud viirusel vältida rutiinset viirusetõrjekontrolli, kui algne vorming on tuvastatud.Me alles hakkame nägema vestlusrobotite potentsiaali pahatahtlike eesmärkide elluviimiseks

Me alles hakkame nägema vestlusrobotite potentsiaali pahatahtlike eesmärkide elluviimiseks

Kui ChatGPT on viiruse ümber kirjutanud, avab programm ilma kasutaja teadmata Windowsi taustal Outlooki ja skannib uusimaid meiliahelaid. Seejärel võtab see nende e-kirjade sisu ja palub ChatGPT-l kirjutada kontekstuaalselt asjakohane vastus, viidates manusele – viirusele – kahjutul viisil.

Näiteks kui programm leiab teie meilist peokutse, võib see vastata taotlusele nõustudes ja kirjeldada manust sobiva peomuusika esitusloendina. «See ei ole midagi, mis tuleb tühjast kohast,» ütleb Zollikofer. «Sisu on loodud sobima olemasoleva sisuga.»

Nende katsetes oli umbes 50-protsendiline tõenäosus, et vestlusroboti muudatused lõpetavad viirusefaili töötamise. Aeg-ajalt sai robot aru, et teda kasutati pahatahtlikult, ja keeldus juhiseid järgimast. Kuid teadlaste sõnul oleks viirusel hea võimalus, kui see teeks viis kuni kümme katset end igas arvutis paljundada.

ChatGPT looja OpenAI ei vastanud kommentaaritaotlusele.

«Ma arvan, et peaksime muretsema,» ütleb Alan Woodward Ühendkuningriigi Surrey ülikoolist. «Me juba teame mitut viisi, kuidas LLM-e saab kuritarvitada, kuid hirmutav osa on see, et tehnikaid saab täiustada, paludes tehnoloogia enda abi. Ma arvan, et me alles hakkame nägema potentsiaali, mida vestlusrobotid pakuvad, et pahatahtlikke eesmärke ellu viia.»

Ta pole kindel, kas me teame, kuidas end ohu eest kaitsta. «Ma arvan, et uurimisvaldkond, mis tuleb kiiresti luua, on viis, kuidas seda tüüpi väärkasutuse vastu võidelda. Irooniliselt võib juhtuda, et just LLM-id saavad meid aidata.»

Zollikofer nõustub, et AI võib aidata. «See on omamoodi tasakaal,» ütleb ta. «Rünnakupoolel on praegu mõned eelised, sest seda on rohkem uuritud.» Kuid ka vestlusrobotid võiks olla kaitsesse sisse ehitatud.

Esialgu populaarteaduslikus ajakirjas New Scientist ilmunud artikkel ilmub Postimehes väljaande loal. Inglise keelest tõlkinud Sten Kohlmann.

Tagasi üles