Saada vihje

TAPPEV NÕUANNE Seenteasjatundjaks kehastunud tehisaru soovitas mürgiseentest rooga teha (1)

Copy
Tehisaruline seenetark saadaks inimesed teise ilma, kui need tema soovitusi kuulda võtaksid.
Tehisaruline seenetark saadaks inimesed teise ilma, kui need tema soovitusi kuulda võtaksid. Foto: Marek Strandberg Dall-E tehisaru abil

Tänaseks on selge, et tehisintellekt suudab anda väga halba nõu. Mõnikord on antud nõuanne lihtsalt rumal, kuid teistel juhtudel võib see olla isegi ohtlik.

Näiteks üks hiljutine juhtum, kus ühe populaarse Facebooki seeneteemalise grupi sattumine tehisintellekti agendi sihtmärgiks tõi kaasa nõuandeid, mis ohustasid inimeste elu ja tervist.

Northeast Mushroom Identification & Discussioni nimelises Facebooki grupis, millel on umbes 13 000 liiget, ilmus vestlusesse AI-agent nimega FungiFriend. Seenehuvilistele jagas see agent kahetsusväärselt halbu soovitusi, eriti ühes olukorras, kus üks grupiliige küsis, kuidas valmistada Sarcosphaera coronariat (kroonliudik) – mürgist seent. AI-agent vastas, et tegemist on «söödava, kuid haruldase» seenega ja soovitas seda praadida võis, lisada suppidesse või marineerida.

Ajakirjanik Jason Koebler sai juhtumist teada Rick Claypoolilt, tarbijakaitsegrupi Public Citizen teadusuuringute direktorilt ja kogenud seenekorjajalt. Claypool on varem juhtinud tähelepanu sellele, kui ohtlik on AI-l põhinevate süsteemide kasutamine söödavate ja mürgiste seente eristamiseks, viidates, et selline tegevus nõuab reaalset oskusteavet, mida tänapäeva tehisintellekt usaldusväärselt pakkuda ei suuda. Claypooli sõnul julgustas Facebook mobiilikasutajaid lisama AI-agenti vestlusesse, mis tegi olukorra veelgi riskantsemaks.

See juhtum toob meelde teised hiljutised olukorrad, kus AIga seotud rakendused on levitanud ohtlikke nõuandeid. Näiteks üks AI-põhine söögivalmistamisrakendus soovitas eelmisel aastal kasutajatel valmistada võileibu sääsetõrjevahendiga ning sisaldas retsepti, mis tekitas kloorigaasi. Teises sarnases juhtumis soovitas tehisintellekt kasutajatel süüa kive. AI integreerimine kööginõuannete valdkonda võib tunduda kasulik, kuid tõsiasi on, et valed soovitused võivad tappa.

Teised katsetused on näidanud, et algoritmi juhitud agendid ei pruugi tegelikkusest aru saada. Näiteks püüdis Google’i programm veenda meid, et koerad teevad sporti, ning soovitas täita pitsa liimiga.

Sellest hoolimata on paljud ettevõtted, eriti USAs, hakanud kiirustades integreerima AI-süsteeme klienditeenindusrakendustesse, eirates ilmset riski, et avalikkusele jagatakse eksitavat ja ohtlikku teavet.

Allikas: Gizmodo

Märksõnad

Tagasi üles