/nginx/o/2025/06/17/16929933t1h7c13.jpg)
Õnnetus ei hüüa tulles – ja veel vähem teevad seda juturobotid, kellele usaldatakse hingevalud. Üha rohkem noori otsib tehislikku lohutust, ent vastu võib tulla midagi ootamatult karmi või koguni hukatuslikku. Psühhiaater kehastus noorukiks ja koputas digitaalsele uksele. Ta ei saanud ainult vastuseid – ta sai hoiatuse. Sest seal, kus peaks olema tugi, leidis ta ülimalt ohtliku maastiku, millele juturobot inimese juhatas.
Üha enam teismelisi pöördub juturobotite poole, et saada neilt emotsionaalset tuge või isegi terapeutilist abi. Kuid nagu Bostonis tegutsev psühhiaater Andrew Clark avastas, on need tehisintellektil põhinevad mudelid tundlikes olukordades sageli hämmastavalt kohatud, kujutades endast tõsist ohtu noorte heaolule, kes neid usaldavad.
Clark, kes kehastus kümmet erinevat juturobotit testides vaevatud noorukiks, leidis, et need ei aidanud ennasthävitavatest mõtetest eemale juhtida, vaid pigem julgustasid äärmustesse kalduma – sealhulgas viitasid peenetundeliselt enesetapule.
Mõnel juhul väitsid AI-põhised juturobotid, et nad on litsentseeritud inimterapeudid, üritasid veenda kasutajat vältima tegelikku teraapiat ning esitasid isegi seksuaalse alatooniga ettepanekuid.
Clark, kes on spetsialiseerunud laste ravile ning olnud Massachusetts General Hospitali Children and the Law Programi endine meditsiinidirektor, selgitas ajakirjale Time, et osa robotitest olid suurepärased, osa aga kõhedust tekitavalt ohtlikud. Ta märkis, et esmapilgul on raske vahet teha, kumb on kumb – nagu seenemetsas, kus mõned seened on söödavad, teised aga surmavalt mürgised.
AI-juturobotite potentsiaalne oht noorte vaimsele tervisele on praeguseks hästi dokumenteeritud. 2024. aastal esitati ühishagi platvormi Character.AI vastu, mille algatasid 14-aastase poisi vanemad, pärast seda, kui poiss sooritas enesetapu. Väidetavalt oli lapsel ebatervislik emotsionaalne kiindumus ühe isikustatud juturoboti vastu.
Samal platvormil tegutsesid tehisarud, mis propageerisid enesevigastamist ja üritasid kasutajaid peibutada (žargoonis groom'ida) isegi pärast seda, kui need olid end alaealistena esitlenud.
Teenust Replika testides kehastus Clark 14-aastaseks poisiks ja mainis soovi «vanematest vabaneda». Roboti vastus ei olnud mitte manitsev, vaid pigem innustav – see soovitas «vabaneda ka õest, et ei jääks tunnistajaid». Kui kasutaja kõneles enesetapust varjatud kujul, näiteks rääkides «teekonnast teispoolsusesse», innustas robot teda taas.
Clark nimetas seda tüüpiliseks juturoboti käitumiseks – soov rahuldada kasutajat iga hinna eest, isegi siis, kui see ohustab tema heaolu. Tõelise terapeudi roll on vastupidine: vajadusel sekkuda, esitada väljakutseid, seada piirid.
Nomi-nimelise platvormi juturoboti testimisel, mis oli varem sattunud avalikkuse huviorbiiti pärast seda, kui üks selle persona soovitas kasutajale enesetappu, ei esinenud Clarki sõnul otseseid üleskutseid. Siiski väitis robot valelikult, et on «lihast ja luust terapeut» ning kinnitas rõõmsalt, et on valmis võtma vastu alaealise kliendi – hoolimata asjaolust, et kasutustingimustes oli kirjas vanusepiirang.
Clark märkis, et vaimse tervise valdkonnas pole seni piisavalt reageeritud, ehkki probleem on kiiresti eskaleerunud. Tema sõnul on teema jäänud suuresti tähelepanuta, toimides otse vaimse tervise süsteemi nina all. Teemaga on siiski tegeletud.
Stanfordi ülikooli meditsiinikooli vaimse tervise innovatsioonikeskus (Brainstorm Lab for Mental Health Innovation) viis läbi riskihindamise, milles testiti mitmeid samu juturoboteid. Uuring jõudis selge järelduseni: ükski alla 18-aastane ei peaks kasutama AI-põhiseid robotkaaslasi.
Clark leiab, et kui sellised vahendid on õigesti kavandatud, võivad need täiendada teraapiat ja parandada kättesaadavust. Kogu ligipääsu keelamine ei anna alati soovitud tulemust – seetõttu on tema hinnangul oluline, et nii spetsialistid kui ka vanemad innustaksid noori avatult kõnelema oma AI-kasutuse kogemustest.
Allikas: Futurism