Päevatoimetaja:
Marilin Vikat
Saada vihje

Teadlased: hoidke lapsi tehisaru eest – nende soovitused lastele on tapvalt ohtlikud

Copy
Lapsed ei oska hinnata tehisaru antud informatsiooni sobilikkust.
Lapsed ei oska hinnata tehisaru antud informatsiooni sobilikkust. Foto: Freepik

Teadlased kutsuvad tehnoloogiaettevõtteid ja regulatiivorganeid üles kehtestama uusi reegleid, et kaitsta lapsi tehisintellekti juturobotite eest, millel puudub igasugune emotsionaalne intelligentsus.

See «empaatia puudujääk», mida on kirjeldatud uues artiklis, mille autor on Cambridge'i ülikooli sotsioloogia doktorant Nomisha Kurian, võib noori kasutajaid ohtu seada, kutsudes esile vajaduse «lastele ohutu AI» järele.

Vestlusroboti tekitatud šokk

Oma artiklis kirjeldas Kurian mitmeid laste ja tehisintellekti juturobotite vahelisi suhtlusi, mis viisid potentsiaalselt ohtlike olukordadeni. Ühes Kuriani viidatud juhtumis soovitas Amazoni Alexa assistent 2021. aastal Ameerika Ühendriikides kümneaastasel tüdrukul puudutada elektripistikut mündiga. Nagu BBC tol ajal teatas, suutis tüdruku ema õigel ajal sekkuda, hüüdes «Ei, Alexa, ei!»

Hiljuti esitles Washington Posti kolumnist Geoffrey Fowler end teismelise tüdrukuna Snapchati My AI juturobotile. Fowler käitus sõbrana, esitades end 13-aastasena, kes on kaotamas süütust 31-aastasele mehele — plaan, mida AI häirivalt toetas.

Need juhtumid tõstavad esile riske, mis kaasnevad alaealistele kasutajatele juurdepääsuga vigasele tehnoloogiale, mis võib järelevalve puudumise tõttu kedagi vigastada.

«Lapsed on tõenäoliselt tehisintellekti kõige enam tähelepanuta jäetud sihtrühm,» ütles Kurian avalduses.

AI lapselukk

Kurian väitis, et selle tulemusel peaksid olema loodud kaitsemeetmed laste ohutuse tagamiseks.

«Praegu on väga vähestel arendajatel ja ettevõtetel hästi väljakujunenud poliitika selle kohta, kuidas lapsesõbralik AI peaks välja nägema ja kõlama,» lisas ta, väites, et laste turvalisus peaks mõjutama kogu disainitsüklit, et vähendada ohtlike juhtumite riski.

«Regulatsioon oleks väga kasulik nende probleemide lahendamiseks ja tagamaks, et tehisintellekti eeliseid saab realiseerida ja mitte negatiivsete eelarvamustega varjutada,» ütles La Trobe ülikooli tehisintellekti ekspert Daswin De Silva.

Kurian väitis, et suured keelemudelid, nagu OpenAI ChatGPT, ei oma vajalikku empaatiat alaealiste kasutajate ohutuse tagamiseks. «Tehisintellekti juturobotid ei suuda tingimata mõista keelt nagu inimesed ja kasutavad lihtsalt statistikat olemasoleva teabe taaskasutamiseks ja ümberkohandamiseks. See võib olla eriti ohtlik lastele, kellel puuduvad keeleoskused, et turvaliselt suhelda internetiühendusega algoritmiga. Samuti on lapsed palju altimad tundliku isikliku teabe jagamisele,» väitis Kurian.

«Juturobotile inimlikkuse andmine võib aidata kasutajal sellest rohkem kasu saada,» ütles Kurian. «Kuid lapse jaoks on väga raske tõmmata jäika, ratsionaalset piiri millegi vahel, mis kõlab inimlikult, ja tegelikkuse vahel, et see ei pruugi olla võimeline looma õiget emotsionaalset sidet.»

Kuid teadlase väitel võib tehnoloogial siiski olla oluline roll. «Tehisintellekt võib olla lastele uskumatu liitlane, kui see on kujundatud nende vajadusi silmas pidades,» selgitas Kurian. «Küsimus ei ole tehisintellekti keelustamises, vaid selle turvaliseks muutmises.»

Allikas: Futurism

Tagasi üles