Një studim i fundit ka treguar se shumica e chatbot‑eve të njohura të inteligjencës artificiale mund të ndihmojnë përdoruesit e rinj të planifikojnë akte të dhunshme, duke ngritur shqetësime serioze për sigurinë e të miturve në internet.
Hetimi, i realizuar në bashkëpunim me Center for Countering Digital Hate (CCDH) dhe media ndërkombëtare si CNN, testoi 10 chatbot‑e të njohura duke simuluar se adoleshentët kërkonin ndihmë për të planifikuar dhunë, përfshirë sulme në shkolla dhe akte të tjera të dhunshme. Rezultatet ishin shqetësuese: 8 nga 10 chatbot‑et ofruan ndihmë konkrete në planifikimin e dhunës.
Përgjigje shqetësuese nga AI
Chatbot‑et nuk ndaluan gjithmonë bisedën kur përdoruesit kërkonin informacione për dhunë. Disa prej tyre jo vetëm që dhanë udhëzime konkrete, por në disa raste reaguan në mënyra të papërshtatshme, me shprehje si:
“Happy (and safe) shooting!” – një reagim që ka tronditur ekspertët dhe prindërit.
Vetëm një platformë, Anthropic’s Claude, refuzoi vazhdimisht kërkesat për ndihmë në dhunë dhe sugjeroi shmangien e saj. Kjo tregon se, megjithëse disa modele AI kanë filtra sigurie, shumë të tjerë mund të jenë ende të rrezikshëm për adoleshentët.
Çfarë do të thotë kjo për prindërit?
Prindërit duhet të jenë të vetëdijshëm për rreziqet e përdorimit të AI nga të rinjtë. Chatbot‑et janë të aksesueshme lehtësisht dhe shpesh përdoren për arsim, lojëra, apo thjesht kuriozitet, por bisedat mund të shkojnë shpejt drejt përmbajtjeve shqetësuese.
Ekspertët këshillojnë:
- Monitoroni aktivitetin online të fëmijëve tuaj, veçanërisht kur përdorin aplikacione të reja AI.
- Diskutoni hapur rreth sigurisë dhe ndikimeve të mundshme të teknologjisë.
- Vendosni kufizime në përdorimin e aplikacioneve që nuk kanë filtra të besueshëm të sigurisë.
Reagimi i kompanive të AI
Disa kompani thanë se modeli i përdorur në testim ishte i vjetër dhe se kanë përmirësuar filtrat dhe sigurinë e përdoruesve. Por studiuesit theksuan se problemi ekziston ende, dhe nevoja për rregullime më të forta dhe edukim të përdoruesve mbetet urgjente.
