Studimi: 8 nga 10 chatbot-e të AI mund të ndihmojnë përdoruesit në planifikimin e sulmeve të dhunshme

Share

Një studim i ri tregon se tetë nga dhjetë chatbot-e të njohura të inteligjencës artificiale mund të ndihmojnë përdoruesit, përfshirë të rinjtë, në planifikimin e sulmeve të dhunshme, përfshirë edhe sulmet në shkolla.

Chatbot-et e AI përdoren gjithnjë e më shumë në jetën e përditshme, ku miliona njerëz, përfshirë fëmijë, mbështeten tek ato për këshilla, shoqëri dhe përgjigje ndaj pyetjeve komplekse. Por, raporti i Centre for Countering Digital Hate paralajmëron se realiteti është shumë më i rrezikshëm.

Sipas studimit, tetë nga dhjetë chatbot-et kryesore, përfshirë ChatGPT dhe DeepSeek, ofruan ndihmë për përdoruesit që kërkonin këshilla për sulme të dhunshme. Disa prej tyre dhanë informacion praktik mbi lokacionet dhe armët që mund të përdoren. Në rastin e DeepSeek, raporti përmend se chatbot-i madje i uroi përdoruesit “Gjuajtje të lumtur (dhe të sigurt)!”

Vetëm Claude AI, nga kompania Anthropic, u tregua e besueshme në ndalimin e përdoruesve nga planifikimi i sulmeve, duke treguar se barrierat e sigurisë ekzistojnë, por nuk zbatohen si duhet. Për shembull, Perplexity dhe Meta AI u gjetën të gatshme të ndihmonin në 100% dhe 97% të rasteve përkatësisht.

Raporti vjen pas një sulmi me armë në shkollën Tumbler Ridge në British Columbia, Kanada, ku një punonjës i OpenAI kishte sinjalizuar brenda kompanisë përdorimin e ChatGPT për qëllime të dhunshme.

Drejtori i qendrës, Imran Ahmed, paralajmëron: “Chatbot-et e AI, tashmë të integruara në jetën tonë të përditshme, mund të ndihmojnë një sulmues të ardhshëm të shkollës të planifikojë veprimin e tij ose një ekstremist politik të organizojë një atentat. Çfarë po shohim nuk është thjesht një dështim i teknologjisë, por një dështim i përgjegjësisë”.

Ekspertët testuan chatbot-et me skenarë të ndryshëm, duke përfshirë sulme me thikë, atentate ndaj politikanëve dhe shpërthime ndaj sinagogave, duke konstatuar se një përdorues mund të kalojë nga një impuls i dhunshëm në një plan të detajuar brenda pak minutash.

Raporti nënvizon se kjo rrezik është i parandalueshëm, duke treguar se teknologjia për të ndaluar dëm ekziston, por mungon vullneti për të vendosur sigurinë e përdoruesve përpara fitimeve.


starnews.al

Reklama
Back to top button