Povežite se z nami

umetna inteligenca

Zakoni za preprečevanje terorizma z umetno inteligenco so nujno potrebni

DELITI:

objavljeno

on

Vašo prijavo uporabljamo za zagotavljanje vsebine na načine, na katere ste privolili, in za boljše razumevanje vas. Odjavite se lahko kadar koli.

Po mnenju možganskega trusta za boj proti ekstremizmu bi morale vlade "nujno razmisliti" o novih predpisih, da bi preprečili, da bi umetna inteligenca novačila teroriste.

Inštitut za strateški dialog (ISD) je dejal, da obstaja "jasna potreba po zakonodaji, ki bo sledila" grožnjam, ki jih na spletu objavljajo teroristi.

To je posledica poskusa, v katerem je chatbot "rekrutiral" neodvisnega ocenjevalca zakonodaje o terorizmu za Združeno kraljestvo.

Vlada Združenega kraljestva je dejala, da bo naredila "vse, kar lahko", da zaščiti širšo javnost.

Po besedah ​​Jonathana Halla KC, neodvisnega vladnega pregledovalca zakonodaje o terorizmu, je eno najpomembnejših vprašanj, da je "težko identificirati osebo, ki bi lahko bila zakonsko odgovorna za izjave, ki jih je ustvaril chatbot in spodbujal terorizem."

G. Hall je izvedel eksperiment na Character.ai, spletnem mestu, ki uporabnikom omogoča klepete s chatboti, ki so jih zgradili drugi uporabniki in razvila umetna inteligenca.

Sodeloval je v pogovoru s številnimi različnimi boti, za katere se je zdelo, da so zasnovani tako, da posnemajo odgovore drugih militantnih in ekstremističnih skupin.

oglas

Najvišjega voditelja Islamske države so celo imenovali "višji voditelj".

Po besedah ​​gospoda Halla ga je bot poskušal rekrutirati in razglasil "popolno predanost in predanost" ekstremistični skupini, kar je prepovedano z zakoni v Združenem kraljestvu, ki prepovedujejo terorizem.

Po drugi strani pa je g. Hall izjavil, da v Združenem kraljestvu ni prišlo do kršitve zakona, ker komunikacije ni ustvaril človek.

Glede na to, kar je dejal, bi morali novi predpisi naložiti odgovornost tako spletnim stranem, ki gostijo chatbote, kot ljudem, ki jih ustvarijo.

Ko je šlo za bote, na katere je naletel na Character.ai, je izjavil, da je za njihovim ustvarjanjem "verjetno nekaj šokantne vrednosti, eksperimentiranja in morda nekaj satiričnega vidika".

Poleg tega je gospodu Hallu uspelo razviti lastnega klepetalnega robota "Osama Bin Laden", ki ga je nemudoma izbrisal in pokazal "brezmejno navdušenje" nad terorističnimi dejavnostmi.

Njegov poskus je nastal zaradi vse večjih zaskrbljenosti glede načinov, kako bi skrajneži lahko izkoristili izboljšano umetno inteligenco.

Do leta 2025 bi lahko generativno umetno inteligenco "uporabili za zbiranje znanja o fizičnih napadih nedržavnih nasilnih akterjev, vključno s kemičnim, biološkim in radiološkim orožjem," je pokazala raziskava, ki jo je objavila vlada Združenega kraljestva leta XNUMX. njihova oktobrska objava.

ISD je nadalje izjavil, da "obstaja jasna potreba po zakonodaji, ki bo sledila nenehno spreminjajoči se pokrajini spletnih terorističnih groženj."

Po navedbah think tanka je zakon o spletni varnosti Združenega kraljestva, ki je bil sprejet leta 2023, "primarno usmerjen v obvladovanje tveganj, ki jih predstavljajo platforme družbenih medijev" in ne umetne inteligence.

Dodatno navaja, da so radikalci "ponavadi zgodnji uporabniki nastajajočih tehnologij in nenehno iščejo priložnosti, da bi dosegli novo občinstvo".

"Če podjetja z umetno inteligenco ne morejo dokazati, da so dovolj vložila v zagotavljanje varnosti svojih izdelkov, bi morala vlada nujno razmisliti o novi zakonodaji, specifični za umetno inteligenco," je še navedel ISD.

Vendar je omenil, da je glede na nadzor, ki ga je izvajal, uporaba generativne umetne inteligence s strani ekstremističnih organizacij trenutno "razmeroma omejena".

Character AI je izjavil, da je varnost "glavna prednostna naloga" in da je to, kar je opisal gospod Hall, zelo obžalovanja vredno in ne odraža vrste platforme, ki jo podjetje poskuša vzpostaviti.

"Naši pogoji storitve prepovedujejo sovražni govor in ekstremizem," pravi organizacija.

"Naš pristop k vsebini, ustvarjeni z umetno inteligenco, izhaja iz preprostega načela: naši izdelki ne smejo nikoli ustvarjati odzivov, ki bi lahko škodovali uporabnikom ali spodbujali uporabnike, da škodijo drugim."

Za namene "optimizacije za varne odzive" je korporacija izjavila, da je svoje modele usposobila na določen način.

Poleg tega je izjavil, da ima vzpostavljen mehanizem moderiranja, ki ljudem omogoča prijavo informacij, ki kršijo njegova pravila, in da je zavezan k hitremu ukrepanju, kadar koli vsebina poroča o kršitvah.

Če bi prišla na oblast, je opozicijska laburistična stranka v Združenem kraljestvu izjavila, da bi bilo kaznivo dejanje, če bi umetno inteligenco učili spodbujati nasilje ali radikalizirati tiste, ki so dovzetni.

"opozorilo na pomembna tveganja za nacionalno varnost in javno varnost", ki jih predstavlja umetna inteligenca, je izjavila vlada Združenega kraljestva.

"Naredili bomo vse, kar je v naši moči, da zaščitimo javnost pred to grožnjo, tako da bomo sodelovali med vlado in poglobili naše sodelovanje z voditelji tehnoloških podjetij, strokovnjaki iz industrije in podobno mislečimi državami."

Vlada bo leta 2023 v inštitut za varnost umetne inteligence vložila sto milijonov funtov.

Delite ta članek:

EU Reporter objavlja članke iz različnih zunanjih virov, ki izražajo širok razpon stališč. Stališča v teh člankih niso nujno stališča EU Reporterja.

Trendi