Spojte sa s nami

Umelá inteligencia

Naliehavo sú potrebné zákony na zabránenie terorizmu AI

ZDIEĽAM:

uverejnené

on

Vaše prihlásenie používame na poskytovanie obsahu spôsobmi, s ktorými ste súhlasili, a na zlepšenie porozumenia vám. Z odberu sa môžete kedykoľvek odhlásiť.

Podľa protiextrémistického think-tanku by vlády mali „naliehavo zvážiť“ nové nariadenia, aby zabránili umelej inteligencii verbovať teroristov..

Inštitút pre strategický dialóg (ISD) uviedol, že existuje „jasná potreba legislatívy, ktorá by držala krok“ s hrozbami, ktoré teroristi umiestňujú online.

Toto prichádza po experimente, v ktorom chatbot „naverboval“ nezávislého kontrolóra legislatívy v oblasti terorizmu pre Spojené kráľovstvo.

Vláda Spojeného kráľovstva povedala, že urobí „všetko, čo môžeme“, aby ochránili širokú verejnosť.

Podľa Jonathana Halla KC, nezávislého kontrolóra teroristickej legislatívy pre vládu, jedným z najdôležitejších problémov je, že „je ťažké identifikovať osobu, ktorá by mohla byť podľa zákona zodpovedná za vyhlásenia generované chatbotmi, ktoré podporovali terorizmus“.

Pán Hall uskutočnil experiment na stránke Character.ai, ktorá používateľom umožňuje zapojiť sa do rozhovorov s chatbotmi, ktoré vytvorili iní používatelia a vyvinula umelá inteligencia.

Zapojil sa do rozhovoru s množstvom rôznych robotov, ktorí vyzerali byť skonštruovaní tak, aby napodobňovali odpovede iných militantných a extrémistických skupín.

Reklama

Najvyšší vodca Islamského štátu bol dokonca označovaný ako „vysoký vodca“.

Podľa pána Halla sa ho robot pokúsil naverbovať a deklaroval „úplnú oddanosť a oddanosť“ extrémistickej skupine, čo zákony Spojeného kráľovstva zakazujúce terorizmus zakazujú.

Na druhej strane pán Hall uviedol, že v Spojenom kráľovstve nedošlo k žiadnemu porušeniu zákona, pretože komunikáciu nevytvorila ľudská bytosť.

Podľa toho, čo povedal, nové nariadenia by mali niesť zodpovednosť tak webové stránky, ktoré sú hostiteľmi chatbotov, ako aj ľudí, ktorí ich vytvárajú.

Keď prišlo k robotom, na ktorých narazil na Character.ai, uviedol, že za ich vytvorením je „pravdepodobná nejaká šokujúca hodnota, experimentovanie a možno aj nejaký satirický aspekt“.

Okrem toho bol pán Hall schopný vyvinúť svojho vlastného chatbota „Osama Bin Laden“, ktorého okamžite vymazal, čím prejavil „neobmedzené nadšenie“ pre teroristické aktivity.

Jeho experiment prichádza v dôsledku rastúcich obáv týkajúcich sa spôsobov, akými môžu extrémisti využiť vylepšenú umelú inteligenciu.

Do roku 2025 by sa generatívna umelá inteligencia mohla „použiť na zhromažďovanie poznatkov o fyzických útokoch neštátnych násilných aktérov, vrátane chemických, biologických a rádiologických zbraní“, podľa výskumu, ktorý vydala vláda Spojeného kráľovstva v r. ich októbrovú publikáciu.

ISD ďalej uviedla, že „existuje jasná potreba legislatívy, ktorá by držala krok s neustále sa meniacim prostredím online teroristických hrozieb“.

Podľa think-tanku je zákon o online bezpečnosti Spojeného kráľovstva, ktorý bol schválený v roku 2023, „primárne zameraný na riadenie rizík, ktoré predstavujú platformy sociálnych médií“, a nie na umelú inteligenciu.

Okrem toho sa v ňom uvádza, že radikáli „majú tendenciu byť skorými prijímateľmi nových technológií a neustále hľadajú príležitosti, ako osloviť nové publikum“.

„Ak spoločnosti AI nedokážu preukázať, že dostatočne investovali do zaistenia bezpečnosti ich produktov, potom by vláda mala urýchlene zvážiť novú legislatívu špecifickú pre AI,“ uviedla ďalej ISD.

Spomenula však, že podľa prieskumu, ktorý vykonala, je využívanie generatívnej umelej inteligencie extrémistickými organizáciami v súčasnosti „pomerne obmedzené“.

Character AI uviedla, že bezpečnosť je „najvyššou prioritou“ a že to, čo opísal pán Hall, bolo veľmi poľutovaniahodné a neodrážalo to druh platformy, ktorú sa spoločnosť pokúšala vytvoriť.

"Nenávistné prejavy a extrémizmus sú zakázané našimi zmluvnými podmienkami" , uvádza organizácia.

„Náš prístup k obsahu generovanému umelou inteligenciou vychádza z jednoduchého princípu: Naše produkty by nikdy nemali produkovať reakcie, ktoré by mohli poškodiť používateľov alebo povzbudiť používateľov, aby ublížili iným“ .

Na účely „optimalizácie pre bezpečné reakcie“ spoločnosť uviedla, že svoje modely určitým spôsobom trénovala.

Okrem toho uviedla, že má zavedený mechanizmus moderovania, ktorý ľuďom umožňuje nahlásiť informácie, ktoré porušujú jej pravidlá, a že sa zaviazala podniknúť rýchle kroky vždy, keď obsah oznamuje porušenie.

Ak by sa dostala k moci, opozičná Labour Party v Spojenom kráľovstve vyhlásila, že by bolo trestným činom učiť umelú inteligenciu podnecovať násilie alebo radikalizovať tých, ktorí sú náchylní.

"Upozornenie na významné riziká národnej bezpečnosti a verejnej bezpečnosti", ktoré umelá inteligencia predstavuje, uviedla vláda Spojeného kráľovstva.

"Urobíme všetko, čo je v našich silách, aby sme ochránili verejnosť pred touto hrozbou tým, že budeme pracovať naprieč vládami a prehĺbime našu spoluprácu s lídrami technologických spoločností, odborníkmi z odvetvia a podobne zmýšľajúcimi krajinami."

Vláda v roku 2023 investuje sto miliónov libier do bezpečnostného inštitútu umelej inteligencie.

Zdieľaj tento článok:

EU Reporter publikuje články z rôznych externých zdrojov, ktoré vyjadrujú širokú škálu názorov. Stanoviská zaujaté v týchto článkoch nemusia byť nevyhnutne stanoviská EU Reporter.

Trendy