Boj proti deepfake. Španělsko chce vysoké pokuty za použití umělé inteligence bez označení
UMĚLÁ INTELIGENCE
Španělská vláda v úterý schválila zákon, který ukládá vysoké pokuty společnostem, jež používají obsah generovaný umělou inteligencí (AI) bez řádného označení. Tento krok má za cíl omezit zneužívání tzv. "deepfake" technologií. Informovala o tom agentura Reuters.
Nový zákon přejímá směrnice z klíčového evropského aktu o umělé inteligenci, který ukládá přísné povinnosti transparentnosti pro systémy umělé inteligence považované za vysoce rizikové, uvedl ministr pro digitální transformaci Óscar López na tiskové konferenci. "Umělá inteligence je velmi mocný nástroj, který může být využit k vylepšení našich životů ... nebo k šíření dezinformací a útokům na demokracii," uvedl López.
Španělsko patří mezi první země EU, které začínají implementovat pravidla bloku, která jsou považována za komplexnější než systém Spojených států, jenž se do značné míry spoléhá na dobrovolné dodržování a roztříštěnou regulaci na úrovni jednotlivých států.
López dodal, že všichni jsou zranitelní vůči "deepfake" útokům - pojmenování pro videa, fotografie či zvukové nahrávky, které byly upraveny nebo vytvořeny pomocí AI algoritmů, ale jsou prezentovány jako skutečné.
Navrhovaný zákon, který musí ještě schválit dolní komora parlamentu, klasifikuje neoznačení obsahu generovaného umělou inteligencí jako "vážný přestupek", za který mohou společnosti čelit pokutě až 35 miliónů eur (38,2 miliónu dolarů) nebo 7 % jejich globálních ročních příjmů.
Zajištění toho, aby systémy umělé inteligence neškodily společnosti, se stalo prioritou regulátorů od doby, kdy OpenAI koncem roku 2022 uvedla ChatGPT, který uživatele ohromil svou schopnost komunikovat podobně jako člověk a plnit různé úkoly.
Nový zákon také zakazuje určité praktiky, jako je použití podprahových technik - zvuků a obrazů, které jsou nepostřehnutelné - k manipulaci zranitelných skupin. López uvedl příklady chatbotů, kteří podněcují lidi se závislostmi k hazardu, nebo hraček vybízejících děti k nebezpečným výzvám.
Zákon by také zabránil organizacím třídění lidí podle jejich biometrických dat pomocí AI a hodnocení jejich chování či osobnostních vlastností za účelem přístupu k výhodám nebo posouzení rizika spáchání trestného činu.
Nicméně orgány budou i nadále moci používat biometrický dohled v reálném čase na veřejných místech z důvodu národní bezpečnosti.
Prosazování nových pravidel bude v kompetenci nově vytvořeného dozorčího orgánu pro AI, AESIA, s výjimkou případů týkajících se ochrany soukromí dat, kriminality, voleb, kreditního hodnocení, pojišťovnictví nebo kapitálových trhů, které budou dohlížet příslušné regulační orgány.