Falešný Joe Biden i hudba bez souhlasu umělců. Umělá inteligence je i bezpečnostním rizikem

UMĚLÁ INTELIGENCE

Falešný Joe Biden i hudba bez souhlasu umělců. Umělá inteligence je i bezpečnostním rizikem
Technologie klonování hlasu umělou inteligencí se v posledních letech rychle vyvíjí. Ilustrační snímek. Foto: Shutterstock
1
Svět
Sdílet:

Technologie klonování hlasu pomocí umělé inteligence se v posledních letech rychle vyvíjí a stává se uživatelům čím dál tím dostupnější. Nový průzkum ukázal, že většina předních nástrojů pro klonování hlasů nemá dostatečně silné ochranné mechanismy, které by bránily lidem v předstírání identity bez souhlasu dané osoby. Podle průzkumu Consumer Reports mohou uživatelé snadno obejít ochranná opatření a neoprávněně zneužít hlas někoho jiného. O zprávě informují NBC News.

Klonování hlasu AI využívá software, který na základě několika sekund dlouhého vzorku napodobí hlas konkrétní osoby. Software je efektivní a navíc dokáže přesně zachytit rytmus i intonaci mluvy. Podobné AI technologie vyvolaly již v minulosti značné kontroverze ohledně etičnosti jejich využívání. Stalo se tak například během demokratických primárek, kdy hlas falešného Joea Bidena telefonoval lidem s prosbou, aby ho nevolili. Tento incident vedl k pokutě 6 milionů dolarů (asi 135 milionů Kč) pro politického poradce zodpovědného za vzniklou situaci. Také došlo na kompletní zákazu robotických hovorů generovaných umělou inteligencí ze strany Federální komise pro komunikace.

Průzkum šesti veřejně dostupných nástrojů pro klonování hlasů ukázal, že pět z nich má ochranná opatření, která lze snadno obejít. Služby včetně ElevenLabs, Speechify, PlayHT a Lovo požadují pouze zaškrtnutí políčka potvrzujícího, že osoba, jejíž hlas je použit, poskytla svůj souhlas. Služba Resemble AI vyžaduje nahrávání zvuku v reálném čase, což je ale snadno možné obejít přehráváním zvukového záznamu. Jediná služba, která se ukázala jako bezpečnější, byla Descript, ta požaduje konkrétní prohlášení o souhlasu, což je těžší zfalšovat.

Klonování hlasu může mít i prospěšné využití. Pomáhá lidem s postižením nebo vytváří překlady napříč různými jazyky. Nicméně, jak upozorňuje Sarah Myers West, spoluvýkonná ředitelka AI Now Institute, existuje také vážný potenciál pro zneužití technologie k podvodům a dezinformacím, jak tomu bylo právě s falešnými hovory Joe Bidena.

Bezpečnostní otázky týkající se klonování hlasu jsou stále aktuální. „Uvědomujeme si potenciál zneužití tak silného nástroje a zavedli jsme bezpečnostní opatření, abychom zabránili vytváření deepfakes a chránili lidi před nedovoleným napodobováním jejich hlasu,“ uvedl mluvčí Resemble AI. I přes tato opatření však existují obavy o etické důsledky této technologie.

Zneužívání klonovaných hlasů se neomezuje pouze na podvody. Technologie byla také použita k vytvoření hudby bez souhlasu umělců, což vedlo k virálním písním, které se falešně zdály být od známých interpretů včetně Drakea a The Weekenda. Někteří hudebníci se nyní snaží chránit svůj obraz před zneužitím jejich hlasů a neautorizovaným používáním jejich jmen.

Sdílet:

Hlavní zprávy

Weby provozuje SPM Media a.s.,
Křížová 2598/4D,
150 00 Praha 5,
IČ 14121816

Echo24.cz

×

Podobné články