Minulý týden sexuálně explicitní deepfake obrázky Taylor Swift údajně vyrobeno využívající umělou inteligenci byly šířeny po sociálních sítích. Byl to jen nejnovější – a nejviditelnější – příklad rostoucího nebezpečí deepfake a digitálního obtěžování.
Swift není první ženou, které se to stalo, a nebude ani poslední. Dá se s jistotou říci, že téměř každá další oběť pornografického deepfakeu má méně zdrojů než miliardová popová hvězda s miliony fanoušků po celém světě, kteří jsou velmi online a mají o tom znalosti. Ale skutečnost, že se to může stát dokonce i Taylor Swift přineslo tomuto problému a širšímu publiku obnovenou pozornost. Je to dokonce skokový start federální legislativy pro boj proti zneužívání, říkají obhájci.
V úterý američtí senátoři představili dvoustranu Zákon o narušení explicitních padělaných obrázků a nesouhlasných úprav z roku 2024 (zákon DEFIANCE) k řešení a odrazení od nekonsensuální hluboké falešné pornografie. Návrh zákona by umožnil obětem „digitálního padělání“ – „vytvořeného pomocí softwaru, strojového učení, umělé inteligence nebo jakýchkoli jiných počítačově generovaných nebo technologických prostředků, aby se falešně jevily jako autentické“ – žalovat pachatele civilně, a dát jim tak poprvé příležitost domáhat se spravedlnosti.
Oběti nekonsensuální hluboce falešné pornografie neměly velký úspěch při žalování lidí, kteří vytvářejí, distribuují nebo vybízejí k hluboce falešné pornografii, podle Omny Mirandy Martone, která na návrhu zákona jako zakladatelka a generální ředitelka spolupracovala se zákonodárci. Asociace pro prevenci sexuálního násilí (SVPA) . Tato technologie je stále poměrně nová a stejně jako u jiných společenských problémů týkajících se technologií je třeba dohnat zákony. Mezitím technologie pokročila, aby bylo pro kohokoli ještě jednodušší vytvářet deepfakes generované AI.
Množství sexuálního násilí proti běžným jednotlivcům raketově vzrostlo.
Až před dvěma lety. . . někdo potřeboval mít výkonný počítač, potřeboval vědět hodně o technologii a umět pracovat s matoucím systémem a potenciálně si systém i sám postavit. A potřebovali spoustu fotek oběti, aby to vypadalo realisticky,“ vysvětluje Martone. „Technologie umělé inteligence však výrazně pokročila a je v bodě, kdy kdokoli může vytvořit skutečně realisticky vypadající nekonsensuální, hluboce falešnou pornografii pomocí jedné nebo dvou fotografií. Nepotřebují vědět mnoho o technologiích, mohou jednoduše přejít do aplikace nebo webové stránky na svém telefonu nebo počítači a udělat to během několika sekund.“
To je dnes ohromující, vzhledem k tomu, že v roce 2017 jeden z osmi Uživatelé sociálních médií uvedli, že jsou cílem nedobrovolné pornografie a jeden z 20 dospělých na sociálních sítích byl pachatelem. Iniciativa pro kybernetická občanská práva .
Vzhledem k těmto technologickým pokrokům – a skutečnosti, že „kdokoli s přístupem k internetu jej může snadno vytvořit“ – „množství sexuálního násilí proti běžným jednotlivcům raketově vzrostlo,“ říká Martone. Celebrity byly nejčastějším cílem kvůli dostupnosti jejich obrázků. „Nyní však [pachatelé] potřebují jen pár fotografií, které mohou získat z něčího LinkedInu, sociálních médií nebo webových stránek své společnosti,“ vysvětluje Martone.
Podle Margaret Mitchellové, bývalé spoluvedoucí týmu Google pro etické umělé inteligence, to pro ženy nepřiměřeně poškozuje. „Je to extrémně porušující, má to na vás extrémně traumatický psychologický účinek, pokud jste toho obětí. Je také objektivizující, takže ovlivňuje ostatní lidi, aby vás viděli skrze sexuální čočku na rozdíl od profesionální čočky. Pak to znamená, že to může ovlivnit příležitosti,“ řekla 247CM.
„Ženy už bojují o to, aby byly vnímány jako vůdkyně a aby je na pracovišti braly vážně. Když se tento druh obsahu vznáší, může to ovlivnit to, jak se ženy dokážou povýšit, dostat se na více vedoucích pozic,“ pokračuje Mitchell, který je nyní hlavním vědcem pro etiku v Hugging Face, otevřené platformě pro stavitele umělé inteligence. Proniká do tolika věcí způsobem, který může být někdy opravdu těžké vysledovat, ale zásadně ovlivňuje to, jak se vidíte, jak se cítíte a jak se k vám ostatní lidé chovají.
V případě Swifta snímky pocházely z 4kanál a skupina na Telegramu používaná k distribuci urážlivých obrázků žen, uvedly 404 Média . Designer, bezplatný generátor umělé inteligence společnosti Microsoft, se podle zdroje často používá k výrobě nekonsensuálního obsahu. V reakci na zprávy Microsoft uzavřel střílnu což Designeru umožnilo vytvořit porno celebrit vytvořené umělou inteligencí.
Obrázky ale mezitím rychle zaplavily X, dříve známý jako Twitter. V neobvyklém příkladu moderování obsahu v éře Elona Muska zavedl X dočasný blok pro vyhledávání ‚Taylor Swift‘, který zpomalil šíření, ale nebyl schopen odstranit všechny obrázky, CBS News hlášeno . Reakce X následovala zástupy Swifties, které hlásily příspěvky a požadovaly, aby je stránka odstranila. Stalo se to také poté, co byly příspěvky již rozšířeny – jeden již zaznamenal 45 milionů zhlédnutí, 24 000 retweetů a stovky tisíc lajků a záložek za 17 hodin, než byl účet tohoto ověřeného uživatele pozastaven, uvádí The Verge . V pondělí 29. ledna blok vypršel.
Ačkoli SVPA již nějakou dobu spolupracuje s Kongresem – Martone říká, že minulý rok poslali otevřený dopis, ve kterém je vyzývali, aby se této záležitosti ujali – Martonemu se zdá, že „nepodnikli žádné kroky, dokud se zprávy o Taylor Swift nedostaly opravdu do velké míry“.
I když máte pocit, že se o vaše obrázky nikdo nestará, AI se stará.
Přesto většina obětí nekonsensuální pornografie není příliš známá. Většina z nich jsou ženy a mnozí zastávají marginalizované identity, ať už jde o jejich rasu, etnický původ nebo sexuální orientaci. SVPA například spolupracovala se ženou, která jako vysokoškolačka cvičila v tělocvičně, když ji udeřil muž, kterého odmítla. O několik týdnů později si jiný člen tělocvičny odtáhl ženu stranou, aby jí dal vědět, že muž, kterého odmítla, z ní udělal hluboce falešnou pornografii – a ukazoval to ostatním členům v posilovně a zveřejnil to na Instagramu, kde se jí to podařilo stáhnout. Martone říká, že nedávno z nich vyrobili deepfake porno, vzhledem k jejich práci na tomto problému.
Bez legislativy je těžké dospět k nápravě. Protože je problematický obsah uznáván jako falešný, nepovažuje se za pomluvu, dodává Martone.
V každém případě bychom jako společnost měli všichni pracovat na tom, abychom zabránili vytváření a sdílení nekonsensuálního obsahu, říkají odborníci. Myšlenka, že problém narůstá a že je nemožné vrátit džina zpět do láhve, by neměla podporovat pocit nevyhnutelnosti nebo otupělosti.
Pro ty, kteří si myslí, že by se nikdy neocitli v takové situaci, Mitchell také zdůrazňuje, že tato technologie umožnila, aby se stala tak běžnou, že by to mohlo ovlivnit kohokoli.
Jak to vysvětluje Mitchell: „Lidé by si měli být vědomi toho, že jakýkoli obsah, který umisťují online, by mohl být potenciálně smeten soukromými osobami nebo korporacemi, aby mohl být použit jako součást školení AI. Nemusí se tedy stát, že by nějaká rodinná fotka na Facebooku byla něčím, co bude zajímat širokou veřejnost. Ale to není otázka. Otázkou je, zda tento obsah převezme masivní technologická korporace způsobem, který může pomoci dále objektivizovat ženy?'
Nakonec je to technologie, které si musíte být vědomi a mít na ně pozor. „I když máte pocit, že se o vaše obrázky nikdo nestará, AI se stará,“ říká Mitchell. Systémy umělé inteligence je stále mohou zamést, stále je lze použít k tomu, aby vás zkreslily, a stále je lze použít v jakékoli situaci pomsty a v jakékoli situaci, kdy máte někoho, kdo bude podobným zákeřným hercem, vám může osobně ublížit.