Ačkoli nám umělá inteligence (AI) má v mnoha ohledech zjednodušit život, nese s sebou i několik potenciálních rizik. A nemusí jít přitom zrovna o robotickou apokalypsu, kterou známe ze sci-fi snímků. Větší nebezpečí tato technologie aktuálně představuje v mnohem nenápadnější oblasti. Stává se totiž ,vděčným‘ nástrojem pro šíření dezinformací, především pak na sociálních sítích.
Naplno se tato stinná stránka aktuálně projevuje třeba v rámci americké prezidentské kampaně, kdy sítě zaplavují obsahy generované umělou inteligencí. Takovýto příspěvek byl naposledy zveřejněn třeba v rámci programu guvernéra Floridy Rona DeSantise. Konkrétně se jednalo o video, jež zachycuje bývalého šéfa Bílého domu a současného kandidáta Donalda Trumpa, jak objímá tehdejšího ředitele Národního institutu pro alergie a infekční nemoci Anthonyho Fauciho, kterého chtěl v případě vítězství ve volbách údajně vyhodit z funkce. Video podle všeho využívalo obrázky generované AI, zároveň však upozorňovalo na to, že se jedná o skutečného Trumpa.
Jakmile se obsah začal šířit po sociálních sítích, organizace ověřující fakta je rychle označila za falešný. Twitter, který pod novým vlastníkem Elonem Muskem v posledních měsících snížil počet svých zaměstnanců, nicméně video ani tak neodstranil. Místo toho k příspěvku jen přidal poznámku, jež uživatele média upozorňuje, že část videa je tvořena umělou inteligencí.
A bude ještě hůř
Podle odborníků na integritu digitálních informací jde jen o začátek, s postupujícími kampaněmi bude podobných příspěvků přibývat, což v konečném důsledku může ovlivnit výsledky voleb. Nástroje umělé inteligence totiž kromě textu a přesvědčivých obrázků dnes umožňují generovat i stále dokonalejší videa a zvuk.
„Kampaně se začínají rozbíhat, volby se rychle blíží a technologie se rychle zdokonalují. Již jsme viděli důkazy o tom, jaký dopad může umělá inteligence mít,“ komentuje pro CNN profesor na Washingtonské univerzitě a spoluzakladatel Centra pro informovanou veřejnost Jevin West.
A kdo za obsah na sociálních sítích odpovídá? Dle některých padá část viny přímo na platformy, na nichž se obrázky a videa šíří. Problémem však je, že sociální sítě i vlivem propouštění svých zaměstnanců na kontrolu obsahu nestačí. Umělá inteligence se navíc vyvíjí superrychlým tempem, k čemuž jí nahrává mimo jiné fakt, že navzdory výzvám nezavedli američtí zákonodárci a regulační orgány dosud žádné účinné ochranné prvky.
„Nejsem si jistý ani jejich schopností vypořádat se se starými typy hrozeb. A nyní se objevují hrozby nové,“ konstatuje výzkumník AI a etický poradce Institutu pro psychologii technologií David Evan Harris, který s technologií umělé inteligence dříve pracoval ve společnosti Meta.
Redakce CNN se nechala slyšet, že ji představitelé hlavních sociálních sítí informovali o zavedení zásad, pomocí kterých dezinformace řeší. S poskytnutím rozhovoru někoho, kdo na detekci smyšleného obsahu pracuje, nicméně nesouhlasili. „Tyto platformy nebyly připravené v minulosti a nemáme absolutně žádný důvod se domnívat, že budou připravené nyní,“ uvádí Bhaskar Chakravorti, děkan globálního obchodu na Fletcherově škole práva a diplomacie, jež je součástí Tuftsovy univerzity.
Novinka? Rozhodně ne
Nutno podotknout, že zavádějící obsah vznikající v souvislosti s volbami rozhodně není ničím novým. Kvůli stále pokročilejší umělé inteligenci bude jeho rozpoznání od skutečnosti nicméně stále obtížnější. Riziko navíc představuje spolupráce různých forem této technologie, díky kterým by se falešné informace mohly stát ještě důvěryhodnějšími – například pokud by falešný článek napsaný AI doprovázely fotky ,dokazující‘ to, co ve zprávě stojí.
Jinými slovy, nástroje umělé inteligence by mohly být užitečné víceméně pro kohokoli, kdo chce ostatní uvést v omyl. Zatímco dříve byly ve spojení s dezinformačními volebními kampaněmi najímány celé organizované skupiny, dnes může jeden člověk nasadit tisíce generativních botů, kteří budou pumpovat obsah napříč sociálními sítěmi.
Varování ve spojitosti s dezinformacemi nedávno vydala i společnosti OpenAI stojící za populárním chatbotem ChatGPT. Platforma TikTok zase na začátku tohoto roku zavedla zásady, které stanovují, že obsah vytvořený umělou inteligencí musí být jasně označen, a rovněž zakazuje šíření zavádějících informací týkajících se nejen volebních procesů, ale i obecných informací.
Obsah, jenž byl zmanipulován nebo upraven způsobem, který by uživatele mohl zmást, pak zakazuje i YouTube. „Technicky zmanipulovaný obsah, včetně toho volebního, který uvádí uživatele v omyl a může představovat vážné riziko vzniku závažné škody, není na YouTube povolen,“ píše CNN s odkazem na prohlášení mluvčí platformy Ivy Choiové. Ta mimo jiné informuje, že zásady YouTube prosazuje pomocí strojového učení i lidského přezkumu.
Opatření existují, ale fungují vůbec?
Meta Marka Zuckerberga se nepravdivá tvrzení údajně snaží odstraňovat, ať už je jejím autorem umělá inteligence, či člověk. Kromě toho se firma společně s TikTokem připojila ke skupině partnerů z technologického průmyslu, kteří se pod organizací Partnership on AI věnují vývoji rámce pro odpovědné využívání ,syntetických‘ médií.
Twitter po Muskově převzetí proces moderování obsahu omezuje a místo toho se více opírá o funkci s označením poznámky komunity. Ta uživatelům umožňuje kritizovat správnost a případně i přidávat kontext k příspěvkům jiných lidí. Na svých webových stránkách společnost rovněž uvádí, že má zásady pro syntetická média, podle kterých si vyhrazuje právo nepravdivé informace smazat.
Více než zavedení těchto opatření však představuje problém jejich následné provedení. Odborníci se obávají, že systémy platforem pro detekci počítačem generovaného obsahu mohou mít problém držet s technologickým postupem krok. Ostatně, s vytvořením služeb, jež by nevhodný obsah dokázaly spolehlivě rozpoznat, bojují i samy firmy zabývající se přímo vývojem generativní umělé inteligence.