Menu Zavřít

Deepfakům věříme víc než lidem, prokázala studie. Lidé tváře generované umělou inteligencí od skutečných nepoznají

24. 2. 2022
Autor: Jen jeden z těchto obličejů je skutečný. Který? Foto: whichfaceisreal.com
  • Výzkumníci z Univerzity v Texasu provedli pokus, při němž předložili 315 respondentům soubor 128 tváří a chtěli, aby zkusili rozpoznat, které obličeje vygenerovala umělá inteligence. Lidé měli v testu horší skóre, než kdyby odpovídali náhodně

  • Z výzkumu vyplývá, že náš mozek má sklony vnímat průměrné falešné tváře jako důvěryhodnější než opravdové osoby. To přirozeně nahrává podvodníkům

  • Autoři studie v návaznosti na svá zjištění volají po zpřísnění pravidel pro zveřejňování technologie na tvorbu deepfaků


V roce 2018 ohromila firma Nvidia svět umělou inteligencí (AI), která v řádu vteřin renderovala zcela realistické portréty osob, jež nikdy nežily. Vývojáři při tvorbě tohoto algoritmu vsadili na generativní adversariální síť (GAN), která se skládá ze dvou oddělených neuronových sítí. Ty proti sobě musí soutěžit – jedna tvoří co nejdokonalejší padělky a druhá je odhaluje. Po chvíli se obě v činnosti zdokonalí tak, že si začnou předkládat opravdu velmi věrohodné iluze.

Jak GAN s uplynulými čtyřmi roky tréninku naložila, je dobře známé - výsledky její tvorby se do povědomí veřejnosti dostaly pod názvem deepfake. Pozornost pak vzbudilo především několik kauz s falešnými záběry politiků, pokusy o různé podvody nebo tváře celebrit naroubované do pornografických filmů. Všechny tyto aféry podkopávají důvěru v online média a v pravost fotografií či videí.

AI poráží lidi, aniž by se o to snažila

Řešením výše uvedeného problému by sice mohla být nová umělá inteligence, která by deepfake záběry odhalovala, ale ačkoli se několik technologických společností pokouší o její naprogramování, zatím selhává i při mnohem jednodušších úkolech, než je prohrabování se virtuálními tunami vizuálního materiálu. Ba co víc, o moc lépe na tom nejsou asi sami lidé.

Dokládá to výzkum Sophie J. Nightingalové a Hanyho Farida, dvou vědců z Univerzity v Texasu, kteří se počítačovou vědou a biologií zabývají dlouhodobě. Výzkumníci v prestižním časopise PNAS publikovali studii, z níž vyplývá, že ačkoli se o to programy na tvorbu deepfake fotografií nijak nesnaží, důvěřujeme počítačem generovaným tvářím víc než těm skutečným.

Voicebot z dílny českého startupu Vocalls je téměř k nerozeznání od živých operátorů. Jako první na světě v projevu používá emoce
Přečtěte si také:

Voicebot z dílny českého startupu Vocalls je téměř k nerozeznání od živých operátorů. Jako první na světě v projevu používá emoce

Jejich bádání se zúčastnilo 315 dobrovolníků z crowdsourcingové platformy Amazon Mechanical Turk. Každý z nich byl požádán, aby si pozorně prohlédl 128 portrétů z kombinovaného datasetu a rozhodl, které z nich jsou falešné. Průměrná úspěšnost při tomto úkolu činila 48 procent – tedy méně než polovinu, jíž by lidé statisticky měli dosáhnout, kdyby klikali náhodně. Jinými slovy, úspěšnost těchto lidí při rozlišování uměle vytvořených tváří buď odpovídala slepému hádání, nebo jim dokonce iluze připadaly věrohodnější než reálné fotografie.

„Na základě výsledků jsme vyhodnotili, že stroje generující fotorealistické obličeje prošly vývojem, jemuž zcela nerozumíme. Nyní však dokážou vytvořit tváře zcela nerozeznatelné od skutečných lidí, které navíc působí ještě důvěryhodněji,“ píší vědci. Při testech použili obličeje generované softwarem od zmíněné firmy Nvidia. Celkově jich měli čtyři sta, dvě stovky žen a dvě stovky mužů. Rovnoměrně byly zastoupeny i všechny etnické skupiny – běloši, černoši, Asiaté i Arabové.

Nepomohla ani intuice

Protože deepfaky vždycky mívaly charakteristické chyby, podle nichž se daly odhalit, rozhodli se vědci ve výzkumu pokračovat dalším experimentem. Tentokrát najali 219 lidí a udělali jim krátké školení ohledně toho, na co se mají zaměřit, než se pustí do hodnocení stejného množství obličejů jako v rámci ,prvního kola‘. Jejich úspěšnost však stoupla jen mírně, a sice na 59 procent.

Při posledním pokusu se proto vědci rozhodli spolehnout na něco, co žádný stroj napodobit nemůže - na intuici. Při svém bádání se soustředili na to, zda si náš mozek důvěru a nedůvěru neujasní podvědomě během zlomku vteřiny na základě naučených vzorců. Když ale vědci dalším 223 ,pokusným králíkům‘ předložili 128 tváří s požadavkem, aby zhodnotili jejich důvěryhodnost, získaly ty falešné o osm procent lepší skóre. To je malý, ale statisticky znepokojivý rozdíl.

Brečet nad rozlitým mlékem

Hlavním účelem, za kterým deepfake obrazy a videa vznikají, jsou podvody a jiné nekalé praktiky. Mají za úkol lidi oklamat, a pokud máme přirozenou tendenci jim věřit, nacházíme se na cestě do problému. Nejde totiž jen o videa celebrit, s deepfake fotografiemi se policisté často setkávají na falešných dokladech a profilech na sociálních sítích.

Vítězství stroje nad člověkem? Umělá inteligence zabodovala v soutěži programátorů
Přečtěte si také:

Vítězství stroje nad člověkem? Umělá inteligence zabodovala v soutěži programátorů

Podle výzkumníků falešné obličeje budí důvěru, prostě protože jsou průměrné. Virtuální tváře jsou v podstatě kompilátem desítek tisíc reálných osob, a tak připomínají jakéhosi modelově obyčejného člověka. A vědcům při pohledu na čtyři tváře, které byly hodnoceny jako nejdůvěryhodnější (tři z nich byly umělé) a analogicky nejméně důvěryhodné (všechny skutečné), došlo, že většina účastníků měla tendenci důvěřovat lidem, kteří ničím nevyčnívají.

Nightingalová a Farid proto apelují na výrobce technologie, jež umožňuje vytvářet deepfaky, aby zvážili, zda její přínosy stále ještě převažují nad riziky. Dále volají po zavedení průmyslových opatření, jež by mohla obnášet například automatické označení umělých tváří nesmazatelným vodoznakem. „Největší nebezpečí tkví v tom, že takto výkonná technologie bude přístupná každému. Proto neradi vidíme, když jsou kompletní kódy k ní zveřejňovány, aby je mohl kdokoli použít,“ uvedli autoři studie.

MM25_AI

A jak zní odpověď na otázku pod úvodní fotografií? Skutečným člověkem je muž vlevo.

  • Našli jste v článku chybu?