Menu Zavřít

Pavěda, nebo seriózní výzkum? Umělá inteligence rozpozná homosexualitu

15. 9. 2017
Autor: Profimedia.cz

Umělá inteligence (AI) slouží lidem v mnoha oblastech. Vědci ze Standfordovy univerzity ji však vytrénovali k poměrně kontroverznímu účelu. Vytvořili „gaydar“. Algoritmus, který umí rozeznat gaye a lesby od heterosexuálních mužů a žen. Úspěšnost experimentu byla až 81 procent. LGBTQ organizace se bouří.

Ve studii, na kterou upozornil magazín The Economist vědci Michal Kosinski a Yilun Wang tvrdí, že jejich umělá inteligence je schopna rozpoznat detaily obličeje pro lidské oko nepostřehnutelné. Zároveň nabízejí vysvětlení fyziologických rozdílů mezi gayi a heterosexuály. Při vývoji v děloze je plod vystaven působení hormonů, především testosteronu. Právě ten hraje důležitou roli ve vývoji obličeje.

Kosinski a Wang předpokládají, že právě testosteron hraje podobnou roli i při formování sexuální orientace. Výzkumníci se silně staví proti generalizaci. Výsledky netvrdí, že „všichni gayové jsou zženštilejší než heterosexuálové, nebo že neexistují gayové s extrémně mužskými obličejovými rysy (a naopak v případě leseb)“, uvádí se ve studii.

Výzkumníci „nakrmili“ umělou inteligenci 35 tisíci fotografií téměř 15 tisíc bílých Američanů. Ty získali spolu s informací o sexuální orientaci těchto osob z databáze online seznamky. Specializovaný software VGG-Face je následně rozložil do číselných řad, které reprezentují takzvaný faceprint. Následně se dostala na řadu umělá inteligence, která vytvořila model, v němž nalezla korelaci mezi rysy obličeje a sexuální orientací. U žen se AI zaměřovala nejvíce na nos, koutky a krk. U mužů spíše na oči, tváře a bradu.

Úspěšnější než lidské oko

Při pokusu, ve kterém byly programu předkládány vždy jedna fotografie heterosexuála a jedna gaye, byl schopen určit sexuální orientaci správně v 81 procentech případů. Když mohl počítač vybírat na základě pěti fotografií, úspěšnost vzrostla na 91 procent. V jiných experimentech si umělá inteligence nevedla tak dobře. V další modelové situaci měla ze souboru fotografií tisíce mužů (930 heterosexuálů a 70 gayů) vybrat sto mužů, kteří jsou pravděpodobně homosexuálové, přehlédla 23 gayů. U žen byla úspěšnost ještě nižší.

I tak je umělá inteligence mnohem úspěšnější než lidské oko. Při použití stejné sady fotografií byli lidé schopni určit orientaci 61 procent mužů a 53 procent žen. Tedy jen o něco málo více než při náhodném výběru.

Studie má několik zásadních omezení. Zkoumala pouze bělochy, v potaz nebyli vzati transsexuálové a bisexuálové a zejména zdroj fotografií. Na seznamce budou fotografie vypovídat o sexualitě spíše než v případě jiných zdrojů. Autoři studie si jsou těchto restrikcí vědomi. Sami uznávají, že nevytvořili nic nového, jen použili existující data a nástroje novým způsobem.

Boj proti kriminalitě vs. právo na anonymitu
Na berlínském nádraží Südkreuz probíhá test jiného systému na rozpoznávání obličejů. Software je schopen porovnávat obličeje cestujících s databází v reálném čase. Jde o jednu z reakcí na prosincový teroristický útok v Berlíně, který si vyžádal 12 obětí. Útočníkovi se tehdy podařilo dostat až do Itálie. Cestou ho sice zachytila řada bezpečnostních kamer, ty ovšem nebyly schopné rozpoznat, o koho jde. Úřady si od tohoto systému slibují usnadnění boje proti závažné i drobné kriminalitě.

Ochránci osobních údajů zkoušku kritizují. Obávají se především možnosti orwellovské zneužitelnosti podobných systémů. Navíc prý lidé přicházejí o ústavou zaručené právo pohybovat se na veřejnosti anonymně.

Doktor Kosinski, podle svých slov, výzkum provedl jako varování před tím, čeho je technologie rozpoznávání schopná. Zákonodárci i soukromý sektor by měli určit jasné mantinely toho, co je veřejné a kde začíná soukromí. „(Technologie) nevyhnutelně zapříčiní rozpad soukromí,“ předpovídá budoucnost Kosinski.

Největší zneužití hrozí ve státech, kde je homosexualita nejen společensky nepřijatelná, ale přímo nezákonná. V zemích jako Indie, Kuvajt, Saúdská Arábie nebo Čečensko hrozí gayům a lesbám vysoké tresty včetně hrdelního.

Výzkumník vidí nebezpečí zneužití i v západním světě. Partneři si například mohou chtít ověřit orientaci své polovičky. Při online vyhledávání je prý věta „je můj manžel…“ o deset procent častěji doplněna slovem „gay“ než slovem „nevěrný“.


Eugenika v Tennessee: soudce nabízí trestancům svobodu za sterilizaci

 Ilustrační foto


Kosinski není v kontroverzních výzkumech nováčkem. Na poli psychometrického profiligu, což je technika získávání informací o osobnosti na základě dat z facebooku a dalších sociálních sítí, patří k veteránům. Tento postup úspěšně použil například Donald Trump při své prezidentské kampani.

Proti studii vystoupily americké organizace GLAAD a HRC hájící práva LGBTQ osob. Jejich výtky se soustředily zejména na slabiny studie, na které upozornili její tvůrci. Výsledky studie označili za chybné a nebezpečné. „Technika neumí rozpoznat sexuální orientaci,“ prohlásil šéf digitalizace GLAAD Jim Halloran. Podle aktivistů výzkum prokázal pouze módní trendy v účesech a vzezření. „Výsledky studie mohou být použity jako zbraň, která ublíží heterosexuálům, kteří by byli chybně označeni, stejně jako gayům a lesbám,“ dodal Halloran.

FIN25

Po vlně kritiky se Journal of Personality and Social Psychology, ve kterém měla studie vyjít, rozhodl prověřit sporné etické otázky. „Probíhá zhodnocení etiky,“ řekl editor Journalu Shinobu Kitayama webu theOutline.com. Výsledky by měly být známy za několik týdnů.

Dále čtěte:

Hra o trůny ve spárech robotů. Další díl píše umělá inteligence

První skutečně chytrý robot bude prostitutka

Esej: Inteligence a opium


  • Našli jste v článku chybu?