Menu Zavřít

Esej: V rytmu algoritmu

Autor: Richard Cortés

Vybíráme si ještě informace my, nebo ony nás?

Zakladatel Facebooku Mark Zuckerberg se v roce 2018 veřejnosti svěřil se
svým přáním, aby lidé trávili na jeho sociální síti čas „lépe“. Někteří z nás
by možná řekli, že se to povedlo. Díky neustále zdokonalovanému algoritmu nám
naše facebooková hlavní stránka více než dřív nabízí příspěvky, které nás
zajímají. I když jsme po kauze Cambridge Analytica (kdy byly informace o
uživatelích Facebooku zneužity k cílené politické reklamě) pochopili, že
nakládání s našimi osobními daty je nutná daň za možnost využívat sociální
sítě, asi si stále dobře neuvědomujeme, jak Facebook využívá naše data k
naplnění svého byznys modelu.

Ten spočívá v udržení naší pozornosti po co nejdelší dobu, a tak může algoritmus (aniž bychom to tušili) ovlivnit způsob, jakým přijímáme informace o politice a aktuálním dění, čím dál více nás uzavírat do takzvaných filtračních bublin, utvářet třeba i přehnanou představu o tom, jak hluboce je naše společnost rozdělená a zesilovat obavu z toho, jak znesvářené jednotlivé tábory jsou.

Filtrované informace

Pojem filtrační bublina poprvé použil Eli Pariser, autor knihy The Filter
Bubble: What the Internet Is Hiding from You, v roce 2011. Jde o informační
izolaci v online prostředí, kterou způsobují algoritmy, jaké používá například
Facebook nebo Google. K uvědomění, jak moc filtrované informace k nám v online
prostředí přicházejí, mu pomohl experiment, který provedl v prostředí
internetového vyhledávače Google. Požádal dva své přátele s odlišnými
politickými názory, aby zadali do vyhledávače totožný pojem, a sledoval
rozdílné výsledky, které díky personalizovanému algoritmu vyhledávač uživatelům
nabídl.

Algoritmus Facebooku příspěvky řadí podle toho, jak relevantní pro konkrétního uživatele jsou. Dříve algoritmus předpovídal na základě naší interakce s daným uživatelem, stránkou, skupinou nebo například společnými přáteli, jaké příspěvky nás budou nejspíše zajímat. Na základě průzkumů mezi svými uživateli teď Facebook svůj algoritmus ještě více personalizoval. K úpravě algoritmu pomohly také opakující se vzorce, které podle průzkumů pojí na sociální síti blízké přátele. Jsou to například reakce na stejné příspěvky, označení obou lidí na stejných fotkách nebo účast na stejných facebookových událostech.

Výsledkem je, že Facebook zřejmě dokáže lépe předpovídat, od kterých přátel
si přejeme vidět nejvíce, a možná se tak naplní vize Marka Zuckerberga, že
budeme mít pocit lépe stráveného času na sociální síti. Nevyhnutelným vedlejším
jevem je ale to, že přijímáme proud podobných informací, ve kterém chybí
názorová konfrontace.

Past přátelství

Samozřejmě vždycky bylo přirozeností člověka seskupovat se s lidmi, kteří
jsou mu názorově a jinak blízcí. Je ale taky dobré si přiznat, že sociální sítě
jako Facebook nás v tom mnoha způsoby podporují. Můžete namítnout, že mezi vašimi
facebookovými přáteli jsou i lidé s opačným politickým názorem. Ani to ale
nemusí zajistit pestrost informací.

Příspěvky přátel řadí algoritmus i podle toho, na koho nejčastěji reagujete. I to Facebooku pomáhá udržet vás na sociální síti co nejdéle a ukázat vám co nejvíce reklam. V praxi to ale znamená, že vídáte nejčastěji příspěvky určitého okruhu přátel nebo z některých skupin, jichž jste členem a jste v nich nejvíce aktivní.

Eli Pariser si ve své zmíněné knize na tuto praxi stěžuje. „Zaznamenal jsem,
že moji konzervativní přátelé zmizeli z mé hlavní facebookové stránky.
Politicky se kloním k levici, ale rád si poslechnu, co si lidé s opačným
názorem myslí. Jenže jejich příspěvky se nikdy neobjevily v úvodu mé
facebookové stránky. Facebook podle všeho zaznamenává, že na odkazy svých
liberálních přátel klikám častěji než na ty od konzervativních přátel,“ píše.

Že tohle vaši politickou informovanost neovlivňuje, protože si informace
vyhledáváte aktivně sami i mimo Facebook?

Jsou samozřejmě skupiny obyvatel, které díky svým dlouhodobým návykům mohou přijímat pestré a vyvážené informace „navzdory“ tomu, že jsou aktivní na sociální síti. Sami se ale zamyslete, jaký je poměr článků, které si sami vyhledáte na zpravodajských webech, a těch, které rozkliknete, protože je sdílí na Facebooku někdo z vašich přátel.

143 minut

V prostředí českého Facebooku najdeme desítky názorových skupin s politickým obsahem s desetitisíci členů, kde lidé sdílejí denně mnoho příspěvků. „Liberální lumpenkavárna“, „Babiš je náš premiér <3“ a další skupiny poskytují uživatelům pocit silné komunity, i pokud jsou se svým názorem osamoceni ve svém okolí v reálném životě. Uživatelé bez ohledu na to, které názorové skupiny jsou členy, připouštějí, že jim Facebook usnadňuje informovat se o politice a aktuálním dění.

Jenže Facebook sám vybere informace, které je zajímají, nemusejí se namáhat
a hledat je. Jsou tak ochuzeni o možnost narazit na informace z opačného
ideového tábora. Toto utvrzování vlastního názoru uživatele ponouká k tomu, že
častěji komentují příspěvky nebo je sdílejí „z pozice síly“. Lidé pak na
Facebooku ventilují především extrémní emoce.

Můžeme se ptát, nakolik to může zkreslovat náš pohled na míru rozdělení naší společnosti. Podle AMI Digital Index 2019, který si zpracovává společnost AMI Digital ve spolupráci s agenturou STEM/MARK, je průměrná doba, kterou Češi stráví na sociálních sítích, 143 minut denně. Skupina, která používá sociální sítě nejčastěji, jsou lidé ve věku 15 až 29 let. Loňský průzkum Generace svobody, který popisoval postoje lidí narozených po sametové revoluci, ukázal, že sociální sítě jsou primárním zdrojem informací o aktuálním dění pro 44 procent mladých ve věku 18 až 30 let.

Můžeme předpokládat, že u mladších bude nejspíše procento ještě vyšší.
Dalších 24 procent pak s tvrzením nevyjádřilo ani souhlas, ani nesouhlas. I pro
velkou část z nich tak mohou být sociální sítě hlavním zdrojem informací. Jen
55 procent mladých se přitom podle tohoto průzkumu snaží vědomě vyhledávat i
informace, které nekorespondují s jejich názorem. I kdybychom filtrování
informací nepovažovali za problém my, existují minimálně indicie, že pro další
generace to problém být může.

Přestože výzkum STEM/MARK pro Českou televizi přisoudil pravidelným
uživatelům sociálních sítí vyšší mediální gramotnost, nebezpečí facebookových
algoritmů může spočívat především v tom, že je nevnímáme. Když procházíme svou
facebookovou zeď, asi málokdo se zamýšlí nad tím, proč vidí právě tento článek
nebo politický komentář. Předpokládáme pestrost názorů našich přátel a známých
nebo facebookových stránek, které je sdílejí. Ta může být ale jenom zdánlivá.

Tristan Harris, který pracoval jako etický designer společnosti Google a
poté odešel a založil Centrum pro humánní technologie, popisuje, že nemůžeme
očekávat změnu v mechanismech Facebooku a Googlu. Firmy by musely změnit celý
svůj byznys model, který je založený na udržení pozornosti uživatelů po co
nejdelší dobu. Díky tlaku odborné i laické veřejnosti a politiků nám ale
Facebook začal nabízet způsoby, jak můžeme podobu své facebookové zdi
spoluutvářet a zjišťovat, kdo a jaký má vliv na to, co nám Facebook nabízí ke
konzumaci.

Kvalita demokracie

Facebook nabízí možnost nahlédnout do tajů skladby hlavní stránky každého účtu. Tato možnost je však poměrně omezená.U téměř každého příspěvku můžete v pravém horním rohu rozkliknout v nabídce položku „Proč se mi tento příspěvek zobrazuje“.

Můžete se dozvědět například, že jste v minulosti častěji reagovali na fotografie než na jiné typy médií, že jste více „lajkovali“ příspěvky některého facebookového přítele nebo stránky nebo že se jedná o populární příspěvek. Stejná funkce je i u reklamních sdělení, ta na vás mohou cílit kvůli věku, lokalitě nebo třeba podle toho, že si Facebook zařadil mezi vaše zájmy cestování, obuv nebo politiku a firma cílí právě na tuto oblast. Vždy se vám však ve vysvětlení zobrazí i kouzelná formulka „Může být i víc faktorů, které tady nejsou uvedené“. Facebook chce uživatelům dát pocit, že je jeho algoritmus transparentní. Tato transparentnost má ale své meze.

Existují nástroje, jak můžeme sami částečně definovat vzhled naší hlavní
stránky a upravovat své preference. V předvolbách vybraných příspěvků například
můžeme nastavit, jaké příspěvky uvidíme jako první. Tím se ale problém proudu
podobných informací neřeší.

Algoritmy, které nám personalizují obsah, nejsou doménou jen Facebooku,
propracované personalizované vyhledávání využívá i Google. Při zadání stejného
pojmu do vyhledávače dostanou různí lidé různé výsledky. Vymanit se z vlastní filtrační
bubliny je tedy v online prostředí téměř nemožné.

Důsledky tohoto jevu se mohou odrazit v úrovni politické informovanosti.
Žádná bublina totiž nepojme všechny potřebné informace, jako tomu bylo v éře
masových médií. Volební preference tak mají větší tendenci se tříštit do mnoha
slabších proudů. Může to být i jedno z vysvětlení, proč máme v této době
největší počet pětiprocentních politických stran v celé moderní české historii.

MM25_AI

Uzavírání do bublin také podporuje radikalizaci frustrovaných skupin obyvatelstva. Když pak celou problematiku propojíme s tezí, že podmínkou dobře fungující demokracie je kvalitní informovanost občanů, je namístě se zamýšlet nad tím, jak internetové algoritmy a filtrační bubliny ovlivňují kvalitu naší demokracie. Můžeme se kvalifikovaně rozhodovat o tom, o čem máme jen částečnou znalost?

  • Našli jste v článku chybu?