Odstraňování "toxického" obsahu z facebooku je sisyfovská práce a nevhodná sdělení ze sociální sítě zcela nevymizí ani se sebelepšími automatickými nástroji. Přiznal to technologický ředitel Facebooku Mike Schroepfer. Při otázkách ohledně střelby v novozélandské mešitě vysílané na sociální síti v přímém přenosu se mu prý draly do očí slzy.
„Nikdy se nedostaneme na nulu,“ řekl Schroepfer v sérii rozhovorů s deníkem The New York Times (NYT) o problémových příspěvcích, jakými jsou projevy nenávisti, falešné zprávy či násilný obsah. Zpočátku podle NYT hovořil o potenciálu „umělé inteligence“ optimisticky, v jednom z rozhovorů ale pod tlakem otázek uznal, že chytré technologie na třídění obsahu samy o sobě problémy facebooku nevyřeší.
Společnost nedávno reportérům amerického listu umožnila sejít se s technologickým ředitelem celkem třikrát, „protože chce ukázat, jak umělá inteligence filtruje nevhodný obsah, a pravděpodobně se také snaží polidštit své manažery“. NYT napsal, že při probírání masivního rozsahu problémů, se kterými se Facebook potýká, byl Schroepfer mnohdy emotivní a v jedné chvíli se svěřil, že se někdy musí přemáhat, aby přišel do práce.
Může podle vás Facebook zcela eliminovat škodlivý obsah?
Schroepfer má v kalifornské společnosti na starosti budování nástrojů, které na největší sociální síti světa monitorují obsah a mažou příspěvky porušující uživatelská pravidla. Přiznal, že jeho práce má sisyfovský charakter.
„To proto, že kdykoli Schroepfer a jeho více než 150členný inženýrský tým vyvine algoritmická řešení, která hlásí a odstraňují škodlivé materiály, vynoří se nové pochybné příspěvky, s nimiž se systémy umělé inteligence dosud nesetkaly, a tudíž je nezachytí,“ popisuje NYT. Deník dodává, že záležitost komplikuje subjektivita posuzování toho, co je nebo není „škodlivá aktivita“.
Šéf Facebooku Mark Zuckerberg loni v americkém Kongresu uvedl, že jeho společnost bude do deseti let disponovat nástroji, které dovedou identifikovat a odstraňovat nenávistné projevy. Pro automatické systémy je však zatím složité posuzovat jazykové nuance, nehledě na neustále se měnící společenský kontext. Podle Schroepfera nástroje strojového učení zachytí asi polovinu projevů nenávisti na facebooku.
Spoluzakladatel Facebooku varuje: Zuckerberg je dobrý člověk, soustředil ale nekontrolovatelnou moc
Reportéři se 44letým technologickým ředitelem hovořili i o březnovém masakru v mešitě v novozélandském Chistchurchi, jehož průběh střelec prostřednictvím facebooku živě vysílal. Útok nepřežilo 51 lidí. Bezpečnostní nástroje, které se zpravidla „cvičí“ na existujícím problematickém obsahu, proti přenosu nezakročily, protože šlo o zcela nový typ problému. Správci sociální sítě video stáhli až zhruba po hodině.
„Zrovna na tom pracujeme. Neopraví se to za den. Ale nechci, aby se tahle debata za půl roku opakovala. Můžeme proti tomu bojovat mnohem, mnohem lépe,“ řekl Schroepfer, údajně poté, co se na chvíli odmlčel, protože měl blízko k pláči.
Dodal, že záznam střelby v mešitě sám několikrát zhlédl ve snaze pochopit, jak by se dalo případně v budoucnu něco podobného zachytit. „Teď bych to rád vymazal z hlavy,“ řekl.
Čtěte také: