Menu Zavřít

Pomluva jako zbraň proti konkurenci. K hanění jiných značek využívá stále více firem roboty a falešné účty na sociálních sítích

19. 7. 2022
Autor: Depositphotos
  • Počet firem, které k pomluvě jiných podniků využívají roboty píšící falešné negativní recenze, neustále roste

  • Některé značky se proto obracejí na profesionální pomoc. Tu specializované společnosti nabízejí například pomocí umělé inteligence (AI)

  • Použití této technologie je však podle některých odborníků nejisté. Algoritmy totiž nemusí odhalit vtip ani ironii


Stále více firem používá roboty či falešné účty na sociálních sítích k tomu, aby vedly pomlouvačné kampaně proti svým konkurentům. Před touto praktikou varuje například Lyric Jain, šéf společnosti Logically, která pomocí umělé inteligence monitoruje třeba Twitter, Facebook, Instagram či TikTok, kde vyhledává takzvané fake news, tedy nepravdivé informace. V poslední době se na něj stále častěji obracejí také některé velké celosvětové značky a žádají o pomoc při ochraně před škodlivými útoky konkurence.

Podle Jaina jsme momentálně na prahu éry dezinformací, přičemž tito útočníci ohýbají pravdu podobným způsobem jako aktéři z Ruska a Číny. „Útočníci se snaží používat podobné taktiky, aby proti firmám v podstatě vedli válku na sociálních sítích,“ přibližuje pro BBC s tím, že napadeny jsou i některé společnosti z žebříčků Fortune 500 a FTSE 100.

Recenze, které mohou devastovat

Hlavní taktikou útoku bývá používání falešných účtů, které slouží k podvodnému šíření negativních recenzí produktů a služeb, ale i celkové pověsti konkurenta. Ta může být vlivem těchto agresorů trvale poškozena. Pokud má například maloobchodní prodejce v určitém tříměsíčním období neuspokojivé finanční výsledky, může se bezohledný rival pokusit jeho finanční potíže zveličit.

Roboti mohou vykazovat rasistické a sexistické chování. Umělá inteligence je nebezpečná, shodují se někteří vědci
Přečtěte si také:

Roboti mohou vykazovat rasistické a sexistické chování. Umělá inteligence je nebezpečná, shodují se někteří vědci

Tyto útoky jsou podle Jaina typické pro firmy z Číny, zároveň však nevylučuje ani ty ze Západu. „Obvykle je to nově vznikající společnost, která těmito prostředky jde po již zavedeném podniku,“ říká.

Aby se společnosti mohly proti atakům bránit, prochází umělá inteligence od Logically denně na sociálních sítích více než 20 milionů příspěvků. Odborníci, kterých je ve Velké Británii, USA a Indii hned sto sedmdesát pět, ty podezřelé pak postupně procházejí. „Podle našeho názoru je nezbytné, aby ústředním prvkem našeho rozhodování byli lidé,“ konstatuje Jain.

Pokud se potvrdí, že se jedná o dezinformaci, kontaktují tito pracovníci příslušnou platformu: „Některé z nich účet odstraní, zatímco jiné příspěvky zruší, ale účty ponechají.“ Vzápětí Jain dodává, že platformy obvykle reagují do dvou hodin. V případě příspěvků způsobujících větší škodu mnohdy i do několika minut.

Lidský faktor je riziko

Na zmíněný typ útočníků se zaměřuje i britská technologická firma Factmata. Na rozdíl od Logically však v boji s nimi spoléhá pouze na AI. „Naším skutečným cílem je nevkládat mezi umělou inteligenci a výsledky žádné lidi, jinak hrozí, že do zjištění budeme uplatňovat vlastní předsudky,“ vysvětluje postoj společnosti, jejíž umělá inteligence používá na 19 různých algoritmů, její ředitel Antony Cousins. Namísto příspěvků, které je třeba odstranit, pátrá firma hlouběji a snaží se najít zdroj, jenž fámu vypustil. Následně se zaměřuje na jeho odstranění.

Cousins rovněž dodává, že riziko, jež s sebou falešné zprávy na sociálních sítích nesou, může být pro napadené společnosti až devastující. „Pokud je značka například falešně obviněna z rasismu nebo sexismu, může ji to skutečně poškodit. Lidé z generace Z se mohou rozhodnout, že u ní už nebudou nakupovat,“ uvádí.

Umělá inteligence se naučila chápat sarkasmus. Kvůli teroristům
Přečtěte si také:

Umělá inteligence se naučila chápat sarkasmus. Kvůli teroristům

Zda je řešením problému použití AI, je ale otázkou, na kterou zatím neexistuje přímá odpověď. Alespoň podle profesorky a vedoucí výzkumné pracovnice v oblasti umělé inteligence na Oxfordské univerzitě Sandry Wachterové. „Lidská řeč má navíc mnoho jemností a nuancí, které algoritmy a v mnoha případech ani lidé nemusejí být schopni odhalit. Výzkumy například naznačují, že algoritmy stejně jako lidé jsou schopny rozpoznat sarkasmus a satiru jen asi v 60 procentech případů,“ objasňuje Wachterová.

MM25_AI

Určováním toho, co je a není pravdivé, se však podle Cousinse jeho společnost nezabývá. „Naším úkolem není rozhodovat o tom, co je pravda a co lež, ale identifikovat obsah, o kterém si myslíme, že by mohl být falešný nebo že by mohl být škodlivý, a to s určitou mírou jistoty,“ uzavírá.

  • Našli jste v článku chybu?