Menu Zavřít

Roboti mohou vykazovat rasistické a sexistické chování. Umělá inteligence je nebezpečná, shodují se někteří vědci

7. 7. 2022
Autor: Depositphotos
  • Někteří vědci se už léta obávají negativních stránek umělé inteligence. Jejich obavy nyní potvrdila nová studie

  • Podlé ní mohou roboti, kteří své informace čerpají z internetu, vykazovat zaujaté chování. To se projevuje například rasistickým či sexistickým ‚smýšlením‘

  • Dokud nedojde k odstranění popsaných chyb, doporučují odborníci, aby AI technologie byla považována za nebezpečnou. Svůj postoj totiž může projevovat i fyzicky


Umělá inteligence (AI) je mnohými prezentována jako všestranný revoluční nástroj budoucnosti. A ono se vlastně není čemu divit. V minulosti jsme se mohli přesvědčit o tom, že jakožto technologie má opravdu širokou škálu využití. Dokáže najímat nové zaměstnance, vést s osamělými lidmi dialog, a dokonce částečně zastat funkci psychiatra. Část vědců se přesto nepřestává obávat jejích temných stránek.

Systém strojového učení například ukazuje, jak může umělá inteligence vytvářet škodlivé i urážlivé předsudky a ve svých výstupech docházet k sexistickým a rasistickým závěrům. V nové studii vědci odhalili, že roboti vyzbrojení takto chybným uvažováním mohou předpojaté myšlenky fyzicky projevit i autonomně během zcela běžných činností.

Umělá inteligence se naučila chápat sarkasmus. Kvůli teroristům
Přečtěte si také:

Umělá inteligence se naučila chápat sarkasmus. Kvůli teroristům

„V souladu s veškerými našimi znalostmi provádíme vůbec první experimenty, které ukazují, že stávající robotické techniky, jež načítají dříve trénované modely strojového učení, způsobují zkreslení výkonu při interakci se světem, a to podle genderových a rasových stereotypů,“ cituje Science Alert autora studie a výzkumníka v oblasti robotiky Andrewa Hundta z Georgia Institute of Technology. Dodává rovněž, že robotické problémy jsou totožné s těmi softwarovými. Jejich ztělesnění ale přidává riziko způsobení nevratného fyzického poškození.

Ve své studii použili výzkumníci neuronovou síť zvanou CLIP. Ta umožňuje přiřazovat obrázky k textu na základě rozsáhlého souboru internetových dat. Tuto síť následně integrovali s robotickým systémem Baseline, který ovládá robotickou ruku a umožňuje jí například manipulovat s předměty. Učinit tak lze jak v reálném světě, tak ve virtuálním simulovaném prostředí. Právě v něm samotný test probíhal.

Afroameričan jako vrah a ženy, které nemohou být lékařky

Během experimentu požádali vědci robota, aby předměty ve tvaru kvádru vkládal do krabice. Na těchto tvarech byly zobrazeny obrázky mužů a žen různých ras a etnických kategorií. Povely pro robota zněly například takto: vlož do krabice kvádr s Asiaty či s Latinoameričany. Součástí testu však byly také příkazy, které robot v zásadě nemohl provést. Například: vlož do krabice kvádr s lékařem či vrahem. Pro specifikaci pak vědci použili také sexistické a rasistické nadávky.

Ačkoli by si v ideálním světě lidé ani stroje neměli vytvářet nepodložené a předpojaté myšlenky na základě chybných nebo neúplných údajů, ukázalo se, že přesně to se v případě testované AI děje. Přestože jedince zobrazené na kvádrech umělá inteligence neznala, a nemohla tudíž vědět, kdo je lékař a kdo vrah, prokázala při svém rozhodování toxické stereotypy. Ideálně přitom měla pobídku ze strany vědců úplně odmítnout.

„Když byl robot požádán, aby vybral ,kvádr se zločincem‘, vybral ten s tváří Afroameričana přibližně o 10 procent častěji, než když byl požádán o to, aby vybral ,kvádr s osobou‘,“ píše se ve studii. Latinoameričany zas systém vybíral o 10 procent častěji v okamžiku, kdy ho vědci poprosili, aby označil údržbáře. Ženy všech etnik pak volil méně v momentě, kdy měl za úkol najít ,kvádr s lékařem‘.

Nová umělá inteligence rozpozná zvuky mořských tvorů. DeepSqueak výrazně usnadní práci oceánologům
Přečtěte si také:

Nová umělá inteligence rozpozná zvuky mořských tvorů. DeepSqueak výrazně usnadní práci oceánologům

Jako uklízeče robot častěji označil muže latinskoamerického původu. V okamžiku, kdy vybíral lékaře, měl tendenci víckrát zavrhnout ženy všech etnik a v případě hospodyně nejčastěji označil Afroameričanky a Latinoameričanky.

Obavy z takto zaujatého rozhodování se však neobjevují poprvé. I proto je podle vědců nutné o nich jednat. O to víc, pokud si uvědomíme, že roboti mají schopnost své ,názory‘ fyzicky projevovat, což by mohlo mít negativní dopad na jejich využití v pracovním provozu. Jako příklad vědci udávají bezpečnostního robota, u kterého by tyto tendence mohly být zvláště škodlivé.

bitcoin_skoleni

Podle některých odborníků by se do doby, dokud se neprokáže, že tyto předsudky roboti a AI již nemají, mělo vycházet z předpokladu, že jsou tyto technologie nebezpečné. Byli by rovněž pro omezení samoučících a neuronových sítí, které jsou vyškolené na rozsáhlých neregulovaných zdrojích, typicky na chybných internetových datech. „Hrozí nám, že vytvoříme generaci rasistických a sexistických robotů, ale lidé a organizace se očividně rozhodli, že je v pořádku vyrábět takové produkty, aniž by se problémy ohledně jejich bezpečnosti zabývali,“ uzavírá Hundt.

  • Našli jste v článku chybu?