Menu Zavřít

EU chystá bič na AI. Je to dobře, ale nesmí se to přehnat s drezurou, míní expert Deloitte Vilém Krejcar

19. 9. 2023
Doba čtení: 6 minut
Autor: Trustworthy AI,Deloitte
(KOMENÁŘ) Představitelé Evropské unie by se neměli uchylovat k příliš restriktivním a specifickým opatřením, ale spíše se zaměřit na pevné jádro zákona a vytvořit společný rámec základních stanov, které budou aplikovatelné napříč odvětvími. České firmy jsou pozadu, snad se nenechají zahanbit, píše ve svém komentáři pro Euro.cz na téma chystané unijní regulace umělé inteligence (AI Act) konzultant Vilém Krejcar, který působí v týmu Trustworthy AI oddělení Risk Advisory poradenské a technologické společnosti Deloitte.

Na úvod tohoto komentáře bych rád připomněl, co vůbec navrhovaný AI Act znamená a proč je potřeba. Ve stručnosti jde o snahu nastavit harmonizovaná pravidla o umělé inteligenci (AI) v rámci celé EU. V důsledku čím dál častějšího používání AI se nyní děje doslova dostihový závod o to, kdo představí nejlépe performující model. Během vývoje se však často opomínají i její další aspekty, jako je například etika, transparentnost, firemní AI strategie a vzdělanost nebo téma bezpečnosti dat, jež umělá inteligence čerpá.

Ať už bereme zmiňované aspekty jednotlivě, nebo v kombinaci, vše může vést ke zvyšování pravděpodobnosti nesprávného vývoje či používání, nebo v budoucnu legislativním problémům AI řešení. To by společně s netransparentností těchto supervýkonných algoritmů mohlo vyústit v problematické výsledky, nebo dokonce demotivaci a nechuť firem AI používat.

Jak se krotí AI modely

Kvůli výše uvedeným nástrahám se EU snaží o sjednocení pravidel pro kohokoliv, kdo umělou inteligenci v Evropě vyvíjí nebo ji spustil mimo EU, ale hodlá ji na Starém kontinentu používat. Kostrou celé legislativy má být přístup založený na rizicích, respektive závažnosti jejich potenciálních důsledků.

Je to, jako bychom za průmyslové revoluce rozbíjeli stroje, říká o zakazování AI šéfka CreativeDocku. Regulaci ale považuje za nutnou
Přečtěte si také:

Je to, jako bychom za průmyslové revoluce rozbíjeli stroje, říká o zakazování AI šéfka CreativeDocku. Regulaci ale považuje za nutnou

Jedním z těchto rizik je riziko nepřijatelné, kdy se dané AI systémy v EU nesmí používat – jde například o podprahové ovlivňování lidí, rozpoznávání biometrických údajů v reálném čase nebo sociální scoring. Dalším stupněm je vysoké riziko. Tím je myšleno použití systémů AI v případech, kdy mohou ohrozit či ublížit lidem – tedy například v některých oblastech zdravotnictví, automobilového průmyslu, školství a podobně.

Největší pozornost chystaného nařízení je zaměřena především na skupinu s vysokými riziky, přičemž už nyní lze téměř s jistotou říct, že takové AI aplikace budou skutečně muset podléhat regulaci. Přestože ještě není na stole finální verze AI Actu, již teď je známo, že bude nutná vysoká úroveň dokumentace a vývojáři budou muset demonstrovat vysokou kvalitu dat. Rovněž budou muset disponovat kompletním katalogem a přehledem všech AI systémů, mít nastavené zodpovědnosti, jasnou vizi i cíl a modely také pravidelně kontrolovat během celého jejich životního cyklu (a rovněž i pravidelně přetrénovávat).

Mimo zmíněných kategorií se ví aktuálně ještě o dalších dvou – představují je řešení s nízkým a minimálním rizikem (s menším nebo žádným omezením). Nutno dodat, že důležitá pak rovněž bude provázanost s další evropskou legislativou, jako je například GDPR (ochrana osobních údajů), NIS2 (kyberbezpečnost) či s obecnou strategií EU, která se týká nových technologií.

Vyhrát musí Miss Kompromis

Jsem přesvědčený, že chystaná evropská regulace AI je bezesporu nutná. Rovněž je však potřeba, aby EU brala velký zřetel na to, co vše bude její součástí. Absolvoval jsem řadu debat mezi tvůrci zákona a nejvyšším vedením několika technologických startupů, během kterých vyvstala řada možných problémů chystaných regulí.

Humanoidní robot Apollo míří do skladů i do vesmíru. Se zvládnutím většiny lidských činností mu pomůže umělá inteligence
Přečtěte si také:

Humanoidní robot Apollo míří do skladů i do vesmíru. Se zvládnutím většiny lidských činností mu pomůže umělá inteligence

Co se zdá velmi dobré na papíře a v teorii, lze v praxi pomocí ,kreativní právničiny‘ velmi lehce zneužít, takže se následně může stát, že určité části stávajících produktů nebudou firmy smět vůbec používat. I proto je velmi důležité jednotlivé aspekty správně definovat, neboť jedině tak nebude možné tyto základní kořeny legislativy ohýbat. Já osobně vnímám jako nejdůležitější zdravou diskuzi mezi regulátorem, akademiky, firmami a koncovými zákazníky tak, aby společně došli k dohodě a řešení, jež bude aplikovatelné v každé fázi a smysluplné pro všechny.

Rád bych v této souvislosti zdůraznil roli kompromisu. Bezesporu mají být nastavena pravidla a regulace, ale finální legislativa nesmí být příliš restriktivní. V případě schválení velmi přísné varianty by se totiž mohlo stát, že některé technologické firmy z Evropy přesídlí do USA nebo Asie – a odchod části tohoto technologického sektoru z EU by byla nekonečná chyba, která by dopadla na evropskou ekonomiku i občany. Myslím si tedy, že by se představitelé EU neměli uchylovat k příliš striktním a specifickým opatřením, ale spíše se zaměřit na pevné jádro zákona a vytvořit společný rámec základních stanov, které budou aplikovatelné napříč odvětvími.

Má přítelkyně robot. Umělá inteligence pomáhá lidem s randěním, poslouží jako dohazovač i zkušební partner
Přečtěte si také:

Má přítelkyně robot. Umělá inteligence pomáhá lidem s randěním, poslouží jako dohazovač i zkušební partner

Druhá věc je časový tlak na Evropskou unii. Legislativa se nyní nachází ve fázi takzvaného trialogu, což znamená, že jsou aktuálně k dispozici tři verze (od Evropské komise, Rady EU a od Evropského parlamentu) a že mezi těmito stranami i veřejností probíhá diskuze ohledně finální verze. Jelikož se příští rok budou konat volby do evropského parlamentu, je zde motivace se dohodnout ještě předtím, než se řada aktérů vymění.

Regulujeme neznámé

AI Act je rovněž velmi specifický v tom, že klasická legislativa se píše tak, aby fungovala desetiletí. V tomto případě se v roce 2021 vydala první verze, ale poté se objevily modely generativní AI jako ChatGPT, Bard, Stable Diffusion a další, které najednou vytvořily úplně nové požadavky, takže se jim chystaná legislativa musí nyní přizpůsobit. A vzhledem k tomu, jakým tempem se technologie vyvíjí, nedává moc velký smysl zákon o AI koncipovat jako příliš detailní, protože nikdo neví, co přijde za půl roku nebo rok. Toto odvětví je extrémně agilní a dynamické, takže zákonodárci musejí být připraveni rychle reagovat na nový vývoj technologií, jenž je aktuálně téměř exponenciální.

Důležité je rovněž zmínit, že mnohdy ještě opravdu nevíme, jak přesně fungují některé, už vzniklé, velmi hluboké neuronové sítě a další podobné modely. Na červencové konferenci o vysvětlitelné umělé inteligenci v Lisabonu se přední evropští vědci shodovali, že se snažíme regulovat něco, o čem si nejsme stoprocentně jistí, jak přesně funguje. Já s tímto pohledem plně souhlasím, přesto rovněž říkám, že zde musí být základní pokyny a směrnice, jak takové modely stavět a používat. Samozřejmě máme určité techniky, jak zpětně výstupy inkriminovaných modelů interpretovat, o ucelené a přesné představě, jak doopravdy fungují, ale nemůže být řeč.

Kdo chvíli stál, stojí opodál

Evropské firmy, včetně tuzemských, by se měly připravit na to, že pokud používají umělou inteligenci, která určitým způsobem přispívá k jejich finálnímu produktu a spadá do zmíněných kategorií, tak poté, co AI Act začne platit (odhaduji roky 2026 až 2027), budou muset být schopné své AI modely stavět s jasnou vizí, strategií a velkou mírou transparentnosti dat i procesů. Mé očekávání je, že s novou regulací vznikne auditní proces, během kterého třetí nezávislá strana (zejména poradenské firmy) bude kontrolovat, zda regule stanovené EU splňuje, případně kde je nutné takzvaně zabrat.

MMF24

AI Google Bard je už i v češtině, pomůže třeba s vyřízením korespondence
Přečtěte si také:

AI Google Bard je už i v češtině, pomůže třeba s vyřízením korespondence

Z mé zkušenosti jsou české firmy v oblasti transparentnosti a etiky AI modelů oproti západním podnikům pozadu. Spolupracoval jsem nyní dlouhé měsíce na projektech v Nizozemí a Švýcarsku, kde jsem viděl obrovskou příležitost pro lokální trh. Na těchto tématech pracovaly celé naše týmy, které se zajímaly nejen o výkonnost firemních AI řešení, ale také o to, aby byla jejich umělá inteligence důvěryhodná a etická. Tyto týmy přitom pomáhají klientům z nejrůznějších oblastí – od bank přes telekomunikační sektor až po vládní instituce – s tím, aby jejich modely byly důvěryhodné od začátku do konce, nediskriminovaly a nejednalo se o takzvané ,černé skříňky‘ s trasovatelnými rozhodnutími (například proč konkrétní zákazník nedostal půjčku a co je potřeba k tomu, aby mu byla schválena).

Snad se české firmy v tomto směru nenechají zahanbit a po vzoru svých západních kolegů rovněž začnou brát AI vážně, včetně jejích dobrých i špatných vlastností, dřív, než se v pomyslném dostihovém závodu ocitnou na chvostu. 

  • Našli jste v článku chybu?

Byl pro vás článek přínosný?

Upozorníme vás na články, které by vám neměly uniknout (maximálně 2x týdně).