EU AI Act: Vše, co potřebujete vědět (Stručný průvodce)
Stručný přehled EU AI Act, jeho úrovní rizik, rozsahu, pokut a toho, co musí společnosti s vysokým rizikem umělé inteligence v praxi dělat.
Autor: Ondrej Sukac • 6 minut čtení.
24. března 2026
TL;DR
Zákon EU o umělé inteligenci je prvním komplexním právním rámcem pro umělou inteligenci na světě. Nezakazuje vývoj AI obecně; reguluje používání umělé inteligence na základě rizika. Má také extrateritoriální dosah, což znamená, že se může vztahovat na společnosti mimo EU, pokud jsou jejich systémy umělé inteligence umístěny na trh EU nebo jejich výstupy jsou používány v EU Evropská komise EUR-Lex.
Nejvyšší sankce jsou přísné: až 35 milionů EUR nebo 7 % celkového celosvětového ročního obratu za zakázané praktiky umělé inteligence, podle toho, co je vyšší EUR-Lex.
Co je to EU AI Act?
EU AI Act je evropské nařízení, které definuje pravidla pro vývoj, uvádění na trh, uvádění do provozu a používání systémů umělé inteligence. Jejím deklarovaným cílem je podporovat důvěryhodnou umělou inteligenci v Evropě a zároveň chránit zdraví, bezpečnost a základní práva Evropská komise.
Zákon používá přístup založený na riziku. Jednoduše řečeno: čím větší dopad na lidi, tím přísnější pravidla Nejčastější dotazy Evropské komise.
4 úrovně rizika (přístup založený na riziku)
Celý zákon je postaven na jednoduchém principu: čím větší vliv AI na lidský život, tím přísnější pravidla.
| Úroveň rizika | Co zahrnuje (příklady) | Právní požadavky |
|---|---|---|
| 1. Nepřijatelné riziko (zakázané) | Sociální bodování, určité manipulativní praktiky a některé formy vzdálené biometrické identifikace ve veřejném prostoru v reálném čase. | Úplný zákaz zakázaných praktik podle článku 5. |
| 2. Vysoce rizikové | Umělá inteligence se používá v oblastech, jako je zaměstnání, vzdělávání, základní služby, jako je hodnocení bonity, určité lékařské nebo bezpečnostní komponenty, vymáhání práva, migrace a spravedlnost. | Přísné povinnosti v oblasti dodržování předpisů, včetně řízení rizik, technické dokumentace, protokolování, lidského dohledu a monitorování po uvedení na trh. |
| 3. Omezené riziko | Systémy, jako jsou chatboti, deepfakes nebo obsah generovaný umělou inteligencí, kde platí povinnosti transparentnosti. | Povinnosti transparentnosti, aby uživatelé věděli, že interagují s umělou inteligencí nebo konzumují obsah generovaný umělou inteligencí. |
| 4. Minimální riziko | Spamové filtry, umělá inteligence videoher a mnoho spotřebitelských systémů s nízkým dopadem. | Žádné zvláštní povinnosti EU AI Act nad rámec obecného práva. |
Na koho se vztahuje EU AI Act?
Zákon má extrateritoriální dosah. V praxi pravidla diktuje trh, nikoli vaše sídlo Evropská komise.
Může platit, pokud:
Vyvinete a uvedete systém AI na trh v EU.
Nasazujete a používáte systém AI v rámci EU.
Sídlíte mimo EU, ale výstupy vašeho systému AI se používají v EU.
Pro mnoho technických kupujících je to klíčový strategický bod: společnosti mimo EU nejsou automaticky mimo oblast působnosti EUR-Lex.
Jaké jsou pokuty?
Zákon o umělé inteligenci používá odstupňované správní pokuty navržené tak, aby zůstaly smysluplné i pro velmi velké společnosti EUR-Lex.
Zavádění zakázaných praktik umělé inteligence: až 35 milionů EUR nebo 7 % celosvětového ročního obratu.
Porušení mnoha dalších podstatných povinností, včetně vysoce rizikových požadavků: až 15 milionů EUR nebo 3 % celosvětového ročního obratu.
Poskytování nesprávných, neúplných nebo zavádějících informací úřadům: až 7,5 milionu EUR nebo 1 % celosvětového ročního obratu.
Co musí společnosti udělat pro vysoce rizikové systémy?
Velká část seriózního B2B AI softwaru může spadat do vysoce rizikové kategorie v závislosti na případu použití. Pro tyto systémy éra černých skříněk fakticky skončila.
Na praktické úrovni musí být společnosti schopny prokázat alespoň tyto tři věci:
Sledovatelnost
Vysoce rizikové systémy umělé inteligence musí podporovat automatické vedení záznamů a protokolování událostí odpovídající jejich účelu, takže rozhodnutí a chování systému lze později rekonstruovat článek 12 EU AI Act.
Lidský dohled
Vysoce rizikové systémy musí být navrženy tak, aby fyzické osoby mohly dohlížet na jejich provoz a v případě potřeby zasahovat. Z hlediska produktu to obvykle znamená smysluplnou kontrolu, zastavení nebo přepsání, spíše než autonomní provoz černé skříňky článek 14 AI Act Service Desk EUR-Lex.
Správa dat
Vysoce rizikové systémy jsou také spojeny s požadavky na správu dat, reprezentativnost a řízení rizik. Jde o to omezit skryté zkreslení, nekvalitní datové postupy a nekontrolované škody před a během nasazení Evropská komise EUR-Lex.
Finální Takeaway
Zákon EU o umělé inteligenci není pro evropské prodejce jen okrajovou právní záležitostí. Jde o rámec formující trh s globálními důsledky pro každou společnost, jejíž systémy umělé inteligence ovlivňují lidi v EU.
Praktická lekce je jednoduchá: pokud váš systém umělé inteligence ovlivňuje najímání, půjčování, zdravotní péči, spravedlnost nebo jiné vysoce účinné pracovní postupy, potřebujete víc než jen soubor PDF se zásadami. Potřebujete protokolování, dokumentaci, lidský dohled a důkazy, že váš systém obstojí při kontrole.
Pokud chcete hlubší pohled na implementaci, nejlepšími průvodci na tomto webu jsou The Ultimate Guide to AI Compliance with Agent ID, What Evidence Do You Need to Prove AI Soulad? a Jak implementovat ISO 42001.