Z obavy před rychlým nástupem umělé inteligence a s tím spojenými hrozbami, Evropská unie loni v létě schválila nařízení pro regulaci umělé inteligence. Jde o první regulatorní nařízení na světě, které použití systémů umělé inteligence upravuje. Evropská unie chce jejich prostřednictvím zajistit, aby členské státy využívaly pouze bezpečné, důvěryhodné, transparentní a nediskriminační systémy AI.
Nařízení se má vztahovat na veřejné i soukromé subjekty v EU i mimo ni, které poskytují nebo nasazují daný systém AI na evropský trh. Naopak pro běžné uživatele umělé inteligence nevyplývají z AI Aktu skoro žádné povinnosti. Regulace spíše cílí na jejich ochranu.
Řada firem a organizací se ale k unijní regulaci staví kriticky. Podle Svazu průmysl a dopravy ČR (SP ČR) Evropská unie riskuje, že kvůli přehnané byrokracii nebude v oblasti AI konkurenceschopná. Jak informoval web Lupa.cz, SP ČR se proto připojil k dalším byznysovým organizacím, které kvůli regulaci zaslaly Evropské komisi otevřený dopis.
Akt o umělé inteligenci (EU 2024/1689) vstoupil v platnost v srpnu 2024, jeho účinnost v plném rozsahu je ale naplánovaná až na srpen 2026. Vyjma ustanovení týkajících se zakázaných praktik, systému správy nebo vymáhání a sankcí. Krom pravidel totiž AI Akt stanovuje také pokuty pro toho, kdo dané požadavky a povinnosti nesplní. Například:
- 35 mil. EUR, nebo 7 % ročního obratu z uvedení zakázaného systémů umělé inteligence na trh,
- 15 mil. EUR nebo 3 % z ročního obratu za porušení ostatních povinností,
- 7,5 milionu EUR nebo 1,5 % z ročního obratu za poskytnutí nesprávných informací.
Tato část je účinná už od 2. února 2025.
AI gramotnost. Bude se vymáhat?
Součástí již zavedené 1. fáze je ale mimo jiné také článek, který řeší dostatečnou AI gramotnost zaměstnanců, jejichž firmy tyto systémy využívají. Právě v souvislosti s tímto článkem se během uplynulých měsíců šířily éterem zprávy o tom, že firmy mají na proškolení svých zaměstnanců jen pár měsíců, a pokud tak neučiní, vystavují se riziku vysokých sankcí.
Jak ale na konferenci FIN (R)Evoluce 2025 uvedl Ondřej Hanák z advokátní kanceláře eLegal, panika není na místě. Pravidelná školení zaměstnanců sice budou potřeba, nikdo ale nebude jejich míru či četnost kontrolovat apriori.
Pokud v budoucnu, kdy začne platit celý AI Akt, dojde k újmě či problému způsobenému zaměstnancem využívajícím AI, může se přihlížet k tomu, jakým způsobem firma umělou inteligenci zavedla. Jak pro její využití proškolila zaměstnance a podobně. Pokud se v tomto směru zjistí pochybení, může to být pro firmu přitěžující okolnost. Strašení vysokými pokutami je ale zbytečné. Žádná sankce v souvislosti s tímto článkem určená není,
ubezpečil posluchače advokát Ondřej Hanák.
Používáte při své práci umělou inteligenci?
Zákaz manipulativních systémů
První část AI Aktu, která platí už nyní, se tedy více než na gramotnost v oblasti AI zaměřuje na zákaz některých systémů. Obecně totiž nařízení definuje 4 úrovně rizika systémů umělé inteligence:
- zakázané systémy.
- vysoce rizikové systémy,
- systémy s omezeným rizikem,
- systémy s minimálním rizikem.
Do první, zcela zakázané kategorie, spadají například systémy využívající manipulativní techniky. Pod pojmem manipulativní si samozřejmě každý může představit něco jiného – částečnou manipulací může být de facto i reklama. Ve své podstatě jde o dost volný pojem, který se teď Evropská unie snaží naplnit nějaký obsahem. Obecně jde o podprahové techniky, podvědomé manipulace, kterým jsou uživatelé AI vystavení, a které můžou snížit jejich schopnost informovaně se rozhodovat, a způsobit jim tak vážnou újmu,
vysvětlil Hanák účastníkům FIN (R)Evoluce 2025.
Na začátku února Evropská komise zveřejnila pokyny, které tyto manipulativní systémy definují podrobněji. Česká asociace pro umělou inteligenci shrnula zveřejněné dokumenty do následujících bodů:
- AI nesmí manipulovat podprahovými technikami: reklamy či chatboti nesmí ovlivňovat lidi skrytými signály, které obcházejí jejich vědomé rozhodování.
- Žádná AI nesmí zneužívat slabiny lidí: nesmí cílit na děti, seniory, osoby s postižením či osoby v tíživé finanční situaci.
- Zákaz sociálního skórování: zákaz hodnocení občanů podle jejich chování.
- AI nesmí předpovídat zločince jen na základě osobnosti: zákaz cílí na prediktivní AI systémy, které by mohly předpovídat, zda někdo spáchá zločin například na základě jeho chování na sociálních sítích nebo psychologického profilu.
- Zákaz automatického sběru obličejů: z webů či bezpečnostních kamer pro tvorbu databází k vytváření databází pro rozpoznávání tváří.
- Rozpoznávání emocí na pracovišti: s výjimkou zdravotních a bezpečnostních důvodů nesmí AI analyzovat emoce zaměstnanců na pracovišti či studentů ve školách.
- Omezení biometrické kategorizace: AI nesmí analyzovat biometrické údaje a zařazovat lidi na základě rasy, politických názorů, víry nebo sexuální orientace.
- Policie nemůže (až na výjimky) sledovat lidi pomocí AI v reálném čase: systémy pro biometrickou identifikaci na veřejných místech v reálném čase jsou zakázané. Výjimka platí pro hledání pohřešovaných osob, teroristických hrozeb nebo pátrání po nebezpečných pachatelích.
Sociální skóring
Národní kreditní systém zavedla před několika lety například Čína. Tento systém hodnotí lidi – zvyšuje, či snižuje jejich sociální kredit – na základě jejich ekonomického a společenského chování. Ke snížení může dojít třeba kvůli jízdě na černo, hodnotí se ale i struktura nákupů, včasné placení účtů nebo čas strávený na sociálních sítích. Výsledné skóre pak může ovlivnit například podmínky pro čerpání úvěrů, ale i rychlost internetového připojení.
Druhá část AI aktu. Co nás čeká?
Druhá část AI Aktu, která přijde na řadu v srpnu 2026, se věnuje systémům ve zbývajících třech úrovních rizika. Tedy například systémům s vysokým rizikem, které zakázané nejsou, EU ale na jejich fungování klade řadu přísných požadavků.
V praxi může jít například o software pro třídění životopisů pro přijímací řízení či bodování výsledků přijímacích zkoušek na střední a vysoké školy. Z finanční oblasti sem budou spadat třeba AI systémy pro skórování klientů při žádosti o nejrůznější půjčky, nebo třeba systémy pro předcházení podvodům. Podle Ondřeje Hanáka EU ve svém předpisu řeší hlavně situace, kdy se AI přímo podílí na rozhodování. Naopak situace, kdy AI spíše doporučuje, ji tolik nezajímají.
Do kategorie systémů s omezeným rizikem pak spadají AI nástroje, které slouží pro interakci s člověkem nebo uměle vytvářejí obsah. Po těchto systémech bude EU vyžadovat alespoň minimální transparentnost, tedy především povinnost informovat uživatele o tom, že komunikuje s umělou inteligencí. Na systémy s minimálním rizikem by AI akt neměl mít žádný dopad.