AI Act pod lupou
Evropská unie si v nedávné době připsala vydáním nového předpisu s názvem AI Act prvenství pro celý svět. AI Act byl již zveřejněn v Úředním věstníku a stává se tak platným 2. srpna 2024. AI Act zavádí jasná pravidla využívání umělé inteligence. Nařízení mimo jiné klade důraz na ochranu lidských práv a svobod a akcentuje zvýšení bezpečnosti v oblasti využívání AI. V nařízení je možno nalézt různé úrovně rizikovosti spojených s AI.
Na koho se vztahuje
Povinnosti se tak dotknou celého spektra zainteresovaných stran. Od těch, kteří AI systémy a technologie vyvíjí až po ty, kteří AI denně používají. Největším množství povinností však budou zatíženi hlavně vývojáři AI, ale i ti kteří ji implementují do svých provozů či poskytování služeb.
Platnost nařízení
Platnost nařízení je odstupňována do několika úrovní. 2. února 2025 vejdou v platnost obecná ustanovení a zakázané postupy v oblasti AI. Zároveň do 2. srpna 2025 jsou členské státy povinny zřídit a určit oznamující subjekty. Té vejdou ve stejný termín i sankce a další donucovací opatření. 2. srpna 2026 bude s výjimkou klasifikačních pravidel pro vysoce rizikové systémy AI platit nařízení v plném rozsahu. Uvedená výjimka vejde v platnost jako poslední a to 2. srpna 2027.
Platností AI Actu nebudou dotčeni jen subjekty v rámci EU, rámec zasahuje i mimo hranice členských států. Tedy například pokud je na trh EU uváděn nový AI systém ze zahraničí.
Hlavní body AI aktu
- Transparentnost a srozumitelnost AI: Musí být zřejmé, když je obsah nebo produkty personalizovány pomocí AI a jsou dostatečně srozumitelně předány.
- Informovanost uživatelů: Uživatelé musí být informováni o použití AI pro personalizaci a mít možnost ovlivnit, jaká data o nich jsou shromažďována.
- Dodržování pravidel ochrany údajů: E-shopy se musí řídit přísnějšími pravidly ochrany údajů v souvislosti s AI.
- Klasifikace rizik: Rozděluje AI systémy do 4 kategorií, pro které jsou stanoveny rozdílné požadavky na regulaci.
- Odpovědnost za škody: Zvýšená odpovědnost za potenciální škody způsobené rozhodnutími založenými na AI.
Posuzování rizik
Právní úprava využívá principu posouzení rizik a rozlišuje čtyři úrovně rizika systémů AI, přičemž platí pravidlo, že čím vyšší je riziko, tím přísnější jsou i pravidla.
Minimální riziko
Většina současných AI systémů v EU spadá do této kategorie a nevyžaduje nové povinnosti. Poskytovatelé mohou dobrovolně uplatňovat požadavky na důvěryhodnou AI a připojit se k etickým kodexům.
Specifické riziko
Tato kategorie zahrnuje systémy jako jsou chatboti a generativní AI, které musí splňovat zvláštní požadavky na transparentnost, například informování uživatelů, že komunikují s AI a ne s lidskou bytostí.
Vysoké riziko
Systémy AI v této kategorii mohou ovlivnit bezpečnost a základní lidská práva a svobody. V příloze AI aktu nalezneme seznam těchto vysoce rizikových systémů. Patří sem například:
- Biometrika a systémy biometrické identifikace,
- Kritická infrastruktura (doprava, energie),
- Vzdělávání a odborná příprava (hodnocení výsledků, prevence podvádění),
- Zaměstnání, řízení pracovníků a přístup k samostatné výdělečné činnosti (analýza žádostí o práci),
- Přístup k základním službám (zdravotní péče, pojištění),
- Právní a bezpečnostní systémy (prosazování práva, ochrana hranic).
Nepřijatelné riziko
Zahrnuje zakázané způsoby využití AI, například:
- Systémy sociálního kreditního hodnocení,
- Biometrická identifikace na dálku v reálném čase na veřejných místech (kromě vymezených případů),
- Rozpoznávání emocí na pracovišti a ve školách (pokud to není z bezpečnostních nebo zdravotních důvodů),
- Individuální prediktivní policejní práce,
- Necílené automatické stahování dat z internetu pro tvorbu databází.
Požadavky kladené na vysoce rizikovou AI
- Hodnocení dopadu na základní práva a hodnocení souladu
- Registrace ve veřejné databázi EU pro systémy AI s vysokým rizikem
- Implementace řízení rizik a systému řízení kvality
- Správa dat (zmírňování zkreslení, reprezentativní tréninková data)
- Transparentnost (instrukce pro použití, technická dokumentace)
- Lidský dohled (vysvětlitelnost, auditovatelné záznamy, člověk v smyčce)
- Přesnost, robustnost a kybernetická bezpečnost (testování a monitorování)
Budou padat i pokuty
- Až 7 % ročního celosvětového obratu nebo 35 milionů eur za porušení zakázané AI,
- Až 3 % ročního celosvětového obratu nebo 15 milionů eur za většinu ostatních porušení,
- Až 1,5 % ročního celosvětového obratu nebo 7,5 milionů eur za poskytnutí nesprávných informací.
Důvěra v AI
Transparentnost a důvěryhodnost je protkána celým AI aktem. Právě proto musí poskytovatelé AI systémů zajistit, aby lidé věděli, že komunikují s AI, pokud to není zřejmé z kontextu. Systémy, které generují syntetický obsah (ať už zvukový, obrazový, video nebo textový), musí označovat výstupy jako uměle vytvořené ve strojově čitelném formátu, což platí i pro "deep fake" obsah.
Poskytovatelé obecných AI modelů, které vykazují značnou univerzálnost a mohou být začleněny do různých aplikací, musí poskytovat technickou dokumentaci a shrnutí tréninkových dat navazujícím systémům. V neposlední řadě musí mít zavedenou politiku na dodržování autorského práva při školení těchto modelů.
Pokud byste s implementací nového nařízení o AI potřebovali pomoci , neváhejte se na naší advokátní kancelář kdykoliv obrátit. Pro další informace sledujte tento náš web, náš Facebook, Twitter (X) či LinkedIn.