Komise vítá politickou dohodu ohledně aktu o umělé inteligenci - AI Act
Komise vítá politickou dohodu ohledně aktu o UI
Komise vítá politickou dohodu, které dosáhly Evropský parlament a Rada ohledně aktu o umělé inteligenci navrženého Komisí v dubnu 2021.
Předsedkyně Evropské komise Ursula von der Leyenová prohlásila: „Umělá inteligence již náš běžný život proměňuje. A to je teprve začátek. Rozumně a široce používaná umělá inteligence může přinést našemu hospodářství a společnosti obrovské výhody. Proto velmi vítám dnešní politickou dohodu Evropského parlamentu a Rady o aktu o umělé inteligenci. Akt EU o umělé inteligenci je světově prvním komplexním právním rámcem, který tuto technologii upravuje. Jedná se o historický okamžik. Akt o umělé inteligenci přenáší evropské hodnoty do nové éry. Tím, že se právní úprava zaměřuje na identifikovatelná rizika, pomůže dnešní dohoda rozvoji odpovědných inovací v Evropě. Zaručením bezpečnosti a základních práv občanů a podniků podpoří vývoj, zavádění a využívání důvěryhodné umělé inteligence v EU. Náš akt o umělé inteligenci významně přispěje k rozvoji světových pravidel a zásad pro umělou inteligenci, která je zaměřená na člověka.“
Evropský přístup k důvěryhodné UI
Nová pravidla se budou uplatňovat přímo a stejně ve všech členských státech na základě nadčasové definice UI. Tato pravidla vycházejí z přístupu založeného na rizicích:
Minimální riziko: Do této kategorie spadá převážná většina systémů UI. Na aplikace s minimálním rizikem, jako jsou doporučovací systémy založené na umělé inteligenci nebo spamové filtry, se nebudou vztahovat žádná omezení ani povinnosti, protože nepředstavují žádné riziko pro práva nebo bezpečnost občanů, případně je toto riziko minimální. Firmy se však mohou dobrovolně zavázat, že na tyto systémy budou uplatňovat doplňkové kodexy chování.
Vysoké riziko: Na systémy umělé inteligence označené jako vysoce rizikové se budou vztahovat přísné požadavky, včetně povinných systémů pro snižování rizik, vysoce kvalitních souborů dat, protokolování činností, podrobné dokumentace, jednoznačných informací pro uživatele, lidského dohledu a vysoké úrovně spolehlivosti, přesnosti a kybernetické bezpečnosti. Tzv. regulační pískoviště usnadní vývoj zodpovědných inovací a systémů umělé inteligence, které jsou v souladu s předpisy.
Mezi tyto vysoce rizikové systémy UI patří kromě jiného určitá kritická infrastruktura, například v oblasti vody, plynu a elektřiny; zdravotnické prostředky; systémy pro určování přístupu ke vzdělávacím institucím nebo pro nábor pracovníků nebo některé systémy používané v oblasti prosazování práva, ochrany hranic, výkonu spravedlnosti a demokratických procesů. Za vysoce rizikové jsou navíc považovány také systémy biometrické identifikace, kategorizace a rozpoznávání emocí.
Nepřijatelné riziko: Systémy UI, které představují jasnou hrozbu pro základní lidská práva, budou zakázány. Patří sem systémy nebo aplikace UI, které manipulují s lidským chováním s cílem obejít svobodnou vůli uživatelů, jako jsou hračky s hlasovým asistentem, který navádí nezletilé k nebezpečnému chování, dále systémy, které umožňují vládám nebo podnikům provádět tzv. „sociální hodnocení“, či aplikace umožňující prediktivní policejní práci. Kromě toho budou zakázána některá použití biometrických systémů, například systémy rozpoznávání emocí používané na pracovišti, některé systémy pro kategorizaci lidí nebo biometrická identifikace na dálku v reálném čase pro účely vymáhání práva na veřejně přístupných místech (s omezenými výjimkami).
Specifickériziko, pokud jde o transparentnost: Při používání systémů UI, jako jsou chatboty, by si uživatelé měli být vědomi toho, že komunikují se strojem. Deepfake a další obsah vytvořený umělou inteligencí bude muset být takto označen. Uživatelé budou také muset být upozorněni na to, že se používá biometrická kategorizace nebo rozpoznávání emocí. Kromě toho budou muset poskytovatelé koncipovat systémy tak, aby syntetický obsah, jako je zvuk, video, text a obrázky, byl označen ve strojově čitelném formátu a aby byl zjistitelný jako uměle vytvořený nebo manipulovaný.
Pokuty
Společnostem, které nebudou tato pravidla dodržovat, budou ukládány pokuty. Pokuty se budou pohybovat od 35 milionů eur nebo 7 % celosvětového ročního obratu (uplatní se ta vyšší z těchto částek) za porušení zákazu používání určitých aplikací umělé inteligence, 15 milionů eur nebo 3 % za porušení jiných povinností a 7,5 milionu eur nebo 1,5 % za poskytnutí nesprávných informací. Správní pokuty za porušení aktu o umělé inteligenci ze strany malých a středních podniků a začínajících podniků budou úměrně zastropovány.
Umělá inteligence pro všeobecné použití
Akt o UI zavádí zvláštní pravidla pro modely UI pro obecné účely, která zajistí transparentnost v celém hodnotovém řetězci. U velmi silných modelů, které by mohly představovat systémová rizika, budou existovat další závazné povinnosti týkající se řízení rizik a monitorování závažných incidentů, provádění modelového hodnocení a kontradiktorního testování. Tyto nové povinnosti budou realizovány prostřednictvím kodexů správné praxe, které ve spolupráci s Komisí vypracují odvětví, vědecká obec, občanská společnost a další zúčastněné strany.
Pokud jde o správu, příslušné vnitrostátní orgány dozoru nad trhem budou dohlížet na provádění nových pravidel na vnitrostátní úrovni. Koordinaci tohoto dohledu bude na evropské úrovni zajišťovat nový Evropský úřad pro umělou inteligenci, který bude zřízen v rámci Evropské komise. Tento nový úřad bude rovněž dohlížet na provádění a prosazování nových pravidel pro modely UI pro všeobecné použití. Společně s vnitrostátními orgány dozoru nad trhem bude úřad pro umělou inteligenci prvním orgánem na světě, který bude prosazovat závazná pravidla pro umělou inteligenci, a proto se očekává, že se stane uznávaným vzorem na mezinárodní úrovni. V případě modelů pro obecné účely bude hrát ústřední úlohu vědecká komise nezávislých odborníků, která bude vydávat varování o systémových rizicích a přispívat ke klasifikaci a testování modelů.
Další kroky
Politickou dohodu nyní musí formálně schválit Evropský parlament a Rada. V platnost vstoupí 20 dní po vyhlášení v Úředním věstníku. Akt o umělé inteligenci se pak začne uplatňovat dva roky po svém vstupu v platnost, s výjimkou některých zvláštních ustanovení: zákazy se začnou používat již po 6 měsících, zatímco pravidla pro obecnou umělou inteligenci se uplatní po 12 měsících.
Komise ve snaze překlenout přechodné období před tím, než se nařízení stane obecně použitelným, vydá Pakt o umělé inteligenci. V něm vyzve vývojáře umělé inteligence z Evropy i ze světa, aby se dobrovolně zavázali k plnění klíčových povinností vyplývajících z aktu o umělé inteligenci ještě před zákonnými lhůtami.
V zájmu prosazování pravidel pro důvěryhodnou umělou inteligenci na mezinárodní úrovni bude Evropská unie i nadále aktivní v organizacích, jako jsou G7, OECD, Rada Evropy, G20 a OSN. V této souvislosti Unie nedávno podpořila dohodu vedoucích představitelů skupiny G7 v rámci hirošimského procesu v oblasti umělé inteligence o mezinárodních obecných zásadách a dobrovolném kodexu chování pro pokročilé systémy UI.
Souvislosti
Komise se již mnoho let snaží usnadnit a posílit evropskou spolupráci v oblasti umělé inteligence, díky níž se zvýší konkurenceschopnost a zajistí důvěra v umělou inteligenci vycházející z hodnot EU.
Po zveřejnění evropské strategie pro umělou inteligenci v roce 2018 a po rozsáhlých konzultacích se zúčastněnými stranami vypracovala odborná skupina na vysoké úrovni pro umělou inteligenci v roce 2019 pokyny pro zajištění důvěryhodnosti UI a v roce 2020 hodnotící seznam pro důvěryhodnou UI. Souběžně s tím byl v prosinci 2018 jako společný závazek s členskými státy zveřejněn první koordinovaný plán v oblasti UI.
Bílá kniha Komise věnovaná problematice umělé inteligence z roku 2020 představila jasnou vizi umělé inteligence v Evropě jako ekosystému nejvyšší úrovně založeného na důvěře. A to je i základem dnešní politické dohody. Veřejné konzultace k bílé knize o UI se účastnila široká škála subjektů z celého světa. K bílé knize byla připojena „Zpráva o dopadech umělé inteligence, internetu věcí a robotiky na bezpečnost a odpovědnost“, která dochází k závěru, že stávající právní předpisy v oblasti bezpečnosti výrobků obsahují řadu nedostatků, které je třeba řešit zejména ve směrnici o strojních zařízeních.
Zásadní význam pro utváření politik EU v oblasti umělé inteligence a zajištění jejich účinného provádění měl nezávislý výzkum založený na důkazech, který vypracovalo Společné výzkumné středisko (JRC). JRC prostřednictvím důkladného výzkumu a analýzy podpořilo vypracování aktu o umělé inteligenci tím, že přispělo k vytvoření terminologie v oblasti umělé inteligence, klasifikace rizik, technických požadavků a k probíhajícímu zpracování harmonizovaných norem.
Další informace
Prohlášení předsedkyně Komise von der Leyenové k politické dohodě o aktu EU o umělé inteligenci
Nová pravidla pro umělou inteligenci – otázky a odpovědi (očekává se aktualizace)
Nová pravidla pro umělou inteligenci – faktografický přehled
Koordinovaný plán v oblasti umělé inteligence
Nařízení o strojních výrobcích
Pravidla odpovědnosti v oblasti umělé inteligence
Evropské středisko pro algoritmickou transparentnost, Společné výzkumné středisko
*Aktualizováno 10. prosince 2023
Quote
Poslední zprávy z rubriky Evropská unie:
Přečtěte si také:
Prezentace
30.10.2024 Pochybujete o crowdfundingu? Vsaďte na lepší…
30.10.2024 Hra o trhy: Jak volby a globální napětí ženou…
16.10.2024 Aby i v zimě nohy zůstaly v teple
Okénko investora
Radoslav Jusko, Ronda Invest
Olívia Lacenová, Wonderinterest Trading Ltd.
Starbucks v červených číslech: Přinese vize nového generálního ředitele oživení?
Petr Lajsek, Purple Trading
Mgr. Timur Barotov, BHS
Jakub Petruška, Zlaťáky.cz
Americké prezidentské volby za dveřma. Jaký vliv bude mít výsledek na žlutý kov?
Jiří Cimpel, Cimpel & Partneři
Portfolio 60/40: Nadčasová strategie pro dlouhodobé investory
Miroslav Novák, AKCENTA
Ali Daylami, BITmarkets
Trump vs. Harris: komu majitelé kryptoměn coby voliči dají radši hlas?