AI act pro zaneprázdněné: Co musíte vědět v 5 minutách

AI Act a regulace umělé inteligence

Umělá inteligence se v dnešní době rychle stává nedílnou součástí našich každodenních životů – od způsobu, jakým pracujeme, až po to, jak komunikujeme. Na takto zásadní a rychlé změny ve společnosti nevyhnutelně musí reagovat také legislativa, aby zajistila bezpečný a spravedlivý rámec pro její další rozvoj a využívání. I právě proto Evropská unie přichází s AI Actem, který představuje první komplexní regulatorní nařízení na světě upravující použití systémů umělé inteligence. Pro mnohé taková legislativa představuje nejistotu, proto se pokusím její obsah jednoduše a přehledně shrnout níže v tomto článku.

Cílem nařízení je harmonizovat pravidla v oblasti AI a zajistit, aby byly technologie bezpečné, důvěryhodné, transparentní a nediskriminační. To jsou právě 4 základní cíle, které si nařízení dle své důvodové zprávy klade. Přestože nařízení zakládá řadu povinností a reguluje využívání těchto systémů, nezakazuje AI plošně. Místo toho zavádí přístup založený na posouzení míry rizika. Podle daného posouzení systému a jeho dopadu na zdraví, bezpečnost či základní práva občanů EU se pravidla zpřísňují. V důsledku má nařízení harmonizovat pravidla v oblasti umělé inteligence s cílem zajistit dobře fungující vnitřní trh systémů umělé inteligence.

Koho se týká

AI akt se vztahuje na veřejné i soukromé subjekty, a to i mimo EU, pokud poskytují nebo nasazují daný systém AI na evropský trh. Pro management firem je klíčové, že AI Act využívá přístup založený na riziku. Dopady se proto liší a jsou odstupňované podle toho, jak rizikovou AI společnost vyvíjí, poskytuje, nebo pouze využívá.

Pro běžného uživatele však AI act zásadně nic nemění. Ten totiž neobsahuje téměř žádné povinnosti pro občany EU. Nařízení naopak pro běžné uživatele zaručuje, že systémy jsou využívány odpovědně a v souladu se základními lidskými právy. AI akt nemá za cíl omezovat technologický rozvoj ani přístup běžného občana k němu, proto je Akt omezen na stanovení minimálních požadavků nezbytných k řešení rizik a problémů souvisejících s využíváním AI. Přesto však nařízení umožňuje zachovat vedoucí postavení EU v oblasti technologií.

Na jakém principu AI funguje

Podle důvodové zprávy je toto nařízení potřebné obzvláště v odvětvích s vysokými dopady, například v oblasti změny klimatu, životního prostředí a zdraví, veřejného sektoru, financí či zemědělství. Pro jejich ochranu funguje AI akt na základě mechanismu čtyřech úrovní rizika. AI akt tak definuje 4 posloupné kategorie:

Zakázané systémy

Systémy, které se řadí, do této kategorie jsou upraveny v Kapitole II Nařízení a jsou to takové systémy, kterou jsou nepřijatelné z hlediska rizik pro člověka, a tudíž je použití těchto systémů zakázáno. Právoplatné místo v této kategorii mají takové systémy, které např. využívají manipulativní nebo vykořisťovatelské praktiky či systémy, které (až na určité výjimky) používají biometrické identifikace na dálku „v reálném čase“ na veřejně přístupných místech pro účely prosazování práva či hodnocení sociálního kreditu. Jednoduše jde o takové systémy, které jsou v rozporu s hodnotami Unie.

Vysoce rizikové systémy

Vysoce rizikové systémy sice jsou povoleny, avšak podléhají přísným pravidlům. Ty jsou stanoveny jak pro období před uvedením na trh, tak po dobu celého životního cyklu systému. Nařízení klade povinnosti jak na systém samotný, tak na poskytovatele a uživatele těchto systémů pro zvýšení bezpečnosti a zajištění dodržování legislativy, a to především takové právní požadavky, pokud jde o správu údajů, dokumentaci a uchovávání záznamů, transparentnost a poskytování informací uživatelům, lidský dohled, spolehlivost, přesnost a bezpečnost. Mezi takové systémy patří nástroje, které mohou pomáhat např. řídit letadla, metra nebo dodávky energií, ale i HR systémy či systémy pro posuzování úvěryschopnosti obyvatel.

Systémy s omezeným rizikem

Do této kategorie spadají takové systémy AI, které běžně známe a využíváme. Jedná se o generativní modely AI jako například ChatGPT, Google Gemini a další. Zahrnují systémy, které komunikují s lidmi, systémy využívající detekci emocí a takové systémy, které generují obsah a manipulují s ním (tzv. deep fakes). Na tyto systém jsou kladeny především požadavky na informovanost a transparentnost tak, aby si jejich uživatel byl vědom, že komunikuje se systémem AI.

Systémy s minimálním rizikem

Poslední kategorií jsou systémy s minimálním rizikem, která je zbytkovou kategorií, tedy zahrnuje všechny ostatní systémy AI, na které nařízení žádné požadavky neklade. V zásadě neregulované jsou např. AI systémy fungující jako spamové filtry či AI využívané ve videohrách.

Ačkoliv AI Act představuje komplexní regulaci, pro většinu českých podniků nebude znamenat okamžitou a přímou administrativní zátěž. Většina nových povinností totiž dopadá především na poskytovatele a vývojáře AI softwarů, a to hlavně u systémů označených jako vysoce rizikové.

Pro firmy, které umělou inteligenci samy nevyvíjejí, ale pouze využívají již hotové nástroje od externích dodavatelů, je však klíčové zaměřit se na bezpečnost firemních dat a ověřit si, že nasazení těchto technologií je v souladu se všemi právními předpisy.


Zdroje

← Zpět na přehled článků