Slovník pojmů AI Actu: Mluvíte jazykem regulátorů?

Slovník pojmů AI Actu

Umělá inteligence je nástroj, bez kterého si fungování dnešního moderního světa jen s těžkostí dokážeme představit. Nejen že se stává naším pomocníkem do každodenního života, ale je velkou výhodou v oblasti podnikání. Stále více podniků ji využívá ke zjednodušení procesů, automatizaci rutinních úkolů a zvyšování své efektivity. Je však nutné si uvědomit, že s výhodami, které nám AI přináší, se pojí i spousta rizik.

Na toto reaguje Evropská Unie svým nařízením o umělé inteligenci, známé jako AI Act. Jedná se o první právní předpis o umělé inteligenci na světě. Ačkoliv jeho platnost nastala již 1. srpna 2024, jeho plná účinnost je plánována až na 2. srpna 2027. Klíčová ustanovení a povinnosti však nabývají vymahatelnosti postupně, v dřívějších, přesně stanovených termínech. Cílem nařízení je vytvoření jednotného právního rámce pro vývoj a odpovědné používání umělé inteligence. Regulace cílí na podporu vývoje a inovací v oblasti AI, ale současně s tím klade důraz na bezpečnost a ochranu práv občanů, aby systémy byly bezpečné, důvěryhodné, transparentní a nediskriminační.

Znalost terminologie AI Actu je pro firmy naprosto klíčová – je to první krok k tomu, aby správně klasifikovaly své systémy, pochopily rozsah svých povinností a zajistily užívání v souladu s evropskou legislativou. Samotný článek 3 nařízení definuje 68 pojmů, které tvoří legislativní základ celého textu. V tomto článku se zaměříme na ty nejdůležitější z nich a vysvětlíme, co přesně znamenají.

Systém AI

Prvním a naprosto nejzákladnějším termínem je systém AI. Oficiální definice je velice široká: jedná se o strojový systém navržený tak, aby po zavedení fungoval s různými úrovněmi autonomie a který po zavedení může vykazovat adaptabilitu a který za explicitními nebo implicitními účely z obdržených vstupů odvozuje, jak generovat výstupy, jako jsou predikce, obsah, doporučení nebo rozhodnutí, které mohou ovlivnit fyzická nebo virtuální prostředí.

Zjednodušeně řečeno, systémem AI je jakýkoliv program nebo model, který ze vstupních dat automaticky vytváří výstupy. Takový systém umí pracovat s určitou mírou samostatnosti a často se umí učit a přizpůsobovat (tzv. adaptabilita). Zákonodárce záměrně pojmul definici systému AI takto široce, aby tam spadalo vše, od jednoduchých systémů až po pokročilé neuronové sítě.

Dnes už na denní bázi přicházíme do styku se systémy umělé inteligence: odemykání telefonu pomocí Face ID, filtr nevyžádaných emailů, co třídí emaily do spamu a do doručené pošty, algoritmus na sociálních sítích nabízející nám na míru ušitý obsah, hlasový asistent v telefonu (Siri).

Klíčové role v AI ekosystému

Provider (Poskytovatel)

Provider, česky poskytovatel, je osoba, která vyvíjí systém umělé inteligence a poté jej uvádí na trh pod svým jménem nebo ochrannou známkou. Poskytovatelé mají největší kontrolu nad vývojem AI systému, zákonodárce jim proto ukládá širokou škálu povinností. Nesou primární odpovědnost za to, aby jejich AI systémy splňovaly všechny požadavky dle nařízení, proto musí vyhodnotit rizika, které systém přináší, zajistit dokumentaci, případně certifikaci předtím, než ho začnou na trhu nabízet.

Příkladem může být společnost, která vytvořila software s AI pro automatické vyhodnocování životopisů uchazečů o práci. Tato společnost je poskytovatelem – vytvořila AI systém a nabízí ho jako produkt dalším firmám pro usnadnění náboru zaměstnanců.

Zavádějící subjekt (Deployer)

Zavádějící subjekt (deployer) je osoba, která používá AI systémy aktivně ke své činnosti výhradně k profesionálním účelům. Do této kategorie nespadá osobní a nekomerční používání. Zavádějící subjekt nese odpovědnost za správné a etické použití AI v souladu s pravidly (musí dodržovat pokyny výrobce, nesmí systém využívat k zakázaným účelům atd.).

V předchozích verzích AI Actu se používal obecný termín „user“ (uživatel). Toto označení bylo matoucí, jelikož vyvolávalo dojem, že se pravidla a odpovědnost vztahují na všechny, včetně běžných lidí, kteří AI využívají pro své osobní potřeby. Proto se později přešlo na výraz zavádějící subjekt, který lépe vystihuje profesionální využití AI.

Zavádějícím subjektem může být například nemocnice, která začne používat AI systém analyzující rentgenové snímky. Nemocnice nasazuje tento systém do provozu – školí zaměstnance ohledně užívání, nastavuje procesy. Nemocnice jako zavádějící subjekt odpovídá za to, že je AI nástroj užíván správně.

Distributor

Distributor je subjekt v dodavatelském řetězci, který dodává AI systém na trh, aniž by byl jeho tvůrcem nebo dovozcem. Nijak se nepodílí na procesu vývoje, ani nemění vlastnosti AI systému, jeho role je čistě přeprodat nebo dodat produkt od poskytovatele koncovým zákazníkům. I s touto rolí jsou spojeny povinnosti – distributor je povinen například ověřit, že produkt má potřebné označení a dokumentaci.

Například firma, která nakoupí licence AI systému pro chytré zabezpečení domácnosti od poskytovatele a poté je prodává koncovým zákazníkům (instalačním firmám, jednotlivcům), je distributorem.

Dovozce (Importer)

Dovozce (importer) uvádí systém AI na trh Evropské Unie, který je dostupný od poskytovatele sídlícího mimo EU. Pokud je systém vyvinutý ve USA a nemá v EU pobočku, musí někdo dovézt produkt do EU a zajistit jeho soulad s pravidly EU. Dovozce má velmi podobné povinnosti jako poskytovatel.

Provozovatel (Operator)

Provozovatel (operator) je širší zastřešovací pojem, který zahrnuje poskytovatele, zavádějící subjekty, dovozce a distributora. Nařízení jej používá, když chce mluvit o povinnostech každého, kdo se podílí na životním cyklu AI.

Riziko

AI Act je postaven na tzv. rizikovém přístupu – posuzuje se, jakou míru rizika může použití určitého AI systému představovat pro společnost. Riziko je definováno jako kombinace pravděpodobnosti a závažnosti možné újmy způsobené použitím AI. Nařízení zavádí čtyři kategorie rizikovosti AI. Čím vyšší kategorie, tím přísnější podmínky musí systém splňovat.

  • Minimální riziko: Do této kategorie spadá většina AI systémů, které nepředstavují významné nebezpečí. Nejsou aktem EU nijak regulována, patří sem například AI systémy ve videohrách.
  • Omezené riziko: Na systémy spadající do kategorie omezených rizik se vztahují jen mírné povinnosti v oblasti transparentnosti – lidé si musí být vědomi toho, že komunikují s umělou inteligencí. Typicky do této kategorie budou spadat AI chatboti, kteří odpovídají na dotazy zákazníků na internetových stránkách.
  • Vysoké riziko: Tato kategorie zahrnuje AI systémy, které by mohly mít nepříznivý dopad na bezpečnost osob – zejména v oblasti vzdělávání, migrace a přeshraničních kontrol nebo kritické infrastruktury (silniční doprava, dodávky energií). Takové systémy jsou povoleny, ale musí splňovat přísné požadavky a povinnosti jako lidský dohled, transparentnost a testování. Jako příklad můžeme uvést AI systém, který slouží k diagnostice nemocí u pacientů – chyba v systému by mohla poškodit zdraví pacienta.
  • Nepřijatelné riziko: Evropská Unie zakazuje systémy, jejichž riziko bylo klasifikováno jako nepřijatelné. Takový systém představuje nepřijatelnou hrozbu pro jednotlivce i společnost jako celek. Jako příklad můžeme uvést systém AI, který hodnotí jednotlivce na základě jejich chování a vytváří „sociální kreditní skóre“, které určuje přístup k půjčkám nebo pracovním příležitostem.

Životní cyklus a trh

Uvedení na trh označuje první dodání systému AI na trh EU. Jedná se o situaci, kdy je systém AI poprvé zpřístupněn na trhu Evropské unie, typicky poskytovatelem. Právě v tomto okamžiku musí produkt splňovat všechny platné právní požadavky.

Dodání na trh (making available on the market) znamená jakékoliv zpřístupnění systému AI k distribuci nebo použití na trhu EU v rámci obchodní činnosti. Zahrnuje tedy jak první uvedení na trh, tak i všechny následné prodeje, převody, pronájmy nebo i bezplatné poskytnutí v rámci obchodní činnosti.

Uvedení do provozu (putting into service) označuje situaci, kdy zavádějící subjekt začne používat AI systém ke své činnosti. To umožní, aby právní úprava dopadala i na systémy, které nebyly nabízeny na trhu, ale organizace si je vyvinula a nasadila sama. Zajišťuje to tedy, aby i interně vytvořené a následně používané AI systémy podléhaly pravidlům od okamžiku, kdy jsou nasazeny.

Další důležité pojmy

Zamýšlený účel

Označuje konkrétní použití systému AI, pro které ho jeho poskytovatel vyvinul. Vychází z toho, co výrobce uvede v oficiálních informacích. Mohli bychom říct, že se jedná o takový „popis práce“ AI systému daný jeho tvůrcem. Přesné vymezení účelu, ke kterému má AI sloužit, je základem pro posouzení jeho rizika a bezpečnosti.

Významná úprava AI systému (substantial modification)

Jde o takovou změnu systému, která nastane až po jeho uvedení na trh nebo do provozu a kterou původní poskytovatel nepředvídal. Taková úprava totiž může zásadně změnit zamýšlený účel systému, a tím pádem i jeho celkovou rizikovost. Z původně nízkorizikového systému se tak může stát systém vysoce rizikový, na který se vztahují jiné, přísnější povinnosti. AI Act proto stanovuje pravidlo: ten, kdo takovou významnou úpravu provede, na sebe přebírá plnou odpovědnost a veškeré povinnosti původního poskytovatele.

Dohled po uvedení na trh (post-market monitoring)

Pro zvýšení bezpečnosti zavádí AI Act povinnost průběžného dohledu nad AI systémy i po jejich uvedení na trh. Poskytovatelé musí sbírat a vyhodnocovat zkušenosti z provozu AI. V případě, že narazí na nové problémy či rizika, které systém AI v praxi přináší, je třeba přijmout nápravné opatření (vydat aktualizaci, varovat uživatele, případně stáhnout z trhu).

Obecný model AI

Klasické modely AI se obvykle zaměřují na jednu činnost (např. selektování kandidátů při výběru zaměstnanců). Obecný model AI jsou univerzální velké modely, které byly natrénovány na obrovském množství dat a díky tomu dokážou plnit širokou škálu úkolů napříč různými oblastmi. Typickým příkladem obecného modelu je GPT model od OpenAI, na kterém běží populární chatbot ChatGPT. Takový model umí zodpovídat otázky, psát texty, překládat, programovat, tvořit obsah atd. AI akt zavádí specifické povinnosti – poskytovatel obecného modelu musí důkladně dokumentovat trénink modelu a popsat, na jakých datech byl trénován a jaké má schopnosti. Obecné modely jsou považovány za velmi vlivné, proto i přesto, že nespadají do vysokého rizika, jim zákonodárci věnují zvýšenou pozornost a kladou na ně přísnější požadavky.

Deep fake

AI Act definuje deep fake jako uměle vytvořený obsah (obrázek, video, audio nahrávka), který napodobuje osoby, objekty či události a člověku by se mohl jevit jako autentický. Právní úprava deep fake výslovně nezakazuje. Spadá do kategorie omezeného rizika a ukládá povinnost transparentnosti, tudíž je třeba obsah označit, aby bylo zřejmé, že byl vytvořený pomocí umělé inteligence. Cílem těchto pravidel je zamezit zneužívání deep fake obsahu k podvodům a dezinformacím. Známým případem deepfake je reklama na zubní služby, ve které byla pomocí AI neoprávněně použita tvář herce Toma Hankse.

Gramotnost v oblasti AI (AI literacy)

Je schopnost porozumět AI a zacházet s ní – vědět, jak funguje, co od ní očekávat, jak správně interpretovat její výstupy a jaká pravidla a omezení se na ni vztahují. Článek 4 proto ukládá poskytovatelům i zavádějícím subjektům AI, aby zajistili, že jejich personál, co se systémem AI pracuje, je dostatečně zaškolený a má povědomí o rizicích a případných nedostatcích.


AI Act je prvním komplexním právním rámcem na světě pro regulaci umělé inteligence v Evropské Unii. Definice, které byly v tomto článku vysvětleny, jsou základem pro orientaci v nařízení – pomáhají vysvětlit základní pojmy terminologie AI, vysvětlují rozdíly mezi subjekty, které s AI pracují, a jejich odlišné povinnosti. Dále jsme si vysvětlili terminologický význam mezi okamžiky, ke kterým se právní regulace vztahuje. Porozumění těmto pojmům je důležité pro každého, kdo AI využívá k profesionálním či komerčním účelům.

← Zpět na přehled článků