AK Kalabus

Evropská unie vstupuje od 2. srpna 2025 do další fáze implementace Aktu o umělé inteligenci (Akt o AI), který představuje první komplexní právní rámec pro umělou inteligenci (AI) na světě. Nové povinnosti se dotknou především poskytovatelů obecných modelů AI (GPAI).

Cílem předmětných pravidel je zejména zvýšit transparentnost, posílit bezpečnost systémů AI a zajistit odpovědný přístup k jejich vývoji a uvádění na trh, zejména tam, kde tyto technologie slouží jako základ pro široké spektrum aplikací.

Vymezení GPAI

Akt o AI zavádí pro účely regulace pojem „obecný model umělé inteligence“, jímž se rozumí model AI, včetně případů, kdy je tento model AI trénován velkým množstvím dat s využitím vlastního dohledu ve velkém měřítku, který vykazuje významnou obecnost a je schopen kompetentně plnit širokou škálu různých úkolů bez ohledu na způsob, jakým je daný model uveden na trh, a který lze začlenit do různých navazujících systémů nebo aplikací. V praxi se tak jedná o modely AI, které jsou schopny např. generovat text, obraz, zvuk či kód, aniž by byly omezen na jediný konkrétní účel (ChatGPT, Claude, apod.).

V Aktu o AI jsou definovány rovněž tzv. obecné modely AI se systémovým rizikem, které mohou mít zásadní dopady na trh, bezpečnost a práva jednotlivců. GPAI se klasifikuje jako obecný model AI se systémovým rizikem, pokud má schopnosti s vysokým dopadem vyhodnocené na základě vhodných technických nástrojů a metodik, včetně ukazatelů a referenčních hodnot nebo na základě rozhodnutí Komise, z moci úřední nebo na základě kvalifikované výstrahy vědecké komise.

Základní povinnosti poskytovatelů GPAI

Poskytovatelé musí podle Aktu o AI především zveřejňovat jasné a srozumitelné informace o:

  • použitých tréninkovém datech, včetně přiznání využití autorsky chráněných děl,
  • výpočetních prostředcích a technické infrastruktuře použité při tréninku,
  • schopnostech a omezeních modelu,
  • známých rizicích plynoucích z jeho použití.

K naplnění této povinnosti Komise vydala vzorový formulář pro shrnutí dat použitých k tréninku, který má usnadnit jednotnou aplikaci požadavků v celé EU.

Každý GPAI musí být mj. doprovázen podrobnou technickou dokumentací, která umožní regulátorům i následným uživatelům v dodavatelském řetězci posoudit soulad modelu s Aktem o AI. Dokumentace musí obsahovat mimo jiné popis architektury modelu, metodiku tréninku, výsledky testování a posouzení rizik.

Pokud je GPAI využíván v rámci vysoce rizikových systémů AI (např. ve zdravotnictví, justici či kritické infrastruktuře), musí poskytovatel modelu spolupracovat s vývojáři těchto aplikací, a to zejména při poskytování informací a podkladů nezbytných pro splnění jejich povinností podle Aktu o AI.

Akt o AI však rozlišuje také tzv. open-source GPAI, tedy modely, jež jsou zpřístupňovány na základě svobodné a otevřené licence. Tyto modely jsou z některých povinností vyňaty v případě, že nepředstavují systémové riziko. V takovém případě platí přísnější pravidla bez ohledu na formu distribuce.

Obecné modely AI se systémovým rizikem pak musí vyjma shora uvedených povinností také:

  • provádět hodnocení modelu,
  • posuzovat a zmírňovat možná systémová rizika,
  • dokumentovat a hlásit závažné incidenty při používání modelu,
  • zajistit odpovídající úroveň ochrany kybernetické bezpečnosti.

Zatímco pro modely uvedené na trh po tomto datu platí nová pravidla okamžitě, pro modely, které byly uvedeny na trh před tímto datem, stanoví Akt dvouleté přechodné období, tzn. do 2. srpna 2027 musí být i tyto starší modely uvedeny do souladu s požadavky na transparentnost, technickou dokumentaci a další povinnosti.

Kodex správné praxe

Akt o AI rovněž předpokládá možnost přijetí Kodexu správné praxe pro GPAI (Kodex) jako dobrovolného nástroje, který usnadní prokazování souladu s právní úpravou. Kodex, vypracovaný ve spolupráci nezávislých odborníků, Komise a členských států, obsahuje:

  • vzorové formuláře pro technickou dokumentaci,
  • postupy pro dodržování autorských práv při tréninku modelů,
  • metodiky pro posouzení bezpečnosti a řízení rizik u modelů se systémovým rizikem.

Poskytovatelé, kteří se k dodržování Kodexu dobrovolně zaváží, získají výhodu snížené regulatorní zátěže a vyšší právní jistoty. Ti, kteří Kodex nepřijmou, musí samostatně prokázat, že přijali jiná účinná opatření k naplnění povinností podle Aktu o AI (Kodexu jsme se blíže věnovali zde).

Sankce za porušení povinností

Spolu s povinnostmi poskytovatelů GPAI vstupuje v účinnost také sankční mechanismus Aktu o AI. Za nejzávažnější porušení (např. uvedení zakázaného systému AI na unijní trh) může být uložena pokuta až 35 000 000 EUR nebo 7 % celosvětového ročního obratu. Za méně závažná porušení, jako je např. nedodržení požadavků na transparentnost či dokumentaci, hrozí sankce až 15 000 000 EUR nebo 3 % celosvětového ročního obratu.

Sankční režim se vztahuje nejen na poskytovatele modelů, ale i na distributory, dovozce nebo zavádějící subjekty, zejména pokud jde o vysoce regulované sektory.

Závěr

Účinnost nových ustanovení Aktu o AI od 2. srpna 2025 představuje další zásadní milník v evropské regulaci umělé inteligence. Obecné modely AI, které dosud fungovaly převážně mimo detailní právní rámec, se dostávají do centra regulatorního zájmu. Transparentnost, dokumentace, spolupráce v dodavatelském řetězci a odpovědné řízení rizik se stávají nejen právní povinností, ale i klíčovým faktorem pro udržitelné a etické využívání AI.

Poskytovatelé GPAI nyní musí propojit technologické aspekty s právní odpovědností a strategickým přístupem k souladu s novými pravidly, čímž mohou nejen předejít sankcím, ale i posílit svou pozici na dynamicky se vyvíjejícím trhu s AI.