Umělá inteligence se stává klíčem moderního pracovního prostředí. Tím se otevírají dveře inovacím a efektivitě, ale také novým výzvám a povinnostem pro zaměstnavatele. Možná rizika související s používáním umělé inteligenci a nástroje k jejich prevenci jsme již představili v minulém článku. V tomto článku se naopak zaměříme na konkrétní povinnosti zaměstnavatelů při implementaci a využívání AI systémů s různou mírou rizika tak, jak je upravuje Akt o umělé inteligenci.
Povinnosti zaměstnavatelů podle Aktu o umělé inteligenci
Povinnosti zaměstnavatelů při používání umělé inteligence na pracovišti se budou lišit v závislosti na tom, jaké riziko daný systém umělé inteligence představuje. Kategorie rizik jsme již detailně představili v jednom z našich předchozích článků, přičemž se jedná o systémy umělé inteligence s:
- nepřijatelným rizikem,
- vysokým rizikem,
- omezeným rizikem,
- minimálním rizikem.
Dalším faktorem určující rozsah povinností zaměstnavatelů je skutečnost, zda je zaměstnavatel poskytovatelem, tzn. subjektem, který vyvíjí nebo nechává vyvíjet systém umělé inteligence za účelem jeho uvedení na trh nebo do provozu, nebo zda je pouze uživatelem, tedy subjektem, který systém umělé inteligence pouze využívá.
Povinnostem poskytovatelů vysoce rizikových systémů umělé inteligence jsme se detailněji věnovali již v přechozím článku. Pro připomenutí se může jednat např. o:
- zavedení, uplatňování, zdokumentování a udržování systému řízení rizik,
- použití vhodných postupů správy a řízení tréninkových dat,
- zajištění lidského dohledu,
- vypracování technické dokumentace před uvedením systému umělé inteligence na trh,
- transparentnost,
- vypracování návodu k použití systému umělé inteligence pro uživatele,
- spolupráce s příslušnými orgány.
Povinnosti zaměstnavatele jakožto uživatele
Daleko častěji se však zaměstnavatel ocitne právě v roli uživatele umělé inteligence. Vysoce rizikový systém umělé inteligence může být v pracovním prostředí např. automatizovaný náborový systém, který je navržen tak, aby zpracovával a hodnotil velké množství přihlášek na volná pracovní místa. Dalším příkladem mohu být systémy, které monitorují a hodnotí pracovní výkon zaměstnanců, například sledováním produktivity, docházky, kvality práce a dalších metrik. Rovněž se může jednat o automatizované rozhodovací systémy, které mohou posuzovat např. úvěruschopnost osob.
Přestože uživatelé nemusí udržovat zmíněný systém rizik nebo mít starosti s vhodností tréninkových dat, neznamená to, že nemají žádné povinnosti. Uživatelé musí zejména používat vysoce rizikový systém umělé inteligence v souladu s návodem vypracovaným poskytovatelem, ale musí také např. zajistit lidský dohled v případě, kdy je vhodné, aby jej prováděl namísto uživatele. Takovýto zaměstnanec pověřený lidským dohledem by měl být mj. schopen správně interpretovat výstup vysoce rizikového systému umělé inteligence, či schopen zasáhnout do fungování vysoce rizikového systému umělé inteligence nebo jej zcela přerušit.
Dále musí zaměstnavatel jakožto uživatel systému vysoce rizikového systému umělé inteligence zajistit např.:
- aby byla vstupní data relevantní s ohledem na určený účel vysoce rizikového systému umělé inteligence v požadovaném rozsahu,
- monitorování provozu vysoce rizikového systému umělé inteligence na základě návodu k použití, a v případě problému informovat poskytovatele nebo distributora1,
- uchovávání protokolů automaticky generovaných daným vysoce rizikovým systémem umělé inteligence,
- posouzení vlivu informací na ochranu osobních údajů podle relevantních právních předpisů.
Akt o umělé inteligenci rovněž stanovuje zvláštní povinnosti pro zaměstnavatele, kteří jsou úvěrovými institucemi podléhajícími směrnici 2013/36/EU. Na ty se v případě monitorování provozu či uchovávání protokolu vztahují speciální pravidla upravená ve zmíněné směrnici.
Jak je to v případě méně rizikové umělé inteligence?
Dalo by se říct, že shora uvedené povinnosti jsou povinnosti obligatorní. Fakultativní povinnosti zaměstnavatelů by pak byly takové, které se vážou k určitým systémům umělé inteligence. Např. v případě systému rozpoznávání emocí nebo systému biometrické kategorizace musí zaměstnavatelé, jakožto uživatelé, informovat o fungování takovéhoto systému osoby, které jsou mu vystaveny, tedy své zaměstnance či zákazníky.
Dále mají zaměstnavatelé povinnost v případě systému umělé inteligence vytvářejícího obrazový, zvukový nebo video obsah, který se znatelně podobá existujícím osobám, objektům, místům nebo jiným subjektům nebo událostem a který by se určité osobě mohl nepravdivě jevit jako autentický nebo pravdivý (tzv. deep fake), případně manipulujícího s takovým obsahem, zveřejnit, že tento obsah byl uměle vytvořen nebo s ním bylo manipulováno.
Závěr
Akt o umělé inteligenci s sebou přináší konkrétní povinnosti zaměstnavatele v případě, že se rozhodne implementovat umělou inteligenci na pracoviště. Jednotlivé povinnosti jsou poměrně komplexní, a je proto nezbytné, aby se s příslušnou právní úpravou seznámil nejen zaměstnavatel, ale i jeho zaměstnanci. Umělá inteligence ovlivňuje také oblast BOZP, to si však vysvětlíme až v příštím článku.
- Fyzická nebo právnická osoba v dodavatelském řetězci, jiná než poskytovatel nebo dovozce, která dodává systém UI na trh Unie, aniž by ovlivňovala jeho vlastnosti. ↩︎