Používání umělé inteligence na pracovišti s sebou přináší nové možnosti, ale také vytváří otázky, kdo nese odpovědnost nejen za regulaci, ale i samotné pracovní činnosti. V českém pracovním právu zatím neexistuje speciální regulace pro AI, takže platí obecná pravidla, dle kterých je zaměstnanec plně zodpovědný za svou práci, i když při ní využívá chytré nástroje. Zaměstnavatelé proto často nastavují interní pravidla, která určují, jak AI používat, co lze do nástrojů zadávat a jak ověřovat finální výstupy. Součástí těchto pravidel bývá i ochrana citlivých dat a respektování autorských práv.
Evropská legislativa však modifikuje používání HR systémů využívajících umělou inteligenci, protože mají potenciál ovlivnit kariéru nebo hodnocení uchazečů a zaměstnanců. V těchto případech je důležité, aby byli HR zaměstnanci řádně informovaní, proškolení a aby nad používáním AI nástrojů existoval lidský dohled. To umožňuje nejen bezpečné používání technologie, ale také minimalizuje rizika pro firmu i pro zaměstnance.
AI na pracovišti je možné používat, pokud jsou dodrženy všechny bezpečnostní regulace. Nezbytné je najít rovnováhu mezi inovací a odpovědným přístupem, nastavit jasná pravidla, pravidelně školit zaměstnance a kontrolovat, zda systémy fungují bezpečně a spolehlivě. Takový přístup umožňuje využívat AI naplno, aniž by se porušovala práva zaměstnanců nebo interní předpisy.
Je také důležité, aby zaměstnavatelé pravidelně informovali své zaměstnance o tom, jaké typy dat mohou do AI nástrojů zadávat a jak se vyhnout rizikům, jako je například únik osobních údajů nebo generování nepravdivých či zavádějících informací. Správně nastavené interní směrnice proto pomáhají jasně vymezit, kdo je zodpovědný za kontrolu výstupů AI a kdo odpovídá za případné chyby či škody vzniklé při jejím používání. Takový přístup podporuje nejen bezpečnost a zákonnost, ale i důvěru zaměstnanců, že technologie je využívána spravedlivě a transparentně.
Zásadní rozpor při užívání umělé inteligence v práci vzniká mezi principem fungování AI a pravidly GDPR. Zatímco ochrana osobních údajů stojí na tom, že data mají být shromažďována jen pro konkrétní a jasně daný účel, umělá inteligence se snaží získat co nejvíce dat, aby byly její výstupy co nejpřesnější. V praxi to teda znamená, že firmy musí pečlivě zvažovat, jaká data do AI zadávají, jinak se mohou dostat do rozporu se zásadou minimalizace údajů.
Rizikem je také nedostatečná anonymizace nebo práce s citlivými údaji, které si umělá inteligence shromažďuje a které se pak mohou nečekaně objevit v jejích výstupech. V takovém případě může uživatel nést odpovědnost za to, že údaje do systému zadal. Klíčové je proto dbát na transparentnost, interní předpisy jasně vymezující, které údaje uživatelé nesmí do umělé inteligence zadávat, a bezpečné nakládání s daty.
V případě vývoje umělé inteligence platí přísnější a specifičtější pravidla než při jejím běžném používání. Vývojáři totiž ke své práci potřebují velké množství dat a testovacích sad, které mohou obsahovat osobní údaje. Pokud k tomu dochází, je nutné tato data nejen shromáždit, ale především jasně odůvodnit, proč jsou pro vývoj algoritmu skutečně nezbytná. Právě zde naráží praxe na princip minimalizace podle GDPR, dle kterého by se mělo pracovat jen s opravdu nutným rozsahem údajů.
Zpracování osobních údajů při vývoji AI musí mít vždy jasný právní základ podle GDPR. V praxi se nabízí například plnění smlouvy dle čl. 6 odst. 1 písm. b), pokud je vývoj AI součástí poskytované služby. I v takovém případě ale platí, že rozsah využitých dat musí být skutečně nezbytný a musí odpovídat zásadě minimalizace podle čl. 5 odst. 1 písm. c).
Další možností je opřít zpracování o oprávněný zájem správce podle čl. 6 odst. 1 písm. f). V tomto případě je však nutné posoudit, zda tento zájem nepřevažuje nad právy osob poskytujících data. Navíc se často jedná o nový účel zpracování, který musí být v souladu s původním účelem podle čl. 6 odst. 4 GDPR, a proto mezi nimi musí existovat smysluplná a obhajitelná souvislost.
Velký důraz se klade také na bezpečnost a transparentnost. Vývojáři by měli minimalizovat rizika pomocí opatření, jako je anonymizace či pseudonymizace dat, šifrování nebo omezení přístupů k datům. Stejně důležité je informovat osoby, jejichž údaje jsou zpracovávány, a zajistit, aby měly přehled o tom, jak a proč jsou jejich data využívána. Jen tak lze vývoj AI sladit s požadavky na ochranu soukromí a důvěru uživatelů.
Jak jsme již zmiňovali, praxe zatím ukazuje, že při využívání AI na pracovišti hraje klíčovou roli prevence. Zásadní je zaměstnance včas a srozumitelně proškolit, jak AI efektivně používat i jaká bezpečnostní pravidla je nutné dodržovat a jak s daty pracovat.
Důležitým krokem je také přijetí interní směrnice, která používání umělé inteligence jasně upraví. Ta stanoví pravidla pro všechny zaměstnance a zároveň umožní zaměstnavateli pružně reagovat na technologický vývoj i nové legislativní požadavky.
Víte, že vám umělá inteligence může pomoci při hledánní nového zaměstnání? Podívejte se, jak využít AI při hledání práce.