#AlertHR: Sztuczna Inteligencja uregulowana!
02.02.2024
Unia Europejska zatwierdziła pierwszą na świecie kompleksową regulację dotyczącą sztucznej inteligencji, czyli Aktu o Sztucznej Inteligencji (ang. AI Act). Zatwierdzone Rozporządzenie znacząco wpłynie na pracodawców, którzy stosują rozwiązania oparte o narzędzia sztucznej inteligencji, a ich katalog jest szerszy, niż wszystkim może się wydawać. W jaki sposób AI Act wpłynie na rynek pracy i na pracodawców? Wyjaśniamy!
- Akt o Sztucznej Inteligencji jest pierwszą na świecie kompleksową legislacją regulującą funkcjonowanie sztucznej inteligencji (SI). Celem Rozporządzenia jest zagwarantowanie, aby systemy SI wprowadzane i funkcjonujące na rynku Unii Europejskiej były bezpieczne oraz gwarantowały ochronę praw i podstawowych wartości Unii Europejskiej.
- Przyjęte uzgodnienia i zatwierdzony projekt rozporządzenia wprost wskazują, że także obszar zatrudnienia i prawa pracy będzie szczególnym przedmiotem zainteresowania regulacji. Zakwalifikowany został on bowiem jako obszar wysokiego ryzyka!
- Zebrane doświadczenia praktyczne i dotychczasowe orzecznictwo, w tym także polskich sądów, wskazują jasno, że systemy sztucznej inteligencji już teraz są powszechnie wykorzystywane przez pracodawców – nawet jeśli ci nie mają świadomości, że mają z nią do czynienia.
- Jako wysokie ryzyko zostały zakwalifikowane między innymi systemy wykorzystywane w celu rekrutacji pracowników (np. przeprowadzania testów, rozmów z kandydatami, korzystania z chatbotów czy przy selekcji CV), podejmowania decyzji o awansie i rozwiązaniu stosunku pracy, przydzielania zadań, zarządzania pracownikami oraz monitorowania i oceny wydajności oraz zachowania osób pozostających w takich stosunkach.
- Co istotne, zatwierdzony tekst Aktu o Sztucznej Inteligencji wprowadza także zakaz korzystania z niektórych systemów sztucznej inteligencji stosowanych współcześnie przez pracodawców. Przykładowo, co do zasady zakazuje on kategoryzacji biometrycznych, które wykorzystują dane wrażliwe (np. linie papilarne, rozpoznawanie twarzy, rozpoznawanie emocji w miejscu pracy czy też systemów mających wpłynąć na decyzję pracownika lub klienta). Zakaz ten nie jest bezwzględny, ale korzystanie z tego typu narzędzi będzie podlegać dodatkowym wytycznym.
- Projekt zakłada także konieczność uwzględniania rozwoju sztucznej inteligencji przez podmioty ją stosujące np. w postaci obowiązku zapewnienia ograniczeń mających na celu zapobieganie jej nadużywaniu. Przewiduje też konieczność wdrożenia szczególnego rodzaju nadzoru nad systemami SI, które wchodzą w interakcję z człowiekiem.
- Rozporządzenie wyposażone zostało także w środki nadzoru i sankcje za niezgodne z nim stosowanie sztucznej inteligencji. Ich wysokość regulować będzie rodzaj naruszenia i wielkości firmy.
- Kary za niewdrożenie Rozporządzenia lub działania niezgodne z nim będą niezwykle wysokie. W zależności od tego, która z kwot będzie wyższa, nałożone kary będą mogły wynieść aż:
- 35 mln euro lub 7% rocznego obrotu w przypadku wykrycia zakazanych zastosowań sztucznej inteligencji;
- 15 mln euro lub 3% rocznego obrotu w przypadku naruszenia obowiązków wynikających z Rozporządzenia;
- 7,5 mln euro lub 1% rocznego obrotu w przypadku dostarczenia nieprawidłowych informacji do organów nadzorczych;
- Na niższy wymiar kary będą mogły liczyć jedynie przedsiębiorstwa typu start-up oraz małe i średnie przedsiębiorstwa.
- Decyzją Komisji Europejskiej stworzony zostanie też nowy, wyspecjalizowany podmiot, który odgrywał będzie kluczową rolę w zapewnieniu legalności korzystania ze sztucznej inteligencji. Organem kompetentnym do egzekwowania i weryfikacji zgodności podejmowanych działań z zastosowaniem sztucznej inteligencji z przepisami prawa ma pełnić Urząd ds. Sztucznej Inteligencji. Będzie on odgrywał także rolę wspierającą w opracowywaniu zasad i kodeksów postępowania oraz pełnił rolę doradczą i konsultacyjną.
- Przewiduje się, że opublikowanie AI Act w Dzienniku Urzędowym Unii Europejskiej nastąpi najpóźniej w czerwcu 2024 r. Co do zasady przepisy wejdą w życie 24 miesiące po publikacji. Różne jego części będą jednak wchodzić w życie w różnych momentach. Przykładowo wymogi dotyczące praktyk zakazanych wejdą w życie już po sześciu miesiącach, wymogi dla AI ogólnego przeznaczenia – po roku, a te dotyczące systemów wysokiego ryzyka po 3 latach.
- Przygotowania warto jednak rozpocząć już teraz. Za działania algorytmów odpowiada podmiot stosujący je, co oznacza, że w tym przypadku będzie to pracodawca. Warto więc już teraz zadbać o realizację obowiązków wynikających z nowego Rozporządzenia, np. przejrzystość algorytmów i baz danych, z których te korzystają. Pozwoli to na uwolnienie się od ewentualnej odpowiedzialności za działania algorytmów przynajmniej zminimalizowanie jej skutków.
Jeśli mają Państwo pytania, zapraszamy do kontaktu!
Gwarantujemy doradztwo prawne stworzone w pełni przez człowieka – brain made.