AI Act (Akt o Sztucznej Inteligencji) – Pierwsze na świecie kompleksowe rozporządzenie Unii Europejskiej regulujące zastosowanie sztucznej inteligencji (SI)

Głównym celem AI Act jest ochrona praw i wartości UE oraz podstawowych praw człowieka w kontekście rozwoju i wdrażania systemów AI. Regulacje dotyczą zarówno podmiotów publicznych, jak i prywatnych, mających siedzibę w UE, oraz poza nią, jeśli ich systemy AI są wykorzystywane na rynku UE lub mają wpływ na obywateli UE

Kluczowe elementy AI Act

Podstawowym założeniem AI Act jest podejście oparte na ryzyku (risk-based approach), co oznacza, że poziom regulacji i wymogów zależy od poziomu ryzyka stwarzanego przez dany system AI. Akt ten nakłada na organizacje szereg obowiązków w zakresie nadzoru i zarządzania aktywnością sztucznej inteligencji (w tym zarządzania ryzykiem i jakością danych), transparentności wobec użytkowników AI oraz przewiduje znaczące kary finansowe (do 35 mln EUR lub 7% globalnego obrotu) za brak zgodności z regulacjami.

Zakresem regulacji objęte są również systemy wykorzystujące uczenie maszynowe.

Obszary regulowane przez AI Act

  • Wymóg transparentności zastosowań AI – systemy generujące obrazy, treści audio lub wideo oraz chatboty muszą jasno informować użytkownika o interakcji z AI, oraz odpowiednio oznaczać treści tworzone syntetycznie.u prawnego i regulacyjnego
  • Zakaz wykorzystywania AI do niedozwolonych praktyk i zastosowań – m.in. scoring społeczny czy identyfikacja biometryczna w czasie rzeczywistym. Organizacje są zobowiązane do identyfikacji i klasyfikacji wykorzystywanych systemów AI w celu określenia ich charakteru oraz rodzaju.
  • Wprowadzenie standardów i wymagań dla dostawców rozwiązań opartych na generatywnej sztucznej inteligencji (GenAI) – np. ChatGPT, DALL·E, Claude. Dostawcy muszą przygotować i – na żądanie organów nadzoru – udostępnić dokumentację techniczną, obejmującą proces szkolenia i testowania systemów, a także ocenę ich rezultatów.
  • Zastosowanie AI w systemach wrażliwych i wysokiego ryzyka – takich jak rekrutacja i ocena kandydatów do pracy, analiza zdolności kredytowej, edukacja i szkolenia zawodowe, ocena ryzyka i wycena polis ubezpieczeniowych na życie i zdrowie, dostęp do usług publicznych, zdalna identyfikacja biometryczna czy zarządzanie infrastrukturą krytyczną. W tych obszarach wymagane będzie m.in. przeprowadzenie oceny zgodności, wdrożenie systemów zarządzania ryzykiem i jakością, kontrola nad zarządzaniem danymi oraz zapewnienie odpowiedniego poziomu cyberbezpieczeństwa.

AI Act w kontekście innych regulacji unijnych

Przepisy należy analizować w powiązaniu z takimi aktami prawnymi jak Karta Praw Podstawowych UE, Dyrektywa NIS2, Digital Services Act, RODO, Data Act i inne. Oznacza to konieczność uwzględnienia przez organizacje szerszego kontekstu regulacyjnego i dostosowania się do złożonego ekosystemu przepisów.

AI ACT – Strategia postępu kontrolowanego

AI Act wprowadza istotne zmiany w podejściu do sztucznej inteligencji, nakładając na organizacje nowe obowiązki. 

Rok 2025 jest kluczowy dla podjęcia działań zapewniających zgodność z tymi regulacjami.  Eksperci podkreślają konieczność identyfikacji systemów AI, oceny ryzyka, wdrożenia odpowiednich polityk i procedur oraz analizy umów z dostawcami. Proaktywne podejście do tych wyzwań pozwoli organizacjom lepiej przygotować się na nadchodzące zmiany i uniknąć potencjalnych sankcji.​

Link powiązany: Polska wersja Aktu

Więcej tematów

Wpływ AI na rynek pracy — raport konferencji Narodów Zjednoczonych ds. Handlu i Rozwoju (UNCTAD)

Sztuczna inteligencja dynamicznie przekształca globalny krajobraz zatrudnienia, a jej oddziaływanie na przyszłość pracy staje się coraz bardziej wyraźne. Według najnowszego raportu Konferencji Narodów Zjednoczonych ds. Handlu i Rozwoju (UNCTAD), wpływ AI na rynek pracy może dotyczyć nawet 40% stanowisk na całym świecie. Zmiany te będą szczególnie odczuwalne w zawodach wymagających

Czytaj więcej »

Czarna Lista Barier – postulaty deregulacyjne Konfederacji Lewiatan m.in. dla obszaru HR

W ramach działań deregulacyjnych Konfederacja Lewiatan cyklicznie przedstawia swoje postulaty, w tym najnowszą odsłonę dokumentu znanego jako „Czarna Lista Barier”.

Zaprezentowana 20 marca 2025 roku wersja tej listy zawiera liczne propozycje zmian legislacyjnych, które mogą przyspieszyć rozwój procesów cyfrowych w działach HR, upraszczając procedury zatrudnienia i ograniczając formalności.

Czytaj więcej »
Zespół młodych i zatroskanych ludzi

Obawy młodych pracowników o przyszłość zawodową – między adaptacją a lękiem przed sztuczną inteligencją

Wraz z dynamicznym rozwojem technologii sztucznej inteligencji (AI), rośnie również niepokój wśród młodszych grup pracowników dotyczący ich przyszłości zawodowej. Wyniki badań przeprowadzonych w Polsce wskazują na wyraźny paradoks – pokolenie “Z”, które najsprawniej adaptuje nowe narzędzia i technologie, jednocześnie odczuwa największy niepokój wobec ich wpływu na stabilność zatrudnienia. Obawy młodych pracowników

Czytaj więcej »

Wpływ AI na rynek pracy — raport konferencji Narodów Zjednoczonych ds. Handlu i Rozwoju (UNCTAD)

Sztuczna inteligencja dynamicznie przekształca globalny krajobraz zatrudnienia, a jej oddziaływanie na przyszłość pracy staje się coraz bardziej wyraźne. Według najnowszego raportu Konferencji Narodów Zjednoczonych ds. Handlu i Rozwoju (UNCTAD), wpływ AI na rynek pracy może dotyczyć nawet 40% stanowisk na całym świecie. Zmiany te będą szczególnie odczuwalne w zawodach wymagających

Czytaj więcej »

Czarna Lista Barier – postulaty deregulacyjne Konfederacji Lewiatan m.in. dla obszaru HR

W ramach działań deregulacyjnych Konfederacja Lewiatan cyklicznie przedstawia swoje postulaty, w tym najnowszą odsłonę dokumentu znanego jako „Czarna Lista Barier”.

Zaprezentowana 20 marca 2025 roku wersja tej listy zawiera liczne propozycje zmian legislacyjnych, które mogą przyspieszyć rozwój procesów cyfrowych w działach HR, upraszczając procedury zatrudnienia i ograniczając formalności.

Czytaj więcej »
Zespół młodych i zatroskanych ludzi

Obawy młodych pracowników o przyszłość zawodową – między adaptacją a lękiem przed sztuczną inteligencją

Wraz z dynamicznym rozwojem technologii sztucznej inteligencji (AI), rośnie również niepokój wśród młodszych grup pracowników dotyczący ich przyszłości zawodowej. Wyniki badań przeprowadzonych w Polsce wskazują na wyraźny paradoks – pokolenie “Z”, które najsprawniej adaptuje nowe narzędzia i technologie, jednocześnie odczuwa największy niepokój wobec ich wpływu na stabilność zatrudnienia. Obawy młodych pracowników

Czytaj więcej »

Dołącz do naszego newslettera

Administrator danych
Administrator danych osobowych: Praktyczne Szkolenia Prasołek & Sawicki Spółka jawna Adres ul. Grzybowska 2/34, 00-131 Warszawa

Kontakt z Administratorem
W kwestii związanej z ochroną danych osobowych możesz się skontaktować z Administratorem wysyłając wiadomość pod adres email: biuro@digitalhr.pl

Cele i podstawy przetwarzania danych osobowych
Pani/Pana dane będą przetwarzane w celu świadczenia usługi wysyłki newslettera, na podstawie art. 6 ust. 1 lit. f) RODO gdzie prawnie uzasadniony interes Administratora polega na marketingu bezpośredniego produktów i usług, w związku z wyrażeniem zgody w rozumieniu art. 10 ustawy o świadczeniu usług drogą elektroniczną.

Odbiorcy danych
Odbiorcami Pani/Pana danych osobowych mogą być dostawcy usług informatycznych.

Okres przechowywania
Dane osobowe są przechowywane do momentu wycofania zgody w rozumieniu art. 10 ustawy o świadczeniu usług drogą elektroniczną.

Prawa przysługujące w związku z przetwarzaniem danych osobowych
Przysługuję Pani/Panu prawo dostępu do swoich danych, ich sprostowania, usunięcia lub ograniczenia przetwarzania.
Przysługuję Państwu również prawo do wniesienia sprzeciwu wobec przetwarzania.
Prawo do wniesienia skargi do organu nadzorczego
Przysługuję Pani/Panu prawo do wniesienia skargi do organu nadzorczego – UODO Stawki 2, Warszawa.

Dobrowolność danych
Podanie danych jest dobrowolne.
Profilowanie i zautomatyzowane podejmowanie decyzji
Pani/Pana dane osobowe nie będą profilowane oraz nie będą przetwarzane w sposób zautomatyzowany.