Głównym celem AI Act jest ochrona praw i wartości UE oraz podstawowych praw człowieka w kontekście rozwoju i wdrażania systemów AI. Regulacje dotyczą zarówno podmiotów publicznych, jak i prywatnych, mających siedzibę w UE, oraz poza nią, jeśli ich systemy AI są wykorzystywane na rynku UE lub mają wpływ na obywateli UE
Kluczowe elementy AI Act
Podstawowym założeniem AI Act jest podejście oparte na ryzyku (risk-based approach), co oznacza, że poziom regulacji i wymogów zależy od poziomu ryzyka stwarzanego przez dany system AI. Akt ten nakłada na organizacje szereg obowiązków w zakresie nadzoru i zarządzania aktywnością sztucznej inteligencji (w tym zarządzania ryzykiem i jakością danych), transparentności wobec użytkowników AI oraz przewiduje znaczące kary finansowe (do 35 mln EUR lub 7% globalnego obrotu) za brak zgodności z regulacjami.
Zakresem regulacji objęte są również systemy wykorzystujące uczenie maszynowe.
Obszary regulowane przez AI Act
- Wymóg transparentności zastosowań AI – systemy generujące obrazy, treści audio lub wideo oraz chatboty muszą jasno informować użytkownika o interakcji z AI, oraz odpowiednio oznaczać treści tworzone syntetycznie.u prawnego i regulacyjnego
- Zakaz wykorzystywania AI do niedozwolonych praktyk i zastosowań – m.in. scoring społeczny czy identyfikacja biometryczna w czasie rzeczywistym. Organizacje są zobowiązane do identyfikacji i klasyfikacji wykorzystywanych systemów AI w celu określenia ich charakteru oraz rodzaju.
- Wprowadzenie standardów i wymagań dla dostawców rozwiązań opartych na generatywnej sztucznej inteligencji (GenAI) – np. ChatGPT, DALL·E, Claude. Dostawcy muszą przygotować i – na żądanie organów nadzoru – udostępnić dokumentację techniczną, obejmującą proces szkolenia i testowania systemów, a także ocenę ich rezultatów.
- Zastosowanie AI w systemach wrażliwych i wysokiego ryzyka – takich jak rekrutacja i ocena kandydatów do pracy, analiza zdolności kredytowej, edukacja i szkolenia zawodowe, ocena ryzyka i wycena polis ubezpieczeniowych na życie i zdrowie, dostęp do usług publicznych, zdalna identyfikacja biometryczna czy zarządzanie infrastrukturą krytyczną. W tych obszarach wymagane będzie m.in. przeprowadzenie oceny zgodności, wdrożenie systemów zarządzania ryzykiem i jakością, kontrola nad zarządzaniem danymi oraz zapewnienie odpowiedniego poziomu cyberbezpieczeństwa.
AI Act w kontekście innych regulacji unijnych
Przepisy należy analizować w powiązaniu z takimi aktami prawnymi jak Karta Praw Podstawowych UE, Dyrektywa NIS2, Digital Services Act, RODO, Data Act i inne. Oznacza to konieczność uwzględnienia przez organizacje szerszego kontekstu regulacyjnego i dostosowania się do złożonego ekosystemu przepisów.
AI ACT – Strategia postępu kontrolowanego
AI Act wprowadza istotne zmiany w podejściu do sztucznej inteligencji, nakładając na organizacje nowe obowiązki.
Rok 2025 jest kluczowy dla podjęcia działań zapewniających zgodność z tymi regulacjami. Eksperci podkreślają konieczność identyfikacji systemów AI, oceny ryzyka, wdrożenia odpowiednich polityk i procedur oraz analizy umów z dostawcami. Proaktywne podejście do tych wyzwań pozwoli organizacjom lepiej przygotować się na nadchodzące zmiany i uniknąć potencjalnych sankcji.
Link powiązany: Polska wersja Aktu