Eksport | Import | Inwestycje

Trade.gov.pl

Strona główna > Wiedza > Regulacje prawne dotyczące sztucznej inteligencji w Unii Europejskie
Artykuł

Regulacje prawne dotyczące sztucznej inteligencji w Unii Europejskie

Nowe technologie AI rozwijane są w Unii Europejskiej (UE) w sposób odpowiedzialny, bezpieczny, przejrzysty i zgodny z europejskimi wartościami. UE rozwija i promuje podejście do sztucznej inteligencji skoncentrowane na człowieku (human-centric approach to AI), tworząc jedno prawo dla różnych sektorów w oparciu o ryzyko związane z wykorzystaniem AI.

meżczyzna trzymający telefon i flaga UE

Najważniejszą regulacją w UE jest Akt w sprawie sztucznej inteligencji (AI Act) – Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13 czerwca 2024 roku.

Podejście do regulacji prawnych w zakresie sztucznej inteligencji w Unii Europejskiej

Zarządzanie (EU governance) związane z AI Act rozłożone jest na różnych poziomach – Europejski Urząd ds. Sztucznej Inteligencji utworzony w ramach Komisji Europejskiej nadzoruje wprowadzenie rozporządzenia w życie i jego koordynację, krajowe organy nadzoru zajmują się zgodnością z przepisami na poziomie narodowym oraz rozpatrywaniem skarg, natomiast panele interesariuszy doradzają w kwestii standardów i najlepszych praktyk.

AI Act koncentruje się szczególnie na małych i średnich przedsiębiorstwach. W szczególności oferuje szereg środków specjalnie zaprojektowanych w celu ich wsparcia. Zmiany regulacyjne dotyczące AI wpłyną na działalność przedsiębiorstw z wielu różnych branż. Rozporządzenie już obowiązuje, jednak niektóre jego elementy wprowadzane są stopniowo – przewidziano okresy przejściowe.

19 listopada 2025 roku Komisja Europejska opublikowała propozycje pakietu Digital Omnibus, których celem jest uproszczenie, ujednolicenie i modernizacja unijnych ram regulacyjnych w dziedzinie technologii cyfrowych, ale nie są one jeszcze prawem UE (propozycje te znajdują się dopiero na początku cyklu legislacyjnego). Jedną z propozycji jest pakiet Digital Omnibus dotyczący sztucznej inteligencji, który usprawnia i częściowo opóźnia wprowadzenie elementów unijnego rozporządzenia o sztucznej inteligencji, co ma na celu zwiększenie innowacyjności w UE.

Nowe przepisy to z jednej strony obowiązki dla przedsiębiorców (wdrożenie procedur oceny ryzyka, dokumentowania, raportowania i certyfikacji systemów AI czy obowiązek podnoszenia kwalifikacji personelu w zakresie AI), ale z drugiej strony to także liczne korzyści. Należą do nich: zwiększenie zaufania klientów i partnerów biznesowych dzięki certyfikowanym i bezpiecznym systemom AI, ułatwiony dostęp do rynku Unii Europejskiej dzięki ujednoliconym regulacjom prawnym, a także szansa na zdobycie przewagi konkurencyjnej dla firm, które jako pierwsze wdrożą zgodne z przepisami i przejrzyste rozwiązania technologiczne.

Klasyfikacja systemów AI oraz wsparcie dla przedsiębiorców w zakresie regulacji dotyczących sztucznej inteligencji

Rodzaj systemów AI
Przykłady
Szkodliwe systemy
Zakazane praktyki to m.in.  techniki podprogowe, celowe techniki manipulacyjne lub wprowadzające w błąd,  wykorzystywanie słabości określonych grup – np. ze względu na wiek (np. dzieci), niepełnosprawności czy sytuację społeczno ekonomiczną,  scoring społeczny,  rozpoznawanie emocji w miejscu pracy i edukacji,  tworzenie lub rozbudowywanie baz danych służących rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping),  wykorzystanie systemów zdalnej identyfikacji biometrycznej
Systemy wysokiego ryzyka
To np. systemy wykorzystywane w:  zarządzaniu pracownikami i rekrutacji (automatyczna selekcja CV, monitorowanie pracowników i ocena wydajności),  finansach i ubezpieczeniach (ocena zdolności kredytowej, oceny ryzyka ubezpieczeniowego),  ochronie zdrowia (systemy sterowania robotami chirurgicznymi, systemy oceny ryzyka klinicznego),  transporcie i infrastrukturze krytycznej (autonomiczne prowadzenie pojazdów, systemy sterowania ruchem), Komisja Europejska ma do lutego 2026 roku przygotować praktyczny katalog przykładów.
Systemy ograniczonego ryzyka
Dotyczą np.:  chatbotów i i systemów konwersacyjnych,  systemów generujących treści (tekst, obraz, audio),  syntetycznych mediów (jasne oznaczenie, że materiał jest sztucznie wygenerowany). Muszą one spełnić wymogi przejrzystości – użytkownik powinien wiedzieć, że wchodzi w interakcję z AI (np. użytkownik musi być poinformowany, że rozmawia z AI lub że dana treść została wygenerowana przez AI)
Systemy minimalnego ryzyka
To m.in.:  narzędzia produktywności (autouzupełnianie tekstu, podpowiedzi w edytorach dokumentów, systemy porządkujące pliki lub e maile),  systemy nawigacji i mapy (sugestie tras, szacowanie czasu dojazdu, proste analizy natężenia ruchu)  filtry antyspamowe i narzędzia bezpieczeństwa IT (klasyfikacja wiadomości jako spam, proste systemy wykrywania malware, automatyczne blokowanie podejrzanych treści) Systemy minimalnego ryzyka to takie, które nie wpływają na prawa podstawowe, nie podejmują decyzji o użytkowniku, nie dotyczą zdrowia, bezpieczeństwa ani usług publicznych i są powszechnie stosowane w codziennych technologiach.

Przepisy rozdziału I dot. przepisów ogólnych i rozdziału II dot. zakazanych praktyk rozporządzenia 2024/1689 obowiązują wprost i nie wymagają podjęcia działań legislacyjnych przez państwa członkowskie. Niezastosowanie się do przepisów rozdziału II AI Act może wiązać się z wysokimi karami administracyjnymi, których maksymalne progi zostały ustalone na 35 mln EUR lub 7 proc. całkowitego rocznego światowego obrotu z poprzedniego roku. 

Dostawcy systemów wysokiego ryzyka będą zobowiązani prowadzić szczegółową dokumentację techniczną. Sporządza się ją przed wprowadzeniem danego systemu do obrotu lub oddaniem go do użytku oraz dokonuje się jej aktualizacji. W rozdziale III dot. systemów AI wysokiego ryzyka opisano w sekcji 2 wymogi dotyczące systemów AI wysokiego ryzyka, a w sekcji 3 obowiązki dostawców i podmiotów stosujących systemy AI wysokiego ryzyka oraz innych osób. I tak np. systemy wysokiego ryzyka nie trafią na rynek bez uprzedniej oceny zgodności i uzyskania oznakowania CE, potwierdzającego spełnienie wymogów rozporządzenia. Naruszenia przepisów mogą skutkować dotkliwymi karami finansowymi.

Projekty ustaw o systemach sztucznej inteligencji w państwach członkowskich UE

EU AI Act ma zastosowanie bezpośrednie, niezależnie od opóźnień w przyjmowaniu krajowych przepisów wdrażających. Termin dla państw członkowskich na utworzenie organów nadzoru rynku wyznaczono na drugą połowę 2025 roku, jednak w wielu państwach członkowskich UE proces legislacyjny jeszcze trwa (stan na koniec 2025).

W perspektywie najbliższych 5-7 lat, biorąc pod uwagę rynki UE o największym potencjale na import polskich produktów i usług AI (IT / data / R&D), do czołówki należeć będą rynek niemiecki i francuski.

Niemcy nie dotrzymały unijnego terminu na wyznaczenie oficjalnych organów nadzoru rynku sztucznej inteligencji i nie uchwaliły jeszcze ustawy KI‑Marktüberwachungsgesetz, KIMÜG. W rezultacie polegają na istniejących organach regulacyjnych, które posiadają już kompetencje prawne w pokrewnych dziedzinach – są to m.in. organy nadzorujące ochronę danych, organy nadzoru rynku czy poszczególne ministerstwa – np. Bundesministerium des Innern czy Bundesministerium für Digitales und Verkehr / Bundesministerium für Digitales und Staatsmodernisierung.

We Francji – 9 września 2025 rokuopublikowano plan zarządzania wdrażaniem AI Act, który czeka na zatwierdzenie przez parlament. Poprzez zdecentralizowaną organizację, opierającą się na istniejących instytucjach i wykorzystującą ich wiedzę specjalistyczną, ramy zarządzania AI mają na celu zapewnienie stworzenia godnego zaufania środowiska dla rozwoju AI, ochrony jej użytkowników i wspierania innowacji. Francuska dyrekcja generalna w Ministerstwie Gospodarki, odpowiedzialna za nadzór nad konkurencją na rynku, ochroną konsumentów i zwalczaniem oszustw (DGCCRF), ma koordynować sieć francuskich sektorowych nadzorców ds. sztucznej inteligencji.

Polskie Ministerstwo Cyfryzacji opracowało projekt ustawy wdrażającej przepisy AI Act. Ustawa nie została jeszcze uchwalona, ale proces legislacyjny jest zaawansowany. Jej najważniejsze zapisy, podobnie jak ustaw w innych państwach członkowskich UE, uwzględniające wsparcie dla firm, dotyczą:

  • utworzenia organu nadzoru rynku, odpowiedzialnego za kontrolę i certyfikację (Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji),
  • wprowadzenia procedur kontrolnych i administracyjnych, obejmujących wszczynanie postępowań, nakładanie sankcji, wydawanie ostrzeżeń oraz stosowanie mechanizmów ugodowych,
  • możliwości uzyskania wiążących opinii i interpretacji, pozwalających przedsiębiorcom na ustalenie prawidłowego sposobu stosowania przepisów w indywidualnych przypadkach,
  • utworzenia piaskownic regulacyjnych, umożliwiających testowanie innowacyjnych rozwiązań AI w warunkach kontrolowanych, przy wsparciu organu nadzorczego.

Harmonogram wejścia w życie regulacji i rekomendacje

Lipiec / sierpień 2024 – publikacja w Dzienniku Urzędowym oraz wejście w życie AI Act.

Luty 2025 – weszły w życie pierwsze przepisy AI Act: zaczęły obowiązywać przepisy dotyczące zakazanych systemów AI oraz wymogów w zakresie edukacji i świadomości AI (AI literacy).

Sierpień 2025-2027 – stopniowe wejście w życie regulacji odnoszących się do ogólnych modeli AI (GPAI) i systemów AI wysokiego ryzyka.

Możliwe zmiany i opóźnienia

Warto na bieżąco śledzić nowe informacje związane z regulacjami dotyczącymi sztucznej inteligencji w Unii Europejskiej, gdyż obszar ten ulega ciągłym zmianom – pakiet Digital Omnibus opublikowano w listopadzie 2025, a na rok 2026 przewidziane są prace legislacyjne w Parlamencie Europejskim i Radzie, poprawki do projektów oraz konsultacje z interesariuszami. Jeśli proces legislacyjny przebiegnie sprawnie, możliwe jest przyjęcie pakietu na przełomie 2026/2027.

Materiał jest częścią raportu „AI – regulacje prawne istniejące i powstające na danych rynkach”, opracowanego przez:

dr Małgorzata Winiarska-Brodowska

Doktor nauk społecznych. Specjalizuje się w problematyce z pogranicza nowych technologii, polityki i stosunków miedzynarodowych.


Portal Promocji Eksportu używa plików cookies, aby ułatwić użytkownikom korzystanie z serwisu oraz do celów statystycznych. Jeśli nie blokujesz tych plików, to zgadzasz się na ich użycie oraz zapisanie w pamięci Twojego komputera lub innego urządzenia. Pamiętaj, że możesz samodzielnie zmienić ustawienia przeglądarki tak, aby zablokować zapisywanie plików cookies. Więcej informacji znajdziesz w Polityce Prywatności i Regulaminie.