Dowiedz się więcej na temat naszych produktów. Zobacz nasz blog
  • EN
  • PL
  • Nowy kodeks dla AI: dobrowolny regulamin czy przełomowy test dla unijnego prawa?

    Nowy kodeks dla AI to inicjatywa Komisji Europejskiej mająca pomóc branży AI w spełnieniu wymogów AI Act. Dokument ten został przygotowany przy wsparciu 13 niezależnych ekspertów i ponad 1000 przedstawicieli przemysłu, akademii i społeczeństwa obywatelskiego. Jest całkowicie dobrowolny – firmy mogą się podpisać, ale nie muszą. Nie nakłada formalnych kar. Jego przestrzeganie przynosi jednak realne korzyści: łatwiejszą komunikację z nowym regulatorem EU AI Office, mniejsze ryzyko dotkliwych kar finansowych oraz większe zaufanie klientów i inwestorów.

    Innymi słowy, dobrowolna zgodność z kodeksem to swoista ścieżka preferencyjna do wdrażania modeli AI w UE. Warto podkreślić, że AI Act – pierwsze na świecie kompleksowe prawo o sztucznej inteligencji – zaczyna wchodzić w życie w 2025 roku. Zgodnie z rozporządzeniem AI Act, pierwsze zakazy dla najbardziej ryzykownych zastosowań AI obowiązują już od lutego 2025. Od 2 sierpnia 2025 wszyscy dostawcy nowych modeli muszą być zgodni z przepisami. Kodeks GPAI wspiera wdrożenie tych regulacji. Pomaga też zapewnić, że najpotężniejsze systemy AI w Europie będą bezpieczne i przejrzyste.

    Pierwsze fragmenty AI Act i kodeksu GPAI wprowadzają przejrzystość i kontrolę nad danymi. Na zdjęciu: administrator sieci pracuje przy serwerach, symbolizujących infrastrukturę potrzebną do bezpiecznego rozwoju AI.

    Nowy kodeks dla AI – co to jest i dlaczego ma znaczenie?

    Rozporządzenie AI Act (Akt o sztucznej inteligencji) zostało opublikowane 12 lipca 2024 roku. To kluczowy dokument UE, który definiuje zasady tworzenia i stosowania sztucznej inteligencji w Unii. Jest to pierwsze na świecie tak obszerne prawo dotyczące AI. Obejmuje zarówno zakazy najbardziej ryzykownych praktyk, np. legalizacji profilowania grup etnicznych czy niekontrolowanego generowania broni biologicznej. Określa też wymagania wobec wszystkich popularnych modeli AI, tzw. general-purpose AI, takich jak ChatGPT czy systemy rozpoznawania obrazu.

    AI Act wymaga, aby pracodawcy zadbali o odpowiednie kompetencje swoich pracowników w zakresie AI (tzw. AI literacy). Przepisy będą wdrażane stopniowo. 2 lutego 2025 zakazano najgroźniejszych zastosowań AI. Od 2 sierpnia 2025 pełna zgodność z AI Act będzie obowiązywać dla wszystkich nowych modeli wprowadzanych na rynek UE. Regulator zyska możliwość nakładania kar finansowych od sierpnia 2026. W kolejnych latach także dotychczasowe systemy AI będą musiały spełnić nowe wymogi. AI Act staje się więc punktem odniesienia i bodźcem do podnoszenia standardów. To także „moment prawdy” dla firm – mogą przyjąć unijne zasady albo ryzykować postępowania i kary.

    Nowy kodeks dobrych praktyk AI (GPAI) – dobrowolne wsparcie zgodności

    W lipcu 2025 r. Komisja Europejska opublikowała ostateczną wersję kodeksu postępowania dla modeli AI ogólnego przeznaczenia (ang. General Purpose AI Code of Practice, w skrócie kodeks GPAI). Komisja podkreśla, że publikacja kodeksu to ważny krok w kierunku udostępnienia w Europie najbardziej zaawansowanych modeli sztucznej inteligencji, które mają być nie tylko innowacyjne, ale także bezpieczne i przejrzyste. Dokument został wypracowany wspólnie z zainteresowanymi stronami i dostosowany do ich potrzeb. Jego podpisanie jest dobrowolne, jednak Komisja zachęca wszystkich dostawców zaawansowanych modeli do przestrzegania zasad. Współpraca z kodeksem oznacza dla nich jasną i opartą na dialogu ścieżkę do zgodności z AI Act.

    Co konkretnie zawiera kodeks GPAI? Dokument ma trzy rozdziały: Przejrzystość i prawa autorskie (dotyczące wszystkich dostawców ogólnych modeli AI) oraz Bezpieczeństwo i ochrona (istotne tylko dla producentów najsilniejszych modeli). Mówiąc prościej, kodeks wymaga, by twórcy systemów AI szczegółowo dokumentowali proces ich tworzenia i źródła danych treningowych. Przykładowo, firmy powinny dokładnie zapisywać, skąd pochodziły dane użyte do nauki modelu i jakie są parametry algorytmu. W praktyce kodeks wprowadza formularz dokumentacji ułatwiający przygotowanie takiej spójnej „karty” modelu dla regulatorów.

    Trzy filary kodeksu GPAI:

    • Transparentność: należy ujawniać pochodzenie danych treningowych oraz sposób ich pozyskania i przetwarzania. Chodzi o to, by użytkownicy i organy nadzoru wiedzieli, jak powstał dany model (czy nie użyto ukrytych lub nielegalnych danych) oraz jakie są jego możliwości.
    • Poszanowanie praw autorskich: surowy zakaz wykorzystywania materiałów z nielegalnych źródeł oraz obowiązek posiadania licencji na dane użyte do trenowania modelul. Firmy muszą publikować listę zbiorów danych (tzw. dataset cards) i źródeł, z których czerpią, tak by było jasne, że nie naruszają praw autorskich.
    • Bezpieczeństwo i zarządzanie ryzykiem: identyfikacja, ocena i minimalizacja zagrożeń związanych z użyciem AI. Dotyczy to m.in. testowania odporności modeli na nietypowe przypadki („edge cases”) oraz opracowania planów reagowania na potencjalne zagrożenia (od manipulacji wynikami po wykorzystanie AI do celów przestępczych). Rozdział ten zawiera zalecane praktyki zarządzania ryzykiem systemowym, które są częścią wymagań AI Act.

    Lista powyższa pokazuje, że kodeks GPAI uzupełnia i uwiarygadnia regulacje AI Act – zapewniając firmom gotowe narzędzia i procedury do spełnienia unijnych wymagań. Kto przyjmie te zasady na starcie, może liczyć na mniejsze obciążenie administracyjne w przyszłości oraz większe zaufanie klientów dzięki etycznym praktykom (co jest wręcz wymieniane jako przewaga konkurencyjna).

    Kto podpisał, a kto się wyłamał? Reakcje branży

    Publikacja kodeksu wywołała duże zainteresowanie w środowisku technologicznym. Z jednej strony wielkie firmy potwierdziły gotowość do współpracy z Brukselą. Według doniesień medialnych dokument podpisało już 26 czołowych koncernów z USA i Europy. Na liście są niemal wszyscy amerykańscy giganci: Google, Microsoft, Amazon i IBM. Wszyscy oni wyrazili poparcie dla trzech rozdziałów kodeksu – dotyczących przejrzystości, praw autorskich i bezpieczeństwa. Wśród sygnatariuszy znaleźli się również liderzy generatywnej AI: twórcy ChatGPT (OpenAI), firma Cohere oraz nowa europejska firma Mistral AI. Te przedsiębiorstwa deklarują, że będą budować modele w sposób transparentny i etyczny.

    Z drugiej strony kilku znanych graczy odmówiło podpisania. Najgłośniej zrobiła to Meta (Facebook). Jej przedstawiciele stwierdzili publicznie, że Unia „zmierza w złym kierunku”, a przyjęcie kodeksu wprowadza niepewność prawną i może obniżyć konkurencyjność Europy. Podobnie Apple wstrzymało wdrożenie swoich rozwiązań AI w Europie. Firma powołała się na inne regulacje, np. Digital Markets Act, zamiast dołączać do dobrowolnej inicjatywy. Częściowo do kodeksu przyłączył się też Elon Musk. Jego firma xAI zgodziła się na punkt o bezpieczeństwie, ale odrzuciła zobowiązania związane z przejrzystością i prawami autorskimi. Warto też zauważyć, że większość chińskich firm technologicznych – od Deepseek po Huawei – prawdopodobnie zignoruje europejski kodeks. Analitycy zwracają na to uwagę, komentując ogłoszenie listy sygnatariuszy.

    Podsumowując, reakcje są mieszane. Obserwatorzy określili ten moment jako „moment prawdy” dla branży. Widać wyraźny podział między tymi, którzy chcą grać według reguł UE, a tymi, którzy wolą ryzykować starcie z regulatorami. Dla konsumentów i firm korzystających z AI w Europie to jasny sygnał: część graczy pokazuje szacunek dla praw unijnych, a część stawia na szybkie wdrażanie technologii kosztem pełnej transparentności.

    Ilustracja generatywnej AI – futurystyczny krajobraz z obiektem poznawczym i rybą – pokazuje, że sztuczna inteligencja potrafi kreować złożone wizualizacje. To jednocześnie przypomnienie, że za każdym takim obrazem stoją dane i algorytmy, które kodeks chce uczynić transparentnymi i bezpiecznymi.

    Kodeks jako test dla unijnego modelu regulacji

    Pojawia się pytanie: czy dobrowolny kodeks to jedynie łagodny suplement, czy raczej test wytrzymałości unijnego podejścia do technologii? Zwolennicy UE twierdzą, że takie inicjatywy pokazują, iż regulacje nie muszą być restrykcyjne, aby podnosiły standardy. Wręcz przeciwnie – mogą stać się nowym „standardem technologicznym” i budować przewagę konkurencyjną firm szukających zaufania klientów. Krytycy ostrzegają jednak, że jeśli kluczowe firmy, zwłaszcza z USA i Chin, nie będą przestrzegać zasad, Europa może zostać zepchnięta na margines innowacji. Przykładem jest presja ponad 40 przedsiębiorstw na Komisję, aby odroczyć wdrożenie części wymogów i zyskać czas na przygotowania logistyczne.

    Trudno dziś przewidzieć finał tej historii. Jasne jest jednak, że AI Act i kodeks GPAI to istotna ewolucja podejścia UE. Zamiast narzucać wyłącznie twarde zakazy, Unia stara się budować współpracę z biznesem, jednocześnie pilnując bezpieczeństwa i praw obywateli. Firmy, które zdecydują się na kodeks, będą mogły wykazać zgodność z nowymi przepisami bez dodatkowych kar. Komisja nazywa to zmniejszeniem obciążeń administracyjnych i zwiększeniem pewności prawa. Dla użytkowników końcowych oznacza to większą przejrzystość działania AI – od informacji o źródłach danych, po zabezpieczenia przed niepożądanym użyciem sztucznej inteligencji.

    Co dalej? Jak przygotować się na nadchodzące przepisy

    W praktyce dla firm oznacza to konieczność audytu i uzupełnienia procedur compliance. Nawet jeśli nie chcą podpisać kodeksu, będą musiały spełnić te same wymogi AI Act. Warto więc już teraz:

    • przeanalizować wykorzystywane modele AI pod kątem wymagań transparentności (czy prowadzimy pełną dokumentację danych treningowych i licencji);
    • zweryfikować źródła i legalność materiałów szkoleniowych (czy mamy prawa autorskie do wszystkich danych użytych do treningu modeli);
    • opracować plany zarządzania ryzykiem AI, testować modele na nietypowych scenariuszach i reagować na luki bezpieczeństwa.

    Dzięki temu spełnienie wymagań od 2025 roku stanie się łatwiejsze. Dodatkowo, angażując się w kodeks GPAI, budujemy bonus wizerunkowy – pokazujemy się jako odpowiedzialny gracz, a nie agresywny „startup” omijający przepisy. Warto korzystać z dostępnych materiałów: Komisja przygotowuje wytyczne do AI Act i kodeksu, a wiele organizacji branżowych oferuje seminaria i analizy pomagające zrozumieć zmiany.

    Zainteresowała Cię tematyka AI Act i kodeksu dobrych praktyk? Zapraszamy do kontaktu z naszym zespołem ekspertów – wspólnie pomożemy Twojej firmie przygotować się na nowe regulacje i wdrożyć bezpieczne rozwiązania AI.

    Potrzebujesz więcej wiedzy i praktycznych wskazówek? Dołącz do naszej społeczności GOVERNITY na LinkedIn! To miejsce, gdzie eksperci, prawnicy i praktycy dzielą się doświadczeniem w obszarach RODO, AI Governance, DORA, NIS2, cyberbezpieczeństwa i cyfrowej odporności operacyjnej. Bądź na bieżąco z regulacjami, inspiruj się rozwiązaniami i rozwijaj się razem z profesjonalistami.