AI Act w praktyce marketera – co regulacja UE oznacza dla marketingu AI w 2026 roku?

Kinga Skowronek
Content Specialist
30.04.2026 | AI w marketingu

2 sierpnia 2026 roku zaczyna obowiązywać większość przepisów AI Act – pierwszego na świecie kompleksowego prawa regulującego sztuczną inteligencję. Ten artykuł nie jest poradą prawną, tylko praktycznym przewodnikiem dla osób, które używają AI w marketingu, prowadzą firmę albo współpracują z agencją – i chcą wiedzieć, co konkretnie się zmienia.

Czego się dowiesz z tego artykułu?

    AI Act to nie odległa przyszłość – część przepisów już obowiązuje

    W internecie krąży przekonanie, że AI Act „wejdzie kiedyś tam, gdzieś w 2026 roku” i że jeszcze jest czas. To pół prawdy. Owszem, główna data, którą warto sobie zaznaczyć w kalendarzu, to 2 sierpnia 2026 roku – wtedy zaczyna obowiązywać większość przepisów regulacji, w tym te, które dotyczą Twoich reklam, chatbotów i treści generowanych przez sztuczną inteligencję. Ale niektóre obowiązki działają już od ponad roku, a wiele firm nie ma o tym pojęcia.

    Pamiętasz, jak wprowadzano RODO w 2018 roku? Przez kilka miesięcy panika, masowo wysyłane maile z prośbą o zgody, gorączkowe spotkania z prawnikami w ostatnim tygodniu maja. Z AI Actem może być podobnie – tylko że tym razem jest szansa, żeby się przygotować spokojnie, bez gaszenia pożaru w lipcu.

    W tym artykule pokażę: co to za prawo, kogo dotyczy, co już dziś musisz robić, a co zmieni się od sierpnia 2026 roku. Bez prawniczego żargonu, z konkretnymi przykładami z polskiego rynku. Jeśli prowadzisz sklep internetowy, gabinet stomatologiczny, biuro nieruchomości albo lokalną firmę usługową – w 95% przypadków po przeczytaniu tego tekstu będziesz wiedzieć, w której kategorii jesteś i co masz zrobić.

    Co to jest AI Act i dlaczego ktoś go uchwalił?

    AI Act to pierwsze na świecie kompleksowe prawo regulujące sztuczną inteligencję. Uchwalone przez Unię Europejską w 2024 roku, weszło w życie 1 sierpnia 2024, ale jego przepisy są wprowadzane stopniowo – po to, żeby firmy miały czas się dostosować.

    Po co to powstało? Bo AI w ostatnich dwóch latach przestało być eksperymentem laboratoryjnym, a stało się narzędziem, które codziennie podejmuje decyzje wpływające na ludzi. Decyduje o tym, kto dostanie kredyt, czyje CV trafi do rekrutera, jakie reklamy zobaczysz w Facebooku, jakie produkty pokaże Ci sklep internetowy. Do tej pory nikt tego nie regulował – i właśnie to UE postanowiła zmienić.

    Najprostsza analogia: pomyśl o BHP w fabryce. Nie chodzi o to, żeby zakazać produkcji – chodzi o to, żeby ustalić zasady, które chronią ludzi przed wypadkami. AI Act robi to samo dla sztucznej inteligencji. Nie zakazuje używania AI, ale wprowadza zasady, które mają zapobiec sytuacjom, w których algorytm krzywdzi człowieka, dyskryminuje go albo manipuluje nim bez jego wiedzy.

    Ważne: AI Act dotyczy każdej firmy, która działa na rynku UE – również tych, które używają narzędzi takich jak ChatGPT, Claude, Gemini, Canva AI czy Midjourney. Nie musisz tworzyć własnej sztucznej inteligencji, żeby przepisy Cię obejmowały. Wystarczy, że jej używasz.

    Cztery poziomy ryzyka – w którym jest Twoja firma?

    Sercem AI Act jest podział systemów sztucznej inteligencji na cztery poziomy ryzyka. To jak system kategorii w transporcie – inne zasady obowiązują autobus szkolny, inne dostawcę pizzy, a inne kierowcę osobówki, mimo że wszyscy jeżdżą po tej samej drodze. Im większe potencjalne ryzyko dla człowieka, tym surowsze przepisy. W tej sekcji pokażę Ci wszystkie cztery, ale od razu uspokajam: większość firm marketingowych i e-commerce’owych mieści się w trzecim albo czwartym poziomie, gdzie obowiązki są minimalne lub umiarkowane.

    Ryzyko niedopuszczalne – co jest po prostu zakazane

    To systemy, których w Unii Europejskiej nie wolno używać w żadnej formie. Należą do nich między innymi: scoring społeczny obywateli (czyli ocenianie ludzi na podstawie ich zachowań i przyznawanie im „punktów obywatela”, jak w niektórych systemach azjatyckich), manipulacja podświadomością (techniki wpływające na decyzje człowieka bez jego wiedzy), czy rozpoznawanie emocji w miejscu pracy lub szkole.

    W marketingu raczej nie spotkasz takich narzędzi. Ale warto wiedzieć: jeśli ktoś sprzedaje Ci usługę typu „zainstalujemy kamery, które rozpoznają emocje klientów wchodzących do sklepu i dostosują reklamę do ich nastroju” – to jest sygnał ostrzegawczy. Trzymaj się od tego z daleka.

    Wysokie ryzyko – kiedy AI decyduje o czyimś losie

    To systemy AI używane w obszarach, gdzie błąd może realnie skrzywdzić człowieka: w rekrutacji, ocenie zdolności kredytowej, edukacji, medycynie, dostępie do usług publicznych. Jeśli używasz AI, które samodzielnie odrzuca CV kandydatów albo decyduje, kto dostanie ofertę pracy – wpadasz tutaj.

    Większość agencji marketingowych i ich klientów nie operuje w tej kategorii. Jeśli jednak prowadzisz firmę rekrutacyjną, używasz AI do oceny ryzyka kredytowego klientów, albo Twoje narzędzie marketingowe filtruje leady na podstawie cech wrażliwych (zdrowie, pochodzenie, orientacja) – warto sprawdzić, czy nie wymaga to dodatkowej dokumentacji i procedur.

    Ograniczone ryzyko – tu jest większość firm

    W tej kategorii znajdują się chatboty, generatory treści, narzędzia do tworzenia grafik AI, systemy rekomendacji w sklepach internetowych, a także deepfake’i (czyli filmy, w których ktoś mówi rzeczy, których nigdy nie powiedział). Jeśli masz na stronie chatbota, używasz ChatGPT do pisania postów, generujesz grafiki w Midjourney albo masz inteligentne wyszukiwanie produktów – jesteś tutaj.

    Główny obowiązek w tej kategorii to przejrzystość. Klient ma prawo wiedzieć, że rozmawia z botem, a nie z człowiekiem. Ma prawo wiedzieć, że oglądane wideo zostało wygenerowane sztucznie, a nie nakręcone kamerą. Ma prawo wiedzieć, że twarz w reklamie nie należy do prawdziwej modelki. Reszta tego artykułu skupi się głównie na tej kategorii, bo właśnie w niej działa najwięcej polskich firm.

    Minimalne ryzyko – większość codziennych narzędzi

    Tu są filtry antyspamowe, AI w grach komputerowych, systemy korekty pisowni, większość prostych narzędzi marketingowych. AI Act nie nakłada na nie żadnych dodatkowych obowiązków poza dobrymi praktykami i ogólnymi zasadami. Jeśli używasz Grammarly do sprawdzania tekstu albo automatycznych filtrów w Gmailu – jesteś w tej kategorii i nie musisz nic zmieniać.

    Co już musisz robić w 2026 roku?

    Wiele osób myśli o AI Act w trybie „muszę się tym zająć w lipcu”. Tymczasem niektóre obowiązki obowiązują już od ponad roku, a większość firm o nich nie wie. Zanim przejdziemy do tego, co czeka Cię w sierpniu, warto sprawdzić, czy nie masz już jakichś zaległości.

    Kompetencje AI w zespole – obowiązek od 2 lutego 2025

    To jeden z najmniej znanych obowiązków, a dotyczy praktycznie każdej firmy. Brzmi tajemniczo, ale w praktyce sprowadza się do prostej zasady: jeśli Twoi pracownicy używają AI w pracy – a używają, bo ChatGPT jest dziś wszędzie – firma ma obowiązek zadbać, żeby wiedzieli, jak go używać sensownie i bezpiecznie.

    Nie chodzi o drogie szkolenia certyfikujące. Chodzi o to, żeby pracownik wiedział na przykład, że nie wkleja danych osobowych klientów do publicznego ChatGPT. Że jeśli AI wygeneruje mu fałszywą informację, on musi to zauważyć. Że treść marketingowa stworzona przez AI powinna być sprawdzona przez człowieka przed publikacją. W większości małych i średnich firm wystarczy krótka polityka wewnętrzna na jednej stronie i 30-minutowe szkolenie dla zespołu. Ale formalnie – ten obowiązek już Cię dotyczy.

    Modele AI ogólnego przeznaczenia – obowiązek od 2 sierpnia 2025

    To zasady skierowane przede wszystkim do dostawców dużych modeli, takich jak OpenAI (twórca ChatGPT), Anthropic (twórca Claude) czy Google (twórca Gemini). Muszą oni publikować dokumentację techniczną, informować o danych, na których trenowali model, oraz przestrzegać praw autorskich.

    Co to oznacza dla Ciebie jako użytkownika? W praktyce niewiele – ale dobrze wiedzieć, że wybierając narzędzie AI, możesz dziś sprawdzić, czy jego dostawca jest zgodny z AI Act. Dostawcy europejscy i ci najwięksi już to robią. Mniejsi, lokalni dostawcy „polskich AI” – warto zapytać.

    Praktyki zakazane – obowiązek od lutego 2025

    To te najgorsze rzeczy z pierwszej kategorii ryzyka, które już dziś są w UE nielegalne. Z marketingowego punktu widzenia praktyczna lekcja jest jedna: trzymaj się z daleka od narzędzi, które obiecują „odczytywanie emocji klientów z kamery”, „przewidywanie zachowań na podstawie cech wrażliwych”, albo masową zbiórkę zdjęć ludzi z internetu do baz biometrycznych. Jeśli ktoś sprzedaje Ci taką usługę, ma już teraz problem prawny.

    Co zmienia się 2 sierpnia 2026 – obowiązki przejrzystości w marketingu

    To data, na której skupia się większość uwagi – i słusznie. Wtedy zaczyna obowiązywać kluczowy dla marketingu Artykuł 50 AI Act, który wprowadza zasady przejrzystości. W praktyce dotyczy on tego, czego używasz prawdopodobnie codziennie: chatbotów, treści generowanych przez AI i deepfake’ów. Poniżej trzy najważniejsze obszary.

    Chatboty i automatyczna komunikacja z klientem

    Obowiązek brzmi prosto: jeśli klient pisze do Twojej firmy i odpowiada mu bot – musi o tym wiedzieć. Najprostsze rozwiązanie to pierwsze zdanie chatbota: „Cześć, jestem wirtualnym asystentem [nazwa firmy]. Pomogę Ci szybko znaleźć potrzebne informacje – jeśli będziesz potrzebować rozmowy z człowiekiem, daj znać”.

    Dotyczy to chatbotów na stronach internetowych, botów w Messengerze, automatycznych odpowiedzi w WhatsApp Business, asystentów w aplikacjach mobilnych. Wyobraź sobie, że prowadzisz salon kosmetyczny i masz bota rezerwującego wizyty na Facebooku – musisz dodać informację, że to bot. To zajmuje pięć minut, a wielu firmom wciąż brakuje tej drobnej zmiany.

    Drobny niuans: jeśli używasz automatycznych odpowiedzi typu „dziękujemy za wiadomość, odpowiemy w 24h” – to nie jest chatbot w rozumieniu AI Act i nie wymaga oznaczenia. Chodzi o systemy, które prowadzą faktyczną rozmowę i odpowiadają inteligentnie na pytania.

    Treści generowane przez AI – grafiki, wideo, teksty, deepfake’i

    Tu jest najwięcej znaków zapytania, więc rozłóżmy temat na czynniki pierwsze. AI Act wprowadza dwa różne poziomy obowiązków, w zależności od tego, jak bardzo treść może wprowadzić odbiorcę w błąd.

    Pierwszy poziom dotyczy zwykłych treści generowanych przez AI – grafik produktowych z Midjourney, postów napisanych w ChatGPT, automatycznych opisów produktów w sklepie internetowym. Tu obowiązek jest techniczny: w plikach powinny znaleźć się tak zwane metadane, czyli niewidoczne dla użytkownika informacje, że treść powstała z udziałem AI. Większość dużych narzędzi (DALL-E, Midjourney, Adobe Firefly) już dziś dodaje takie metadane automatycznie. Z punktu widzenia marketera oznacza to: nie musisz robić nic specjalnego, jeśli korzystasz z dużych, zgodnych z prawem narzędzi.

    Drugi poziom – znacznie bardziej restrykcyjny – dotyczy deepfake’ów. To filmy, zdjęcia lub nagrania audio, w których prawdziwa osoba wygląda lub brzmi tak, jakby zrobiła czy powiedziała coś, czego w rzeczywistości nie zrobiła ani nie powiedziała. Reklama, w której znana aktorka „mówi” wymyślony przez Ciebie tekst dzięki AI? Deepfake. Wideo, w którym Twój prezes „przemawia” z biura, w którym nigdy nie był? Deepfake. Takie treści muszą być wyraźnie, widocznie oznaczone jako materiały sztucznie stworzone lub zmodyfikowane.

    Ważny wyjątek: jeśli deepfake jest oczywistą satyrą, parodią lub dziełem artystycznym, można go nie oznaczać. Ale w marketingu komercyjnym – zawsze oznaczaj. Granica między „realistyczną reklamą z modelem AI” a „deepfake’em” może być cienka, a kara za jej przekroczenie wysoka.

    Personalizacja, targetowanie i decyzje automatyczne

    AI Act nie zakazuje personalizacji reklam – to byłoby zabicie współczesnego marketingu. Ale zaostrza zasady, gdy do targetowania używane są dane wrażliwe: o zdrowiu, orientacji seksualnej, pochodzeniu, poglądach religijnych. Tu temat krzyżuje się z RODO, które już od lat reguluje przetwarzanie takich danych.

    W praktyce dla marketera oznacza to dwie rzeczy. Po pierwsze: trzymaj się z daleka od narzędzi, które oferują targetowanie po cechach wrażliwych bez wyraźnej zgody odbiorcy. Po drugie: jeśli używasz AI, która automatycznie podejmuje decyzje istotne dla klienta (na przykład odrzuca jego wniosek, ustala dla niego cenę albo decyduje, czy dostanie rabat) – upewnij się, że jest możliwość odwołania się do człowieka. To zasada „human in the loop”, o której usłyszysz coraz częściej.

    Konkretne sytuacje – kiedy AI Act dotyczy mojej firmy

    Najlepiej widać to na realnych przykładach z polskiego rynku. Poniżej kilka scenariuszy, które prawdopodobnie pokrywają się z Twoją sytuacją albo sytuacją Twojego klienta.

    Wyobraź sobie sklep internetowy z chatbotem na stronie, który odpowiada na pytania o dostawę i pomaga znaleźć produkt. Czy AI Act go dotyczy? Tak. Wystarczy dodać informację, że klient rozmawia z botem – i obowiązek jest spełniony. Chatbot może być oparty na ChatGPT, Claude lub własnym rozwiązaniu, to bez znaczenia.

    Gabinet stomatologiczny używający ChatGPT do pisania postów na Facebooku? Tak, dotyczy go obowiązek kompetencji AI – zespół powinien wiedzieć, że nie wkleja danych pacjentów do narzędzia, że treści są weryfikowane przed publikacją, że ChatGPT czasem zmyśla. Same posty, jeśli są akceptowane przez człowieka przed publikacją, nie wymagają specjalnego oznaczania.

    Deweloper nieruchomości, który używa wygenerowanych przez AI wizualizacji mieszkań, które jeszcze nie zostały wybudowane? Tu jest ciekawie. Same wizualizacje koncepcyjne to standard branży i nie wymagają oznaczenia jako „AI”. Ale jeśli generujesz zdjęcia tak realistyczne, że wyglądają jak fotografie istniejącego mieszkania – dobra praktyka mówi, żeby dodać w stopce „wizualizacja koncepcyjna, ujęcie poglądowe”. Nie tylko ze względu na AI Act, ale również prawa konsumenckiego.

    Firma B2B używająca AI do automatycznej selekcji leadów – tu robi się poważniej. Jeśli AI samodzielnie kwalifikuje leady jako „dobre” lub „złe” na podstawie danych firmy, raczej nie ma problemu. Jeśli jednak system odrzuca leady na podstawie cech wrażliwych (na przykład płci osoby kontaktowej albo lokalizacji geograficznej, która koreluje z pochodzeniem) – warto dokładnie sprawdzić, na czym opiera decyzje.

    Restauracja, która pokazuje w reklamie talerz wygenerowany przez AI? Już dziś dobra praktyka mówi, żeby unikać sytuacji, w której klient widzi na zdjęciu coś innego niż dostaje w lokalu. Po sierpniu 2026 obowiązek oznaczania takich grafik stanie się jasny. Najprostsze rozwiązanie: drobny napis „wizualizacja” przy zdjęciu albo używanie prawdziwych fotografii talerzy, które realnie serwujesz.

    Kary – ile to naprawdę kosztuje?

    W tym miejscu zwykle pojawia się ton straszący. Ja zachowam ostrożność, bo realność jest bardziej zniuansowana niż nagłówki sugerują.

    Maksymalne kary w AI Act są wysokie i robią wrażenie. Za standardowe naruszenie przepisów grozi kara do 15 milionów euro lub 3% globalnego rocznego obrotu firmy (zależnie od tego, która kwota jest większa). Za stosowanie praktyk zakazanych – do 35 milionów euro lub 7% obrotu. Te liczby są skierowane przede wszystkim do dużych graczy: platform technologicznych, banków, producentów dużych systemów AI.

    Dla małej lub średniej firmy realność wygląda inaczej. Spójrzmy na RODO jako punkt odniesienia, bo to najbliższa nam analogia. Pierwsze spektakularne kary RODO – setki milionów euro dla Mety, Google’a, Amazona – pojawiały się dopiero po latach. Małe i średnie firmy w Polsce w pierwszych latach RODO dostawały głównie ostrzeżenia, nakazy dostosowania i rzadziej kary rzędu kilku tysięcy złotych. Z AI Actem prawdopodobnie będzie podobnie: pierwsze lata to okres edukacji rynku, kontroli prewencyjnych i nakazów dostosowania, a nie spektakularnych kar.

    To nie znaczy, że można temat zignorować. Znaczy tyle, że warto się przygotować spokojnie, w ciągu najbliższych trzech miesięcy, a nie panikować w ostatnim tygodniu lipca. Druga, może ważniejsza kwestia: ryzyko reputacyjne. Dziś klient, który dowie się, że firma używa AI bez jego wiedzy, częściej zareaguje rozczarowaniem niż prawnym roszczeniem. Ale zaufanie odbudowuje się latami.

    Twoja ścieżka zgodności – pięć kroków, które możesz zrobić w tym tygodniu

    Jeśli dotarłeś do tego miejsca, prawdopodobnie myślisz „ok, brzmi sensownie, ale od czego zacząć?”. Poniżej praktyczna ścieżka, którą sami przerabiamy z naszymi klientami. Nie wymaga prawnika ani drogiego doradcy – większość rzeczy zrobisz sam albo z agencją w ciągu jednego popołudnia.

    • Zrób inwentaryzację AI w firmie. Spisz wszystkie narzędzia, które używają sztucznej inteligencji – ChatGPT, Claude, Canva AI, Midjourney, chatboty na stronie, automatyzacje w mailach, generatory grafik, narzędzia analityczne. Większość firm jest zaskoczona, ile tego jest, gdy zacznie spisywać.
    • Sprawdź, w którym poziomie ryzyka jesteś. W zdecydowanej większości przypadków będziesz w trzecim (ograniczone ryzyko) lub czwartym (minimalne) – co oznacza umiarkowane lub żadne dodatkowe obowiązki.
    • Zadbaj o kompetencje AI w zespole. Wystarczy krótka polityka wewnętrzna na jednej stronie i półgodzinne spotkanie z zespołem. Najważniejsze zasady: nie wklejamy danych osobowych do publicznych narzędzi AI, weryfikujemy każdą treść wygenerowaną przez AI przed publikacją, oznaczamy materiały tam, gdzie to wymagane.
    • Sprawdź swoje chatboty i automatyzacje. Czy klient wie, że rozmawia z botem? Czy w komunikacji jest informacja o tym, że odpowiada wirtualny asystent? Jeśli nie – do końca lipca 2026 dodaj. To dosłownie zmiana jednego zdania w skrypcie bota.
    • Porozmawiaj z dostawcą lub agencją marketingową. Jeśli ktoś zewnętrzny prowadzi Twoje kampanie, zapytaj wprost: „Jak przygotowujecie się na AI Act?”. Jasna, konkretna odpowiedź to dobry znak. Brak odpowiedzi albo „nie słyszeliśmy o tym” – sygnał, że warto rozważyć rozmowę z innym partnerem.

    Jak my w emedia podchodzimy do AI Act?

    Używamy AI codziennie – do prowadzenia kampanii dla klientów z branży nieruchomości, motoryzacji, medycyny, e-commerce. Mamy wewnętrzną politykę używania sztucznej inteligencji, weryfikujemy treści generowane przez AI przed publikacją i pomagamy klientom dostosować ich chatboty oraz automatyzacje do nowych wymagań. 

    Jeśli czytasz to jako szef firmy lub marketer in-house i nie wiesz, od czego zacząć – umów się na bezpłatną konsultację. Możemy razem przejść przez inwentaryzację i pokazać, w której kategorii jesteś. 

    Podsumowanie

    AI Act nie powstał po to, żeby zakazać sztucznej inteligencji – powstał po to, żeby ją oswoić. Większość firm marketingowych i e-commerce’owych jest w „lekkim” reżimie regulacyjnym, gdzie głównym obowiązkiem jest przejrzystość: powiedzenie klientowi, że rozmawia z botem, że grafika powstała z AI, że wideo zostało wygenerowane sztucznie.

    Najlepszy moment, żeby się tym zająć, to maj, czerwiec i lipiec 2026 – zanim 2 sierpnia stanie się terminem, którego nie da się przesunąć. Z AI Actem będzie jak z RODO: kto się przygotuje wcześniej, w ogóle nie zauważy zmian. Kto zostawi to na ostatnią chwilę, zapłaci nie kary, ale stres, panikę i koszty pośpiesznych decyzji.

    0/5 (0 głosy)

    Rozwiń z nami swój biznes on-line

    Dodaj komentarz

    Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *


    Skontaktuj się z nami i zacznijmy
    budowanie Twojego biznesu!

    Skorzystaj z bezpłatnej wyceny lub wyślij nam wiadomość