Unia Europejska wcale nie idzie za daleko z tymi przepisami - przeciwnie: krajowy urząd chce jeszcze więcej regulacji w tym obszarze, a krajowa ustawa powinna iść dalej niż chce UE

REKLAMA
REKLAMA
Bruksela przesadza z regulacjami? Prezes UODO twierdzi coś odwrotnego: na deepfake’i UE wciąż nie ma kompletnych narzędzi, a Polska powinna dopisać własne, ostrzejsze przepisy. Po wecie prezydenta do ustawy wdrażającej DSA temat wraca na stół – i może wrócić z większą siłą.
- UODO: „Unijne przepisy nie wystarczą”. Polska ma dokręcić śrubę deepfake’om
- UODO: ochrona jest „wybiórcza i niewystarczająca”
- Weto prezydenta i druga szansa: prace nad wdrożeniem DSA mają wrócić
- Co daje UE: DSA, AI Act i znakowanie treści
- Inne państwa już to robią. Przykład Włoch: nowe przestępstwo związane z wykorzystaniem AI
- TSUE o ochronie wizerunku: ważny wyrok w tle deepfake’ów generowanych przy użyciu narzędzi sztucznej inteligencji
- Czego chce Prezes UODO w walce z deepfake'ami i generatywną AI: definicje, sankcje i systemowe podejście
UODO: „Unijne przepisy nie wystarczą”. Polska ma dokręcić śrubę deepfake’om
Gdy w debacie publicznej pada hasło „regulacje UE”, zwykle słychać ten sam refren: za dużo, za daleko, za szczegółowo. Tymczasem Prezes Urzędu Ochrony Danych Osobowych Mirosław Wróblewski stawia tezę, która dla wielu może brzmieć jak zimny prysznic: w sprawie deepfake’ów Unia daje tylko fragmentaryczną ochronę – a polskie prawo powinno pójść dalej.
REKLAMA
REKLAMA
Tak wynika z komunikatu UODO z 29 stycznia 2026 r. To reakcja na korespondencję z Ministerstwem Cyfryzacji i zarazem znak, że państwo ma dziś przepisy, które czasem pomagają, ale w starciu z deepfake’ami często są o krok za sprawcami.
UODO: ochrona jest „wybiórcza i niewystarczająca”
Prezes UODO wskazuje, że w obecnym porządku prawnym - zarówno unijnym (m.in. AI Act, DSA), jak i krajowym (Kodeks cywilny, Kodeks karny, prawo autorskie) - odpowiedź na zagrożenia deepfake’ów jest jedynie częściowa. Problem w tym, że deepfake nie jest jednorodnym ryzykiem: to jednocześnie kwestia ochrony wizerunku i danych, oszustw, nękania, zniesławień, manipulacji wyborczych czy podszywania się pod konkretną osobę.
UODO chwali kierunek proponowanych rozwiązań Ministerstwa Cyfryzacji, ale podkreśla: to jeszcze nie daje pełnej ochrony. I sugeruje wprost, że warto zrobić więcej, niż chce Unia Europejska - tak, jak robią to inne państwa.
REKLAMA
Weto prezydenta i druga szansa: prace nad wdrożeniem DSA mają wrócić
Kluczowy element tej historii jest polityczno-prawny: po niedawnym wecie prezydenta do ustawy wdrażającej DSA (Akt o usługach cyfrowych) temat krajowych przepisów wraca do gry.
Prezes UODO zauważa, że w zawetowanej ustawie nie było regulacji odnoszących się wprost do przeciwdziałania deepfake’om. Skoro więc prace mają zostać podjęte ponownie, to - w ocenie UODO - jest to moment, by podejść do tematu poważniej, przeanalizować możliwe opcje i zbudować spójniejsze ramy prawne.
W tłumaczeniu na język codzienny: skoro i tak trzeba pisać ustawę jeszcze raz, to da się ją napisać tak, by realnie odpowiadała na nowe metody manipulacji treścią. I była ostrzejsza w tym zakresie.
Co daje UE: DSA, AI Act i znakowanie treści
W korespondencji z resortu cyfryzacji wskazano działania na szczeblu unijnym. Są istotne, ale - zdaniem UODO - nie zamykają tematu. Spójrzmy na te regulacje oraz co wskazuje UODO.
- DSA i bardzo duże platformy (VLOP) oraz wyszukiwarki (VLOSE): Komisja Europejska wyznacza te podmioty, a one mają m.in. obowiązki dotyczące ograniczania ryzyk systemowych. Wskazano też wytyczne KE z 26 marca 2025 r. dotyczące ryzyk dla procesów wyborczych, w tym obowiązek oznaczania treści generowanych przez AI, które mogą wprowadzać w błąd (deepfake).
- AI Act – art. 50 ust. 4: podmioty generujące deepfake (obrazy/audio/wideo) mają ujawniać, że treść została sztucznie wygenerowana lub zmanipulowana.
- Cyfrowy Omnibus ws. AI (COM(2025) 836): Komisja Europejska proponuje wzmocnienie kompetencji AI Office, aby łatwiej egzekwować obowiązki wykrywania i oznaczania sztucznie generowanych lub zmanipulowanych treści.
Brzmi dobrze, ale UODO wskazuje, że te mechanizmy nie tworzą kompletnego zestawu narzędzi do zwalczania nielegalnych treści deepfake i do ochrony przed konsekwencjami nadużyć. Innymi słowy: sama etykieta "AI" nie rozwiązuje problemu, jeśli ktoś wykorzystuje cudzy wizerunek do szkody, a ścieżka dochodzenia roszczeń jest nieadekwatna do skali i szybkości rozprzestrzeniania się materiału.
Inne państwa już to robią. Przykład Włoch: nowe przestępstwo związane z wykorzystaniem AI
UODO podaje, że wiele krajów UE (m.in. Francja, Dania, Włochy, Niemcy) oraz państwa spoza UE (np. USA) decydują się na własne, szczególne regulacje. W komunikacie przywołano zwłaszcza Włochy.
Włoski ustawodawca przyjął założenie, że AI nie jest neutralnym narzędziem - to system zdolny do realnej ingerencji w prawa i wolności. Dlatego włoska ustawa o sztucznej inteligencji została pomyślana jako część szerszego systemu: obejmuje ochronę danych, odpowiedzialność cywilną, wpływa na odpowiedzialność karną i ochronę konsumentów. Jednym z działań była też nowelizacja prawa karnego, wprowadzająca definicję przestępstwa nielegalnego rozpowszechniania sfałszowanych lub zmodyfikowanych treści cyfrowych wygenerowanych z użyciem AI.
Część państw UE nie czeka, aż temat domknie się w Brukseli, tylko buduje krajowe instrumenty szybciej.
TSUE o ochronie wizerunku: ważny wyrok w tle deepfake’ów generowanych przy użyciu narzędzi sztucznej inteligencji
W komunikacie UODO pojawia się jeszcze jeden ważny punkt: wyrok Trybunału Sprawiedliwości UE z 2 grudnia 2025 r. w sprawie Russmedia (C 492/23). Trybunał uznał, że operator platformy handlowej ma obowiązek weryfikować, czy dane osobowe w ogłoszeniu należą do ogłoszeniodawcy/reklamodawcy. Jeśli nie - osoba publikująca ogłoszenie musi wykazać, że ma zgodę osoby, której dane dotyczą.
UODO podkreśla, że taka interpretacja chroni nie tylko osoby publiczne, ale też zwykłych użytkowników Internetu, co ma szczególne znaczenie właśnie teraz - przy braku unijnych przepisów kompleksowo zwalczających deepfake’i.
Czego chce Prezes UODO w walce z deepfake'ami i generatywną AI: definicje, sankcje i systemowe podejście
Sedno postulatu jest jasne: potrzebne są polskie przepisy dopasowane do specyfiki deepfake’ów, które będą je definiować oraz bezpośrednio sankcjonować rozpowszechnianie szkodliwych treści wytworzonych tą technologią. UODO mówi też o rozwiązaniach systemowych - na płaszczyźnie administracyjnej, karnej, skarbowo-karnej i sądowej.
Stawka jest wysoka: chodzi o ochronę prywatności i danych, ale też o interes obywateli i państwa, w tym - jak podkreśla urząd - gwarancje bezpieczeństwa.
Źródło: Urząd Ochrony Danych Osobowych
REKLAMA
© Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A.
REKLAMA




