AI wyprzedza regulacje. UODO apeluje o pilne zmiany w ochronie danych i wizerunku

Dynamiczny rozwój narzędzi sztucznej inteligencji, w tym technologii deepfake, obnaża słabości obecnych regulacji dotyczących ochrony danych osobowych i wizerunku. Zdaniem prezesa UODO państwo musi pilnie zareagować, bo bez zmian w prawie i praktyce jego egzekwowania zagrożenia związane z AI będą narastać.

Cyberbezpieczeństwo, komputer, IT

i

Autor: DC Studio Męskie dłonie w szarym swetrze obsługujące czarną klawiaturę komputera, z rozmytym tłem ekranów monitora wyświetlających dane. To wizualizacja problemu deepfake i cyberbezpieczeństwa, o którym możesz przeczytać na Super Biznes.

Rozwój AI wpływa na szerzenie deepfake'ów

Rozwój sztucznej inteligencji, w tym technologii umożliwiających tworzenie deepfake’ów, rodzi poważne wyzwania dla systemu prawnego i instytucji państwowych – ocenił prezes Urzędu Ochrony Danych Osobowych Mirosław Wróblewski. Jak podkreślił, problemem nie jest całkowity brak ochrony prawnej, lecz trudności w praktycznym stosowaniu obowiązujących przepisów oraz brak regulacji odnoszących się bezpośrednio do nowych technologii.

W rozmowie z PAP Wróblewski zaznaczył, że obecne prawo pozwala ścigać nielegalne wykorzystywanie danych osobowych i wizerunku, jednak w praktyce organy ścigania często nie uznają takich działań za przestępstwa. Nowe formy naruszeń bywają bagatelizowane i traktowane jako żart, mimo że ich konsekwencje dla ofiar mogą być długotrwałe i dotkliwe.

Jako przykład wskazał sprawę nieletniej dziewczynki z Mazowsza, której wizerunek został wykorzystany przy użyciu narzędzi AI. Dopiero po interwencji UODO sprawa trafiła do śledztwa. Zdaniem prezesa urzędu pokazuje to, że kluczowym problemem jest nie tylko sama technologia, lecz także podejście instytucji do jej skutków.

Deepfake mogą być wykorzystywane w celach przestępczych

Prezes UODO zwrócił uwagę, że deepfake’i są coraz częściej wykorzystywane również w celach komercyjnych i przestępczych, m.in. w fałszywych reklamach z udziałem znanych osób. Jego zdaniem platformy internetowe, które czerpią zyski z rozpowszechniania takich treści i wzmacniają ich zasięg za pomocą algorytmów, nie powinny być traktowane wyłącznie jako neutralni pośrednicy.

Wróblewski podkreślił, że zagrożenia związane z AI wykraczają poza sam problem wizerunku. Wskazał m.in. na zjawisko inferencji danych, czyli możliwość wnioskowania przez systemy AI o informacjach wrażliwych – takich jak zdrowie, poglądy czy sytuacja finansowa – na podstawie danych pozornie neutralnych. Kolejnym ryzykiem jest możliwość „wydobywania” danych osobowych z modeli AI, jeśli nie zostały one odpowiednio zabezpieczone na etapie ich trenowania.

Zdaniem prezesa UODO konieczne są bardziej precyzyjne regulacje prawne, podobne do tych obowiązujących m.in. we Francji, Włoszech czy USA, gdzie przepisy wprost odnoszą się do przestępstw związanych z przetwarzaniem wizerunku przy użyciu algorytmów oraz przewidują szybkie procedury usuwania nielegalnych treści.

– Technologia rozwija się szybciej niż praktyka stosowania prawa. Bez zmian w regulacjach i wzmocnienia ich egzekwowania ochrona danych osobowych i godności człowieka pozostanie jedynie deklaracją – podsumował Wróblewski.

Dyktando stworzone przez sztuczną inteligencję
Pytanie 1 z 11
W pochmurny poranek, gdy _ zasnuły burzowe chmury,
Radio ESKA Google News