- Rząd przyjął projekt ustawy o blokowaniu nielegalnych treści w internecie, mający na celu walkę z dezinformacją i nielegalnymi działaniami w sieci.
- Nowe przepisy umożliwią blokowanie treści związanych z 27 czynami zabronionymi, takimi jak groźby, nawoływanie do nienawiści czy oszustwa.
- Prezes UKE i KRRiT będą odpowiedzialni za nadzór, a autorzy treści będą mieli prawo do odwołania się od decyzji o blokadzie.
- Chcesz wiedzieć, jakie konkretnie treści będą blokowane i jak wpłynie to na wolność słowa w internecie? Dowiedz się więcej!
Blokowanie treści w internecie. Rząd przyjął projekt nowelizacji ustawy
Rada Ministrów przyjęła we wtorek projekt nowelizacji ustawy o świadczeniu usług drogą elektroniczną, przygotowany przez Ministerstwo Cyfryzacji – poinformował wicepremier i szef resortu Krzysztof Gawkowski podczas konferencji prasowej w Kancelarii Prezesa Rady Ministrów. Zmiany mają zapewnić skuteczne stosowanie w Polsce przepisów unijnego Aktu o usługach cyfrowych (DSA), dotyczącego m.in. blokowania nielegalnych treści w internecie.
- To jest ustawa, która zapewnia bezpieczeństwo w sieci - powiedział Gawkowski. Dodał, że projektowane przepisy będą narzędziem państwa do walki z deformacją i nielegalnymi treściami w sieci.
Wicepremier wskazał, że przyjęty akt prawny to jednocześnie ochrona użytkowników i wolności słowa, która jest niezwykle ważna, ale w internecie musi być traktowana w ograniczony sposób.
Organy odpowiedzialne za nadzór
Projekt zakłada, że nadzór nad stosowaniem przepisów DSA w Polsce sprawować będzie prezes Urzędu Komunikacji Elektronicznej (UKE) - w większości przypadków; Krajowa Rada Radiofonii i Telewizji (KRRiT) - w zakresie platform wideo oraz Prezes Urzędu Ochrony Konkurencji i Konsumentów (UOKiK) – w zakresie platform handlowych oraz innych spraw dotyczących ochrony konsumentów.
Które treści będą blokowane?
Nowe przepisy umożliwią składanie wniosków o zablokowanie treści m.in. przez prokuraturę, Policję, KAS czy Straż Graniczną. Procedura obejmie treści związane z 27 czynami zabronionymi kodeksem karnym, takimi jak:
- groźby karalne,
- namawianie do samobójstwa,
- propagowanie treści pedofilskich,
- szerzenie ideologii totalitarnych,
- nawoływanie do nienawiści czy znieważanie na tle narodowościowym, etnicznym, rasowym lub wyznaniowym.
Nakazowi blokowania mogą też podlegać treści związane z:
- przyjęciem zlecenia zabójstwa człowieka,
- werbunkiem dot. handlu ludźmi,
- utrwalaniem wizerunku nagiej osoby lub osoby w trakcie czynności seksualnej bez jej zgody albo stosując przemoc, groźby lub podstęp,
- prezentowaniem małoletniemu poniżej 15 lat treści pornograficznych,
- rozsyłaniem fałszywych alarmów.
Procedura ma objąć również treści związane z oszustwem komputerowym oraz ze sprzedażą przez internet wyrobów tytoniowych, papierosów elektronicznych i woreczków nikotynowych. W projekcie wymieniono też treści naruszające prawa autorskie, czy treści odnoszące się do nielegalnej sprzedaży towarów lub nielegalnego świadczenia usług.
Procedury i prawa autorów treści
Przy określaniu katalogu przestępstw objętych postępowaniem przyjęto następujące kryteria: uznanie danego czynu za przestępstwo popełnione z wykorzystaniem internetu, wynikające ze sposobu działania sprawcy; przestępstwo internetowe jest związane z rozpowszechnianiem treści; zablokowanie dostępu do treści nie wywołuje negatywnych skutków dla debaty publicznej ani procesów wyborczych.
Projekt zakłada, że autor spornej treści będzie otrzymywał od usługodawcy internetowego zawiadomienie o rozpoczęciu procedury i będzie miał dwa dni na przedstawienie swojego stanowiska. Nakaz usunięcia danej treści będzie mógł wydać prezes UKE oraz przewodniczący KRRiT - w przypadku platform wideo. Od decyzji nie będzie przysługiwać odwołanie, ale autor treści będzie mógł wnieść sprzeciw do sądu powszechnego.
Procedury po stronie urzędów mają trwać 2 dni (w przypadku, gdy wniosek złoży Policja lub prokurator), 7 dni (usługobiorca, zaufany podmiot sygnalizujący) lub 21 dni (sprawy szczególnie skomplikowane). W sytuacjach, gdy platforma internetowa błędnie usunie treści, które uzna za nielegalne, Prezes UKE lub Przewodniczący KRRiT będą mogli wydać nakaz ich przywrócenia.
Na mocy projektowanych przepisów prezes UKE będzie mógł również pełnić rolę koordynatora ds. usług cyfrowych w sprawach związanych z DSA na poziomie krajowym i europejskim. Wraz z doradczą Krajową Radą do Spraw Usług Cyfrowych ma m.in. rozpatrywać skargi składane na platformy oraz prowadzić postępowania administracyjne związane z unijnym rozporządzeniem.
Większy nadzór nad platformami internetowymi
Nowe przepisy zakładają też m.in. zwiększenie nadzoru nad platformami internetowymi w zakresie: rozpatrywania zgłoszeń przez użytkowników, przejrzystości reklam, czy ograniczeń dotyczących profilowania danych osobowych. Akt o usługach cyfrowych (DSA) jest pierwszą na świecie regulacją cyfrową (rozporządzeniem), która nakłada na firmy w całej UE odpowiedzialność za treści zamieszczane na ich platformach. W całości obowiązuje w krajach członkowskich od 17 lutego 2024 r. Artykuły 9. i 10. DSA wskazują, że państwowe organy sądowe i administracyjne mogą nakazywać dostawcom blokowanie treści w internecie.
Kiedy ustawa wejdzie w życie?
Ministerstwo Cyfryzacji (MC) przedstawiło pierwszy projekt noweli w marcu 2024 r. Wówczas organizacje pozarządowe ostrzegały przed ryzykiem cenzury politycznej i apelowały o zmianę przepisów, tak by uwzględniały prawa osób poszkodowanych, które nie zgodzą się z decyzją o blokadzie. Uwagi dotyczyły też stworzenia zamkniętej listy treści, które mogą zostać zablokowane. Resort po dwukrotnych konsultacjach uwzględnił większość tych uwag. Najnowszy projekt ustawy został opublikowany 22 września.
Ustawa ma wejść w życie po upływie miesiąca od dnia ogłoszenia, z kilkoma wyjątkami, związanymi m.in. z nakazami usunięcia treści.