• Nie Znaleziono Wyników

Prawne możliwości ograniczenia dostępu do pornografii w internecie w Unii Europejskiej

N/A
N/A
Protected

Academic year: 2021

Share "Prawne możliwości ograniczenia dostępu do pornografii w internecie w Unii Europejskiej"

Copied!
9
0
0

Pełen tekst

(1)

Prawne możliwości ograniczenia dostępu do pornografii w internecie

w Unii Europejskiej

Kamila Groszkowska

Legal possibilities of restricting access to pornography on the Internet in the European Union The question whether and how to restrict access to pornography on the internet has been a subject of much debate. The task how to accord the protection of minors and morality with economic freedoms is challenging, especially given the lack of harmonisation in the definition of pornography and of the appropriate provisions in EU member states. The article pres- ents different legal solutions in restricting access to online pornography in Poland, France and the United Kingdom and discusses the possibilities in the EU law, focusing on the protection of minors.

1. Wstęp

W większości państw członkowskich Unii Europejskiej po- jęcie treści o charakterze pornograficznym nie jest zdefi- niowane prawnie, w związku z czym problematyka ta jest różnie uregulowana w poszczególnych państwach. W Eu- ropie aż do XVII wieku pornografia nie była przedmiotem zainteresowania prawa karnego. Pierwsze regulacje i zaka- zy pojawiły się na przełomie XVII i XVIII wieku w Austrii, An- glii oraz Francji, a poważniejsza reglamentacja pornografii w prawie karnym przypada na wiek XIX. Fakt ten można powiązać z rozwojem technik drukarskich i wynalezieniem fotografii, co przyczyniło się do powszechnej dostępności treści o charakterze pornograficznym1. Obecnie, w związ- ku z postępem technologicznym, zdecydowana większość treści pornograficznych znajduje się w internecie, co sta- nowi duże wyzwanie dla prawa w zakresie możliwości re- gulacji tego zjawiska. Debata zwolenników i przeciwników otwartego dostępu do takich treści polaryzuje się głównie wokół dwóch zagadnień: obowiązku ochrony małoletnich

1 R.A. Stefański (red.), Kodeks karny. Komentarz, wyd. 4, War- szawa 2018.

przed szkodliwymi treściami oraz konieczności zapew- nienia wolności ekonomicznych i swobody przedsiębior- czości. Stawiane są również pytania o formę regulacji: czy ewentualne ograniczenia dostępu do pornografii w inter- necie powinny być określone w twardym prawie (na pozio- mie krajowym lub unijnym), w formie samo- lub współregu- lacji, czy też może wystarczające byłyby wytyczne Komisji Europejskiej zachęcające państwa członkowskie do pod- jęcia określonych działań?

W państwach, w których pornografia nie jest całkowicie zakazana2, można wyróżnić dwa rodzaje ograniczeń dostę- pu do pornografii w internecie. Po pierwsze, są to ograni- czenia dostępu ze względu na bezprawność treści takich, jak np. pornografia dziecięcia lub, zabroniona w niektórych państwach członkowskich UE, pornografia ekstremalna.

Druga grupa obejmuje ograniczenia dostępu wprowadza- ne ze względu na ochronę małoletnich, przede wszystkim różnego rodzaju systemy weryfikacji wieku użytkowników lub tzw. blokady rodzicielskie. W państwach Unii Europej-

2 Produkcja i rozpowszechnianie treści o charakterze porno- graficznym jest nielegalne w trzech państwach członkowskich Unii Europejskiej, tj. Bułgarii, Islandii, i Litwie.

(2)

skiej nie występują natomiast takie systemy, które umoż- liwiłby utrudnienie dostępu do legalnej pornografii doro- słym użytkownikom internetu.

2. Możliwości wprowadzenia ograniczeń na gruncie prawa Unii Europejskiej

2.1. Penalizacja treści o charakterze pornograficznym

W prawie Unii Europejskiej zagadnienie dostępu do por- nografii nie jest kompleksowo uregulowane. Oznacza to, że problematyka ta nie jest zharmonizowana a regulacje prawne w tym zakresie pozostają w gestii państw człon- kowskich. Prezentowanie treści o charakterze pornogra- ficznym w internecie, jak również przeglądanie takich tre- ści, nie jest zabronione na gruncie prawa unijnego, o ile nie są to treści przedstawiające pornografię dziecięcą. Zgod- nie z dyrektywą Parlamentu Europejskiego i Rady 2011/92/

UE z 13 grudnia 2011 r. w sprawie zwalczania niegodziwego traktowania w celach seksualnych i wykorzystywania sek- sualnego dzieci oraz pornografii dziecięcej3 za pornogra- fię dziecięcą uznawane są wszelkie materiały ukazujące dziecko lub osobę wyglądającą jak dziecko uczestniczące w rzeczywistych lub symulowanych zachowaniach o wy- raźnie seksualnym charakterze oraz wszelkie przedstawie- nia organów płciowych dziecka lub osoby wyglądającej jak dziecko w celach głównie seksualnych. Celem wydania dyrektywy było zobowiązanie państw członkowskich do wprowadzenia do swojego ustawodawstwa krajowego przepisów dotyczących zwalczania niegodziwego trakto- wania dzieci w celach seksualnych, wykorzystywania sek- sualnego dzieci oraz pornografii dziecięcej. Podstawą do wydania dyrektywy kryminalizującej zjawisko pornografii dziecięcej była Konwencja Organizacji Narodów Zjed- noczonych o prawach dziecka z 1989 r. oraz Karta praw podstawowych Unii Europejskiej. Zgodnie z art. 5 dyrek- tywy świadome uzyskiwanie dostępu za pośrednictwem technologii informacyjno-komunikacyjnych do pornografii dziecięcej, podlega sankcji karnej w maksymalnym wy- miarze co najmniej roku pozbawienia wolności. Karalne są również dystrybucja, rozpowszechnianie, posiadanie, udo- stępnianie czy produkowanie pornografii dziecięcej.

2.2. Prawo pierwotne Unii

Wytwarzanie i rozpowszechnianie niezakazanych prawnie treści o charakterze pornograficznym w internecie należy do objętych ochroną swobód traktatowych, tj. swobody świadczenia usług lub swobody przedsiębiorczości. Wy- nikające z tego faktu prawa i wolności ekonomiczne nie mają jednak charakteru absolutnego. Zgodnie z art. 52

3 Dyrektywa Parlamentu Europejskiego i Rady 2011/92/UE z dnia 13 grudnia 2011 r. w sprawie zwalczania niegodziwego trak- towania w celach seksualnych i wykorzystywania seksualnego dzieci oraz pornografii dziecięcej, zastępująca decyzję ramową Rady 2004/68/WSiSW, Dz.U. L 335 z 17 grudnia 2011 r.

w związku z art. 62 Traktatu o funkcjonowaniu Unii Europej- skiej ograniczenia tych swobód o charakterze dyskrymi- nacyjnym są dopuszczalne, jeżeli uzasadniają je względy porządku publicznego, bezpieczeństwa publicznego lub zdrowia publicznego. Ponadto z orzecznictwa Trybunału Sprawiedliwości Unii Europejskiej wynika, że ogranicze- nia swobody przepływu usług są dozwolone ze względu na klauzulę porządku publicznego i ochronę interesu ogólnego, o ile są one niezbędne dla ochrony interesów, i gdy cele te nie mogą zostać osiągnięte innymi, mniej re- strykcyjnymi środkami (tj. są zgodne z zasadą proporcjo- nalności)4. Trybunał stanął na stanowisku, że okoliczności uzasadniające odwołanie się do pojęcia porządku pu- blicznego mogą różnić się w poszczególnych państwach członkowskich w różnych odcinkach czasu, w związku z czym swobodę określenia zakresu tego pojęcia Trybunał pozostawił właściwym organom państw członkowskich5. W zakresie porządku publicznego mogą mieścić się rów- nież względy natury moralnej, na co Trybunał wskazał w wyroku dotyczącym możliwości ograniczenia przywozu materiałów pornograficznych na teren państwa członkow- skiego6. Podtrzymując swoją linię orzeczniczą przyznał on państwom członkowskim kompetencję do samodzielnego określania, w zgodności z własnym systemem wartości, wymogów moralności publicznej7.

W świetle przywołanego orzecznictwa należy wska- zać, że prawo pierwotne Unii Europejskiej daje państwom członkowskim możliwość wprowadzenia pewnych ogra- niczeń w zakresie swobody przedsiębiorczości i świad- czenia usług, takich jak dostarczanie użytkownikom treści o charakterze pornograficznym, ze względu na wymogi po- rządku publicznego i moralności publicznej. Mimo braku wiążącej definicji tych pojęć i kompetencji państw człon- kowskich do samodzielnego określenia co wchodzi w ich zakres, należy pamiętać, że takie ograniczenia ze względu na fakt, iż stanowiłby wyjątki od ogólnych zasad traktato- wych, nie powinny być interpretowane rozszerzająco.

2.3. Prawo wtórne Unii

2.3.1. Dyrektywa o handlu elektronicznym

Analizując prawo wtórne Unii należy stwierdzić, że nało- żenie na operatorów telekomunikacyjnych i dostawców

4 Wyrok Trybunału z dnia 14 października 2004 r. w sprawie C-36/02 Omega Spielhallen- und Automatenaufstellungs-Gm- bH przeciwko Oberbürgermeisterin der Bundesstadt Bonn, EC- LI:EU:C:2004:614, pkt 36.

5 Zob. wyrok Trybunału z dnia 27 października 1977 r.

w sprawie 30/77 Régina przeciwko Pierre Bouchereau, ECLI: EC- LI:EU:C:1977:172, pkt 34; wyrok Trybunału z dnia 4 grudnia 1974 w sprawie 41/74 Yvonne Van Duyn przeciwko Home Office, ECLI:

ECLI:EU:C:1974:133, pkt 18; wyrok Trybunału z dnia 14 paździer- nika 2004 r. w sprawie C-36/02 Omega Spielhallen- und Automa- tenaufstellungs-GmbH przeciwko Oberbürgermeisterin der Bun- desstadt Bonn, ECLI:EU:C:2004:614, pkt 31.

6 Wyrok Trybunału z dnia 14 grudnia 1979 r. w sprawie Regina przeciwko Maurice Donald Henn i John Frederick Ernest Darby, ECLI: ECLI:EU:C:1979:295

7 Ibidem, pkt 15.

(3)

usług internetowych obowiązku ograniczenia dostępu i blokowania określonych treści w internecie, np. treści pornograficznych, jest problematyczne, przede wszystkim w kontekście Dyrektywy 2000/31/WE Parlamentu Euro- pejskiego i Rady z 8 czerwca 2000 r. w sprawie niektórych aspektów prawnych usług społeczeństwa informacyjnego, w szczególności handlu elektronicznego w ramach ryn- ku wewnętrznego (dyrektywy o handlu elektronicznym8).

Artykuł 14 omawianej dyrektywy wyłącza odpowiedzial- ność dostawcy usług internetowych za informacje prze- chowywane i udostępniane na serwerach, nawet jeżeli są to treści bezprawne, pod warunkiem, że dostawca nie miał wiarygodnych informacji o bezprawnym charakterze takich treści lub nie wiedział o okolicznościach świad- czących o bezprawności. W przypadku gdy dostawca zo- stanie powiadomiony o naruszeniu, jest zobowiązany do niezwłocznego usunięcia lub zablokowania dostępu do bezprawnych treści. Jest to tzw. procedura notice and ta- kedown (tj. powiadomienie i zlikwidowanie), polegająca na konieczności uniemożliwienia dostępu do nielegalnych treści po otrzymaniu informacji o ich bezprawności. Zasa- dy ograniczenia odpowiedzialności mogą być stosowane również w odniesieniu do administratorów stron interne- towych, na których użytkownicy mogą dodawać własne treści. W środowisku prawniczym trwa dyskusja na temat kryteriów pozwalających na uznanie administratora stro- ny internetowej za podmiot świadczący usługę hostingu (host service providera), którego odpowiedzialność za treści publikowane przez innych użytkowników jest ogra- niczona, w odróżnieniu od wydawcy, ponoszącego pełną odpowiedzialność za treści znajdujące się na administro- wanej stronie9. Orzecznictwo Trybunału Sprawiedliwości Unii Europejskiej nie daje jednoznacznej odpowiedzi, jaki poziom zaangażowania administratora w treści publikowa- ne przez innych użytkowników jest wymagany, by uznać, że ponosi on za nie pełną odpowiedzialność10.

Ponadto, zgodnie z art.  15 dyrektywy o handlu elek- tronicznym, państwa członkowskie nie mogą nałożyć na usługodawców świadczących określone usługi telekomu- nikacyjne ogólnego obowiązku nadzorowania informacji, które przekazują lub przechowują, ani ogólnego obowiąz- ku aktywnego poszukiwania faktów i okoliczności wska- zujących na bezprawną działalność. Celem dyrektywy jest ochrona dostawców usług internetowych przed odpowie- dzialnością za dostarczane treści oraz przed obowiązkiem ogólnego nadzorowania informacji. W związku z powyż- szym, nałożenie prawnego ogólnego obowiązku filtrowa- nia i blokady treści pornograficznych na dostawców tele- komunikacyjnych mogłoby zostać uznane za niezgodne z art. 15 dyrektywy o handlu elektronicznym. Na ten temat

8 Dyrektywa 2000/31/WE Parlamentu Europejskiego i Rady z 8 czerwca 2000 r. w sprawie niektórych aspektów prawnych usług społeczeństwa informacyjnego, w szczególności handlu elektronicznego w ramach rynku wewnętrznego (dyrektywa o handlu elektronicznym), Dz.U. L 178 z 17.7.2000.

9 D. Głowacka, Odpowiedzialność administratorów stron in- ternetowych za treści publikowane przez użytkowników w świetle sprawy Delfi AS v. Estonia [w:] red. A. Bodnar, A. Płoszka, Wpływ Europejskiej Konwencji Praw Człowieka na funkcjonowanie bizne- su, Wolters Kluwer Polska, Warszawa 2016.

10 Ibidem.

wypowiedział się ponadto Trybunał Sprawiedliwości Unii Europejskiej w orzeczeniu z 24 listopada 2011 r. w sprawie C-70/10 Scarlet przeciwko SABAM11. Trybunał orzekł, że prawo unijne nie pozwala na objęcie dostawcy interneto- wego nakazem wdrożenia systemu filtrowania wszystkich połączeń elektronicznych przekazywanych za pośrednic- twem jego usług, mającego zastosowanie do wszystkich jego klientów, na jego wyłączny koszt i bez ograniczenia w czasie, zdolnego do zidentyfikowania w sieci tego do- stawcy przypadków przekazywania plików elektronicz- nych zawierających utwory muzyczne, kinematograficzne lub audiowizualne, co do których strona powodowa rości sobie prawa własności intelektualnej w celu zablokowania transferu plików, których wymiana narusza prawo autor- skie. Zdaniem Trybunału wprowadzenie takiego systemu filtrowania byłoby niezgodne zarówno z dyrektywą o han- dlu elektronicznym, jak również z poszanowaniem praw własności intelektualnej, ochroną wolności prowadzenia działalności gospodarczej oraz ochroną danych osobo- wych. Trybunał zauważył, że skutki nakazu wprowadzenia takiego systemu nie ograniczyłyby się do owych dostaw- ców, gdyż system filtrowania mógłby naruszać także prawa podstawowe ich klientów, a mianowicie prawo do ochrony danych osobowych oraz wolność otrzymywania i przeka- zywania informacji, chronione przez art. 8 i 11 Karty praw podstawowych Unii Europejskiej.

2.3.2. Dyrektywa w sprawie zwalczania pornografii dziecięcej

W zakresie blokownia w internecie zakazanej prawnie pornografii dziecięcej dyrektywa w sprawie zwalczania niegodziwego traktowania w celach seksualnych i wyko- rzystywania seksualnego dzieci oraz pornografii dziecię- cej w art. 25 nakłada na państwa członkowskie obowiązek podjęcia środków niezbędnych do zapewnienia szybkiego usunięcia stron internetowych zawierających lub rozpo- wszechniających pornografię dziecięcą utrzymywanych na ich terytorium oraz podjęcia działań w celu zapewnie- nia usunięcia takich stron utrzymywanych poza ich teryto- rium. Ustęp 2 tego artykułu daje państwom członkowskim możliwość blokowania stron internetowych zawierających lub rozpowszechniających pornografię dziecięcą wśród użytkowników internetu na swoim terytorium. Środki te muszą być wprowadzone w oparciu o przejrzystą procedu- rę i dostarczać odpowiednich gwarancji, w szczególności w celu zapewnienia ograniczenia blokowania do tego, co konieczne i współmierne, oraz informowania użytkowni- ków o powodzie takiego blokowania. Gwarancje te mogą również obejmować możliwość uzyskania zadośćuczynie- nia sądowego.

2.3.3. Nowa dyrektywa audiowizualna

Unia Europejska zdecydowała się również na podjęcie kro- ków w celu wzmocnienia ochrony małoletnich przed do- stępem do treści pornograficznych w internecie. Od maja 2016 r. w Parlamencie Europejskim trwają prace nad nową

11 Wyrok Trybunału z 24 listopada 2011 r. w sprawie C-70/10, Scarlet Extended SA przeciwko SABAM, ECLI:EU:C:2011:771.

(4)

czynności seksualne człowieka, w szczególności ukazują- ce organy płciowe człowieka w ich funkcjach seksualnych, zawarte w utrwalonej formie, np. obrazów, zdjęć, nagrań wideo lub w formie pokazów na żywo, obejmujące zarówno czynności niesprzeczne z biologicznym uwarunkowaniem człowieka, jak i czynności sprzeczne z przyjętymi w społe- czeństwie wzorcami zachowań seksualnych13. Warto pod- kreślić, że zgodnie z orzecznictwem Sądu Najwyższego użyte w kodeksie karnym pojęcie „treści pornograficzne”

jest pojęciem prawnym, nie zaś medycznym lub seksuolo- gicznym, w związku z czym jedynie sąd jest właściwy do oceny, czy dane treści lub formy należy zakwalifikować jako pornograficzne14.

Kodeks karny wyróżnia kilka typów przestępstw związa- nych z pornografią, tj. odnoszących się do treści pornogra- ficznych, przedmiotu mającego charakter pornograficzny a także innych czynności. Nie wszystkie jednak mają zna- miona pozwalające na ich realizację w internecie15. W za- kresie treści pornograficznych (art. 202 § 3 k.k.) zabronio- ne są trzy kategorie treści pornograficznych: z udziałem małoletniego (tj. pornografia dziecięca), związane z pre- zentowaniem przemocy oraz związane z posługiwaniem się zwierzęciem. W przypadku pornografii dziecięcej za- broniona jest również tzw. pornografia pozorowana, tj.

materiały z udziałem zarówno rzeczywistego dziecka, lecz także osoby dorosłej wyglądającej jak dziecko lub przed- stawiająca realistyczne obrazy nieistniejącego dziecka, np.

animowanego (art. 202 ust. 4b k.k.). Treści związane z pre- zentowaniem przemocy obejmują także sceny przemocy odegrane przez aktorów, sceny wytworzone za pomocą różnych technik wizualizacji a także sceny, w których od- biorca treści ma wrażenie, że przemoc została użyta16.

Zgodnie z art. 202 §  3 k.k. produkowanie, utrwalanie, sprowadzanie, przechowywanie i posiadanie w celu roz- powszechnia podlega karze pozbawienia wolności od lat 2 do 12. Utrwalanie treści z udziałem małoletniego podlega karze pozbawienia wolności od roku do lat 10 (art. 202 § 4 k.k.), a samo przechowywanie, posiadanie lub uzyskiwa- nie dostępu do takich treści obarczone jest sankcją pozba- wienia wolności od 3 miesięcy do 5 lat (art. 202 § 4a k.k.).

W przypadku pornografii dziecięcej pozorowanej sankcja karna obejmuje grzywnę, ograniczenie wolności albo po- zbawienie wolności do lat 2 (art. 202 § 4b k.k.). Ponadto, art. 202 § 1 k.k. wprowadza penalizację publicznej prezen- tacji treści pornograficznych w taki sposób, że może to na- rzucić ich odbiór osobie, która sobie tego nie życzy, pod karą grzywny, ograniczenia wolności albo pozbawienia wolności od lat 2. Ustawodawca przyjął w tym wypadku tzw. koncepcję wolnościową, gwarantując osobie dorosłej wolność w zakresie dobrowolnego korzystania z porno- grafii, uczestniczenia w procesie jej wytwarzania ale rów- nież wolności do niechcianego kontaktu z pornografią.

Oznacza to, że znamiona z art. 202 ust. 1 k.k. będą spełnio-

13 Wyrok Sądy Najwyższego z 23 listopada 2010 r., sygn. akt IV KK 173/10, OSNwSK 2010 nr 1, poz. 2302.

14 Ibidem.

15 Zob. kodeks karny, art. 200 § 3, 4, 5; art. 200a § 1, 2; art. 202 § 1, 3, 4, 4a, 4b, 4c; art. 191a § 1; art. 200b.

16 M. Królikowski, R. Zawłocki, Kodeks karny. Część szczegól- na. Komentarz do artykułów 117–221, t. I, Wydawnictwo C.H. Beck, wyd. 4, Warszawa 2017.

dyrektywą audiowizualną12, która jako jedno z założeń przy- jęła rozszerzenie ochrony małoletnich przez szkodliwymi treściami. Komisja Europejska zaproponowała nałożenie na państwa członkowskie obowiązku zapewnienia, by w zakre- sie swojej odpowiedzialności dostawcy platform udostęp- niających pliki wideo stosowali – najlepiej w drodze współ- regulacji – odpowiednie środki pozwalające na ochronę małoletnich przed szkodliwymi treściami oraz ochronę wszystkich obywateli przed nawoływaniem do przemo- cy lub nienawiści w stosunku do grupy osób lub członka takiej grupy ze względu na płeć, rasę, kolor skóry, religię, pochodzenie bądź przynależność narodową lub etniczną.

Zmieniona dyrektywa przewiduje ujednolicenie standar- dów ochrony obowiązujących w odniesieniu do rozpo- wszechniania telewizyjnego i usług video na żądanie, w tym filmów i nagrań o charakterze pornograficznym. W art. 12 wniosku zmieniającego dyrektywę audiowizualną określo- no wymaganie, by audycje mogące zaszkodzić fizyczne- mu, psychicznemu lub moralnemu rozwojowi małoletnich były udostępniane wyłącznie w sposób zapobiegający ich oglądaniu lub słuchaniu przez osoby małoletnie w zwykłych okolicznościach. Najbardziej szkodliwe treści, takie jak sce- ny nieuzasadnionej przemocy i pornografia, mają podlegać najsurowszym środkom, takim jak szyfrowanie i skuteczne mechanizmy kontroli rodzicielskiej. Przepis ten ma obowią- zywać niezależnie od tego, czy audycje są nadawane przez nadawców telewizyjnych, czy udostępniane przez dostaw- ców usług medialnych na żądanie. Powyższe propozycje uregulowań pozostają w zgodzie z postanowieniami dyrek- tywy o handlu elektronicznym. Państwom członkowskim Unii Europejskiej nadal nie wolno będzie nakładać na do- stawców ogólnego obowiązku monitorowania treści lub ak- tywnego uczestniczenia w ustalaniu okoliczności faktycz- nych, ale nie wyklucza to możliwości nałożenia wymogów w zakresie monitorowania w szczególnych przypadkach.

3. Rozwiązania prawne w wybranych państwach członkowskich

Państwa członkowskie przyjęły różne rozwiązania prawne w zakresie blokowania treści zabronionych w ich porząd- kach prawnych. Ponadto treści zabronione, szczególnie w przypadku treści o charakterze pornograficznym, mają różny zakres przedmiotowy w poszczególnych państwach członkowskich.

3.1. Polska

3.1.1. Penalizacja treści o charakterze pornograficznym W polskim prawie pojęcie treści pornograficznych pojawia się w art. 202 kodeksu karnego (dalej: k.k.). Zgodnie z in- terpretacją Sądu Najwyższego są to treści przedstawiające

12 Wniosek Dyrektywa Parlamentu Europejskiego i Rady zmie- niająca dyrektywę 2010/13/UE w sprawie koordynacji niektórych przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących świadczenia audiowizual- nych usług medialnych ze względu na zmianę sytuacji na rynku, COM/2016/0287 final – 2016/0151 (COD).

(5)

ne tylko, gdy osoba nieżycząca sobie kontaktu z pornogra- fią zostanie na taki kontakt narażona, bez podejmowania jakichkolwiek czynności w tym kierunku i przy zachowaniu przeciętnej ostrożności, wymaganej dla jego uniknięcia17. W środowisku prawniczym przedstawiane jest stanowisko, że niechciany, przypadkowy kontakt z treściami pornogra- ficznymi w internecie nie może zostać uznany za narzuca- nie ich odbioru w myśl uregulowań kodeksu karnego18. 3.1.2. Blokowanie treści zabronionych

Przepisy dyrektywy o handlu elektronicznym w zakre- sie ograniczonej odpowiedzialności dostawców usług internetowych zostały implementowane w ustawie z 18 lipca 2002 r. o świadczeniu usług drogą elektroniczną (Dz.U. 2002 nr 144, poz. 1204). Zgodnie z art. 14 ustawy nie ponosi odpowiedzialności za przechowywane dane ten, kto, udostępniając zasoby systemu teleinformatycznego w celu przechowywania danych przez usługobiorcę, nie wie o bezprawnym charakterze danych lub związanej z nimi działalności, a w razie otrzymania urzędowego zawiado- mienia lub uzyskania wiarygodnej wiadomości o bezpraw- nym charakterze danych lub związanej z nimi działalności niezwłocznie uniemożliwi dostęp do tych danych. Ponadto usługodawca, który uzyskawszy wiarygodną wiadomość o bezprawnym charakterze przechowywanych danych, uniemożliwi dostęp do tych danych, nie ponosi odpowie- dzialności za szkodę powstałą w wyniku uniemożliwienia do nich dostępu. Ustawodawca nie precyzuje, co wchodzi w zakres pojęciowy „wiarygodnej wiadomości”. Ustawa nie określa również procedury notyfikacji bezprawne- go charakteru danych, formy, w jakiej usługodawca ma dowiedzieć się o bezprawnym charakterze, ani od kogo ma pochodzić taka wiadomość. W konsekwencji nadaw- cą może być poszkodowany, osoba trzecia albo nawet sam dostawca usługi lub host provider19. Brak określenia w przepisach ustawy szczegółowych warunków procedu- ry notyfikacji nie pozwala uprawionym na skuteczne sko- rzystanie z mechanizmu notice and takedown20. Ponadto, zgodnie z art. 15 ustawy, dostawca usług internetowych nie jest zobowiązany do sprawdzania przekazywanych, prze- chowywanych lub udostępnianych przez niego danych pod kątem ich legalnego charakteru. Zgodnie z krajowym orzecznictwem usługodawca nie ma obowiązku monito- rowania sieci, nie ma również obowiązku podejmowania kroków w celu wdrożenia oprogramowania monitorujące- go, a jedyną okolicznością prowadzącą do wystąpienia odpowiedzialności po stronie usługodawcy jest istnienie po jego stronie stanu wiedzy o fakcie naruszenia lub bez- prawnym charakterze naruszenia21.

Konsekwencją takiego stanu prawnego jest brak jed- nej instytucji, która kompleksowo zajmowałaby się zgło-

17 Ibidem.

18 Ibidem.

19 K. Chałubińska-Jentkiewicz, J. Taczkowska-Olszewska, Świad- czenie usług drogą elektroniczną. Komentarz, Warszawa 2019.

20 X. Konarski, Komentarz do ustawy o świadczeniu usług dro- gą elektroniczną, Warszawa 2004, s. 144.

21 Zob. wyrok Sądu Apelacyjnego w Katowicach z 13 lutego 2014 r., sygn. akt I ACa 1086/16; wyrok Sądu Apelacyjnego w Lubli- nie z dnia 18 stycznia 2011 r., I ACa 544/10.

szeniami bezprawnych treści w internecie. Naruszeniami w zakresie usług medialnych na żądanie, które wystąpiły po stronie świadczących takie usługi, zajmuje się Krajo- wa Rada Radiofonii i Telewizji (dalej: KRRiT); informacje o naruszeniach należy wysłać na specjalny adres mailowy.

Natomiast w przypadku nielegalnych treści w internecie, w szczególności związanych z pornografią i wykorzysty- waniem seksualnym dzieci, punktem kontaktowym jest zespół dyżurnet.pl22. Jest to zespół ekspertów Naukowej i Akademickiej Sieci Komputerowej – Państwowego In- stytutu Badawczego, który zgodnie z ustawą o krajowym systemie cyberbezpieczeństwa23 został wskazany jako je- den z Zespołów Reagowania na Incydenty Komputerowe.

Do zadań zespołu należy przede wszystkim zapewnienie obsługi linii telefonicznej lub serwisu internetowego pro- wadzących działalność w zakresie zgłaszania i analizy przypadków dystrybucji, rozpowszechniania lub przesy- łania pornografii dziecięcej, twardej pornografii, rasizmu, ksenofobii i innych nielegalnych treści, za pośrednictwem technologii informacyjno-komunikacyjnych. W przypad- kach treści, które mają znamiona przestępstwa, koniecz- ne jest powiadomienie policji lub prokuratury. Zgodnie z danymi przedstawionymi w raporcie grupy dyżurnet.pl w 2017 r. eksperci zaklasyfikowali 2459 zgłoszonych incy- dentów jako treści przedstawiające wykorzystywanie sek- sualne dzieci, co stanowiło 18% wszystkich przeanalizowa- nych incydentów24.

W 2011 r. Ministerstwo Cyfryzacji opracowało projekt nowelizacji ustawy o świadczeniu usług drogą elektronicz- ną25, której celem było uregulowanie procedury powiada- miania i blokowania dostępu do bezprawnych informacji.

Projekt ten został wzorowany na amerykańskiej ustawie

„Digital Millenium Copyright Act”. Projektowane przepisy określały, co ma zawierać „wiarygodna wiadomość” o bez- prawnym charakterze danych, kto może taką wiadomość wystosować, wymogi formalne takiej wiadomości oraz postępowanie w przypadku odrzucenia takich informacji przez usługodawcę. Projekt ten został wycofany, a prace nad przygotowaniem polskiego mechanizmu notice and takedown zawieszone26.

3.1.3. Ochrona małoletnich przed szkodliwymi treściami W zakresie ochrony małoletnich przed szkodliwymi treś- ciami w internecie, np. treściami o charakterze pornogra- ficznym, ustawodawca nałożył na podmioty dostarczające

22 Https://dyzurnet.pl/o-nas.html.

23 Ustawa o krajowym systemie cyberbezpieczeństwa z 5 lipca 2018 r., Dz.U. z 2018 r. poz. 1560.

24 Raport przygotowany przez grupę dyzurnet.pl za rok 2017, https://dyzurnet.pl/download/multimedia/raporty/raport_2017.

pdf, s. 11.

25 Projekt ustawy o zmianie ustawy o świadczeniu usług drogą elektroniczną oraz ustawy kodeks cywilny, https://bip.mswia.gov.

pl/bip/projekty-aktow-prawnyc/2011/20209,dok.html.

26 Projekt ustawy o zmianie ustawy o świadczeniu usług dro- gą elektroniczną oraz ustawy Kodeks cywilny, Archiwalny wykaz prac legislacyjnych i programowych Rady Ministrów z okresu 1 września 2011 – 4 grudnia 2015, https://bip.kprm.gov.pl/kpr/

form/r193,Projekt-ustawy-o-zmianie-ustawy-o-swiadczeniu-uslu- g-droga-elektroniczna-oraz-ust.html.

(6)

usługi audiowizualne obowiązek stosowania zabezpie- czeń technicznych i innych środków mających na celu ich ochronę (art. 47e ustawy o radiofonii i telewizji, Dz.U. 1993 nr 7, poz. 34). Organem odpowiedzialnym za nadzorowanie realizacji tych obowiązków jest KRRiT. Zgodnie z art. 53c ustawy o radiofonii i telewizji w przypadku naruszenia któregokolwiek z obowiązków lub zakazów wynikających z art. 47e ustawy przez dostawcę usług audiowizualnych, KRRiT nakłada na taki podmiot karę pieniężną w wyso- kości do dwudziestokrotności przeciętnego miesięczne- go wynagrodzenia w sektorze przedsiębiorstw, włącznie z wypłatami z zysku, w kwartale poprzedzającym wydanie decyzji nakładającej karę. Ponadto jedną z ustawowych kompetencji KRRiT (zgodnie z art. 6 ust. 12 ustawy) jest inicjowanie i wspieranie samoregulacji i współregulacji w zakresie dostarczania usług medialnych. W celu re- alizacji tego obowiązku KRRiT włączyła się w konsulta- cje związane z tworzeniem „Kodeksu dobrych praktyk w sprawie szczegółowych zasad ochrony małoletnich w audiowizualnych usługach medialnych na żądanie”27, który w czerwcu 2014 r. został przyjęty przez Pracodawców Branży Internetowej Interactive Advertising Bureau Pol- ska (IAB Polska), a następnie zaakceptowany przez KRRiT.

Kodeks jest samoregulacją przygotowaną przez przedsię- biorców z branży internetowej w celu „zapewnienia sku- tecznej ochrony małoletnich przed szkodliwymi dla nich treściami, uwzględnia możliwości techniczne i stopień szkodliwości audycji lub innych przekazów dla małoletnich w poszczególnych kategoriach wiekowych oraz specyfikę audiowizualnych usług medialnych na żądanie”28. Pod- stawą do opracowania kodeksu były zalecenia dyrektywy audiowizualnej29, zgodnie z którymi państwa członkowskie powinny zapewnić małoletnim ochronę przed dostępem małoletnich do treści zagrażających ich prawidłowemu rozwojowi przy zachowaniu podstawowego prawa do wol- ności słowa. Intencją autorów kodeksu dobrych praktyk było zapewnienie przedsiębiorcom wsparcia w postaci podania przykładowych rozwiązań realizacji spoczywa- jącego na nich obowiązku ustawowego (tj. art. 47e ust. 1 ustawy o radiofonii i telewizji) oraz wprowadzenia przej- rzystych instrumentów weryfikacji w zakresie tego czy ww.

obowiązek jest rzeczywiście spełniany. Kodeks proponuje wprowadzenie rozwiązań technologicznych w celu reali- zacji obowiązku podjęcia środków ochrony małoletnich.

Zgodnie z art. 3.1 kodeksu udostępnianie treści w ramach usług na żądanie (np. treści pornograficznych) może od- być się poprzez podanie przez usługobiorcę danych karty kredytowej, np. w celu sprawdzenia jej ważności, preau- toryzacji lub tymczasowego zablokowania symbolicznej

27 Kodeksu dobrych praktyk w sprawie szczegółowych zasad ochrony małoletnich w audiowizualnych usługach medialnych na żądanie, http://www.bezpieczneinterneciaki.pl/wp-content/

uploads/2014/12/ochrona-maloletnich-w-internecie-kodeks-iab- -polska-2014.pdf.

28 Ibidem, s. 4.

29 Dyrektywy Parlamentu Europejskiego i Rady 2010/13/UE w sprawie koordynacji niektórych przepisów ustawowych, wyko- nawczych i administracyjnych państw członkowskich dotyczą- cych świadczenia audiowizualnych usług medialnych (dyrektywa o audiowizualnych usługach medialnych), Dz.U. L 95/1 z 15 kwiet- nia 2010 r.

kwoty środków (np. jednorazowo na etapie rejestracji usłu- gobiorcy lub każdorazowo na etapie logowania się lub za- poznawania się przez usługobiorcę z daną treścią nieod- powiednią) lub uiszczenie płatności (np. jednorazowych, abonamentowych, przy pierwszej próbie dostępu do treści nieodpowiedniej przez danego usługobiorcę) za dostęp do treści nieodpowiednich (za pomocą karty kredytowej, bankowego przelewu elektronicznego lub innego równo- ważnego rozwiązania, jak np. PayPal). Kodeks przewiduje również możliwość wprowadzenia innego systemu, który uzależni uzyskanie przez usługobiorcę dostępu do treści nieodpowiednich od skutecznej weryfikacji pełnoletności usługobiorcy. W takim wypadku dostawca zobowiązuje się powiadomić o takim zamiarze IAB Polska. Ponadto, zgod- nie z art. 3.2 kodeksu, w przypadku stosowania jednego z ww. modeli, w miarę istnienia możliwości technicznych, strona kodeksu, może również dobrowolnie ustawić, w ra- mach serwisu oferującego usługi audiowizualne na żąda- nie, tzw. tryb bezpieczny polegający na tym, że w ramach katalogu (w wyniku uprzedniego filtrowania) będą wy- świetlane tylko takie audycje i przekazy, które nie stanowią treści nieodpowiednich. Dezaktywacja trybu bezpieczne- go powinna następować po wpisaniu np. kodu PIN (ciąg znaków alfanumerycznych) lub innego równoważnego rozwiązania.

Z danych przedstawionych przez KRRiT w 2015 r.30 wy- nika, że żaden z objętych kontrolą serwisów pornograficz- nych umieszczonych na domenach posiadających adres IP przypisany do terytorium Polski lub zarejestrowanych przez polską firmę lub organizację, mającą siedzibę w Polsce nie stosował skutecznych zabezpieczeń weryfikujących peł- noletniość użytkownika.

3.2. Francja

3.2.1. Penalizacja treści o charakterze pornograficznym We Francji zakazana prawnie jest tylko pornografia dziecię- ca. Zgodnie z art. 227-23 kodeksu karnego31 wytwarzanie, nagrywanie oraz rozpowszechnianie pornografii dziecięcej podlega karze 5 lat pozbawienia wolności oraz grzywnie w wysokości 75 tys. euro. Wyższym sankcjom, tj. karze 7 lat pozbawienia wolności i grzywny w wysokości 100 tys. euro, podlega rozpowszechnianie pornografii dziecięcej w sieci, w sytuacji gdy adresat nie jest zdefiniowany. Karalne jest również posiadanie pornografii dziecięcej i korzystanie z usług stron internetowych, które ją rozpowszechniają. Za takie przestępstwo grozi kara 2 lat pozbawienia wolności i 30 tys. euro grzywny. Usiłowanie popełnienia któregokol- wiek z wymienionych przestępstw podlega takiej samej karze jak jego sprawstwo. Ponadto, francuski kodeks karny przewiduje ochronę małoletnich przed potencjalnie szko- dliwymi dla nich treściami. Zgodnie z art. 227-24 kodeksu karnego karalne jest wytwarzanie i rozpowszechnianie

30 Krajowa Rada Radiofonii i Telewizji, http://www.krrit.gov.

pl/dla-abonentow-i-konsumentow/ochrona-maloletnich/aktual- nosci-o-ochronie-maloletnich/news,2277,krrit-skutecznie-ograni- cza-pornografie-w-sieci.html.

31 Code pénal, https://www.legifrance.gouv.fr/affichCode.

do?cidTexte=LEGITEXT000006070719.

(7)

treści o charakterze pornograficznym, naruszających god- ność ludzką lub zawierających przemoc, jeżeli mogły one zostać zauważone lub przyswojone przez małoletniego.

Przestępstwo to jest zagrożone karą 3 lat pozbawienia wol- ności i grzywny w wysokości 75 tys. euro.

3.2.2. Blokowanie treści zabronionych

Ograniczenia dostępu do pornografii we Francji są możliwe tylko w przypadku pornografii dziecięcej. Zgodnie z ustawą o bezpieczeństwie gospodarki cyfrowej32, która jest imple- mentacją unijnych przepisów dyrektywy o handlu elektro- nicznym, komunikacja i przesyłanie danych w internecie jest co do zasady wolne i nieograniczone prawnie, a pod- mioty świadczące usługi drogą elektroniczną nie mogą być pociągnięte do odpowiedzialności w zakresie udostępnia- nych treści. Zgodnie z art. 1 ustawy wolność ta może jednak zostać ograniczona ze względu na ochronę porządku pu- blicznego, godności osoby ludzkiej oraz ochronę małolet- nich. Artykuł 6 przewiduje procedurę notice and takedown, zgodnie z którą dostawca usług internetowych, w szczegól- ności usług przesyłania i utrwalania obrazów, dźwięków, komunikatów, tekstów i innych informacji po uzyskaniu in- formacji o bezprawnym charakterze udostępnianych treści są zobowiązani do natychmiastowego usunięcia danych lub uniemożliwienia do nich dostępu.

W 2015 r. rząd wydał dwa rozporządzenia wykonaw- cze do ustawy o bezpieczeństwie gospodarki cyfrowej, dotyczące możliwości blokowania i usuwania stron in- ternetowych zawierających pornografię dziecięcą oraz treści propagujące terroryzm. Zgodnie z rozporządze- niem nr 2015-125 z 5 lutego 2015 r. dotyczącym blokowa- nia stron nakłaniających do aktów terroryzmu oraz stron przedstawiających wizerunki dzieci o charakterze porno- graficznym33 organem administracyjnym uprawnionym do tworzenia tzw. czarnych list stron zawierających bezpraw- ne treści jest Centralne Biuro ds. Zwalczania Przestępstw Technologii Informacyjnej i Komunikacji (Office central de lutte contre la criminalité liée aux technologies de l’informa- tion et de la communication34). Biuro samodzielnie zajmuje się monitorowaniem treści w internecie, jednakże może również korzystać ze zgłoszeń internautów przez platformę PHAROS35, znajdującą się na stronie Ministerstwa Spraw Wewnętrznych. Każdy z użytkowników internetu może zgłosić niepokojące lub bezprawne treści lub zachowania w sieci, nie będąc zmuszonym do jednoczesnego ujawnia-

32 Loi pour la confiance dans l’économie numérique, ht- tps://www.legifrance.gouv.fr/affichTexte.do?cidTexte=JOR- FTEXT000000801164.

33 Décret n° 2015-125 du 5 février 2015 relatif au blocage des sites provoquant à des actes de terrorisme ou en faisant l’apo- logie et des sites diffusant des images et représentations de mineurs à caractère pornographique, https://www.legifrance.

gouv.fr/affichTexte.do?cidTexte=JORFTEXT000030195477&date- Texte=20181017.

34 Office central de lutte contre la criminalité liée aux technolo- gies de l’information et de la communication, https://www.police- -nationale.interieur.gouv.fr/Organisation/Direction-Centrale-de- -la-Police-Judiciaire/L-organisation-et-les-structures.

35 PHAROS, https://www.internet-signalement.gouv.fr/Portail- Web/planets/Accueil!input.action.

nia swoich danych osobowych. Biuro, powziąwszy infor- mację o bezprawnych treściach, może zażądać od autorów lub hostów stron ich usunięcia. W przypadku niezastoso- wania się do wezwania do usunięcia bezprawnych treści przez autorów w ciągu 24 godzin Biuro może zwrócić się do dostawców usług internetowych o zablokowanie tych witryn. Użytkownicy próbujący uzyskać dostęp do zablo- kowanych w ten sposób stron zostaną przekierowani na stronę Ministerstwa Spraw Wewnętrznych, wyświetlającą informację, dlaczego dana strona została zablokowana i ja- kie są możliwe sposoby odwołania się od tej decyzji przez użytkownika. Co 4 miesiące Biuro jest zobowiązane do przeglądania czarnej listy blokowanych stron w celu wery- fikacji, czy nadal zawierają one treści zakazane w prawie francuskim. Centralne Biuro ds. Zwalczania Przestępstw Technologii Informacyjnej i Komunikacji podlega kontroli Narodowej Komisji ds. Informatyki i Wolności (Commission nationale de l’informatique et des libertés), która, w przy- padku stwierdzenia nieprawidłowości w blokowaniu stron internetowych, może skierować sprawę do sądów admi- nistracyjnych. Tym niemniej, krytycy takiego rozwiązania powołują się na brak bieżącej sądowej kontroli blokowania treści i dostępu do stron i przekazania tego procesu w ca- łości organom administracyjnym.

Drugie rozporządzenie nr 2015-258 z 4 marca 2015 r. doty- czące usuwania stron nakłaniających do aktów terroryzmu oraz stron przedstawiających wizerunki dzieci o charakterze pornograficznym36 przewiduje procedurę administracyjną pozwalającą na usuwanie stron przestawiających zakazane treści z wyszukiwarek online. Centralne Biuro ds. Zwalcza- nia Przestępstw Technologii Informacyjnej i Komunikacji może zgłosić żądanie usunięcia danych stron z wyników wyszukiwania do właścicieli przeglądarek internetowych, którzy mają 48 godzin na zastosowanie się do żądania. Co 4 miesiące biuro jest zobowiązane do przeglądania stron usuniętych z wyszukiwarek w celu weryfikacji zamieszczo- nych tam treści. Jeżeli ze strony usunięto bezprawne treści, biuro wnioskuje o przywrócenie danego adresu w wyszu- kiwarkach. Również i ta procedura jest nadzorowana przez Narodową Komisję ds. Informatyki i Wolności.

3.3. Wielka Brytania

3.3.1. Penalizacja treści o charakterze pornograficznym W Wielkiej Brytanii nielegalna jest pornografia dziecięca, zgodnie z ustawą o odpowiedzialności karnej37 oraz usta- wą o ochronie dzieci38. Zabronione jest również publiko- wanie treści obscenicznych, tj. mających na celu zgorszyć

36 Décret n° 2015-253 du 4 mars 2015 relatif au déréféren- cement des sites provoquant à des actes de terrorisme ou en faisant l’apologie et des sites diffusant des images et représen- tations de mineurs à caractère pornographique, https://www.

legifrance.gouv.fr/affichTexte.do;jsessionid=FD2911620B36A7D- 4DA186EB89A96C881.tplgfr37s_1?cidTexte=JORFTEXT00- 0030313562&dateTexte=20150305.

37 Criminal Justice Act, https://www.legislation.gov.uk/ukp- ga/1988/33/contents.

38 Protection of Children Act, https://www.legislation.gov.uk/

ukpga/1978/37/contents.

(8)

lub zdemoralizować ich odbiorcę, określone w ustawie o treściach obscenicznych39. Zgodnie z ustawą decyzję o uznaniu materiałów za obsceniczne podejmuje właści- wy sąd. Prokuratora Koronna (Crown Prosecution Service) w przygotowanych przez siebie wytycznych do tej ustawy przedstawiła kategorie treści, które podlegają penaliza- cji40. Za obsceniczne uznano materiały przedstawiające akty seksualne ze zwierzętami, przemoc seksualną, sado- masochizm, tortury, okaleczanie organów, materiały przed- stawiające zachowania perwersyjne lub degradujące god- ność ludzką. Ponadto art. 63 ustawy o odpowiedzialności karnej i imigracji41 penalizuje posiadanie tzw. ekstremalnej pornografii, zdefiniowanej jako treści mające na celu wy- wołanie podniecenia seksualnego, będące jednocześnie ofensywne, obsceniczne lub odrażające. Dotyczy to treści przedstawiających sytuację zagrożenia życia, przemocy, praktyk nekrofilii lub zoofilii, a także aktów seksualnych związanych z penetracją bez zgody. Za publikowanie, roz- powszechnianie i posiadanie opisanych powyżej treści obowiązują sankcje karne.

3.3.2. Blokowanie treści zabronionych

Wielka Brytania implementowała przepisy dyrektywy o handlu elektronicznym, co wyłączyło możliwość praw- nego zobowiązania dostawców usług telekomunikacyj- nych do ogólnego monitorowania i filtrowania treści pod kątem ich legalności. W związku z tym, sektor telekomu- nikacyjny samodzielnie, w drodze samoregulacji, podjął się wprowadzenia systemów filtrujących i blokujących treści. Przedsiębiorcy telekomunikacyjni, dostawcy usług internetowych, producenci oprogramowania oraz ich part- nerzy założyli fundację Internet Watch Foundation (dalej:

IWF), której zadaniem jest monitorowanie i wyszukiwanie bezprawnych treści w internecie, w szczególności doty- czących seksualnego wykorzystywania małoletnich i por- nografii dziecięcej. IWF jest organizacją wspieraną przez brytyjskie organy ścigania, Prokuraturę Koronną oraz rząd brytyjski. Prokuratura Koronna oraz policja, działając na podstawie ustawy o przestępstwach seksualnych42, okre- śliły w zawartym przez siebie memorandum43 rolę IWF jako podmiotu odpowiedzialnego za wyszukiwanie i analizo- wanie zgłoszonych nielegalnych treści w internecie. IWF współpracuje z organami ścigania oraz dostawcami usług internetowych w zakresie blokowania nielegalnych treści, zamykania stron w przypadku hostingu w Wielkiej Brytanii oraz wykrywania sprawców rozpowszechniania takich tre-

39 Obscene Publications Act, http://www.legislation.gov.uk/

ukpga/Eliz2/7-8/66/section/1.

40 Obscene Publications Legal Guidance, https://www.cps.

gov.uk/legal-guidance/obscene-publications.

41 Criminal Justice and Immigration Act, https://www.legisla- tion.gov.uk/ukpga/2008/4/part/5/crossheading/pornography- -etc.

42 Sexual Offcence Act, https://www.legislation.gov.uk/nisi/

2008/1769/contents.

43 Memorandum of Understanding between Crown Prosecu- tion Service (CPS) and the Association of Chief Police Officers (ACPO) concerning Section 46 Sexual Offences Act 2003, https://

www.cps.gov.uk/publication/memorandum-understanding-be- tween-crown-prosecution-service-cps-and-association-chief.

ści zarówno w przypadku przestępstw krajowych, jak rów- nież w przypadkach, gdy nielegalne treści znajdują się na serwerach poza Wielką Brytanią. Do kluczowych zadań or- ganizacji należy opracowywanie listy domen i stron zawie- rających nielegalne treści oraz przygotowywanie raportów, na podstawie których dostawcy usług internetowych są zobowiązani do zablokowania lub zamknięcia zgłoszonych stron. W ten sposób Wielka Brytania realizuje procedurę notice and takedown, wynikającą z art. 14 dyrektywy o han- dlu elektronicznym, zgodnie z którą dostawca usług inter- netowych jest warunkowo zwolniony z odpowiedzialności za udostępniane treści lub działania z wykorzystaniem jego infrastruktury, o ile dostawca usługi nie miał świadomości bezprawności takiego działania. Jednocześnie dostawca jest zobowiązany uniemożliwić dostęp do nielegalnych treści po otrzymaniu informacji na temat takich treści lub działań z wykorzystaniem jego infrastruktury od podmiotu zewnętrznego (IWF jest właśnie takim podmiotem).

3.3.3. Ochrona małoletnich przed szkodliwymi treściami Rząd brytyjski w celu wzmocnienia ochrony małoletnich zdecydował się na podjęcie prac nad nową ustawą, która miałaby nałożyć na autorów i hostów stron pornograficz- nych obowiązek weryfikacji wieku. W lutym 2016 r. rozpo- częły się konsultacje społeczne w sprawie projektowanych zmian prawnych a w czerwcu do parlamentu trafił projekt ustawy o gospodarce cyfrowej (Digital Economy Bill) przy- gotowany przez Ministerstwo Kultury, Mediów i Sportu (Department for Culture, Media and Sport). Zgodnie z zało- żeniami projektu wszystkie komercyjne strony internetowe, prezentujące treści pornograficzne, miały być chronione systemem weryfikacji wieku, bardziej zaawansowanym technologicznie niż tylko zaznaczenie opcji „jestem peł- noletni” lub podanie daty urodzenia. Projekt nowej ustawy zakładał również wprowadzenie sankcji cywilnych i finanso- wych za niewywiązanie się z obowiązku wprowadzenia we- ryfikacji wieku oraz opracowanie systemu monitorowania i kontrolowania stron objętych jej zakresem. Projektowane regulacje miały objąć nie tylko strony internetowe, ale także aplikacje na urządzenia mobilne. Jak podkreślał rząd brytyj- ski w oficjalnych dokumentach, głównym celem projektu było nie tyle ograniczenie dorosłym użytkownikom dostępu do treści pornograficznych, ile ochrona małoletnich. Kolej- nym z założeń była współpraca z podmiotami świadczącymi usługi finansowe takimi jak Visa lub Mastercard, które mia- łyby być zobowiązane do wycofania swoich usług finanso- wych tym stronom, które nie zastosowałyby się do obowiąz- ku wprowadzenia systemu weryfikacji wieku.

Ustawa o gospodarce cyfrowej (Digital Economy Act44) została ostatecznie przyjęta przez parlament brytyjski i otrzymała zgodę królewską wiosną 2017 r. Zgodnie z sek- cją 3, art. 15 ustawy za materiały pornograficzne uznane zostały wszelkie treści opatrzone certyfikatem 18, R1845 lub

44 Digital Economy Act, http://www.legislation.gov.uk/ukp- ga/2017/30/part/3.

45 Certyfikaty 18 i R18 wydawane są przez Brytyjską Radę Kla- syfikacji Filmowej (British Board of Film Classification). Certyfi- kat 18 obejmuje treści zakwalifikowane jako dostępne dla odbior- ców pełnoletnich. Certyfikat R18 wydawany jest dla materiałów mieszczących się w zakresie ustawy o treściach obscenicznych

(9)

Zespół redakcyjny:

Dobromir Dziewulak (redaktor naczelny), Adrian Grycuk (sekretarz redakcji; tel. +48 22 694 20 69, e-mail: adrian.grycuk@sejm.gov.pl), Piotr Russel, Piotr Chybalski

Biuro Analiz Sejmowych Kancelarii Sejmu, ul. Zagórna 3, 00-441 Warszawa treści, dla których niemożliwe było wydanie certyfikatu,

a których głównym celem jest wywołanie podniecenia sek- sualnego u ich odbiorcy. W dalszej części (sekcja 3 art. 18 do 20) ustawa przewiduje wprowadzenie systemów wery- fikacji wieku. Przepisy te, ze względu na związane z nimi kontrowersje, nie weszły jeszcze w życie. Obecnie rząd we współpracy z Brytyjską Radą Klasyfikacji Filmowej prowa- dzą konsultacje i sprawdzają prawne możliwości ich egze- kwowania. Zgodnie z ustawą wybór systemu weryfikacji wieku będzie należał do danego podmiotu, czyli dostawcy usług internetowych, hosta lub wydawcy stron prezentują- cych treści pornograficzne. Niezastosowanie się do tego obowiązku jest obarczone sankcjami finansowymi w wy- sokości 250 tys. funtów lub 5% wartości obrotów danego podmiotu, które należy będzie wpłacić na fundusz konsoli- dacyjny (Consolidated Fund). Ponadto strona internetowa, która nie wprowadzi systemu weryfikującego wiek, będzie mogła zostać zablokowana na poziomie dostawcy usług internetowych, jak również pozbawiona możliwości pro- wadzenia transakcji z wykorzystaniem usług finansowych takich podmiotów, jak Visa, MasterCard czy PayPal. Otwar- te pozostaje pytanie, w jaki sposób miałaby być przepro- wadzana weryfikacja wieku. Zaproponowane rozwiązania obejmowały weryfikację za pomocą danych z karty kredy- towej, paszportu oraz numeru telefonu zarejestrowanego u dostawcy usług telekomunikacyjnych, jednakże do tej pory rząd nie opowiedział się za żadną z propozycji. Nowe przepisy o obowiązkowej weryfikacji wieku wywołały dys- kusję w brytyjskiej przestrzeni publicznej. Przeciwnicy takiego uregulowania podnoszą, że wprowadzenie obo- wiązkowej weryfikacji wieku będzie wymagało podania przez użytkowników wrażliwych danych, co w konsekwen- cji może prowadzić do naruszeń prawa do ochrony danych osobowych, w szczególności wycieku takich danych bądź ich przejęcia przez osoby nieuprawnione w wyniku ataków hakerskich. Ponadto zwiększy się ryzyko przejęcia infor- macji o historii przeglądanych stron pornograficznych, które mogą potencjalnie zostać wykorzystane jako środek nacisku lub szantażu. Wprowadzenie obowiązkowych sys- temów weryfikacji wieku będzie procesem kosztownym, na który będą mogli pozwolić sobie tylko najwięksi uczest- nicy rynku pornografii internetowej. Może to doprowadzić do upadku mniejszych stron zawierających treści o charak- terze pornograficznym i zmonopolizowania rynku dostaw- ców takich treści46. W konsekwencji jedna firma wejdzie ale wykraczające poza kryteria przyjęte przez Radę dla kategorii

„18” (w praktyce obejmuje on materiały zawierające tzw. twardą pornografię).

46 Jako najbardziej prawdopodobny scenariusz uznawane jest zmonopolizowanie rynku przez firmę MindGeek, która jest właści-

w posiadanie ogromnej ilości danych zawierających dane osobowe osób korzystających z materiałów pornograficz- nych w internecie wraz z ich historią przeglądania, co przez krytyków takiego rozwiązania uznawane jest za poważne zagrożenie w zakresie ochrony danych osobowych i po- ważne naruszenie prywatności użytkowników takich stron.

4. Podsumowanie

Ograniczenie dostępności do treści pornograficznych w internecie jest zagadnieniem wciąż wywołującym wiele kontrowersji. Z jednej strony, pojawiają się głosy, że dzia- łania mające na celu utrudnienie dostępu do takich treści mogą być niezgodne ze swobodami traktatowymi oraz Kartą Praw Podstawowych i, w skrajnych przypadkach, prowadzić do cenzurowania treści w internecie. Z drugiej strony, potrzeba ochrony małoletnich nie tylko usprawie- dliwia, ale wręcz wymusza wprowadzenie takich syste- mów, które pozwolą na skuteczne wyeliminowanie kontak- tu małoletnich ze szkodliwymi treściami. Problem dotyczy również osób dorosłych, które takich treści nie poszukują, jednak mogą być narażone na niechciany, przypadkowy kontakt z pornografią. Dodatkowym wyzwaniem jest brak jednolitych uregulowań w zakresie definicji pornografii i jej dopuszczalności w prawie Unii Europejskiej. Mimo że pojawiają się takie inicjatywy samoregulacyjne, jak przyjęty przez polskich przedsiębiorców kodeks dobrych praktyk, nie stanowią one powszechnie obowiązującego, obwarowanego sankcjami prawa, które gwarantowałoby odpowiedni poziom ochrony. Interesującym rozwiązaniem w tym zakresie wydaje się przyjęta w Wielkiej Brytanii usta- wa o gospodarce cyfrowej, nakładająca obowiązek wpro- wadzenia zaawansowanych technologicznie systemów weryfikacji wieku na portalach przedstawiających treści pornograficzne, ale ze względu na fakt, że przepisy te nie weszły jeszcze w życie, nie może ona stanowić skutecz- nego przykładu dla pozostałych państw. Do zwiększenia i ujednolicenia ochrony małoletnich przed dostępem do treści pornograficznych może przyczynić się projekt nowej dyrektywy audiowizualnej, nad którym trwają prace w in- stytucjach unijnych. Analizując aktualny stan prawny wy- daje się, że istnieje potrzeba przyjęcia kompleksowej regu- lacji na poziomie unijnym, która wprowadzałaby definicję pornografii, harmonizowała prawo państw członkowskich w zakresie nielegalnych rodzajów pornografii i nakładała na nie obowiązek wprowadzenia skutecznych systemów ochrony przed kontaktem z niechcianą pornografią.

cielem największych pornograficznych platform internetowych, takich jak RedTube, Pornhub czy YouPorn.

Cytaty

Powiązane dokumenty

Tylko 51,2% uczniów korzystających z serwisów społecznościowych ustawia swój profil tak, aby był widoczny tylko dla ich znajomych...

21,5% młodych użytkowników doświadczyło przemocy w internecie (a) 50,1% nastolatków, którzy doświadczyli przemocy w internecie, twierdzi, że było to dla nich nieprzyjemne

Dla zobrazowania rozwijającej się od lat – zwłaszcza po 2010 roku – tendencji coraz szerszego korzystania z „bezpłatnych” treści udostępnianych w Internecie (ściąga-

menten die de regelaar's bedienen inde condensaatleidingen geplaat s t. Doordat de regelaar's de afvoerleidingen geheel of gedeeltelijk af kunnen sluiten is het

In ADPETC, at each sampling time, quantized measurements from those sensors that triggered a local event are transmitted to a dynamic controller that computes control actions;

• Zadbaj o to, aby dziecko nie grało codziennie, ale też nie rób • Zainteresuj się w co gra twoje dziecko i czy gra jest dla niego • Zanim kupisz swojemu dziecku grę,

Może się to również... wzrost okr eśl on eg o czynnika,

Dlatego, aby skutecznie chronić dzieci przed szkodliwym wpływem pornografii, nie tylko dziecięcej, konieczne jest uzupełnienie istniejących instrumentów ochrony, takich