Witamy na stronie Klubu Jagiellońskiego. Jesteśmy republikańskim i niepartyjnym stowarzyszeniem, które próbuje oddziaływać na politykę w duchu troski o dobro wspólne. Piszemy pogłębione artykuły o polityce, gospodarce, historii i kulturze. Formułujemy obywatelskie postulaty zmian i wysyłamy petycje do władz. Publikujemy komentarze ekspertów i tematyczne raporty. Działamy w całej Polsce.

Zachęcamy do regularnych odwiedzin naszej strony. Informujemy, że korzystamy z cookies.
Dorota Głowacka  10 grudnia 2020

Co może usunąć nam Facebook, a jakie materiały zablokować Youtube? Analiza stanu prawnego moderacji treści na platformach internetowych

Dorota Głowacka  10 grudnia 2020
przeczytanie zajmie 11 min
Co może usunąć nam Facebook, a jakie materiały zablokować Youtube? Analiza stanu prawnego moderacji treści na platformach internetowych Rachit Tank/unsplash.com

 W najbliższych miesiącach możemy spodziewać się zmian prawa regulującego zasady moderacji treści po obu stronach Atlantyku. Ostatnie lata przyniosły rosnąca liczbę dyskusji o niedostatkach regulacji. W Stanach Zjednoczonych wśród republikanów i demokratów wzbierają głosy w krytyczne wobec Sekcji 230, zwalniającej platformy od prawnej odpowiedzialności za treści użytkowników. Komisja Europejska z kolei w ciągu najbliższych dni zaproponuje nowy Kodeks Usług Cyfrowych. Tym bardziej warto wiedzieć, jakie są główne punkty sporu, problemy i kierunki proponowanych regulacji.

  1. Współczesna rola platform internetowych i kontekst wprowadzenia obowiązujących reguł w zakresie moderacji treści

Od kilkunastu lat rozwój globalnej sieci komputerowej podąża w kierunku współtworzenia coraz większej ilości treści przez użytkowników Internetu. Taka struktura komunikacji internetowej sprzyja swobodnej wymianie informacji przez użytkowników, choć naturalnie wiążą się z nią również pewne zagrożenia.

Pierwszy, dość dawno zauważony problem, dotyczy możliwości łatwego rozpowszechniania w sieci bezprawnych treści o różnym charakterze, m. in. naruszających dobra osobiste, prawa autorskie czy – w skrajnej postaci – stanowiących mowę nienawiści i inne formy cyberprzemocy.

Drugi problem, który zyskuje na znaczeniu w ostatnich latach, związany jest z tym, że ze wspomnianych możliwości tworzenia i rozpowszechniania informacji w sieci korzystamy przede wszystkim dzięki „infrastrukturze” stworzonej przez prywatne firmy będące dostawcami usług internetowych (m.in. usługi hostingu). W konsekwencji przedsiębiorstwa te mogą odgrywać istotną rolę w procesie przepływu informacji w Internecie i do pewnego stopnia przepływ ten kontrolować (jako tzw. gatekeepers). Wśród takich pośredników centralną pozycję zajmują dziś platformy internetowe (m.in. portale społecznościowe, aukcyjne), na których będzie koncentrować się niniejsza analiza.

Kluczową zasadą, w oparciu o którą ukształtowano w UE obowiązki platform w zakresie moderacji, jest warunkowe wyłączenie odpowiedzialności platform za treści pochodzące od osób trzecich. Zasada ta, wprowadzona dwie dekady temu, miała na celu wspierać swobodny rozwój europejskiego przemysłu w obszarze usług cyfrowych oraz innowacyjność w tym sektorze. Uznano wówczas, że zbyt daleko idące obowiązki usługodawców w zakresie kontrolowania treści użytkowników oraz zbyt duże ryzyko sankcji prawnych w związku z ich przechowywaniem, mogłyby znacznie zmniejszyć opłacalność świadczenia usługi hostingu i tym samym doprowadzić do spowolnienia rozwoju rynku e-commerce w Europie. Od przeszło 10 lat pojawiają się jednak głosy wskazujące, że przyjęte u progu XXI w. zasady odpowiedzialności platform nie przystają do współczesnej charakterystyki i roli tych podmiotów oraz realiów ich funkcjonowania na rynku usług cyfrowych w jego obecnym kształcie.

  1. Regulacje dotyczące moderacji treści przez platformy internetowe

2.1. Podstawowe zasady

Na poziomie UE kwestię odpowiedzialności platform za bezprawne treści publikowane przez użytkowników reguluje tzw. dyrektywa o handlu elektronicznym (e-commerce) wprowadzona w 2001 r. (zob. w szczególności art. 14 i 15). Postanowienia dyrektywy zostały wdrożone do polskiego prawa na mocy przyjętej w 2002 r. ustawy o świadczeniu usług drogą elektroniczną (dalej jako: „u.ś.u.d.e.”; zob. art. 14 i 15).

Regulacje te przewidują, że hostingodawcy (do których należą platformy) nie ponoszą odpowiedzialności za tego rodzaju treści na takiej samej zasadzie jak ich autor/osoba, która opublikowała je w sieci. Nakładają jednak na platformy pewne obowiązki w związku z zamieszczeniem takich bezprawnych materiałów przez osoby trzecie, których zaniedbanie może prowadzić do pociągnięcia ich do odpowiedzialności (tzw. procedura notice and takedown).

Co do zasady, zgodnie z art. 14 u.ś.u.d.e platforma nie będzie odpowiadać, gdy (1) nie miała wiedzy o bezprawnym charakterze treści, (2) albo gdy miała wiedzę o naruszeniu (np. otrzymała na ten temat urzędowe zawiadomienie lub wiarygodną informację o bezprawnym charakterze treści) i niezwłocznie zablokowała dany materiał. A contrario platforma może zostać pociągnięta do odpowiedzialności w sytuacji, gdy mimo, iż zdawała sobie sprawę, że treści zamieszczone przez użytkowników naruszają prawo, nie podjęła żadnych kroków, aby uniemożliwić do nich dostęp. Ewentualne pociągnięcie do odpowiedzialności platformy nie ma przy tym wpływu na zakres odpowiedzialności autora spornej treści (mogą odpowiadać równolegle). Ponadto na gruncie art. 15 u.ś.u.d.e. administrator nie ma ogólnego obowiązku monitorowania dodawanych przez użytkowników treści (zakaz narzucania takiego obowiązku w prawie krajowym wprowadza dyrektywa e-commerce).

W praktyce stosowanie omówionych przepisów i faktyczny zakres obowiązków platform w zakresie moderacji treści użytkowników budzi liczne wątpliwości, które tylko do pewnego stopnia wyjaśniło dotychczasowe orzecznictwo trybunałów międzynarodowych i sądów krajowych (najpoważniejsze z nich zostaną zasygnalizowane w pkt. 3).

Powodem takiego ukształtowania zasad odpowiedzialności (poza wspomnianą wyżej kwestią wpierania rozwoju sektora e-commerce) jest charakterystyka działalności platform i próba znalezienia równowagi dla kolidujących ze sobą interesów (swobody rozpowszechniania informacji oraz konieczności ochrony osób, których prawa mogą zostać w sieci naruszone).

Z jednej strony nieuzasadnione byłoby zrównywanie odpowiedzialności platform z zasadami, w oparciu o które odpowiada autor/osoba rozpowszechniająca bezprawne treści (czy też zasadami, na jakich redaktor naczelny gazety odpowiada za publikacje prasowe), ponieważ co do zasady platformy nie biorą aktywnego udziału w procesie decydowania o publikacji i nie sprawują nad nim kontroli redakcyjnej.

Jednocześnie, dzięki temu, że platformy nie odpowiadają „automatycznie” za to, co publikują użytkownicy, nie muszą też wszystkiego restrykcyjnie filtrować i ewentualnie prewencyjnie blokować w obawie przed sankcjami prawnymi (co sprzyja swobodzie wypowiedzi). Z drugiej strony, ze względu na faktyczną kontrolę nad dodaną przez użytkowników treścią (tj. możliwość decydowania o jej dostępności; szybka reakcja platformy może zapobiec dalszemu rozprzestrzenianiu się nielegalnych materiałów, co w sieci ma często kluczowe znaczenie dla zminimalizowania powstałej szkody), ale także z uwagi na czerpane z tego korzyści, uzasadnione wydaje się nakładanie na platformy pewnych obowiązków, które umożliwią włączenie ich w walkę z bezprawnymi treściami. Zaangażowanie platform często postrzegane jest wręcz jako kluczowy warunek efektywności tej walki.

2.2. Przepisy szczególne

W ostatnich latach ww. podstawowe zasady uzupełniono na poziomie UE przepisami szczególnymi, które mają wpływ na zakres obowiązków dotyczących moderacji w przypadku   specyficznych rodzajów platform lub tylko niektórych rodzajów bezprawnych treści. Przykładem jest wprowadzona w 2018 r. nowelizacja dyrektywy AVMS (o audiowizualnych usługach medialnych), która obliguje platformy udostępniania wideo do wprowadzenia dodatkowych środków zwalczania wybranych rodzajów nielegalnych treści (choć nie wprowadza ona rozwiązań zmieniających istotnie zasady wynikające z dyrektywy e-commerce).

Drugi przykład to przyjęta w 2019 r. dyrektywa CDSM (o prawach autorskich na jednolitym rynku cyfrowym). Wprowadza ona nowe, dalej idące (w stosunku do dyrektywy e-commerce) obowiązki dla platform w zakresie treści naruszających prawa autorskie, z których muszą się wywiązać, aby móc uzyskać zwolnienie od odpowiedzialności. Obie dyrektywy nie zostały jeszcze wdrożone do polskiego porządku prawnego (termin implementacji dyrektywy AVMS upłynął 19 września 2020 r., rząd przedstawił we wrześniu 2020 r. projekt ustawy; dyrektywa CDSM powinna zostać wdrożona do czerwca 2021 r.).

2.3. Samoregulacja ze strony platform

Opisane wyżej ramy prawne dopełniają rozmaite inicjatywy samoregulacyjne, w tym wielostronne porozumienia zawarte przez największe platformy z Komisją Europejską w postaci „kodeksów postępowania”. Przedsięwzięcia te nie mają wiążącej mocy prawnej i były dotychczas często wykorzystywane jako „miękkie” środki nacisku na platformy. Miały one skłonić firmy internetowe do określonych zachowań w obszarze moderacji treści  (np. większego zaangażowania w walkę z mową nienawiści lub dezinformacją) przed ewentualnym wprowadzeniem twardych rozwiązań w postaci wiążących regulacji. Obecnie coraz częściej tego rodzaju porozumienia uznawane są przez decydentów za niewystarczające.

Wreszcie, należy w tym miejscu wspomnieć o wewnętrznych regulacjach platform (terms of service), które w praktyce często są podstawą decyzji moderacyjnych. Zawierają reguły dość arbitralnie tworzone i narzucone przez platformy, przewidując często usuwanie nie tylko nielegalnych treści, ale także tych zgodnych z prawem, ale z różnych względów nieakceptowanych w polityce danej platformy (np. nagości).

  1. Najważniejsze problemy związane z funkcjonowaniem obowiązujących regulacji

3.1. Brak pewności prawnej

Istniejące przepisy zawierają wiele niedookreślonych elementów, które w praktyce wzbudzają istotne wątpliwości interpretacyjne. Obowiązek reakcji platformy jest uzależniony od posiadania przez nią „wiedzy” o bezprawnym charakterze treści. Nie jest jednak jasne, kiedy dokładnie platforma taką wiedzę nabywa (czy wystarczy, że filtruje automatycznie wszystkie treści albo poddaje je ocenie moderatorów przed publikacją?).

Kolejny problem interpretacyjny dotyczy zakresu zakazu ogólnego obowiązku monitorowania treści użytkowników i działań służących przeciwdziałaniu nielegalnym materiałom, których należy oczekiwać od platform. Czy można wymagać, aby stosowały algorytmy służące do identyfikacji bezprawnych treści? W jakich sytuacjach i pod jakimi warunkami? Kiedy taki wymóg będzie nieproporcjonalny? Czy treści te powinny być automatycznie usuwane? Na te odpowiedzi nie tylko sądy krajowe, ale także międzynarodowe dawały dotychczas niekiedy sprzeczne ze sobą odpowiedzi.

3.2. Arbitralność moderacji i nadmierne usuwanie treści

Kolejnym wyzwaniem związanym z moderacją jest nadmiarowe usuwanie legalnych i pożytecznych materiałów (tzw. prywatna cenzura). W przeszłości „ofiarą” takiego działania padły m.in. zdjęcia z reportaży wojennych, fotografie historyczne, relacje z protestów społecznych, dzieła sztuki czy satyra. Obowiązujące regulacje stawiają często platformy w roli arbitrów rozstrzygających o dopuszczalności danej treści, a reakcja w postaci jej zablokowania pozwala skorzystać im z wyłączenia odpowiedzialności.

Jednocześnie prawo nie wprowadza  żadnych mechanizmów ograniczających arbitralność decyzji platform w tym zakresie. Pewnym wyjątkiem jest wspomniana wyżej unijna dyrektywa CDSM, która zawiera m.in. zobowiązanie do wprowadzenia przez państwa członkowskie skutecznych procedur odwoławczych w odniesieniu do sporów dotyczących praw autorskich. Nie ma wymogu posiadania skutecznych procedur odwoławczych dla użytkowników, ani oczywistej drogi pozwalającej im pociągnąć platformy do odpowiedzialności w razie nieuzasadnionej blokady (Fundacja Panoptykon prowadzi obecnie w tym zakresie strategiczne postępowanie sądowe przeciwko Facebookowi przed polskim sądem).

Dodatkowo problem nadmiarowego usuwania treści nabrzmiewa w związku z coraz szerszym  wykorzystaniem algorytmów do identyfikacji niedopuszczalnych treści, oceny ich charakteru i automatycznego usuwania. Stosowaniu tych narzędzi towarzyszy szczególnie duże ryzyko „fałszywie pozytywnych trafień” (chociażby ze względu na to, że nie są w stanie „wyłapać” szczególnego, np. satyrycznego, kontekstu danej wypowiedzi). Potwierdzają to nie tylko badania, ale także ostatnie doświadczenia dużych platform społecznościowych. Z uwagi na zagrożenie koronawirusem wiele z nich zmniejszyło zaangażowanie moderatorów i zaczęło w większym stopniu wykorzystywać algorytmy do zarządzania treścią. W efekcie, jak pokazują np. dane opublikowane przez YouTube, w kwartale po wprowadzeniu tej zmiany platforma usunęła dwukrotnie więcej filmów niż w poprzednich kwartałach.

3.3. Niewystarczające zaangażowanie w walkę z nielegalnymi treściami

Jednocześnie platformy są wciąż krytykowane za brak wystarczających działań służących przeciwdziałaniu nielegalnym treściom. Krytyka ta obejmuje w szczególności nieprzyjazne  dla użytkownika interfejsy i procedury zgłaszania naruszeń, ignorowanie zgłoszeń niepochodzących od tzw. zaufanych zgłaszających, problem z efektywną współpracą z krajowymi organami ścigania oraz publikowanie nieprzejrzystych danych dotyczących usuwania bezprawnych treści. Platformy przyznają natomiast, że głównym wyzwaniem z ich perspektywy jest ogromna ilość nielegalnych materiałów, z którą nie radzą sobie nawet stosując automatyczne filtry. Kontrowersje budzi również kwestia stosowania proporcjonalnych narzędzi walki ze „szkodliwymi treściami”, które nie naruszają prawa, ale mogą wywoływać negatywne skutki (jak np. niektóre formy dezinformacji).

3.4. Usuwanie treści na żądanie organów publicznych

Platformy moderują treści użytkowników także pod wpływem presji organów publicznych (np. organów ścigania). Presja ta może przybierać różne formy. Po pierwsze, dzieje się to na podstawie formalnych nakazów usunięcia treści. Takie rozwiązanie co do zasady nie budzi większych wątpliwości, pod warunkiem że usuwanie odbywa się z zachowaniem odpowiednich gwarancji – pod kontrolą sądu i zgodnie ze standardami sprawiedliwego procesu.

W praktyce różne organy publiczne wybierają jednak często inną, mniej formalną ścieżkę: zwracają się do platform z żądaniem usunięcia treści na podstawie procedury notice and takedown. Wówczas takie żądanie ma niewiążący charakter (teoretycznie platforma powinna dokonać oceny takiej treści we własnym zakresie i może sama zdecydować o ewentualnej blokadzie), ale w praktyce stanowi silny impuls do usunięcia wskazanego materiału.

Jednocześnie jednak użytkownik, który opublikował usuniętą treść, jest pozbawiony wspomnianych gwarancji procesowych, które zapewnia „oficjalny” tryb. Ponadto organ, który wystosował żądanie, nie musi liczyć się z ryzykiem, że jego działanie zostanie poddane weryfikacji (np. w drodze kontroli sądowej), co z jednej strony prowadzi to tego, że w tym modelu państwo nie ponosi żadnej odpowiedzialności za działania podjęte na skutek takiego zgłoszenia, a z drugiej strony może sprzyjać nadużywaniu tego mechanizmu.

  1. Nowe regulacje na horyzoncie

4.1. Kodeks usług cyfrowych

W najbliższych latach czeka nas prawdopodobnie istotna reforma opisanego wyżej systemu. Komisja Europejska pracuje obecnie nad nową, kompleksową regulacją usług cyfrowych w postaci pakietu regulacyjnego pod nazwą „Kodeks usług cyfrowych” („Digital Service Act”). Komisja zapowiedziała, że w pakiecie DSA znajdą się najprawdopodobniej trzy niezależne instrumenty:

  • powszechnie obowiązujące prawo dla różnych rodzajów internetowych pośredników (nie tylko dużych platform). Jednym z obszarów, które będzie ono regulować będą zasady odpowiedzialności za treści dodawane przez użytkowników. Nowe prawo zreformuje zatem opisany w pkt. 2 obowiązujący reżim prawny (możliwe kierunki projektowanych rozwiązań wskazuje w pkt. 5). Poza tym nowe przepisy będą odnosić się do wielu innych aspektów funkcjonowania platform, m.in. określać standardy przejrzystości ich działania w różnych sferach i inne obowiązki w relacji z użytkownikami.
  • konkretne obowiązki i zakazy dla wielkich platform (takich jak tzw. GAFA czy Netflix), które wyróżnia to, że kształtują warunki innym graczom na rynku; w tej kategorii może się pojawić np. zakaz dyskryminowania innych dostawców oprogramowania w sklepach z aplikacjami czy nakaz utrzymywania otwartego API dla wszystkich, którzy chcą tworzyć takie rozwiązania;
  • nowe prawo konkurencji (o roboczej nazwie „New Competition Tool”), które da Komisji Europejskiej (lub nowo utworzonemu regulatorowi rynku) i krajowym organom antymonopolowym nowe uprawnienia, skrojone pod cyfrowy rynek i specyfikę platform internetowych.

We wrześniu zakończyły się wstępne konsultacje społeczne (jeszcze nie samego projektu, bardziej w formie zbierania różnych idei i doświadczeń, na których może się on opierać), a pierwszy projekt przepisów Komisja zapowiada do końca roku.

4.2. „TERREG”

Od 2018 r. w UE trwają ponadto prace nad projektem rozporządzenia ws. zapobiegania rozpowszechnianiu w Internecie treści o charakterze terrorystycznym („TERREG”). Projekt wprowadza szczególne zasady usuwania treści o charakterze terrorystycznym przez dostawców usług hostingowych. W przedstawionej przez Komisję Europejską pierwotnej wersji (która obecnie jest negocjowana w ramach tzw. trilogu)  przewiduje się m.in., że platformy będą zobowiązane do usunięcia takich materiałów na żądanie uprawnionych organów państwa (w polskich warunkach – ABW) w ciągu godziny od jego otrzymania, a także (w pewnych sytuacjach obowiązkowe) stosowanie tzw. proaktywnych środków kontroli treści przez hostingodawców (czyli np. automatycznych filtrów).

4.3. Odpowiedzialność platform w USA

Warto wspomnieć, że równolegle do prac w UE proces reform prawnych, które mogą mieć zasadniczy wpływ na funkcjonowanie platform, w tym zasady moderacji treści, odbywa się obecnie w Stanach Zjednoczonych. W Kongresie procedowanych jest kilka projektów aktów prawnych, które mają ograniczyć stosunkowo szerokie wyłączenie odpowiedzialności platform za nielegalne treści dodawane przez użytkowników, przewidziane w tzw. sekcji 230 Communications Decency Act, i wprowadzić dla nich dodatkowe obowiązki w zakresie moderacji treści. Dodatkowo w Kongresie, podobnie jak w UE, coraz silniej wybrzmiewają głosy o konieczności przyjęcia rozwiązań prawnych mających na celu osłabienie dominującej pozycji największych firm internetowych.

  1. Najważniejsze trendy i możliwe kierunki rozwoju regulacji moderacji treści

I. Prawo zamiast samoregulacji. Po latach negocjowania „miękkich” rozwiązań samoregulacyjnych z dużymi platformami internetowymi, można obecnie zaobserwować zwrot decydentów (nie tylko w UE, ale także w USA) w kierunku wprowadzenia „twardych” regulacji prawnych, mających zwiększyć zakres odpowiedzialności platform oraz wzmocnić pozycję ich użytkowników.

II. Postępująca „fragmentaryzacja” reżimów odpowiedzialności. W ostatnich latach obserwujemy odejście od jednolitych zasad odpowiedzialności dla wszystkich hostproviderów za wszelkie treści naruszające prawo na rzecz tworzenia szczególnych reżimów dla konkretnych rodzajów bezprawnych treści lub poszczególnych rodzajów platform. Przejawem tego trendu jest dyrektywa „CDSM” (skupiająca się na walce z naruszeniami praw autorskich) i procedowane rozporządzenie „TERREG” (wymierzone w treści o charakterze terrorystycznym). Ponadto trend ten wspiera do pewnego stopnia orzecznictwo ETPC (sugerując dalej idące obowiązki hostproviderów działających for-profit wobec skrajnie szkodliwych treści, takich jak mowa nienawiści).

III. Platformy nadal pierwszą linią w ocenie legalności treści? Na takim założeniu oparte są obecne regulacje (procedura „notice and takedown”) i prawdopodobnie się ono nie zmieni. Natomiast proces ten zostanie zapewne poddany większej kontroli, aby ograniczyć jego obecną arbitralność (zob. niżej). Takie rozwiązanie jest jednak krytykowane przez część organizacji broniących praw cyfrowych (np. EDRi), które sprzeciwiają się jakiemukolwiek stawianiu platform w roli prywatnych arbitrów legalności treści i postulują, aby były zobligowane do usuwania treści jedynie na podstawie wcześniejszej decyzji sądu. Istotnym mankamentem takiego modelu może być jednakże ograniczony w praktyce dostęp do tego mechanizmu (w świetle skali bezprawnych treści) i w efekcie niższy poziom ochrony ofiar.

IV. Zwiększona przejrzystość zarządzania treścią. Coraz częściej wskazuje się, że prawo powinno zobowiązywać platformy do większej przejrzystości, np. w zakresie obowiązku publikacji wewnętrznych regulaminów określających dopuszczalne treści (a także sposobu ich egzekwowania) czy wydawania tzw. raportów przejrzystości przedstawiających dane statystyczne dotyczące moderacji. Obecnie platformy mają pełną dowolność w kształtowaniu tych reguł i praktyk. Kluczowym postulatem jest ponadto narzucenie standardów przejrzystości dla stosowania algorytmów – i to nie tylko tych, służących do identyfikacji, oceny i usuwania nielegalnych treści, ale także w kontekście ogólnej dystrybucji i optymalizacji treści na platformach (tak, aby użytkownicy mogli poznać stojącą za tymi procesami logikę i zyskać nad nimi większą kontrolę).

V. Sprawiedliwe procedury i niezależny nadzór nad moderacją treści. Aby ograniczyć zjawisko nieuzasadnionego usuwania treści, postuluje się wprowadzenie dwóch mechanizmów. Po pierwsze zablokowani użytkownicy powinni mieć możliwość skutecznego odwołania się od takich decyzji w ramach platform. Po drugie od ostatecznych decyzji platform powinna istnieć możliwość odwołania do niezależnego, zewnętrznego organu. Co do zasady taką kontrolę powinny sprawować sądy. Musiałyby jednak zostać wyposażone w odpowiednie zasoby, które gwarantowałyby ich realną dostępność i efektywność w kontekście spodziewanej dużej liczby takich spraw. Dlatego też pojawiają się propozycje wsparcia sądów poprzez utworzenie specjalnych organów quasi-sądowych, które rozstrzygałyby spory dotyczące treści na platformach szybciej i taniej.

VI. Obowiązkowe stosowanie automatycznych filtrów do identyfikacji i oceny nielegalnych treści? Takiemu rozwiązaniu sprzeciwiają się zdecydowanie organizacje pozarządowe broniące praw cyfrowych oraz przedstawiciele niektórych międzynarodowych organizacji praw człowieka z uwagi na duże ryzyko błędów skutkujących nadmiernym usuwaniem treści. Coraz częściej jednak jest ono brane pod uwagę przez decydentów w UE (zob. dyrektywa CDSM) i w pewnym zakresie także przez trybunały międzynarodowe – nie jako narzucony wprost obowiązek, ale faktyczna konsekwencja zobowiązania do stosowania przez platformy rozmaitych „proaktywnych środków” i „dochowania wszelkich starań” w obszarze zwalczania nielegalnych treści. W szczególności prawdopodobne jest wprowadzenie systemu „notice and stay down” (obliguje on platformę do blokowania możliwości ponownej publikacji treści uznanej wcześniej za bezprawną; w praktyce oznacza to konieczność stosowania tzw. reupload filters) w związku z niedawnym wyrokiem TSUE, który zaakceptował takie rozwiązanie. Ryzyka związane ze stosowaniem automatycznych filtrów próbuje się zrównoważyć wprowadzeniem sprawiedliwych procedur i niezależnego nadzoru (zob. pkt wyżej).

VII. Kontrola nad algorytmami. Niezależnie od ewentualnych obowiązków prawnych, platformy i tak wykorzystują algorytmy do zarządzania treścią użytkowników (w celu identyfikacji i usuwania nielegalnych treści, ale także „optymalizacji” naszej „informacyjnej diety”). Wśród organizacji broniących praw cyfrowych dominuje pogląd, że dobrowolne stosowanie takich środków nie powinno co do zasady pozbawiać platform możliwości skorzystania z mechanizmu wyłączenia odpowiedzialności. Jednocześnie jednak z uwagi na szereg ryzyk, które generuje stosowanie tych narzędzi, konieczne jest sformułowanie w prawie odpowiednich warunków, na jakich mogą być one wykorzystywane (dziś prawo w zasadzie nie odpowiada na ten problem). Pojawiają się także propozycje powołania specjalnego organu kontrolnego na poziomie UE, który miałby m.in. prawo przeprowadzać niezależny audyt takich narzędzi.

Podsumowanie

Nowe (twarde) regulacje dla funkcjonowania platform internetowych wydają się nieuchronne zarówno w Europie, jak i w USA. W UE kluczowym instrumentem prawnym będzie projektowany właśnie Kodeks Usług Cyfrowych, a moderacja treści dodawanych przez użytkowników platform – jednym z ważnych obszarów, które będzie on reformował. Wiele wskazuje na to, że podstawowe założenie (zasada warunkowej, ograniczonej odpowiedzialności platform) zostanie utrzymane. Jeśli jednak, zgodnie z zapowiedziami Komisji Europejskiej, nowe prawo ma rzeczywiście wzmocnić prawa użytkowników sieci, musi „wyprostować” wiele zarysowanych wyżej problemów, a także odpowiedzieć na nowe wyzwania, o których nie mogli myśleć autorzy dyrektywy e-commerce dwie dekady temu.

Największym z tych wyzwań wydaje się stworzenie dobrej regulacji zwiększającej kontrolę nad algorytmami służącymi do zarządzania treścią na platformach – i to nie tylko tymi przeznaczonymi do oceny jej dopuszczalności i ewentualnego usuwania, ale także tymi, które są wykorzystywane do optymalizacji treści. To one bowiem definiują w dużej mierze naszą „informacyjną dietę”, realnie wpływając na dostęp do informacji. Zanim reforma się dopełni, przed nami jeszcze długa i pewnie wyboista droga, wypełniona trudnymi negocjacjami w Brukseli, prowadzonymi w cieniu presji lobbingu cyfrowych gigantów. Jeśli jednak nie chcemy, żeby platformy arbitralnie i bez żadnej kontroli decydowały o tym, co możemy powiedzieć czy przeczytać w sieci, teraz jest czas, żeby o to zawalczyć i przekonać do tego europejskich decydentów.

 

 Niniejszy tekst opublikowany został w ramach współpracy z firmą Allegro w projekcie „Między wolnością słowa a cenzurą – społeczna debata na temat moderacji treści w Internecie”. Treść publikacji nie odzwierciedla poglądów organizacji.

Tym dziełem dzielimy się otwarcie. Utwór (z wyłączeniem grafik) jest udostępniony na licencji Creative Commons Uznanie Autorstwa 4.0 Międzynarodowe. Zachęcamy do jego przedruku i wykorzystania. Prosimy jednak o podanie linku do naszej strony oraz przedrukowanie niniejszej informacji.