Witamy na stronie Klubu Jagiellońskiego. Jesteśmy niepartyjnym, chadeckim środowiskiem politycznym, które szuka rozwiązań ustrojowych, gospodarczych i społecznych służących integralnemu rozwojowi człowieka. Portal klubjagiellonski.pl rozwija ideę Nowej Chadecji, której filarami są: republikanizm, konserwatyzm, katolicka nauka społeczna. Możesz nas wesprzeć przekazując 1,5% podatku na numer KRS: 0000128315.

Informujemy, że korzystamy z cookies. Zachęcamy do regularnych odwiedzin naszej strony.

Wolność słowa czy bezpieczeństwo w sieci? O granicach debaty w Internecie

przeczytanie zajmie 5 min
Wolność słowa czy bezpieczeństwo w sieci? O granicach debaty w Internecie źródło: http://elements.envato.com/

Debata o cenzurze prewencyjnej w Internecie zmusza nas do postawienia niewygodnego pytania: ile jesteśmy gotowi zapłacić za wolność słowa?

W 2022 roku Facebook zablokował oficjalne konto Konfederacji. Legalnie działająca partia została więc pozbawiona jednego z najważniejszych kanałów komunikacji. Oburzony tym faktem minister Janusz Cieszyński (odpowiedzialny w tamtym czasie za cyfryzację) napisał list do Facebooka, w którym żądał przywrócenia konta.

Pismo to zaczynało się od słów „Dear Sir or Madam”. W tym wypadku nie był to protokolarny zwrot. Był to symbol bezradności – minister rządu Rzeczypospolitej Polskiej nie wiedział, do kogo konkretnie ma się zwrócić w sprawie cenzury politycznej w mediach społecznościowych.

Ta historia odsłania znacznie szerszy problem, z którym mierzy się obecnie Polska podczas implementacji unijnego Aktu o usługach cyfrowych. Trzeba bowiem odpowiedzieć na pytanie: kto powinien decydować o granicach debaty w Internecie? Ten temat był przedmiotem okrągłego stołu zorganizowanego w ramach Krynica Forum. Wzięli w nim udział zarówno politycy różnych opcji, przedstawiciele think-tanków oraz firm technologicznych.

I choć oczywiście, nie udało się sformułować jakiegoś wielkiego konsensusu, to mam wrażenie, że wszyscy podzielali obawy związane z otwarciem furtki dla cenzury prewencyjnej.

Problem w tym, że obecnie w Internecie o losie wypowiedzi rozstrzyga często algorytm lub moderator zatrudniony przez prywatną korporację, kierujący się wewnętrznymi „standardami społeczności”, które mogą, choć nie muszą, pokrywać się z polskim prawem.

W tym kontekście cieszy więc jasna deklaracja, która padła w czasie okrągłego stołu ze strony przedstawicieli firm technologicznych, że stan, w którym dostają one od niezależnych organów sądowych jasną decyzję, którą treść zablokować, a którą przywrócić, uważają za pożądany i chętnie się będą do tych rozstrzygnięć stosować.

Różne rodzaje treści wymagające regulacji

Zanim przejdziemy do analizy możliwych modeli regulacji, warto zastanowić się, o jakich rodzajach treści właściwie mówimy, bo mogą one wymagać różnych reakcji.

Bezpośrednie zagrożenie bezpieczeństwa – pierwsza kategoria obejmuje treści stanowiące bezpośrednie zagrożenie dla bezpieczeństwa państwa lub obywateli. Klasycznym przykładem jest fałszywa informacja o trwającym ataku militarnym – „wojska rosyjskie weszły na Podlasie” – która może być fatalna w skutkach zanim zostanie sprostowana.

W tej samej kategorii mieszczą się instrukcje wykonania bomb czy zachęty do aktów terroryzmu. Tutaj panuje stosunkowo szeroka zgoda społeczna co do konieczności szybkiego działania. Problem jednak zaczyna się wtedy, gdy próbujemy precyzyjnie określić, co znaczy „bezpośrednie” zagrożenie.

Destabilizacja – druga kategoria jest już znacznie bardziej kontrowersyjna. Obejmuje treści mogące destabilizować sytuację społeczną lub gospodarczą poprzez rozpowszechnianie nieprawdziwych informacji. Może to być fałszywa informacja o wyczerpywaniu się zapasów mąki prowadząca do paniki zakupowej albo fałszywe oskarżenie, że konkretny polityk jest szpiegiem obcego państwa.

Problem w tym, że granica między dezinformacją a błędem, satyrą czy uzasadnioną krytyką często jest płynna. Kto ma określać, co jest „prawdą”? Historia zna liczne przypadki, gdy oficjalne stanowisko władz okazywało się błędne.

Obraza uczuć i mowa nienawiści – trzecia kategoria dotyczy treści obrażających uczucia religijne, osoby lub grupy osób, zawierających mowę nienawiści. To obszar, w którym różnice kulturowe i światopoglądowe są najbardziej widoczne.

To, co w jednym kraju uznawane jest za ochronę fundamentalnych wartości, w innym postrzegane jest jako nieuzasadnione ograniczenie wolności słowa. W praktyce określenie, gdzie kończy się ostra krytyka, a zaczyna mowa nienawiści, jest niezwykle trudne.

Ochrona własności intelektualnej – ostatnia kategoria ma nieco odmienny charakter – dotyczy ochrony własności intelektualnej. Problem w tym, że automatyczne systemy wykrywania naruszeń praw autorskich często nie potrafią odróżnić nielegalnej kopii od legalnego cytatu. Efekt? Masowe, błędne blokowanie treści całkowicie zgodnych z prawem.

Trzy modele reagowania na naruszenia

Stoimy więc przed fundamentalnym pytaniem: kto powinien decydować o tym, czy dana treść narusza prawo lub normy społeczne na tyle, że powinna zostać usunięta? Możliwe są trzy tryby reagowania.

Model prywatny: Platformy jako strażnicy – pierwszy model opiera się na przekazaniu odpowiedzialności platformom technologicznym. Facebook, YouTube, X czy TikTok same ustalają zasady funkcjonowania swoich serwisów i same egzekwują ich przestrzeganie.

Problem polega na tym, że standardy te tworzone są jednostronnie przez korporacje, często z siedzibami w USA, bez udziału użytkowników czy demokratycznie wybranych przedstawicieli. Te same standardy mają obowiązywać globalnie, mimo że wrażliwości kulturowe różnią się znacząco między krajami.

Platformy wykorzystują dwa podstawowe mechanizmy egzekwowania swoich standardów. Pierwszy to automatyczne systemy oparte na sztucznej inteligencji. Drugi to moderatorzy – ludzie recenzujący zgłoszone treści. Automatyczna moderacja działa szybko, ale algorytmy nie rozumieją kontekstu, ironii, sarkazmu czy intencji.

Moderacja manualna z kolei jest wolniejsza – moderatorzy, często słabo opłacani, muszą codziennie przeglądać tysiące treści, w tym skrajnie brutalne i traumatyzujące.

Dla przeciętnego użytkownika zablokowanie konta to co najwyżej uciążliwość. Dla partii politycznej w trakcie kampanii wyborczej, dziennikarza śledczego czy aktywisty społecznego może to jednak oznaczać faktyczną cenzurę i pozbawienie możliwości dotarcia do odbiorców w kluczowym momencie.

Model publiczny: Państwo jako arbiter – drugi model zakłada, że jakiekolwiek usuwanie treści musi być autoryzowane przez organ władzy państwowej – najczęściej sąd, ale także w pewnych okolicznościach policję czy prokuraturę. To podejście bardziej chroni wolność słowa, czyniąc jej ograniczenie prerogatywą państwa, a nie prywatnych korporacji.

Kluczowa wada modelu publicznego to czas. Postępowanie sądowe, nawet w trybie przyspieszonym, trwa wiele tygodni, miesięcy, a nawet lat. Tymczasem w Internecie treść może się rozprzestrzenić i trafić do milionów użytkowników w ciągu minut.

Informacja o rzekomym ataku chemicznym, fałszywe ostrzeżenie o skażeniu wody pitnej czy deepfake pokazujący premiera ogłaszającego stan wojenny – wszystko to wymaga natychmiastowej reakcji, której system sądowy nie jest w stanie zapewnić.

Problem tempa działania wymiaru sprawiedliwości nie oznacza jednak, że należy go całkowicie pominąć. Najlepszym rozwiązaniem byłoby oparcie się na władzy sądowniczej, nie wykonawczej. Obecne propozycje implementacji niestety idą w przeciwnym kierunku, przekazując kompetencje organom administracyjnym.

Wyspecjalizowane składy sądownicze, działające w trybie przyspieszonym, mogłyby rozstrzygać sprawy w ciągu godzin, zachowując fundamentalną gwarancję demokratycznego państwa prawa: o ograniczeniu wolności decyduje niezależny sąd, nie urzędnik czy algorytm.

Model społeczny: Organizacje pozarządowe jako mediatorzy – trzeci model to próba znalezienia złotego środka. Zakłada powołanie niezależnych organizacji pozarządowych, które będą rozstrzygać sporne przypadki. W praktyce niektóre platformy współpracują już z fact-checkerami. Problem w tym, że oni sami nie są wolni od błędów i uprzedzeń.

Organizacje te często mają określony profil ideologiczny, co rodzi wątpliwości na temat ich bezstronność. Fundamentalne pytanie brzmi: czy możliwe jest stworzenie organizacji powszechnie uznawanej za bezstronną w tak spolaryzowanym społeczeństwie?

Cena wolności słowa

Debata o cenzurze prewencyjnej w Internecie zmusza nas do postawienia niewygodnego pytania: ile jesteśmy gotowi zapłacić za wolność słowa? Bo nie oszukujmy się – wolność słowa ma swoją cenę. Czasem jest to dezinformacja prowadząca do paniki zakupowej. Czasem manipulacje wyborcze. Czasem kampanie nienawiści.

Implementacja unijnego Aktu o usługach cyfrowych to szansa na wypracowanie lepszych rozwiązań. Obecne propozycje implementacji w Polsce idą jednak w niebezpieczną stronę przekazania kompetencji władzom wykonawczym, co budzi poważne obawy o nadużycia dokonywane na potrzeby walki politycznej.

Znacznie lepszym rozwiązaniem byłoby oparcie się na wyspecjalizowanym sądownictwie działającym w trybie przyspieszonym. To trudniejsza droga, wymaga bowiem zbudowania nowych struktur i procedur, ale zgodna z fundamentalnymi zasadami państwa prawa.

Kluczowe będzie, aby nowe przepisy rzeczywiście zwiększyły transparentność działania platform, zapewniły skuteczne mechanizmy odwoławcze i wyraźnie określiły granice odpowiedzialności. Trzeba być jednak świadomym tego, że każde rozwiązanie będzie kompromisem między bezpieczeństwem a wolnością.

Pytanie brzmi, kto ten kompromis wynegocjuje i na czyją korzyść. Pamiętajmy przy tym, że stan obecny, w którym minister rządu musi pisać „Dear Sir or Madam” do nieznanego pracownika prywatnej korporacji, prosząc o przywrócenie konta partii politycznej, to jedno z najgorszych rozwiązań, jakie można sobie wyobrazić.

Publikacja nie została sfinansowana ze środków grantu któregokolwiek ministerstwa w ramach jakiegokolwiek konkursu. Powstała dzięki Darczyńcom Klubu Jagiellońskiego, którym jesteśmy wdzięczni za możliwość działania.

Dlatego dzielimy się tym dziełem otwarcie. Ten utwór (z wyłączeniem grafik) jest udostępniony na licencji Creative Commons Uznanie Autorstwa 4.0 Międzynarodowe. Zachęcamy do jego przedruku i wykorzystania. Prosimy jednak o podanie linku do naszej strony.