Witamy na stronie Klubu Jagiellońskiego. Jesteśmy republikańskim i niepartyjnym stowarzyszeniem, które próbuje oddziaływać na politykę w duchu troski o dobro wspólne. Piszemy pogłębione artykuły o polityce, gospodarce, historii i kulturze. Formułujemy obywatelskie postulaty zmian i wysyłamy petycje do władz. Publikujemy komentarze ekspertów i tematyczne raporty. Działamy w całej Polsce.

Zachęcamy do regularnych odwiedzin naszej strony. Informujemy, że korzystamy z cookies.

Problemem nie jest moderacja treści, lecz centralizacja Internetu

przeczytanie zajmie 11 min

Dopiero, kiedy użytkownicy będą tworzyć zasady funkcjonowania własnej społeczności, a organy sprawiedliwości egzekwować prawo, będziemy mieć do czynienia z cyfrową sferą publiczną. Wtedy będziemy mogli konfrontować zarówno rządy, jak i wielkie firmy technologiczne, z niewygodnymi dla nich pytaniami i faktami bez obaw przed byciem ocenzurowanym.

Internet to najbardziej złożony system komunikacyjny, jaki kiedykolwiek powstał. Kiedy myślimy o nim jak o medium, widzimy, że daje dużo większe możliwości rozprzestrzeniania informacji, niż radio i telewizja, które królowały w całym wieku dwudziestym, a także prasa, która na skalę masową narodziła się w drugiej połowie osiemnastego stulecia.

Gatekeeperzy i moderacja treści

Kiedy „wrzucamy coś do internetu” nie robimy tego wcale bezpośrednio, jak nakazuje nam myśleć logika naszej „połączonej rzeczywistości” (sieć jest przecież dostępna wszędzie – mamy ją w naszych smartfonach, zegarkach, a niekiedy nawet w pospolitych sprzętach gospodarstwa domowego i systemach obsługujących samochody). W rzeczywistości każda rzecz, którą umieszczamy w sieci, trafia do niej z udziałem pośredników.

Kluczową rolę wśród nich odgrywają wielkie platformy społecznościowe (Twitter, Facebook, należący do niego Instagram, czy też będący własnością Google’a serwis YouTube), funkcjonujące jednocześnie jako tzw. gatekeeperzy, czyli podmioty selekcjonujące udostępniane i widziane przez użytkowników treści. Pośrednikami są również dostawcy łączności z siecią, tacy jak np. operatorzy telefonii komórkowej, a nawet producenci sprzętu, w oparciu o który działają sieci telekomunikacyjne. Na potrzeby tego tekstu pośrednikiem będziemy jednak nazywać serwisy, o których napisałam wcześniej, zamiennie stosując pojęcie gatekeeper, które poszerza rolę pośrednika o funkcję selekcjonera informacji, z jakimi stykamy się w internecie.

W swoich początkach internet miał być miejscem, które miało być wolne od bolączek poprawności politycznej i cenzury – problemów kojarzących się z mediami tradycyjnymi. Wszyscy znamy historie o blokowanych przez wielkie korporacje czy rządy publikacjach medialnych i dewizę dziennika „Washington Post”, należącego do prezesa Amazonu Jeffa Bezosa: „Democracy dies in darkness”.

Czym jest moderacja?

Na potrzeby tego tekstu adaptujemy definicję, którą w swoim tekście umieścił Bartosz Paszcza. Moderacja jest zatem „automatyczną lub przeprowadzoną przez człowieka ingerencją w istnienie, pozycjonowanie (w tym – polecanie przez algorytmy) lub monetyzację (możliwość zarabiania) treści lub kont użytkowników na platformach”.

Moderacja, zwłaszcza ta w rozumieniu gatekeepingu, zawsze była narzędziem ograniczania wolności słowa, jednak niekoniecznie ukierunkowanego na cenzurę w potocznym rozumieniu tego pojęcia. Dobrze obrazuje to m.in. rola pracowników firmy Cognizant, która do niedawna miała w Polsce swój oddział. Osoby zatrudniane przez Cognizanta były odpowiedzialne za moderację materiałów wideo zamieszczanych przez użytkowników Facebooka.

Ich zadaniem była selekcja tych materiałów, które nie powinny być monetyzowane przez użytkowników – ostatecznie żadna firma reklamująca się na Facebooku nie chce, by jej komunikacja pojawiała się w towarzystwie np. materiałów propagandowych tzw. Państwa Islamskiego (ISIS), czy też filmów przedstawiających znęcanie się nad zwierzętami. Możemy zatem stwierdzić, że moderacja jest zjawiskiem, na które istnieje swego rodzaju popyt.

Kto powinien być odpowiedzialny za moderację?

Obecnie dyskusja na ten temat ogniskuje się wokół coraz bardziej zacierającej się granicy pomiędzy regulacjami wprowadzanymi na poziomie politycznym (krajowym, międzynarodowym) i „oddolnym” – przez wielkie firmy technologiczne, będące gatekeeperami i operatorami wiodących platform społecznościowych.

Podjęte – m.in. przez Komisję Europejską (KE) po 2016 r. i stwierdzeniu, że Rosja z wykorzystaniem mediów społecznościowych istotnie wywierała wpływ na przebieg ówczesnych wyborów prezydenckich w USA – próby zobowiązania platform społecznościowych do „samoregulacji” nie powiodły się. Niewystarczające rezultaty daje samodzielne zobowiązanie się platform do przestrzegania reguł Kodeksu dobrych praktyk, który został utworzony na poziomie KE w tym samym roku. Pomimo tego, że w 2016 r. przystąpiły do niego Facebook, Microsoft, Twitter i YouTube, dwa lata później – Instagram, Snapchat i Dailymotion, w 2020 r. zaś – TikTok.

Unijny Kodeks… miał być kompromisem pomiędzy twardą, odgórną regulacją platform i ich działań wobec moderacji treści, a dowolnością działań podejmowanych przez wielkie firmy internetowe, które wcześniej przez globalną opinię publiczną były oceniane jako niewystarczające i nie przynoszące oczekiwanych skutków.

Może i dobrze – ostatecznie w przypadku przełożenia całej odpowiedzialności na platformy mamy do czynienia z modelem moderacji, w której zapadają arbitralnie podejmowane przez firmy decyzje dotyczące treści spełniających określone parametry, dodatkowo właściwie bez żadnej kontroli. Nie wiadomo też, kto jest odpowiedzialny za wybory dotyczące moderacji ani jakie ma kwalifikacje, by o niej decydować. Problemem są również kryteria wyboru treści do moderacji – platformy mogą, ale nie muszą informować swoich użytkowników w sposób uniwersalnie przejrzysty i zrozumiały.

Kodeks dobrych praktyk miał rozwiązać ten problem. Jego celem było nadanie priorytetu moderacji treści związanej z walką z mową nienawiści, a także stworzenie uniwersalnej definicji tego pojęcia, która miała rozwiązać problem arbitralności ocen dokonywanych przez firmy kontrolujące platformy społecznościowe.

W tym miejscu należy zwrócić uwagę na problem, którego Kodeks… nie uwzględnia – otóż, czy wszyscy rozumiemy i definiujemy mowę nienawiści w ten sam sposób? Co z różnicami kulturowymi, które mogą zachodzić nawet w ramach Unii Europejskiej i uwidaczniać się pomiędzy poszczególnymi państwami członkowskimi? Czy zasady Kodeksu… mają mieć taką samą moc poza Unią Europejską, w krajach, które dopiero chcą dołączyć do tej organizacji? Wreszcie, czy rozwiązaniem tych dylematów może być wdrożenie blokad dostępności treści na określonych terytoriach, skoro w jednym państwie pewne treści mogą być uznawane za mowę nienawiści, a w innym nie? To przecież w sposób oczywisty byłoby ograniczeniem wolności.

Centralizacja internetu i zacieranie granic

Prawa człowieka zawierają w sobie obwarowania dotyczące wolności myśli, przekonań, sumienia i wyznania. Warto o tym pamiętać zwłaszcza w sytuacjach, gdy nowe regulacje, również te dotyczące świata nowych technologii, tworzone są naprędce i ze względu na nagłą potrzebę. Na przykład wywołaną przez kryzys taki, jak rosyjska ingerencja w przebieg wyborów prezydenckich w USA w 2016 r. czy próby manipulacji referendum o wyjściu Wielkiej Brytanii z Unii Europejskiej z tego samego roku.

Deficyt demokracji, na którego istnienie wskazują w ostatnich latach poczytni autorzy z dziedziny historii i nauk politycznych (Applebaum, Snyder, etc.), a także komentatorzy z każdej strony politycznego sporu, sprawia, że mamy coraz mniejszą kontrolę nad tym, co robią wielkie firmy technologiczne (nawet, jeśli zobowiążą się do przestrzegania Kodeksu dobrych praktyk). Deficyt demokracji doprowadził do dewaluacji obywatelskiego przekonania o tym, co może ze swojej strony zaoferować państwo (niezależnie od tego, jak postrzegamy jego rolę), czy też zbiorowość społeczna (ucieleśniona w działalności rozmaitych organizacji pozarządowych i ich realnym wpływie na rzeczywistość).

Płacimy podatki i bardzo często jesteśmy dziś rozczarowani efektami tego, jak są one wydatkowane – naturalną tendencją jest więc utrata wiary w to, co państwowe oraz myślenie o przeniesieniu obowiązku odpowiedzialności za moderację na gatekeeperów, którzy wcześniej zdążyli już przejąć rolę głównych dostarczycieli informacji i usług komunikacyjnych w naszym życiu.

W konsekwencji granice pomiędzy wpływającymi na nasze życie regulacjami tworzonymi na poziomie państwa i na poziomie prywatnych koncernów technologicznych zacierają się. Kodeks… jest tego przykładem. Jakkolwiek Komisja Europejska chce zobowiązać firmy do przestrzegania szeregu zasad, to ich praktyczne wdrożenie nie jest kontrolowane przez żadne organy i zależy wyłącznie od dobrej woli menedżerów Google’a czy Facebooka.

Warto przy tej okazji zwrócić uwagę na podobieństwa w funkcjonowaniu platform technologicznych i współczesnych państw. Jedne i drugie cechuje bardzo duża centralizacja. Ostatecznie algorytmy Facebooka kontroluje główna siedziba firmy w kalifornijskim Menlo Park. Podobnie sytuacja ma się z Google’em  i jego „centrum dowodzenia” zlokalizowanym w Mountain View. To w siedzibach firm zapadają decyzje o tym, jak moderować i co moderować. To tam wyznaczane i formułowane są tzw. standardy społeczności.

Konsumenci mają jednak wybór. Pokazał to ostatnio Parler, który przyciągnął wielu amatorów konserwatywnego światopoglądu zniesmaczonych praktykami moderacji Twittera, który zaczął ostro rozprawiać się z wprowadzającymi w błąd wpisami ustępującego prezydenta USA Donalda Trumpa. Alternatywne platformy, a także szyfrowana, prywatna komunikacja zyskują na popularności, mimo tego, że przez wiodącą konkurencję przedstawiane są jako siedliska zła, terroryzmu, albo przynajmniej oszołomstwa – co negatywnie wpływa na ich reputację i zasięg oddziaływania. Oczywiście, można i trzeba postrzegać tego rodzaju działanie jako dążność wielkich firm do stworzenia karteli komunikacyjnych i marginalizację konkurencji.

Czy potrzebujemy odgórnej moderacji?

Aby odpowiedzieć na to pytanie, najlepiej wrócić do nieco już zapomnianych w zdominowanym przez Facebooka i Google internecie forów internetowych typu BBoard i kanałów IRC. W latach 90. i krótko po roku 2000, w czasie ich największej popularności, swoją platformę komunikacji mógł założyć każdy, kto potrafił skorzystać z otwartych, dostępnych w sieci narzędzi o wspólnym standardzie.

Mimo braku opieki ze strony państwowych regulatorów oraz czujnego oka wielkich firm czuwających nad bezpieczeństwem i standardami konwersacji użytkowników tych kanałów, rządziły się one własnymi zasadami uwzględniającymi również moderację. Samo zjawisko moderacji jest bowiem naturalną konsekwencją komunikacji zbiorowej, w której pojawia się potrzeba filtrowania treści naruszających powszechnie, choć oddolnie przyjęte standardy.

Oczywiście, nadal w sieci pojawiały się wówczas i pojawiają do dziś treści niezgodne z prawem. To pornografia dziecięca, to propaganda terrorystyczna, to tzw. snuff movies czy inne materiały, które powinny stać się inspiracją dla podjęcia stosownych działań przez prokuraturę. Ale takie materiały zawsze były i zawsze będą. Żadna regulacja na poziomie państwowym czy międzynarodowym tego nie zmieni (spróbujmy wyobrazić sobie uregulowanie darknetu). To, co odróżnia moderację na IRC-u i na forach BBoard od tej, którą znamy z Facebooka czy YouTube’a, to koncentracja nie na eliminowaniu całego szeregu arbitralnie zdefiniowanych tematów, a na przewinieniach konkretnych osób naruszających zasady komunikacji w danym kanale.

Rola państwa i organizacji międzynarodowych w procesie moderacji

Taką też rolę powinno przyjąć państwo, ściągając z firm technologicznych obowiązki „arbitra sumień” i „wielkiego cenzora”. To administracja poszczególnych krajów bądź instytucje międzynarodowe (takie jak Unia Europejska) za pośrednictwem swoich organów powinny ścigać tych, którzy dopuszczają się przestępstw poprzez publikowanie w Internecie treści naruszających prawo.

Oczywiście, jeśli mówimy o sieci takiej, jaką znamy dziś, w tym momencie pojawiają się problemy związane z deszyfracją oraz ustalaniem tożsamości osób winnych naruszenia prawa – i pozostając w modelu idealnym istotnym jest, aby dużą rolę w procesie zgłaszania naruszeń odgrywali sami użytkownicy. W modelu tym żadna prywatna firma ani żadna partia polityczna nie będą pełniły roli cenzora (zarówno poprzez moderację algorytmiczną, jak i blokady treści na poziomie krajowym).

Takie podejście nie wydaje się szkodliwe dla demokracji. Wprost przeciwnie – pozwala na jej ponowny rozkwit. W cyfrowej sferze publicznej, w której to użytkownicy tworzą zasady funkcjonowania własnych społeczności, a organy sprawiedliwości zajmują się egzekwowaniem prawa od osób, które je naruszają, istnieje szansa na stworzenie przestrzeni, w której władza może być konfrontowana z trudnymi dla siebie pytaniami i wywoływana do odpowiedzi, podobnie jak wielkie firmy technologiczne, które bardzo często nie lubią, gdy w cyfrowych mediach pojawiają się niewygodne dla nich bądź choćby niepochlebne opinie czy teksty.

 Niniejszy tekst opublikowany został w ramach współpracy z firmą Allegro w projekcie „Między wolnością słowa a cenzurą – społeczna debata na temat moderacji treści w Internecie”. Treść publikacji nie odzwierciedla poglądów organizacji.

Tym dziełem dzielimy się otwarcie. Utwór (z wyłączeniem grafik) jest udostępniony na licencji Creative Commons Uznanie Autorstwa 4.0 Międzynarodowe. Zachęcamy do jego przedruku i wykorzystania. Prosimy jednak o podanie linku do naszej strony oraz przedrukowanie niniejszej informacji.