Witamy na stronie Klubu Jagiellońskiego. Jesteśmy niepartyjnym, chadeckim środowiskiem politycznym, które szuka rozwiązań ustrojowych, gospodarczych i społecznych służących integralnemu rozwojowi człowieka. Portal klubjagiellonski.pl rozwija ideę Nowej Chadecji, której filarami są: republikanizm, konserwatyzm, katolicka nauka społeczna.

Zachęcamy do regularnych odwiedzin naszej strony. Informujemy, że korzystamy z cookies.

Twitter źle moderuje kontrowersyjne wrzutki Donalda Trumpa. Cztery pytania o przyszłość moderacji treści w Internecie

Twitter źle moderuje kontrowersyjne wrzutki Donalda Trumpa. Cztery pytania o przyszłość moderacji treści w Internecie Źródło: Christopher - flickr.com

W ostatnich dniach świetny przykład, jak nie moderować treści w Internecie, dostarcza nam Twitter. Niespójnie wdraża chaotyczną politykę moderacji, która w praktyce ogranicza się do patrzenia na to, co napisze Donald Trump. Kluczowe pytanie nie brzmi „czy”, ale „jak” moderować treści w Internecie. Najwyższy czas zastanowić się nad wizją społecznie odpowiedzialnych zasad moderacji.

Konto prezydenta USA w serwisie Twitter ma w ostatnich godzinach więcej ostrzeżeń niż paczka papierosów. Twitter ukrywa pod takimi wiadomościami niezwykle kontrowersyjną aktywność prezydenta, który rozognia okołowyborczy spór. W Internecie słychać głosy radości, że oto skończyło się wreszcie nieodpowiedzialne i szkodliwe społecznie „rumakowanie”. Drodzy przeciwnicy Trumpa – nie powinniśmy się z tego cieszyć. Nawet jeśli zgadzamy się, że zachowanie POTUS jest niewłaściwe.

Twitter nie radzi sobie „w Internetach”

Każdy miesiąc przynosi nowe przykłady sporów wokół moderacji treści w Internecie. Przeanalizujmy chociażby wydarzenia z października. W połowie miesiąca Facebook i Twitter ograniczyły zasięgi artykułu dziennika „New York Post” (czwartej największej gazety w USA!) dotyczące maili syna Joe Bidena. Facebook ograniczył rozprzestrzenianie się artykułu w oczekiwaniu na sprawdzenie przez fact-checkerów, Twitter z kolei po prostu uniemożliwił wklejanie linku w twittach – i zablokował konto NYP. Platformy internetowe po raz pierwszy ograniczyły zasięgi artykułu pochodzącego od tradycyjnego medium.

Komentatorzy, m.in. Evelyn Douek z Harvardu, zwracali uwagę, że wciąż nie wiemy na podstawie jakich konkretnie przesłanek akurat temu artykułowi ograniczono zasięgi i co się stanie w kolejnych takich przypadkach. Prezes Twittera, Jack Dorsey, przeżył trudne momenty w czasie przesłuchania przez senatora Cruza przed Kongresem. Dorsey stwierdził, że jego platforma nie ma wpływu na wybory. Przyznał, że zakazanie rozpowszechniania artykułu i zablokowanie konta NYP było błędem – ale jednocześnie nie odblokował tego konta. Powiedział tylko, że NYP może zrobić to sam, logując się do platformy i usuwając kontrowersyjnego twitta, po czym może wrzucić artykuł ponownie.

Cruz bardzo jasno pokazał też, jak nierównomierna jest polityka Twittera. Ten ograniczył artykuł „New York Post” na podstawie podejrzenia, że został napisany w oparciu o treści pozyskane nielegalnie (wykradnięte). Jednak już publikacja „New York Times” o zeznaniach podatkowych Trumpa ukazała się bez przeszkód – tymczasem rozpowszechnianie tego dokumentu bez zgody jest przestępstwem.

Twitter mentalnie jest w 2014 roku. Dorsey z jednej strony przyznaje przed Kongresem, że według niego platforma nie ma wpływu na wybory (sic!), z drugiej strony w dniu wyborów ukrywa większość wypowiedzi aktualnie urzędującego prezydenta. Jeśli nie mają wpływu, to po co to robią? Przyznaje też, że pomylili się w ocenie artykułu „New York Post”, ale nawet nie przywraca z automatu konta gazety.

Polityka Twittera w ostatnich miesiącach zmieniała się wielokrotnie, co przypomina raczej trwający eksperyment w kalifornijskim stylu „move fast and break things”, niż chęć wzięcia odpowiedzialności za stan internetowej agory. Nawet jednak po miesiącach eksperymentów Twitter daje się złapać na prostej niekonsekwencji w ocenie dwóch podobnych artykułów, dostarczając jedynie paliwa Republikanom oskarżającym platformę o sympatię do Demokratów.

Dlaczego w ogóle moderować?      

Na potrzeby tego artykułu przez pojęcie „moderacji rozumiem automatyczną lub przeprowadzoną przez człowieka ingerencję w istnienie, pozycjonowanie (w tym – polecanie przez algorytmy) lub monetyzację (możliwość zarabiania) treści lub kont użytkowników na platformach. Moderowane mogą być artykuły, posty, filmy, ale też oferty sprzedaży w Internecie książek, pamiątek historycznych, innych wytworów kultury czy nawet chronionych zwierząt. Jest to więc bardzo różnorodna sprawa, która dotyczy nie tylko mediów społecznościowych, ale również platform innego rodzaju – na przykład e-commerce.

Skoro moderacja wywołuje kontrowersje, to być może łatwiej się jej nie podejmować – a wręcz zakazać wszelkich aktywności wykraczających poza egzekucję prawa? Uznać, że platformy jako takie są przestrzenią wolności, ograniczanej jedynie twardymi dowodami na łamanie prawa? Można też wyobrazić sobie alternatywne podejście, według którego decyzje moderacyjne powinny pozostać w wyłącznej gestii polityki platform. Obydwa te modele ignorują jednak realia XXI w.

Internet charakteryzuje się tworzeniem rynków, w których „pierwszy bierze (prawie) wszystko”. Inaczej niż w tradycyjnej gospodarce, gdzie naturalnym stanem w większości branż jest konkurencja dużej liczby podmiotów, w Internecie najczęściej konkretną branżę z czasem zaczyna obsługiwać bardzo wąska liczba firm. To uniemożliwia realną konkurencję, według której na przykład, jeśli jeden ze sklepów nie chce sprzedawać naszej książki, to zrobi to inny.

A to oznacza Wielkie Ujednolicenie: na straży tego, co wolno opublikować, wyemitować lub sprzedać stać będą policzalne na palcach jednej ręki firmy-molochy. Dotyczy to nie tylko dostępu do informacji (gdzie media społecznościowe zastępują te tradycyjne w roli „bramy” dostępu), ale również e-handlu czy transportu osób. Same firmy nie wydają się zachwycone tą odpowiedzialnością. Jak widać powyżej w przypadku Twittera – doprowadza to też czasem do błędów i chaosu będącym wynikiem eksperymentowania na żywym organizmie w czasie wyborów.

Moderacja wreszcie to nie tylko usuwanie i ograniczanie, ale również pozycjonowanie konkretnych treści. Tym samym wszystkie przestrzenie, gdzie algorytmy pomagają wybrać treści lub artykuły specjalnie dla nas dokonują właściwie ciągłej moderacji. Innymi słowy: wszędzie tam, gdzie algorytm zarządza tym, co widzimy – mamy do czynienia z pewną formą moderacji treści.

Cztery główne pytania o przyszłość moderacji

Moderacji nie będziemy w stanie się całkowicie pozbyć: zawsze i często w zautomatyzowany sposób ktoś będzie lub coś będzie podejmował decyzję o tym, co nam pokazać w pierwszej, drugiej lub trzeciej kolejności – i czego nie pokazywać. Widzimy też, że pozostawienie tej decyzji całkowicie w rękach platform, bez żadnych oczekiwań, doprowadza do błędów. Pytanie nie powinno więc brzmieć „czy” moderować – ale według jakich zasad powinniśmy to robić?

  1. Rola platform

Czy platformy powinny pełnić rolę „pierwszej instancji” moderacji treści w Internecie, czy też powinny jedynie moderować w oparciu np. o decyzje sądów?

Do tej pory decyzje moderacyjne były pozostawione w gestii samych platform. Choć pojawiają się alternatywne scenariusze rozłożenia odpowiedzialności – w tym przeniesienia ciężaru decyzji moderacyjnych na jakiś rodzaj społecznie kontrolowanej instytucji. To jednak z kolei rodzi wątpliwości, czy społecznie kontrolowane instytucje z czasem nie staną się podległymi politykom cenzorami.

Wydaje się, że jednym z założeń przyszłości moderacji powinien być aktywny, choć społecznie kontrolowany, udział w procesie platform – jako „pierwszej instancji” w ocenie treści. W oparciu o takie właśnie  założenie tworzone są obecne regulacje i w tym kierunku idą również regulacyjne postulaty wewnątrz Unii Europejskiej.

Takie rozwiązanie jest jednak krytykowane przez część organizacji broniących praw cyfrowych (np. stanowisko EDRi), które sprzeciwiają się jakiemukolwiek stawianiu platform w roli prywatnych arbitrów legalności treści i postulują, aby były zobligowane do usuwania treści jedynie na podstawie wcześniejszej decyzji sądu.

  1. Przejrzystość i społeczna kontrola

Czy i w jaki sposób powinniśmy stworzyć obowiązkowe standardy przejrzystości procesu moderacji na platformach internetowych?

Konieczne wydaje się wprowadzenie mechanizmów społecznej kontroli oraz upubliczniania wiedzy o podejmowanych przez moderatorów decyzjach. Coraz częściej wskazuje się, że prawo powinno zobowiązywać platformy do większej przejrzystości, np. w zakresie obowiązku publikacji wewnętrznych regulaminów określających dopuszczalne treści, stosowanych przy decyzjach moderacyjnych procesów czy wydawania tzw. raportów przejrzystości przedstawiających dane statystyczne dotyczące moderacji. Obecnie platformy mają pełną dowolność w kształtowaniu tego typu reguł i praktyk.

Coraz częściej moderacja nie ogranicza się jedynie do decyzji o usunięciu grup, użytkowników lub materiałów, ale do ograniczenia ich propagacji (obniżenia algorytmicznego rankingu) lub demonetyzacji treści (uniemożliwieniu twórcy zarabiania). To wydaje się słusznym narzędziem, szukającym kompromisu między ograniczaniem wolności wyrazu a „wspieraniem” propagowania kontrowersyjnych materiałów przez algorytmy platform. Jednak brak przejrzystości takich decyzji rodzi poczucie cenzury, pokrzywdzenia twórców.

Dlatego kluczowym aspektem wizji społecznie odpowiedzialnej moderacji jest stworzenie ogólnodostępnych rejestrów, w których odnotowywane będzie na jakiej podstawie jakie treści zostały poddane moderacji oraz w jaki sposób została ona przeprowadzona.

Użytkownik, którego post, filmik lub konto zostało poddane takiemu procesowi powinien również otrzymać tę informację. Standardy przejrzystości powinny także objąć algorytmy identyfikujące treści potencjalnie łamiące prawo lub regulacje wewnętrzne platform. To one bowiem stanowią najczęściej pierwsze ogniwo selekcji treści do weryfikacji lub też automatycznie podejmują decyzje moderacyjne.

Użytkownik, którego treść została usunięta, powinien otrzymać wyjaśnienie powodów podjęcia takiej decyzji zawierające: a) wskazanie materiału, który został uznany za niedopuszczalny, b) punkt regulaminu, który został naruszony wraz z uzasadnieniem, c) informację, w jaki sposób dana treść została zidentyfikowana jako nadużycie i poddana ocenie (np. czy zgłosił ją inny użytkownik, czy została wyłapana przez automatyczny filtr, czy decyzję o usunięciu podjął człowiek, czy algorytm), d) informację, co może zrobić, jeśli nie zgadza się z dokonaną przez platformę oceną.

Brak przejrzystości procesu decyzyjnego algorytmów i moderatorów platform jest jedną z przyczyn dezorientacji i krytyki dotkniętych nią użytkowników. To zrozumiała emocja: jako społeczeństwo powinniśmy móc zrozumieć charakter decyzji mających wpływ na takie prawa jak wolność słowa. Obecnie bardzo często zarówno indywidualnie (jako użytkownicy), jak i zbiorczo (jako społeczeństwo) nie mamy precyzyjnego dostępu do tych informacji.

  1. Niezależność procesu odwołania

Czy powinien istnieć mechanizm odwołania od decyzji do niezależnej instytucji? Jeśli tak, jak powinien on wyglądać?

Trudno mówić o społecznie odpowiedzialnym mechanizmie moderacyjnym bez umożliwienia użytkownikowi niezależnego procesu odwoławczego. Moderacja trudnych do wyważenia kwestii dotyczących spraw światopoglądowych niejednokrotnie będzie doprowadzać do błędów. To jednak oznacza, że nie zgadzający się z decyzją użytkownik będzie musiał przekonać do zmiany decyzji platformę, która tę decyzję wydała. Firma staje się więc sędzią we własnej sprawie.

Dlatego potrzebujemy stworzenia mechanizmu odwoławczego do niezależnej instancji. Ten proces powinien być dwustopniowy. Po pierwsze, użytkownik powinien mieć prawo odwołania od podjętej wobec niego decyzji wewnątrz platformy – możliwość ponownego rozstrzygnięcia jego sprawy przez moderatorów. Jeśli jednak nadal nie będzie zadowolony z werdyktu, powinien móc zwrócić się do niezależnego, krajowego organu zdolnego do zobowiązującego dla platformy rozstrzygnięcia sporu.

Organ ten może być dedykowanym sądem lub niezależną instytucją (np. w rodzaju UOKiK lub UODO), powinien jednak być zasadniczo podległy społecznej kontroli i mieć umocowanie w państwowym porządku instytucjonalnym. Różnice w prawodawstwie, normach i kulturze państw europejskich wskazują, że taka instytucja nie powinna mieć jednak charakteru ogólnoeuropejskiego. Niewykluczone jednak, że – podobnie jak urzędy ochrony danych osobowych – na poziomie UE krajowe instytucje powinny być powiązane we współpracującą ze sobą sieć.

Musiałyby jednak zostać wyposażone w odpowiednie zasoby, które gwarantowałyby ich realną dostępność i efektywność w kontekście spodziewanej dużej liczby takich spraw. Dlatego też pojawiają się propozycje wsparcia sądów poprzez utworzenie specjalnych organów quasi-sądowych, które rozstrzygałyby spory dotyczące treści na platformach szybciej i taniej.

  1. Decyzje biorące pod uwagę lokalny kontekst prawno-społeczny

Czy moderacja treści wewnątrz platform powinna dążyć do globalnego ujednolicenia standardów, czy też powinna brać pod uwagę lokalny kontekst społeczno-kulturowy?

Platformy ze swojej natury funkcjonują globalnie. W kwestii moderacji spornych tematów światopoglądowych kluczowy jest jednak lokalny kontekst: obowiązujące normy prawne i społeczne. Dlatego platformy o istotnej obecności (definiowanej przez próg liczby użytkowników) powinny podejmować decyzje, biorąc pod uwagę lokalny kontekst kulturowy

Platformy powinny obsługiwać proces moderacji – w tym możliwości odwołania – w lokalnym języku urzędowym. Liczba moderatorów powinna być odpowiednia do skali działań. Ciała doradcze w decyzjach moderacyjnych (np. „sąd najwyższy” Facebooka) powinny z kolei przynajmniej uwzględniać opinie lokalnych historyków, filozofów czy prawników. Najlepiej, aby grono doradcze operowało właśnie na poziomie konkretnego kraju i wspierało lokalnie proces decyzyjny.

Oczywiście, utopijna jest wizja, w której przynajmniej na poziomie lokalnym społeczno-światopoglądowe decyzje moderacyjne stają się łatwe do podjęcia. Dlatego grupy doradcze powinny zapewniać szeroki pluralizm poglądów i – w pewien uproszczony sposób – starać się być reprezentatywne dla spektrum poglądów w społeczeństwie. W dobie głębokich podziałów społecznych taka próba, choć z góry skazana na brak pełnego sukcesu, wydaje się być jedyną drogą pozwalającą wzbudzić społeczne zaufanie do decyzji w kontrowersyjnych kwestiach.

Dzisiaj platformy często outsourcują weryfikację treści do firm zewnętrznych – w rodzaju przedsiębiorstw-podwykonawców obsługujących call centre. Niedawny raport Paula Barretta, wydany przez Centrum Biznesu i Praw Człowieka New York University, wzywa do ukrócenia tej praktyki. Według autorów taki outsourcing często oznacza przeniesienie pracy moderacyjnej na drugi koniec świata, a firmy-podwykonawcy często nie dochowują odpowiednich standardów opieki nad pracownikami wykonującymi niezwykle obciążającą psychicznie pracę. Powstał również reportaż portalu The Verge dokumentujący warunki pracy moderatorów sieci w firmach outsourcingowych.

Podejście oparte o branie pod uwagę lokalnego kontekstu oraz stworzenie niezależnej instytucji odwoławczej na poziomie krajowym ma jednak przynajmniej jedną poważną wadę. W państwach autorytarnych może to oznaczać de facto umożliwienie wpływu lokalnych rządów na decyzje moderacyjne, tym samym pozbawiając media społecznościowe tamże roli niezależnych, bezpiecznych kanałów komunikacji, na przykład dla opozycjonistów czy dziennikarzy.

Z drugiej strony brak lokalności może oznaczać wzmocnienie „cyfrowej peryferyjności” wielu krajów świata. Sophie Zhang, analityczka danych, niedawno zrezygnowała z pracy w Facebooku i w swoim ostatnim dniu rozesłała w firmie alarmującą wiadomość. Zhang ma poczucie, że o ile Facebook znacząco poprawił swoje standardy zajmowania się armiami botów oraz fake news w krajach Zachodu, gdzie silne media patrzą krytyczne na działania firmy, o tyle nakazywano jej wręcz porzucić zajmowanie się podobnymi sprawami w państwach takich jak Ukraina, Honduras czy Azerbejdżan.

Post scriptum

Platformy zaczynają dzisiaj decydować o ograniczeniu rozpowszechniania artykułów pochodzących z tradycyjnych mediów, sprzedaży wzbudzających kontrowersje książek, czy usunięciu kanałów bezpiecznej komunikacji białoruskiej opozycji. Wiele z tych decyzji nie jest biało-czarnych, dotyczy treści znajdujących się na granicy prawa i wewnętrznych regulacji serwisów internetowych. Nawet najszczersze wysiłki nie ustrzegą ich od błędów.  Po przykładzie Twittera widać, że niestety nie we wszystkich przypadkach będziemy mieć do czynienia z  – delikatnie mówiąc – możliwie najbardziej odpowiedzialnym i pluralistycznym podejściem.

Dzisiaj potrzebujemy przejąć społeczną kontrolę nad moderacją treści. Nie oznacza to odebrania platformom możliwości moderacji i scedowania jej na jakieś Ministerstwo Prawdy. Platformy powinny pełnić rolę pierwszego elementu tego procesu, jednocześnie jednak powinny publicznie przedstawić informacje o podjętych decyzjach, wraz z podaniem konkretnych przyczyn i stworzeniem ścieżek odwoławczych. Powinniśmy stworzyć również pewien odpowiednik „sądów dwudziestoczterogodzinnych”, do których może odwołać się obywatel, który czuje się pokrzywdzony decyzją platformy. Wreszcie społecznie odpowiedzialny proces powinien brać pod uwagę lokalny kontekst: nie tylko ten czysto prawny, ale też społeczno-kulturowy.

 Niniejszy tekst opublikowany został w ramach współpracy z firmą Allegro w projekcie „Między wolnością słowa a cenzurą – społeczna debata na temat moderacji treści w Internecie”. Treść publikacji nie odzwierciedla poglądów organizacji.

Tym dziełem dzielimy się otwarcie. Utwór (z wyłączeniem grafik) jest udostępniony na licencji Creative Commons Uznanie Autorstwa 4.0 Międzynarodowe. Zachęcamy do jego przedruku i wykorzystania. Prosimy jednak o podanie linku do naszej strony oraz przedrukowanie niniejszej informacji.