Witamy na stronie Klubu Jagiellońskiego. Jesteśmy republikańskim i niepartyjnym stowarzyszeniem, które próbuje oddziaływać na politykę w duchu troski o dobro wspólne. Piszemy pogłębione artykuły o polityce, gospodarce, historii i kulturze. Formułujemy obywatelskie postulaty zmian i wysyłamy petycje do władz. Publikujemy komentarze ekspertów i tematyczne raporty. Działamy w całej Polsce.

Zachęcamy do regularnych odwiedzin naszej strony. Informujemy, że korzystamy z cookies.

Czy Facebook będzie musiał blokować „fake newsy”? W UE trwają prace nad Digital Services Act

Czy Facebook będzie musiał blokować „fake newsy”? W UE trwają prace nad Digital Services Act ©European Union 2021

Zbliżamy się do wprowadzenia na poziomie unijnym rozwiązań, które będą regulować wolność słowa w internecie. Nowe regulacje nałożą szereg zobowiązań na wszystkich użytkowników internetu – tak przedsiębiorców świadczących swoje usługi, jak i konsumentów korzystających z nich. Ich skuteczność zależy jednak głównie od tego czy zostaną aktywnie wdrożone wobec liderów opinii, czy – jak pokazuje doświadczenie Donalda Trumpa – osób piastujących określone, decyzyjne stanowiska w strukturze społecznej.

Od dłuższego czasu Komisja Europejska sygnalizowała konieczność rewizji i aktualizacji regulacji dotyczących rynku cyfrowego, przede wszystkim Dyrektywy 2000/31/WE o handlu elektronicznym z dnia 8 czerwca 2000 roku, która ma już ponad 20 lat. Jednakże uznając doniosłość zmian na rynku cyfrowym, jakie dokonały się w ostatnich latach, w 2019 roku ogłoszono rozpoczęcie prac nad kompleksową regulacją, stanowiącą swoisty kodeks usług cyfrowych, na który składają się dwie propozycje rozporządzeń:

  • Rozporządzenie Parlamentu Europejskiego i Rady w sprawie kontestowalnych i uczciwych rynków w sektorze cyfrowym (akt o rynkach cyfrowych), dalej także jako Digital Markets Act (DMA),
  • Rozporządzenie Parlamentu Europejskiego i Rady w sprawie jednolitego rynku usług cyfrowych (akt o usługach cyfrowych) i zmieniające dyrektywę 2000/31/WE, dalej także jako Digital Services Act (DSA).

Polityczną iskrą do przedstawienia ich projektów były rezolucje Parlamentu Europejskiego, które zostały podjęte w konkretnym czasie, czyli trwającej w Stanach Zjednoczonych kampanii wyborczej do wyborów prezydenckich. Temat odpowiedzialności za treści dystrybuowane przez media społecznościowe, ich źródło oraz wiarygodność stanowił przedmiot gorącej debaty, nie tylko w USA. Co więcej, niedługo po opublikowaniu projektów Rozporządzeń miała miejsce rzecz bezprecedensowa w świecie social mediów, czyli zablokowanie konta urzędującego prezydenta Stanów Zjednoczonych przez Twitter.

I choć powyższe zdarzenia pokazują kontekst, w którym odbywa się dyskusja nad konkretnymi rozwiązaniami prawnymi, to regulacje tak DMA, jak i DSA, obejmują swoim zakresem znaczną część codziennej, cyfrowej rzeczywistości. Nowych przepisów będą musieli przestrzegać w zasadzie wszyscy przedsiębiorcy oferujący swoje usługi na jednolitym rynku, bez względu na miejsce ich siedziby. Największe platformy internetowe, świadczące usługi dla ponad 10% ludności Unii, zostaną objęte szczególnymi regulacjami.

Rozbroić cyfrowy monopol

Jak wskazano w uzasadnieniu DMA, „duże platformy powstały dzięki właściwościom tego sektora, takim jak silne efekty sieciowe, często osadzonym w ich własnych ekosystemach platform, a ponadto platformy te stanowią kluczowe elementy strukturalne współczesnej gospodarki cyfrowej, pośrednicząc w większości transakcji między użytkownikami końcowymi a użytkownikami biznesowymi”. Zwrócono także uwagę, że „wiele z tych przedsiębiorstw zajmuje się kompleksowym śledzeniem i profilowaniem użytkowników końcowych”, osiągając „ugruntowaną i trwałą pozycję, często będącą wynikiem tworzenia konglomeratowych ekosystemów wokół świadczonych podstawowych usług platformowych, co zwiększa istniejące bariery wejścia”.

Choć Akt o rynkach cyfrowych odpowiada na innego rodzaju zagrożenia dla rynku wewnętrznego (konkurencja), to nie sposób odczytywać tej propozycji w związku z Aktem o usługach cyfrowych. Oba projekty zostały opublikowane jednocześnie i są odpowiedzią na wynik tej samej analizy faktycznej. I to właśnie koncentracja podmiotowa, w przypadku bardzo dużych platform internetowych odnosząca się przede wszystkim do podmiotów mających swoje siedziby poza terytorium Unii Europejskiej, stanowi drugi kontekst, który należy mieć na uwadze dyskutując o przedstawionych regulacjach.

DSA nie jest jednak aktem o celu wyłącznie politycznym. Ta kompleksowa regulacja nałoży szereg zobowiązań na wszystkich użytkowników internetu – tak przedsiębiorców świadczących swoje usługi, jak i konsumentów korzystających z nich. Jak szeroki jest jej zasięg pokazuje już analiza podstawowych definicji wykorzystywanych w Rozporządzeniu.

„Platformą internetową” jest taki dostawca usługi hostingu, który na żądanie odbiorcy usługi przechowuje i rozpowszechnia publicznie informacje, chyba że takie działanie jest nieznaczną i wyłącznie poboczną funkcją innej usługi, i ze względów obiektywnych i technicznych nie można go wykorzystać bez takiej innej usługi. Co istotne, europejski ustawodawca sam przedstawia przykład takiej funkcji pobocznej, którym jest sekcja komentarzy gazety internetowej. Powyższy przykład jest z pewnością podyktowany oczekiwaniem dużych wydawców europejskich, ale oznacza także, że analogicznie wyłączeni zostaną spod obowiązków blogerzy czy sklepy internetowe publikujące opinie klientów. Platformami pozostaną jednak takie serwisy, które umożliwiają prezentację swoich ofert użytkownikom.

„Nielegalne treści” w rozumieniu DSA to wszelkie informacje, które same w sobie lub przez odniesienie do działania, w tym sprzedaży produktów lub świadczenia usług, nie są zgodne z prawem. Oznacza to, że wachlarz danych, które można uznać za nielegalne treści jest bardzo szeroki. Są nimi oczywiście nawoływanie do nienawiści, treści o charakterze terrorystycznym, pedofilskim czy naruszające prawo autorskie, ale także sprzedaż produktów podrobionych oraz treści dyskryminujące. Co więcej, niezgodność z prawem rozpatrywana jest przez pryzmat tak prawa unijnego, jak i prawa krajowego.

„Reklamą” jest każda informacja przeznaczona do propagowania przekazu osoby prawnej lub fizycznej, niezależnie od tego, czy w celach komercyjnych czy niekomercyjnych, jeśli pokazywana jest za wynagrodzeniem.

Nowe obowiązki dostawców usług

I tak, zgodnie z projektem DSA, każdy dostawca usług, nie będący mikro lub małym przedsiębiorcą, co najmniej raz w roku zobowiązany jest publikować jasne, zrozumiałe i szczegółowe sprawozdania dotyczące wszelkiego moderowania treści, które przeprowadzili w danym okresie, w szczególności w podziale na zgłoszenia (nakazy) pochodzące od organów państwowych, zgłoszenia nielegalnych treści dokonane przez użytkowników, skargi użytkowników oraz średni czas przeznaczony na ich wykonanie, weryfikację lub rozstrzygnięcie. Co ważne, dostawcy usług będą musieli zapewnić użytkownikom możliwość składania skarg oraz zgłoszeń nielegalnych treści oraz przedstawić stosowną procedurę na powyższe.

Platformy internetowe dodatkowo będą raportować o liczbie sporów przekazanych do organów pozasądowego rozstrzygania sporów, ich wyniki oraz średni czas trwania, jak też o liczbie przypadków zawieszenia świadczenia usług.

Istotnym novum dla dotychczasowego funkcjonowania usług internetowych jest konieczność publikowania w takim raporcie informacji o moderacji treści prowadzonych z inicjatywy dostawców, w tym liczbę i rodzaj przyjętych środków, które wpływają na dostępność, widoczność i osiągalność informacji przekazanych przez odbiorców usługi oraz na zdolność odbiorców do przekazywania informacji, w podziale na rodzaj przyczyny i podstawę przyjęcia takich środków. W przypadku platform internetowych, jest to dookreślone ponadto o wszelkie przypadki wykorzystania zautomatyzowanych środków do celów moderowania treści, w tym wyszczególnienie konkretnych celów, wskaźników precyzji zautomatyzowanych środków w osiąganiu tych celów oraz zastosowanych zabezpieczeń.

Realizacja tego obowiązku może okazać się szczególnie problematyczna, ponieważ poza „ręcznym” moderowaniem publikowanych treści, odnosi się do funkcjonujących algorytmów decydujących o wyświetlaniu ich w danym serwisie. I o ile ogólna wiedza o czynnikach, które mogą wpływać na pozycję danej treści w serwisie tajemnicą nie jest (relacja pomiędzy publikującym a odbiorcą, słowa kluczowe, lokalizacja itp.), to już w szczegółach stanowi esencję funkcjonowania social mediów oraz – choć w mniejszym stopniu – innych platform, np. sprzedażowych.

Jak wskazuje S. Zuboff w szeroko dyskutowanej publikacji „Wiek kapitalizmu inwigilacji”, wtórnym celem przetwarzania treści udostępnianych przez użytkowników social media jest zapewnienie ciekawej i zróżnicowanej dyskusji. Podstawowym celem jest takie przetwarzanie udostępnianych danych, które pozwala wpływać na decyzje zakupowe – przewidywać je z wyprzedzeniem, a wręcz inicjować. Z tej perspektywy, żadna z dużych platform nie doprowadzi do ujawniania sposobu i rzeczywistego celu moderowania treści.

Tym samym, należy spodziewać się długoletniego poszukiwania kompromisu pomiędzy tym stopniem transparentności, który organy europejskie i interesariusze społeczni chcieliby osiągnąć, a tym który przedsiębiorcy chcieliby ujawnić. Co więcej, w kontekście znaczącego rozwoju sztucznej inteligencji i jej autonomicznego rozwoju (algorytmy „uczące się”) może okazać się, że dostawcy usług nie tylko nie chcą, ale nie potrafią wskazać tych czynników, które decydują o pierwszeństwie prezentacji treści. Choć i w tym zakresie zaprezentowana została w kwietniu 2021 roku propozycja kompleksowej regulacji (Rozporządzenie Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (Akt w sprawie sztucznej inteligencji) i zmieniające niektóre akty ustawodawcze Unii), zakładająca „uczenie się” w sposób z góry zaplanowany i nie wprowadzający istotnych zmian.

Inną kwestią wartą rozważenia, jest publiczny charakter sprawozdań. Europejski ustawodawca w wyraźny sposób postanowił wykorzystać sieciowy charakter internetu i sprawozdania dostawców poddać przede wszystkim badaniu społecznemu – samym użytkownikom i organizacjom społecznym, a także podmiotom konkurencyjnym – wobec bardzo szerokiego kręgu zobowiązanych i ograniczonych możliwości kontrolnych państwa. Dla organów państwowych natomiast rezerwując szczególne uprawnienia i szczególne zobowiązania nałożone na bardzo duże platformy internetowe, tj. posiadających co najmniej 45 milionów aktywnych użytkowników.

Kiedy zawiesić użytkownika?

Forpocztą legislacji europejskiej jest niemiecka ustawa Netzwerkdurchsetzungsgesetz z 30 czerwca 2017 roku, koncentrująca się na walce z mową nienawiści i fake newsami oraz ich możliwie szybkim usuwaniu i blokowaniu. Przywołanie tego aktu ma znaczenie o tyle, że możliwe jest sprawdzenie, jak przebiega realizacja obowiązków informacyjnych w praktyce. Na stronach internetowych największych platform znajdują się raporty, których publikację przewiduje prawo. Znaczna część platform internetowych publikowała je zresztą już wcześniej, z jednej strony realizując wewnętrzną politykę transparentności (w autonomicznie oznaczonych granicach), z drugiej zaś prezentując się użytkownikom, jako podmioty odpierające większość wniosków o ujawnienie informacji ich dotyczących, a które kierowane były przez organy poszczególnych państw. Przykład niemiecki pokazuje wreszcie, że możliwe jest egzekwowanie takiego prawa – tamtejszy regulator już w 2019 roku nałożył na Facebooka ponad 2 mln euro kary za niedopełnienie obowiązku informacyjnego.

Akt o usługach cyfrowych wprost przewiduje obowiązek zawieszania użytkowników „często przekazujących ewidentnie nielegalne treści” „na rozsądny okres i po wydaniu uprzedniego ostrzeżenia”. Z drugiej strony, przewidziany został analogiczny obowiązek zawieszania użytkowników często składających ewidentnie bezzasadne zgłoszenia lub skargi dotyczące innych treści.

Przywołując w tym kontekście bardzo szeroką definicję nielegalnych treści może to oznaczać usankcjonowanie możliwości blokowania treści oraz użytkowników ze względów wyłącznie politycznych lub światopoglądowych. Może to dotyczyć zarówno typowych postów w social media, jak ofert sprzedaży określonych towarów lub usług w sposób domniemany naruszających prawo autorskie, prawo własności przemysłowej, przepisy antydyskryminacyjne czy jakiekolwiek inne przepisy krajowe lub europejskie.

Co istotne, ocenę zachowań poszczególnych użytkowników oraz „nielegalności” treści dokonują platformy internetowe, przy czym DSA wskazuje, że pod uwagę powinny być brane co najmniej takie zmienne, jak: liczba przekazanych ewidentnie nielegalnych treści, czy względny stosunek takiej liczby do całkowitej liczby informacji, ale także czynniki zupełnie subiektywne, jak powaga niewłaściwego korzystania i jego konsekwencje, oraz zamiar użytkownika.

Takie określenie zasad funkcjonowania debaty publicznej w internecie jest wyborem aksjologicznym. Dotychczas nie wszystkie platformy w ten sposób definiowały swoją rolę moderatora, oddając tę część władztwa (i obowiązki oraz nakłady z tym związane) organom państwowym. Z perspektywy użytkownika oznacza to, że „ciężar dowodu” spoczywać będzie na użytkowniku, który po akcji dostawcy usługi, z którą się nie zgadza, będzie zmuszony dochodzić swojego prawa przed organami państwa. Wobec dynamiki dyskusji publicznej oznacza to oczywiście możliwość wyłączenia z dyskursu takich poglądów, które stoją w sprzeczności z przyjętymi zasadami – co zresztą od wielu lat ma miejsce – choć rzeczywiście, DSA za przesłankę takiej moderacji przyjmuje niezgodność z prawem stanowionym, a nie enigmatyczne „zasady społeczności” danego medium.

Z drugiej strony, nakłada to na dostawców usług dużą odpowiedzialność za wyznaczenie granic uznawania treści za nielegalne bez poparcia stanowiska prawomocnym orzeczeniem sądowym oraz sposobu reagowania na zgłoszenia ich dotyczące. W praktyce bowiem, trafność podejmowanych decyzji będzie w pierwszej kolejności recenzowana przez opinię publiczną i samych użytkowników, a dopiero po długim czasie przez ocenę sądową. Oba te procesy mogą pociągać za sobą negatywne konsekwencje dla dostawców usług. Także w przypadku, gdy oceny te będą ze sobą sprzeczne.

***

Powyższe rozwiązania mają znaczenie przede wszystkim, jeśli zostaną aktywnie wdrożone wobec liderów opinii, czy – jak pokazuje doświadczenie Donalda Trumpa – osób piastujących określone, decyzyjne stanowiska w strukturze społecznej. Rola mediów społecznościowych nie sprowadza się przecież do prezentowania treści publikowanych przez osoby trzecie. Spośród informacji, generowanych przez miliardy ich aktywnych użytkowników, kluczowy jest sposób doboru treści do wyświetlania i sugerowania nowych treści, niż ich faktyczne upublicznienie.

Oceniając zaproponowane rozwiązania w zakresie moderacji treści i odpowiedzialności za nie przez platformy internetowe, docenić należy próbę usystematyzowania i ujednolicenia funkcjonujących w internecie reguł, wreszcie – oparcie je w stanowionym prawie. Projekty prezentują także logikę funkcjonowania systemu prawnego, znaną już z RODO. Przepis prawa pozostawia dużą dowolność po stronie zobowiązanego, wyznaczając jedynie ramy funkcjonowania i zastrzegając dla organu państwowego władztwo w zakresie oceny wdrożonych rozwiązań lub realizacji obowiązku informacyjnego. Takie podejście jest uzasadnione dynamicznym środowiskiem, które prawodawca podejmuje się regulować, ale wymaga wysokiej kultury prawnej wszystkich uczestników obrotu prawnego.

Rzeczywista ocena regulacji będzie jednak zależna od jej egzekwowania tak przez organy państw członkowskich, jak i ocenę orzeczniczą sądów krajowych i Trybunału Sprawiedliwości Unii Europejskiej, przede wszystkim wyznaczającą ramy dla obowiązków informacyjnych oraz przyjętych procedur dotyczących nielegalnych treści.

Artykuł powstał w efekcie spotkania ekspertów w formule okrągłego stołu na temat europejskich regulacji platform internetowych zorganizowanego przez Centrum Analiz Klubu Jagiellońskiego. Projekt jest realizowany we współpracy z firmą Allegro.

Tym dziełem dzielimy się otwarcie. Utwór (z wyłączeniem grafik) jest udostępniony na licencji Creative Commons Uznanie Autorstwa 4.0 Międzynarodowe. Zachęcamy do jego przedruku i wykorzystania. Prosimy jednak o podanie linku do naszej strony oraz przedrukowanie niniejszej informacji.