Witamy na stronie Klubu Jagiellońskiego. Jesteśmy niepartyjnym, chadeckim środowiskiem politycznym, które szuka rozwiązań ustrojowych, gospodarczych i społecznych służących integralnemu rozwojowi człowieka. Portal klubjagiellonski.pl rozwija ideę Nowej Chadecji, której filarami są: republikanizm, konserwatyzm, katolicka nauka społeczna. Możesz nas wesprzeć przekazując 1,5% podatku na numer KRS: 0000128315.

Informujemy, że korzystamy z cookies. Zachęcamy do regularnych odwiedzin naszej strony.

Polski start-up rewolucjonizuje walkę z hejtem bez rozdawania banów

przeczytanie zajmie 8 min

Walka z przemocą w sieci może przynosić korzyści firmom, np. producentom gier. Prewencja jest znacznie skuteczniejsza niż usuwanie obraźliwych komentarzy post factum. Polski start-up, Samurai Labs, stał się sławny, ponieważ opracował skuteczne rozwiązanie problemu, z którym nie radzą sobie największe światowe koncerny. W ich biznes zdążyła już zainwestować Unia Europejska i… Robert Lewandowski. „Tam, gdzie systemy gigantów świata technologii popełniają około 50 błędów na 100 przypadków, my popełniamy ich zaledwie sześć” – mówi założyciel Samurai Labs, Michał Wroczyński, w rozmowie z Pawłem Deykiem.

Czym jest cyberprzemoc i skąd jej zintensyfikowana obecność w dzisiejszym świecie?

Cyberprzemoc to szereg negatywnych działań występujących w świecie wirtualnym; to dość pojemne określenie, które może obejmować wiele zjawisk. Na przykład w 2014 r. 26% Amerykanów odczuło na sobie jakiś rodzaj przemocy. Dziś ten wskaźnik sięga już poziomu 40%. Pierwszy raport Najwyższej Izby Kontroli wskazywał, że problem w Polsce dotyczy około 30% osób młodych, teraz statystyki wskazują już na 70%. Przemoc w sieci rośnie z roku na rok.

Codziennie, według danych FBI, 750 tys. pedofili poluje na dzieci online. Coraz więcej obszarów naszego życia przenosi się do sieci. Internet stał się także przestrzenią dla „predatorów” szukających swoich ofiar za szklanym ekranem. Patrząc na to, ile miliardów ludzi jest obecnych w świecie wirtualnym, naturalne jest, że istniejący w społeczeństwie odsetek psychopatów przenosi się właśnie tam.

Skąd taki wzrost liczby osób dotkniętych przemocą?

Te zjawiska zawsze były obecne. Dziś rośnie ich skala – jest gigantyczna. Z jednej strony to np. płatny hejt czy trolling. Innym przykładem jest cyberprzemoc rówieśnicza, która polega na atakowaniu wybranej ofiary przez grupę dzieci. Takie rzeczy dzieją się w dzień i w nocy, w dowolnym miejscu, dzięki nieustannemu dostępowi do sieci i popularyzacji urządzeń mobilnych.

Dziś przemoc uzyskała dwa nowe wymiary: jest wszędzie i trwa całą dobę. Jest to trwająca spirala agresji, która się nakręca. Znane nam konflikty międzyludzkie po przeniesieniu do wirtualnej rzeczywistości stają się czymś nowym, nad czym straciliśmy kontrolę ze względu na fakt, że nigdy się nie kończą.

Można odnieść wrażenie, że komuś jednak zależy na tym, aby agresja w poszczególnych grupach się zwiększała.

Mówi się, że hejt internetowy to rodzaj narkotyku dla mas. Mamy tutaj do czynienia z pogardą. Wmawiamy sobie, że istnieją niższe grupy, gorsze od nas. Gdy jesteśmy zagubieni, życie jest trudne. Łatwo wówczas zaspokoić prostą potrzebę, przyjmując bardzo spłyconą wizję świata, zgodnie z którą ludzie dzielą się na takich i owakich.

Czyli technologia tutaj nie pomoże?

Myślę, że technologia w pewnym sensie zwiększyła skalę problemu, więc częściowo powinna też pomóc w jego rozwiązaniu. Tyle że jest to rodzaj epidemii, „wirusów socjalnych” przenoszących się między ludźmi. Wszystko dzieje bardzo szybko i potrzeba wielu różnych działań, żeby móc tę sytuację opanować.

Bardzo się cieszę, że problem dostrzegają twórcy gier online, wydawcy portali informacyjnych lub forów internetowych. Jeszcze do niedawna agresja była przez nich pożądana, dziś jest inaczej. Internet regulują algorytmy sprawdzające, co jest „klikalne”. Im więcej kliknięć, tym lepiej. Przemoc napędzała oglądalność. Jednak skala zjawiska doszła do takiego momentu, że w samej Dolinie Krzemowej hejt nazywany jest podstawowym problemem Internetu. Powód tej refleksji jest prosty: od 15% do 30% osób, które doświadczą jakiejkolwiek przemocy, rezygnuje z przestrzeni usługi, w której się z nią spotkali. Jeśli ludzie są gdzieś atakowani, nie chcą tam wracać. Wylogowują się więc z gier online lub serwisów. W ten sposób uciekają też pieniądze.

Na walce z hejtem można zarobić? Jak?

Tak, w wielu miejscach potrzebny jest wirtualny Samurai, który zadba o porządek. Jesteśmy obecni na największym forum na świecie, tam testujemy skuteczność naszego rozwiązania. Samurai, nasz w pełni automatyczny algorytm, monitoruje toczące się rozmowy. Jeżeli ktoś przestaje wyrażać swoje poglądy i zaczyna atakować innych, używając gróźb czy obelg, Samurai to wychwytuje i interweniuje. Zaczyna rozmowę z daną osobą. Wskazuje, że takie zachowania nie są pożądane albo stara się zbudować empatię dla atakowanych osób. Stosujemy różne strategie interwencji behawioralnej, a jeśli one nie skutkują, dopiero wtedy blokujemy sprawiających problemy użytkowników.

Stosując to podejście, w ciągu półtorej miesiąca udało nam się obniżyć przemoc o 40% bez udziału żadnego człowieka. Sztuczna inteligencja sama analizuje dyskusje, wykrywa incydenty i próbuje zrozumieć, jaka interwencja będzie najlepsza dla danej osoby w danym momencie. Samuraje to wirtualni strażnicy.

Chwalicie się, że działacie lepiej niż algorytmy największych technologicznych firm, które starają się robić to samo, co wy. Mówi się o tym, że wasza technologia jest unikalna. Czym różni się od dotychczasowych rozwiązań?

Cyberprzemoc to problem, który zmienia wyniki wyborów, wywołuje społeczne i psychiczne problemy. Obecnie rozwiązujemy je tylko wtedy, gdy ktoś je zgłosi. Uważamy, że to nie wystarczy. System powinien sam się bronić i samodzielnie reagować. Tam, gdzie to możliwe, ma negocjować, ale np. w starciu z pedofilem, który chce się umówić z dzieckiem, potrzebna jest stanowcza reakcja, taka jak wyeliminowanie użytkownika ze społeczności.

Wyobraźmy sobie, że jesteśmy na randce w restauracji, podczas której dochodzi do bardzo nieprzyjemnej sytuacji. Ktoś zaczyna nam ubliżać i rzuca w nas butelką. Owszem, możemy to zgłosić i po jakimś czasie ktoś będzie zatrzymany i ukarany. To model post factum, reagujący na to, co już się wydarzyło. Jest popularny, dlatego że obecna sztuczna inteligencja świetnie nadaje się do analizy dużych zbiorów danych. Jednak ma jedną wadę: dużą liczbę fałszywych alarmów. Gdybyśmy zastosowali system przeciwdziałania hejtowi i przemocy pochodzący od największych firm technologicznych, to na 100 zgłoszonych alarmów otrzymamy około 50 fałszywych.

Tak duży błąd uniemożliwia działanie prewencyjne. Wyobraźmy sobie ochroniarza, który wyrzuca z dyskoteki ludzi, którzy nic złego nie zrobili. Oni nigdy tam nie wrócą. Dlatego tak trudno o działania prewencyjne i większość ochrony przed hejtem skupia się na działaniu post factum. Istnieją, co prawda, systemy wyłapujące np. słowa kluczowe, ale można je dosyć łatwo ominąć, unikając używania danych wyrażeń.

Kiedyś na forach „gwiazdkowało się” niektóre wyrazy. Można też użyć innych zwrotów tak, aby nie zostać zauważonym przez algorytm.

To właśnie największy problem. Ludzie kombinują, jak ominąć system, np. zamieniając kolejność liter. Dzięki temu, że nasz system oparty jest o rozumienie gramatyki i kontekstu wypowiedzi, możemy znacznie częściej uniknąć takich błędów.

W wielu modelach bardzo ważną funkcję pełnią sędziowie, czyli np. moderatorzy. Czasem są nimi członkowie społeczności, czasem eksperci. To jednak, jak chociażby w wypadku Facebooka, wywołuje pewne kontrowersje.

Nasze narzędzia działają inaczej. DARPA, amerykańska agencja rządowa, nazywa to, co robimy, trzecią falą sztucznej inteligencji. Algorytm nie tylko uczy się z danych. Jego działanie uzupełniliśmy o wnioskowanie oparte na wiedzy, którą mu dajemy. To ważne, bo często operujemy na rzadkich przypadkach, a wtedy nie mamy ogromnej ilości danych potrzebnych do wytrenowania systemu. To nasza przewaga nad innymi. Staramy się cały proces zautomatyzować w taki sposób, aby człowiek interweniował tylko w szczególnie trudnych przypadkach. Takie podejście pozwala nam na działanie w czasie rzeczywistym, a nie post factum.

Gdyby to rozwiązanie wymagało armii kontrolerów, nie dałoby się wykrywać przestępstw „na bieżąco”, a jedynie po fakcie.

Właśnie tak. Nie da się chronić Tindera, korzystając z armii ludzi weryfikujących ewentualne naruszenia. Naszą ideą było stworzenie sztucznej inteligencji, która będzie na tyle precyzyjna, by móc działać autonomicznie.

Chodzi o to, aby zapobiegać, a nie leczyć. Dlatego nasza sztuczna inteligencja przyjmuje się wśród użytkowników. Rzadko popełniamy błędy, reagujemy w czasie rzeczywistym i potrafimy zapobiegać złym wydarzeniom.

Pytanie, czy walka z hejtem lub fake newsami nie służy w niektórych wypadkach jako narzędzie cenzury. Jak chronić przestrzeń wolności słowa i gdzie jest jej granica? Czy rozmawiacie z kontrahentami na takie tematy albo macie informacje od użytkowników, jak odbierają w tym kontekście wasz system?

To złożona kwestia. Najgorszym pomysłem wydaje się zrzucenie odpowiedzialności za ten problem na firmy, powiedzenie: „Facebooku, to twój kłopot, radź sobie z nim”. Jeśli Facebook będzie rozwiązywał problem, to i tak my będziemy go mieli. Przykład? W czasie rewolucji na Ukrainie wiele stron było blokowanych, ponieważ moderatorzy Facebooka obsługujący jego ukraińską wersję byli zatrudnieni w Moskwie. Z ich perspektywy określone posty były hejtem i je blokowali. Hejt pojawił się również w Mjanmie, ale reakcja Facebooka była zbyt wolna. Pomogło to w rozprzestrzenianiu się fałszywych informacji, co skończyło się ludobójstwem.

Jeżeli mamy do czynienia z epidemią, leczenie powinno rozpocząć się od zwalczania ognisk zapalnych. Czy można wyróżnić „huby” internetowej cyberprzemocy?

Według naszych nowych badań 80% osób, które zaatakowały kogoś i następnie spotkały się z interwencją, wskazaniem regulaminu lub innych przepisów, nie powtórzyły już hejtu. Co ważne, część osób nie była świadoma, że łamie jakieś normy. W wyniku interwencji pierwszy raz zapoznawali się z regulaminem. Docierało do nich, że takie zachowanie jest niepożądane. Inni od razu kasują swoje komentarze. W dzisiejszym świecie niezwykle ważne jest to, by umieć ze sobą rozmawiać. A samo wskazanie, że ktoś popełnia błąd, nieraz wystarczy, by doszło do zmiany zachowania.

Jednak część osób to recydywiści, którzy według nas są niereformowalni. Radykalizacja w różnych kierunkach wymaga dużych nakładów. Mamy też płatny hejt, który ciągle się pojawia. To najtrudniejsze przypadki. Na szczęście większość ludzi jest skłonnych do refleksji. To bardzo budujące.

Bezkarność jest największym motorem napędowym tego typu zachowań? Poczucie anonimowości daje przyzwolenie na agresję? A może część osób nie traktuje na poważnie tego, co pisze w Internecie?

To złożony problem. Niektórzy hejtują bardzo świadomie i dla przyjemności. Inni z kolei uważają, że to, co robią, jest bardzo ważne, że stają w obronie jakiejś postawy czy wartości. Proszę pamiętać, że Internet powoduje, że bardzo trudno nam pewne zachowania kontrolować.

A może rozwiązaniem nie jest kontrola w trakcie gry czy rozmowy, ale wychowanie, ograniczenie dostępu?

Myślę o tym w ten sposób, że mamy do czynienia z epidemią, a by z nią walczyć, trzeba robić wiele rzeczy naraz. Edukacja i zmiana naszej kultury to leczenie przyczynowe. Naszą rolą w Samurai Labs jest hamowanie rozwoju takich zachowań.

Finlandia jest jedynym krajem, w którym zmniejsza się skala hejtu o 12% w ciągu roku. Wdrożono narodowy program edukujący zarówno ofiary, jak i atakujących. Działania opierają się na wielu lekcjach budujących empatię. W momencie, kiedy Polska jest liderem w UE, jeśli weźmiemy pod uwagę wskaźnik samobójstw dzieci, pojawia się pytanie, czy nie czas na bardziej zdecydowane działanie. Może warto zaangażować w nie system edukacji już od szkoły podstawowej? W Finlandii się udało.

Materiał powstał w ramach działalności Klubu Jagiellońskiego w Gdańsku, który jest wspierany przez Olivia Business Centre, Skyrise oraz darczyńców indywidualnych.

Dlatego dzielimy się tym dziełem otwarcie. Ten utwór (z wyłączeniem grafik) jest udostępniony na licencji Creative Commons Uznanie Autorstwa 4.0 Międzynarodowe. Zachęcamy do jego przedruku i wykorzystania. Prosimy jednak o podanie linku do naszej strony.