Sztuczna inteligencja powinna chronić dzieci przed porno
W skrócie
Żarty się skończyły. Nadkonsumpcja pornografii wśród dzieci i młodzieży stała się poważnym problemem społecznym, który destrukcyjnie wpływa na rozwój i relacje międzyludzkie. Projekt Ustawy o ochronie nieletnich przed dostępem do porno, autorstwa stowarzyszenia Twoja Sprawa, nieudolnie poszukuje optymalnego rozwiązania. Nie należy pozbawiać obywateli prywatności, a do tego wprowadzać kompletnie nieskuteczne narzędzia blokowania konkretnych stron. Dlatego proponujemy inny pomysł: weryfikację filmów i zdjęć przy pomocy ogólnodostępnej i otwartej sztucznej inteligencji.
Rozmowa o egzekucji prawa dostępu do pornografii dla osób poniżej osiemnastego roku życia, obok merytorycznych zarzutów (o których niżej), jest też toczona w duchu bagatelizowania problemu. Nad krytyką takich pomysłów unosi się duch utajonego uśmieszku do własnych wspomnień z czasów nastoletnich – świerszczyka pożyczonego od starszego znajomego, oglądania kasety VHS na wagarach czy zamówienia tapety na Nokię za SMS kosztujący 1,22 zł. Okazyjne oglądnięcie pornografii było przecież społecznie nieszkodliwe. Być może to własne historyczne doświadczenia, pomieszane z wieczną niewiedzą na temat tego, jak funkcjonuje dzisiejsza młodzież, nie pozwalają dostrzec skali obecnego problemu.
Jak pokazała Karolina Lewestam, porno istniało zawsze, ale nieograniczone pornotsunami definiujące model relacji i seksu dla całego pokolenia to zupełnie nowe zjawisko. Między 2008 a 2019 rokiem liczba osób, które codziennie odwiedzają Pornhuba wzrosła z miliona do stu piętnastu milionów. Tylko w ciągu ostatniego roku przybyło dwadzieścia trzy miliony odwiedzin dziennie. Polki i Polacy wynieśli nasz kraj na czternaste miejsce na świecie wśród sympatyków tej witryny.
Kiedy zniknęła społeczna bariera podejścia do pani w kiosku czy pana w wypożyczalni filmów, porno wraz z telefonami komórkowymi wkroczyło do naszej codzienności: towarzyszy nam w łóżkach, biurach, tramwajach czy samochodach.
Towarzyszy nie tylko dorosłym, ale i młodzieży i to coraz młodszej. „Nasze dzieci – w zasadzie wszystkie – oglądają pornografię […] Dzisiejsze 11, 12 i 13-latki uzyskują wiedzę o seksie z filmów porno. U mojej koleżanki, lekarza seksuologa z naszej poradni, był w ubiegłym tygodniu pacjent, który pierwszy kontakt z pornografią miał w szóstym roku życia” – mówił seksuolog, dr Andrzej Depko, w rozmowie z Grzegorzem Sroczyńskim. Na sugestię redaktora, że „brzmi jak katecheta”, odpowiedział: „Nie. Jak lekarz seksuolog. Nie masz pojęcia, co się teraz dzieje w gabinetach. Pierwsze pokolenie wychowane od małego na pornografii ląduje tutaj, w tym fotelu, w którym teraz siedzisz. Mają po 20 lat i poważne problemy”.
Młodzi ludzie zmagają się z własnymi wyobrażeniami na temat „idealnego” seksu, gdzie rola kobiety sprowadzona zostaje do ciągłego wydawania okrzyków rozkoszy, a nierealna długość trwania aktu i ponadstandardowe wymiary członków wywołują permanentną frustrację, bo „u mnie wszystko to wygląda inaczej”. „Badane przez nas osoby, które szukają pomocy w związku z nałogowym korzystaniem z pornografii, wprost deklarują, że dla nich aktywność seksualna w postaci masturbacji jest istotnie przyjemniejsza, niż aktywność z partnerką czy partnerem. (…) Pięć milionów mężczyzn w stanach jest uzależnionych od porno” – powiedział z kolei Mateusz Gola, profesor w Instytucie Psychologiii PAN, w wywiadzie na naszym portalu.
Przemysł porno korzysta z dominującej w internecie ekonomii uwagi, jednocześnie ogniskując przekaz na seksie jako jednej z podstawowych potrzeb człowieka. Sukces gwarantowany. Tak jak reszta internetu chce nas jak najdłużej utrzymać przed ekranem – tak samo strony z pornografią podsuwają nam darmowe treści na wyciągnięcie ręki. A to wszystko dokładnie skatalogowane, podzielone na kategorie i konkretne aktorki. Wszechobecność porno w połączeniu z szybkimi strzałami dopaminy ma uzależniającą moc. Nic dziwnego też, że najbardziej podatne na ten zamknięty cykl są młode osoby, które często nie posiadają jeszcze własnych doświadczeń seksualnych. O problemie tym pisaliśmy obszernie w tece Pressji pt. Nowa Pruderia.
Nie ma prostych rozwiązań. Zakazami nie uzdrowimy społeczeństwa. Warunkiem koniecznym jest przede wszystkim edukacja. Trudno jednak oczekiwać, że to wystarczy. Jasne jest też, że żadna blokada nie wyeliminuje dostępu do wszystkich porno-treści. Skala problemu zaczyna przypominać uzależnienie od alkoholu i papierosów. Skoro więc uznaliśmy jako społeczeństwo, że sprzedaż tych używek dozwolona jest od osiemnastu lat, to co stoi na przeszkodzie, by skutecznie ograniczyć również dostęp do pornografii?
Pomysł Stowarzyszenia Twoja Sprawa
Z problemem postanowiło zmierzyć się Stowarzyszenie Twoja Sprawa, publikując projekt ustawy o ochronie małoletnich przed treściami pornograficznymi. Pomysł narzuca na pornograficzne strony internetowe wymóg skutecznej kontroli wieku odwiedzających je osób. W przypadku niespełnienia tego obowiązku, dostęp do serwisu blokowany ma być przez firmy świadczące dostęp do sieci.
Do propozycji odniósł się internetowy serwis Niebezpiecznik, wskazując na liczne wyzwania związane z praktyczną stroną ustawy. Przede wszystkim, propozycję trudno pogodzić z prawem do prywatności obywateli. Jeśli każda próba wizyty na stronie z treściami pornograficznymi wiązałby się z weryfikacją wieku (a więc najpewniej z kontrolą danych osobowych internauty), operator takiej weryfikacji posiadłby informacje o tym, kto z nas i kiedy odwiedzał konkretne strony z filmami dla dorosłych. To z kolei otwiera pole do wykorzystania tej wiedzy do dyskredytacji obywatela.
Drugi zarzut wiąże się z fałszywym przekonaniem twórców ustawy, że treści pornograficzne dostępne są głównie za pośrednictwem dedykowanych do tego stron internetowych. Strony takie to oczywiście wierzchołek góry lodowej. Treści pornograficzne rozpowszechniane mogą być przez komunikatory internetowe (takie jak WhatsApp), strony, na których treści dla dorosłych są tylko częścią oferty (jak fora reddit.com czy wykop.pl), aplikacje na telefonach komórkowych (Snapchat).
Trudno nie zgodzić się z wieloma argumentami przywołanymi przez redaktorów serwisu Niebezpiecznik. Ustawa w zaproponowanym kształcie próbując uchronić dziecko przed treściami dla dorosłych, całą naszą prywatność wyrzuca do kosza. Czy jesteśmy wobec tego bezradni? Czy możemy stworzyć rozwiązanie, które jednocześnie będzie chronić dzieci i zabezpieczać prywatność dorosłych? Możemy. Przyjrzyjmy się, jak mogłoby to wyglądać.
Sztuczna inteligencja ogląda porno
Jeśli chcemy odpowiedzialnie podejść do rozwiązania tego problemu, powinniśmy stworzyć narzędzie, które byłoby zdolne do rozpoznawania treści pornograficznych niezależnie od tego, skąd pochodzą. Jest to możliwe dzięki uczeniu maszynowemu, zwanemu potocznie sztuczną inteligencją. Wystarczy wytrenować dostępne nam narzędzie do analizy zdjęć i filmów, a także klasyfikowania ich jako pornograficzne lub bezpieczne.
Potter Stewart, sędzia amerykańskiego Sądu Najwyższego, który w latach 50. badał sprawę dopuszczenia na ekrany tamtejszych kin pewnego filmu, poproszony o podanie definicji pornografii, powiedział: „Wiem, co to jest, kiedy to widzę”. Czy chcemy tego, czy nie – maszyny nie widzą i nie wiedzą. Musimy je najpierw wytrenować na bardzo dużym zbiorze danych. Jest to technicznie możliwe. Istnieją już firmy komercyjnie oferujące tego typu rozwiązania, są też prace naukowe (m. in. z Uniwersytetu Stanforda) mierzące się z zadaniem trenowania algorytmów do rozpoznawania pornografii.
My postulujemy zbudowanie międzynarodowego zespołu naukowców, który zebrałby dotychczasowe doświadczenia i zbudował na ich bazie skuteczną metodę detekcji pornografii. Zastosowane mechanizmy, a także wypracowany model, dostępne byłyby jako otwarte oprogramowanie.
W ten sposób każdy mógłby zweryfikować, jakie treści oznaczane są jako nieodpowiednie i czy mechanizm nie jest wykorzystywany do filtrowania innego rodzaju treści (np. nielubianego polityka). Metoda musiałaby cały czas być aktualizowana i rozwijana w miarę rozwoju technologii i metod celowego oszukiwania uczenia maszynowego. Na początku najpewniej warto byłoby skupić się na najbardziej szkodliwych treściach, takich jak pedofilia lub przemoc seksualna.
Pewnym wyzwaniem prawnym byłoby stworzenie bazy danych do uczenia. Gdzieś na serwerach państwowych musielibyśmy składować niedozwolone prawem treści, których przechowywanie jest karalne. Zapewne dostęp do tych treści wymagałby jakiegoś rodzaju listu żelaznego lub pozwolenia. Ktoś dla dobra nauki musiałby poświęcić się i obejrzeć najciemniejsze zakamarki internetu, aby sklasyfikować je na potrzeby algorytmu. Nie powinniśmy bagatelizować tego tematu. Dwóch byłych pracowników Microsoft’u pozwało firmę, obwiniając ją za zespół stresu pourazowego, którego nabawili się, pracując przy cenzurowaniu filmów nadesłanych przez użytkowników. Pewnych rzeczy nie da się „odzobaczyć”.
Potrzebna jest europejska inicjatywa
Mając już techniczną możliwość rozpoznawania nieodpowiednich treści, możemy przystąpić do drugiego etapu. Wymaga on zmian prawnych wprowadzających wymóg korzystania z udostępnionego mechanizmu przez wszystkich dostawców aplikacji (programów) komputerowych i mobilnych. Przed wyświetleniem zdjęcia lub filmu, aplikacja miałaby obowiązek zastosować filtr i w przypadku wykrycia pornografii zastąpić ją informacją o tym, że zastosowano blokadę. Aplikacje niespełniające wymogów prawa mogłyby zostać zainstalowane tylko na urządzeniach, na których wyłączono filtr.
Trudno będzie Polsce samodzielnie wymóc tak daleko idące regulacje na producentach aplikacji i systemów operacyjnych. Na szczęście jesteśmy członkami Unii Europejskiej, a ta już udowodniła, że nie tylko potrafi regulować cyfrowy rynek, ale też inspirować inne państwa swoimi rozwiązaniami. Na przykład kalifornijskie prawo ochrony danych osobowych, które weszło w życie 1 stycznia 2020 r., mocno bazuje na unijnym GDPR. Polska może skutecznie zmierzyć się problemem tylko wtedy, gdy zbuduje wokół tematu europejskie lobby i przekona inne państwa Unii do współpracy.
Co z prywatnością?
Blokada byłaby domyślnie aktywna na wszystkich urządzeniach. Co z osobami dorosłymi, które chcą ją wyłączyć? Tu proponujemy proste rozwiązanie, podobne do akcyzy. W sklepach lub kioskach można będzie zapłacić za wydruk kodu, który po wpisaniu na urządzeniu wyłącza blokadę zarówno treści, jak i aplikacji. Kod posiadałby określoną datę ważności – na przykład na okres jednego miesiąca. Poszanowanie prywatności nie pozwala, aby weryfikacja kodu na urządzeniu wymagała komunikacji z serwerem autoryzacyjnym. Musiałaby więc bazować np. na kryptograficznym podpisie sprawdzanym na urządzeniu.
Kody sprzedawane byłyby po zweryfikowaniu wieku kupującego w taki sam sposób, jak dziś alkohol lub papierosy. Czyli na przykład przez panią ekspedientkę w Żabce. Przychody z akcyzy byłyby wykorzystane na leczenie uzależnień wśród młodych ludzi.
Warto zwrócić uwagę na dwa niebezpieczeństwa związane z zaproponowanym rozwiązaniem. Po pierwsze, skuteczność filtru musi być bardzo wysoka. Nic tak nie ośmieszy całej koncepcji jak np. blokada zdjęć strusia australijskiego na skutek niedoskonałości algorytmu. Dlatego warto zacząć od filtrowania najbardziej drastycznych treści, co do szkodliwości których nie ma wątpliwości. Po drugie, musimy mieć pewność, że filtr nie zostanie wykorzystany do blokowania treści politycznych lub ideologicznych. Dlatego otwartość algorytmu i możliwość testowania go przez każdego jest kluczowym elementem propozycji.
Know-How już jest (możesz pominąć ten techniczny fragment i przejść do ostatniego paragrafu)
Filtr blokujący treści pornograficzne miałby postać modelu i wytrenowanych wag sieci neuronowej. Wejściem dla takiej sieci byłby obrazek (lub klatka video). Na wyjściu pojawiałaby się informacja o prawdopodobieństwie, z jakim dana treść zawiera pornografię. Po przekroczeniu określonej wartości progowej w miejsce porno-treści wyświetlałby się czarny obrazek z krótką informacją o zastosowaniu blokady. Działanie filtru nie wymagałoby dostępu do Internetu. Żadne treści nie byłyby wysyłane na serwery dostawców filtru. Filtr działałby więc całkowicie offline na urządzeniu użytkownika.
Dostawcy filtru przygotowaliby gotowy komponent do osadzenia w aplikacjach i programach. Komponent i model byłyby zoptymalizowane pod najważniejsze platformy sprzętowe tak, aby jego działanie nie spowalniało urządzeń. Większość nowych sprzętów posiada już dedykowane procesory do uruchamiania modeli sieci neuronowych, więc stosowanie filtru nie powinno negatywnie wpłynąć na ich pracę. Twórcy aplikacji mieliby obowiązek zastosowania filtru do każdego obrazka i pliku video pobranego z nieznanego źródła (czyli w szczególności pobranego z Internetu lub przesłanego przez innego użytkownika). W przypadku wideo najpewniej wystarczyłoby sprawdzenie filtrem co którejś klatki, najlepiej takiej, która znacząco różni się od poprzednio zweryfikowanej.
Szacujemy, że wytrenowany model mógłby mieć rozmiar kilkudziesięciu megabajtów. Osadzenie go w każdej aplikacji mogłoby być kosztowne. Nasze rozwiązanie zakłada współpracę z producentami systemów operacyjnych. Z czasem więc można by się spodziewać, że udostępnią oni filtr jako tzw. API systemowe – w ten sposób dowolna aplikacja będzie mogła się skomunikować z modelem wewnątrz systemu naszego urządzenia. Model sieci neuronowej byłby aktualizowany na bieżąco w miarę pojawiania się nowych treści, zmian w modelu lub poprawek. Aplikacje lub system operacyjny miałby obowiązek cyklicznie pobierać i stosować jego najnowszą wersję.
Odblokowanie filtru mogłoby przykładowo wyglądać w następujący sposób: w ustawieniach systemu operacyjnego użytkownik mógłby wyświetlić 6 cyfrowy numer (podobnie jak kod Blik). Numer ten byłby nieidentyfikującym skrótem (hash) bazującym na identyfikatorze urządzenia i bieżącej dacie i godzinie. Ze względu na długość numeru (tylko 6 cyfr) nie pozwalałby on na identyfikację użytkownika lub urządzenia – wiele osób widziałoby w ustawieniach taki sam numer. Kupując dostęp do pornografii, po weryfikacji pełnoletności, wpisywałby swój identyfikator do terminala w kasie, w zamian dostając wydruk kodu dostępu (np. w postaci QR kodu). Ten byłby generowany i podpisywany kryptograficznie na serwerach dostawcy filtra. Urządzenie „czytałoby” kod QR, weryfikowało podpis, sprawdzało, czy został wygenerowany dla tego urządzenia, a także kontrolowało jego aktualność. Wszystko działoby się bez kontaktowania się z serwerami zewnętrznymi.
Powyższy pomysł z 6-cyfrowym numerem stara się ograniczyć proceder wykorzystywania tych samych kodów na wielu urządzeniach. Są z pewnością też inne sposoby na rozwiązanie tego problemu, np. przy wykorzystaniu rozproszonych rejestrów wykorzystanych kodów. Użytkownik mógłby zadecydować, które aplikacje mają dostęp do informacji o tym, że filtr został wyłączony. Działałoby to analogicznie do tego jak może dziś ustawić której aplikacji udostępnić swoje położenie geograficzne.
Nie zasłaniajmy sobie oczu, kiedy dzieci oglądają seks
Pierwszym krokiem do rozwiązania opisywanego problemu jest uświadomienie sobie prostych faktów. Borykamy się ze społecznym problemem, wywołanym przez technologię. To nadkonsumpcja pornografii przez dzieci i młodzież. Skokowy wzrost ilości konsumowanej pornografii, jej dostępność w szkołach, biurach i domach powoduje, że zniknęły wszelkie bariery wstydu. Zagrożone są już nawet sześciolatki! To wszystko argumenty, które powinny nas przekonać, że nie możemy – jako dorośli – zasłaniać sobie oczu, kiedy siedzące obok nas dzieci oglądają twardą pornografię. Problem wymaga nowatorskiego rozwiązania, które jednak musi być przedmiotem poważnej dyskusji. Nieskuteczne półśrodki (jak łatwe do obejścia blokowanie jedynie stron pornograficznych) czy leczenie dżumy cholerą (weryfikacja wieku tworząca bazę danych osób oglądających porno) mają szansę skompromitować tę walkę na lata. Warto w celu skutecznego zmierzenia się z problemem zaprząc najnowsze osiągnięcia techniki.
Publikacja nie została sfinansowana ze środków grantu któregokolwiek ministerstwa w ramach jakiegokolwiek konkursu. Powstała dzięki Darczyńcom Klubu Jagiellońskiego, którym jesteśmy wdzięczni za możliwość działania.
Dlatego dzielimy się tym dziełem otwarcie. Ten utwór (z wyłączeniem grafik) jest udostępniony na licencji Creative Commons Uznanie Autorstwa 4.0 Międzynarodowe. Zachęcamy do jego przedruku i wykorzystania. Prosimy jednak o podanie linku do naszej strony.
Jakub Lipiński
Bartosz Paszcza