Stanisław Lem przewidział patologie X-a. Czy da się uratować platformę Elona Muska?
Na X-ie (dawnym Twitterze) spełnia się groteskowa wizja rozwoju sztucznej inteligencji z opowiadań Stanisława Lema. Do wcześniejszych metod wpływu poprzez algorytmy doszedł problem wszechobecnych botów. Czy dziś możliwy jest jeszcze odwrót od całkowitej degeneracji mediów społecznościowych? A może powinniśmy pogodzić się z tym, że stały się one nieoczyszczalnym ściekiem? Wszystko to rodzi pytanie, o znaczenie tego procesu dla funkcjonowania demokracji.
Tragedia pralnicza Stanisława Lema opowiada o konkurencji między producentami pralek, która doprowadza do społecznej rewolucji. Wszystko zaczyna się od niewinnego tworzenia zaledwie standardowych urządzeń wzbogaconych o funkcje, które dziś określilibyśmy jako smart, np. pralki u Lema potrafią oddzielać ubrania białe od kolorowych.
Z czasem poprzez kolejne iteracje innowacji powstają pralki, potrafiące bawić rodzinę rozmową, pomagać w odrabianiu lekcji, a nawet pełnić rolę seksrobotów lub maszyn wojskowych. W naszej rzeczywistości dalej nie ma urządzeń rozdzielających pranie wedle koloru, za to istnieją modele językowe takie jak ChatGPT lub Grok, które doskonale realizują się w pozostałych kompetencjach ostatecznych form rozwoju lemowskich pralek.
To jednak nie koniec analogii do współczesnego tempa rozwoju technokapitalizmu. We wspomnianym opowiadaniu przenosimy się w niedaleką przyszłość, w której upowszechnienie się autonomicznych robotów doprowadziło do obszernych problemów na tle ich osobowości prawnej.
Główny bohater, Ijon Tichy, jest świadkiem kongresu, podczas którego toczy się dyskusja o prawach regulujących autonomię maszyn. Debata kończy się jednak fiaskiem. Jak na ironię wszyscy zaproszeni wykładowcy, znamienici prawnicy, etycy i inni eksperci okazują się… robotami. Jedynym prawdziwym człowiekiem jest Tichy.
Ta kuriozalna sytuacja przy obecnym tempie rozwoju technologii może wydawać się czymś z gatunku science fiction. Przykładem może być choćby wydarzenie Tesli z 2024 roku, podczas którego humanoidalny robot Optimus pełnił funkcję barmana — akcja ta odbiła się szerokim echem w mediach. W rzeczywistości robot był zdalnie sterowany przez człowieka. Mimo rozwoju AI tworzenie w pełni autonomicznego oprogramowania dla maszyn działających w świecie fizycznym pozostaje wciąż ogromnym wyzwaniem.
Zupełnie inaczej wygląda sytuacja w przestrzeni cyfrowej, gdzie głównym nośnikiem komunikacji jest tekst. Tu bariery technologiczne są znacznie mniejsze. W tym kontekście warto zadać sobie pytanie: czy naprawdę jesteśmy w stanie odróżnić komunikat autorstwa bota od tego stworzonego przez człowieka?
Obietnice mediów społecznościowych
Spójrzmy na rozwój mediów społecznościowych przez pryzmat historii o pralkach. Od samego początku był on napędzane dwiema siłami: ekonomicznym zyskiem i – przynajmniej deklarowaną – ideą zmieniania świata na lepsze. „To make the world more open and connected” – głosił Mark Zuckerberg podczas debiutu Facebooka na giełdzie w 2012 roku.
Od tamtej pory media społecznościowe wyewoluowały w ciekawy zbiór amalgamatów.
Z jednej strony pełnią funkcję platformy do komunikacji międzyludzkiej. Z drugiej są cenną przestrzenią dla reklamodawców, a z trzeciej stały się ważnym elementem funkcjonowania organizacji pozarządowych, partii politycznych czy rządów.
Nawet jeśli ktoś nie wierzy w czyste intencje szefów Big Techów, należy przyznać, że media społecznościowe zdołały przez pewien czas rzeczywiście uczynić demokrację bardziej demokratyczną. Na pierwszy rzut oka to pleonazm, lecz istotą tej myśli jest to, że nigdy wcześniej przeciętny przedstawiciel ludu nie miał tak bezpośredniego kontaktu z politykiem. Tym samym nigdy wcześniej nie mógł wyrażać swoich potrzeb, opinii oraz krytyki w tak dostępny i bezpośredni sposób.
W tradycyjnych mediach możliwości interakcji były bardzo ograniczone. W świecie cyfrowym praktycznie każdy ma wolny dostęp do bezpośredniej „rozmowy” z przedstawicielami klasy politycznej przy pomocy komentarzy.
Co ciekawe, istnieją badania wskazujące, że osoby, które wcześniej charakteryzowały się niskim zaangażowaniem politycznym i brakiem zaufania do rządu, poprzez interakcje z politykami i dziennikarzami na X-ie zaczeły wykazywać wyższy poziom zaufania do instytucji państwowych.
Ponadto X stał się nowatorską przestrzenią budowy obywatelskich inicjatyw. Przykładem jest ruch wokół Centralnego Portu Komunikacyjnego – obywatelska inicjatywa, która zaowocowała projektem ustawy, pod którym podpisało się 100 000 osób.
Kluczem jej sukcesu były treści publikowane przez wpływowych użytkowników właśnie na platformie X. Wywołały społeczną, ponadpartyjną emocję, która nie zaistniałaby w ramach eksperckich artykułów czy zaangażowanej partyjnie telewizji.
Zmierzch platform społecznościowych
Jednak mimo tych niewątpliwych korzyści trzeba jasno powiedzieć, że media społecznościowe nigdy nie grały czysto. Przykładem jest śledztwo „The Wall Street Journal”, które ujawniło, że Facebook dysponował danymi o szkodliwym wpływie Instagrama na zdrowie psychiczne nastolatków, lecz nie upublicznił tych informacji.
Innym przypadkiem jest tzw. afera Twitter Files, w której – już po przejęciu platformy przez Elona Muska – ujawniono stosowanie ręcznego „ograniczania zasięgów” tematów, głównie o charakterze prawicowym. Warto tutaj zapytać: czy był to jeden z powodów, dla których Musk kupił Twittera?
Zarówno motywacje ekonomiczne, jak i ideowe, które pierwotnie towarzyszyły tworzeniu tych platform, uległy erozji. Przykład Mety pokazuje, że wzniosłe hasła zostają ostatecznie podporządkowane logice zysku.
Z kolei działania wcześniejszego zarządu Twittera sugerują, że chęć zmiany świata na lepsze – nawet jeśli wynikała z „dobrych intencji” – działała w krótkiej perspektywie i ostatecznie służyła głównie wsparciu konkretnej opcji ideologicznej spójnej z poglądami zarządu.
Coraz większy wpływ na jakość debaty publicznej mają też trolle i boty – czyli konta, które nie reprezentują własnych poglądów, lecz działają na zlecenie. Trolle mogą być ludźmi, boty są zautomatyzowane, ale efekt ich działania jest podobny: zafałszowanie debaty, wykrzywienie oglądu opinii publicznej i obniżenie wpływu realnych obywateli na kształt dyskursu.
Z uwagi na koszty ich wdrożenia, tego rodzaju operacje są dostępne głównie dla elit – zarówno rządowych (np. rosyjskie farmy trolli), jak i ekonomicznych (np. boty wspierające interesy Huawei).
Najistotniejsze jest jednak to, że obecność trolli i botów okazuje się dla właścicieli platform opłacalna. Ich działania intensyfikują emocje, a to zwiększa zaangażowanie użytkowników i czas spędzany na platformie, co bezpośrednio przekłada się na przychody z reklam. Odpowiedź na pytanie, dlaczego Big Techy od lat nie są w stanie rozwiązać problemu botów i trolli, okazuje się prosta: prawdziwa walka z nimi byłaby sprzeczna z interesem ekonomicznym firm.
Tu właśnie ujawnia się dramatyczny konflikt między deklarowanymi przez platformy wartościami a rzeczywistością. Gdyby przeprowadzić realną „czystkę” botów, okazałoby się, że liczby użytkowników są zawyżone, a wartość giełdowa przeszacowana.
W sytuacji, w której zysk staje się wartością nadrzędną, firmy technologiczne wybierają strategię iluzji. Zbliżamy się niebezpiecznie do scenariusza „tragedii pralniczej”, w którym jedynymi aktywnymi uczestnikami debaty pozostają boty, rozmawiające… same ze sobą.
Farmy trolli? Przy możliwościach AI to amatorszczyzna
By lepiej zrozumieć problem, przyjrzyjmy się jak funkcjonowały trolle przez lata i czym jest nowa generacja trolli botów oraz co potrafią. Zakładam, że większość z nas słyszała już o rosyjskich farmach trolli – zorganizowanych zespołach, w których setki, a czasem tysiące, fałszywych kont działają na rzecz szerzenia określonych narracji.
Najsłynniejszą z nich jest ta założona przez Jewgienija Prigożyna – tego samego, który w 2023 r. wraz z kierowaną przez siebie Grupą Wagnera spróbował dokonać puczu, a potem zginął w katastrofie lotniczej. Mowa o Internet Research Agency – założonej przez „kucharza Putina” farmie trolii działającej co najmniej od 2013 r.
Jak ujawniła dziennikarka śledcza, Lyudmila Savchuk, zatrudniona w tej organizacji w 2015 r., w jednym obiekcie należącym do firmy przez całą dobę pracowało kilkaset osób. Każdego dnia dostawali listę tematów do komentowania – od polityki zagranicznej Rosji przez Unię Europejską po Władimira Putina.
Najważniejsze było, aby posty i komentarze sprawiały wrażenie autentycznych wypowiedzi zwykłych ludzi. Sami „pracownicy” często nie czytali nawet treści, do których się odnosili – mieli jedynie link i wytyczne, co i w jakim tonie pisać.
Na tak funkcjonującą dezinformację państwa Zachodu nie znalazły do tej pory skutecznych rozwiązań. W obliczu powstawania nowych modeli językowych sztucznej inteligencji sytuacja staje się jeszcze bardziej skomplikowana i trudna.
Prawdziwa rewolucja przyszła w 2022 r., gdy OpenAI opublikował pierwszą wersję ChatGPT. Zaawansowane modele językowe, takie jak GPT-4, wyniosły dezinformację na nieznany wcześniej poziom. Oto trzy najważniejsze cechy, które sprawiają, że trolling w sieci stał się jeszcze skuteczniejszy.
- Znajomość kontekstu
Dzisiejsza sztuczna inteligencja potrafi czytać artykuły i wcześniejsze komentarze, a nawet „przyjąć” kontekst ostatnich wydarzeń. W rezultacie bot może formułować wypowiedź tak, by brzmiała jak trafna i merytoryczna odpowiedź na dany tekst czy tweet.
Trolle sprzed lat często w ogóle nie czytały tego, co komentowały, ponieważ zajmowało to zbyt dużo czasu. Teraz komentarze mogą być bardziej spójne i wiarygodne, bo przetworzenie skomplikowanego kontekstu zajmuje AI ułamek sekundy.
- Niemal perfekcyjne tłumaczenie
Podczas ataku rosyjskich trolli w 2022 r. na X-ie (towarzyszącego inwazji na Ukrainę) polscy internauci bez trudu wyłapywali charakterystyczne błędy językowe zdradzające autorów obcojęzycznych. Klasyczne translatory, np. Google Translate, miały zauważalne ograniczenia, zwłaszcza w tłumaczeniach na języki inne niż angielski.
Obecnie modele językowe dużo lepiej „rozumieją” strukturę poszczególnych języków i tworzą zdania zbliżone do naturalnych. W efekcie łatwiej ukryć obce pochodzenie – posty przestają brzmieć jak kulawe kalki językowe.
- Automatyzacja na masową skalę
Największym zagrożeniem jest możliwość tworzenia tysięcy, a nawet setek tysięcy fałszywych kont jednocześnie. Wystarczy zestaw skryptów, który automatycznie pobiera treści z sieci, generuje prompty dla modelu (np. „Wyobraź sobie, że jesteś rolnikiem z Podlasia…”) i publikuje spersonalizowane komentarze. To pozwala zalewać internet spójną, a jednocześnie wielogłosową narracją – od „zaniepokojonych emerytów” po „polskiego rolnika”.
Wcześniej do stworzenia wiarygodnie brzmiących postów potrzebny był człowiek, który pisał ich kilkadziesiąt dziennie. Dzisiaj wystarczy jeden programista, by stworzyć tysiące botów, a każdy z nich posiada inną perspektywę, świetną znajomość języka i świadomość bieżących wydarzeń.
Jak walczyć z botami – rola otwartości danych
Twitter (dziś X) jeszcze przed erą Elona Muska miał swoje grzechy – o części z nich wspomniałem wcześniej. Trzeba jednak oddać mu jedno: otwartość na zewnętrzne badania.
Przez lata udostępniano badaczom narzędzia analityczne pozwalające na dostęp do danych z platformy – wszystkie publiczne tweety, metadane i interakcje od 2006 roku. Dostęp ten był płatny, ale dla użytkowników akademickich przewidziano darmowy wariant badawczy.
Rezultat? Ponad 30 000 opublikowanych prac naukowych i ponad milion cytowań. Badania dotyczyły nie tylko informatyki, ale także politologii, psychologii, socjologii czy medioznawstwa.
Z dumą mogę przytoczyć przykład projektu, w którym sam brałem udział – badania nad walką z mową nienawiści przy użyciu kontrmowy (ang. counter-speech), czyli spokojnych, rzeczowych odpowiedziami na „hejterskie” wpisy, generowanych przez bota o nazwie „The Inclusive Guardian”.
W 2022 roku, tuż po wybuchu wojny w Ukrainie, Twitter posiadał zaledwie jedną osobę
w dziale moderacji treści, która znała język polski. Platforma została zalana falą dezinformacji, a standardowe procedury zgłaszania treści nie działały skutecznie.
Bot stworzony przez nasz zespół pod przewodnictwem prof. Piotra Sankowskiego miał na celu przeciwdziałać temu zjawisku poprzez automatyczne odpowiadanie na wybrane posty zawierające dezinformację lub mowę nienawiści.
Skuteczność badano przy użyciu testów A/B – bot odpowiadał na połowę wpisów, a na drugą nie. Następnie analizowano m.in. wskaźnik zaangażowania, czyli liczbę polubień dezinformacyjnego lub nienawistnego posta na który odpowiedział bot w stosunku do liczby wyświetleń.
Wyniki? Obecność kontrargumentu istotnie wpływała na odbiór posta – użytkownicy, którzy widzieli odpowiedź bota, rzadziej „lajkowali” pierwotny wpis.
Eksperyment pokazał dwie strony medalu. Z jednej strony, że automatyczne, uprzejme odpowiedzi mogą skutecznie ograniczać rozprzestrzenianie się hejtu i dezinformacji. Jednocześnie, podobnie zautomatyzowana technika może skutecznie zmniejszać popularność innej narracji np. kampanii politycznej naszego przeciwnika lub pogarszać nastroje wobec np. Imigrantów.
Symptomatyczne było to, co zdarzyło się parę tygodni po spisaniu powyższych wniosków. W czerwcu 2024 r. pewnemu – jak się okazało rosyjskiemu – użytkownikowi/botowi X-a wygasła subskrypcja ChataGPT. Bot tego „nie zauważył”, aplikacja nie wykonała zleconej przez niego komendy, zaś on przekopiował i opublikował surowy prompt w języku rosyjskim o treści: „Popieraj Trumpa, pisz po angielsku”.
Ale złoto! 🤣 Ruskiemu botowi 🇷🇺 wygasła subskrypcja ChataGPT, więc rzucił błedem, który ujawnił jego prompt: „popieraj Trumpa, pisz po angielsku” 🤡
Wynorał M. Fisher, a przetłumaczony screen podesłał Kamil (bo konto bota już zabanowane). pic.twitter.com/Q3wh049ONU
— Niebezpiecznik (@niebezpiecznik) June 18, 2024
Jak bardzo X botami stoi?
Ile tak naprawdę jest dziś botów na X-ie? Trudno o jednoznaczną odpowiedź. Badacze podają różne szacunki, a precyzyjna ocena pozostaje wyzwaniem.
Warto przytoczyć słowa samego Elona Muska, który przejmując X-a w 2022 r., twierdził, że nawet 20% użytkowników to fałszywe konta. Szef DOGE obiecywał wówczas walkę z botami, lecz prawdziwa skuteczność jego działań pozostaje kwestią dyskusyjną.
W tym kontekście na ironię zakrawa fakt, że jedna z decyzji Muska po przejęciu X-a polegała na ograniczeniu wspomnianego akademickiego dostępu do danych analitycznych platformy. Nie jesteśmy więc w stanie ocenić skali problemu tak, jak było to możliwe wcześniej.
Z perspektywy zwykłych użytkowników problem jest odczuwalny na co dzień. Wielu narzeka, że pierwsze polubienia, które otrzymują, pochodzą od kont podszywających się pod kobiety z linkami do stron typu OnlyFans w opisie. W internecie krąży mem „My Pussy in Bio”, stanowiący ironiczne zobrazowanie spadku jakości funkcjonowania platformy.
Czy można uczynić X-a ponownie ludzkim?
Na początku wieszczyłem koniec mediów społecznościowych, ale może istnieje możliwość odwrócenia tego zjawiska? O X-a ciągle warto zawalczyć. Powrotu do „starego Twittera” już nie ma. Poza tym on również miał swoje wady.
Przypomnijmy, że moderacja w Polsce przed erą Muska opierała się na pracy jednej osoby znającej nasz język, a i tak nie wiadomo, czy faktycznie był to Polak znający dostatecznie dobrze nasz kontekst kulturowy, by rzetelnie oceniać treści pojawiające się w polskiej infosferze.
Zacznijmy od tego, co już istnieje, ale nie działa. Unia Europejska narzuciła regulację DSA – akt o usługach cyfrowych, który zobowiązuje platformy do udostępnienia danych analitycznych badaczom. Niestety, choć X uruchomił formularz dla badaczy z UE, w praktyce nie egzekwuje tego obowiązku.
Nie znalazłem żadnego przypadku, by ktoś skutecznie uzyskał dostęp do API. Co więcej, Komisja Europejska oficjalnie wystosowała stanowisko, w którym oznajmiła, że X nie spełnia wymogów DSA. Żeby nie demonizować jedynie platformy Muska, podobna sytuacja dotyczy TikToka, AliExpress i Meta.
Niestety po transformacji Twittera do X-a obecnie dostęp do danych kosztuje 42 000 dolarów miesięcznie. Oznacza to, że na naszych danych dalej są prowadzone badania, tylko że zamiast uniwersyteckich ośrodków badawczych robią to firmy marketingowe
i sprzedażowe.
Warto również zwrócić uwagę na koncepcję jawności algorytmów, o której wspominał m.in. Marcin Giełzak w podcaście Dwie Lewe Ręce. Choć technologie wyjaśnialności sztucznej inteligencji są wciąż w powijakach, to możliwe byłoby wprowadzenie funkcji – choć niedoskonałej – odpowiadającej na pytanie użytkownika: „Dlaczego algorytm zasugerował mi ten post?”.
Niestety duże platformy mogą ponownie zignorować takie regulacje, zwłaszcza że obecne metody wyjaśniania decyzji AI wciąż nie osiągnęły wystarczającej skuteczności.
Kolejnym rozwiązaniem byłoby stworzenie konkurencyjnej platformy z tymi samymi zaletami, ale bez wad obecnego X-a. Próby migracji użytkowników na Mastodonta, Threads czy Bluesky już się odbyły, ale żaden z tych projektów nie zagroził dominacji X-a. Problemem jest efekt sieciowy – każda nowa osoba korzystająca z danej platformy zwiększa jej wartość, co sprawia, że użytkownicy pozostają na tej, na której mają największą bazę znajomych:
„Każda nowa osoba w danej sieci zwiększa liczbę możliwych połączeń. W ten sposób rośnie wartość platformy. Dlatego też, skoro z aplikacji korzysta większość znajomych, korzystanie z niej jest jedynym rozsądnym wyborem” – pisał w książce Kapitalizm sieci Jan J. Zygmuntowski, dyrektor zarządzający CoopTech Hub.
Poza tym, nawet gdybyśmy przenieśli się np. na Bluesky, to nasze problemy mogłyby się wcale nie skończyć. Skąd mamy pewność, że nowa platforma po masowym napływie nowych użytkowników nie skręci w stronę polityki obecnego X-a?
Najbardziej kontrowersyjnym, lecz również potencjalnie przełomowym rozwiązaniem byłaby platforma publiczna stworzona przez instytucje państwa lub Unii Europejskiej. Wyobraźmy sobie „fantastyczny” scenariusz, w którym rząd oraz wszystkie polskie instytucje publiczne byłyby zmuszone do działania na jednym wybranym portalu, co automatycznie zapewniłoby przypływ użytkowników.
Taka platforma ze względu na swój niekomercyjny charakter mogłaby być wolna od reklam, umożliwiać weryfikację użytkowników przez usługę mObywatel, a także jawność algorytmów i pełny dostęp dla badaczy. W tym duchu rozwiązanie proponowali Jan J. Zygmuntowski
w filmie Czy Polska może być niepodległa w erze technofeudalizmu? oraz dr hab. Tomasz Michalak z IDEAS NCBR.
🛡️Ministerstwo Cyfryzacji powinno rozważyć stworzenie własnej aplikacji, która byłaby alternatywą dla portalu X i chroniła przed dezinformacją
– mówi dr hab. Tomasz Michalak, lider zespołu badawczego „AI dla bezpieczeństwa” w IDEAS NCBR➡️https://t.co/SBGyQhdE2F pic.twitter.com/umDeuXrRse— IDEAS NCBR (@IDEAS_NCBR) November 12, 2024
Choć jestem zwolennikiem powyższego rozwiązania, to widzę poważny problem w jego realizacji. Warunkiem jego powodzenia byłoby zaufanie do instytucji rządowych, a tego w Polsce od zawsze brakuje. Warto przypomnieć reakcję na wspominany
w tekście akt o usługach cyfrowych (DSA).
Projekt nowelizacji ustawy wdrażającej unijne prawo został okrzyknięty próbą wprowadzania cenzury i skrytykowany m.in. za możliwość usuwania treści przez urzędników bez udziału sądu i wiedzy autorów. Trudno mi oceniać sam projekt w jego wszystkich detalach, ale sądzę, że takie reakcje dość dobrze pokazują, jak bardzo Polacy są krytycznie nastawieni do rządowej koncepcji odgórnego wpływania na treści obecne w internecie.
Warto jednak zaznaczyć, że to już się dzieję, tylko mechanizmy kontroli znajdują się w USA, rozdzielone pomiędzy Waszyngtonem, a Doliną Krzemową.
Aby rządowa platforma społecznościowa mogła powstać, potrzebne jest przede wszystkim zaufanie. Byłby to projekt wymagający szeregu trudnych decyzji dotyczących polityki platformy, np. wobec publikacji kontrowersyjnych treści.
Czy dzisiejsza klasa polityczna potrafi stworzyć ponadpartyjną radę odpowiedzialną za tworzenie i egzekwowanie zasad dla takiej platformy, której do tego Polacy mogliby zaufać? W obecnym klimacie wojny polsko-polskiej wydaje się to czymś z gatunku political fiction. A szkoda, bo aplikacja mObywatel pokazuje, że mamy w Polsce potencjał do budowania nowoczesnego, cyfrowego państwa.
***
Jak widać, podobnie jak w opowiadaniu Lema nasza „pralnicza tragedia” w mediach społecznościowych zdaje się zmierzać ku nieuchronnemu fiasku. Pomimo widocznych prób regulacji i intensywnych debat jesteśmy zalani szumem informacyjnym generowanym przez boty.
Mimo wszystko uważam, że ciągle musimy próbować. Nie mamy alternatywy. Stawką jest jakość demokracji. Być może nawet jej ewentualne istnienie.
Publikacja nie została sfinansowana ze środków grantu któregokolwiek ministerstwa w ramach jakiegokolwiek konkursu. Powstała dzięki Darczyńcom Klubu Jagiellońskiego, którym jesteśmy wdzięczni za możliwość działania.
Dlatego dzielimy się tym dziełem otwarcie. Ten utwór (z wyłączeniem grafik) jest udostępniony na licencji Creative Commons Uznanie Autorstwa 4.0 Międzynarodowe. Zachęcamy do jego przedruku i wykorzystania. Prosimy jednak o podanie linku do naszej strony.