Witamy na stronie Klubu Jagiellońskiego. Jesteśmy republikańskim i niepartyjnym stowarzyszeniem, które próbuje oddziaływać na politykę w duchu troski o dobro wspólne. Piszemy pogłębione artykuły o polityce, gospodarce, historii i kulturze. Formułujemy obywatelskie postulaty zmian i wysyłamy petycje do władz. Publikujemy komentarze ekspertów i tematyczne raporty. Działamy w całej Polsce.

Zachęcamy do regularnych odwiedzin naszej strony. Informujemy, że korzystamy z cookies.

Czeka nas bunt przeciwko algorytmom?

przeczytanie zajmie 11 min
Czeka nas bunt przeciwko algorytmom? Zdjęcie: Gerd Altmann

Brytyjscy uczniowie zbuntowali się – nie uznali ocen wystawionych przez algorytm, który miał zastąpić egzaminy. To tylko zapowiedź szerokiego procesu, w którym to komputery w coraz większym stopniu będą podejmowały lub sugerowały decyzje mające wpływ na nasz światopogląd, karierę, dostęp do informacji i usług publicznych. Czy może dzięki nim powstać ogólnoświatowy Pax Romana na miarę XXI wieku? Czy też pogrążymy się w lokalnych rewoltach przeciw bezdusznym funkcjom, których parametry ustala cyfrowa klasa wyższa w Pekinie i Dolinie Krzemowej?

Brytyjskie doświadczenie

Wolisz, aby oceniał cię nauczyciel czy komputerowy algorytm? To nie fragment dialogu z serialu Netflixa pt. Czarne lustro. Przed takim wyborem stanęli uczniowie brytyjskich szkół średnich. Tamtejszy rząd w ramach walki z epidemią COVID-19 zdecydował o zawieszeniu w tym roku tradycyjnych egzaminów końcowych w szkołach średnich. Władze Londynu wymyśliły, że oceny zaproponuje specjalny algorytm komputerowy, który na podstawie danych o dotychczasowych osiągnięciach danego ucznia i jego szkoły określi, na jaką ocenę z egzaminu końcowego zasługuje absolwent. Uzyskany wynik ma kluczowe znaczenie, gdyż bierze się go pod uwagę w rekrutacji do szkół wyższych. Jak pomyślano, tak zrobiono. I rozpętało się piekło.

Po pierwsze, oceny wskazane przez algorytm były średnio gorsze niż te, które byli skłonni zaproponować uczniom nauczyciele. Po drugie, przeciętnie lepsze oceny zostały przyznane przez algorytm uczniom ze szkół mniejszych, np. prywatnych i specjalnych, niż tych dużych, zazwyczaj publicznych. Po trzecie, algorytm przyznawał lepsze oceny uczniom uzyskującym dobre stopnie w poprzednich latach i tym, którzy pochodzili ze szkół sumarycznie osiągających dobre wyniki. Po czwarte, algorytm wypłaszczał przyznawane oceny, a więc uczniowie, którzy z różnych powodów mogli wypaść źle na egzaminie, dostawali średnio lepsze oceny. Wyjątkowo zdolni, którzy różnie radzili sobie w przeszłości, ale mogli dobrze wypaść na egzaminie, zostali przez algorytm pokrzywdzeni średnimi stopniami.

Łatwo się domyślić, że wywołało to gwałtowne protesty uczniów, ich rodziców i nauczycieli oraz poważnie zakłóciło proces rekrutacji do szkół wyższych. Wskazywano, że algorytm jest dyskryminujący, gdyż przyznaje średnio gorsze oceny uczniom szkół z uboższych dzielnic. Podnoszono także, że odtwarza ideologiczne przesądy klasowe, np. premiuje uczniów uczęszczających na zajęcia z języków klasycznych.

Aby uspokoić sytuację, zdecydowano, że uczniowie będą mogli wybrać, czy wolą uzyskać ocenę przyznaną przez algorytm, czy taką, jaką zaproponowali ich nauczyciele. Szef urzędu odpowiedzialnego za sytuację w oficjalnym komunikacie bronił się, stwierdzając, że nawet, gdyby zastosowano lepszy, bardziej sprawiedliwy algorytm, to i tak odczuwanoby niezadowolenie, ponieważ przyczyną problemu jest w głównej mierze brak społecznej legitymizacji decyzji podjętych w ten sposób.

Uczeń, podchodząc do egzaminu, ma poczucie bezpośredniego sprawstwa – od jego działań wprost zależy jego przyszłość. Dzięki temu łatwiej jest mu pogodzić się z uzyskanym wynikiem. Podobnie w przypadku oceny wystawionej przez funkcjonariusza państwowego – ludzie są bardziej skłonni zaakceptować ten wynik niż ocenę zaproponowaną przez bezosobową procedurę, której nie można przekonać, uprosić, przebłagać lub… skorumpować.

Opisywany przypadek nie jest wyjątkowy. Odtwarzanie przez algorytmy komputerowe oceniające ludzi właściwych im przesądów i uprzedzeń jest problemem uniwersalnym. Często procedura, która miała być bezosobowa i sprawiedliwa, nabiera cech zjawiska tzw. perverse effect, czyli staje się zaprzeczeniem samego siebie. W konsekwencji prowadzi do petryfikacji hierarchii społecznej.

Algorytmy – regulatory życia zbiorowego

Perspektywa poznawcza, którą w tekście przyjmuję, to determinizm technologiczny. Jest to przekonanie, że zmiany technologiczne, pojawianie się nowych urządzeń i przenikanie ich do praktyk społecznych mają znaczący wpływ na relacje między ludźmi, a także na podejmowane przez nich decyzje i działania. Wiele lat temu socjolog, prof. Lech Zacher, przekonywał, że nie można już mówić po prostu o społeczeństwie, ale raczej o systemach techno-społecznych.

W przypadku tradycyjnie rozumianej kultury rolę podstawowych współregulatorów życia zbiorowego pełniły normy i wartości, a w społecznościach sformalizowanych przybierają one postać przepisów prawa. W społeczeństwach scyfryzowanych w coraz większym stopniu decyzje i działania ludzi oraz ich stosunki społeczne są współregulowane przez algorytmy cyfrowe. Opisany na początku niniejszego tekstu przykład brytyjski nie był wyjątkowy pod względem formy. Zautomatyzowane algorytmy sztucznej inteligencji od kilkunastu lat coraz częściej kierują naszym życiem.

Decydują one:

– z kim nawiązujemy relacje oraz co i jak możemy sobie komunikować,

– czego możemy się dowiedzieć o świecie i o nas samych podczas używania wyszukiwarki internetowej,

– z kim możemy nawiązywać relacje intymne w aplikacjach randkowych,

– co mamy oglądać, słuchać i czytać w ramach rekomendacji treści,

– czego mamy pragnąć i na co wydawać pieniądze dzięki reklamom,

– o naszym zatrudnieniu,

– jaką trasą mamy dotrzeć do celu,

– ile mamy zrobić kroków, co możemy zjeść, kiedy mamy przestać ćwiczyć i położyć się spać.

Algorytmy coraz bardziej automatyzują nasze codzienne działania. Trend korzystania z nich we wszystkich obszarach naszego życia będzie się tylko nasilał. Spowoduje to, że będzie się zwiększać ich habituacja (oswojenie) – algorytmy zostaną uznane za naturalny element otoczenia. A wraz z tym może zwiększyć się także zaufanie do nich, tym samym poniesie się społeczna legitymizacja decyzji podejmowanych przez programy komputerowe.

Czy zamiast na określonego kandydata, partię polityczną czy konkretny program wyborczy będziemy niedługo głosować na algorytm komputerowy? Wolimy, aby rządziła nami chińska czy amerykańska sztuczna inteligencja? Już teraz podejmujemy tę decyzję, wybierając urządzenie marki Apple lub Xiaomi. Instalując aplikację TikTok, możemy napotkać trudność w wymienianiu za jej pomocą opinii na temat masakry na placu Tienanmen, niepodległości Tajwanu i prodemokratycznych protestów w Hong Kongu. Na poziomie codziennych mikrodecyzji aplikacje i systemy operacyjne oddziaływają bezpośrednio na nasze życie, natomiast w swojej zagregowanej masie także na działanie całych społeczeństw.

O ile przepisy prawa mają formę względnie otwartą, to w przypadku algorytmów istnieje poważny problem z ich przejrzystością. Często mechanizm ich działania stanowi tajemnicę handlową firm, które dzięki nim generują zyski.

I tu warto zasygnalizować kolejny problem – bardziej jesteśmy skłonni zaakceptować komercyjne algorytmy automatyzujące nasze życie niż te wykorzystywane w administracji publicznej. Bez problemu oddajemy korporacjom technologicznym informacje na temat nierzadko intymnych szczegółów naszego życia, a równocześnie trudno nam sobie wyobrazić, by równie swobodnie podzielić się takimi danymi np. z policją czy urzędem skarbowym.

Obietnica, którą niesie szersze wykorzystanie zautomatyzowanych algorytmów podejmowania decyzji w pracy administracji dotyczy szybkości ich działania – wydanie pozwolenia może nastąpić w ciągu sekund, a nie kilku tygodni. Wydaje się to spektakularne, ale rewolucja niesie ze sobą problemem odpowiedzialności służbowej za takie decyzje. Kto ją poniesie? Bezosobowa procedura? Twórcy algorytmu? O tej kwestii szerzej pisali w ubiegłym roku twórcy raportu AlgoPolska Klubu Jagiellońskiego i Centrum Cyfrowego.

Suwerenny jak algorytm

Kto tworzy algorytmy rządzące w coraz większym stopniu życiem społecznym i czym się kieruje? Zazwyczaj robią to zespoły programistów złożone najczęściej z młodych, białych mężczyzn ze średnim lub wyższym wykształceniem. Czasami grupę tę określa się mianem digital upper-class. Jest to klasa kreatywna nowego typu, którą cechują indywidualizm, swoisty kosmopolityzm i w wiara w bycie kowalem własnego losu. Mało która z grup społeczno-zawodowych zyskała w czasie ostatniej pandemii i lockdownu tak wiele na znaczeniu, jak arystokracja cyfrowa. Od jej kompetencji zależało to, czy całe społeczeństwa będą w stanie funkcjonować w reżymie pandemicznym, czy możliwa będzie zdalna praca, zakupy, rozrywka, komunikacja, edukacja, a nawet uczestnictwo we Mszy Świętej.

Politycy, tworząc przepisy prawa, mają zazwyczaj ku temu demokratyczny mandat. Twórcy algorytmów otrzymują realną władzę wynikającą z ich pozycji eksperta. Nie stanowi to większego problemu tak długo, jak tworzone przez nich algorytmy nie ograniczają wolności obywateli. Kłopot w tym, że to się wyraźnie zmienia.

Na potrzeby wspierania walki z pandemią COVID-19 również w naszym kraju powstał specjalny system informatyczny, któremu towarzyszyła aplikacja do śledzenia kontaktów, ProteGo Safe. Miała monitorować przemieszczanie się i fizyczne kontakty użytkownika urządzenia w celu kontroli potencjalnego rozprzestrzeniania się wirusa.

Dwaj technologiczni giganci, Apple i Google, dostarczyli wbudowane w systemy operacyjne rozwiązania, które umożliwiają państwom modernizację takich aplikacji. Co istotne, zadbali oni także o względnie wysoki poziom zabezpieczeń prywatności użytkowników i narzucili go rządom. W czym jest zatem problem? Jak wskazał badacz społecznego wpływu technologii, Daniel McQuillan, sprawa jest śmiertelnie poważna. Algorytmy aplikacji do śledzenia kontaktów w trakcie pandemii mogą w konsekwencji współdecydować o tym, kto i jak ma się przemieszczać, zostać poddanym kwarantannie, skierowanym na testy lub leczenie. W czarnym scenariuszu mogą decydować o życiu lub śmierci.

Polityk podejmujący powyższe decyzje nie tylko otrzymuje demokratyczny mandat, ale może także zostać z niego rozliczony poprzez m.in. zablokowanie reelekcji lub odpowiedzialność karną. Współtwórcy algorytmów, które zaważą o sposobie działania ProteGo Safe i innych podobnych aplikacji, nie doświadczają nawet namiastki tego typu odpowiedzialności.

W naszej kulturze przywykło się myśleć, że dojrzały obywatel powinien odpowiadać za swoje działania. Z tego założenia wyrasta instytucja odpowiedzialności cywilnej i karnej. W coraz bardziej cyfryzującej się rzeczywistości rośnie rola pośrednictwa algorytmów nieznanego autorstwa o niejasnym funkcjonowaniu w podejmowaniu nawet najważniejszych decyzji.

Wiele pytań, kiedyś zadawanych duchownym, przyjacielowi lub najbliższej rodzinie, coraz częściej cedowanych jest na wyszukiwarkę internetową lub zintegrowanego z nią wirtualnego asystenta. W jaki sposób odpowie wyszukiwarka? Jej właściciel i dysponent jest zazwyczaj notowanym na giełdzie podmiotem komercyjnym, od którego udziałowcy oczekują zysków. Wnioski są łatwe do wyciągnięcia.

W stronę Pax GAFAMA

W starożytnym imperium rzymskim podbite prowincje przez wieki łączył Pax Romana – stan pokoju zaprowadzany przez imperialnych legionistów, w którym możliwa była koegzystencja różnych narodów, a także dość swobodny przepływ towarów i usług w ramach imperium. Aby można było się porozumieć, potrzebny był wspólny standard oparty na wymianie handlowej, języku i prawodawstwie.

Współcześnie standard globalnego współfunkcjonowania różnych grup społecznych w zachodnim świecie wyznaczają w największym stopniu algorytmy gigantów technologicznych z grupy GAFAM – Google, Apple, Facebook, Amazon i Microsoft. W czasach imperium w razie kryzysu odwoływano się do namiestnika prowincji, który mógł rozsądzić spór lub użyć siły względem problematycznej jednostki przy pomocy legionistów. Podobnie dziś w wielu rozwiniętych państwach władze zwróciły się o pomoc do właścicieli algorytmów z grupy GAFAM o zmobilizowanie swoich zasobów w celu przeciwdziałania pandemii.

Podobne procesy już w często bardziej zaawansowanej formie rozpędzają się w Chinach. „Chiński pokój” (nie mylić z eksperymentem myślowym Johna Searle’a) definiowany będzie przez tamtejszych gigantów technologicznych z grupy BATX (Baidu – wyszukiwarka, Alibaba – e-handel, Tencent – media, rozrywka i system płatności, Xiaomi – hardware i software).

Giganci technologiczni posiadają narzędzia oddziaływania na zbiorowe decyzje, działania, emocje i nastroje. Mogą je pokierować w stronę eskalacji lub wyciszania napięć i konfliktów. Nie tak dawno światowego rozgłosu nabrało świadectwo byłej pracownicy Facebooka, która przyznała, że od jej dyskrecjonalnych decyzji wielokrotnie zależało to, czy zablokowane zostaną kampanie polityczne prowadzone za pośrednictwem tego największego medium społecznościowego.

Młodzi ludzie oglądający te same seriale na urządzeniach tych samych producentów wyposażonych w ten sam system operacyjny i kierujący się w swoim życiu wskazaniami algorytmów tych samych aplikacji będą wspólnotą nowego typu. Tożsamość będzie w niej współwyznaczana przez wybór oprogramowania życiowego. Oś podziałów klasowych lewica-prawica może być w praktyce zastąpiona przez wybór między Androidem i iOS.

Im bardziej nasze życie, indywidualne i zbiorowe, będzie współregulowane przez komputerowe algorytmy, tym większa będzie szansa na nowy Pax Romana, w którym wspólne standardy działania i relacji wyznaczane będę przez wielkie korporacje technologiczne. W razie kłopotów to one przyślą do prowincji swoich legionistów, by zaprowadzili porządek. Gladius i pilum zostaną zastąpione przez linijki kodu, które sprawią, że pewnych rzeczy nie będzie można kupić, przeczytać lub zobaczyć. Oferty niektórych firm przestaną być widzialne w świecie cyfrowym. Dotychczas działające linki zaczną przekierowywać nas w inne miejsca sieci, a poczytne blogi i podcasty zamilkną z powodu łamania regulaminu platformy. Tak przemoc fizyczna zostanie zastąpiona metawładzą nad relacjami i przemocą symboliczną. Te ostatnie są nawet skuteczniejszym, gdyż stanowią trudniejsze do uświadomienia narzędzia imperializmu.

Czy wybrzmi głośny sprzeciw?

Wtedy przyjdzie czas na bunt. Opisany na początku przykład brytyjski pokazuje, że wskazana tu tendencja ekspansji algorytmów jako współregulatorów naszego życia zaczyna napotykać opór. Jakim prawem linijki kodu pisane przez zespół trzydziestolatków na drugim końcu globu mają decydować o moim życiu? Sprzeciw brytyjskich nastolatków był możliwy, ponieważ mieli oni świadomość, kto i jak zdecydował o ich szansach na przyszłość. Problem w tym, że tej wiedzy zazwyczaj nie mamy. W pewnym sensie warunkiem skuteczności komputerowych algorytmów jest ich niewidzialność.

Każdy porządek polityczny, prawny i społeczny jest trwały tylko wtedy, gdy posiada względnie powszechną legitymizację. I właśnie o to toczy się teraz gra. Czy społeczeństwa uznają, że wskazań algorytmów należy się słuchać w imię bezpieczeństwa, pokoju i sprawiedliwości albo dla świętego spokoju i wygody. Wiadomo, jak przeprowadzić pokojową rewolucję, zamach stanu i obalić władcę. Nie jest natomiast jasne, jak rozmontować oligopol utworzony przez władców algorytmów mających coraz większy wgląd i wpływ na to, co myślimy, co robimy i kim jesteśmy.

Publikacja nie została sfinansowana ze środków grantu któregokolwiek ministerstwa w ramach jakiegokolwiek konkursu. Powstała dzięki Darczyńcom Klubu Jagiellońskiego, którym jesteśmy wdzięczni za możliwość działania.

Dlatego dzielimy się tym dziełem otwarcie. Ten utwór (z wyłączeniem grafik) jest udostępniony na licencji Creative Commons Uznanie Autorstwa 4.0 Międzynarodowe. Zachęcamy do jego przedruku i wykorzystania. Prosimy jednak o podanie linku do naszej strony.