Paszcza: Czy stajemy się biologicznymi zasobami uwagi i czasu eksploatowanymi przez algorytmy wielkich firm?
W skrócie
„Bez zmiany fundamentalnych zasad działania internetowego rynku nie przekujemy postępu w działający na rzecz człowieka rozwój. Bez reform ryzykujemy wprowadzenie nowych nierówności społecznych. Ci nieliczni, którzy będą dysponować kapitałem społecznym i umiejętnościami opanowania technologii, będą zyskiwać dużo lepszą pozycję” – pisał Bartosz Paszcza na łamach weekendowego wydania „Rzeczpospolitej”.
„Algorytmy obficie korzystają ze zdobyczy behawiorystyki. Po to, żeby dostarczyć nam lepszą usługę i również po to, żeby dłużej zatrzymać nas w aplikacji albo namówić nas na kupienie jeszcze jednej rzeczy. Żeby to zrobić, właściwie ogrywają naszą duszę: wykorzystują to, że jako ludzie mamy spory problem z odłożeniem w czasie gratyfikacji. Tak zwana gamifikacja usług zapewnia nam gratyfikację natychmiastową – dostaniemy lajka, powiadomienie, kupimy rzecz jednym kliknięciem, natychmiastowo obejrzymy kolejny odcinek serialu czy filmik. Problem w tym, że zanurzeni w różnych algorytmach zaczynamy oddawać im większość dnia, mocy umysłowych. Że żerując na naszych behawioralnych zachowaniach, zabierają nam skupienie w nauce czy pracy, czas dla znajomych lub rodziny albo po prostu godziny snu”- zwraca uwagę szef działu portalowego „Techno-republikanizm”.
„Czy mamy więc jeszcze wolną wolę, czy stajemy się powoli biologicznymi zasobami uwagi i czasu powoli eksploatowanymi przez algorytmy wielkich firm? Dziś toczymy faktycznie nierówną walkę – już nie tylko z samymi sobą, ale też z uzależniającą technologią. Trudno było zebrać się do ćwiczeń, kiedy nasz organizm podpowiadał nam, że lepiej posiedzieć przed telewizorem. Dziś dodatkowo nasz smartfon i laptop kuszą nas kilkunastoma powiadomieniami z aplikacji, które oferują zobaczenie, co u naszych znajomych, nowy filmik na YouTubie czy nawet przejrzenie tego nowego e-maila z pracy”– podkreśla Paszcza.
„Bez zmiany fundamentalnych zasad działania internetowego rynku nie przekujemy postępu w działający na rzecz człowieka rozwój. Bez reform ryzykujemy wprowadzenie nowych nierówności społecznych: nieliczni ci, którzy będą dysponować kapitałem społecznym i umiejętnościami opanowania technologii na tyle, aby pomagała im w realizacji siebie, będą zyskiwać dużo lepszą pozycję. Natomiast dla większości, która nie ma czasu czy umiejętności, aby zawracać sobie głowę jakimiś algorytmami, pozostanie zanurzenie się w hiperaktywnej zupie aplikacji i platform.” – nasz autor rysuje ponury scenariusz cyfrowej przyszłości.
„Badania już dziś pokazują, że nadużywanie internetowych usług – szczególnie wśród osób dorastających – odbija się na zdrowiu psychicznym. Jedną z prób podejmuje właśnie Unia Europejska, która tworzy regulacje rozwoju odpowiedzialnej sztucznej inteligencji. Odpowiedzialnej, czyli służącej właśnie człowiekowi. Propozycja słusznie dzieli algorytmy według ryzyka ich wykorzystania, pozostawiając słabsze reguły zastosowaniom niemogącym wyrządzić szkody życiu człowieka – na przykład w przemyśle. Elementem propozycji są też zakazy dla nieetycznych algorytmów wykorzystujących podświadomość odbiorców czy takie wykorzystujące grupy niepełnosprawnych lub dzieci”- pisze ekspert Centrum Analiz Klubu Jagiellońskiego.
„Technologię możemy wykorzystywać w lepszy sposób. Wolna wola oznacza możliwość decydowania o swoim losie. Potrzebujemy więc przywrócić sobie samym decyzyjność nad swoim czasem, a najlepiej również nad cechami i celami działania algorytmów mających na nas wpływ. Żeby zrealizować pozytywną wizję rozwoju ludzkości wspieranej przez algorytmy, potrzebujemy połączyć siły systemowe i indywidualne. Nie pozwolą nam wygrać same nasze starania na rzecz opanowania własnych zasad korzystania z technologii, tak aby Netflix, Messenger, Instagram czy YouTube nie zabierały nam całego dnia i nie zabierały skupienia na rozmowie z mamą czy przyjacielem. Ale też regulacyjne wprowadzenie interoperacyjności usług cyfrowych samo nie rozwiąże problemu. Podobnie jak możliwość samodzielnego definiowania celów algorytmów. Potrzebujemy jeszcze wiedzieć, że chcemy coś zmienić – i na co dokładnie” – podsumowuje Paszcza.