Witamy na stronie Klubu Jagiellońskiego. Jesteśmy niepartyjnym, chadeckim środowiskiem politycznym, które szuka rozwiązań ustrojowych, gospodarczych i społecznych służących integralnemu rozwojowi człowieka. Portal klubjagiellonski.pl rozwija ideę Nowej Chadecji, której filarami są: republikanizm, konserwatyzm, katolicka nauka społeczna.

Zachęcamy do regularnych odwiedzin naszej strony. Informujemy, że korzystamy z cookies.

Twórca ChatGPT prosi Kongres o regulację sztucznej inteligencji. Zaufanie nową cyfrową walutą?

Twórca ChatGPT prosi Kongres o regulację sztucznej inteligencji. Zaufanie nową cyfrową walutą? Jernej Furman/flickr.com

Sam Altman, prezes OpenAI, w połowie maja stanął przed Kongresem i – przynajmniej w oficjalnej części – domagał się uregulowania sztucznej inteligencji. Czy Altmanem kieruje faktycznie głęboki strach przed tym, jak sztuczna inteligencja wpłynie na cywilizację? Chce regulacjami zamknąć bramy przed innymi startupami? W mojej opinii odpowiedź leży gdzie indziej.

16 maja przed amerykańską senacką podkomisją stanęli Sam Altman, prezes OpenAI, Christina Montgomery, główna dyrektor prywatności i zaufania w IBM, oraz Gary Marcus, profesor New York University, jeden z moich ulubionych komentatorów rozwoju sztucznej inteligencji. Tematem spotkania była regulacja sztucznej inteligencji i zagrożenia związane z wchodzeniem AI z buta w nasze życie.

Było to niecodzienne spotkanie, które wysłało mocny sygnał zmiany w podejściu do niektórych firm technologicznych. W pewnym momencie senator Durbin ze zdziwieniem powiedział: „Myślę, że to, co dzieje się dzisiaj na tej sali, w rozprawach, jest historyczne. Nie pamiętam, kiedy ludzie reprezentujący duże korporacje lub podmioty z sektora prywatnego stanęli przed nami i błagali nas o ich uregulowanie”.

To prawda, nawet jeśli spojrzymy tylko na historię ostatnich 15 lat, to trudno znaleźć przesłuchiwanego z branży Big Tech, który był tak otwarcie za regulacją swojego sektora, jak Altman i Montgomery. Pierwszym, co rzuciło się w oczy na podkomisji w sprawie sztucznej inteligencji, była całkowita odmienność tego spotkania od przesłuchania Marka Zuckerberga, które odbyło się pięć lat temu. Wtedy senatorowie byli absolutnie zagubieni.

Rynek pracy, wynagrodzenie dla artystów, odpowiedzialność

Dobre przygotowanie senatorów przełożyło się na konkretną dyskusję o tematach, które są w absolutnym centrum debaty o wpływie sztucznej inteligencji na społeczeństwa. Pierwszą omawianą kwestią był wpływ AI na rynek pracy. Altman był tutaj najbardziej optymistyczny, mówiąc: „Wierzę, że jesteśmy jako ludzkość niezwykle kreatywni i znajdziemy zajęcia, używając nowych narzędzi sztucznej inteligencji”. Prezes OpenAI uciekał od narracji o powszechnym bezrobociu i przedstawił AI jako narzędzie do zmiany charakteru naszej pracy.

Drugim tematem, w którym nieco mocniej przyciśnięto Altmana, była kwestia kompensacji artystów, dziennikarzy i innych twórców za generowanie danych służących do trenowania algorytmów. Świetne pytanie o wynagrodzenie dla artystów, na dziełach których firma kształci algorytm, zadała senator Amy Klobuchar. Odpowiedź była nieprzekonywująca – OpenAI ma o tym rozmawiać i chciałoby robić to, co ma być proste, ze względu na rozbieżność opinii wśród artystów, jak te płatności miałyby wyglądać.

Trzecią i najszerzej omawianą kwestią była kwestia przejrzystości algorytmów, otwartości danych, na których są one trenowane, i wreszcie odpowiedzialności za podejmowane lub sugerowane przez sztuczną inteligencję decyzje. Nie była to jednak filozoficzna dyskusja o tym, czy to teoretycznie potrzebne, a raczej giełda potencjalnych rozwiązań.

Gary Marcus naciskał na otwarcie dostępu do danych służących do kształcenia oraz samych algorytmów, tak by niezależni badacze mogli testować wchodzące w powszechny użytek rozwiązania do granic możliwości. Pojawiły się pomysły niezależnych audytów lub licencjonowania, czyli dopuszczania produktów do powszechnego użycia, dopiero jeśli przejdą kontrolę. Wreszcie sporo czasu poświęcono rozmowie o stworzeniu amerykańskich i międzynarodowych instytucji odpowiadających za narzucanie standardów tworzenia sztucznej inteligencji.

Tutaj Altman, Marcus i Montgomery mówili otwarcie – chcemy regulacji. Byli za stworzeniem instytucji, które będą sprawować pieczę nad algorytmami. To Altman, a nie senatorowie, podsuwał pomysł o globalnej instytucji nadzorującej wykorzystanie sztucznej inteligencji, stworzonej na wzór Międzynarodowej Agencji Energii Atomowej.

Jednak też w tym segmencie profesor NYU wbił szpilkę szefowi OpenAI: „Jedną z rzeczy, które mnie najbardziej niepokoją w przypadku GPT-4, jest to, że nie wiemy, na czym jest szkolony. Myślę, że sam wie, ale reszta z nas nie. A to, na czym jest szkolony, ma konsekwencje dla zasadniczo uprzedzeń tego systemu”.

Marcus przytoczył swoje nowe badania pokazujące, że interakcja z chatbotem może wpływać na zmianę poglądów politycznych człowieka. Jakiekolwiek wypaczenia i uprzedzenia systemu mogą w sprzężeniu zwrotnym przełożyć się na użytkownika.

Na sali panowała pełna zgoda nie tylko odnośnie do regulacyjnego kierunku, ale nawet niektórych konkretnych pomysłów. Piękną, sielankową atmosferę psuły tylko okazyjne wypowiedzi zwracające uwagę, że OpenAI dzisiaj ani nie wynagradza wytwórców dzieł, ani nie umożliwia badaczom dostępu do danych i algorytmów. Jednak już samo – jak nazwał to senator Durbin – „błaganie” o regulację jest godną odnotowania zmianą w podejściu Doliny Krzemowej do Waszyngtonu.

Historyczny moment dla Big Techu

Do tej pory strategią wielkich firm (nie tylko technologicznych) była raczej narracja w duchu „drodzy senatorzy, regulacja jest potrzebna, ale akurat nie taka, jaką proponujecie”. Oczywiście mówili to w przypadku każdej propozycji regulacji, bo w ten sposób mogli się wyśliznąć od doprowadzenia procesu regulacyjnego do końca.

Dlaczego akurat Sam Altman i Christina Montgomery są tak otwarcie za regulacją sztucznej inteligencji? Część komentatorów stwierdziła, że chodzi im o wprowadzenie tych ograniczeń w imię interesu swoich firm, a nie dobra społeczeństw.

Prezes OpenAI – zgodnie z tą argumentacją – chce stworzyć regulacje, które będą skomplikowane i trudne do wprowadzenia, stanowiąc w ten sposób barierę dla konkurencji, w tym startupów, które również chciałyby rozwijać algorytmy.

Wejście do tej branży będzie wymagało zatrudnienia rzeszy kosztownych prawników, na których małe startupy albo niekoniecznie będzie stać, albo będą przez to o wiele wolniej wprowadzać swoje produkty na rynek. Ta argumentacja nie trzyma się kupy.

Oczywiście wspomniany powyżej efekt istnieje. Wielkie firmy, które od lat należą do liderów w wydatkach na lobbing w Stanach Zjednoczonych, chcą „współtworzyć” regulacje, które nie wyrządzą im krzywdy i będą stanowić barierę dla mniejszej konkurencji.

Jednak OpenAI nie należy do wielkich firm. Zatrudnia ponad 400 osób, co jest zupełnie nieporównywalne do Facebooka, w którym nawet po fali zwolnień pracowników jest 80 tysięcy. Twórcy ChatGPT nie mają też tak ogromnego kapitału, żeby wywalczyć w Waszyngtonie korzystną dla siebie regulację. Altman musi wiedzieć o tym, że jeśli wkracza na ścieżkę regulacyjną, to prawdopodobnie Google i Meta są w stanie wywalczyć sobie korzystniejsze dla siebie zapisy.

OpenAI to mała firma, która nie będzie w stanie zyskać korzyści z tych korporacyjnych, lobbingowych działań, bo jej na to nie stać i nie ma potrzebnej do tego skali lobbingu. Według mnie nie chodzi więc o wykoszenie małych startupów, ale o zdobycie nowej cyfrowej społecznej waluty oraz uderzenie w Big Tech.

Wielki gambit Altmana

Zanim przejdziemy do ukrytych zamiarów… Myślę, że część obaw szefa OpenAI jest po prostu szczera. Altman martwi się, w jaki sposób sztuczna inteligencja może zmienić naszą cywilizację. On sam też w ostatnich tygodniach trochę studzi nastroje co do tempa rozwoju wielkich algorytmów LLM. Mówi o tym, że po GPT-5 nie będzie kolejnego GPT, bo tak naprawdę możliwości obecnej technologii się wyczerpują.

Wskazuje, że potrzebne są kolejne przełomy w technice ich tworzenia. Jednak podnosząc oczy gdzieś ponad horyzont, prezes OpenAI zapewne widzi, że ta technologia będzie się rozwijać ze wszystkimi dobrymi i złymi tego konsekwencjami.

Z drugiej strony, Sam Altman nie jest aniołem, który spadł nam z nieba. To jest też cwany zawodnik. Parę lat temu wygrał z Elonem Muskiem taką biznesową przepychankę o to, kto będzie szefem OpenAI. Musk, który jest przecież znany z agresywnych przejęć, jak niepyszny odszedł z firmy i wycofał się z tej inwestycji.

Ale nie tylko o szczery strach przed postępem sztucznej inteligencji chodzi Altmanowi. Po publicznym spotkaniu podkomisji w Kongresie była też część kuluarowa. Według doniesień amerykańskich komentatorów w drugiej części Altman był mniej entuzjastyczny wobec regulacji.

Zresztą ten schemat się powtórzył – parę dni po wizycie w Warszawie, gdzie ze sceny również o regulacji sporo mówił, zagroził, że wycofa OpenAI z Europy, jeśli Unia Europejska będzie rygorystycznie interpretować AI Act (z czego ostatecznie się wycofał).

Czy to wszystko wyłącznie klasyczna zagrywka PR-owa? Altman i Montgomery mogli zdobyć względy publicznej sympatii jako ludzie dbający o cywilizację, jako biznes ze społeczną odpowiedzialnością. Akurat OpenAI i IBM mogą to robić, bo nie niosą na plecach ciężkiego bagażu przeszłości, błędów ery mediów społecznościowych, które mają na sobie chociażby Facebook lub Google. Tutaj właśnie leży klucz do odczytania – wydawałoby się – chaotycznego postępowania Altmana.

Koniec gry o uwagę, czas na grę o zaufanie?

Żeby to zrozumieć, musimy przypomnieć sobie, że najistotniejszą walutą cyfrowej gospodarki jest nasza uwaga, której zdobywanie przez ostatnie 15–20 lat było dominującym trendem. Nowoczesny product management internetowych aplikacji, portali i serwisów sprowadzał się do tego, żeby użytkownik był u nich jak najczęściej i jak najdłużej. Dzięki temu firmy mogły na nas zarabiać, serwując nam reklamy albo ewentualnie sprzedając nam subskrypcje.

Ten model, oparty na uwadze i reklamie, ma teraz bardzo złą prasę. Już nie jest tak modny, bo wiemy coraz więcej o szkodliwości nadużywania platform mediów społecznościowych, szczególnie wobec osób nastoletnich. W ostatnich miesiącach obserwuję, jak coraz większej liczbie osób zaczyna doskwierać to, ile czasu poświęcają na media społecznościowe oni sami lub ich dzieci. Zresztą firmy od lat już na to reagują – Apple i Google solidarnie wprowadziły narzędzia cyfrowego dobrostanu, żebyśmy mogli sami sobie próbować zmieniać korzystanie z technologii tak, aby nie uderzało ono w nasz interes.

Jeśli zdobywanie uwagi za wszelką cenę powoli odchodzi do lamusa, co pojawi się w miejscu tej pustki? Według mnie kluczową walutą przyszłej ery Internetu będzie zaufanie.

Po pierwsze, mamy do czynienia z rosnącym technosceptycyzmem, krytyką technologii za to, co wydarzyło się w poprzedniej dekadzie. To zresztą wielokrotnie wracało jak bumerang z ust senatorów senackiej podkomisji. Po drugie, na horyzoncie pojawia się nowy skok w rozwoju sztucznej inteligencji. Powstają inteligentne chatboty oparte na wielkich modelach LLM, co naturalnie generuje obawy o przyszłość. Czy sztuczna inteligencja zdominuje ludzkość? A może w codziennym użytkowaniu niezbyt dobrze dopracowane algorytmy wyrządzą nam szkodę?

Efekt widać w zaufaniu do technologii: podczas gdy kraje rozwijające się patrzą na AI z nadzieją na lepsze jutro, kraje rozwinięte widzą więcej wad w wejściu w życie sztucznej inteligencji – wskazują wyniki ankiety Ipsos przeprowadzona dla Banku Światowego. A to w rozwiniętych krajach znajdują się najbardziej dochodowi potencjalni klienci.

W tym klimacie najistotniejszą walutą, którą może posiadać firma, jest zaufanie do jej marki i produktów. Zresztą świetnie o tym mówiła Montgomery z IBM. Zapytana wprost, dlaczego amerykański gigant tak bardzo domaga się regulacji, odpowiedziała:

„Dla nas to kwestia zaufania do technologii. Zaufanie jest naszą licencją na działanie, o czym wspominałam w swoim wstępie. I tak, mocno w to wierzymy, od lat apelujemy o precyzyjną regulację sztucznej inteligencji. Uważamy więc, że sztuczna inteligencja powinna być regulowana zasadniczo w punkcie ryzyka i to jest punkt, w którym technologia spotyka się ze społeczeństwem”.

Zaufanie do firm tworzących algorytmy i do efektów działania tych algorytmów jest tą wielką grą, w którą wydają się grać Altman i Montgomery. Chcą odróżnić się od Zuckerbergów tego świata, pokazując, że „oni latami prosili, żeby zostawić ich w spokoju, rzucali hasłami «move fast and break things». My tacy nie jesteśmy, my chcemy współpracować i pomóc tworzyć regulację – oczywiście wszystko to dla dobra społeczeństwa.”

Chęć regulacji jest więc wycelowana przede wszystkim w pozyskanie społecznego zaufania. Jednak jeśli już jest za tym jakiś drugorzędny cel, to nie jest nim zablokowanie wzrostu małych startupów, ale przyblokowanie gigantów i odróżnienie się od tych technologicznych „chłopców do obwiniania”. Big Tech ma zasoby, żeby nadrobić dystans do OpenAI, ale równocześnie ma problem z zaufaniem, którego nie ma OpenAI, nowy gracz na wielkim globalnym rynku cyfrowym.

Zostawiając już jednak perspektywę firm i miliarderów, a patrząc z punktu widzenia społeczeństwa – powinniśmy się cieszyć, jeśli faktycznie zaufanie zastąpiłoby uwagę w roli najważniejszego kapitału wielkich firm technologicznych. Po pierwsze, dlatego że nie będą tak agresywnie blokować regulacji. Po drugie, dlatego że będziemy w stanie wymóc na technologii, aby bardziej odpowiedzialnie podchodziła do naszego życia.

Artykuł ukazał się również na substacku autora: https://paszczaotechnologiach.substack.com/