Witamy na stronie Klubu Jagiellońskiego. Jesteśmy niepartyjnym, chadeckim środowiskiem politycznym, które szuka rozwiązań ustrojowych, gospodarczych i społecznych służących integralnemu rozwojowi człowieka. Portal klubjagiellonski.pl rozwija ideę Nowej Chadecji, której filarami są: republikanizm, konserwatyzm, katolicka nauka społeczna.

Zachęcamy do regularnych odwiedzin naszej strony. Informujemy, że korzystamy z cookies.

Czy granice sztucznej inteligencji wyznaczą nowe granice demokracji?

Czy granice sztucznej inteligencji wyznaczą nowe granice demokracji? Grafikę wykonała Julia Tworogowska

Rozmawiają z użytkownikiem, tworzą piosenki, piszą wiersze i tworzą grafiki. Dall-E i Chat GPT, czyli generatywna sztuczna inteligencja, oferują ogromną paletę zastosowań i podbijają internet szybciej niż Facebook czy TikTok. Nie możemy jednak zapomnieć o zagrożeniach, jakie niosą. Jeśli na kanwie dyskusji o generatywnej sztucznej inteligencji uznamy charakter jej wytworów za tożsamy z ludzką twórczością i zaakceptujemy, że może ona korzystać z wszelkich jej przejawów bez wyjaśniania, w jaki sposób to czyni i z jakich źródeł korzysta, wówczas te same argumenty zostaną użyte w przyszłości przeciwko instytucjom demokratycznym. 

Nie pierwsze takie wyzwanie

Równo 20 lat temu Google uruchomił usługę Google Books – wyszukiwarkę treści w książkach drukowanych z możliwością podglądu ich treści. Realizowane zamierzenie zeskanowania wszystkich istniejących książek było i pozostaje nadal największym w dziejach projektem digitalizacji dóbr kultury. W 2019 r. Google informował o zeskanowaniu 40 mln tytułów z szacowanej liczby 130 mln obejmującej cały księgozbiór podlegający digitalizacji.

Niewątpliwie na tempo digitalizacji wpłynęła rzeczywistość. Po pierwsze, trzeba wziąć pod uwagę malejącą ekonomiczną wartość tego procesu. Nie chodziło przecież wyłącznie o zachowanie dziedzictwa kulturowego, ale o dostarczenie podstawowemu produktowi Google – jego wyszukiwarce – potężnego zasobu kontekstowego. Wystarczająco bogata próbka statystyczna, generowanie przez ten czas niezliczonych treści elektronicznych przez użytkowników i technologiczny rozwój w zakresie uczenia maszynowego pozwoliły na ograniczenie projektu w zasadzie wyłącznie do narzędzia archiwistów i bibliotekarzy.

Po drugie, Google przez kolejne lata pozostawał stroną sporów sądowych, które wytaczane były przez wydawców i związki pisarzy. Działalność giganta wpłynęła też bezpośrednio na zmiany w prawie europejskim, które umożliwiło wykorzystywanie dzieł osieroconych, czyli takich, które jeszcze są chronione prawem autorskim, jednak niemożliwe jest zidentyfikowanie lub dotarcie do ich autora. Jednocześnie wprowadzono powyższą kategorię utworów do prawodawstwa krajów członkowskich.

Najdłuższy spór Google w sprawie Authors Guild w Stanach Zjednoczonych trwał 11 lat i zakończył się sukcesem tego pierwszego. Co prawda, w początkowym okresie strony zawarły ugodę i Google wypłacił umówioną kwotę odszkodowania dla twórców, których dzieła zostały wykorzystane, ale zasadniczy spór trwał do 2016 r. Wówczas Sąd Najwyższy zdecydował, że skanowanie książek przez Google mieściło się w kategorii dozwolonego użytku (fair use).

Kontynuowanie sporu było kluczowe dla internetowego giganta nie tylko z uwagi na usługę, której dotyczyły działania i która była już w chwili zakończenia owego sporu projektem pobocznym, ale przede wszystkim dlatego, że decydowało o samej istocie modelu biznesowego Big Tech.

Dall-E i Chat GPT zrewolucjonizują internet?

W 2022 r. publiczną premierę miały 2 usługi cyfrowe, które zelektryzowały swoimi możliwościami media, ekspertów i ich użytkowników. Dall-E i Chat GPT, czyli generatywna sztuczna inteligencja, prezentowały nowe, tj. wygenerowane na potrzeby każdorazowego zapytania, odpowiedzi. Pierwszy serwis tworzył grafiki, drugi tekst. Wyniki zapytań są unikalne w tym sensie, że nie istniały w tej formie przed wpisaniem polecenia.

Czy jednak nazywanie tego rodzaju usługi generatywną nie stanowi ucieczki do przodu jej dostawcy, aby uniknąć zarzutów o naruszanie praw autorskich, z jakimi spotkał się Google Books 20 lat temu? Żeby nauczyć Chat GPT umiejętnego i w większości przypadków zgodnego z prawdą odpowiadania na zadawane pytania, konieczne było wykorzystanie 570 GB danych tekstowych. To 300 mld słów, których ktoś jest autorem.

Chat GPT rozwijał się także dzięki miliardowej inwestycji Microsoftu – właściciela i dewelopera tych usług – w Open AI. Gigant już zapowiada, że wykorzysta technologię do konkurowania z firmą Google i zaimplementuje ją do swoich produktów. Generowanie odpowiedzi na wprost zadawane pytania może być nowym sposobem korzystania z internetu. 

Google zrewolucjonizował swoją wyszukiwarką korzystanie z zasobów internetu. Sieć została właściwie sprowadzona do pierwszej strony prezentowanych wyników, z których dzisiaj 1/3 często stanowią produkty Google albo takie, w których sprzedaży pośredniczy. Prawie zapomnieliśmy, że można wchodzić na strony internetowe dzięki wpisaniu adresu w wyszukiwarce.

„Internet zniknie. Będzie już tyle adresów IP, […] tak wiele urządzeń, czujników, rzeczy do noszenia, rzeczy do interakcji, że już nawet nie da się go wyczuć. Internet będzie nieustannie częścią twojego istnienia” – tak w 2015 r. na Światowym Forum Gospodarczym w Davos stwierdził Erich Schmidt, ówczesny prezes Google.

Microsoft ze swoją nową technologią może spowodować, że w ogóle zapomnimy o tym, że istnieje coś takiego, jak sieć www, rozumiana jako usystematyzowany zbiór informacji. Ich źródła zostaną ciekawostką dla dociekliwych, drugą stroną wyszukiwania Google, do której zagląda nie więcej niż 20% użytkowników.

Algorytmy zastąpią twórców? 

Wbrew swojej nazwie generatywna sztuczna inteligencja nie potrafi wytwarzać czegoś z niczego. Nie potrafi posługiwać się (jeszcze?) pojęciami abstrakcyjnymi w taki sam sposób, jak robi to człowiek. Może za to, wykorzystując kalki składni, gramatyki, konotacji i szeregu innych zmiennych możliwych do zapisania językiem matematyki, odtworzyć coś podobnego. Żeby wygenerować jakąkolwiek odpowiedź, musi przetworzyć określoną liczbę istniejących treści, które najczęściej objęte są prawami autorskimi.

Oczywistym argumentem staje się przyrównanie tego procesu do twórczości ludzi. Każdy z autorów funkcjonuje w konkretnym kontekście kulturowym. Aby stworzyć swoje dzieło, musi wcześniej przeczytać sporo książek, obejrzeć trochę filmów, porozmawiać z innymi ludźmi. Wszystko to w sposób nieuświadomiony przetwarza w głowie, czego efektem jest dzieło mające twórczy charakter. 

To właśnie twórczy charakter wyniku decyduje o tym, czy możemy mówić o ochronie prawa autorskiego. Jeśli utwór przekroczy pewną granicę podobieństwa do innego, staje się inspiracją, w tym np. parodią. Utwór może mieć też charakter zależny, jak np. tłumaczenie, przeróbka, remiks. Ostatni etap inspiracji stanowią cytat (fragment z oznaczonym autorstwem) albo plagiat (dłuższy fragment bez oznaczonego autorstwa). Jednak tylko pierwsza granica nie pociąga za sobą obowiązków – czy to oznaczenia autora utworu źródłowego, czy zapłaty mu wynagrodzenia, czy wręcz zgody na takie wykorzystanie utworu.

Czym jest wynik pracy algorytmu generatywnej sztucznej inteligencji? Czy tylko inspiracją? Czy może jednak przeróbką i remiksem wielu treści? Wreszcie, czy w ogóle możemy mówić o inspirowaniu AI? Można wpaść w pułapkę myślenia o generatywnej sztucznej inteligencji.

Jeśli uznajemy człowieka za coś więcej niż superkomputer – na gruncie humanistycznym, religijnym, biologicznym lub społecznym – stosowanie instytucji prawa przewidzianego dla ludzi w stosunku do wytworów technologii jest błędem. Nie oznacza to, że wynik namysłu nad zasadami, jakie powinny obowiązywać w takich przypadkach, będzie w każdej sytuacji inny. Na pewno nie powinien być automatyczny.

Konieczność transparentności

Niezależnie od naszych poglądów na powyższe kwestie, w najbliższych latach czeka nas debata publiczna nad uregulowaniem generatywnej sztucznej inteligencji. Stawka tych rozstrzygnięć jest dużo większa niż interes pisarzy i wydawców w sprawie Google Books, chociaż to twórcy po raz kolejny będą musieli (i chcieli) stanąć na pierwszej linii, co się zresztą już dzieje (to np. sprawa Getty Images ca. Stability AI).

Analogii jest więcej. Tak jak Google w pierwszych latach swojej działalności wprowadził swój kodeks postępowania wezwaniem: „Don’t be evil” (pol. Nie czyń zła; w 2018 r. cały początkowy fragment kodeksu został usunięty, choć sama fraza pojawia się w końcowych akapitach w innym kontekście), tak Open AI w swoim manifeście odwołuje się do służenia całej ludzkości. To powinno wzbudzać niepokój. Takie ambicje mają to do siebie, że lubią się wynaturzać.

W dalszej części manifestu Open AI opisuje 4 wartości, które mają mu przyświecać: szeroki podział korzyści, długoterminowe bezpieczeństwo, techniczne przywództwo i zorientowanie na współpracę. Szczególnie pierwsza wartość powinna spowodować w przemyśle kreatywnym przynajmniej drżenie dłoni.

Dlaczego? Ponieważ nie ma tam oczywiście słowa o poszanowaniu istniejących praw autorskich i wypłacie godziwego wynagrodzenia ich dysponentom, a przyjęta optyka dzielenia się korzyściami z całą ludzkością z pewnością stoi w kontrze do ugruntowanego w zachodniej cywilizacji poszanowania własności prywatnej.

Zresztą sama organizacja powstała w 2015 r. jako non-profit, a 4 lata później zmieniła statut na for-profit. Stała się komercyjnym podmiotem z lukratywnym kontraktem z Microsoftem. Stawka tym razem jest większa, bo zdefiniuje na kolejne dziesięciolecia to, jak mogą funkcjonować algorytmy i jak wiele możemy oczekiwać informacji o ich działaniu. To sfera dotykająca wszystkich, a nie tylko grup zarabiających na pracy twórczej i beneficjentów praw własności intelektualnej.

Strata tych ostatnich jest bardziej dotkliwa, przynajmniej w krótkim terminie, stąd jako pierwsi wytoczą oni działa przeciwko takim rozwiązaniom. Spór na tej linii jest także na rękę big techom. Umożliwia ona sytuowanie się na tych samych pozycjach jak dotychczas, tj. jako forpoczta nowoczesności, dostawca wspaniałych i „darmowych” usług w postaci organizacji zbiorowego zarządzania prawami autorskimi. Ograniczenia lub zablokowania takich działań chcą pazerni twórcy i ich niekompetentni przedstawiciele.

Pozycja, którą zajmują dzisiaj firmy technologiczne wobec zgłaszanych roszczeń, sprowadza się do następującej odpowiedzi: „Nie wiemy, jak działa nasz produkt, ale wszystko, co wytwarza, jest nasze”. 

Oczekiwanym minimum, nawet jeśli konkretne uźródłowienie wyników AI jest zbyt trudne (w co trudno uwierzyć, szczególnie w przypadku danych faktograficznych), jest spis bibliograficzny. Każdy, a w szczególności autorzy i właściciele treści, powinien mieć prawo do wiedzy o źródłach, na podstawie których generowane są treści sztucznej inteligencji, np. w celu ich weryfikacji i oceny rzetelności. Oczywiście autorzy będą oczekiwali wynagrodzenia, ponieważ ich dzieła służą bezpośrednio generowaniu przychodów dla właściciela algorytmu.

Zagrożenie dla demokracji?

20 lat po starcie Google Books jesteśmy bogatsi o wiedzę na temat modelu biznesowego big techów, który Shoshana Zuboff nazwała „kapitalizmem inwigilacji”. Przez nieustanne przetwarzanie dostępnych danych, w szczególności „okruchów” pozostawianych przez użytkowników, można dokonać predykcji przyszłych decyzji (co najmniej zakupowych), a wręcz te decyzje wywołać.

Nikt rozsądny nie ma już dzisiaj wątpliwości, że żadna z usług elektronicznych nie jest „darmowa”, nawet jeśli nie wymaga podania numeru karty kredytowej. Tak też zaimplementowanie usługi Chat GPT do wyszukiwarki Microsoftu jest zabiegiem czysto merkantylnym i prowadzącym wprost do zwiększenia przychodów.

Argumenty podnoszone w debacie politycznej i prawnej wokół Google Books zdefiniowały nie tylko otoczenie polityczne i prawne poprzez wprowadzenie w skali świata przepisów regulujących status quo, ale także nasze rozumienie i akceptację faktycznych zasad działania usług cyfrowych ingerujących w niespotykany dotychczas sposób w naszą prywatność. Jak zauważa dr Paweł Litwiński, skutecznie przesunięto w świadomości większości z nas granicę tego, co uważamy za sferę prywatną.

Jeśli zatem na kanwie dyskusji o generatywnej sztucznej inteligencji uznamy charakter jej wytworów za tożsamy z ludzką twórczością i zaakceptujemy jednocześnie, że może ona korzystać z wszelkich jej przejawów bez wyjaśniania, w jaki sposób to czyni i z jakich źródeł korzysta, wówczas te same argumenty zostaną użyte w przyszłości przeciwko społeczeństwu obywatelskiemu i instytucjom demokratycznym. 

Skoro „nie da się” wyjaśnić algorytmu i wskazać źródeł, na podstawie których AI generuje swój wynik, nawet gdyby pozostawał on zgodny z prawdą lub piękny, to dlaczego ktokolwiek miałby oczekiwać wyjaśnienia swojego social score? Już teraz decyduje on w Chinach, czy można wyjechać za granicę, zaciągnąć kredyt lub skorzystać z komunikacji publicznej.

I dalej, skoro nikt nie może pytać o źródła decyzji, to czemu nie wpłynąć na nie tak, by osiągać korzyści, jeśli ma się taką możliwość?

Publikacja nie została sfinansowana ze środków grantu któregokolwiek ministerstwa w ramach jakiegokolwiek konkursu. Powstała dzięki Darczyńcom Klubu Jagiellońskiego, którym jesteśmy wdzięczni za możliwość działania.

Dlatego dzielimy się tym dziełem otwarcie. Ten utwór (z wyłączeniem grafik) jest udostępniony na licencji Creative Commons Uznanie Autorstwa 4.0 Międzynarodowe. Zachęcamy do jego przedruku i wykorzystania. Prosimy jednak o podanie linku do naszej strony.