Jak będą wyglądały reklamy w ChatcieGPT? Niewykluczone, że ich nie zauważymy
Sektor AI jest napędzany wizją rewolucji i pompowany inwestycjami rzędu setek miliardów dolarów. Problem w tym, że dla inwestorów szybki i pewny zwrot z tych pieniędzy przestał być tak oczywisty. OpenAI będzie musiało prędzej czy później sięgnąć po reklamy, co będzie się wiązało z zagrożeniami.
Panie doktorze, czytaliśmy niedawno na łamach „Dziennika Gazety Prawnej” o tym, że w Stanach Zjednoczonych testuje się wprowadzanie reklam w ChatcieGPT. Jak pisze gazeta, w przyszłości to związanie ma być stosowane także w innych krajach. Skąd taki pomysł? Z jakiego powodu OpenAI decyduje się na taki ruch?
Nie da się mówić o reklamach w systemach takich jak ChatGPT czy innych modelach językowych bez sięgnięcia do fundamentu, czyli pieniędzy.
Sektor AI jest napędzany wizją rewolucji i pompowany inwestycjami rzędu dziesiątek, a nawet setek miliardów dolarów. Problem w tym, że dla inwestorów szybki i pewny zwrot z tych pieniędzy przestał być tak oczywisty.
Dlaczego?
Najlepszym przykładem tej luki finansowej jest OpenAI. Koszty budowy i codziennego utrzymania zaawansowanych modeli językowych są po prostu astronomiczne. Składają się na nie potężne centra danych, tysiące rzadkich i niezwykle drogich dedykowanych dla AI procesorów, gigantyczne zużycie energii elektrycznej oraz utrzymanie zespołów najlepszych programistów na świecie.
W tradycyjnym internecie wyszukanie hasła w Google kosztuje firmę ułamki centów. W przypadku sztucznej inteligencji, każda nasza rozmowa zmusza serwery do wykonywania potężnych, bardzo drogich obliczeń w czasie rzeczywistym.
Tymczasem obecne źródła utrzymania firm AI po prostu nie nadążają za tempem spalania gotówki. Przychody z subskrypcji – nawet jeśli miliony użytkowników płacą 20 dolarów miesięcznie za wersję Plus, a część sięga po plany Pro za 200 dolarów – z trudem równoważą wydatki na infrastrukturę.
O ile giganci tacy jak Google czy Meta posiadają potężne zaplecze finansowe w postaci własnych, niesamowicie dochodowych ekosystemów reklamowych, które mogą dotować rozwój sztucznej inteligencji, o tyle OpenAI jest w dużo trudniejszej sytuacji.
Zatem potrzebne są reklamy?
Tak, firma musi znaleźć sposób na monetyzację. A największa wartość jest w danych. OpenAI będzie musiało prędzej czy później sięgnąć po najbardziej sprawdzone i lukratywne źródło finansowania w historii internetu: monetyzację naszych danych i reklamy.
Jeśli kiedyś wydawało nam się, że to Google jest skarbnicą naszej prywatności, bo zna nasze wyszukiwania. W porównaniu z tym, co dziś użytkownicy powierzają systemom AI, była to wiedza powierzchowna.
Gdzie jest różnica?
Wyszukiwarka najczęściej widzi hasła. Systemy AI widzą coś więcej: kontekst, motywacje, emocje i problemy, które opisujemy własnymi słowami.
To nie są pojedyncze zapytania, tylko ciągi rozmów, które zebrane razem mogą tworzyć niezwykle precyzyjny profil naszej osoby: nie tylko „co ktoś chce kupić”, ale też dlaczego, w jakim stanie, z jakimi ograniczeniami i podatnościami. Dla reklamodawców to zasób o ogromnej wartości.
Do czatów wpisujemy najintymniejsze pytania: o zdrowie, relacje, zdrady, lęki, choroby, decyzje zawodowe, problemy psychiczne. To są tysiące szczegółowych pytań, które razem tworzą niezwykle precyzyjny profil psychologiczny. Dla reklamodawców to bezcenny zasób.
W reklamie nie płaci się dziś przede wszystkim za miejsce na stronie, tylko za dostęp do człowieka o określonych cechach, czyli takiego, który z dużym prawdopodobieństwem jest tu i teraz podatny na dany przekaz. Reklamodawca kupuje więc możliwość dotarcia do precyzyjnie wyselekcjonowanej grupy odbiorców: określonej wiekiem, potrzebami, nastawieniem, a czasem także wrażliwościami.
I nie musi to oznaczać, że OpenAI będzie sprzedawać reklamodawcom surowe dane osobowe. Bardziej prawdopodobny jest model znany z ekosystemów reklamowych: platforma staje się pośrednikiem dostępu do odbiorców, czyli podmiotem, który na podstawie rozmów potrafi zbudować segmenty i pozwolić reklamodawcom kupić dotarcie do nich, bez ujawniania danych wprost. Innymi słowy: nie sprzedaje danych, ale sprzedaje możliwość ultra precyzyjnego targetowania.
Czy wiemy, w jaki sposób OpenAI będzie te reklamy wyświetlał?
Mamy już wstępne propozycje dotyczące tego, jak mogłoby to wyglądać, na przykład niewielkie okienko pod odpowiedzią z wyraźnym oznaczeniem, że dana treść jest reklamą. To jednak tylko jedna z możliwości.
Pamiętajmy o presji inwestorów, którzy włożyli w ten biznes setki miliardów dolarów i będą oczekiwać zwrotu z inwestycji. Ta presja z pewnością będzie przesuwać granice tego, co uznajemy dziś za dopuszczalne.
Historia pokazuje, że tak właśnie bywało. Google również zaczynał bardzo ostrożnie, a z czasem zakres i forma reklam stopniowo się rozszerzały. Pytanie brzmi: czy w przypadku systemów AI reklamodawcy nie będą mieli wpływu bezpośrednio na treść odpowiedzi?
Wyobraźmy sobie prostą sytuację. Ktoś pyta: „Chcę zadbać o siebie i schudnąć. Co powinienem zrobić?”. Odpowiedź jest przewidywalna: dieta, ruch, regularne treningi. Ale w pewnym momencie, niemal mimochodem, w tej samej odpowiedzi pojawia się sugestia: „Biorąc pod uwagę Twoją lokalizację, dobrym wyborem będzie siłownia X – właśnie trwa tam promocja i ma świetne oceny”.
Wszystko brzmi jak życzliwa, neutralna rada. Ale co, jeśli nie będzie wyraźnej informacji, że jest to treść sponsorowana? Może nie być żadnego oznaczenia, że dana siłownia zapłaciła za to, by została polecona.
Rekomendacja może być wpleciona w odpowiedź w tak naturalny sposób, że użytkownik nawet nie zauważy komercyjnego charakteru sugestii, i co najważniejsze odpowiedź, jaką dostaniemy, będzie zindywidualizowana do konkretnej osoby na podstawie jej wcześniejszych zapytań do modelu.
Reklamodawcom przecież nie zależy na tym, aby komunikat był wyraźnie oznaczony jako reklama. Gdy widzimy etykietę „sponsorowane”, włącza nam się czujność. Jeśli jednak przekaz zostanie wpleciony w neutralną odpowiedź ekspercką, może być znacznie skuteczniejszy – i przez to znacznie trudniejszy do rozpoznania.
Jakie zagrożenia mogą się wiązać z takim sposobem wyświetlania reklam użytkownikom?
Jeśli miałbym spekulować, opierając się na obecnej trajektorii rozwoju technologii, musimy natychmiast wyjść poza myślenie o tradycyjnej reklamie. To, o czym mówimy w kontekście zaawansowanej sztucznej inteligencji, nie sprowadza się do tego, że ktoś wmówi nam niepotrzebny kredyt czy kolejną parę butów. W skrajnym scenariuszu mówimy o zautomatyzowanej, masowej inżynierii społecznej, czyli o wpływaniu na postawy i decyzje ludzi na skalę, jakiej dotąd nie dało się technicznie zrealizować.
W przypadku sprawy Cambridge Analytica bazowano na danych zastanych, można powiedzieć martwych. Analizowano to, co użytkownicy zrobili wcześniej, w co kliknęli, co polubili, jak zachowywali się w przeszłości. Dzisiejsze modele sztucznej inteligencji mogą działać w czasie rzeczywistym, wchodząc z użytkownikiem w interakcję, a to tworzy zupełnie nową klasę ryzyk. Widzę tu trzy szczególnie groźne kierunki.
Opiszmy je.
Po pierwsze, hiperpersonalizacja manipulacji. Modele agentowe zyskują zdolność odczytywania nie tylko naszych poglądów, lecz także bieżących stanów emocjonalnych i podatności. Jeśli z rozmów wynika, że przechodzimy kryzys psychiczny, czujemy się samotni, boimy się utraty pracy, przeżywamy lęk związany z inflacją, zdrowiem czy konfliktem zbrojnym, algorytm może to wykorzystać.
Zamiast statycznej reklamy pojawia się syntetyczny przekaz, generowany na żywo i dopasowany do jednej osoby, w jednej chwili, pod jeden konkretny lęk. To jest jakościowa zmiana, bo siła perswazji rośnie wtedy, gdy trafia dokładnie w moment słabości, a nie tylko w ogólną kategorię odbiorców.
Po drugie, autonomia i skala wymykające się kontroli. W 2016 roku operacje wpływu wymagały zespołów analityków, copywriterów i strategów. Dziś, a tym bardziej jutro, modele agentowe mogą realizować takie zadania w dużej mierze autonomicznie.
Otrzymują cel, na przykład osłabienie poparcie dla kandydata X w określonej grupie i są w stanie wytwarzać oraz dystrybuować ogromne ilości treści perswazyjnych, symulując poparcie, oburzenie albo rzekomą debatę społeczną na masową skalę. Najbardziej niebezpieczne jest coś innego.
Co ma pan na myśli?
Przy dostępie do danych o poglądach, emocjach i wrażliwościach użytkownika, te systemy mogłyby wchodzić w bezpośrednią interakcję z realnymi osobami. Nie tylko jako ogólna reklama, lecz jako rozmowa, wiadomości w komunikatorach, komentarze, korespondencja, a nawet stały kontakt przypominający relację doradcy czy znajomego.
Taki „agent” może stopniowo dopasowywać język i argumenty do przekonań odbiorcy, wykorzystywać jego uprzedzenia, podsycać poczucie zagrożenia, wzmacniać polaryzację i przesuwać granice akceptowalnych poglądów i to wszystko na podstawie naszych wcześniejszych zapytań.
W efekcie, mamy perswazję jeden do jednego, prowadzoną automatycznie, która może realnie wpływać na wybory dokonywane przy urnie, a jednocześnie jest bardzo trudna do wykrycia, bo nie ma jednej, publicznej wersji przekazu, którą można łatwo zdemaskować.
Po trzecie, erozja wspólnej rzeczywistości. Jeśli każdy z nas będzie otrzymywał od cyfrowych asystentów obraz świata dopasowany do własnych uprzedzeń, lęków i profilu psychologicznego, zanika wspólna płaszczyzna porozumienia.
Bańki informacyjne przestają być ubocznym efektem algorytmów, a stają się precyzyjnie projektowanym środowiskiem poznawczym, które świetnie imituje prawdę, ale jest zbudowane pod konkretny cel. W takim świecie społeczeństwo traci zdolność uzgadniania faktów, a asymetria sił między pojedynczym obywatelem a korporacją lub państwem dysponującym taką technologią staje się przytłaczająca.
Czy prawo i regulacje są w związku z tym bezradne? Istnieją akty prawne, które mogłyby nas ochronić przed taką polityką cyfrowych gigantów?
Nie są bezradne, ale często działają wolniej niż technologia, a największym problemem jest egzekucja. Pojawia się tu kolejny, bardzo trudny poziom asymetrii: gigantyczna dysproporcja sił między globalną korporacją technologiczną a pojedynczym państwem narodowym.
Spójrzmy realistycznie. Kraj taki jak Polska ma w pojedynkę ograniczone możliwości wywierania skutecznego, natychmiastowego nacisku na platformy z Doliny Krzemowej.
Nawet jeśli służby i instytucje publiczne rozpoznają, że na naszym rynku toczy się zaawansowana, zautomatyzowana operacja wpływu, państwo nie ma prostego zestawu technicznych i prawnych przycisków, które da się wcisnąć tu i teraz, żeby zatrzymać ją w kilka godzin. Jurysdykcje są rozproszone, łańcuchy dostaw i infrastruktura globalne, a spory i tak kończą się wieloletnimi postępowaniami. Najbardziej realną przeciwwagą pozostają twarde regulacje na szczeblu Unii Europejskiej.
Pierwsze to Akt o usługach cyfrowych (DSA), który daje urzędnikom bat na największe platformy w postaci kar sięgających nawet 6 proc. ich rocznego, globalnego obrotu. Drugie to unijny AI Act, który buduje zupełnie nowe ramy odpowiedzialności dla systemów sztucznej inteligencji wysokiego ryzyka i modeli ogólnego przeznaczenia (tzw. GPAI).
Harmonogram wdrażania tych rygorystycznych obowiązków i nadzoru właśnie staje się naszą codziennością. Bądźmy szczerzy: to nie dobra wola firm, ale widmo realnych, wielomiliardowych sankcji i ryzyko wyrzucenia z lukratywnego unijnego rynku są dziś najsilniejszym bodźcem, który wymusza na technologicznych gigantach jakąkolwiek współpracę.
Jednocześnie nie idealizujmy. Postępowania antymonopolowe i duże kary finansowe bywają wkalkulowane w model biznesowy. Nawet jeśli po latach zapada decyzja, w międzyczasie firma potrafi wygenerować zyski wielokrotnie przewyższające potencjalną sankcję. Egzekwowanie prawa bywa więc spóźnione, a korekta szkód społecznych często jest trudniejsza niż samo ukaranie sprawcy.
Ostatecznie wiele zależy też od użytkowników i od ekonomii usług cyfrowych. Część osób przyjmuje postawę, że nie ma nic do ukrycia i wybiera wygodę ponad ostrożność. Jeśli większość użytkowników nie będzie skłonna płacić za prywatność w modelu abonamentowym, firmy będą szukały innych źródeł finansowania.
Wtedy reklama, profilowanie i monetyzacja uwagi stają się najbardziej naturalnym kierunkiem. Istnieją regulacje, szczególnie na poziomie Unii Europejskiej. Problem polega jednak na tym, że mamy do czynienia z globalnymi podmiotami prawa amerykańskiego. Postępowania antymonopolowe czy wysokie kary finansowe często są wkalkulowane w model biznesowy wielkich korporacji.
Nawet jeśli po latach zostanie nałożona kara, w międzyczasie firma może wygenerować znacznie większe zyski. Ostatecznie wiele zależy od użytkowników. Część osób przyjmuje postawę: „Nie mam nic do ukrycia”. Przyzwyczailiśmy się do wygody cyfrowych narzędzi.
Rezygnacja z nich jest mało prawdopodobna. Jeśli użytkownicy nie będą skłonni płacić wysokich abonamentów, firmy będą szukały innych źródeł finansowania, a reklama jest najbardziej naturalnym kierunkiem.
Publikacja nie została sfinansowana ze środków grantu któregokolwiek ministerstwa w ramach jakiegokolwiek konkursu. Powstała dzięki Darczyńcom Klubu Jagiellońskiego, którym jesteśmy wdzięczni za możliwość działania.
Dlatego dzielimy się tym dziełem otwarcie. Ten utwór (z wyłączeniem grafik) jest udostępniony na licencji Creative Commons Uznanie Autorstwa 4.0 Międzynarodowe. Zachęcamy do jego przedruku i wykorzystania. Prosimy jednak o podanie linku do naszej strony.
Adam Behan
Gabriel Czyżewski
Ignacy Dylak


