Czy chatbot może kłamać?
W skrócie
Do tej pory komunikowaliśmy się z komputerami za pomocą klawiatury i myszki, teraz będziemy z nimi rozmawiać. Internet pozwalał nam zdobyć informacje – teraz algorytmy będą starały się podawać nam wiedzę. Chyba, że akurat postanowią nas perfidnie oszukać i wcisną nam wyrób wiedzopodobny. Społeczna kontrola sztucznej inteligencji jest potrzebna, ale to nie znaczy, że to nowe narzędzie przyniesie nam więcej szkód niż pożytku.
W oryginalnej wersji artykuł został opublikowany na łamach serwisu Rzeczpospolita. Tytuł, lead, śródtytuły oraz wyimy pochodzą od redakcji portalu Klubu Jagiellońskiego.
ChatGPT to Google do kwadratu?
Tym, czym prosta strona internetowa z kolorowym napisem „Google” była dla początku XXI wieku, tym narzędzia, takie jak ChatGPT, staną się dla kolejnych dekad. ChatGPT różni się od Google w dwóch wymiarach.
Po pierwsze, można z nim płynnie rozmawiać w okienku czatu. W Google modyfikowaliśmy oryginalne zapytanie, chcąc uzyskać bardziej szczegółową odpowiedź. W nowym interfejsie po prostu zadajemy kolejne pytanie, jakbyśmy rozmawiali z człowiekiem.
Po drugie, ChatGPT dostarcza nie tylko informacji, ale też wiedzy. Potrafi syntetyzować informację i przedstawić nam jej podsumowanie. Wyciągnąć najważniejsze „za i przeciw”, dotyczące interesującego nas tematu. Poprawić nas tam, gdzie uznaje, że się mylimy.
ChatGPT potrafił (zanim został nauczony, że nie powinien) napisać wyimaginowaną rapową bitwę pomiędzy papieżem Janem Pawłem II a Franciszkiem. Oparł się o różnice pomiędzy dwoma papieżami – pokazując Jana Pawła II jako pielgrzyma, a Franciszka jako zwolennika ekonomicznej równości i obrońcy „globalnego południa”.
Efektem była bitwa na rymy, bez niegodnych papieży przekleństw.
Wiedza zamiast informacji
To jest ten moment, w którym większość z nas zaczyna patrzeć na swoje codzienne zadania w pracy i myśleć: „cholera, coś takiego mogłoby mnie zastąpić”. Wątpię, że tak się stanie. Boty są na razie jedynie narzędziami, które pełnię możliwości mogą pokazać w ciągłej interakcji z człowiekiem. Jednak umiejętność prowadzenia interakcji z nimi wkrótce stanie się tak istotna, jak w latach 90. ważne były umiejętności obsługi pakietu Office i szybkiego pisania na klawiaturze.
Czy to koniec edukacji? Żyjemy w świecie, w którym pozyskanie informacji jest już banalnie proste. Tym większe znaczenie ma umiejętność zamiany informacji w wiedzę. Sprawdzanie tej umiejętności wymaga innego rodzaju zadań, większej interakcji pomiędzy uczniami a nauczycielami, opartej o projekty współpracy, w których nie wystarczy szybko sprawdzić jakieś rozwiązania w ChatGPT, ale trzeba wykorzystać je kreatywnie do rozwiązania problemu.
Księgowy będzie spędzał coraz mniej czasu na przepisywaniu danych z faktur i przeklikiwaniu w programie odpowiednich kategorii budżetowych – coraz częściej będzie naprowadzał algorytm na odpowiednią klasyfikację wydatków i weryfikował, czy zrobił to odpowiednio.
Wyimaginowane artykuły nie gorsze od prawdziwych
Zanim jednak zanurzymy się w fantastycznej perspektywie rozmawiających z nami komputerów, które rozwiązują problem najnudniejszych zadań w pracy, musimy zmierzyć się z ograniczeniami ChatGPT i podobnych algorytmów.
W ubiegłym roku ukazała się analiza czterech autorek „O niebezpieczeństwach stochastycznych papug”. To piękne określenie na obecne algorytmy sztucznej inteligencji. Na razie bowiem to statystyczne narzędzia, które papugują ludzkie wypowiedzi, na których zostały wykształcone. Problem w tym, że dokładnie tak jak papugi powtarzają dźwięk bez rozumienia znaczenia, algorytmy potrafią powtórzyć formę bez weryfikowania treści.
Zajmująca się m.in. scientometrią badaczka Teresa Kubacka poprosiła ChatGPT o wyselekcjonowanie kilku ważnych artykułów z fizyki materii skondensowanej. Lista zawierała znane w branży nazwiska autorów i nazwy czasopism, nawet niektóre identyfikatory publikacji okazały się faktycznie istnieć. Problem w tym, że prowadziły do artykułów na zupełnie inne tematy i o zupełnie innych tytułach.
Znani w branży autorzy również nie popełnili wymienionych przez bota dzieł. ChatGPT po prostu umiejętnie „spapugował” listę źródeł: jej zapis był zgodny z konwencją, forma łudząco przypominała prawdziwą, ale za tą fasadą nie krył się żaden prawdziwy artykuł naukowy. Za to dopytywany dalej chętnie rozwijał szczegóły tych artykułów i dopisywał na przykład listę cytujących je kolejnych wyimaginowanych dzieł.
Obsługa chatbota w CV
Na naszych oczach powstają narzędzia, które wprowadzają kolejne wielkie uproszczenie: zamiast klikać, będziemy z cyfrowym światem rozmawiać. I zamiast otrzymywać suchą listę stron z informacjami, których szukamy, będziemy dostawać wiedzę w formie skróconego podsumowania stworzonego na podstawie wielu źródeł.
Umiejętność korzystania z tych narzędzi będzie tym, czym kilkanaście lat temu była umiejętność korzystania z internetu, a trzy dekady temu – z komputera w ogóle. Państwa, firmy i osoby, które wykorzystają potencjał nowych narzędzi i uda im się do nich dostosować, zyskają naturalną przewagę.
Przeróżne boty mają zalety i wady, jak każda rewolucyjna technologia. Dziś te zaawansowane algorytmy mają ogromne problemy z rozróżnieniem prawdy od fałszu, pewnie wielokrotnie spowodują błędy czy zostaną wykorzystane do złych celów. Jednak zaawansowane algorytmy, podobne do ChatGPT, istnieją dopiero od kilku lat i ciągle są udoskonalane.
Może w przyszłości uda się więc wyeliminować część tych problemów. Ale i tak potrzebna będzie społeczna kontrola tego procesu.
To nie jest jednak argument, żeby je zignorować albo się przed nimi ślepo bronić. Samochód, samolot, energetyka jądrowa czy rakiety również obok dobrodziejstw przyniosły cywilizacji sporo cierpień, a jednak nikt o zdrowych zmysłach, patrząc wstecz, nie chciałby z nich rezygnować.