Witamy na stronie Klubu Jagiellońskiego. Jesteśmy niepartyjnym, chadeckim środowiskiem politycznym, które szuka rozwiązań ustrojowych, gospodarczych i społecznych służących integralnemu rozwojowi człowieka. Portal klubjagiellonski.pl rozwija ideę Nowej Chadecji, której filarami są: republikanizm, konserwatyzm, katolicka nauka społeczna.

Zachęcamy do regularnych odwiedzin naszej strony. Informujemy, że korzystamy z cookies.
Katarzyna Szymielewicz  18 lutego 2020

Trzy mity, które musimy obalić, zanim UE ureguluje sztuczną inteligencję

Katarzyna Szymielewicz  18 lutego 2020
przeczytanie zajmie 8 min

Regulacja sztucznej inteligencji przez Komisję Europejską to tak naprawdę gra o władzę nad informacją. Ostatecznie dyskusja dotyczy tego, czy to globalne firmy technologiczne, czy same państwa będą musiały się rozliczać z wykorzystywania zgromadzonej w danych wiedzy o ludziach. Rozmawiamy o sztucznej inteligencji, pojęciu-symbolu możliwości analizowania i monetyzowania danych, ale tak naprawdę chodzi o narzucenie ludziom, którzy to narzędzie wykorzystują, społecznej i prawnej odpowiedzialności. Żeby to zrobić, musimy obalić trzy mity, które funkcjonują w debacie publicznej.

Dziewiętnastego lutego Komisja Europejska opublikuje tzw. białą księgę¸ czyli programowy dokument przedstawiający możliwe założenia regulacji sztucznej inteligencji w Unii Europejskiej. To materiał do szerokiej debaty, a nie konkretna propozycja prawna, którą sto dni wcześniej zapowiadała Ursula von der Leyen. Tym samym mamy tutaj dwie dobre informacje: z jednej strony brukselscy urzędnicy nie porywają się z motyką na słońce, próbując napisać nowe prawo na kolanie, z drugiej – nie wycofują się pod presją internetowego biznesu i aktywnie wchodzą do gry.

Trzy mity, które trzeba obalić

Zanim zaczniemy debatę o sposobach regulacji zastosowań sztucznej inteligencji, musimy obalić trzy obecne w dyskusji publicznej mity na jej temat. Oczywiście, sporo jest pytań, na które nie znamy jeszcze ostatecznej odpowiedzi, ale wiele wątpliwości rozwiała już nauka. Warto te fakty zebrać i potraktować jako punkt wyjścia, a debatę polityczną skoncentrować na wątkach, które naprawdę są sporne.

Mit 1: Sztuczna inteligencja jest w pełni obiektywnym mechanizmem podejmowania lub sugerowania decyzji.           

Rzeczywistość: Sztuczną inteligencję projektują, optymalizują i wdrażają ludzie, jest więc odzwierciedleniem ich założeń, wartości i sposobu patrzenia na świat.

Sztuczna inteligencja nie jest naturalnym żywiołem, nie rozwija się niezależnie od człowieka w pełni obiektywny sposób. Ten fakt ma daleko idące konsekwencje. Ludzie decydują o tym, jakie zadania realizują tworzone systemy, na jaki odsetek błędów sobie pozwalają, pod jakim kątem są zoptymalizowane, co traktują jako sukces, a co jako koszt. Konkretnie decyzje podejmują projektanci i właściciele tych systemów.

Nie mamy już czasu na snucie futurystycznych wizji i debaty o tym, czy sztuczna inteligencja nas zabije. Zamiast spekulować na temat nierealnych aktualnie scenariuszy, powinniśmy się przyjrzeć się temu, jak ją wykorzystujemy, a tym samym szukać oszczędności, wygody lub odpowiedzi na pytania, które dla człowieka okazały się trudne.

W 2020 r. mamy już wiele doświadczeń pozwalających trzeźwo spojrzeć na to, jak coraz odważniejsze korzystanie z algorytmów i uczenia maszynowego zmieniło komercyjne usługi i politykę publiczną. W ostatniej dekadzie ta technologia na dobre zadomowiła się w naszych urządzeniach, aplikacjach do mierzenia każdego elementu życia, serwowanej nam nieustannie reklamie. Pojawiła się wszędzie tam, gdzie w grę wchodzi modelowanie ludzkiego zachowania: począwszy od oceny zdolności kredytowej, przez planowanie komunikacji miejskiej, a na ocenę, komu należą się świadczenia społeczne, skończywszy.

Tworząc system oparty o sztuczną inteligencję, trzeba zdefiniować cel i odpowiedzieć sobie na pytanie, po czym poznamy, że nasz system dobrze działa. Sztucznej inteligencji nie wystarczy polecenie: „Zrób tak, żeby było lepiej!”. Potrzebne są wyznaczniki sukcesu, które da się przetłumaczyć na język matematyki, i precyzyjne formuły. Niezwykle istotne są też wskaźniki, czyli powiedzenie, czego algorytm powinien unikać. Czy chodzi o to, żeby nikt, kto zasługuje na kredyt lub świadczenie społeczne, nie odszedł z kwitkiem? Czy raczej o to, żeby nie zmarnować pieniędzy i nie zainwestować w osobę, która okaże się niewiarygodna albo niewypłacalna?

Z punktu widzenia człowieka te dwa cele wydają się podobne. Z punktu widzenia sztucznej inteligencji są zupełnie inne, bo opierają się na różnych funkcjach matematycznych i wymagają sformułowania innych poleceń. Jeśli system ma przede wszystkim unikać błędu w postaci „przepuszczenia przez sito” niewłaściwej osoby, to oznacza, że sito musi być bardzo gęste i czasem nie przepuści również człowieka, który spełnia kryteria. Jeśli zależy nam na tym, żeby nikt, kto zasługuje na kredyt lub świadczenie, nie został pominięty, musimy wybrać sito o większych oczkach. Wtedy jednak przepuścimy więcej ludzi, którzy okazują się nie spełniać kryteriów kredytowych lub warunków dostępu do świadczeń. W przypadku systemów, które wpływają na życie i prawa ludzi, decyzja o celach, jaki im stawiamy, a zarazem o błędach, jakie preferujemy, jest polityczna – nie techniczna.

Nie uciekniemy od tego, że decyzje podejmowane lub sugerowane przez sztuczną inteligencję mają realny wpływ na ludzkie życie. Fundament tych decyzji stanowi człowiek, który tworzy system i używa sztucznej inteligencji, a nie w pełni zobiektywizowana maszyna. Na etapie projektowania regulacji prawnych, które mają odpowiedzieć na ryzyko i zabezpieczyć prawa ludzi w zetknięciu się z takimi systemami, najważniejsze jest zidentyfikowanie i poddanie kontroli społecznej tych decyzji, które na pozór mogą się wydawać techniczne, a tak naprawdę mają wymiar moralny i polityczny. Jeśli nie wiemy, co dla danego systemu zostało zdefiniowane jako sukces, a co bierze on pod uwagę jako koszt jego osiągnięcia, to nie wiemy tak naprawdę nic.

Mit 2: Sztuczna inteligencja jest „czarną skrzynką”.

Rzeczywistość: O tym również decyduje człowiek, a w ostatnich latach zrobiliśmy duży postęp w ujawnianiu celów, kosztów i metod działania sztucznej inteligencji.

W rozmowie o odpowiedzialności za skutki działania systemów opartych o sztuczną inteligencję bardzo przeszkadza pokutujący mit „czarnej skrzynki”. W tym micie takie systemy są najczęściej przedstawiane jako magiczne pudełka, których zwykły śmiertelnik nie może ani otworzyć, ani pojąć (gdyby jednak je otworzył). Jednocześnie słyszymy zapowiedzi, że sztuczna inteligencja będzie decydować o naszym życiu: zatrudnieniu, leczeniu, kredycie. Systemy korzystające ze sztucznej inteligencji zyskują więc realną władzę, a jednocześnie są przedstawiane jako niemożliwe do zrozumienia i przez to niemożliwe do skontrolowania. Słusznie więc ludzie się ich obawiają.

Na podstawie głośnych przykładów – takich jak amerykański system COMPAS wspomagający decyzje sędziów – widzimy, że sztuczna inteligencja trenowana na historycznych danych, które odzwierciedlają ludzkie uprzedzenia, powtarza te same błędy, co ludzie, których myślenie miała korygować. Innymi słowy – wiemy już, że AI (podobnie jak całe społeczeństwo) bywa uprzedzona i może się mylić. Ten kryzys zaufania może się rozlać bardzo szeroko, tj. na każde zastosowanie analizy danych do rozwiązywania społecznych problemów.

Na szczęście nie musi tak się stać. Systemy wykorzystujące sztuczną inteligencję wcale nie muszą być projektowane na zasadzie „czarnej skrzynki”, tzn. w sposób, który nie pozwala zrozumieć ostatecznego rozstrzygnięcia ani odtworzyć czynników, które miały na nie wpływ. Projektanci tych systemów mają do dyspozycji różne typy modeli i nie zawsze te bardziej skomplikowane i zaawansowane są lepsze. Mamy więcej narzędzi do tworzenia wyjaśnialnej sztucznej inteligencji (XAI – eXplainable AI).

Taką radę projektanci systemów opartych na sztucznej inteligencji znajdą też w wytycznych, które przygotował brytyjski Urząd do Spraw Ochrony Danych (ICO) we współpracy z renomowanym Instytutem Alana Turinga. Punktem wyjścia dla tego projektu był art. 22 RODO, który wymaga wyjaśniania logiki automatycznie podejmowanych decyzji. Brytyjski organ uznał, że zanim zacznie karać za brak wyjaśnialności tych, którzy stosują „czarne skrzynki” do podejmowania decyzji, najpierw podpowie im, jak powinni postępować. Na ponad stu stronach praktycznego poradnika każdy, kto zechce poszukać, znajdzie przystępne opracowanie, jak działa sztuczna inteligencja. Znajdzie też serię pytań, na które właściciel i projektanci systemu powinni odpowiedzieć, zanim sięgną po wyrafinowany, trudny do zinterpretowania model, bo być może lepsza (również biznesowo!) jest metoda prostsza. Zdaniem ICO przede wszystkim decyzja dotycząca sięgnięcia po taką, a nie inną technikę analizy danych musi być przemyślana i dobrze uzasadniona. Jeśli projektujący system nie potrafią ocenić ryzyka, jakie się wiąże z zarzuceniem sieci neuronowej na nierozpoznany jeszcze obszar, jeśli nie potrafią przewidzieć i zminimalizować błędów, najprawdopodobniej w ogóle nie powinni wchodzić w taki eksperyment. Szczególnie, jeśli w grę wchodzą poważne decyzje dotyczące ludzi.

Poradnik przygotowany przez Brytyjczyków nie pozostawia żadnych wątpliwości co do to tego, że nie trzeba rozumieć, jak dokładnie działa model (np. owa tajemnicza sieć neuronowa), żeby zrozumieć, na jaki efekt ukierunkowane jest jego działanie. Tę decyzję zawsze da się wydobyć z czeluści systemu i zawsze można o nich dyskutować. To polityczny, nie techniczny, wymiar projektowania systemów opartych na sztucznej inteligencji.

Mit 3: Sztuczna inteligencja nadaje się do przewidywania przyszłości. 

Rzeczywistość: Sztuczna inteligencja sprawdza się w wykrywaniu istniejących prawidłowości i przewidywaniu trendów. Ale nie jest w stanie przewidzieć, co zrobi konkretny człowiek.

Wbrew nazwie nie mamy do czynienia z inteligentną maszyną, ale z narzędziami do zaawansowanej analizy statystycznej. Jak podpowiada sama nazwa, takie narzędzia najlepiej radzą sobie z wykrywaniem wzorów i prawidłowości, czyli z tzw. korelacjami statystycznymi. Takie wzorce obiektywnie istnieją w języku, naukach ścisłych i w przyrodzie. Wiemy, czym konkretnie różni się kot od psa na zdjęciu. Natomiast wiele zjawisk społecznych i ludzkich zachowań takiej analizie się wymyka. Trudniej stwierdzić, czym różni się człowiek dobry od złego albo podejrzany od „normalnego”. Wszystko zależy od wielu niemierzalnych lub trudno mierzalnych czynników.

Arvind Narayanan, prof. nauk komputerowych z Princeton, znany z demaskowania systemów AI, które obiecują coś, czego nie da się zrobić, wyróżnia trzy podstawowe cele, jakim może służyć sztuczna inteligencja. Jest ona w stanie automatyzować nasze oceny, wspierać percepcję i przewidywać skutki społeczne. Zdaniem badacza sztuczna inteligencja coraz lepiej radzi sobie z tym drugim zadaniem, ponieważ sprawdza się w wykrywaniu obiektywnie istniejących wzorów, jak na przykład w klasyfikowaniu obiektów na fotografiach, wykrywaniu zmian chorobowych na zdjęciach rentgenowskich, tłumaczeniu mowy na tekst.

Dużo trudniejsze dla AI (i bardziej kontrowersyjne) jest zadanie polegające na zautomatyzowaniu oceny, np. wykryciu przypadków mowy nienawiści w sieci, odróżnieniu osoby chorej od zdrowej, dostosowaniu rekomendacji treści do profilu czytelnika itd. W przypadku takiej oceny nie ma jednoznacznie poprawnej odpowiedzi, której system może się nauczyć. Człowiek też się myli, a kontekst sprawy – którego nie da się opisać w prostej, matematycznej formule – ma dla jej oceny zasadnicze znaczenie. Zdaniem Arvinda Narayanana systemy AI, które mają automatyzować oceny, nigdy nie będą doskonałe. I to właśnie dla nich potrzebujemy gwarancji prawnych, które będą chronić ludzi przed błędnymi decyzjami.

Trzecią kategorię stanowią systemy, które mają za zadanie przewidywać przyszłość. Wiąże się to z największym ryzykiem i, zdaniem Narayanana, zastosowanie tutaj AI zaprzecza zdrowemu rozsądkowi. Przecież wiemy, że nie da się przewidzieć tego, jak konkretny człowiek zachowa się w przyszłości. A mimo to nadal próbujemy te dokonać w oparciu o sztuczną inteligencję.

Istnieje zasadnicza różnica między wykorzystywaniem sztucznej inteligencji do wykrywania wzorów i prawidłowości, które obiektywnie istnieją i dają się matematycznie opisać, a zatrudnianiem jej do szukania wzorów i prawidłowości tam, gdzie ich nie ma lub gdzie bywają nieregularnie. Inną kwestią jest przewidywanie trendu, a inną próba oszacowania, jak się zachowa konkretny człowiek.

Możemy obliczyć wzrost liczby samochodów na drogach w przyszłości, zapotrzebowania na świadczenia socjalne albo wzrost zachorowań na grypę jesienią. Nie da się jednak precyzyjnie przewidzieć, które samochody przejadą dzisiaj ulicą Krakowską, komu opłaca się udzielić pomocy społecznej lub kto złapie grypę. Z analizy trendu, ze spojrzenia na statystyczną prawidłowość nie możemy wyciągać wniosków na temat konkretnej osoby. Dlatego systemy sztucznej inteligencji, które wspierają decyzje dotyczące konkretnych osób (np. sędziów w sprawach karnych, urzędników przyznających pomoc społeczną, analityków w bankach i HR-owców w dużych korporacjach), budzą słuszne kontrowersje.

Poddajmy społecznej kontroli ludzkie decyzje podejmowane w czasie tworzenia i używania sztucznej inteligencji

Komisja Europejska nie musi porywać się z motyką na słońce i pisać regulacji, która swoim zakresem obejmie gigantyczny, niejednorodny i ciągle rozwijający się sektor technologii składających się na to, co potocznie nazywamy sztuczną inteligencją. Lepszym taktycznie posunięciem wydaje się rozpoczęcie pracy od tych obszarów zastosowania statystycznych metod analizy danych, które już okazały się problematyczne. Na tej liście powinny się znaleźć  autonomiczne samochody, profilowanie treści w Internecie, ocena ryzyka w usługach finansowych oraz wszelkie próby „optymalizowania” polityk i usług publicznych. Ich cechą wspólną jest to, że sztuczna inteligencja wspiera decyzje, które będą miały poważne skutki dla ludzi. Innych ludzi niż ci, którzy zaprojektowali system.

Ponieważ rozmawiamy o ludzkich decyzjach, których w procesie projektowania i kalibrowania systemów sztucznej inteligencji jest naprawdę dużo, nie musimy wchodzić w techniczne standardy i eksperckie spory o to, czy zasady działania modeli statystycznych tak naprawdę da się wyjaśnić. Możemy skupić się na tym, co ludzkie, intencjonalne i polityczne. Na decyzjach, które w prosty sposób przekładają się na to, kto na działaniu konkretnego systemu zyska, a kto straci.

Bardzo dobrym przykładem narzędzia służącego do takiej analizy jest ocena oddziaływania systemu, którą przeprowadza się we wczesnej fazie projektowania. To tzw. Algorithmic Impact Assessment (AIA). Pomysł nie jest nowy, funkcjonuje w procesie tworzenia prawa jako ocena skutków regulacji, a także w ochronie danych osobowych jako ocena ryzyka z ich przetwarzaniem. Podobne metody można wykorzystać w systemach automatycznego podejmowania lub sugerowania decyzji.

Algorytmy przypominają reguły prawne z tą tylko różnicą, że są zapisane w języku matematyki. Skutki ich oddziaływania na ludzi da się i trzeba oceniać. Obowiązkowa ocena oddziaływania musi stać się regułą nie tylko w polityce publicznej, ale od tego obszaru warto zacząć, żeby wypracować standard AIA.

Jeśli państwo podejmuje się wdrażania systemów sztucznej inteligencji, musi mieć dowody na to, że konkretny problem, który chce w ten sposób rozwiązać, daje się opisać w języku formuł matematycznych. W praktyce nader często okazuje się, że algorytmy są zaprzęgane do analizy danych po to, by tworzyć pozory postępu i odwracać uwagę od problemu, który ma swoje źródła w bezradności administracji albo niedoborach finansowych. Potrzebujemy standardu AIA, żeby publiczna i merytoryczna dyskusja o politykach publicznych wspieranych przez algorytmy w ogóle stała się możliwa. Żeby już nie rozmawiać o naszych wyobrażeniach („co w tej dziedzinie wydaje się możliwe dzięki sztucznej inteligencji”), tylko o tym, co system rzeczywiście robi i jak wpływa na ludzi.

Dzielimy się tym dziełem otwarcie. Jeśli chciałbyś wesprzeć organizację Autorki, Fundację Panoptykon, możesz zrobić to tutaj, a jeśli chcesz dołączyć do Darczyńców Klubu Jagiellońskiego, zapraszamy tutaj.

Ten utwór (z wyłączeniem grafik) jest udostępniony na licencji Creative Commons Uznanie Autorstwa 4.0 Międzynarodowe. Zachęcamy do jego przedruku i wykorzystania. Prosimy jednak o podanie linku do naszej strony.