Czy Unia Europejska poradzi sobie z regulacją sztucznej inteligencji?
W skrócie
W Parlamencie Europejskim trwają obecnie prace nad przedstawionym przez Komisję wiosną tego roku aktem w sprawie sztucznej inteligencji (Artificial Intelligence Act, AIA). Ten obszerny dokument jest pierwszą na świecie próbą horyzontalnego ujęcia problematyki sztucznej inteligencji (SI). Szczegółowa analiza projektu pokazuje jednak, że proponowane regulacje już teraz nie będą wystarczająco odpowiadać na najważniejsze wyzwania w funkcjonowaniu AI.
Zmiana logiki w tworzeniu regulacji
Komunikaty Komisji dotyczące projektu i prac nad nim wskazują, że duży nacisk położono na etyczne zagadnienia związane z rozwojem SI. Biała księga w sprawie sztucznej inteligencji, opublikowana w 2020 r., posiadała podtytuł Europejskie podejście do doskonałości i zaufania. Jednakże faktycznie rewolucyjne podejście zaproponowanego rozwiązania przejawia się gdzie indziej. Otóż odmiennie niż dotychczasowe regulacje związane z rozwojem nowoczesnych technologii, jak dane osobowe czy usługi cyfrowe, AIA oparty został na fundamencie swobody przepływu towarów.
W konsekwencji oznacza to zmianę logiki obowiązków leżących po stronie dostawców (system certyfikacji tożsamy z funkcjonującą oceną zgodności; oznaczenie CE), realizacji uprawnień i gwarancji przez interesariuszy społeczeństwa obywatelskiego (brak takiej ścieżki w projekcie aktu i konieczność korzystania z dotychczasowych rozwiązań, np. na podstawie ochrony konsumentów). Daje to także (co kluczowe z perspektywy globalnej konkurencji z USA i Chinami) możliwość ograniczenia dostępu do rynku wewnętrznego w ramach unii celnej ze względu na traktowanie systemów SI jak towarów, które podlegają importowi. Możliwe jest wprowadzenie ich na rynek wyłącznie po spełnieniu wytycznych certyfikacyjnych.
W obecnej dyskusji pojawiają się zarzuty o tworzeniu „zasłony dymnej” przez Komisję Europejską, która kieruje wzrok właśnie na zagadnienia etyczne, jako że jest to szczególnie wdzięczny temat w debacie publicznej. Co więcej, nawet ramy etyczne aktu pozostawiają szerokie pole do interpretacji.
Na ten problem zwracał uwagę już na etapie prac grupy roboczej jej członek, prof. Thomas Metzinger. W 52-osobowym zespole było jedynie czworo etyków, wyjątkowo silna okazała się reprezentacja przemysłu. Doprowadziło to do „zmiękczenia” ostatecznych rekomendacji, nawet w zakresie takich zagadnień, jak broń autonomiczna, social scoring czy używanie systemów sztucznej inteligencji, które stają się niezrozumiałe i niekontrolowalne przez człowieka.
Czego nie będzie mogła robić sztuczna inteligencja?
Projekt rozporządzenia poświęca zakazanym praktykom jeden artykuł, który wyznacza granice niedopuszczalnego ryzyka, jakie może wiązać się z wykorzystaniem systemów sztucznej inteligencji. Ustawodawca stwierdza wprost – ryzyko staje się niedopuszczalne, jeśli jest sprzeczne z wartościami Unii Europejskiej. Konkretnie oznacza to listę czterech praktyk, które stają się niedozwolone.
Pierwsze dwie dotyczą manipulacji poprzez techniki podprogowe lub wykorzystywanie słabości określonej grupy osób ze względu na ich wiek, niepełnosprawność ruchową lub zaburzenie psychiczne. Zatem już na poziomie określenia zakresu stosowania zakazu istnieje spore ograniczenie. Zapis ten nie będzie dotyczył wykorzystania innych słabości ludzkich.
Co więcej, regulator europejski proponuje redefinicję samej manipulacji. Jej najprostsze rozumienie obejmuje trzy elementy: wywieranie wpływu na osobę manipulowaną bez jej świadomości dla osiągnięcia celów manipulatora. Akt o sztucznej inteligencji odwraca logikę ostatniego punktu, bo przewiduje wyrządzenie u osoby manipulowanej albo innej osoby szkody fizycznej lub psychicznej. Tym samym tak długo jak manipulacja nie będzie prowadziła do szkody (ale nie szkody majątkowej!), będzie dozwolona.
Trudno wyobrazić sobie udowodnienie działania nakierowanego na szkodę. Biorąc za przykład współczesne social media oraz ich negatywny wpływ na poziom debaty publicznej, polaryzację nastrojów politycznych, wpływ na zdrowie psychiczne i dobrostan ich użytkowników, można stwierdzić, że trudno wskazać pojedyncze czynności, które prowadzą do takiej szkody.
To system doboru i prezentacji treści przy zastosowaniu nieznanych algorytmów jako całość prowadzi do efektów opisywanych przez zaniepokojonych socjologów i psychologów.
Nieuzasadnione wydaje się samo dopuszczenie technik manipulacyjnych jako punktu wyjścia, podczas gdy zasadą powinno być ich zakazanie (z zastrzeżeniem wypadków, gdy osoba będąca przedmiotem takich operacji została o nich uprzednio w sposób zrozumiały dla niej poinformowana i wyraziła na nie zgodę), przez co działalność taka traciłaby przymioty manipulacji.
Pod pojęciem social scoring kryją się rozwiązania znane z serialu Black Mirror (S03E01) i Chińskiej Republiki Ludowej – tam wprowadzone są pod nazwą „systemu zaufania społecznego”. Obywatele są punktowani za swoją postawę społeczną, a więc nagradzani za zachowania oczekiwane przez władzę (segregację śmieci, terminowe opłacanie podatków) i karani za postawy aspołeczne (nie tylko przestępstwa czy naruszenia porządku publicznego, ale także za nawiązywanie formalnych relacji z osobami o niskiej punktacji). Prowadzi to do oferowania niektórych usług publicznych osobom, które posiadają określony „scoring społeczny”, np. dostęp do kredytów hipotecznych czy możliwość podróżowania wybranymi środkami transportu.
Wizja omnipotentnego państwa jest oczywiście przerażająca – stąd bierze się kolejny zakaz sformułowany w AIA. Rzeczywiście został ograniczony wyłącznie do organów publicznych. Tymczasem social scoring jest już w powszechnym użyciu na mniejszą skalę przez podmioty prywatne, np. w procesach rekrutacyjnych, usługach finansowych czy ubezpieczeniowych. Co więcej, nawet te obostrzenia, które zostały sformułowane w projekcie, nie są bezwzględne. Social scoring może prowadzić do krzywdzącego traktowania pojedynczych osób lub grup społecznych, ale tak długo jak nie będzie to nieuzasadnione, nieproporcjonalne i będzie odbywało się w tych samych kontekstach społecznych, z których pochodzą dane wejściowe, będzie dozwolone.
Prawo do decydowania o przepływie danych
Szczególną uwagę zwraca formuła integralności kontekstualnej, odnosząca się do pracy prof. Helen Nissenbaum – Privacy In Context: Technology, Policy, and the Integrity of Social Life. Podstawą funkcjonalnej prywatności każdej osoby w świecie nowych technologii jest nie tyle bezwzględne żądanie jej nienaruszania przez osoby trzecie lub możliwość kontrolowania swoich danych prywatnych, ale decydowanie o ich przepływie (ang. flow of personal information).
Choć praca prof. Nissenbaum pochodzi z 2011 r., to dynamiczny i wszechogarniający rozwój platform cyfrowych, w tym mediów społecznościowych oraz internetu rzeczy, decyduje o jej aktualności w dzisiejszej debacie publicznej. Wówczas jeszcze teoretyczne (choć oparte o konkretne przykłady Facebooka i Google Street View) założenie, że nikt z nas nie posiada już pełnej kontroli nad swoją prywatnością, dzisiaj jest niekwestionowanym faktem. Teoria integralności kontekstualnej staje się zatem kompromisem zawartym z rzeczywistością. Każda z ujawnionych części prywatności jest prawdziwa w danym kontekście i powinna być dla tego kontekstu wystarczająca, nie jest jednak kompletna. Każdej osobie pozostaje tylko prawo do wyłącznego decydowania o zachowaniu w poufności swojej „kompletnej prywatności”, na którą składają się między innymi poszczególne tożsamości kontekstualne.
Tyle w teorii, a w praktyce? Czy jednymi kontekstami są zdrowie, świadczenia zdrowotne realizowane w ramach NFZ lub może świadczenia realizowane przez konkretną placówkę medyczną? W zależności od odpowiedzi na tego typu pytania będzie definiowany rzeczywisty zakaz wprowadzenia systemu social scoring.
Wizja chińskiego systemu zaufania społecznego budzi niepokój, jednak głównym dostawcą i beneficjentem przetwarzania prywatności i łączenia danych z różnych kontekstów pozostają cyfrowi giganci oferujący usługi obejmujące kolejne dziedziny życia.
Ostatni zakaz także skierowany jest do organów publicznych i dotyczy systemów zdalnej identyfikacji biometrycznej. Przesłanki stosowania tego zakazu ograniczają jego wprowadzenie wyłącznie do czasu rzeczywistego, przestrzeni publicznej o egzekwowanie prawa, a nawet przy wypełnieniu powyższych wymogów będzie to możliwe, jeśli okaże się absolutnie niezbędne do poszukiwania potencjalnych ofiar przestępstw, zwalczaniu terroryzmu lub ścigania sprawców niektórych innych przestępstw.
***
Powyższa pobieżna analiza niedopuszczalnych ryzyk w praktyce wykorzystywania systemów sztucznej inteligencji, które mają wyznaczać ramy dla działań zakazanych w Unii Europejskiej, pokazuje, że projekt w obecnym kształcie nie doprowadzi do moralnej rewolucji w rozwoju sztucznej inteligencji. Dodać należy, że duża część praktyk, które wymykają się powyższym zakazom, będzie stwarzała wysokie ryzyko w rozumieniu rozporządzenia, a co za tym idzie, dostawcy i użytkownicy takich systemów będą zobowiązani do stosowania daleko idących środków zapobiegawczych, tak formalnych, jak faktycznych.
Ze względu na horyzontalny charakter regulacji konieczne jest czytanie tego aktu równolegle z obowiązującymi przepisami dotyczącymi ochrony danych, konsumentów i usług cyfrowych, które już teraz zapewniają stabilne ramy prawne. Wobec nasuwającego się pytania o sens takiej regulacji może odpowiedzią będzie teza postawiona na początku. Chodzi o nadanie rynkowi sztucznej inteligencji ram właściwych dla obrotu towarów na rynku wewnętrznym, co przede wszystkim da narzędzia kontroli dla towarów pochodzących spoza Unii. Zważywszy na bardzo szeroką definicję sztucznej inteligencji, jaka znalazła się w projekcie rozporządzenia, należy stwierdzić, że dokument ten może stać się ważnym narzędziem w relacjach z USA i Chinami.
Artykuł powstał w rezultacie dyskusji „Jak uregulować sztuczną inteligencję?”, zorganizowanej we współpracy i ze środków Europejskich Konserwatystów i Reformatorów – grupy politycznej Parlamentu Europejskiego.
Tym dziełem dzielimy się otwarcie. Utwór (z wyłączeniem grafik) jest udostępniony na licencji Creative Commons Uznanie Autorstwa 4.0 Międzynarodowe. Zachęcamy do jego przedruku i wykorzystania. Prosimy jednak o podanie linku do naszej strony oraz przedrukowanie niniejszej informacji.