Witamy na stronie Klubu Jagiellońskiego. Jesteśmy niepartyjnym, chadeckim środowiskiem politycznym, które szuka rozwiązań ustrojowych, gospodarczych i społecznych służących integralnemu rozwojowi człowieka. Portal klubjagiellonski.pl rozwija ideę Nowej Chadecji, której filarami są: republikanizm, konserwatyzm, katolicka nauka społeczna.

Zachęcamy do regularnych odwiedzin naszej strony. Informujemy, że korzystamy z cookies.

Okiełznanie algorytmów i chińskie korpo. Unia zabiera się za regulacje sztucznej inteligencji

Okiełznanie algorytmów i chińskie korpo. Unia zabiera się za regulacje sztucznej inteligencji Otto Rapp/flickr.com

Od 2018 r. w Komisji Europejskiej trwają prace nad AI Act – dokumentem regulującym prawne aspekty sztucznej inteligencji. Choć może wydawać się to biurokratycznym wymysłem, w obliczu listu wzywającego do zaprzestania prac nad systemami AI „potężniejszymi niż GPT-4”, sygnowanym m.in. przez Elona Muska, działania KE znajdują się w awangardzie nowoczesnego prawa. Pytanie, jak przebiegnie oś sporu między zainteresowanymi: biznesem, ustawodawcami i użytkownikami technologii.

Kiedy Komisja Europejska w 2018 r. opublikowała pierwszy komunikat o sztucznej inteligencji zapowiadający prace nad jej kompleksowym uregulowaniem, przekazano go ograniczonemu gronu specjalistów. W lutym 2020 r., tuż przed wybuchem pandemii, ukazał się white paper, czyli oficjalna i usystematyzowana zapowiedź przyszłej regulacji w tym temacie.

Rok później projekt był gotowy i rozpoczął się proces konsultacji społecznych oraz prac w komisjach Parlamentu Europejskiego. W czerwcu na sesji plenarnej odbędzie się głosowanie, które może okazać się ostatnim akordem tej długiej pracy legislacyjnej, a Akt w sprawie Sztucznej Inteligencji (AI Act) stanie się obowiązującym prawem.

Przez cały ten czas treść regulacji była przedmiotem zainteresowania specjalistów, dużych firm i organizacji obywatelskich. Na ostatniej legislacyjnej prostej może być baczniej obserwowany przez szerszą „publiczność” ze względu na gwałtowny wzrost popularności rozwiązań opartych o sztuczną inteligencję.

AI to więcej niż przepis na zupę

Po pierwszych zachwytach i ciekawości związanej z tą nowinką technologiczną coraz więcej osób zaczyna zdawać sobie sprawę, że w nie tak dalekiej przyszłości AI może diametralnie wpłynąć na ich osobistą sytuację zawodową. Trudno znaleźć konferencję z otoczenia HR, której większość programu nie krąży wokół AI.

Jeszcze trudniej wyszukać na nich takie wystąpienia, które przekażą publice smutną prawdę – większość z was, drodzy white-collars, czeka zmiana wykonywanego zawodu albo bezrobocie. Eksperci World Economic Forum szacują, że na 69 mln etatów, które stworzy nowa technologia, zlikwidowanych zostanie aż 83 mln.

Póki co w internecie brylują eksperci od sztucznej inteligencji. Posty i artykuły pokazujące 5 niezawodnych sposobów na wykorzystanie ChatGPT mogłyby być napisane przez samego bota, który zapewne popełniłby nawet mniej błędów językowych. Autorzy stali się ekspertami oczywiście w ciągu ostatnich kilku miesięcy.

Wcześniej z równym zapałem objaśniali specjalistycznymi komentarzami korzyści płynące z zaistnienia w Metaverse, chwilowo pogrzebanym przez samych twórców. Gdy zmiany w środowisku staną się faktem, będą wykraczały poza proste triki z generatywną treścią i dla wielu okażą się bardzo bolesne.

Jeśli dodamy do tego alarmujący list, który wzywał do zaprzestania prac nad systemami AI „potężniejszymi niż GPT-4”, sygnowany przez takich tuzów technologii, jak Elon Musk czy Steve Wozniak (i 20 tys. innych osób), część społeczeństwa może chcieć bliżej poznać ogólne założenia pierwszej na świecie horyzontalnej regulacji sztucznej inteligencji.

Tym bardziej, jeśli punktem odniesienia apelu jest system, który od kilku tygodni pozostaje w powszechnym użyciu. Można zatem założyć, że wersje beta wykraczają daleko poza to, co zostało udostępnione szerszej publice.

AI Act skończy jak ACTA?

Do pewnego stopnia dotychczasowy przebieg prac legislacyjnych nad AI Act przypomina prace nad ACTA, które zakończyły się wielkimi demonstracjami na świecie i doprowadziły rządy europejskie do politycznej decyzji o zaprzestaniu prac nad dokumentem.

Pierwszym akordem buntu były także sygnały pochodzące ze środowisk pozarządowych i alarmujące listy otwarte podpisywane przez autorytety w tej dziedzinie. Regulacja stająca na straży interesów globalnych właścicieli praw własności intelektualnej i prowadząca jednocześnie do naruszenia prywatności użytkowników internetu musiała czekać blisko 10 lat na swoją nową, mniej kontrowersyjną implementację. Są jednak istotne różnice.

Po pierwsze, cały proces legislacyjny AI Act był jawny i angażował interesariuszy na kolejnych etapach. Po drugie, cała regulacja wprowadzana jest pod szyldem nadania ram systemom algorytmicznym, ochrony europejskiej gospodarki przed ekspansją amerykańskich i chińskich big techów oraz ochrony samych konsumentów.

Co zresztą stało się przedmiotem krytyki ze strony części środowisk widzących w tym kolejne biurokratyczne utrudnienie i konkurencyjną przewagę dla biznesu amerykańskiego, który może działać bez tego typu regulacji. To oczywiście dyskusyjne, na ile sukces amerykańskich gigantów technologicznych jest wynikiem pustki legislacyjnej, a na ile innych czynników, np. istniejącego od ponad 50 lat unikalnego ekosystemu Doliny Krzemowej czy (w zasadzie) nieskończonych zasobów kapitału (przynajmniej do czasu podniesienia stóp procentowych).

Niemniej w obliczu przywołanego wcześniej apelu o ograniczenie prac nad technologią, a także niedawnej deklaracji twórcy ChatGPT, Sama Altmana, przed amerykańskim Kongresem, że oczekuje on regulacji AI, może okazać się, że Unia Europejska jednak pozostaje w awangardzie nowoczesnego prawa i nie jest zbiurokratyzowaną samotną wyspą.

Trzeba jednak zauważyć, że zeznająca wraz z Altmanem Christina Montgomery z IBM wyraziła zasadniczo przeciwne oczekiwanie, które koresponduje ze znaczną częścią branży. Wcześniej na World Economic Forum podobne zapatrywanie wyraził Michael Schwarz z Microsoftu.

Świadomość użytkowników

Utrzymanie leseferystycznego podejścia dla biznesu będzie tym mniejsze, im bardziej rosnąć będzie społeczna świadomość zmian i tempa rozwoju AI. Pokazują to chociażby kolejne zmiany w AI Act, także te ostatnie, zaprezentowane 11 maja w wyniku prac komisji handlu międzynarodowego (IMCO) i wolności obywatelskich (LIBE) Parlamentu Europejskiego.

Postuluje się m.in. rozszerzenie katalogu praktyk zakazanych, zwiększenie ochrony osób, których sytuacja uzależniona jest od wyników prezentowanych przez AI, oraz zmianę samej definicji sztucznej inteligencji. Wśród propozycji jest także wymóg publikacji informacji o wykorzystywaniu systemów AI przez instytucje publiczne i duże platformy internetowe. To wszystko w rezultacie jeszcze bardziej zwiększy świadomość i ochronę użytkowników sztucznej inteligencji.

Jedną z takich zmian jest rozciągnięcie zakazu stosowania skoringu społecznościowego na podmioty prywatne, co postulowałem podczas konsultacji prowadzonych przez Klub Jagielloński wiosną 2021 r. Social scoring, czyli prowadzenie swoistego rankingu zachowań społecznych poszczególnych osób, w swojej najbardziej niepokojącej formie został wprowadzony w Chinach jako „system zaufania społecznego”. Przestrzeganie prawa, terminowe opłacanie podatków czy recykling śmieci – spełnianie wszystkich oczekiwanych zachowań społecznych uprawnia obywateli do lepszych świadczeń i usług społecznych, np. wyższej klasy transportu zbiorowego.

Ponieważ rzecz dzieje się w autorytarnej rzeczywistości komunistycznych Chin, AI Act w swojej pierwotnej wersji ograniczył podobne rozwiązania tylko wobec organów publicznych. Tymczasem komercyjne usługi elektroniczne powszechnie wykorzystują podobną systematykę klientów w procesach rekrutacyjnych, usługach finansowych lub ubezpieczeniowych.

Nie powinien to być jednak zakaz bezwzględny – tak długo, jak prowadzenie „rankingu” będzie uzasadnione, proporcjonalne i będzie odbywało się w tych samych kontekstach społecznych, z których pochodzą dane wejściowe. To tylko jeden z przykładów, ale zasadnicza większość dyskusji i zgłaszanych uwag na etapie konsultacji dotyczyła zasad etycznych, jakie powinny obowiązywać systemy sztucznej inteligencji.

Poza krótką, czteropunktową listą bezwzględnych zakazów wykorzystania AI projekt wprowadza kategorię systemów wysokiego ryzyka. Dotyczą one obszarów szczególnie wrażliwych – zdrowia, edukacji, zatrudnienia, migracji, wymiaru sprawiedliwości oraz szeregu praw i wolności obywatelskich.

Sposób zdefiniowania wysokiego ryzyka, zasady aktualizacji listy obszarów kwalifikowanych i zakres obowiązków, jakie ciążą na dostawcach i użytkownikach takich systemów, ze zrozumiałych powodów budziły szczególne zainteresowanie uczestników procesu legislacyjnego.

AI nie jest zwykłą usługą

Dyskusja o prawach człowieka i etycznych ramach sztucznej inteligencji odbywa się we wszechogarniającej wizji samoświadomych algorytmów odbierających nam pracę. To jeszcze skuteczniej odwraca uwagę opinii publicznej od zaskakującego oparcia zasady funkcjonowania rynku sztucznej inteligencji na fundamencie swobody przepływu towarów, a nie zaimplementowanej wiele lat temu logiki usług cyfrowych i ochrony danych osobowych.

Najważniejsze konsekwencje takiego działania to certyfikacja i normalizacja algorytmów w sposób podobny do znanej producentom i dostawcom oceny zgodności (CE) oraz spełniania konkretnych norm technicznych przez towary lub usługi.

Z perspektywy przyspieszonego po wybuchu wojny Rosji z Ukrainą budowania potencjalnie wielobiegunowego, nowego porządku światowego dla Polski jako członka UE to korzystne założenie.

Może to prowadzić do sytuacji, w której ekspansja na rynku europejskim będzie trudniejsza dla podmiotów nieeuropejskich wobec konieczności spełniania norm produktowych (które, zwracam uwagę, nie są ustalane ani zmieniane w drodze transparentnego procesu legislacyjnego). W skrajnych przypadkach, np. systemu do zdalnej identyfikacji biometrycznej osób, regulacja może wymuszać przekazywanie know-how instytucjom europejskim.

Z perspektywy państwa członkowskiego pozostającego w sporze z największą gospodarką unijną oraz Komisją Europejską może to jednak oznaczać istotną barierę wejścia polskich przedsiębiorstw na rynek dostawców własnych rozwiązań AI. Dość powiedzieć, że nawet bez tej bariery w Polsce nie udało się stworzyć warunków do powstania więcej niż 2 (w bardziej liberalnej metodologii 8) „jednorożców”, czyli startupów, które osiągnęły wycenę 1 mld dol.

Czerwcowe rozstrzygnięcie

Głosowanie w Parlamencie Europejskim nad AI Act zostało zaplanowane na sesję 12-15 czerwca. Nawet jeśli będzie to okazja do prowadzenia gorącej debaty politycznej, to jej temperatura nie osiągnie tej, która towarzyszyła ponad 10 lat temu uchwalaniu ACTA.

Mimo pewnych zastrzeżeń trzeba uznać projekt rozporządzenia za krok we właściwą stronę. Prace legislacyjne podjęte kilka lat temu znajdują swój finał w bardzo dynamicznej rzeczywistości, przez co stają się niezwykle aktualne i w wielu przyjętych rozwiązaniach trafne.

Zasadnicza oś sporu pomiędzy biznesem, państwami członkowskimi a regulatorami będzie przebiegała po linii określającej stopień ryzyka danego systemu. O tym, gdzie dokładnie będzie przebiegać, zdecydują praktyka gospodarcza i orzecznictwo TSUE.

Tematem na inny tekst pozostaje pytanie, jak prawodawstwo i sądownictwo mogą skutecznie odpowiadać na tak gwałtownie zmieniające się warunki funkcjonowania (i przyspieszania) algorytmicznej sztucznej inteligencji.

Publikacja nie została sfinansowana ze środków grantu któregokolwiek ministerstwa w ramach jakiegokolwiek konkursu. Powstała dzięki Darczyńcom Klubu Jagiellońskiego, którym jesteśmy wdzięczni za możliwość działania.

Dlatego dzielimy się tym dziełem otwarcie. Ten utwór (z wyłączeniem grafik) jest udostępniony na licencji Creative Commons Uznanie Autorstwa 4.0 Międzynarodowe. Zachęcamy do jego przedruku i wykorzystania. Prosimy jednak o podanie linku do naszej strony.