Akt o sztucznej inteligencji przyjęty w Parlamencie Europejskim
Pierwsza na świecie kompleksowa regulacja dotycząca sztucznej inteligencji jest faktem. W marcu Parlament Europejski zdecydowaną większością głosów (523 europosłów było „za”, 46 „przeciw”, a 49 wstrzymało się od głosu) zatwierdził akt o sztucznej inteligencji. Co to oznacza dla naszej wirtualnej rzeczywistości?
Próba obrony przed zagrożeniami
Akt o sztucznej inteligencji jest próbą ustalenia reguł korzystania z rozwiązań, które będą działały na wspólnym rynku – niezależnie od tego, czy dostawcy tych systemów mają swoje siedziby na terenie Wspólnoty, czy też nie. Nowe zasady, jakie Unia Europejska nałoży na sztuczną inteligencję, nie będą jednolite. Im większe będą potencjalne niebezpieczeństwa, jakie niosą za sobą poszczególne rozwiązania, tym więcej obowiązków zostanie nałożonych ich twórców.
Zgodnie z rozporządzeniem te systemy sztucznej inteligencji, które najbardziej zagrażają bezpieczeństwu publicznemu i prawom człowieka, zostaną na terenie Unii zakazane. Są to m.in. systemy:
- podprogowo oddziałujące na człowieka lub wykorzystujące jego ograniczenia, aby wpływać na jego decyzje i w ten sposób wyrządzać mu lub innym osobom szkodę,
- służące do tzw. social scoringu, czyli znanych z komunistycznych Chin mechanizmów oceny zachowania obywateli,
- profilujące pod względem prawdopodobieństwa popełnienia przestępstwa,
- identyfikujące ludzi w miejscach publicznych i w czasie rzeczywistym na podstawie danych biometrycznych w celu egzekwowania prawa (z tego zakazu będzie jednak wyłączone ściganie najcięższych przestępstw).
Zakaz korzystania z tych rozwiązań na terenie Unii Europejskiej może zacząć obowiązywać już pod koniec 2024 r.
Inne systemy sztucznej inteligencji będą mogły być wykorzystywane na wspólnym rynku, jednak obowiązki dostawców tych technologii będą się różnić w zależności od tego, do której z trzech kategorii sztucznej inteligencji system zostanie zakwalifikowany. O ile względem rozwiązań niskiego ryzyka rozporządzenie nie nakłada żadnych obowiązków, dostawcy rozwiązań średniego i wysokiego ryzyka będą musieli spełnić określone w rozporządzeniu warunki, aby działać zgodnie z prawem.
Głównym celem regulacji jest zapewnienie odpowiedniej przejrzystości działania technologii. Jest to szczególnie ważne w odniesieniu do rozwiązań AI wysokiego ryzyka, które mogą znacząco wpływać na bezpieczeństwo publiczne oraz prawa podstawowe. Względem takich rozwiązań będą stosowane najbardziej rygorystyczne obowiązki. Dostawcy będą musieli zapewnić odpowiednią kontrolę nad sztuczną inteligencją poprzez ścisłą wytłumaczalność jej działania za pomocą logów, których zbieranie i analiza będą obowiązkowe, czy poprzez zapewnienie nadzoru człowieka nad działaniem takich rozwiązań.
Europejscy legislatorzy reagują również na pojawienie się modeli sztucznej inteligencji ogólnego przeznaczenia, np. takich jak ChatGPT, DALL-E czy Midjourney. Poza spełnianiem podstawowych wymogów nałożonych na wszystkie systemy AI, dostawcy takich rozwiązań będą również zobowiązani m.in. do poszanowania praw osób trzecich do danych wykorzystywanych do „trenowania” tych modeli, projektowania modeli w ten sposób, aby nie generowały nielegalnych treści, oraz oznaczania wytworów takich systemów jako treści wygenerowanych przez sztuczną inteligencję.
Nie wszystkie systemy AI będą musiały spełniać wymogi rozporządzenia. W wyniku publicznej dyskusji nad kształtem Aktu o sztucznej inteligencji Parlament Europejski zdecydował, że regulacja nie będzie stosowana do rozwiązań wykorzystywanych do celów naukowych. Innym wyjątkiem będą systemy publicznie udostępniane na licencjach open source. Jednak w ostatnim przypadku wyłączenie zostało ograniczone i dotyczyć będzie tylko darmowych rozwiązań, które ani nie stanowią systemów AI wysokiego ryzyka, ani nie są zakazane na terenie Unii Europejskiej.
Mniejsze będą także obowiązki twórców modeli sztucznej inteligencji ogólnego przeznaczania udostępnianych publicznie na podstawie darmowej licencji open source. Nie będzie dotyczył ich wymóg opracowania dokumentacji technicznej tych modeli, jednak w zamian będą oni zobowiązani do udzielania szerokiej otwartej licencji i udostępniania szczegółowych informacji o tym, jak taki open source’owy model jest zbudowany.
Akt o sztucznej inteligencji będzie wymagał jeszcze uzupełnienia na poziomie krajowym. W ciągu 12 miesięcy od wejścia regulacji w życie państwa członkowskie będą zobowiązane stworzyć odpowiednie przepisy krajowe, w szczególności wskazać organ, który na poziomie kraju będzie nadzorował stosowanie nowych przepisów, oraz wyposażyć go w kompetencje wymagane przez unijne rozporządzenie.
Niewystarczająca odpowiedź
Czy rozporządzenie jest wystarczającą odpowiedzią na niepewność, jaka towarzyszy szybkiemu rozwojowi sztucznej inteligencji? Moim zdaniem nie.
Z jednej strony nowe prawo nie próbuje regulować tylko konkretnych technologii, których rozwój powinien być kontrolowany. Przyjęta została zasada, że sztuczna inteligencja prawie bez wyjątku powinna podlegać pod rozporządzenie. Jedynie zróżnicowane zostały obowiązki dostawców takich systemów w zależności od tego, na jakie obszary naszego życia sztuczna inteligencja będzie oddziaływać.
Z drugiej strony nie możemy przewidzieć, w którym kierunku sztuczna inteligencja będzie się rozwijać. Mimo że każda nowa technologia stanowiąca sztuczną inteligencję będzie musiała podporządkować się regulacjom, które za chwilę zaczną obowiązywać, z pewnością pojawią się wyzwania w obszarach wykraczających poza przepisy Aktu o sztucznej inteligencji. Najlepszym przykładem tego, jak nawet najbliższa przyszłość może być nieprzewidywalna, jest konieczność regulacji wykorzystania modeli sztucznej inteligencji ogólnego przeznaczenia. Pierwszy projekt aktu o sztucznej inteligencji z kwietnia 2021 r. w ogóle nie zakładał regulacji modeli ogólnego przeznaczenia z prostego powodu – ich sukces to okres ostatnich dwóch lat.
Dość wspomnieć ChatGPT, który swoją premierę miał ledwie w listopadzie 2022 r. Prawo może regulować rzeczywistość i to robi, jednak zawsze tylko w reakcji na tę rzeczywistość i zagrożenia, które się pojawiają. To nie wystarczy do ochrony przed wyzwaniami, które przyniesie gwałtownie rozwijająca się (coraz częściej samoczynnie) sztuczna inteligencja.
Słabością aktu o sztucznej inteligencji może być również ryzyko zablokowania innowacji w tym sektorze na terenie Unii Europejskiej. Mimo że rozporządzenie nakazuje państwom członkowskim wspierać rozwój sztucznej inteligencji, a dostęp do częściowo wyłączonych spod regulacji rozwiązań i modeli na licencjach open source może pomóc nawet niewielkim graczom w tworzeniu przełomowych rozwiązań, rozbudowane wymogi regulacyjne mogą się okazać sporym obciążeniem dla europejskich start-upów w wyścigu z producentami spoza Europy. Akt o sztucznej inteligencji może ukrócić wysyp innowacji, gdy wielu małych twórców zderzy się ze ścianą biurokracji.
Publikacja nie została sfinansowana ze środków grantu któregokolwiek ministerstwa w ramach jakiegokolwiek konkursu. Powstała dzięki Darczyńcom Klubu Jagiellońskiego, którym jesteśmy wdzięczni za możliwość działania.
Dlatego dzielimy się tym dziełem otwarcie. Ten utwór (z wyłączeniem grafik) jest udostępniony na licencji Creative Commons Uznanie Autorstwa 4.0 Międzynarodowe. Zachęcamy do jego przedruku i wykorzystania. Prosimy jednak o podanie linku do naszej strony.