Witamy na stronie Klubu Jagiellońskiego. Jesteśmy niepartyjnym, chadeckim środowiskiem politycznym, które szuka rozwiązań ustrojowych, gospodarczych i społecznych służących integralnemu rozwojowi człowieka. Portal klubjagiellonski.pl rozwija ideę Nowej Chadecji, której filarami są: republikanizm, konserwatyzm, katolicka nauka społeczna.

Zachęcamy do regularnych odwiedzin naszej strony. Informujemy, że korzystamy z cookies.

Sztuczna inteligencja, horrendalne kary i konkurencyjność polskich firm. Co zmienią proponowane przez Unię przepisy?

Sztuczna inteligencja, horrendalne kary i konkurencyjność polskich firm. Co zmienią proponowane przez Unię przepisy? Źródło: Mike MacKenzie - flickr.com

W Polsce jedynie 4% przedsiębiorstw opiera swoją działalność o systemy sztucznej inteligencji. Jest to jeden z najniższych wskaźników w całej Unii Europejskiej. Tymczasem Komisja Europejska przedstawiła projekt unijnego rozporządzenia w sprawie sztucznej inteligencji (Artificial Intelligence Act). W jaki sposób UE planuje uregulować SI? Czy jako Polska jesteśmy gotowi na tę regulację?

Sztuczna inteligencja (SI) jest dziedziną o strategicznym znaczeniu i kluczowym czynnikiem rozwoju gospodarczego. Może przynieść rozwiązania dla wielu wyzwań, takich jak leczenie chorób czy minimalizowanie wpływu rolnictwa na środowisko. Sztuczna inteligencja daje maszynom i systemom zdolność do analizowania swojego otoczenia i podejmowania decyzji w sposób do pewnego stopnia autonomiczny, aby osiągnąć określone cele.

Wśród państw członkowskich UE najwyższy odsetek przedsiębiorstw (23 proc.), które w 2020 r. korzystały z SI, jest Irlandia. Inne państwa, w których technologie SI są szeroko rozpowszechnione, to Malta (19 %), Finlandia (12 %) i Dania (11 %).

Z kolei we wszystkich pozostałych państwach członkowskich mniej niż 10 % przedsiębiorstw korzystało w 2020 r. z systemów SI. Najniższe udziały odnotowano na Łotwie (2 %), w Słowenii, na Węgrzech, na Cyprze (po 3 %) i w Polsce (4 %).

Projekt o systemach SI czy projekt o sposobach wykorzystania SI?

Projekt rozporządzenia w sprawie sztucznej inteligencji wyróżnia przede wszystkim cztery płaszczyzny ryzyka wykorzystania SI:

1. Ryzyko minimalne lub zerowe

Projekt nie wprowadza ograniczeń użycia takich systemów. Przykładem tego rodzaju SI są m.in. filtry antyspamowe, konwersja mowy na tekst czy automatyczne tłumaczenia tekstów.

2. Ryzyko niewielkie – głównie wymogi dot. przejrzystości (np. chatboty)

Projekt wprowadza głównie wymogi w zakresie przejrzystości. Przykładem tego rodzaju SI są m.in. chatboty.

3. Ryzyko wysokie – szereg wymogów w zakresie możliwości stosowania

Systemy SI wysokiego ryzyka ingerują w życie człowieka lub na ich podstawie podejmowana jest w stosunku do człowieka określona decyzja (zob. niżej przykłady).

4. Ryzyko nieakceptowalne – systemy niedozwolone

Na terenie UE takie systemy jak te m.in. służące do oceny wiarygodności społecznej (social scoring) lub rozwiązania wykorzystujące manipulację podprogową w celu wpłynięcia na zachowanie ludzi mają być niedopuszczalne.

Przykłady systemów wysokiego ryzyka

Systemy wysokiego ryzyka na gruncie projektu rozporządzenia w sprawie sztucznej inteligencji będą dopuszczalne pod pewnymi warunkami. Jako systemy o wysokim ryzyku projekt wyróżnia m.in.:

1. Systemy zarządzania infrastrukturą krytyczną;

2. Systemy sztucznej inteligencji wykorzystywane w obszarze kształcenia lub szkolenia zawodowego, w szczególności przy podejmowaniu decyzji o dostępie do instytucji kształcenia i szkolenia zawodowego;

3. Systemy sztucznej inteligencji wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia, w szczególności do rekrutacji i wyboru kandydatów, do podejmowania decyzji o awansie i rozwiązaniu stosunku pracy oraz do przydzielania zadań, monitorowania lub oceny osób pozostających w umownych stosunkach pracy;

4. Systemy sztucznej inteligencji wykorzystywane do przeprowadzania punktowej oceny kredytowej lub oceny zdolności kredytowej osób fizycznych;

5. Systemy sztucznej inteligencji przeznaczone do wykorzystywania przez właściwe organy publiczne odpowiedzialne za wykonywanie zadań w dziedzinach zarządzania migracją, azylem i kontrolą graniczną.

Z powyższego przykładowego wyliczenia można wysnuć wniosek, że systemy sztucznej inteligencji wysokiego ryzyka są stosowane stosunkowo powszechnie na polskim rynku. W szczególności należy zwrócić uwagę na systemy sztucznej inteligencji wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia, w tym do rekrutacji i wyboru kandydatów, do podejmowania decyzji o awansie i rozwiązaniu stosunku pracy oraz do przydzielania zadań, monitorowania lub oceny osób pozostających w umownych stosunkach pracy.

Takie systemy są często wykorzystywane przez wiele firm rekrutacyjnych. Po wejściu w życie rozporządzenia podmioty wykorzystujące takie systemy będą zobowiązane do spełnienia wielu wymogów.

Znaczne wymagania w stosunku do podmiotów obsługujących systemy SI wysokiego ryzyka

Producenci systemów wysokiego ryzyka będą mieli szereg obowiązków mających na celu minimalizację ryzyka związanego z tymi rozwiązaniami. Będą oni m.in. zobowiązani do:

  • używania wysokiej jakości danych do treningu i testowania systemów SI,
  • przygotowania dokumentacji technicznej opisującej system SI i zawierającej informacje niezbędne do oceny zgodności systemu SI z wymaganiami rozporządzenia,
  • zapewnienia prowadzenia rejestru zdarzeń (logów) podczas działania systemu SI,
  • zapewnienia odpowiedniego stopnia przejrzystości systemu (tj. umożliwienia użytkownikom interpretacji wyników działania systemu i odpowiednie ich wykorzystanie),
  • przygotowania instrukcji dla użytkowników opisującej zarówno możliwości, jak i ograniczenia systemu SI,
  • zapewnienia możliwości nadzoru człowieka nad działaniem systemu SI,
  • zapewnienia odpowiedniego poziomu odporności na błędy,
  • zapewnienia cyberbezpieczeństwa i odporności na błędy lub włamania

Jak wynika z powyższego, projektowany katalog postuluje wprowadzenie wielu zobowiązań dotyczących używania systemów sztucznej inteligencji, które uznaje się za obarczone wysokim ryzykiem. W konsekwencji zwłaszcza przedsiębiorcy wkraczający na rynek z produktami opartymi o tego rodzaju systemy sztucznej inteligencji powinni rozważyć obciążenia wynikające z opisywanych regulacji.

Analiza przywołanych obowiązków nakazuje postawić pytanie – czy polscy przedsiębiorcy będą w stanie udźwignąć ten ciężar na tyle, aby móc realnie rywalizować z podobnymi podmiotami z rynku europejskiego? Jednoznaczna odpowiedź na tak postawione pytanie jest niemożliwa, choć nie zmienia to faktu, że pomoc państwa w tym zakresie byłaby niezwykle cenna. Przykładem takiej pomocy może być stworzenie inkubatora lub tzw. piaskownicy technologicznej, w której będzie możliwość przetestowania swoich pomysłów w bezpiecznym i wydajnym środowisku.

Podobne inicjatywy już na rynku funkcjonują, warto spojrzeć chociażby na stworzony przez Biuro Informacji Kredytowej „BIK HUB” – piaskownicę technologiczną adresowaną do przedsiębiorców z sektora finansów, a także innych segmentów rynku, startupów, fintechów. Jak zapewniają pomysłodawcy tego projektu, uczestnictwo w piaskownicy stwarza szansę praktycznej weryfikacji prototypowych rozwiązań oraz uzyskanie profesjonalnej oceny potencjału biznesowego pomysłu przed wprowadzeniem na rynek. Na podobnej zasadzie państwo mogłoby zaangażować swoje środki w organizacje HUB-u dla podmiotów z rynku SI w celu zwiększenia ich konkurencyjności na rynku europejskim.

Kary będą wysokie

Najwyższa kara w wysokości do 30 000 000 EUR lub do 6 % całkowitego rocznego światowego obrotu za poprzedni rok budżetowy ma dotyczyć nieprzestrzegania zakazu stosowania systemów „nieakceptowalnych” oraz niezgodności systemów SI wysokiego ryzyka z wymogami dotyczącymi używania wysokiej jakości danych do treningu i testowania systemów SI.

Nieprzestrzeganie przez system SI innych wymogów lub obowiązków ma podlegać karze w wysokości do 20 000 000 EUR lub do 4 % obrotu, zaś udzielanie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji dotyczących systemów SI – karze w wysokości do 10 000 000 EUR lub do 2 % jej obrotu.

Regulacje dotyczące sztucznej inteligencji zaproponowane przez Komisję muszą zostać zaakceptowane przez Parlament Europejski i państwa członkowskie. Ta procedura może trwać co najmniej 18 miesięcy, zatem uchwalenia przepisów o sztucznej inteligencji możemy spodziewać się w 2023 r. Niemniej, wprowadzenie na rynek pomysłu opartego o SI już dzisiaj musi wziąć pod uwagę procedowane przepisy, tak aby przedsiębiorstwo mogło legalnie działać również za kilka miesięcy, tj. po wejściu w życie omawianych przepisów.

Artykuł powstał w rezultacie dyskusji „Jak uregulować sztuczną inteligencję?”, zorganizowanej we współpracy i ze środków Europejskich Konserwatystów i Reformatorów – grupy politycznej Parlamentu Europejskiego.

Tym dziełem dzielimy się otwarcie. Utwór (z wyłączeniem grafik) jest udostępniony na licencji Creative Commons Uznanie Autorstwa 4.0 Międzynarodowe. Zachęcamy do jego przedruku i wykorzystania. Prosimy jednak o podanie linku do naszej strony oraz przedrukowanie niniejszej informacji.