Kancelaria
Kuźnicki&Pasieka

AI Act – pierwszy na świecie akt prawny regulujący kompleksowo sztuczną inteligencję (AI)

Kwestie formalne, obowiązywanie AI Act

Artificial Intelligence Act to unijne rozporządzenie uchwalone 13 marca 2024 roku przez Parlament Europejski i następnie zatwierdzone przez Radę Unii Europejskiej, które 1 sierpnia 2024 roku wchodzi w życie. Jako rozporządzenie regulacja ta będzie stosowana bezpośrednio przez państwa członkowskie Unii Europejskiej. Rozporządzenie wejdzie w życie dwadzieścia dni po publikacji w Dzienniku Urzędowym Unii Europejskiej, a w pełni obowiązywać (z wyjątkami) będzie 24 miesiące po jego wejściu w życie. Wyjątki to zakazy niedozwolonych praktyk (będą obowiązywać sześć miesięcy po wejściu rozporządzenia w życie), kodeksy postępowania (dziewięć miesięcy po wejściu w życie), przepisy o sztucznej inteligencji ogólnego przeznaczenia, w tym dotyczące zarządzania (12 miesięcy po wejściu w życie) oraz obowiązki dotyczące systemów wysokiego ryzyka (36 miesięcy po wejściu w życie) – https://artificialintelligenceact.eu/developments/

II Cele AI Act

Rozporządzenie ma chronić prawa podstawowe, demokrację, praworządność i środowisko przed systemem sztucznej inteligencji wysokiego ryzyka. Jednocześnie ma wspierać innowacje i sprawić, że Europa będzie liderem w dziedzinie sztucznej inteligencji. Rozporządzenie określa obowiązki w stosunku do sztucznej inteligencji w oparciu o potencjalne ryzyko z nią związane i jej potencjalne skutki. Unia Europejska chce uregulować sztuczną inteligencję w ramach swojej strategii transformacji cyfrowej w sposób zapewniający lepsze warunki do rozwoju i wykorzystania tej innowacyjnej technologii. Sztuczna inteligencja to szybko rozwijająca się grupa technologii, które mogą przynieść wiele różnych korzyści społeczno-ekonomicznych we wszystkich branżach i obszarach działalności społecznej. Rozwiązania bazujące na sztucznej inteligencji umożliwiają lepsze prognozowanie, optymalizację operacji i przydzielania zasobów oraz personalizację świadczonych usług, dzięki czemu osiągane wyniki są korzystne z punktu widzenia kwestii społecznych i ochrony środowiska, a przedsiębiorstwa i europejska gospodarka zyskują kluczową przewagę konkurencyjną. Takie działania są szczególnie potrzebne w sektorach o dużym wpływie, w tym w obszarze zmiany klimatu oraz ochrony środowiska i zdrowia, w sektorze publicznym, w obszarze finansów, mobilności, spraw wewnętrznych i rolnictwie. Te same elementy i techniki, które przynoszą korzyści społeczno-ekonomiczne wynikające ze stosowania sztucznej inteligencji, jednocześnie wiążą się również jednak z nowymi rodzajami ryzyka lub niekorzystnymi konsekwencjami odczuwanymi przez osoby fizyczne lub społeczeństwo. W związku z tempem zachodzących zmian technologicznych i w świetle potencjalnych wyzwań UE dąży do wypracowania odpowiednio wyważonego podejścia. W interesie Unii leży utrzymanie wiodącej pozycji UE w zakresie technologii i zapewnienie, aby Europejczycy mogli korzystać z nowych technologii opracowanych i funkcjonujących zgodnie z unijnymi wartościami, prawami podstawowymi i zasadami (fragment uzasadnienia 1. Kontekst 1.1. przyczyny i cele wniosku ws. Rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji).

III Definicja systemu sztucznej inteligencji oraz dostawców i użytkowników

Zgodnie z art. 3 ust. 1, 2 i 4 rozporządzenia jako pierwszy zdefiniowany został „ system sztucznej inteligencji”. Oznacza on „ oprogramowanie opracowane przy użyciu co najmniej jednej spośród technik i podejść wymienionych w załączniku I, które może dla danego zestawu celów określonych przez człowieka – generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję.” Następnie „ dostawca”  oznacza „osobę fizyczną lub prawną, organ publiczny, agencję lub inny podmiot, które opracowują system sztucznej inteligencji lub zlecają jego opracowanie w celu wprowadzenia go do obrotu lub oddania go do użytku pod własną nazwą handlową lub własnym znakiem towarowym – odpłatnie lub nieodpłatnie”; „Użytkownik” oznacza natomiast „ osobę fizyczną lub prawną, organ publiczny, agencję lub inny podmiot, które korzystają z systemu sztucznej inteligencji pod swoją kontrolą, z wyjątkiem sytuacji, gdy system sztucznej inteligencji jest wykorzystywany w ramach osobistej działalności pozazawodowej”. Przepisy rozporządzenia określają obowiązki wyżej wymienionych dostawców i użytkowników w zależności od poziomu ryzyka reprezentowanego przez sztuczną inteligencję.

Już w artykule 2 ust. 1      rozporządzenia wskazano, że rozporządzenie ma zastosowanie do: a) dostawców wprowadzających do obrotu lub oddających do użytku systemy sztucznej inteligencji w Unii, niezależnie od tego, czy dostawcy ci mają siedzibę w Unii czy w państwie trzecim  b) użytkowników systemów sztucznej inteligencji, którzy znajdują się w Unii c) dostawców i użytkowników systemów sztucznej inteligencji, którzy znajdują się w państwie trzecim, jeżeli wyniki działania systemu są wykorzystywane w Unii.

IV Różne stopnie ryzyka korzystania ze sztucznej inteligencji

Rozporządzenie jest oparte na założeniu, że korzystanie ze sztucznej inteligencji może powodować ryzyko powstania szkody o różnym natężeniu, w rozporządzeniu wyróżnia się cztery rodzaje ryzyka: niedopuszczalne ryzyko, wysokie ryzyko oraz niskie lub minimalne ryzyko (strona 15 Uzasadnienia rozporządzenia).

1. Zakazane praktyki w zakresie sztucznej inteligencji (tytuł II rozporządzenia)

Systemy stwarzające ryzyko niedopuszczalne będą zakazane, co znajduje odzwierciedlenie w art. 5 rozporządzenia, który zakazuje następujących praktyk w zakresie sztucznej inteligencji:

  1. wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu sztucznej inteligencji, który stosuje techniki podprogowe będące poza świadomością danej osoby w celu istotnego zniekształcenia zachowania tej osoby w sposób, który powoduje lub może powodować u niej lub u innej osoby szkodę fizyczną lub psychiczną,
  2. wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu sztucznej inteligencji, który wykorzystuje dowolne słabości określonej grupy osób ze względu na ich wiek, niepełnosprawność ruchową lub zaburzenie psychiczne w celu istotnego zniekształcenia zachowania osoby należącej do tej grupy w sposób, który powoduje lub może powodować u tej osoby lub u innej osoby szkodę fizyczną lub psychiczną;
  3. wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów sztucznej inteligencji przez organy publiczne lub w ich imieniu na potrzeby oceny lub klasyfikacji wiarygodności osób fizycznych prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych bądź przewidywanych cech osobistych lub cech osobowości, kiedy to punktowa ocena społeczna prowadzi do jednego lub obu z następujących skutków:
    • krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub całych ich grup w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zgromadzono dane;
    • krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub całych ich grup, które jest nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi
  4. wykorzystywania systemów zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w przestrzeni publicznej do celów egzekwowania prawa, chyba że i w zakresie, w jakim takie wykorzystanie jest absolutnie niezbędne do jednego z następujących celów:
    • ukierunkowanego poszukiwania konkretnych potencjalnych ofiar przestępstw, w tym zaginionych dzieci;
    • zapobiegnięcia konkretnemu, poważnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu
    • wykrywania, lokalizowania, identyfikowania lub ścigania sprawcy przestępstwa lub podejrzanego o popełnienie przestępstwa, o którym mowa w art. 2 ust. 2 decyzji ramowej Rady 2002/584/WSiSW62 i które w danym państwie członkowskim podlega karze pozbawienia wolności lub środkowi zabezpieczającemu polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej trzy lata, zgodnie z prawem danego państwa członkowskiego.

2. Systemy sztucznej inteligencji wysokiego ryzyka (Tytuł III rozporządzenia)

Artykuł 6 rozporządzenia ustanawia zasady klasyfikacji systemów sztucznej inteligencji wysokiego ryzyka.

Bez względu na to, czy system sztucznej inteligencji wprowadza się do obrotu lub oddaje do użytku niezależnie od produktów, o których mowa w lit. a) i b), taki system sztucznej inteligencji uznaje się za system wysokiego ryzyka, jeżeli spełnione są oba poniższe warunki:

a) system sztucznej inteligencji jest przeznaczony do wykorzystywania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku II do rozporządzenia lub sam jest takim produktem;

b) produkt, którego związanym z bezpieczeństwem elementem jest system sztucznej inteligencji, lub sam system sztucznej inteligencji jako produkt podlegają – na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku II – ocenie zgodności przeprowadzanej przez osobę trzecią w celu wprowadzenia tego produktu do obrotu lub oddania go do użytku.

Oprócz systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w ust. 1 powyżej za systemy wysokiego ryzyka uznaje się również systemy sztucznej inteligencji, o których mowa w załączniku III do Rozporządzenia.

W artykule 8 rozporządzenia wskazano, że systemy sztucznej inteligencji wysokiego ryzyka muszą spełniać szczegółowe wymogi ustanowione w rozdziale 2 tytułu III rozporządzenia.

3. Obowiązki w zakresie przejrzystości w odniesieniu do określonych systemów sztucznej inteligencji (Tytuł IV rozporządzenia)

Zgodnie z art. 52 i kolejne rozporządzenia dostawcy mają obowiązek zapewnić, aby systemy sztucznej inteligencji przeznaczone do wchodzenia w interakcję z osobami fizycznymi projektowano i opracowywano w taki sposób, aby osoby fizyczne były informowane o tym, że prowadzą interakcję z systemem sztucznej inteligencji, chyba że okoliczności i kontekst korzystania z systemu jednoznacznie na to wskazują. Obowiązek ten nie ma zastosowania do systemów sztucznej inteligencji zatwierdzonych z mocy prawa do celów wykrywania przestępstw, przeciwdziałania przestępstwom, prowadzenia dochodzeń/śledztw w związku z przestępstwami i ścigania ich sprawców, chyba że systemy te udostępnia się ogółowi społeczeństwa na potrzeby składania zawiadomień o popełnieniu przestępstwa.

Użytkownicy systemów rozpoznawania emocji lub systemów kategoryzacji biometrycznej informują osoby fizyczne, wobec których systemy te są stosowane, o fakcie ich stosowania. Obowiązek ten nie ma zastosowania do systemów sztucznej inteligencji wykorzystywanych do kategoryzacji biometrycznej zatwierdzonych z mocy prawa do celów wykrywania przestępstw, przeciwdziałania przestępstwom i prowadzenia dochodzeń/śledztw w związku z przestępstwami.

Użytkownicy systemu sztucznej inteligencji, który generuje obrazy, treści dźwiękowe lub treści wideo, które łudząco przypominają istniejące osoby, obiekty, miejsca lub inne podmioty lub zdarzenia, lub który tymi obrazami i treściami manipuluje, przez co osoba będąca ich odbiorcą mogłaby niesłusznie uznać je za autentyczne lub prawdziwe („deepfake”), mają obowiązek ujawniać, że dane treści zostały wygenerowane lub zmanipulowane przez system sztucznej inteligencji.

Powołanie Europejskiej Rady ds. Sztucznej Inteligencji oraz właściwych organów krajowych

Na mocy art. 56 AI Act ustanawia się Europejską Radę ds. Sztucznej Inteligencji, która ma udzielać wsparcia i porad Komisji Europejskiej oraz krajowym organom nadzorczym w dążeniu do zapewnienia spójnego stosowania przepisów analizowanego rozporządzenia.

W skład Rady wchodzą krajowe organy nadzorcze reprezentowane przez osobę stojącą na czele danego organu lub równoważnego wysokiego rangą urzędnika danego organu. Rada w szczególności wydaje opinie, zalecenia lub pisemne uwagi dotyczące kwestii związanych z wdrażaniem rozporządzenia.

Na mocy art. 59 AI Act każde państwo członkowskie ustanawia lub wyznacza właściwe organy krajowe na potrzeby zapewnienia stosowania i wdrażania rozporządzenia.

Komisja we współpracy z państwami członkowskimi  tworzy i prowadzi unijną bazę danych zawierającą informacje stanowiące dane wymienione w załączniku VIII rozporządzenia dotyczące systemów sztucznej inteligencji wysokiego ryzyka, o których mowa w art. 6 ust. 2, które podlegają rejestracji w trybie art.51 rozporządzenia.

VI Kary pieniężne

Zgodnie z zasadami i warunkami określonymi w rozporządzeniu państwa członkowskie przyjmują przepisy dotyczące kar, w tym administracyjnych kar pieniężnych, mających zastosowanie w przypadku naruszeń niniejszego rozporządzenia i podejmują wszelkie działania niezbędne do zapewnienia ich właściwego i skutecznego wdrożenia. Przewidziane kary muszą być skuteczne, proporcjonalne i odstraszające. Uwzględniają one w szczególności interesy drobnych dostawców i przedsiębiorstw typu start-up oraz ich rentowność.

Dla przykładu – nieprzestrzeganie zakazu praktyk w zakresie sztucznej inteligencji, o których mowa w art. 5 rozporządzenia, niezgodność systemu sztucznej inteligencji z wymogami określonymi w art. 10 Rozporządzenia podlega administracyjnej karze pieniężnej w wysokości do 30 000 000 EUR lub jeżeli naruszenia dopuszcza się przedsiębiorstwo w wysokości do 6% jego rocznego całkowitego obrotu światowego z poprzedniego roku obrotowego, przy czym zastosowanie ma kwota wyższa.

Podsumowanie

Powyższe ogólne przedstawienie podstawowych kwestii dotyczących AI Act zostało sporządzone bezpośrednio w oparciu o tekst rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (Akt w sprawie sztucznej inteligencji –AI Act ) oraz unijnych stron internetowych dedykowanych tematowi uregulowania prawnego systemów sztucznej inteligencji.

Autorka:
radca prawny – Anna Nawrocka

Przeczytaj również