W środę Parlament Europejski zatwierdził akt w sprawie sztucznej inteligencji (AI Act) – pierwszą na świecie regulację dotyczącą tej technologii.
Rozporządzenie – przyjęte 523 głosami za, przy 46 przeciw i 49 wstrzymujących się - ma chronić prawa podstawowe, demokrację, praworządność i środowisko przed systemami sztucznej inteligencji wysokiego ryzyka, ale też wspierać innowacje i umożliwić Europie zostanie liderem w dziedzinie rozwoju AI.
Przyjęte przepisy zakazują zastosowań sztucznej inteligencji zagrażających prawom obywateli. Chodzi między innymi o systemy kategoryzacji biometrycznej wykorzystujące cechy wrażliwe oraz o nieukierunkowane pobieranie wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej w celu tworzenia baz danych dla systemów rozpoznawaniu twarzy.
Zakazane będą również takie zastosowania AI jak rozpoznawanie emocji w miejscu pracy i instytucjach edukacyjnych, klasyfikacja punktowa obywateli oraz prognozowanie przestępczości wyłącznie na podstawie profilowania osoby lub oceny jej cech. Nie będzie też dozwolona sztuczna inteligencja, która manipuluje zachowaniem ludzi lub wykorzystuje ich słabości.
Organy ścigania będą mogły wykorzystywać systemy identyfikacji biometrycznej w czasie rzeczywistym tylko po spełnieniu ściśle określonych warunków, np. by odnaleźć zaginioną osobę lub zapobiegać atakowi terrorystycznemu - muszą jednak posiadać specjalne zezwolenie sądowe lub administracyjne.
Szczególne obowiązki określono również dla systemów sztucznej inteligencji wysokiego ryzyka stosowanych w takich obszarach jak infrastruktura krytyczna, edukacja i szkolenie zawodowe, zatrudnienie, opieka zdrowotna czy bankowość. Systemy te muszą być przejrzyste, dokładne oraz podlegać ludzkiej kontroli. Obywatele będą mieć prawo składać skargi dotyczące systemów SI. Będą także otrzymywać wyjaśnienia decyzji podejmowanych przez systemy sztucznej inteligencji wysokiego ryzyka (takie jak np. odmowa udzielenia kredytu), które mają wpływ na ich prawa.
Systemy sztucznej inteligencji ogólnego przeznaczenia muszą spełniać określone wymogi przejrzystości i być zgodne z unijnym prawem autorskim oraz publikować dokładne zestawienia materiałów użytych podczas trenowania modeli, na których są oparte. Ponadto będą musiały wyraźnie oznaczać sfabrykowane lub zmanipulowane obrazy, treści audio lub wideo (tzw. deepfakes).
Operatorzy najbardziej zaawansowanych modeli sztucznej inteligencji ogólnego przeznaczenia będą też mieli obowiązek przeprowadzania oceny i ograniczania ryzyka systemowego, a także zgłaszania incydentów.
AI Act przewiduje również różnorodne działania wspierające innowacje oraz MŚP. Należy do nich ustanawianie na szczeblu krajowym tzw. piaskownic regulacyjnych, czyli środowisk ułatwiających opracowywanie i testowanie innowacyjnych systemów sztucznej inteligencji przed wprowadzeniem do obrotu, oraz ich testowanie w warunkach rzeczywistych.
Rozporządzenie musi jeszcze formalnie przyjąć Rada, następnie regulacja wejdzie w życie dwadzieścia dni po publikacji w Dzienniku Urzędowym, a w pełni obowiązywać będzie 24 miesiące po jego wejściu w życie.
Ze Strasburga Marcin Mastalerz
mam/