Propozycję regulacji prawnych dotyczących sztucznej inteligencji (AI) przedstawiła Komisja Europejska. Proponowane przepisy, zanim wejdą w życie, muszą zostać przyjęte przez Parlament Europejski i Radę UE. W ich myśl zakazane będzie m.in. skanowanie twarzy na żywo czy wykorzystywanie AI w celu manipulacji zachowaniem użytkowników.
Proponowane rozwiązania prawne zmierzają z jednej strony do wspierania rozwoju korzystnych dla obywateli państw UE zastosowań sztucznej inteligencji, które mogą umożliwić m.in. usprawnienie opieki zdrowotną, zwiększenie bezpieczeństwa ruchu drogowego, dostosowanie oferowanych przez administrację publiczną usługi do indywidualnych wymagań, optymalizację procesów produkcyjnych i zapewnienie przewagi konkurencyjnej europejskim przedsiębiorstwom w takich sektorach jak zielona gospodarka, gospodarka o obiegu zamkniętym, produkcja maszyn, rolnictwo czy turystyka. Z drugiej zaś ramy prawne dla AI mają zapewnić, że będzie ona ukierunkowana na człowieka, godna zaufania, etyczna i zapewniająca poszanowanie praw Europejczyków.
Proponowane regulacje zakładają wprowadzenie czterech kategorii oceny poziomu ryzyka związanego z wykorzystaniem sztucznej inteligencji – od technologii uznanych za niebezpieczne po takie, których zastosowanie wiąże się z minimalnym ryzykiem. W porządku degresywnym skala oceny ryzyka składałaby się z następujących stopni – niedopuszczalne ryzyko, wysokie ryzyko, ograniczone ryzyko i niskie ryzyko.
Zgodnie z zaprezentowanymi przez KE przepisami zastosowania AI sklasyfikowane jako niebezpieczne, czyli zaklasyfikowane do kategorii „niedopuszczalne ryzyko”, byłyby zakazane w UE. Do tej grupy zaliczono np. technologie tak zwanej „zdalnej identyfikacji biometrycznej” wykorzystywanej na przykład do wybierania ludzi z tłumu w czasie rzeczywistym dzięki zastosowaniu rozpoznawania twarzy na żywo. „W naszym społeczeństwie nie ma miejsca na masową inwigilację” – stwierdziła Margrethe Vestager, wiceprzewodnicząca Komisji Europejskiej ds. Ery cyfrowej.
W ramach przedstawionej propozycji nowych przepisów zaproponowano w tej kwestii wyjątek dla wąsko zdefiniowanych celów egzekwowania prawa, takich jak poszukiwanie zaginionego dziecka lub osoby poszukiwanej oraz zapobieganie atakowi terrorystycznemu.
Zgodnie z przedstawionymi przez KE propozycjami niedopuszczalne zastosowania sztucznej inteligencji obejmowałyby również manipulowanie zachowaniem, wykorzystywanie słabych punktów dzieci lub stosowanie technik podprogowych. „Może to być przypadek, w którym zabawka wykorzystuje systemy głosowe, aby zmusić dziecko do zrobienia czegoś niebezpiecznego” - powiedziała Margrethe Vestager na konferencji prasowej. „Na takie zastosowania nie ma miejsca w Europie, dlatego proponujemy ich zakazać”.
Do zastosowań AI związanych z wysokim poziomem ryzyka zaliczono na przykład algorytmy stosowane do rozpatrywania aplikacji o pracę, podań na studia, wniosków o kredyt, zasiłek, azyl polityczny lub wizę. Do tej grupy zaliczono również systemy AI wykorzystywane w medycynie oraz sądownictwie. W związku z tym, że ważne decyzje mające bezpośredni wpływ na życie obywateli mogą być podejmowane przez algorytmy, KE proponuje wprowadzenie zasady, że decyzje te muszą obowiązkowo podlegać weryfikacji i ostatecznemu nadzorowi przez człowieka.
Regulacjom mają również zostać poddane chatboty, które powinny być odpowiednio oznaczone, aby ludzie wiedzieli, że wchodzą w interakcję z maszyną.
Aby pomóc w opracowaniu standardów i egzekwowaniu przepisów, które miałyby zastosowanie do każdego dostawcy systemu SI w UE, Komisja proponuje utworzenie Europejskiej Rady ds. Sztucznej Inteligencji.
Proponowane regulacje mają dotyczyć wszystkich państw UE oraz firm zagranicznych działających na terytorium UE. Kary za niedostosowanie się do wymogów mają wynieść od 20 mln euro do 4 proc. rocznych obrotów firmy, która się ich dopuściła. Wcześniej jednak otrzyma ona wezwanie do naprawienia swoich produktów AI i dostosowanie ich do wymogów prawa lub usunięcie ich z rynku.
„Dzięki tym przełomowym zasadom UE jest liderem w opracowywaniu nowych globalnych norm, aby mieć pewność, że sztucznej inteligencji można zaufać” - powiedziała w oświadczeniu Vestager. „Wyznaczając standardy, możemy utorować drogę do etycznej technologii na całym świecie i zapewnić, że UE pozostanie konkurencyjna” - dodała.
Herbert Swaniker, prawnik ds. Technologii w kancelarii Clifford Chance, porównał te propozycje do RODO, mającego wpływ na firmy na całym świecie. „Dzięki RODO zobaczyliśmy, że przepisy UE docierają do każdego zakątka świata i wywierają presję na kraje na całym świecie, tworząc nowy międzynarodowy standard” - powiedział Swaniker w rozmowie z agencją AP. „Możemy się tego spodziewać również w przypadku regulacji AI”.
mam/