Całkowity zakaz stosowania sztucznej inteligencji (AI) do nadzoru biometrycznego, rozpoznawania emocji i predykcyjnych działań policyjnych; oparte o sztuczną inteligencję systemy jak ChatGPT, muszą ujawniać, że treści nie zostały wygenerowane przez człowieka; możliwość łatwego złożenia skargi na niezgodne z prawem praktyki - to niektóre tylko założenia Aktu o Sztucznej Inteligencji, nad którym pracuje Parlament Europejski.
W połowie czerwca - 499 głosami za, przy 28 przeciw i 93 wstrzymujących się - przyjął on stanowisko negocjacyjne w sprawie tej regulacji. Teraz czas na trilog, czyli negocjacje nad ostatecznym kształtem przepisów między krajami członkowskimi, Parlamentem Europejskim i Komisją Europejską.
Pracujący nad regulacją europarlamentarzyści zakładają, że negocjacje powinny się zakończyć do końca tego roku. Sprawa nie jest jednak prosta, bo Europarlament jest pionierem w tej dziedzinie i - jak podkreślała przewodnicząca Parlamentu Europejskiego Roberta Metsola na konferencji prasowej po czerwcowym głosowaniu nad AI Act - ustanawiał będzie globalny standard w regulowaniu sztucznej inteligencji na najbliższe lata.
Przepisy, jakie w obecnym kształcie przyjął PE, mają zagwarantować, że sztuczna inteligencja opracowywana i wykorzystywana w Europie będzie w pełni zgodna z prawami i wartościami Unii.
Zabronione byłyby m.in. systemy AI wykorzystywane do klasyfikowania ludzi na podstawie ich zachowań społecznych lub cech osobistych w tym np.:
- wykorzystywanie w przestrzeni publicznej systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym;
- wykorzystywanie w przestrzeni publicznej systemów zdalnej identyfikacji biometrycznej post-factum, z jednym wyjątkiem, dotyczącym ścigania poważnych przestępstw, z uprzednią autoryzacją sądu;
- systemy kategoryzacji biometrycznej wykorzystujące cechy wrażliwe (jak: płeć, rasa, pochodzenie etniczne, status obywatelski, religia, orientacja polityczna);
- systemy prognozowania kryminologicznego (w oparciu o profilowanie, lokalizację lub wcześniejsze zachowania przestępcze);
- systemy rozpoznawania emocji wykorzystywane w egzekwowaniu prawa, zarządzaniu granicami, miejscu pracy i instytucjach edukacyjnych oraz pobieranie obrazów twarzy z internetu lub nagrań telewizji przemysłowej do tworzenia baz danych rozpoznawania twarzy.
Do wykazu opartych na sztucznej inteligencji systemów wysokiego ryzyka europarlamentarzyści włączyli m.in. systemy wykorzystywane do wpływania na wyborców i wyniki wyborów oraz systemy rekomendacji wykorzystywane przez platformy mediów społecznościowych.
AI Act zakłada ponadto, że dostawcy tzw. modeli generatywnych – nowego i szybko rozwijającego się rozwiązania w dziedzinie sztucznej inteligencji – musieliby oceniać i ograniczać ich potencjalne ryzyko (dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i praworządności). Mieliby także rejestrować swoje modele w unijnej bazie danych przed ich wprowadzeniem na rynek UE.
Dodatkowo, systemy sztucznej inteligencji, oparte na modelach generatywnych, jak np. ChatGPT, musiałyby spełniać wymogi przejrzystości. Konieczne byłoby ujawnianie, że treści wygenerowała sztuczna inteligencja (włącznie z pomocą w odróżnianiu tak zwanych deep fake od informacji prawdziwych) oraz wprowadzanie zabezpieczeń przed generowaniem nielegalnych treści. Twórcy tych modeli mieliby też publikować szczegółowe podsumowanie treści chronionych prawem autorskim, które wykorzystano do szkolenia tych systemów.
W komunikacie prasowym PE, wydanym po czerwcowym głosowaniu podkreślono także, że europarlamentarzyści nie chcą jedynie ograniczeń, ale stawiają też na pobudzanie innowacji w zakresie sztucznej inteligencji. Dlatego nowo projektowane przepisy obejmują też "badania naukowe i komponenty sztucznej inteligencji dostarczane na licencjach typu open source" oraz promują tzw. piaskownice regulacyjne, czyli rzeczywiste środowiska ustanowione przez władze publiczne, w których testuje się sztuczną inteligencję przed wdrożeniem.
Ponadto PE chce, by dostępna była prosta procedura składania skarg dotyczących działania systemów opartych o AI.
Po czerwcowym głosowaniu sprawozdawca Brando Benifei (S&D, Włochy) mówił, że wszystkie oczy zwrócone są dziś na PE.
"(...)Europa wyszła naprzód i zaproponowała konkretną odpowiedź na zagrożenia, jakie zaczyna stwarzać sztuczna inteligencja. Chcemy wykorzystać pozytywny potencjał sztucznej inteligencji w zakresie kreatywności i produktywności, ale będziemy również walczyć o ochronę naszej pozycji i przeciwdziałać zagrożeniom dla naszych demokracji i wolności podczas negocjacji z Radą" - mówił Benifei na konferencji prasowej.
W rozmowie z EuroPap News podkreślił, że podstawowe zagrożenia, jakie niesie ze sobą AI, to: wpływ na działalność medyczną, rozwój dzieci, zarządzanie infrastrukturą krytyczną, a także ryzyko dyskryminacji, gdy patrzymy na systemy używane np. w procesach rekrutacji.
"Jest też ryzyko związane z nowym rodzajem dezinformacji, z fałszywym kontekstem filmów, nagrań, ludzi widzących i robiących rzeczy, których nigdy nie robili. Bardzo ważne będzie uregulowanie tego, aby można było je zidentyfikować, a więc żeby można było zapobiegać fałszywym wiadomościom i nowym technologiom wykorzystywanym do dezinformacji" - mówił Benifei.
Podkreślał, że tego rodzaju prawodawstwo jest wprowadzane po raz pierwszy na świecie i UE stara się w ten sposób budować standard dla reszty globu.
Także współsprawozdawca regulacji Dragos Tudorache (Renew, Rumunia) wskazuje, że "Akt o sztucznej inteligencji nada ton rozwojowi i zarządzaniu sztuczną inteligencją na całym świecie, zapewniając, że ta technologia, (...) jest wykorzystywana zgodnie z europejskimi wartościami demokracji, praw podstawowych i praworządności".
Negocjacje z Radą w sprawie ostatecznego kształtu przepisów już trwają. W opinii Tudorache, powinny zakończyć się do końca roku.
Podobnego zdania jest eurodeputowany PiS Kosma Złotowski (ECR).
"Parlament Europejski dyskutował prawie dwa lata na temat aktu o sztucznej inteligencji. Złożono 3,5 tysiąca poprawek, ale koniec końców udało się ten akt uchwalić" - powiedział PAP. "Czy to oznacza, że to jest koniec procesu legislacyjnego? Nie. Teraz zaczynają się trilog, czyli rozmowa między Parlamentem, Komisją i Radą na temat niektórych szczegółów i ostateczne głosowanie w Parlamencie Europejskim będzie miało miejsce mam nadzieję przed końcem kadencji. Czyli na początku przyszłego roku" - ocenia Złotowski.
Przewodnicząca Komisji Europejskiej Ursula von der Leyen podczas wrześniowego przemówienia o stanie Unii podkreślała, że "priorytetem numer jeden Komisji jest zapewnienie rozwoju sztucznej inteligencji w sposób skoncentrowany na człowieku, przejrzysty i odpowiedzialny". Szefowa KE wezwała też do powołania międzynarodowego panelu ekspertów, podobnego do IPCC ds. zmian klimatu, który kierowałby jej rozwojem.
AI Act ma już za sobą stosunkowo długą historię, bo Komisja Europejska przedstawiła wniosek w sprawie rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (Akt w sprawie sztucznej inteligencji) w kwietniu 2021 r.
js/