Niedziela, 28 Luty 2021

Debata na temat regulacji dotyczących mediów społecznościowych

09.02.2021, 19:43 Aktualizuj: 09.02.2021, 19:52
© European Union 2020 - Source : EP
© European Union 2020 - Source : EP

Kwestią konieczności wprowadzenia demokratycznej kontroli nad platformami mediów społecznościowych oraz ochroną praw podstawowych, a w szczególności wolności słowa zajmie się w środę 10 lutego Parlament Europejski w kolejnym dniu sesji plenarnej.

Środowa debata wpisuje się w logikę trwających od wielu miesięcy działań unijnych instytucji zmierzających do wprowadzenia jasnych regulacji dotyczących zasad funkcjonowania największych graczy na rynku cyfrowym.

W odniesieniu do dominujących platform mediów społecznościowych główny nurt trwającej debaty publicznej dotyczy kwestii moderacji treści zamieszczanych przez użytkowników, praw oraz obowiązków platform w tym zakresie, oraz ich rosnącego wpływu na sytuację społeczną i polityczną na świecie oraz związanej z tym odpowiedzialności.

Dyskusja dotycząca tego, czy platformy mediów społecznościowych powinny podlegać bardziej rygorystycznym regulacjom i nadzorowi publicznemu, a także jakie formy powinien on przyjąć, jest obecnie jedną z najważniejszych toczących się obecnie wśród europejskich decydentów politycznych. Oczekuje się, że podczas bieżącej sesji plenarnej Rada i Komisja wydadzą oświadczenia w sprawie demokratycznej kontroli platform mediów społecznościowych i ochrony praw podstawowych, w szczególności wolności słowa.

Rozwój mediów społecznościowych postawił przed prawodawcami na całym świecie zupełnie nowe wyzwania. Z jednej strony technologie cyfrowe znacząco poszerzyły możliwości dostępu do informacji i dzielenia się nimi, z drugiej sprzyjają szerzeniu dezinformacji na niespotykaną nigdy wcześniej skalę. Masowe rozpowszechnianiu fałszywych wiadomości i niezgodnych z prawdą stwierdzeń sprawia, że liczne grupy obywateli mają ograniczony dostęp do wiarygodnych informacji i rzetelnej wiedzy. W wielu przypadkach zagraża to działalności gospodarczej, a nawet może osłabić procesy demokratyczne.

Platformy internetowe odgrywają coraz istotniejszą rolę w kształtowaniu opinii publicznej i w coraz większym stopniu wpływają na kształt toczących się debat. W efekcie spoczywa na nich odpowiedzialność za znalezienie równowagi pomiędzy prawem do informacji i wolnością słowa z jednej strony, a koniecznością moderacji szkodliwych oraz nielegalnych z mocy prawa treści z drugiej. Z jednej strony media społecznościowe powinny chronić prawa podstawowe zapisane w Karcie praw podstawowych UE, zwłaszcza wolność wypowiedzi i przeciwdziałać wszelkim formom cenzury. Z drugiej zaś ich obowiązkiem jest moderowanie treści online w celu zapobiegania kampaniom dezinformacyjnym i szerzeniu szkodliwych bądź niezgodnych z prawem treści.

Unia Europejska dotychczas popierała samoregulacyjne podejście do kwestii moderowania szkodliwych treści w internecie. Wiodące platformy, takie jak Facebook, Google, Microsoft, Mozilla i Twitter, podpisały dobrowolnie unijny kodeks postępowania w zakresie zwalczania dezinformacji, a europejski plan działania na rzecz demokracji określa środki przeciwdziałania dezinformacji. Pojawiają się jednak pytania, czy takie środki samoregulacji są skuteczne, a z oceny obowiązujących przepisów wynika, że platformy internetowe przy moderowaniu treści nie zawsze odpowiednio chronią podstawowe prawa swoich użytkowników.

W związku z powyższym Komisja Europejska zaproponowała w projekcie aktu o usługach cyfrowych przedstawionym w grudniu 2020 r. połączenie środków obowiązkowych i środków współregulacji w celu skuteczniejszego usuwania nielegalnych treści i skuteczniejszego zwalczania szkodliwych treści w internecie. Środki te mają zapewnić lepsze przestrzeganie kodeksów postępowania i większą przejrzystość w odniesieniu do procesu decyzyjnego opartego na algorytmach. Ponadto bardzo duże platformy muszą ocenić ryzyko systemowe oraz szkody społeczne i gospodarcze, jakie mogą one spowodować (np. w związku z dezinformacją), a także podejmować środki łagodzące (np. współpracować z zaufanymi podmiotami sygnalizującymi), z należytym uwzględnieniem wpływu na prawa podstawowe takie jak wolność wypowiedzi.

Zasadniczą kwestią jest określenie, kto jest uprawniony do kontrolowania przestrzeni internetowej. Niektórzy unijni prawodawcy skrytykowali jednostronne decyzje platform mediów społecznościowych (np. o zawieszeniu kont byłego prezydenta USA na ich platformach) i wezwali do zwiększenia nadzoru publicznego w Europie, zwłaszcza w celu zagwarantowania wolności słowa. 

W stanowisku Parlamentu Europejskiego 20 października 2020 r. w rezolucji ustawodawczej zawierającej zalecenia dla Komisji w sprawie aktu prawnego o usługach cyfrowych Parlament podkreślił, że odpowiedzialność za egzekwowanie prawa musi spoczywać na organach publicznych w UE oraz że decyzja powinna ostatecznie zostać podjęta przez niezawisłe sądy, a nie przez prywatny podmiot gospodarczy. W rezolucji z inicjatywy własnej z 20 października 2020 r. w sprawie aktu prawnego o usługach cyfrowych i związanych z nim kwestii z zakresu praw podstawowych Parlament wezwał również do wprowadzenia odpowiednich mechanizmów nadzoru i sądowych środków odwoławczych.

Unia Europejska w grudniu ubiegłego roku zapowiedziała prace zmierzające do wzmocnienia regulacji firm internetowych, których rezultatem ma być Akt o Usługach Cyfrowych. Cytowany przez serwis Politico jeden z kluczowych uczestników prac nad nowymi unijnymi regulacjami - komisarz komisarz UE ds. rynku wewnętrznego  Thierry Breton ocenił, że „fakt, iż szef (firmy internetowej - PAP) może wyłączyć konto prezydenta USA bez jakiejkolwiek kontroli budzi absolutne zdumienie”. Zdaniem Bretona „to nie tylko potwierdzenie władzy tych platform, ale również dowód na głęboką słabość tego, jak zorganizowane w cyfrowej przestrzeni jest nasze społeczeństwo”.

Szef europejskiej dyplomacji Josep Borrell na swoim blogu pisał z kolei, iż Europa musi być w stanie silniej regulować zawartość sieci społecznościowych przy jednoczesnym poszanowaniu wolności słowa i wyrazu. „Nie jest możliwe, aby regulacja ta powstała głównie w oparciu o reguły i procedury prywatnych podmiotów” - podkreślił.

„W Europie przestrzegamy wyraźnych i silnych wartości. I myślę, że jeśli ktoś kieruje platformą społecznościową, to jest to bardzo ważne, żeby rozumiał te wartości. Dzięki temu będziemy mogli współpracować przy budowaniu, rok po roku, nowego modelu zarządzania” – powiedział Thierry Breton w czasie debaty online z szefem Facebooka Markiem Zuckerbergiem zorganizowanej w maju ub.r. przez Europejskie Centrum Regulacyjne (CERRE).

mam/

PLIKI COOKIES

Ta strona korzysta z plików cookie. Sprawdź naszą politykę prywatności, żeby dowiedzieć się więcej.