O problemie moderacji wprzestrzeni cyfrowej


Media społecznościowe to wynalazek przełomowy w dziejach ludzkości pozwala na skracanie dystansu pomiędzy ludźmi, ułatwiają komunikację i umożliwiają uczestnictwo w grupach zainteresowań. Niestety, są także świetnym miejscem do uzewnętrzniania nienawiści i wrogości. Pozostawienie korporacjom swobody w kwestii moderacji treści doprowadziło do sytuacji, w której niepozorna z początku inicjatywa uniwersytecka stała się jednym z największych zagrożeń społecznych XXI wieku.

Rok 2021. Stany Zjednoczone Ameryki. Donald Trump po przegranej w wyborach prezydenckich agituje na platformach społecznościowych, okazując swoje niezadowolenie z rzekomo sfałszowanych wyborów. Powstaje ruch „Stop the Steal”, w ramach którego prezydent i jego zwolennicy rozpowszechniają kłamstwa na temat korupcji i bardzo niekorzystnego dla Trumpa sposobu liczenia głosów oddawanych drogą pocztową. Zastrzeżenia te rozpowszechniane są w całym Internecie, jednak szczególnie problematyczne jest to na Facebooku, który od dłuższego czasu jest platformą rozpowszechniania teorii spiskowych i fake newsów. Szacuje się, że 44% wyborców zobaczyło na Facebooku nieprawdziwe stwierdzenia na temat oszustw wyborczych, a 80% z nich uznało je za prawdziwe – to 72 miliony obywateli USA. Na tej platformie co chwilę publikowane są nowe sfabrykowane historie i tylko część z nich zostaje usuwana przez moderatorów. W tym samym czasie Donald Trump, przywódca atomowego mocarstwa, nawołuje w mediach społecznościowych do przemocy w swoim własnym państwie i używając manipulacji zachęca do buntu już i tak niespokojne społeczeństwo. W końcu te działania doprowadziły do ataku jego zwolenników na Kapitol, okupacji budynku, przerwania obrad Kongresu i starcia armii oraz policji z tłumem. Rannych zostały setki ludzi, pięcioro zginęło. Świat wstrzymał oddech. Po raz pierwszy w państwie będącym przez wielu uznawanym za kolebkę nowożytnej demokracji została ona tak bezpośrednio zagrożona. Co na to Facebook? Rzecznik prasowy Mety odpowiedział: „Pomysł, że wydarzenia z 6 stycznia nie doszłyby do skutku, gdyby nie udział Facebooka, jest absurdalny”.

Dopiero po tych wydarzeniach platforma podjęła zdecydowane działania. Facebook zawiesił bezterminowo konto Donalda Trumpa, a korporacja Meta (właściciel Facebooka) zadeklarowała polepszenie algorytmów. I faktycznie wiele kont popierających ruch „Stop the Steal” albo publikujących fake newsy zostało usuniętych. Jednak nadal nietrudno znaleźć konta propagujące przemoc, a wręcz mające w nazwie słowo „bojówka”, które gloryfikują wydarzenia ze wzgórza kapitolińskiego. Zwłaszcza teraz, kiedy wokół postaci Donalda Trumpa piętrzą się kontrowersje, problem po raz kolejny eskaluje. Szerzy się dezinformacja na temat jego zarzutów, aresztowań oraz wobec prokuratury i organów ścigania. Problem wraca jak bumerang i zdaje się, że nie zniknie, póki nie zostaną podjęte niezwykle rygorystyczne środki zapobiegania.

Wymiernym skutkiem niewystarczającego moderowania treści było ludobójstwo w Mjanmie. W jego wyniku w 2016 i 2017 zamordowano co najmniej 25 tys. ludzi z grupy etnicznej Rohingya, dopuszczono się masowych gwałtów, palono całe wioski, a ponad 700 tys. osób zostało zmuszonych do emigracji. Wywołało to jeden z największych w historii kryzysów migracyjnych. Organizacja Narodów Zjednoczonych mówi o czystkach etnicznych, ludobójstwie i możliwych zbrodniach przeciwko ludzkości. Sam Facebook stwierdził, że nie zrobił wystarczająco dużo w celu zahamowania agresji, a organizacje zajmujące się ochroną praw człowieka stwierdzają nawet, że platforma odegrała decydującą rolę w kryzysie. Odkąd Birma została dołączona do sieci internetowej, Facebook stał się głównym środkiem przekazu. Właściwie od początku na platformie prowadzona była kampania przeciwko mniejszości Rohingyów. Pisano o islamskich gwałcicielach, podpalaczach i mordercach. Mowę nienawiści wykorzystywała nawet birmańska armia, a na platformie nawoływano do zwiększenia skali ludobójstwa.

W związku z wydarzeniami w Birmie Facebook nie zapłacił żadnego odszkodowania. Jednak wydarzyła się sprawa precedensowa – grupa 100 emigrantów wniosła do irlandzkiego sądu powództwo przeciwko Mecie. Sprawa w sądzie cały czas trwa i zdaje się, że dochodzenie swoich praw zajmie powodom jeszcze lata. Oczywiście nawet oczekiwana kwota 150 miliardów funtów nie cofnie wyrządzonych krzywd, ale trzeba uznać działania emigrantów za krok w stronę oddania sprawiedliwości społecznej.

Po ludobójstwie Meta obiecała ulepszyć mechanizmy wychwytywania mowy nienawiści, jednak reklamy o nienawistnej treści dalej są publikowane. Do podobnej sytuacji doszło w Etiopii, gdzie ponad dwa lata trwała wojna domowa. Facebook, pomimo wiedzy, że platforma jest wykorzystywana do podsycania nienawiści rasowej, nie zrobił żadnych zdecydowanych kroków, żeby przeciwdziałać łamaniu praw człowieka, co doprowadziło do zaostrzenia konfliktu.

Opisane wyżej wydarzenia jasno pokazują, że platformy powinny ponosić odpowiedzialność za słowa ich użytkowników, bo przecież media społecznościowe były katalizatorem tragedii na wielką skalę.  Doprowadził do tego brak wystarczających regulacji prawnych rynku cyfrowego – nieprawdziwe jest bowiem założenie, że wolny rynek sam znajdzie najpoprawniejsze rozwiązania. Najpierw Meta wykazała się niekompetencją w zakresie przewidywania skutków treści publikowanych w jej serwisach, a potem działała wbrew swoim zapewnieniom, co poskutkowało śmiercią setek i tysięcy ludzi. Korporacja odegrała znaczący wpływ w najpoważniejszych kryzysach społecznych XXI wieku i jak dotąd nie poniosła prawie żadnej odpowiedzialności, co świadczy o zdecydowanej konieczności działania ze strony rządów i organizacji międzynarodowych. Pilnie potrzebne jest jasne i przemyślane prawodawstwo w zakresie moderowania treści i odpowiedzialności platform społecznościowych za ich działania.

Rozwiązania problemu szuka Unia Europejska, która już od 2018 planuje uregulować rynek mediów społecznościowych. Wtedy rozpoczęto prace nad Aktem o Usługach Cyfrowych w UE (DSA). Projekt został zaakceptowany przez Komisję Europejską w październiku zeszłego roku, a 25 sierpnia wszedł w życie w części dotyczącej największych platform społecznościowych. Dotyczy nie tylko Facebooka i Instagrama, ale też m.in. Amazona, Wikipedii, wyszukiwarki Google lub nawet Bookinga.

Myślą przewodnią Aktu jest założenie, że to, co jest nielegalne na żywo, powinno być nielegalne w sieci. A jak głosi znana sentencja łacińska: nie ma kary bez ustawy – toteż bez konkretnego określenia obowiązków nie można mówić o odpowiedzialności. Prawo dąży do zupełności i na pewno DSA wypełnia w nim kluczową lukę. Intuicyjnie rozumieliśmy, że Facebook musi zostać ukarany, jednak według prawa nie było ku temu wystarczających podstaw. Zaniechanie „offline” jest przestępstwem, więc nie ma powodu, żeby było ono legalne w Internecie.

DSA nakłada najwięcej obowiązków na platformy o globalnym zasięgu, których miesięczna liczba użytkowników w UE przekracza 45 milionów.

Algorytmy mediów społecznościowych są zagadką i w zasadzie nikt nie ma nad nimi dostatecznej kontroli. Dlatego rozporządzenie Unii Europejskiej największy nacisk kładzie na transparentność. Platformy mają udostępniać dane o działaniu ich algorytmów, mają to również zrobić w sposób zrozumiały. Muszą informować użytkowników o powodach usunięcia konkretnego postu i dać możliwość odwołania się od tej decyzji w ramach platformy. Serwisy społecznościowe mają być też poddane corocznej, szczegółowej kontroli. Pozwoli to szybciej i skuteczniej wykryć nieprawidłowości i niebezpieczne schematy, a w razie bezczynności firmy, pociągnąć ją do odpowiedzialności. Przyczyni się to także do zwiększenia zaufania społecznego wobec platform i korzystnie wpłynie na bezpieczeństwo w Internecie każdego z nas. 

Powstaną także mechanizmy kryzysowego zapobiegania problemom bardzo dużej wagi. Komisja Europejska i specjalnie powołana rada (Europejskie Centrum Przejrzystości Algorytmicznej) będą mogły nałożyć na platformy konkretne obowiązki, takie jak zwiększenie środków na moderację danego problemu, dostosowanie algorytmów albo większą uważność w procesie akceptowania reklam. Mechanizmy te będą mogły zostać uruchomione w przypadku zagrożenia bezpieczeństwa lub zdrowia publicznego na terenie UE.

Za niedopełnienie obowiązków zawartych w Akcie o Usługach Cyfrowych nałożona może zostać sankcja w wysokości do 6% rocznego światowego obrotu dostawcy, czyli nawet więcej niż w przypadku RODO.

DSA jest bardzo śmiałym krokiem w stronę zapewnienia bezpieczeństwa w Internecie, a także poza nim. Da możliwość kontroli poczynań gigantów technologicznych i pozwoli skuteczniej egzekwować przestrzeganie praw człowieka. Należy mieć tylko nadzieję, że prawodawcy na świecie pójdą w ślady Europy.

Kwestia odpowiedzialności w mediach społecznościowych jest dużo bardziej złożona niż tylko karanie za słowa poszczególnych osób. Owszem, to też jest potrzebne, jednak widzimy bardzo poważne społeczne skutki niekompetencji i zaniechań samych właścicieli mediów społecznościowych. Dlatego regulacja rynku to w tym przypadku konieczność i być może w przyszłości zapobiegnie podobnym tragediom albo ograniczy ich skalę. Oczywiście żaden akt prawny nie wyeliminuje zupełnie wszystkich problemów, jednak mówimy tutaj o minimalizacji ryzyka i skutków, a nie ich kompletnym rozwiązaniu. Ale jeżeli postawimy kwestię odpowiedzialności za cel sam w sobie, to trzeba powiedzieć, że znacznie zbliżyliśmy się do jego osiągnięcia. Jesteśmy o krok bliżej do świata bez przemocy. Świata zarówno cyfrowego, ale przede wszystkim tego rzeczywistego.

Róża ZIELIŃSKA

Źródła:

A. Warofka An Independent Assessment of the Human Rights Impact of Facebook in Myanmar

Amnesty International Myanmar: The social atrocity: Meta and the right to remedy for the Rohingya

Avaaz Facebook: From Election to Insurrection

B. Rosen Our Response to the Violence in Washington

C. De Guzman Report: Facebook Algorithms Promoted Anti-Rohingya Violence | Time

C. Duffy On the anniversary of January 6, social media platforms are on high alert

D. Milmo Facebook revelations: what is in cache of internal documents?

D. Milmo Rohingya sue Facebook for £150bn over Myanmar genocide | Facebook | The Guardian

Dziennik Urzędowy UE https://eur-lex.europa.eu/legal-content/PL/TXT/PDF/?uri=CELEX:32022R2065&from=EN

E. Akinwotu Facebook’s role in Myanmar and Ethiopia under new scrutiny

E. Mackintosh Facebook knew it was being used to incite violence in Ethiopia. It did little to stop the spread, documents show

G. De Vynck, C. Zakrzewski, C. Lima Facebook told the White House to focus on the ‘facts’ about vaccine misinformation. Internal documents show it wasn’t sharing key data.

Global Witness Facebook approves adverts containing hate speech inciting violence and genocide against the Rohingya

H. Alcott, M. Gentzkow Social Media and Fake News in the 2016 Election

KE DSA: Council gives final approval to the protection of users’ rights online - Consilium

M. Makowska EU Agrees the Digital Services Act

M. Zwolińska Akt o rynkach (DMA) oraz akt o usługach cyfrowych (DSA)

Morrison & Foerster LLP The EU Digital Services Act - Europe’s New Regime for Content Moderation - Lexology

P. ten Thije The Digital Services Act: Adoption, Entry into Force and Application Dates - DSA Observatory

ProPublica, Washington Post Facebook Hosted Surge of Misinformation and Insurrection Threats in Months Leading Up to Jan. 6

V. Milko, B. Ortutay ‘Kill more’: Facebook fails to detect hate against Rohingya | AP News

W. Oremus How social media ‘censorship’ became a front line in the culture war

Wikipedia Rohingya genocide

Biuro prasowe Organizacji Narodów Zjednoczonych Head of Human Rights Fact‑Finding Mission on Myanmar Urges Security Council to Ensure Accountability for Serious Violations against Rohingya | UN Press