Social media

Wojny z logo Facebooka

2 miliardy dolarów. Takiej kwoty domaga się od koncernu Meta – innymi słowy od właścicieli Facebooka – grupa Etiopczyków, którzy ucierpieli podczas wojny domowej w swojej ojczyźnie. Jak przekonują, do ich cierpienia przyczynił się algorytm Facebooka, pomagający w rozpowszechnianiu mowy nienawiści i zachęt do przemocy.

Mariusz Janik
Foto: Brian Solis, CC BY 2.0, via Wikimedia Commons

Konflikt w etiopskiej prowincji Tigray wybuchł nieco ponad dwa lata temu i został – przynajmniej tymczasowo – zażegnany dopiero w ubiegłym miesiącu. Liczby ofiar jeszcze nawet dokładnie nie oszacowano, ale są to co najmniej dziesiątki – jeżeli nie setki – tysięcy zabitych, przede wszystkim cywilów ze społeczności Amhara i Oromo. Liczbę uchodźców bez dachu nad głową powściągliwie szacuje się dziś na 400 tys. osób.

Co gorsza, prowizoryczny pokój położył kres otwartym walkom sił zbrojnych obu stron – ale nie przerwał kampanii skrytobójstw działaczy i polityków po obu stronach frontu. Jedną z ofiar takich zbrodni był prof. Maereg Amare Abrha – nauczyciel akademicki z Bahir Dar University, czołowego ośrodka uniwersyteckiego w regionie Amhara. Przeszło rok temu został on zastrzelony przez nieznanych sprawców, którzy wcześniej przejechali za nim spod domu do uczelni. Ba, mordercy pilnowali przez kilka godzin, by nikt postronny nie zbliżył się do ofiary i nie udzielił jej pomocy.

We wcześniejszych tygodniach na stronach Facebooka przetoczyła się wymierzona w niego kampania nienawistnych postów, co zdaniem jego syna – dziś "twarzy" pozwu przeciw firmie Marka Zuckerberga – doprowadziło ostatecznie do zbrodni. We wrogich naukowcowi "wrzutkach" znajdowały się m.in. informacje na temat jego miejsca zamieszkania i pracy – wszystko to, czego potrzebowaliby chętni do ataku. Mało tego, moderatorzy społecznościowego portalu nie reagowali na alarmujące wiadomości od Maerega i jego bliskich, ostatni z takich postów został zablokowany dopiero po roku od morderstwa.

Etiopski casus obojętności

Historia Maerega to zaledwie początek długiej listy zeznań i relacji autorów pozwu. I niewątpliwie stanowią one potężny cios dla Facebooka i jego właścicieli: na historie ludzkich dramatów firma może jedynie odpowiedzieć dosyć suchymi, formalnymi informacjami o podejmowanych środkach zaradczych.

W przypadku Etiopii nie były one imponujące. Najbliższe centrum Facebooka zatrudniające moderatorów znajduje się w kenijskim Nairobi – nie ma tam zbyt wielu osób, które mówiłyby w którymś z najpowszechniejszych języków Etiopii: amharskim, tigrinia, oromo czy somali. Firma – pomimo że utrzymuje, iż przynajmniej od momentu wybuchu wojny domowej w Etiopii w listopadzie 2020 r. zwracała szczególną uwagę na ten kraj – nie cieszy się tam wielką popularnością. Jak szacuje, konto na Facebooku ma zaledwie co dziesiąty Etiopczyk, co jest wskaźnikiem znacznie niższym niż w wielu innych krajach.

A co za tym idzie, strumień realnych – a także potencjalnych – przychodów z rynku etiopskiego jest raczej niewielki. W przypadku takich rynków Facebook nigdy nie przesadzał z inwestycjami.

Birmańskie narzędzie nienawiści

Najlepszym przykładem była Mjanma, czy, zgodnie z niegdysiejszą nomenklaturą, Birma. Niemal dokładnie rok temu przedstawiciele społeczności Rohingya – prześladowanej i wypędzanej z tego kraju przez kilka poprzednich lat – wystąpili z pozwem przeciw Facebookowi na astronomiczną kwotę 150 mld dol. I w tym przypadku chodziło o to, że portal przymykał oko na te posty, które szczególnie intensywnie były komentowane i gromadziły najwięcej reakcji – co w nieunikniony sposób prowadziło do promowania również tych zawierających mowę nienawiści i zachęty do przemocy wobec Rohingya.

"Musimy ich zwalczać tak, jak Hitler zwalczał Żydów", "lejcie benzynę i podkładajcie ogień, niech spotkają swojego Allaha szybciej" – takie posty na temat Rohingya odszukali dziennikarze agencji Reuters, przeglądając zarówno indywidualne profile, jak i oficjalne fanpage reżimowych firm i instytucji z Mjanmy. Były tam i takie, które umieszczono w sieci dekadę temu.

Z samym pozwem uciekinierów z Birmy niewiele się dziś dzieje, za to kolejne organizacje potwierdzają oskarżenia jego autorów. We wrześniu Amnesty International opublikowała raport, w którym wytyka, że algorytm portalu "aktywnie wzmacniał" propagowanie treści wymierzonych w tę grupę etniczną, a dodatkowo mógł ignorować prośby o blokowanie kont czy konkretnych treści zawierających mowę nienawiści. Do podobnych wniosków doszła zresztą grupa ekspertów działających na zlecenie ONZ w 2018 r. – uznała ona, że Facebook był dla birmańskiego reżimu "użytecznym narzędziem" mobilizowania poparcia dla swojej kampanii przemocy wobec Rohingya.

Dylemat moderatorów świadomości

Jeżeli sądy uznałyby oskarżenia ofiar konfliktów w Etiopii i Mjanmie za zasadne, Meta znalazłaby się w nie lada opałach. Nie dlatego nawet, żeby firma została zrujnowana, co roku zarabia ona po kilkadziesiąt miliardów dolarów na swojej działalności – choć wypłata żądanych kar byłaby dla niej bolesnym ciosem.

Trudniejsza do zniesienia byłaby presja, jaka pojawiłaby się później. Na ile firma powinna inwestować w środki ostrożności – moderatorów, usuwanie agresywnych postów, blokowanie profilów instytucji i osób znanych – na rynkach, na których nie jest nazbyt aktywna? Na ile powinna przewidywać rozwój sytuacji w danym kraju, a w efekcie decydować o tym, jak daleko powinny sięgać jej interwencje w treści publikowane przez użytkowników? Jak wyznaczyć granice, po przekroczeniu których krytyka staje się mową nienawiści, czy usuwane powinny być też posty pogardliwe lub prześmiewcze? Jak oddzielać emocje użytkowników od wezwania do podejmowania działań "w realu"? Czy protestujący w Iranie, używający hasła "śmierć dyktatorowi", powinni być traktowani podobnie jak birmańscy propagandyści wzywający do zabijania Rohingya?

Wprowadzenie algorytmów, które by identyfikowały wszystkie nienawistne posty, blokowały ich rozprzestrzenianie się lub prowadziły do usunięcia, wydaje się być niemożliwe. A nawet gdyby – mechanicznie ograniczałyby one wolność słowa. Niemal pewne jest, że Meta się na to nie zdecyduje, gdyż znacznie przerzedziłoby to grono użytkowników Facebooka – jak i każdego innego popularnego portalu społecznościowego.

Z drugiej jednak strony, użytkownicy portali tego typu mają już świadomość, że epoka, w której Facebook czy Nasza Klasa służyły do odnalezienia dawno nie widzianych przyjaciół ze szkoły albo krewnych, z którymi przed laty utracono kontakt, dzielenia się wiedzą czy informacjami – dawno minęła. Dziś portale społecznościowe są co najwyżej areną światopoglądowej walki, zbiorem baniek, w których zamykają się użytkownicy i tablicą, na której pojawiają się – i przebijają – coraz to mocniejsze komunikaty w codziennej politycznej bijatyce. A im większe emocje, tym trudniej o rzeczową dyskusję, której chyba coraz bardziej nam brakuje. Może zatem nie ma co żałować Facebooka, nawet jeśli stałby się tylko wspomnieniem?


Przeczytaj też:

Etyka pracy Elona

Elon Musk chyba naprawdę nie lubi pracowników Twittera. Połowę z nich błyskawicznie wyrzucił z pracy, a 75 procent tych, którzy zostali, może wkrótce odejść. Elon powiedział im, że mają pracować „hardkorowo”, a pozbawił darmowej stołówki. Pracodawca z piekła rodem? Zwykły Janusz biznesu? Czy też ...

Elon Musk – zbawca wolności słowa?

Gdy w styczniu 2021 r. Twitter blokował urzędującego prezydenta USA, lewica cieszyła się z tego i twierdziła, że to prywatna firma, która ustala własne zasady. Gdy jednak ekscentryczny miliarder Elon Musk ogłosił zakup Twittera, nagle przez lewicową bańkę przetoczyła się fala oburzenia na to, że ...

Demokratyczna cenzura

Mainstreamowe media milczą na temat dokumentów ujawniających kulisy decyzji cenzorskich podejmowanych przez poprzednie kierownictwo Twittera. A szkoda, bo pokazują one jak w „modelowej” amerykańskiej demokracji odbiera się głos przeciwnikom politycznym.

Realne skutki wirtualnej rewolucji

Chociaż dziś nie potrafimy już sobie wyobrazić życia prywatnego oraz zawodowego bez internetu, to nie jest on bynajmniej stałym i niezmiennym bytem, czego dowodem są nieustanne próby „prawnego” ujarzmienia przez prawodawcę nieprzebytych głębin sieci.


Redaktor naczelny: Paweł Łepkowski | Edytor: Marta Narocka-Harasz  

Kontakt: Ten adres pocztowy jest chroniony przed spamowaniem. Aby go zobaczyć, konieczne jest włączenie w przeglądarce obsługi JavaScript.

Stale współpracują: Zofia Brzezińska, Robert Cheda, Jacek Cieślak, Zuzanna Dąbrowska, Gaja Hajdarowicz, Grzegorz Hajdarowicz, Mariusz Janik, Krzysztof Kowalski, Hubert Kozieł, Marek Kutarba, Jakub „Gessler” Nowak, Tomasz Nowak, Joanna Matusik, Justyna Olszewska, Marcin Piasecki, Paweł Rochowicz.

©
Wróć na górę