Mowa nienawiści w Internecie — Online hate speech

Użytkownik Facebooka, którego konto zostało zawieszone z powodu naruszenia wytycznych dotyczących mowy nienawiści. „Facebook nienawidzi Google+ ???” Frederick Md Publicity jest na licencji CC BY 2.0. Aby wyświetlić kopię tej licencji, odwiedź https://creativecommons.org/licenses/by/2.0/

Mowa nienawiści w Internecie to rodzaj mowy, która ma miejsce w Internecie w celu zaatakowania osoby lub grupy ze względu na ich rasę , religię , pochodzenie etniczne , orientację seksualną , niepełnosprawność lub płeć . Mowa nienawiści w Internecie nie jest łatwa do zdefiniowania, ale można ją rozpoznać po poniżającej lub odczłowieczającej funkcji, jaką pełni.

Wielostronne traktaty, takie jak Międzynarodowy Pakt Praw Obywatelskich i Politycznych (MPPOiP), starały się określić jego kontury. Procesy angażujące wielu interesariuszy (np. plan działania z Rabatu ) starały się zapewnić większą jasność i zaproponować mechanizmy identyfikowania nienawistnych wiadomości. Jednak mowa nienawiści jest nadal ogólnym terminem w codziennym dyskursie, mieszając konkretne zagrożenia dla jednostek i/lub grup z przypadkami, w których ludzie mogą po prostu wyładowywać swój gniew przeciwko władzy. Pośrednicy internetowi — organizacje pośredniczące w komunikacji online, takie jak Facebook , Twitter i Google — rozwinęli własne definicje mowy nienawiści, które wiążą użytkowników z zestawem reguł i pozwalają firmom ograniczać pewne formy ekspresji. Organy krajowe i regionalne starały się promować rozumienie tego terminu bardziej zakorzenione w lokalnych tradycjach .

Internet prędkość „s i zasięg utrudnia rządom egzekwowania prawodawstwa krajowego w wirtualnym świecie . Media społecznościowe to prywatna przestrzeń publicznej wypowiedzi, co utrudnia regulatorom. Niektóre firmy będące właścicielami tych przestrzeni stały się bardziej wrażliwe na problem mowy nienawiści w Internecie.

Politycy, aktywiści i naukowcy dyskutują o charakterze mowy nienawiści w Internecie i jej związku z wypowiedzią i działaniem offline, ale debaty są zwykle usuwane z systematycznych dowodów empirycznych. Charakter postrzeganej mowy nienawiści i jej możliwe konsekwencje doprowadził do położenia dużego nacisku na rozwiązania problemu i ich oparcie w międzynarodowych normach praw człowieka. Jednak samo to skupienie ograniczyło również głębsze próby zrozumienia przyczyn tego zjawiska i dynamiki, dzięki której pewne rodzaje treści pojawiają się, rozprzestrzeniają i prowadzą – lub nie – do faktycznej dyskryminacji , wrogości lub przemocy .

Online mowy nienawiści został na wzrost od początku 2020 roku, z COVID-19 napięć, Anti-Asian retorycznych, trwają rasowej niesprawiedliwości , masowe zamieszki , przemoc , a wybory prezydenckie 2020 . Jednak wiele przypadków mowy nienawiści zostało obalonych dzięki Pierwszej Poprawce , która zezwala na kontynuowanie mowy nienawiści w Internecie.

Definicje

mowa nienawiści

Pojęcie mowy nienawiści dotyka zderzenia wolności słowa z prawami indywidualnymi, grupowymi i mniejszościowymi , a także pojęciami godności , wolności i równości . Nie da się go łatwo zdefiniować, ale można go rozpoznać po jego funkcji.

W ustawodawstwie krajowym i międzynarodowym mowa nienawiści odnosi się do wyrażeń, które nawołują do podżegania do krzywd, w szczególności dyskryminacji , wrogości lub przemocy , w oparciu o tożsamość społeczną i/lub demograficzną celu. Mowa nienawiści może obejmować między innymi mowę, która nawołuje do aktów przemocy, grozi im lub zachęca do nich. Pojęcie to może obejmować również wyrażenia, które sprzyjają klimatowi uprzedzeń i nietolerancji, przy założeniu, że może to podsycać ukierunkowaną dyskryminację , wrogość i brutalne ataki. W krytycznych momentach, takich jak wybory, koncepcja mowy nienawiści może być podatna na manipulacje; oskarżenia o podsycanie mowy nienawiści mogą być wymieniane między przeciwnikami politycznymi lub wykorzystywane przez osoby u władzy do ograniczania sprzeciwu i krytyki . Mowa nienawiści (przekazywana za pomocą tekstu, obrazów lub dźwięku) może być zidentyfikowana przez przybliżenie poprzez poniżające lub odczłowieczające funkcje, którym służy. Mowa nienawiści zawiera dwa rodzaje wiadomości. Pierwsze przesłanie skierowane jest do grupy docelowej i pełni funkcję dehumanizacji i umniejszania członków tej grupy. Oto przykład tego typu wiadomości:

„Nie daj się zwieść myśleniu, że jesteś tu mile widziany. [...] Nie jesteś poszukiwany, a ty i twoje rodziny będziemy odrzucani, wykluczani, bici i wypędzeni, kiedy tylko nam się to uda. Możemy muszę teraz zachować niski profil. Ale nie bądź zbyt wygodny. [...] Bój się."

Innym przesłaniem mowy nienawiści jest poinformowanie innych o podobnych opiniach, że nie są sami, oraz wzmocnienie poczucia, że ​​grupa wewnętrzna jest (rzekomo) zagrożona. Oto przykład tego typu wiadomości, wysyłanej do osób o podobnych poglądach:

„Wiemy, że niektórzy z was zgadzają się, że ci ludzie nie są tutaj potrzebni. Wiemy, że niektórzy z was czują, że są brudni (lub niebezpieczni, kryminalni lub terroryści ). Wiedzcie teraz, że nie jesteście sami. [...] Są wystarczająco dużo z nas, aby upewnić się, że ci ludzie nie są mile widziani. Jest nas wystarczająco dużo, aby zwrócić uwagę na to, jacy naprawdę są ci ludzie”.

Charakterystyka

Rozprzestrzenianie się mowy nienawiści w Internecie, obserwowane przez specjalnego sprawozdawcę Rady Praw Człowieka ONZ ds. mniejszości, stwarza nowe wyzwania. Zarówno platformy społecznościowe, jak i organizacje stworzone w celu zwalczania mowy nienawiści uznały, że nienawistne wiadomości rozpowszechniane w Internecie są coraz powszechniejsze i zwróciły bezprecedensową uwagę na opracowanie odpowiednich reakcji. Według HateBase , aplikacji internetowej, która gromadzi przypadki mowy nienawiści w Internecie na całym świecie, większość przypadków mowy nienawiści jest skierowana do osób ze względu na pochodzenie etniczne i narodowość , ale rośnie również podżeganie do nienawiści skupiające się na religii i klasie.

Chociaż mowa nienawiści w Internecie nie różni się istotnie od podobnych wyrażeń znalezionych w trybie offline, istnieją szczególne wyzwania, które wiążą się z treściami online i ich regulacjami. Wyzwania te dotyczyły jego trwałości, wędrowności, anonimowości i złożonego charakteru międzyjurysdykcyjnego.

Mowa nienawiści może pozostawać w Internecie przez długi czas w różnych formatach na wielu platformach, które można wielokrotnie łączyć. Jak zauważył Andre Oboler, dyrektor generalny Online Hate Prevention Institute: „Im dłużej zawartość pozostaje dostępna, tym więcej szkód może wyrządzić ofiarom i wzmocnić sprawców. Jeśli usuniesz zawartość na wczesnym etapie, możesz ograniczyć ekspozycja. To jest jak sprzątanie śmieci, nie powstrzymuje ludzi przed śmieceniem, ale jeśli nie zajmiesz się problemem, po prostu się nawarstwia i dalej pogarsza." Rozmowy na Twitterze zorganizowane wokół popularnych tematów mogą ułatwić szybkie i szerokie rozpowszechnianie nienawistnych wiadomości, ale dają też wpływowym mówcom możliwość unikania wiadomości i zakończenia popularnych wątków nawołujących do przemocy . Wręcz przeciwnie, Facebook może pozwolić wielu wątkom na równoległą kontynuację i pozostanie niezauważonym; tworzenie trwalszych przestrzeni, które obrażają, dyskryminują i wyśmiewają określone osoby i grupy.

Mowa nienawiści w Internecie może być wędrowna. Nawet jeśli treść zostanie usunięta, może znaleźć wyraz w innym miejscu, być może na tej samej platformie pod inną nazwą lub w różnych przestrzeniach internetowych. Jeśli witryna zostanie zamknięta, może szybko ponownie otworzyć się za pomocą usługi hostingowej z mniej rygorystycznymi przepisami lub poprzez przeniesienie do kraju, w którym przepisy nakładają wyższy próg mowy nienawiści. Wędrowny charakter mowy nienawiści oznacza również, że źle sformułowane myśli lub zachowania pod wpływem, które w przeszłości nie znalazły publicznego wyrazu i poparcia, mogą teraz trafiać do przestrzeni, w których mogą być widoczne dla dużej liczby odbiorców.

Anonimowość może również stanowić wyzwanie w radzeniu sobie z mową nienawiści w Internecie. „(T)internet ułatwia anonimowy i pseudonimowy dyskurs, który może równie łatwo przyspieszyć destrukcyjne zachowania, jak i napędzać dyskurs publiczny”. Jak stwierdził Drew Boyd, dyrektor operacyjny w The Sentinel Project , „Internet daje ludziom możliwość mówienia przerażających rzeczy, ponieważ myślą, że nie zostaną odkryte. To właśnie sprawia, że ​​mowa nienawiści w Internecie jest tak wyjątkowa, ponieważ ludzie czują się znacznie bardziej Wygodnie mówiąc nienawiść w przeciwieństwie do prawdziwego życia, kiedy muszą radzić sobie z konsekwencjami tego, co mówią”. Chiny i Korea Południowa egzekwują zasady dotyczące prawdziwych nazw w mediach społecznościowych . Facebook , LinkedIn i Quora próbowały aktywować system prawdziwych nazw, aby mieć większą kontrolę nad mową nienawiści w Internecie. Takie środki są głęboko kwestionowane, ponieważ uderzają w prawo do prywatności i jego skrzyżowanie z wolnością wypowiedzi.

Wiele przypadków mowy nienawiści w Internecie jest publikowanych przez internetowe „trolle”, które są zazwyczaj pseudonimowymi użytkownikami, którzy publikują szokujące, wulgarne i ogólnie nieprawdziwe treści, które mają wywołać negatywną reakcję ludzi, a także oszukać, wpłynąć, a czasem zwerbuj ich, jeśli podzielają tę samą opinię. Media społecznościowe zapewniły platformę dla radykalnych lub ekstremistycznych grup politycznych do tworzenia, sieciowania i współpracy w celu rozpowszechniania ich przesłań antyestabliszmentowych i antypolitycznej poprawności oraz promowania ideologii, które są rasistowskie, antyfeministyczne, homofobiczne itp. anonimowa komunikacja online jest rzadka, ponieważ wymaga od użytkownika zastosowania wysoce technicznych środków, aby uniemożliwić ich łatwą identyfikację.

Kolejną komplikacją jest transnarodowy zasięg Internetu , podnoszący kwestie współpracy między jurysdykcjami w odniesieniu do prawnych mechanizmów zwalczania mowy nienawiści. Chociaż w Europie , Azji i Ameryce Północnej obowiązują umowy o wzajemnej pomocy prawnej , ich działanie jest charakterystycznie powolne. Ponadnarodowy zasięg wielu z sektora prywatnego pośredników internetowych może zapewnić bardziej skuteczną kanał dla rozwiązywania problemów w niektórych przypadkach, mimo że organy te są również często wpływ na cross-jurysdykcyjnych odwołań do danych (takich jak ujawniających tożsamość autora (ów) określonej treści). Każdy kraj inaczej rozumie pojęcie mowy nienawiści, co utrudnia ściganie sprawców mowy nienawiści w Internecie, zwłaszcza w Stanach Zjednoczonych, gdzie istnieje głęboko zakorzenione konstytucyjne zobowiązanie do wolności słowa .

W przeciwieństwie do rozpowszechniania mowy nienawiści za pośrednictwem konwencjonalnych kanałów, rozpowszechnianie mowy nienawiści w Internecie angażuje wielu aktorów, świadomie lub nie. Kiedy sprawcy rozpowszechniają swój nienawistny przekaz w mediach społecznościowych, nie tylko krzywdzą swoje ofiary, ale mogą również naruszać warunki korzystania z usługi na tej platformie, a czasami nawet prawo stanowe, w zależności od ich lokalizacji. Ofiary ze swojej strony mogą czuć się bezradne w obliczu nękania w sieci, nie wiedząc, do kogo zwrócić się o pomoc. Organizacje pozarządowe i grupy lobbystyczne podnoszą świadomość i zachęcają różne zainteresowane strony do podejmowania działań.

Niektóre firmy technologiczne, takie jak Facebook , używają systemów sztucznej inteligencji (AI) do monitorowania mowy nienawiści. Jednak sztuczna inteligencja może nie zawsze być skutecznym sposobem monitorowania mowy nienawiści, ponieważ systemom brakuje umiejętności emocji i oceny, które mają ludzie. Na przykład użytkownik może opublikować lub skomentować coś, co klasyfikuje się jako mowę nienawiści i/lub narusza wytyczne społeczności, ale jeśli docelowe słowo jest błędnie napisane lub niektóre litery zostaną zastąpione symbolami, systemy sztucznej inteligencji nie rozpoznają tego. Dlatego ludzie nadal muszą monitorować systemy sztucznej inteligencji, które monitorują mowę nienawiści, co jest pojęciem określanym jako „ostatnia mila automatyzacji”.

Ramy

Precedens Burzy

W następstwie 2014 „s dramatyczne zdarzenia , wzywa do bardziej restrykcyjnych lub inwazyjnych środków, które zawierają potencjał w Internecie za szerzenie nienawiści i przemocy są powszechne, jakby powiązania między przemocą online i offline były dobrze znane. Wręcz przeciwnie, jak pokazuje poniższy przykład, pozory często mylą. Stormfront jest uważany za pierwszą „stronę szerzącą nienawiść”. Zapoczątkowany w marcu 1995 roku przez byłego przywódcę Ku Klux Klanu , szybko stał się popularną przestrzenią dyskusji o ideach związanych z neonazizmem , białym nacjonalizmem i białym separatyzmem , najpierw w Stanach Zjednoczonych, a potem na całym świecie. Forum gospodarzy wzywa do rasistowskiej świętej wojny i podżegania do użycia przemocy w celu przeciwstawienia się imigracji . i jest uważana za przestrzeń do rekrutacji aktywistów i ewentualnie koordynowania aktów przemocy. Nieliczne badania, które badały tożsamość Stormfront, w rzeczywistości przedstawiają bardziej złożony obraz. Zamiast postrzegać to jako przestrzeń do koordynowania działań. Znani działacze skrajnej prawicy oskarżyli forum, że jest to tylko spotkanie dla „ wojowników klawiatury ”. Jeden z nich na przykład, jak donoszą De Koster i Houtman, stwierdził: „Przeczytałem sporo artykułów na forum i uderza mnie, że robi się wielkie zamieszanie, podczas gdy niewiele się dzieje. Sama sekcja aktywizm/polityka jest po prostu śmieszne. [...] Nie wspominając o zgromadzeniach, na których pojawiają się tylko cztery osoby." Jeszcze bardziej odkrywcze są niektóre odpowiedzi na te oskarżenia dostarczane przez zwykłych użytkowników witryny. Jak przekonywał jeden z nich: „Oczywiście, mam prawo mieć opinię bez aktywnego jej wykonywania. [...] Nie chodzę na demonstracje i nie wstępuję do partii politycznej. Jeśli to czyni mnie wojownikiem klawiatury, to znaczy dobrze. Czuję się tak dobrze. [...] Nie wstydzę się tego." De Koster i Houtman przebadali tylko jeden krajowy rozdział Stormfront i niereprezentatywną próbę użytkowników, ale odpowiedzi takie jak powyższe powinny przynajmniej skłaniać do ostrożności wobec hipotez łączących wyrażenia i działania, nawet w przestrzeniach, których główną funkcją jest prezentowanie poglądów ekstremistycznych. Southern Poverty Law Center opublikowało badanie w 2014 r., w którym stwierdzono, że użytkownicy strony „byli rzekomo odpowiedzialni za zamordowanie prawie 100 osób w ciągu ostatnich pięciu lat”.

Zasady międzynarodowe

Mowa nienawiści nie jest wyraźnie wymieniona w wielu międzynarodowych dokumentach i traktatach dotyczących praw człowieka , ale jest pośrednio przywoływana przez niektóre zasady związane z ludzką godnością i wolnością wypowiedzi . Na przykład Powszechna Deklaracja Praw Człowieka (UDHR) z 1948 r. , która została sporządzona w odpowiedzi na okrucieństwa II wojny światowej , zawiera prawo do równej ochrony na mocy prawa w art. 7, który głosi, że: „Wszyscy mają prawo równej ochrony przed jakąkolwiek dyskryminacją naruszającą niniejszą Deklarację oraz przed jakimkolwiek podżeganiem do takiej dyskryminacji.” UDHR stwierdza również, że każdy ma prawo do wolności wypowiedzi, która obejmuje „wolność posiadania opinii bez ingerencji oraz poszukiwania, otrzymywania i przekazywania informacji i idei za pośrednictwem wszelkich mediów i bez względu na granice”.

UDHR odegrała decydującą rolę w ustaleniu ram i programu ochrony praw człowieka, ale Deklaracja nie jest wiążąca . Następnie stworzono serię wiążących dokumentów, aby zapewnić bardziej solidną ochronę wolności wypowiedzi i ochronę przed dyskryminacją. Międzynarodowy Pakt Praw Obywatelskich i Politycznych (ICCPR) adresy nienawiści i zawiera prawo do wolności wypowiedzi w artykule 19 i zakazu rzecznictwa do nienawiści, stanowiące podżeganie do dyskryminacji, wrogości lub przemocy w artykule 20. Inne bardziej dostosowane międzynarodowy prawny instrumenty zawierają przepisy, które mają reperkusje dla definicji mowy nienawiści i identyfikacji reakcji na nią, takie jak: Konwencja o zapobieganiu i karaniu zbrodni ludobójstwa (1951), Międzynarodowa konwencja w sprawie likwidacji wszelkich form dyskryminacji rasowej ICERD (1969) oraz, w mniejszym stopniu, Konwencja w sprawie likwidacji wszelkich form dyskryminacji kobiet , CEDAW (1981).

Mowa nienawiści i MPPOiP

MPPOP jest instrumentem prawnym najbardziej powszechnie określa się w debatach na temat mowy nienawiści i jego regulacji, choć wyraźnie nie używać terminu „mowy nienawiści”. Artykuł 19, często określany jako część „rdzenia Paktu”, zapewnia prawo do wolności wypowiedzi. Określa to prawo, a także zawiera ogólne ograniczenia, z którymi każde ograniczenie prawa musi być zgodne, aby było zgodne z prawem. Po art. 19 następuje art. 20, który wyraźnie ogranicza wolność wypowiedzi w przypadkach „obronienia nienawiści narodowej, rasowej lub religijnej, która stanowi podżeganie do dyskryminacji, wrogości lub przemocy”. Decyzja o włączeniu tego przepisu, który można scharakteryzować jako ucieleśniający szczególną konceptualizację mowy nienawiści, została mocno zakwestionowana. Komitet Praw Człowieka , organ Organizacji Narodów Zjednoczonych powołany przez ICCPR w celu nadzorowania jego wdrażania, świadomy napięć, starał się podkreślić, że art. 20 jest w pełni zgodny z prawem do wolności wypowiedzi. W MPPOiP prawo do wolności wypowiedzi nie jest prawem absolutnym. Może być prawnie ograniczony przez państwa w ograniczonych okolicznościach:

„3. Wykonywanie praw przewidzianych w ustępie 2 niniejszego artykułu wiąże się ze szczególnymi obowiązkami i odpowiedzialnością. Może zatem podlegać pewnym ograniczeniom, ale mogą one być tylko takie, jakie są przewidziane przez prawo i są konieczne: ) O poszanowanie praw lub reputacji innych osób; (b) O ochronę bezpieczeństwa narodowego lub porządku publicznego ( ordre public ) lub zdrowia publicznego lub moralności ."

Pomiędzy art. 19 ust. 3 i art. 20 istnieje rozróżnienie pomiędzy opcjonalnymi i obowiązkowymi ograniczeniami prawa do wolności wypowiedzi. Art. 19 ust. 3 stanowi, że ograniczenia wolności wypowiedzi „mogą zatem podlegać pewnym ograniczeniom”, o ile są przewidziane przez prawo i konieczne do pewnych uzasadnionych celów. Artykuł 20 stanowi, że wszelkie propagowanie (pewnych rodzajów) nienawiści, które stanowią podżeganie do dyskryminacji , wrogości lub przemocy „jest prawnie zabronione”. Pomimo wskazań wskazujących na wagę wykroczeń związanych z mową, które powinny być prawnie zakazane na mocy art. 20, nadal pozostaje złożoność. W szczególności istnieje szara strefa w konceptualizacji wyraźnych rozróżnień między (i) wyrażaniem nienawiści, (ii) wypowiedziami propagującymi nienawiść oraz (iii) mową nienawiści, która w szczególności stanowi podżeganie do praktycznych szkód wynikających z dyskryminacji, wrogości lub przemocy. Chociaż państwa mają obowiązek zakazania wypowiedzi postrzeganej jako „nawoływanie do nienawiści, która stanowi podżeganie do dyskryminacji, wrogości lub przemocy”, zgodnie z art. 20 ust. 2, nie jest jasno określone, jak je interpretować.

Inne międzynarodowe instrumenty prawne

ICERD

Międzynarodowa konwencja w sprawie likwidacji wszelkich form dyskryminacji rasowej (ICERD), która weszła w życie w 1969 roku, ma również wpływ na konceptualizacji form mowy nienawiści. ICERD różni się od ICCPR pod trzema względami. Jego konceptualizacja mowy nienawiści ogranicza się konkretnie do mowy, która odnosi się do rasy i pochodzenia etnicznego . Twierdzi w art. 4 lit. a), że państwa strony:

„Uznaje za przestępstwo karalne wszelkie rozpowszechnianie idei opartych na wyższości rasowej lub nienawiści, podżeganie do dyskryminacji rasowej, jak również wszelkie akty przemocy lub podżeganie do takich czynów przeciwko jakiejkolwiek rasie lub grupie osób o innym kolorze lub pochodzeniu etnicznym , a także udzielanie wszelkiej pomocy dla działań rasistowskich, w tym ich finansowanie; Obowiązek ten nałożony przez ICERD na państwa-strony jest również bardziej rygorystyczny niż w przypadku art. , wrogość lub przemoc”.

Istotna różnica dotyczy kwestii intencji . Pojęcie „reprezentowania nienawiści” wprowadzone w MPPOiP jest bardziej szczegółowe niż mowa dyskryminująca opisana w ICERD, ponieważ wymaga rozważenia intencji autora, a nie wyrażenia w oderwaniu — dzieje się tak, ponieważ „rzecznictwo” jest interpretowane w MPPOiP jako wymagający zamiaru siania nienawiści. Komitet ds. Likwidacji Dyskryminacji Rasowej aktywnie odniósł się do mowy nienawiści w swoim Zaleceniu Ogólnym nr 29, w którym Komitet zaleca państwom-stronom:

„(r) Podejmij środki przeciwko rozpowszechnianiu idei wyższości i niższości kastowej lub które usiłują usprawiedliwić przemoc, nienawiść lub dyskryminację wobec społeczności pochodzenia; (s) Podejmij surowe środki przeciwko wszelkim podżeganiom do dyskryminacji lub przemocy wobec społeczności, w tym za pośrednictwem Internetu; (t) podejmować działania mające na celu podniesienie świadomości pracowników mediów na temat charakteru i występowania dyskryminacji ze względu na pochodzenie;"

Te punkty, które odzwierciedlają odniesienie ICERD do rozpowszechniania wypowiedzi, mają znaczenie dla Internetu . Wyrażanie pomysłów w niektórych kontekstach internetowych może od razu sprowadzać się do ich rozpowszechniania. Jest to szczególnie istotne w przypadku przestrzeni prywatnych, które zaczęły odgrywać rolę publiczną, jak w przypadku wielu platform społecznościowych .

Konwencja o ludobójstwie

Podobnie jak ICERD, Konwencja o Ludobójstwie ma na celu ochronę grup określonych rasą, narodowością lub pochodzeniem etnicznym, chociaż rozszerza również swoje postanowienia na grupy religijne. Jeśli chodzi o mowę nienawiści, Konwencja o Ludobójstwie ogranicza się jedynie do czynów publicznie nawołujących do ludobójstwa , uznawanych za „czyny popełnione z zamiarem zniszczenia , w całości lub w części, grupy narodowej, etnicznej, rasowej lub religijnej”, niezależnie od tego, czy takie czyny są podejmowane w czasie pokoju lub w czasie wojny. W szczególności mowa nienawiści ze względu na płeć (w odróżnieniu od działań dyskryminacyjnych) nie jest szczegółowo opisana w prawie międzynarodowym .

CEDAW

Konwencja w sprawie likwidacji wszelkich form dyskryminacji kobiet (CEDAW), która weszła w życie w 1981 roku, obowiązki nakłada na państwa do potępiają dyskryminację kobiet i „zapobieganie, dochodzenie, ściganie i karanie” akty przemocy na tle płciowym.

Odpowiedzi regionalne

Większość instrumentów regionalnych nie zawiera konkretnych artykułów nakazujących zakaz mowy nienawiści, ale ogólniej pozwalają one państwom ograniczać wolność wypowiedzi – które to przepisy można stosować w konkretnych przypadkach.

Amerykańska Konwencja Praw Człowieka

Amerykańska Konwencja Praw Człowieka opisuje ograniczenia wolności wypowiedzi w sposób podobny do Paktu w artykule 19 (3). Organizacja Państw Amerykańskich przyjęła również inną deklarację w sprawie zasad wolności wypowiedzi, która zawiera klauzulę specyficzny stwierdzając, że „wcześniejsze uwarunkowania wyrażeń, takich jak prawdomówność, terminowości lub bezstronności jest niezgodne z prawem do wolności wypowiedzi uznanej w międzynarodowym instrumenty." Międzyamerykański Trybunał stwierdził, że „nadużywanie wolności informacji nie może być zatem kontrolowane za pomocą środków zapobiegawczych, a jedynie poprzez późniejsze nałożenie sankcji na tych, którzy są winni nadużyć”. Trybunał nakłada również test na państwa chcące wprowadzić ograniczenia wolności wypowiedzi, ponieważ muszą one przestrzegać następujących wymogów: „a) istnienie wcześniej ustalonych podstaw odpowiedzialności; b) wyraźne i precyzyjne zdefiniowanie tych podstaw przez prawo ; c) zasadność celów, które mają być osiągnięte; d) a wykazanie, że te podstawy odpowiedzialności są „niezbędne do zapewnienia” wyżej wymienionych celów.” System międzyamerykański ma specjalnego sprawozdawcę ds. wolności słowa, który przeprowadził kompleksowe badanie na temat mowy nienawiści. Doszedł do wniosku, że międzyamerykański system praw człowieka różni się od podejścia ONZ i europejskiego w kluczowym punkcie: system międzyamerykański obejmuje i ogranicza mowę nienawiści, która w rzeczywistości prowadzi do przemocy, i tylko taką mowę można ograniczyć.

Afrykańska Karta Praw Człowieka i Praw Ludów

Afrykańska Karta Praw Człowieka i Praw Ludów inne podejście w artykule 9 (2), dzięki czemu do ograniczeń dotyczących praw, o ile są «zgodnie z prawem». Koncepcja ta spotkała się z krytyką i istnieje ogromna wiedza prawnicza dotycząca tzw. klauzul „claw-back” i ich interpretacji. Krytyka dotyczy głównie tego, że kraje mogą manipulować własnym ustawodawstwem i osłabiać istotę prawa do wolności wypowiedzi. Deklaracja Zasad Wolności Wypowiedzi w Afryce zawiera wyższy standard ograniczeń wolności wypowiedzi. Oświadcza, że ​​prawo „nie powinno być ograniczane ze względu na porządek publiczny lub bezpieczeństwo narodowe, chyba że istnieje realne ryzyko szkody dla uzasadnionego interesu i istnieje ścisły związek przyczynowy między ryzykiem szkody a wyrażeniem”.

Kairska Deklaracja Praw Człowieka w Islamie

W 1990 r. Organizacja Konferencji Islamskiej (która później została przemianowana na Organizację Współpracy Islamskiej, OIC) przyjęła Deklarację Kairską o Prawach Człowieka w Islamie (CDHRI), która wzywa do kryminalizacji wypowiedzi wykraczającej poza przypadki nieuchronnej przemocy i obejmujące „ aktów lub wypowiedzi, które oznaczają manifestację nietolerancji i nienawiści”.

Arabska Karta Praw Człowieka

Arabska Karta Praw Człowieka, który został przyjęty przez Radę do Ligi Państw Arabskich w 2004 roku, zawiera w artykule 32 przepisy, które są istotne również dla komunikacji on-line, ponieważ gwarantuje prawo do „wolności opinii i wypowiedzi oraz prawo szukać, otrzymywać i przekazywać informacje i pomysły za pomocą dowolnego medium, niezależnie od granic geograficznych”. Dopuszcza ograniczenie w szerokim zakresie w paragrafie 2 „Takie prawa i wolności są wykonywane zgodnie z podstawowymi wartościami społeczeństwa”.

Deklaracja Praw Człowieka ASEAN

ASEAN Deklaracja Praw Człowieka obejmuje prawo do wolności wypowiedzi w artykule 23. Artykuł 7 Deklaracja przewiduje ogólnych ograniczeń, potwierdzając, „realizacja praw człowieka należy rozpatrywać w regionalnym i krajowym łożyska kontekstowego w inny umysł polityczny, ekonomiczny , prawna, społeczna, kulturowa, historyczna i religijna”.

Karta Praw Podstawowych Unii Europejskiej

Karta Praw Podstawowych , która deklaruje prawo do wolności wypowiedzi w artykule 11, ma klauzuli, która zakazuje nadużywania prawa. Twierdzi, że Karta nie może być interpretowana jako sugerująca jakiekolwiek „ograniczenie w większym stopniu, niż jest w niej przewidziane”. Przykładem ograniczenia, które pociąga za sobą ścisły test konieczności i proporcjonalności, jest przepis dotyczący wolności wypowiedzi w Europejskiej Konwencji Praw Człowieka , który podkreśla, że ​​korzystanie z wolności wypowiedzi wiąże się z obowiązkami i odpowiedzialnością. „Może podlegać takim formalnościom, warunkom, ograniczeniom lub karom, jakie są przewidziane przez prawo i są konieczne w społeczeństwie demokratycznym , w interesie bezpieczeństwa narodowego , integralności terytorialnej lub bezpieczeństwa publicznego , w celu zapobiegania zamieszkom lub przestępstwom, dla ochrony zdrowia lub moralności, ochrony dobrego imienia lub praw innych osób, zapobiegania ujawnieniu informacji otrzymanych w tajemnicy lub zachowania autorytetu i bezstronności sądownictwa."

Europejski Trybunał Praw Człowieka jest ostrożny, aby odróżnić mowę nienawiści oraz prawa osób fizycznych do swobodnie wyrażać swoje poglądy, nawet jeśli inni obrażają. Istnieją regionalne przypadki odnoszące się konkretnie do mowy nienawiści w Internecie. Rady Europy (RE) w 2000 roku wydała zalecenie dotyczące ogólnej polityki w sprawie zwalczania rozpowszechniania rasistowskich, ksenofobicznych i antysemickich materiałów za pośrednictwem Internetu. Utworzenie w 2001 r. Konwencji Rady Europy o cyberprzestępczości, która reguluje wzajemną pomoc w zakresie uprawnień dochodzeniowych, zapewnia państwom-sygnatariuszom mechanizm postępowania z danymi komputerowymi , w tym transnarodową mowę nienawiści w Internecie. W 2003 r. Rada Europy wprowadziła dodatkowy protokół do Konwencji o cyberprzestępczości, który dotyczy wyrażania w Internecie rasizmu i ksenofobii. Konwencja i jej protokół zostały otwarte do podpisu i ratyfikacji dla krajów spoza Europy , a inne kraje, takie jak Kanada i Republika Południowej Afryki , są już częścią tej konwencji. Protokół nakłada na państwa członkowskie obowiązek kryminalizacji rasistowskich i ksenofobicznych obelg w Internecie „(i) osób z tego powodu, że należą one do grupy wyróżniającej się rasą, kolorem skóry, pochodzeniem lub pochodzeniem narodowym lub etnicznym, a także religią, jeśli są używane jako pretekst dla któregokolwiek z tych czynników; lub (ii) grupę osób wyróżniającą się którąkolwiek z tych cech."

Przestrzenie prywatne

Pośrednicy internetowi, tacy jak platformy społecznościowe , dostawcy usług internetowych lub wyszukiwarki , określają w swoich warunkach świadczenia usług, w jaki sposób mogą interweniować w zezwalaniu, ograniczaniu lub ukierunkowywaniu tworzenia i dostępu do określonych treści. Ogromna liczba interakcji online ma miejsce na platformach społecznościowych, które wykraczają poza jurysdykcje krajowe i które to platformy opracowały również własne definicje mowy nienawiści i środki, aby na nią reagować. W przypadku użytkownika, który narusza regulamin, zamieszczone przez niego treści mogą zostać usunięte z platformy lub dostęp do nich może zostać ograniczony do oglądania tylko przez określoną kategorię użytkowników (np. użytkownicy mieszkający poza określonym krajem).

Zasady, które inspirują warunki umów o świadczenie usług oraz mechanizmy, które każda firma opracowuje w celu zapewnienia ich realizacji, mają znaczący wpływ na zdolność ludzi do wyrażania się w Internecie, a także do ochrony przed mową nienawiści. Większość pośredników musi prowadzić negocjacje z rządami krajowymi w zakresie, który różni się w zależności od rodzaju pośrednika, obszarów, w których firma jest zarejestrowana, oraz obowiązującego reżimu prawnego. Jak wyjaśnia Tsesis, „(i) jeśli transmisje w Internecie są wysyłane i odbierane w określonych lokalizacjach, określone fora zachowują jurysdykcję do ścigania nielegalnych działań dokonywanych w Internecie”. Dostawcy usług internetowych są najbardziej bezpośrednio dotknięci przepisami krajowymi, ponieważ muszą oni znajdować się w określonym kraju, aby działać. Wyszukiwarki, chociaż mogą modyfikować wyniki wyszukiwania ze względów samoregulacyjnych lub handlowych, coraz częściej przystosowują się do systemu odpowiedzialności pośrednika zarówno w swoich zarejestrowanych jurysdykcjach macierzystych, jak i innych jurysdykcjach, w których świadczą swoje usługi, albo proaktywnie usuwając linki do treści, albo na żądanie władz.

Od wszystkich pośredników internetowych obsługiwanych przez firmy prywatne oczekuje się również poszanowania praw człowieka . Jest to określone w Zasadach przewodnich dotyczących biznesu i praw człowieka opracowanych przez Biuro Wysokiego Komisarza Narodów Zjednoczonych ds. Praw Człowieka . Dokument podkreśla odpowiedzialność biznesu w zakresie przestrzegania praw człowieka. W zasadzie 11 stwierdza, że: „Przedsiębiorstwa powinny szanować prawa człowieka. Oznacza to, że powinny unikać naruszania praw człowieka innych osób i powinny zajmować się negatywnymi skutkami praw człowieka, w które są zaangażowane”. Wytyczne ONZ wskazują również, że w przypadkach, w których łamane są prawa człowieka, firmy powinny „zapewnić lub współpracować w ich naprawie poprzez legalne procesy”. W przypadku pośredników internetowych i koncepcji mowy nienawiści oznacza to, że powinni oni zadbać o odpowiednie działania.

Odpowiedzi społeczne

Studium przypadku

Panel Amerykańskich Trendów

W lipcu 2020 r. Pew Research Center przeprowadziło ankietę wśród ponad 10 000 osób dorosłych, aby zbadać wpływ mediów społecznościowych na politykę i aktywizm na rzecz sprawiedliwości społecznej . 23% respondentów, którzy są dorosłymi użytkownikami mediów społecznościowych, zgłosiło, że treści w mediach społecznościowych spowodowały, że zmienili swoją opinię, pozytywną lub negatywną, w kwestii sprawiedliwości politycznej lub społecznej. 35% tych respondentów powołało się na ruch Black Lives Matter , reformę policji i/lub stosunki rasowe . 18% respondentów zgłosiło zmianę opinii na temat partii politycznych, ideologii , polityków i/lub prezydenta Donalda Trumpa . 9% respondentów wymieniło kwestie sprawiedliwości społecznej, takie jak prawa LGBTQIA+ , feminizm , imigracja itp. 8% respondentów zmieniło zdanie na temat pandemii COVID-19 , a 10% przytoczyło inne opinie. Na podstawie tych wyników media społecznościowe odgrywają ważną rolę w wywieraniu wpływu na opinię publiczną.

Manipulacja mediami i dezinformacja online

Badanie przeprowadzone przez badaczy Alice Marwick i Rebeccę Lewis zaobserwowało manipulacje medialne i zbadało, w jaki sposób alt-right promowała, tworzyła sieci i współpracowała, aby wpłynąć na ich kontrowersyjne przekonania, które mogły potencjalnie wpłynąć na zwycięstwo prezydenta Trumpa w wyborach w 2016 roku . W przeciwieństwie do mediów głównego nurtu , alt-right nie musi przestrzegać żadnych zasad, jeśli chodzi o wywieranie wpływu, i nie musi martwić się o oceny sieci, recenzje odbiorców lub sensację . Alternatywne grupy mogą dzielić się i przekonywać innych o swoich kontrowersyjnych przekonaniach tak dosadnie i bezczelnie, jak chcą, na dowolnej platformie, która mogła odegrać rolę w wyborach w 2016 roku. Chociaż w badaniu nie można było wywnioskować, jaki dokładnie był wpływ na wybory, zapewniono obszerne badania na temat cech manipulacji mediami i trollingu .

Mowa nienawiści i profilowanie językowe w grach online

Profesor i gracz Kiszonna Gray badał ucisk w społeczności graczy online i wezwał Microsoft i twórców gier do „krytycznej oceny doświadczeń nietradycyjnych graczy w społecznościach internetowych… rozpoznanie różnorodności … [i że] domyślna populacja graczy wdrażają hegemoniczną biel i męskość ze szkodą dla nie-białych i/lub niemęskich użytkowników w przestrzeni”. Gray zbadał seksizm i rasizm w społeczności graczy online . Gracze próbują zidentyfikować płeć, seksualność i pochodzenie etniczne swoich kolegów z drużyny i przeciwników poprzez profilowanie językowe , gdy inni gracze nie są widoczni. Ze względu na intensywną atmosferę wirtualnej sfery gier i niemożność niezauważenia, zlokalizowania lub fizycznej konfrontacji gracze mają tendencję do wypowiadania w wirtualnej grze rzeczy, których prawdopodobnie nie powiedzieliby w miejscach publicznych. Wielu graczy z marginalizowanych społeczności odłączyło się od globalnej sieci gier i przyłączyło się do „ klanów ”, które składają się wyłącznie z graczy tej samej płci, płci i/lub tożsamości etnicznej, aby uniknąć dyskryminacji podczas grania. Badanie wykazało, że 78 procent wszystkich graczy online gra w „gildiach”, które są mniejszymi grupami graczy, podobnymi do „ klanów ”. Jeden z najbardziej znanych „ klanów ”, Puerto Reekan Killaz, stworzył przestrzeń gier online, w której czarnoskóre i latynoskie kobiety ze społeczności LGBTQIA+ mogą grać bez ryzyka rasizmu , natywizmu , homofobii , seksizmu i molestowania seksualnego .

Oprócz mowy nienawiści, profesor i gracz Lisa Nakamura odkryła, że ​​wielu graczy doświadczyło turystyki tożsamości – kiedy osoba lub grupa zawłaszcza i udaje członków innej grupy – jak Nakamura obserwował, jak biali mężczyźni grają jako japońskie „ gejsze ” kobiety. Turystyka tożsamościowa często prowadzi do stereotypów , dyskryminacji i kulturowego zawłaszczania . Nakamura wezwał społeczność graczy online do rozpoznania Cybertypingu – „sposobu, w jaki Internet propaguje, rozpowszechnia i utowarowia obrazy rasy i rasizmu”.

Antychińska retoryka stosowana przez sprawców antyazjatyckiej nienawiści

Według danych Stop AAPI (Asian-American/Pacific Islander) Hate według stanu na sierpień 2020 r. ponad 2500 Amerykanów pochodzenia azjatyckiego zgłosiło doświadczanie rasizmu podsycanego przez COVID-19 , przy czym 30,5% tych przypadków zawiera antychińską retorykę . Język używany w tych incydentach jest podzielony na pięć kategorii: zjadliwa wrogość, kozły ofiarne z Chin, antyimigrancki natywizm , rasistowskie charakterystyki Chińczyków i rasistowskie obelgi . 60,4% tych zgłoszonych incydentów wpisuje się w kategorię zjadliwej wrogości, która obejmuje zwroty takie jak „zabierz ode mnie chińskiego**!”

Myanmar

Internet rozrósł się w niespotykanym dotąd tempie. Birma zmierza w kierunku większej otwartości i dostępu, co prowadzi do negatywnych skutków w mediach społecznościowych, takich jak używanie mowy nienawiści i nawoływania do przemocy. W 2014 r. Specjalna Sprawozdawczyni Rady Praw Człowieka ONZ ds. Mniejszości wyraziła zaniepokojenie szerzeniem dezinformacji , mowy nienawiści i podżegania do przemocy , dyskryminacji i wrogości w mediach i Internecie, szczególnie wymierzonych w społeczność mniejszościową. Rosnące napięcie w Internecie szło równolegle z przypadkami rzeczywistej przemocy, w wyniku której setki osób zginęło, a tysiące zostało przesiedlonych. Jedno wyzwanie w tym procesie dotyczyło mniejszości etnicznych i religijnych. W 2013 roku 43 osoby zginęły w wyniku starć, które wybuchły po sporze w stanie Rakhine w zachodniej części kraju. Rok wcześniej ponad 200 osób zostało zabitych, a tysiące przesiedlonych 37 z powodu przemocy etnicznej, która wybuchła po rzekomym przypadku gwałtu. Na tym tle szybkie pojawianie się nowych przestrzeni internetowych, choć dla ułamka populacji, odzwierciedla niektóre z tych głęboko zakorzenionych napięć w nowej formie.

Radzenie sobie z nietolerancją i mową nienawiści w Internecie jest coraz większym problemem. Facebook szybko stał się platformą wybieraną przez tych obywateli, którzy stawiają pierwsze kroki w sieci. W tym środowisku istniały jednostki i grupy, które opowiadały się za bardziej agresywnym używaniem tego medium, zwłaszcza gdy czuły się chronione poczuciem słuszności i pretensji do działania w obronie interesu narodowego . Postacie polityczne również korzystały z mediów internetowych w określonych celach. W mediach społecznościowych używano obraźliwych określeń w odniesieniu do mniejszości. W tej złożonej sytuacji różne podmioty zaczęły się mobilizować, starając się zaoferować odpowiedzi, które pozwolą uniknąć dalszej przemocy. Facebook starał się odgrywać bardziej aktywną rolę w monitorowaniu korzystania z platformy sieci społecznościowej w Birmie, rozwijając partnerstwa z lokalnymi organizacjami i udostępniając wytyczne dotyczące zgłaszania problemów w Birmie.

Lokalne społeczeństwo obywatelskie stanowi mocny głos, otwarcie potępiając rozprzestrzenianie się mowy nienawiści w Internecie, ale jednocześnie wzywając do znalezienia alternatyw dla cenzury . Wśród najbardziej innowacyjnych odpowiedzi znalazł się Panzagar, co w języku birmańskim oznacza „mowę kwiatów”, kampanię rozpoczętą przez blogerkę i aktywistkę Nay Phone Latt, aby otwarcie przeciwstawić się mowie nienawiści. Celem inicjatywy było zaoferowanie radosnego przykładu interakcji między ludźmi, zarówno online, jak i offline. Lokalni aktywiści skupili się na lokalnych rozwiązaniach, zamiast próbować mobilizować globalne społeczeństwo obywatelskie w tych kwestiach. Jest to w przeciwieństwie do niektórych innych kampanii internetowych, które były w stanie przyciągnąć uwagę świata na stosunkowo zaniedbane problemy. Popularnymi przykładami są takie inicjatywy, jak te promowane przez Koalicję Ratowania Darfuru na rzecz wojny domowej w Sudanie czy organizację Invisible Children with the Kony2012 , która potępiła okrucieństwa popełniane przez Armię Oporu Lorda . Jak wskazują komentarze do tych kampanii, takie globalne reakcje mogą mieć negatywny wpływ na możliwość znalezienia lokalnych rozwiązań.

Etiopia

Długotrwała rywalizacja etniczna w Etiopii między ludem Oromo a ludem Amhara znalazła pole bitwy na Facebooku , prowadząc do mowy nienawiści, gróźb, dezinformacji , a nawet śmierci. Facebook nie ma narzędzi do sprawdzania faktów, które mówią jednym z dominujących języków używanych w Etiopii, ani nie dostarczają tłumaczeń standardów wspólnotowych, dlatego mowa nienawiści na Facebooku jest w dużej mierze niemonitorowana w Etiopii. Zamiast tego Facebook polega na aktywistach, którzy zgłaszają potencjalną mowę nienawiści i dezinformację, ale wielu aktywistów wypalonych czuje się źle traktowanych.

W październiku 2019 r. etiopski aktywista Jawar Mohammed fałszywie ogłosił na Facebooku, że policja go zatrzyma, powołując się na napięcia religijne i etniczne. To skłoniło społeczność do zaprotestowania przeciwko domniemanemu zatrzymaniu oraz napięciom rasowym i etnicznym, które doprowadziły do ​​ponad 70 zgonów.

Kampania dezinformacyjna rozpoczęła się na Facebooku, skupiając się na popularnej etiopskiej piosenkarce Hachalu Hundessa z grupy etnicznej Oromo. Posty oskarżyły Hundessę o wspieranie ich kontrowersyjnego premiera Abiy Ahmeda , którego nacjonaliści Oromo potępili ze względu na jego obsługę innych grup etnicznych. Hundessa została zamordowana w czerwcu 2020 r. po tych nienawistnych postach na Facebooku, co wywołało oburzenie opinii publicznej. Użytkownicy Facebooka oskarżyli lud Amhary o zabójstwo Hundessy bez żadnych dowodów w długim wątku nienawistnych treści. Według The Network Against Hate Speech, wiele postów na Facebooku wzywało do „ ludobójczych ataków na grupę etniczną lub religię – lub jedno i drugie jednocześnie; i nakazanie ludziom palenia mienia cywilów, brutalnego zabijania ich i wysiedlania”. Przemoc na ulicach i na Facebooku eskalowała do tego stopnia, że ​​rząd etiopski musiał zamknąć internet na trzy tygodnie. Jednak sąsiednie kraje wciąż mogą publikować i uzyskiwać dostęp do nienawistnych treści sprawy, a aktywiści-wolontariusze nie mogli uzyskać dostępu do Internetu, aby zasygnalizować mowę nienawiści.W związku z tym „istnieją godziny nagrań wideo, które pochodzą od społeczności diaspory, treści ekstremistycznych, mówiące, że musimy eksterminować tę grupę etniczną, ” według profesora Endalka Chali z Uniwersytetu Hamline.

Przedstawiciele Facebooka wyruszyli do Etiopii, aby zbadać sprawę, ale nie ujawnili swoich ustaleń. Facebook ogłosił, że zatrudnia moderatorów mówiących po amharsku i w innych językach w Etiopii, ale nie podał szczegółowych informacji.

Prywatne firmy

Pośrednicy internetowi opracowali różne definicje mowy nienawiści i wytyczne, jak ją regulować. Niektóre firmy nie używają terminu mowa nienawiści, ale mają opisową listę terminów z nim związanych.

Wieśniak!

Wieśniak! Warunki korzystania z usługi zabraniają publikowania „treści niezgodnych z prawem , szkodliwych, zawierających groźby, obraźliwych, napastliwych , pokrętnych, zniesławiających , wulgarnych, obscenicznych, oszczerczych , naruszających czyjąś prywatność, nienawistnych lub nienawistnych na tle rasowym, etnicznym lub w inny sposób”.

Świergot

W grudniu 2017 r. Twitter zaczął egzekwować nowe zasady dotyczące mowy nienawiści, blokując wiele kont, a także ustalając nowe wytyczne dotyczące tego, co będzie dozwolone na ich platformie. W Centrum pomocy Twittera znajduje się cała strona poświęcona opisowi ich zasad dotyczących nienawistnego zachowania oraz procedur egzekwowania. Na górze tej strony czytamy: „Wolność słowa niewiele znaczy, jeśli głosy są uciszone, ponieważ ludzie boją się zabierać głos. Nie tolerujemy zachowań, które nękają, zastraszają lub wykorzystują strach do uciszenia głosu innej osoby. Jeśli widzisz na Twitterze coś, co może narusza te zasady, prosimy o zgłoszenie tego do nas." Definicja mowy nienawiści na Twitterze waha się od „groźby przemocy” i „życzeń dotyczących fizycznej krzywdy, śmierci lub choroby jednostek lub grup” po „powtarzane i/lub nieprzychylne oszczerstwa, epitety, tropy rasistowskie i seksistowskie lub inne treści, które kogoś poniża”.

Kary za naruszenia sięgają od zawieszenia możliwości tweetowania przez użytkownika do czasu usunięcia obraźliwego/nienawistnego posta po całkowite usunięcie konta. W oświadczeniu po wdrożeniu nowej polityki Twitter powiedział: „W naszych wysiłkach, aby być tutaj bardziej agresywnymi, możemy popełnić pewne błędy i pracujemy nad solidnym procesem odwoławczym”. . . „Będziemy oceniać i powtarzać te zmiany w nadchodzących dniach i tygodniach, a po drodze będziemy Cię informować o postępach”. Zmiany te pojawiają się w czasie, gdy podejmowane są działania mające na celu zapobieganie mowie nienawiści na całym świecie, w tym nowe przepisy w Europie, które nakładają grzywny na strony, które nie są w stanie odpowiedzieć na zgłoszenia dotyczące mowy nienawiści w ciągu 24 godzin.

Youtube

YouTube , spółka zależna firmy technologicznej Google , umożliwia łatwą dystrybucję treści i dostęp każdemu twórcy treści, co daje widzom możliwość uzyskania dostępu do treści, które przesuwają się w prawo lub w lewo w stosunku do „ umiarkowanej ” ideologii powszechnej w mediach głównego nurtu . YouTube oferuje zachęty dla twórców popularnych treści, zachęcając niektórych twórców do optymalizacji doświadczeń z YouTuber i publikowania szokujących treści, które mogą promować ekstremistyczne, nienawistne pomysły. Różnorodność treści i zarabianie w YouTube kieruje szeroką publiczność do potencjalnie szkodliwych treści ekstremistów. YouTube pozwala twórcom na osobistą markę, co ułatwia młodym subskrybentom nawiązywanie z nimi paraspołecznych relacji i działanie jako „zwykli” klienci. W 2019 r. YouTube zdemonizował konta polityczne, ale radykalni twórcy treści nadal mają swoje kanały i subskrybentów, aby utrzymać ich znaczenie kulturowe i finansowe.

YouTube określił jasne „Zasady dotyczące szerzenia nienawiści” wśród kilku innych zasad dotyczących użytkowników w swojej witrynie. Zasady są sformułowane w następujący sposób: „Zachęcamy do wolności słowa i próbujemy bronić Twojego prawa do wyrażania niepopularnych poglądów, ale nie zezwalamy na szerzenie nienawiści. Mowa nienawiści odnosi się do treści, które promują przemoc lub mają na celu podżeganie do nienawiść do osób lub grup ze względu na określone cechy, takie jak: rasa lub pochodzenie etniczne, religia, niepełnosprawność, płeć, wiek, status weterana, orientacja seksualna/tożsamość płciowa”. YouTube wbudował system zgłaszania użytkowników, aby przeciwdziałać rosnącemu trendowi mowy nienawiści. Wśród najpopularniejszych środków odstraszających przed mową nienawiści użytkownicy mogą anonimowo zgłosić innego użytkownika za treści, które uznają za nieodpowiednie. Treści są następnie sprawdzane pod kątem zasad YouTube i ograniczeń wiekowych, a następnie usuwane lub pozostawiane w spokoju.

Facebook

Warunki Facebooka zabraniają treści, które są szkodliwe, groźne lub mogą wzbudzać nienawiść i podżegać do przemocy. W swoich standardach społecznościowych Facebook stwierdza, że ​​„Facebook usuwa mowę nienawiści, która zawiera treści, które bezpośrednio atakują ludzi ze względu na ich rasę, pochodzenie etniczne, pochodzenie narodowe, przynależność religijną, orientację seksualną, płeć, tożsamość płciową lub tożsamość płciową lub poważne niepełnosprawności lub choroby ”. Dalej stwierdza, że ​​„dopuszczamy humor, satyrę lub komentarze społeczne związane z tymi tematami i wierzymy, że kiedy ludzie używają swojej autentycznej tożsamości, są bardziej odpowiedzialni, gdy dzielą się tego rodzaju komentarzem. Z tego powodu prosimy właścicieli stron kojarzą swoje imię i nazwisko oraz profil na Facebooku z wszelkimi treściami, które są niewrażliwe, nawet jeśli te treści nie naruszają naszych zasad. Jak zawsze, zachęcamy ludzi do zwracania uwagi na swoich odbiorców podczas udostępniania tego typu treści”.

Instagram , platforma do udostępniania zdjęć i filmów należąca do Facebooka , ma podobne wytyczne dotyczące szerzenia nienawiści jak Facebook, ale nie jest podzielona na poziomy. Wytyczne dla społeczności Instagrama zabraniają również dezinformacji, nagości, samookaleczenia i publikowania treści chronionych prawem autorskim bez zezwolenia.

Zasady dotyczące mowy nienawiści na Facebooku są egzekwowane przez 7500 recenzentów treści, a także przez wiele monitorów sztucznej inteligencji. Ponieważ wymaga to podejmowania trudnych decyzji, wśród recenzentów treści pojawiają się kontrowersje dotyczące egzekwowania zasad. Niektórzy użytkownicy mają wrażenie, że egzekwowanie jest niespójne. Jednym z trafnych przykładów z przeszłości są dwa oddzielne, ale podobnie obrazowe wpisy, które życzyły śmierci wyznawcom określonej religii. Oba posty zostały oznaczone przez użytkowników i sprawdzone przez pracowników Facebooka. Jednak tylko jeden został usunięty, mimo że nosili prawie identyczne sentymenty. W cytacie dotyczącym mowy nienawiści na platformie, wiceprezes Facebooka ds. operacji globalnych, Justin Osofky, powiedział: „Przepraszamy za błędy, które popełniliśmy — nie odzwierciedlają one społeczności, którą chcemy budować… Musimy działać lepiej. "

Pojawiły się dodatkowe kontrowersje ze względu na specyfikę polityki dotyczącej mowy nienawiści Facebooka . Wielokrotnie pojawiały się doniesienia o aktualizacjach statusu i komentarzach, które użytkownicy uważają za niewrażliwe i przekazują nienawiść. Jednak te posty technicznie nie naruszają żadnych zasad Facebooka, ponieważ ich wypowiedzi nie atakują innych osób na podstawie firmowej listy chronionych klas. Na przykład stwierdzenie „Kobiet reporterom sportowym trzeba uderzyć w głowę krążkiem hokejowym” nie będzie uznawane za mowę nienawiści na platformie Facebooka i dlatego nie zostanie usunięte. Chociaż firma chroni przed nienawiścią ze względu na płeć, nie chroni przed nienawiścią ze względu na zawód.

Facebook został oskarżony o stronniczość podczas nadzorowania mowy nienawiści, powołując się na reklamy kampanii politycznych, które mogą promować nienawiść lub dezinformację, które wywarły wpływ na platformę. Facebook dostosował swoje zasady po otrzymaniu sprzeciwu, oskarżeń, a duże korporacje wycofały swoje reklamy z platformy, aby zaprotestować przeciwko luźnemu traktowaniu przez platformę mowy nienawiści i dezinformacji. Od 2020 r. reklamy kampanii politycznych mają funkcję „flagi”, która informuje, że treść jest warta opublikowania, ale może naruszać niektóre wytyczne dla społeczności.

Facebook stara się również dostosować użytkowników, którzy promują inne treści szerzące nienawiść, z zamiarem ich krytykowania. W takich przypadkach użytkownicy muszą jasno powiedzieć, że ich intencją jest edukowanie innych. Jeśli ten zamiar jest niejasny, Facebook zastrzega sobie prawo do cenzurowania treści. Kiedy Facebook początkowo oznacza treści, które mogą zawierać mowę nienawiści, następnie przypisuje je do skali 1, 2 i 3 w oparciu o wagę treści. Poziom 1 jest najpoważniejszy, a poziom 3 najmniej. Poziom 1 obejmuje wszystko, co przekazuje „gwałtowną mowę lub wsparcie śmierci/choroby/szkody”. Poziom 2 jest klasyfikowany jako treści, które oczerniają wizerunek innego użytkownika psychicznie, fizycznie lub moralnie. Poziom 3 obejmuje wszystko, co może potencjalnie wykluczać lub dyskryminować innych, lub które wykorzystuje oszczerstwa na temat grup chronionych, ale niekoniecznie stosuje się do argumentów ograniczających imigrację lub krytyki istniejących polityk imigracyjnych.

W marcu 2019 r. Facebook zakazał treści wspierających biały nacjonalizm i biały separatyzm , przedłużając wcześniejszy zakaz treści dotyczących białej supremacji . W maju 2019 roku ogłosił zakazy dla kilku prominentnych osób za łamanie zakazu mowy nienawiści, w tym Alexa Jonesa , Louisa Farrakhana , Milo Yiannopoulosa , Laury Loomer i Paula Nehlena .

W 2020 r. Facebook dodał wytyczne do poziomu 1, które zabraniają czarnej twarzy , porównywania ras do zwierząt, stereotypów rasowych lub religijnych , negowania wydarzeń historycznych oraz uprzedmiotowienia kobiet i społeczności LGBTQIA+ .

Mowa nienawiści na Facebooku i Instagramie wzrosła czterokrotnie w 2020 r., co doprowadziło do usunięcia 22,5 mln postów na Facebooku i 3,3 mln postów na Instagramie w samym tylko drugim kwartale 2020 r.

Microsoft

Microsoft ma określone zasady dotyczące mowy nienawiści w różnych swoich aplikacjach . Jej zasady dotyczące telefonów komórkowych zabraniają aplikacji „zawierających jakiekolwiek treści nawołujące do dyskryminacji, nienawiści lub przemocy ze względu na rasę, pochodzenie etniczne, pochodzenie narodowe, język, płeć, wiek, niepełnosprawność, religię, orientację seksualną, status weterana lub członkostwo w jakiejkolwiek innej grupie społecznej”. Firma posiada również zasady dotyczące gier online, które zabraniają jakiejkolwiek komunikacji wskazującej na „mowę nienawiści, kontrowersyjne tematy religijne oraz wrażliwe bieżące lub historyczne wydarzenia”.

TIK Tok
„Facebook nienawidzi Google+ ???” Frederick Md Publicity jest na licencji CC BY 2.0. Aby wyświetlić kopię tej licencji, odwiedź https://creativecommons.org/licenses/by/2.0/

TikTok nie ma jasnych wytycznych i kontroli dotyczących mowy nienawiści, co pozwala na zastraszanie , nękanie , propagandę i mowę nienawiści stać się częścią normalnego dyskursu na temat TikTok . Skrajnie prawicowe grupy nienawiści, organizacje terrorystyczne i pedofile rozwijają się na TikTok , szerząc i zachęcając do nienawiści wśród odbiorców w wieku 13 lat. Dzieci są naiwne i łatwo ulegają wpływom innych ludzi i wiadomości, dlatego chętniej słuchają i powtarzają to, co im się pokazuje lub mówi. W Internecie nie ma nadmiernie monitorowanej przestrzeni gwarantującej bezpieczeństwo dzieciom, więc dopóki internet jest publiczny, dzieci i młodzież na pewno spotkają się z mową nienawiści. Od tego momentu młodzi nastolatki mają tendencję do tego, by ciekawość prowadziła ich do dalszego zainteresowania i poszukiwania radykalnych pomysłów.

Jednak dzieci nie mogą brać odpowiedzialności za swoje działania w taki sposób, w jaki mogą i powinni dorośli, obarczając winą nie tylko osobę, która zamieściła wulgarne treści, ale samą platformę społecznościową. Dlatego TikTok jest krytykowany za zajmowanie się mową nienawiści na platformie. Chociaż TikTok zabrania zastraszania , nękania i jakiejkolwiek wulgarnej lub nienawistnej mowy w swoich Warunkach korzystania, TikTok nie jest aktywny wystarczająco długo, aby opracować skuteczną metodę monitorowania tych treści. Inne platformy mediów społecznościowych, takie jak Instagram , Twitter i Facebook , działają wystarczająco długo, aby wiedzieć, jak walczyć z mową nienawiści w Internecie i wulgarnymi treściami, ale odbiorcy na tych platformach są wystarczająco dorośli, aby wziąć odpowiedzialność za rozpowszechniane wiadomości.

Z drugiej strony TikTok musi wziąć na siebie pewną odpowiedzialność za treści przekazywane młodym odbiorcom. Użytkownicy TikTok muszą mieć co najmniej 13 lat, jednak wymóg ten można łatwo uchylić, ponieważ aplikacje nie mogą fizycznie uzyskać dostępu do wieku użytkowników. Badacz Robert Mark Simpson doszedł do wniosku, że zwalczanie mowy nienawiści w mediach skierowanych do młodzieży „może bardziej przypominać przepisy regulujące rozrywkę dla dorosłych niż zakazy negowania Holokaustu”.

Umiejętność korzystania z mediów i informacji

Umiejętność korzystania z mediów i informacji ma na celu pomóc ludziom w zaangażowaniu się w społeczeństwo cyfrowe poprzez umiejętność korzystania, rozumienia, zadawania pytań, tworzenia, komunikowania się i krytycznego myślenia; jednocześnie będąc w stanie skutecznie uzyskiwać dostęp, organizować, analizować, oceniać i tworzyć wiadomości w różnych formach.

Edukacja obywatelska skupia się na przygotowaniu jednostek do bycia świadomymi i odpowiedzialnymi obywatelami poprzez studiowanie praw, wolności i obowiązków i jest różnie stosowana w społeczeństwach wyłaniających się z gwałtownych konfliktów. Jednym z jego głównych celów jest podnoszenie świadomości na temat praw politycznych, społecznych i kulturalnych jednostek i grup, w tym wolności słowa oraz wynikających z niej obowiązków i implikacji społecznych. Problematyka edukacji obywatelskiej z użyciem mowy nienawiści jest dwojaka: obejmuje wiedzę i umiejętności identyfikowania mowy nienawiści i powinna umożliwiać jednostkom przeciwdziałanie wiadomościom o nienawiści. Jednym z obecnych wyzwań jest dostosowanie celów i strategii do cyfrowego świata, dostarczanie nie tylko argumentacyjnej, ale także technologicznej wiedzy i umiejętności, których obywatel może potrzebować, aby przeciwdziałać mowie nienawiści w Internecie.

Umiejętność korzystania z informacji nie można uniknąć problemów, takich jak prawa do wolności wypowiedzi i prywatności, obywatelstwa krytycznej i wspieraniem inicjacji do udziału w życiu politycznym . Wielorakie i uzupełniające się umiejętności czytania i pisania stają się krytyczne. Ważną rolę w tej zmianie odegrało pojawienie się nowych technologii i mediów społecznościowych. Jednostki ewoluowały od bycia jedynie konsumentami przekazów medialnych do producentów, twórców i kuratorów informacji, co zaowocowało nowymi modelami partycypacji, które współgrają z tradycyjnymi, takimi jak głosowanie czy wstąpienie do partii politycznej . Strategie nauczania zmieniają się odpowiednio, od wspierania krytycznego odbioru przekazów medialnych po wspieranie tworzenia treści medialnych.

Sama koncepcja edukacji medialnej i informacyjnej wciąż ewoluuje, a jej rozwój uzupełnia dynamika Internetu. Zaczyna obejmować kwestie tożsamości , etyki i praw w cyberprzestrzeni . Niektóre z tych umiejętności mogą być szczególnie ważne przy identyfikowaniu i reagowaniu na mowę nienawiści w Internecie.

Seria inicjatyw mających na celu zarówno dostarczenie informacji, jak i praktycznych narzędzi dla użytkowników Internetu, aby byli aktywnymi obywatelami cyfrowymi :

Edukacja jest również postrzegana jako narzędzie przeciwko mowie nienawiści. Laura Geraghty z „Ruchu bez mowy nienawiści” stwierdziła: „Edukacja jest kluczem do zapobiegania mowie nienawiści w Internecie. Konieczne jest podniesienie świadomości i umożliwienie ludziom korzystania z Internetu w sposób odpowiedzialny; jednak nadal potrzebne jest zaplecze prawne i instrumenty, aby ścigać przestępstwa z nienawiści, w tym mowę nienawiści w Internecie, w przeciwnym razie aspekt prewencyjny nie pomoże”.

Źródła

Definicja Wolnych Dóbr Kultury logo notext.svg Ten artykuł zawiera tekst z darmowej pracy z treścią . Licencja na licencji CC BY SA 3.0 IGO Oświadczenie / zezwolenie na Wikimedia Commons . Tekst zaczerpnięty z Countering Online Hate Speech , 73, Iginio Gagliardone, Danit Gal, Thiago Alves, Gabriela Martinez, UNESCO. UNESCO. Aby dowiedzieć się, jak dodać tekst otwartej licencji do artykułów Wikipedii, zobacz tę stronę z instrukcjami . Aby uzyskać informacje na temat ponownego wykorzystywania tekstu z Wikipedii , zapoznaj się z warunkami użytkowania .

Bibliografia