Discurso de ódio online
O discurso de ódio online é um tipo de discurso de ódio que ocorre na internet com o propósito de atacar uma pessoa ou um grupo com base em sua raça, religião, origem étnica, orientação sexual, deficiência e/ou gênero.[1] O discurso de ódio online não é facilmente definido, mas pode ser reconhecido pela função degradante ou desumanizadora que desempenha.[2][3]
Tratados multilaterais, como o Pacto Internacional dos Direitos Civis e Políticos (PIDCP), têm procurado definir seus contornos. Processos multissetoriais (como o Plano de Ação de Rabat) têm buscado maior clareza e sugerido mecanismos para identificar mensagens de ódio. Órgãos nacionais e regionais têm procurado promover entendimentos do termo mais enraizados nas tradições locais.[3]
A velocidade e o alcance da Internet dificultam a aplicação da legislação nacional pelos governos no mundo virtual. As redes sociais são um espaço privado para a expressão pública, o que dificulta o trabalho dos reguladores. Algumas das empresas proprietárias desses espaços têm se mostrado mais receptivas ao combate ao discurso de ódio online.[3]
Definições
Discurso de ódio
O conceito de discurso de ódio aborda o conflito entre a liberdade de expressão e os direitos individuais, coletivos e das minorias, bem como os conceitos de dignidade, liberdade e igualdade. Não é facilmente definido, mas pode ser reconhecido por sua função.[3]
Na legislação nacional e internacional, discurso de ódio refere-se a expressões que incitam à violência, incluindo atos de discriminação, hostilidade, radicalização, violência verbal e/ou física, com base na identidade social e/ou demográfica dos alvos. O discurso de ódio pode incluir, mas não se limita a, discursos que defendem, ameaçam ou incentivam atos violentos. O conceito pode também abranger expressões que fomentam um clima de preconceito e intolerância, partindo do pressuposto de que isso pode alimentar a discriminação, a hostilidade e os ataques violentos. Em momentos críticos, como durante eleições políticas, o conceito de discurso de ódio pode ser suscetível à manipulação; acusações de incitação ao discurso de ódio podem ser trocadas entre oponentes políticos ou usadas por aqueles no poder para reprimir a dissidência e a crítica. O discurso de ódio (seja ele transmitido por texto, imagens e/ou som) pode ser identificado por aproximação através das funções degradantes ou desumanizantes que desempenha.[2][3]
O jurista e teórico político Jeremy Waldron argumenta que o discurso de ódio sempre contém duas mensagens: primeiro, fazer com que os membros do grupo externo se sintam indesejados ou com medo; e segundo, fazer com que os membros do grupo interno sintam que suas crenças odiosas são legítimas.[4]
Características do discurso de ódio online
A proliferação do discurso de ódio online, observada pelo Relator Especial do Conselho de Direitos Humanos da ONU sobre Questões de Minorias, apresenta um novo conjunto de desafios.[5] Tanto as plataformas de redes sociais quanto as organizações criadas para combater o discurso de ódio reconheceram que as mensagens odiosas disseminadas online são cada vez mais comuns e têm atraído uma atenção sem precedentes para o desenvolvimento de respostas adequadas.[6] De acordo com o HateBase, um aplicativo online que coleta casos de discurso de ódio em todo o mundo, a maioria dos casos de discurso de ódio tem como alvo indivíduos com base em etnia e nacionalidade, mas as incitações ao ódio com foco em religião e classe social também têm aumentado.[7]
Embora o discurso de ódio online não seja intrinsecamente diferente de expressões semelhantes encontradas offline, existem desafios peculiares exclusivos do conteúdo online e de sua regulamentação. Esses desafios estão relacionados à sua permanência, itinerância, anonimato e caráter complexo e transjurisdicional.
Permanência
O discurso de ódio pode permanecer online durante muito tempo em diferentes formatos e em múltiplas plataformas, que podem ser interligadas repetidamente. Como observou Andre Oboler, CEO do Online Hate Prevention Institute: "Quanto mais tempo o conteúdo permanece disponível, mais danos ele pode causar às vítimas e capacitar os perpetradores. Se você remover o conteúdo precocemente, poderá limitar a exposição. Isto é como limpar o lixo, não impede as pessoas de jogar lixo, mas se você não cuidar do problema, ele simplesmente se acumula e agrava ainda mais".[8] As conversas do Twitter, organizadas em torno de trending topics, podem facilitar a disseminação rápida e ampla de mensagens de ódio, mas também oferecem a oportunidade para que oradores influentes se contraponham à elas e possivelmente acabem com tópicos populares que incitam à violência.[9] O Facebook, pelo contrário, pode permitir que vários tópicos continuem em paralelo e passem despercebidos; criando espaços mais duradouros que ofendem, discriminam e ridicularizam certos indivíduos e grupos.[3]
Itinerância
O discurso de ódio online pode ser itinerante. Mesmo quando o conteúdo é removido, pode encontrar expressão noutro local, possivelmente na mesma plataforma com um nome diferente ou em diferentes espaços online. Se um website for encerrado, pode reabrir rapidamente utilizando um serviço de alojamento web com regulamentações menos rigorosas ou através da realocação para um país com leis que imponham limites mais elevados para o discurso de ódio. A natureza itinerante do discurso de ódio também significa que pensamentos mal formulados, ou comportamentos sob influência, que não teriam encontrado expressão e apoio públicos no passado, podem agora aterrar em espaços onde podem ser visíveis para grandes públicos.[3]
Anonimato
O anonimato também pode representar um desafio para lidar com o discurso de ódio online. As discussões na Internet podem ser anônimas ou sob pseudônimo, o que pode fazer com que as pessoas se sintam mais seguras para expressar suas opiniões, mas pode facilmente acelerar o comportamento destrutivo.[10] Como afirmou Drew Boyd, Diretor de Operações do The Sentinel Project, "a Internet concede aos indivíduos a capacidade de dizer coisas horríveis porque pensam que não serão descobertos. Isto é o que torna o discurso de ódio online tão único, porque as pessoas se sentem muito mais confortáveis em falar de ódio do que na vida real, quando têm de lidar com as consequências do que dizem".[11] A China e a Coreia do Sul impõem políticas de nomes reais para as redes sociais. Facebook, LinkedIn e Quora procuraram ativar um sistema de nomes reais para ter mais controle sobre o discurso de ódio online. Tais medidas têm sido profundamente contestadas, pois são consideradas uma violação do direito à privacidade e da sua intersecção com a liberdade de expressão.
Muitos casos de discurso de ódio online são postados por "trolls" da Internet, que normalmente são usuários pseudônimos que postam conteúdo chocante, vulgar e, em geral, falso, com a intenção explícita de desencadear uma reação negativa, embora também possa ter a intenção de influenciar ou recrutar o leitor para suas crenças, se eles compartilharem a mesma opinião.[12] As redes sociais também forneceram uma plataforma para grupos políticos ou religiosos radicais e extremistas formarem, estabelecerem redes e colaborarem para difundirem as suas mensagens de anti-establishment e anti-politicamente correto, e promoverem crenças e ideologias que são racistas, anti-feministas, homofóbicas, transfóbicas, etc.[13] A comunicação online totalmente anônima é rara, pois exige que o usuário empregue medidas altamente técnicas para garantir que não possam ser facilmente identificados.[3]
Disseminação transjurisdicional
Uma complicação adicional é o alcance transnacional da Internet, que levanta questões de cooperação transjurisdicional em relação aos mecanismos legais de combate ao discurso de ódio. Embora existam tratados de assistência jurídica mútua em vigor na Europa, Ásia e América do Norte, estes são caracteristicamente lentos para entrar em vigor. O alcance transnacional de muitos intermediários da Internet do setor privado pode fornecer um canal mais eficaz para a resolução de problemas em alguns casos, embora essas entidades também sejam frequentemente afetadas por solicitações de dados que transcendem jurisdições (como a revelação da identidade do(s) autor(es) de um determinado conteúdo).[3] Diferentes jurisdições também possuem definições únicas para discurso de ódio, o que dificulta o processo contra os autores que podem buscar refúgio em jurisdições menos rigorosas.[14]
Ao contrário da disseminação de discursos de ódio por canais convencionais, as vítimas de discursos de ódio online podem enfrentar dificuldades para saber a quem recorrer em busca de ajuda, já que a plataforma e a polícia da sua região, e a polícia do local da pessoa ou pessoas que usam o discurso de ódio, podem achar que o problema não é de sua jurisdição, mesmo quando existem políticas e leis contra o discurso de ódio. Organizações não governamentais e grupos de pressão têm trabalhado para conscientizar e incentivar diferentes partes interessadas a tomarem medidas.[3]
Inteligência artificial
Algumas empresas de tecnologia, como o Facebook, usam sistemas de Inteligência Artificial (IA) para monitorar discursos de ódio.[15] No entanto, a IA pode nem sempre ser uma forma eficaz de monitorar discursos de ódio, visto que os sistemas carecem das capacidades de julgamento que os humanos possuem.[16] Por exemplo, um usuário pode publicar ou comentar algo que se classifique como discurso de ódio ou viole as diretrizes da comunidade, mas se a palavra-alvo estiver escrita incorretamente ou se algumas letras forem substituídas por símbolos, os sistemas de IA não a reconhecerão. Essa fragilidade levou à proliferação de tentativas de burlar algoritmos de censura, usando erros ortográficos deliberados e neologismos, como o uso de "vachinas" em vez de "vacinas"[17] por pessoas que questionavam a vacinação durante a pandemia de COVID-19.[18] Portanto, os humanos ainda precisam monitorar os sistemas de IA que monitoram discursos de ódio; um problema comum na tecnologia de IA que é conhecido como "A Última Milha da Automação", ou seja, os últimos 10% ou 1% do trabalho, são os mais difíceis de concluir.
Fontes
Iginio Gagliardone, Danit Gal, Thiago Alves, Gabriela Martinez. UNESCO, ed. «Countering Online Hate Speech» (PDF) (em inglês). UNESCO. 73 páginas
Ver também
Referências
- ↑ Johnson, N. F.; Leahy, R.; Johnson Restrepo, N.; Velasquez, N.; Zheng, M.; Manrique, P.; Devkota, P.; Wuchty, S. (21 de agosto de 2019). «Hidden resilience and adaptive dynamics of the global online hate ecology». Nature Research. Nature (em inglês). 573 (7773): 261–265. Bibcode:2019Natur.573..261J. ISSN 1476-4687. PMID 31435010. doi:10.1038/s41586-019-1494-7
- ↑ a b Powell, Anastasia; Scott, Adrian J.; Henry, Nicola (março de 2020). Treiber, Kyle, ed. «Digital harassment and abuse: Experiences of sexuality and gender minority adults». Los Angeles e Londres: SAGE Publications em nome da European Society of Criminology. European Journal of Criminology (em inglês). 17 (2): 199–223. ISSN 1741-2609. doi:10.1177/1477370818788006
. Uma característica fundamental da sociedade digital contemporânea é a integração das tecnologias de informação e comunicação no cotidiano, de modo que muitos de nós estamos "constantemente conectados". No entanto, a interligação entre o social e o digital tem implicações específicas para os relacionamentos interpessoais. O assédio e abuso digital referem-se a uma série de comportamentos interpessoais prejudiciais vivenciados pela internet, bem como por meio de telefones celulares e outros dispositivos eletrônicos de comunicação. Esses comportamentos online incluem: comentários ofensivos e xingamentos, assédio direcionado, abuso verbal e ameaças, além de assédio e abuso sexual e baseado em gênero. O assédio e abuso sexual e baseado em gênero, referem-se a "comportamentos prejudiciais e indesejados de natureza sexual ou direcionados a uma pessoa com base em sua sexualidade ou identidade de gênero".
- ↑ a b c d e f g h i j Gagliardone, Iginio; Gal, Danit; Alves, Thiago; Martinez, Gabriela (2015). Countering Online Hate Speech (PDF) (em inglês). Paris: UNESCO Publishing. pp. 7–15. ISBN 978-92-3-100105-5. Consultado em 13 de março de 2022. Cópia arquivada (PDF) em 13 de março de 2022
- ↑ Waldron, Jeremy (2012). The Harm in Hate Speech (em inglês). [S.l.]: Harvard University Press. ISBN 978-0-674-06589-5. JSTOR j.ctt2jbrjd
- ↑ Izsak, Rita (2015). Report of the Special Rapporteur on minority issues, Rita Izsák (em inglês). [S.l.]: Human Rights Council
- ↑ Ver Conselho da Europa, "Estudo de mapeamento de projetos contra o discurso de ódio online", 15 de abril de 2012. Ver também entrevistas: Christine Chen, Gerente Sênior de Políticas Públicas do Google, 2 de março de 2015; Monika Bickert, Chefe de Gestão de Políticas Globais do Facebook, 14 de janeiro de 2015.
- ↑ Consulte HateBase, "Estatísticas sobre discurso de ódio", http://www.hatebase.org/popular Arquivado em 2018-03-11 no Wayback Machine
- ↑ Entrevista: Andre Oboler, CEO, Online Hate Prevention Institute, 31 de outubro de 2014.
- ↑ Mathew, Binny; Dutt, Ritam; Goyal, Pawan; Mukherjee, Animesh. Spread of hate speech in online social media. ACM WebSci 2019 (em inglês). Boston, MA, EUA: ACM. arXiv:1812.01693
- ↑ Citron, Danielle Keats; Norton, Helen L. (2011). «Intermediaries and Hate Speech: Fostering Digital Citizenship for Our Information Age». Rochester, NY. Boston University Law Review (em inglês). 91. SSRN 1764004
- ↑ Entrevista: Drew Boyd, Director of Operations, The Sentinel Project for Genocide Prevention, 24 de outubro de 2014.
- ↑ Phillips, Whitney (2015). This Is Why We Can't Have Nice Things: Mapping the Relationship between Online Trolling and Mainstream Culture (em inglês). [S.l.]: MIT Press
- ↑ Marwick, Alice; Lewis, Rebecca (2017). Media Manipulation and Disinformation Online. (em inglês). [S.l.]: Data & Society Research Institute
- ↑ Banks, James (novembro de 2010). «Regulating hate speech online» (PDF). International Review of Law, Computers & Technology (em inglês). 24 (3): 4–5. doi:10.1080/13600869.2010.522323
- ↑ «Hateful posts on Facebook and Instagram soar». Fortune (em inglês). Consultado em 21 de novembro de 2020
- ↑ Gray, Mary; Suri, Siddharth (2019). GHOST WORK: How to Stop Silicon Valley from Building a New Global Underclass (em inglês). Nova Iorque: Houghton Mifflin Harcourt
- ↑ Bianca Bortolon; Ethel Rudnitzki; João Barbosa; Milena Mangabeira (23 de dezembro de 2021). «De 'vachina' a 'picada da serpente', conheça o vocabulário que foi usado para desinformar em 2021». Aos Fatos. Consultado em 4 de fevereiro de 2026
- ↑ «People are using coded language to avoid social media moderation. Is it working?». PolitiFact (em inglês). 4 de novembro de 2021. Consultado em 5 de julho de 2022
Ligações externas
- «Internet Hate Crime» (em inglês). Report-It.org.uk
- «Denúncias de crimes de discurso de ódio e de imagens de abuso sexual infantil na internet têm crescimento em 2022». SaferNet. Consultado em 11 de janeiro de 2026
- «COMUNICA PF: Comunicação de Crimes». GOV.BR. Consultado em 11 de janeiro de 2026