Manipulação da Internet

Manipulação da Internet é o uso de tecnologias digitais, online e offline, incluindo algoritmos, bots sociais e scripts automatizados, para fins comerciais, sociais, militares ou políticos.[1] A manipulação da Internet e das mídias sociais são os principais veículos de disseminação de Desinformação devido à importância das plataformas digitais para o Consumo de mídia e a Comunicação quotidiana.[2] Quando empregada para fins políticos, a manipulação da Internet pode ser usada para influenciar a opinião pública, polarizar cidadãos,[3] disseminar teorias da conspiração[4] e silenciar dissidentes políticos. A manipulação da Internet também pode visar lucro — por exemplo, para prejudicar adversários corporativos ou políticos e alavancar a reputação de uma marca.[5] O termo também é usado para descrever aplicação seletiva de censura na Internet[6][7] ou violações seletivas da neutralidade da rede.[8]

A manipulação da Internet para fins de propaganda, com o auxílio de análise de dados e bots em mídias sociais, é chamada de propaganda computacional.

Problemas

A manipulação da Internet frequentemente tem como objetivo alterar as percepções dos usuários e seus comportamentos correspondentes.[4] Desde o início dos anos 2000, essa noção de hacking cognitivo referia-se a um ciberataque com o intuito de mudar o comportamento humano.[9][10] Hoje, fake news, ataques de desinformação e deepfakes podem afetar secretamente o comportamento de maneiras difíceis de detectar.[11] Foi constatado que conteúdos que evocam emoções de alta excitação (por exemplo, admiração, raiva, ansiedade ou com significado sexual oculto) são mais virais e que conteúdos que apresentam um ou vários destes elementos — surpreendente, interessante ou útil — são mais compartilhados.[12]

Fornecer e perpetuar explicações simples para circunstâncias complexas pode ser usado para manipulação online. Frequentemente, tais explicações são mais fáceis de acreditar, surgem antes de qualquer investigação adequada e têm maior viralidade do que explicações e informações complexas e nuançadas.[13] (Veja também: Racionalidade de baixa informação)

Avaliações coletivas anteriores de conteúdo da web influenciam a própria percepção. Em 2015, foi demonstrado que a beleza percebida de uma obra de arte em um contexto online varia com a influência externa, à medida que as avaliações de comparsas eram manipuladas por opinião e credibilidade dos participantes de um experimento solicitados a avaliar uma obra de arte.[14] Além disso, no Reddit, verificou-se que conteúdos que inicialmente recebem alguns votos positivos ou negativos frequentemente continuam nesse padrão, fenômeno referido por usuários e administradores como “votação em banda” ou “efeito bola de neve”.[15] (Veja também: Conformidade, Influência social normativa, Efeito de contexto)

Câmara de eco e Bolha de filtro podem ser criadas por administradores de sites ou moderadores de fóruns, bloqueando pessoas com pontos de vista diferentes ou estabelecendo certas regras, assim como pelas visões típicas de membros de subcomunidades online ou de "tribos" da Internet.

Fake news não precisa ser lida para ter efeito; atua em quantidade e impacto emocional apenas por seus títulos e frases de efeito. Pontos específicos, visões, questões e aparente prevalência de pessoas podem ser amplificados,[16] estimulados ou simulados. (Veja também: Efeito de mera exposição) Esclarecimentos, desmascaramento de conspirações e exposição de notícias falsas muitas vezes ocorrem tardiamente, quando o dano já foi feito e/ou não chegam à maior parte do público atingido pela desinformação associada.[17]

Atividades em mídias sociais e outros dados podem ser usados para analisar a personalidade das pessoas e prever seu comportamento e preferências.[18][19] Michal Kosinski desenvolveu tal procedimento.[18] Esses dados podem ser usados para direcionar mídia ou informação à psicologia de uma pessoa, por exemplo via Facebook. Há relatos de que isso teve papel integral na vitória de Donald Trump em 2016.[18][20] (Veja também: Publicidade direcionada, Marketing personalizado)

Algoritmos, câmaras de eco e polarização

Devido ao excesso de conteúdo online, plataformas de redes sociais e motores de busca utilizam algoritmos para ajustar e personalizar os feeds dos usuários segundo suas preferências individuais, mas esses algoritmos também restringem a exposição a diferentes pontos de vista e conteúdos, levando à criação de câmaras de eco ou bolhas de filtro.[4][21]

As bolhas de filtro influenciam as escolhas e a percepção da realidade dos usuários, dando a impressão de que determinado ponto de vista ou representação é amplamente compartilhado. Após o referendo de 2016 sobre a permanência do Reino Unido na União Europeia e as eleições presidenciais dos Estados Unidos, esse tema ganhou atenção, já que muitos indivíduos confessaram surpresa com resultados muito distantes de suas expectativas. A amplitude do pluralismo é influenciada pela personalização dos serviços e pela forma como isso diminui a escolha.[22] Cinco influências verbais manipulativas foram identificadas em textos midiáticos: autoexpressão, estratégias de discurso semântico, estratégias persuasivas, “swipe films” e manipulação de informação. O vocabulário para manipulação de fala inclui eufemismo, vocabulário de humor, adjetivos situacionais, slogans, metáforas verbais etc.[23]

Pesquisas sobre câmaras de eco de Flaxman, Goel e Rao,[24] Eli Pariser,[25] e Grömping[26] sugerem que o uso de mídias sociais e motores de busca tende a aumentar a distância ideológica entre indivíduos.

Comparações entre segregação online e offline mostraram que a segregação é maior em interações presenciais com vizinhos, colegas de trabalho ou familiares,[27] e revisões de pesquisas existentes indicaram que evidências empíricas não sustentam as visões mais pessimistas sobre polarização.[28] Um estudo de 2015 sugeriu que as próprias escolhas dos indivíduos impulsionam o filtro algorítmico, limitando a exposição a uma variedade de conteúdos.[29] Embora algoritmos possam não causar polarização, podem amplificá-la, compondo parte significativa do novo cenário informativo.[30]

Pesquisa e uso por agências de inteligência e militares

Alguns dos métodos/técnicas de operação vazados do JTRIG

A unidade Joint Threat Research Intelligence Group do Government Communications Headquarters (GCHQ), a agência de inteligência britânica,[31] foi revelada nas divulgações de vigilância global por documentos vazados pelo ex-colaborador da National Security Agency, Edward Snowden.[32] Sua missão inclui usar “truques sujos” para “destruir, negar, degradar [e] interromper” inimigos.[32][33] Táticas principais incluem injetar material falso na Internet para destruir reputações e manipular o discurso online e o ativismo: postar conteúdo e atribuí-lo falsamente a terceiros, fingir ser vítima do alvo e publicar “informações negativas” em fóruns.[34]

Conhecidas como operações de “Efeitos”, as atividades do JTRIG tornaram-se parte significativa das operações do GCHQ até 2010.[32] Seus esforços de propaganda online (denominados “Ação Clandestina Online”[carece de fontes?]) utilizam “mensagens em massa” e o “empurrar de histórias” via Twitter, Flickr, Facebook e YouTube.[32] Operações de “falsa bandeira” online também são empregadas.[32] O JTRIG também alterou fotografias em mídias sociais e enviou comunicados desagradáveis por e-mail e SMS sobre alvos.[32] Em junho de 2015, arquivos da NSA publicados por Glenn Greenwald revelaram detalhes adicionais do trabalho de manipulação de comunidades online do JTRIG.[35] As divulgações também revelaram a técnica de “coleta de credenciais”, em que jornalistas podem ser usados para disseminar informações e identificar jornalistas não-britânicos que, uma vez manipulados, podem fornecer acesso a alvos durante entrevistas.[32] Não se sabe se esses jornalistas tinham consciência da manipulação.[32]

A Rússia é frequentemente acusada de financiar “trolls” para postar opiniões pró-russo na Internet.[36] A Internet Research Agency ficou conhecida por empregar centenas de russos para criar a ilusão de apoio massivo sob identidades falsas.[37] Em 2016, a Rússia foi acusada de usar propaganda sofisticada para espalhar fake news visando punir Hillary Clinton e favorecer Donald Trump, além de minar a confiança na democracia americana.[38][39][40]

Em um relatório de 2017,[41] o Facebook admitiu que seu site foi explorado por governos para manipular opinião pública durante eleições nos EUA e na França.[16][42][43] Foram identificados três componentes principais em campanhas de operações de informação: coleta direcionada de dados; criação de conteúdo e amplificação falsa; e coordenação de contas falsas para manipular discussões políticas, amplificando algumas vozes e reprimindo outras.[44][45]

Na política

Em 2016, Andrés Sepúlveda revelou ter manipulado a opinião pública para fraudar eleições na América Latina. Segundo ele, com US\$ 600 000 liderou hackers que roubaram estratégias de campanha, criaram falsas ondas de entusiasmo e instalaram spyware em escritórios de oposição para ajudar Enrique Peña Nieto a vencer.[46][47]

Nas eleições de 2014 na Índia, tanto o Bharatiya Janata Party (BJP) quanto o Congresso foram acusados de contratar “trolls políticos” para falar favoravelmente em blogs e mídias sociais.[36]

O governo chinês supostamente opera o “[50-cent army]]” (referência ao pagamento) e o “[Internet Water Army]]” para reforçar apoio ao PCC e suprimir dissidências.[36][48]

Em dezembro de 2014, o ministério de informação ucraniano foi criado para combater a propaganda russa, criando contas em mídias sociais (a “i-Army”) e angariando seguidores fingindo ser moradores do leste.[36][49]

O Twitter suspendeu bots pró-Saudita após o desaparecimento de Jamal Khashoggi.[50]

O Mediapart relatou que os Emirados Árabes Unidos usaram a Alp Services, de Mario Brero, para publicar artigos falsos criticando o Qatar e a Irmandade Muçulmana na Europa, cerca de 100 ao ano.[51]

Nos negócios e marketing

A manipulação da Internet é usada em negócios e marketing para influenciar consumidores. A Forbes discute como a desinformação se espalha rapidamente em plataformas sociais. Stu Sjouwerman alerta que notícias legítimas e falsas se misturam em campanhas de larga escala visando influenciar o público.[52]

Trolling e outras aplicações

Hackers, profissionais contratados e cidadãos comuns engajam-se em manipulação usando software e bots de internet, bots sociais, votebots e clickbot.[53] Em abril de 2009, trolls da 4chan elegeram Christopher Poole como pessoa mais influente de 2008 em enquete da Time, com mais de 16,7 milhões de votos — resultado questionado devido a bots e fraudes.[54][55][56] A interferência ficou evidente quando as primeiras letras dos candidatos formaram “Marblecake. Also, The Game”, memes da 4chan.[57] Hacktivistas também exploram técnicas sofisticadas de manipulação da web e mídias sociais.[58]

Contramedidas

A revista Wired observou que medidas estatais, como registro obrigatório e ameaças de punição, não bastam para combater bots online.[59]

Sites como o Reddit ocultaram votos por período definido para reduzir influência de avaliações anteriores.[15]

Outras propostas incluem sinalizar conteúdo satírico ou falso.[60] Em dezembro de 2016, o Facebook passou a marcar artigos questionados com apoio de usuários e verificadores de fatos externos.[61] A empresa identificou “operações de informação” e suspendeu 30 000 contas antes da eleição na França.[16]

O inventor da World Wide Web Tim Berners-Lee alerta para o risco de poucas empresas decidirem o que é verdade e defende que a abertura torna a web mais confiável, citando a Wikipedia como exemplo de governança colaborativa.[62]

Softwares de checagem de fatos e extensões de navegador que registram histórico de leitura também são usados para alertar sobre desinformação.

Daniel Suarez defende valorização do pensamento crítico e propõe ensino de lógica formal, alfabetização midiática e avaliação objetiva nas escolas.[60]

Respostas governamentais

Estudo do Oxford Internet Institute revela que pelo menos 43 países propuseram ou implementaram regulamentações contra campanhas de influência, fake news, abuso em mídias sociais e interferência eleitoral.[63]

Alemanha

Antes das eleições de setembro de 2017, todos os principais partidos, exceto o AfD, comprometeram-se a não usar bots sociais em campanhas e a condenar tal prática. Hessen, Baviera e Saxônia-Anhalt propuseram leis para punir uso de pseudônimo no Facebook ou criação de contas falsas com até um ano de prisão.[64]

Itália

Em 2018, a agência AGCOM publicou diretrizes para as eleições de março, abordando seis temas:[65]

  1. Tratamento igualitário de assuntos políticos
  2. Transparência da propaganda
  3. Proibição de conteúdos ilícitos e pesquisas eleitorais
  4. Contas de administrações públicas em mídias sociais
  5. Proibição de propaganda no dia da eleição e no dia anterior
  6. Reforço a serviços de verificação de fatos

França

Lei de 2018 exige que plataformas divulguem valores pagos por anúncios e autores; represente na França e publiquem algoritmos. Juiz pode liminarmente suspender fake news manifestas, massivas e com potencial de perturbar a ordem pública.[66]

Malásia

Lei Anti-Fake News (2018) definia “notícias falsas” e previa até seis anos de prisão para cidadãos ou publicações digitais; revogada em agosto de 2018.[67][68]

Quênia

Lei de 2018 criminalizou cibercrimes e fake news, punindo com multa e até dois anos de prisão quem publicar dados falsos com intenção de que sejam considerados autênticos.[69]

Pesquisas

A chanceler alemã Angela Merkel instou o Bundestag a debater manipulação política por bots sociais e fake news.[70]

Ver também

Referências

  1. Woolley, Samuel; Howard, Philip N. (2019). Computational Propaganda: Political Parties, Politicians, and Political Manipulation on Social Media. [S.l.]: Oxford University Press. ISBN 978-0190931414 
  2. Diaz Ruiz, Carlos (30 de outubro de 2023). «Disinformation on digital media platforms: A market-shaping approach». New Media & Society (em inglês). ISSN 1461-4448. doi:10.1177/14614448231207644Acessível livremente 
  3. Marchal, Nahema; Neudert, Lisa-Maria (2019). «Polarisation and the use of technology in political campaigns and communication» (PDF). European Parliamentary Research Service 
  4. a b c Diaz Ruiz, Carlos; Nilsson, Tomas (2023). «Disinformation and Echo Chambers: How Disinformation Circulates on Social Media Through Identity-Driven Controversies». Journal of Public Policy & Marketing (em inglês). 42 (1): 18–35. ISSN 0743-9156. doi:10.1177/07439156221103852 
  5. Di Domenico, Giandomenico; Ding, Yu (23 de outubro de 2023). «Between Brand attacks and broader narratives: how direct and indirect misinformation erode consumer trust». Current Opinion in Psychology. 54. 101716 páginas. ISSN 2352-250X. PMID 37952396. doi:10.1016/j.copsyc.2023.101716Acessível livremente 
  6. Castells, Manuel (4 de junho de 2015). Networks of Outrage and Hope: Social Movements in the Internet Age (em inglês). [S.l.]: John Wiley & Sons. ISBN 9780745695792. Consultado em 4 de fevereiro de 2017 
  7. «Condemnation over Egypt's internet shutdown». Financial Times. Consultado em 4 de fevereiro de 2017 
  8. «Net neutrality wins in Europe – a victory for the internet as we know it». ZME Science. 31 de agosto de 2016. Consultado em 4 de fevereiro de 2017 
  9. Thompson, Paul (2004). Trevisani, Dawn A.; Sisti, Alex F., eds. Cognitive hacking and intelligence and security informatics (PDF). Defense and Security. Enabling Technologies for Simulation Science VIII. 5423. Orlando, Florida, Estados Unidos. pp. 142–151. Bibcode:2004SPIE.5423..142T. doi:10.1117/12.554454. Consultado em 4 de fevereiro de 2017. Arquivado do original (PDF) em 5 de fevereiro de 2017 
  10. Cybenko, G.; Giani, A.; Thompson, P. (2002). «Cognitive hacking: a battle for the mind». Computer (em inglês). 35 (8): 50–56. doi:10.1109/mc.2002.1023788. Consultado em 2 de novembro de 2023 
  11. Bastick, Zach (2021). «Would you notice if fake news changed your behavior? An experiment on the unconscious effects of disinformation». Computers in Human Behavior. 116 (106633): 106633. doi:10.1016/j.chb.2020.106633Acessível livremente 
  12. Berger, Jonah; Milkman, Katherine L (abril de 2012). «What Makes Online Content Viral?» (PDF). Journal of Marketing Research. 49 (2): 192–205. doi:10.1509/jmr.10.0353 
  13. Hoff, Carsten Klotz von (6 de abril de 2012). «Manipulation 2.0 – Meinungsmache via Facebook» (em alemão). Der Freitag. Consultado em 4 de fevereiro de 2017 
  14. Golda, Christopher P. (2015). Informational Social Influence and the Internet: Manipulation in a Consumptive Society (em inglês). [S.l.: s.n.] Consultado em 4 de fevereiro de 2017 
  15. a b «Moderators: New subreddit feature – comment scores may be hidden for a defined time period after posting • /r/modnews». reddit (em inglês). 29 de abril de 2013. Consultado em 4 de fevereiro de 2017 
  16. a b c Solon, Olivia (27 de abril de 2017). «Facebook admits: governments exploited us to spread propaganda». The Guardian. Consultado em 30 de abril de 2017 
  17. «Die Scheinwelt von Facebook & Co. (German-language documentary by the ZDF)» (em alemão). Consultado em 4 de fevereiro de 2017 
  18. a b c «Ich habe nur gezeigt, dass es die Bombe gibt». Das Magazin. 3 de dezembro de 2016. Consultado em 30 de abril de 2017 
  19. Beuth, Patrick (6 de dezembro de 2016). «US-Wahl: Big Data allein entscheidet keine Wahl». Die Zeit. Consultado em 30 de abril de 2017 
  20. «The Data That Turned the World Upside Down» (em inglês). Motherboard. 28 de janeiro de 2017. Consultado em 30 de abril de 2017 
  21. Sacasas, L. M. (2020). «The Analog City and the Digital City». The New Atlantis (61): 3–18. ISSN 1543-1215. JSTOR 26898497 
  22. World Trends in Freedom of Expression and Media Development Global Report 2017/2018. [S.l.]: UNESCO. 2018. 202 páginas 
  23. Kalinina, Anna V.; Yusupova, Elena E.; Voevoda, Elena V. (18 de maio de 2019). «Means of Influence on Public Opinion in Political Context: Speech Manipulation in the Media». Media Watch. 10 (2). ISSN 2249-8818. doi:10.15655/mw/2019/v10i2/49625 
  24. Flaxman, Seth, Sharad Goel, and Justin M. Rao. 2016. Filter bubbles, echo chambers, and online news consumption. Public Opinion Quarterly 80 (S1): 298–320.
  25. Pariser, Eli. 2011. The filter bubble: What the Internet is hiding from you. Penguin UK. Available at https://books.google.co.uk/?hl=en&lr=&oi=fnd&pg=PT3&dq=eli+pariser+filter&ots=g3PrCprRV2&sig=_FI8GISLrm3WNoMKMlqSTJNOFw Accessed 20 May 2017.
  26. Grömping, Max (2014). «Echo Chambers». Asia Pacific Media Educator. 24: 39–59. doi:10.1177/1326365X14539185 
  27. Gentzkow, Matthew, and Jesse M. Shapiro. 2011. Ideological segregation online and offline. The Quarterly Journal of Economics 126 (4): 1799–1839.
  28. Zuiderveen Borgesius, Frederik J., Damian Trilling, Judith Moeller, Balázs Bodó, Claes H. de Vreese, and Natali Helberger. 2016. Should We Worry about Filter Bubbles? Available at https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2758126. Accessed 20 May 2017
  29. Bakshy, Eytan; Messing, Solomon; Adamic, Lada A. (5 de junho de 2015). «Exposure to ideologically diverse news and opinion on Facebook». Science (em inglês). 348 (6239): 1130–1132. Bibcode:2015Sci...348.1130B. ISSN 0036-8075. PMID 25953820. doi:10.1126/science.aaa1160Acessível livremente 
  30. Hargittai. 2015. Why doesn't Science publish important methods info prominently? Crooked Timber. Available at http://crookedtimber.org/2015/05/07/why-doesnt-science-publish-important-methods-info-prominently/. Accessed 20 May 2017.
  31. «Snowden leaks: GCHQ 'attacked Anonymous' hackers». BBC News. BBC. 5 de fevereiro de 2014. Consultado em 7 de fevereiro de 2014 
  32. a b c d e f g h «Snowden Docs: British Spies Used Sex and 'Dirty Tricks'». NBC News. 7 de fevereiro de 2014. Consultado em 7 de fevereiro de 2014 
  33. Glenn Greenwald (24 de fevereiro de 2014). «How Covert Agents Infiltrate the Internet to Manipulate, Deceive, and Destroy Reputations». The Intercept. Arquivado do original em 24 de fevereiro de 2014 
  34. Greenwald, Glenn (24 de fevereiro de 2014). «How Covert Agents Infiltrate the Internet to Manipulate, Deceive, and Destroy Reputations». The Intercept. Consultado em 4 de fevereiro de 2017 
  35. Greenwald, Glenn and Andrew Fishman. Controversial GCHQ Unit Engaged in Domestic Law Enforcement, Online Propaganda, Psychology Research Arquivado em 2015-06-25 no Wayback Machine. The Intercept. 2015-06-22.
  36. a b c d Erro de citação: Etiqueta <ref> inválida; não foi fornecido texto para as "refs" nomeadas theguardian1
  37. Chen, Adrian (2 de junho de 2015). «The Agency». The New York Times. Consultado em 30 de abril de 2017 
  38. Watts, Clint; Weisburd, Andrew (6 de agosto de 2016), «Trolls for Trump – How Russia Dominates Your Twitter Feed to Promote Lies (And, Trump, Too)», The Daily Beast, consultado em 24 de novembro de 2016 
  39. «Russian propaganda effort likely behind flood of fake news that preceded election», PBS NewsHour, Associated Press, 25 de novembro de 2016, consultado em 26 de novembro de 2016 
  40. «Russian propaganda campaign reportedly spread 'fake news' during US election», Nine News, Agence France-Presse, 26 de novembro de 2016, consultado em 26 de novembro de 2016 
  41. «Information Operations and Facebook» (PDF). 27 de abril de 2017. Consultado em 30 de abril de 2017. Cópia arquivada (PDF) em 8 de janeiro de 2022 – via Il Sole 24 Ore 
  42. Reinbold, Fabian (28 de abril de 2017). «Konzern dokumentiert erstmals Probleme: Geheimdienste nutzen Facebook zur Desinformation». SPIEGEL ONLINE. Consultado em 30 de abril de 2017 
  43. «Report: Facebook will nicht mehr für Propaganda missbraucht werden» (em alemão). WIRED Germany. 28 de abril de 2017. Consultado em 30 de abril de 2017 
  44. «Facebook targets coordinated campaigns spreading fake news». CNET (em inglês). Consultado em 30 de abril de 2017 
  45. «Facebook, for the first time, acknowledges election manipulation». CBS News (em inglês). 28 de abril de 2017. Consultado em 30 de abril de 2017 
  46. «How to Hack an Election». Bloomberg.com. Bloomberg. Consultado em 22 de janeiro de 2017 
  47. «Man claims he rigged elections in most Latin American countries over 8 years». The Independent. 2 de abril de 2016. Consultado em 22 de janeiro de 2017 
  48. MacKinnon, Rebecca (2012). Consent of the networked: the world-wide struggle for Internet freedom. New York: Basic Books. ISBN 978-0-465-02442-1 
  49. «Ukraine's new online army in media war with Russia». BBC. Consultado em 4 de fevereiro de 2017 
  50. «Twitter pulls down bot network that pushed pro-Saudi talking points about disappeared journalist». NBC News. 19 de outubro de 2018 
  51. «Leaked data shows extent of UAE's meddling in France». MediaPart. 4 de março de 2023. Consultado em 4 de março de 2023 
  52. Sjouwerman, Stu. «Council Post: How Social Media Manipulation Threatens Your Business — And What You Can Do About It». Forbes (em inglês). Consultado em 11 de dezembro de 2024 
  53. Gorwa, Robert; Guilbeault, Douglas (10 de agosto de 2018). «Unpacking the Social Media Bot: A Typology to Guide Research and Policy: Unpacking the Social Media Bot». Policy & Internet (em inglês). arXiv:1801.06863Acessível livremente. doi:10.1002/poi3.184 
  54. Heater, Brian (27 de abril de 2009). «4Chan Followers Hack Time's 'Influential' Poll». PC Magazine. Consultado em 27 de abril de 2009. Cópia arquivada em 30 de abril de 2009 
  55. Schonfeld, Erick (21 de abril de 2009). «4Chan Takes Over The Time 100». Washington Post. Consultado em 27 de abril de 2009 
  56. «moot wins, Time Inc. loses « Music Machinery». Musicmachinery.com. 27 de abril de 2009. Consultado em 2 de setembro de 2009. Cópia arquivada em 3 de maio de 2009 
  57. Reddit Top Links. «Marble Cake Also the Game [PIC]». Buzzfeed.com. Consultado em 2 de setembro de 2009. Cópia arquivada em 15 de abril de 2009 
  58. Maslin, Janet (31 de maio de 2012). «'We Are Anonymous' by Parmy Olson». The New York Times. Consultado em 4 de fevereiro de 2017 
  59. «Debatte um "Social Bots": Blinder Aktionismus gegen die eigene Hilflosigkeit» (em alemão). WIRED Germany. 23 de janeiro de 2017. Consultado em 4 de fevereiro de 2017 
  60. a b «How technology is changing the way we think – Daniel Suarez, Jan Kalbitzer & Frank Rieger». YouTube. 7 de dezembro de 2016. Consultado em 30 de abril de 2017 
  61. Jamieson, Amber; Solon, Olivia (15 de dezembro de 2016). «Facebook to begin flagging fake news in response to mounting criticism». The Guardian. Consultado em 4 de fevereiro de 2017 
  62. Finley, Klint (4 de abril de 2017). «Tim Berners-Lee, Inventor of the Web, Plots a Radical Overhaul of His Creation». Wired. Consultado em 4 de abril de 2017 
  63. Bradshaw, Samantha; Neudert, Lisa-Maria; Howard, Philip N. (2018). «Government Responses to Malicious Use of Social Media». Nato Stratcom Coe. ISBN 978-9934-564-31-4 – via 20 
  64. Reuter, Markus (17 de janeiro de 2017). «Hausfriedensbruch 4.0: Zutritt für Fake News und Bots strengstens verboten». Netzpolitik. Consultado em 24 de outubro de 2019 
  65. Bellezza, Marco; Frigerio, Filippo Frigerio (6 de fevereiro de 2018). «ITALY: First Attempt to (Self)Regulate the Online Political Propaganda» 
  66. «Against information manipulation». Gouvernement.fr. Consultado em 24 de outubro de 2019 
  67. Menon, Praveen (2 de abril de 2018). «Malaysia outlaws 'fake news'; sets jail of up to six years». Reuters. Consultado em 24 de outubro de 2019 
  68. Yeung, Jessie (17 de agosto de 2018). «Malaysia repeals controversial fake news law». CNN. Consultado em 24 de outubro de 2019 
  69. Schwartz, Arielle (16 de maio de 2018). «Kenya signs bill criminalising fake news». Mail & Guardian. Consultado em 24 de outubro de 2019 
  70. «Bundestagsdebatte: Merkel schimpft über Internet-Trolle» (em alemão). Süddeutsche Zeitung. 1 de novembro de 2016. Consultado em 4 de fevereiro de 2017 

Ligações externas