Singularitarismo

O singularitarismo é um movimento definido pela crença de que uma singularidade tecnológica — a criação de superinteligência — provavelmente ocorrerá em um futuro próximo, e que ações deliberadas devem ser tomadas para garantir que a singularidade beneficie a humanidade.[1]

Os singularitaristas distinguem-se de outros futuristas que especulam sobre uma singularidade tecnológica por acreditarem que ela não é apenas possível, mas desejável, desde que guiada com prudência. Assim, eles podem dedicar suas vidas a agir de maneira a contribuir para sua realização rápida e segura.[2]

A revista americana Time descreve a visão de mundo dos singularitaristas ao afirmar que "embora pareça ficção científica, não é, assim como uma previsão do tempo não é ficção científica. Não é uma ideia marginal; é uma hipótese séria sobre o futuro da vida na Terra. Há um reflexo intelectual que se manifesta sempre que tentamos aceitar uma ideia que envolve ciborgues superinteligentes e imortais, mas... embora a Singularidade pareça, à primeira vista, absurda, é uma ideia que recompensa uma avaliação sóbria e cuidadosa".[1]

Definição

O termo "singularitarianista" foi originalmente definido em 1991 pelo pensador extropianista Mark Plus (Mark Potts) como "aquele que acredita no conceito de uma Singularidade".[3] Desde então, o termo foi redefinido para significar "ativista da Singularidade" ou "amigo da Singularidade", ou seja, alguém que age para promover a realização da singularidade.[4]

O singularitarismo também pode ser considerado uma orientação ou perspectiva que prefere o aprimoramento da inteligência humana como um objetivo específico do transumanismo, em vez de focar em tecnologias específicas, como a inteligência artificial (IA).[5] Há também definições que identificam um singularitarianista como um ativista ou amigo do conceito de singularidade, ou seja, alguém que age para promovê-la.[6] Algumas fontes descrevem o singularitarismo como uma filosofia moral que defende ações deliberadas para promover e orientar o desenvolvimento de uma superinteligência que levará a um ponto futuro teórico emergente durante um período de mudança acelerada.[7]

O inventor e futurista Ray Kurzweil, autor do livro de 2005 A Singularidade Está Próxima: Quando os Humanos Transcendem a Biologia, define um singularitarianista como alguém que "compreende a Singularidade e reflete sobre suas implicações para sua própria vida"[2] e estima que a singularidade ocorrerá por volta de 2045.[2]

História

Uma articulação inicial do singularitarismo, sugerindo que a história está progredindo em direção a um ponto de inteligência sobre-humana, é encontrada na obra de Hegel, A Fenomenologia do Espírito.[8] Em 1993, o matemático, cientista da computação e autor de ficção científica Vernor Vinge hipotetizou que poderia chegar um momento em que a tecnologia permitirá a "criação de entidades com inteligência superior à humana"[9] e usou o termo "a Singularidade" para descrever esse momento.[10] Ele sugeriu que a singularidade pode representar um risco existencial para a humanidade e que poderia ocorrer por meio de quatro caminhos:

  1. O desenvolvimento de computadores que estão "acordados" e superinteligentes.
  2. Grandes redes de computadores (e seus usuários associados) podem "despertar" como uma entidade superinteligente.
  3. Interfaces homem-computador podem se tornar tão íntimas que os usuários podem ser considerados superinteligentes.
  4. A ciência biológica pode encontrar maneiras de melhorar a inteligência humana natural.[9]

O singularitarismo coalesceu em uma ideologia coerente em 2000, quando o pesquisador de inteligência artificial (IA) Eliezer Yudkowsky escreveu Os Princípios singularitaristas,[2][11] no qual ele afirma que um singularitarianista acredita que a singularidade é um evento secular, não místico, que é possível, benéfico para o mundo e buscado por seus adeptos.[11] A definição de Yudkowsky é inclusiva de várias interpretações.[5] Teóricos como Michael Anissimov defendem uma definição estrita que se refere apenas à promoção do desenvolvimento de superinteligência.[5]

Em junho de 2000, Yudkowsky, com o apoio dos empreendedores da internet Brian Atkins e Sabine Atkins, fundou o Machine Intelligence Research Institute para trabalhar na criação de uma IA amigável autoaperfeiçoável. Os textos do MIRI afirmam que uma IA com a capacidade de melhorar seu próprio design (Seed AI) levaria rapidamente à superinteligência. Esses singularitaristas acreditam que alcançar a singularidade de forma rápida e segura é a melhor maneira de minimizar o risco existencial líquido.[12]

Muitas pessoas acreditam que uma singularidade tecnológica é possível sem adotar o singularitarismo como uma filosofia moral. Embora os números exatos sejam difíceis de quantificar, o singularitarismo é um movimento pequeno, que inclui o filósofo transumanista Nick Bostrom. O inventor e futurista Ray Kurzweil, que prevê que a singularidade ocorrerá por volta de 2045, contribuiu significativamente para popularizar o singularitarismo com seu livro de 2005 A Singularidade Está Próxima: Quando os Humanos Transcendem a Biologia.[2]

Com o apoio da NASA, Google e uma ampla gama de especialistas em previsão tecnológica e tecnocapitalistas, a Singularity University foi inaugurada em 2009 no NASA Research Park no Vale do Silício com o objetivo de preparar a próxima geração de líderes para enfrentar os desafios da mudança acelerada.[13]

Em julho de 2009, muitos singularitaristas proeminentes participaram de uma conferência organizada pela Association for the Advancement of Artificial Intelligence [en] (AAAI) para discutir o impacto potencial de robôs e computadores e a possibilidade de que eles se tornem autossuficientes e capazes de tomar suas próprias decisões. Eles discutiram a possibilidade e o grau em que computadores e robôs poderiam adquirir autonomia, e até que ponto poderiam usar tais habilidades para representar uma ameaça ou perigo (ou seja, revolta cibernética). Eles observaram que algumas máquinas adquiriram várias formas de semi-autonomia, incluindo a capacidade de encontrar fontes de energia por conta própria e escolher alvos para atacar com armas de forma independente. Eles alertaram que alguns vírus de computador podem evitar a eliminação e alcançaram "inteligência de barata". Eles afirmaram que a autoconsciência, como retratada na ficção científica, é provavelmente improvável, mas que há outros perigos e armadilhas potenciais.[10]

Alguns especialistas e acadêmicos questionaram o uso de robôs para combate militar, especialmente quando esses robôs recebem algum grau de funções autônomas.[14] O presidente da AAAI encomendou um estudo sobre essa questão.[15]

Recepção

Há várias objeções ao singularitarismo de Kurzweil, mesmo de otimistas no campo da IA. Por exemplo, o autor ganhador do Prêmio Pulitzer, Douglas Hofstadter, argumentou que a previsão de Kurzweil de alcançar uma IA de nível humano até 2045 não é viável.[16] Até mesmo Gordon Moore, homônimo da Lei de Moore que fundamentou a noção de singularidade,[17] sustentou que ela nunca ocorrerá.[18] De acordo com alguns observadores, essas críticas não diminuem o entusiasmo pela singularidade, pois ela assumiu uma resposta quase religiosa ao medo da morte, permitindo que seus adeptos desfrutem dos benefícios da religião sem seus encargos ontológicos.[16] O jornalista científico John Horgan escreveu:

Kurzweil rejeita essa avaliação, afirmando que suas previsões sobre a singularidade são impulsionadas pelos dados que mostram que os avanços na tecnologia computacional têm sido exponenciais há muito tempo.[20] Ele diz que seus críticos assumem equivocadamente uma visão intuitiva e linear do avanço tecnológico, em vez de considerar o crescimento exponencial.[21]

Ver também

Referências

  1. a b Grossman, Lev (10 de fevereiro de 2011). «2045: The Year Man Becomes Immortal» [2045: O Ano em que o Homem se Torna Imortal]. Time (em inglês). ISSN 0040-781X. Consultado em 24 de julho de 2025. Cópia arquivada em 21 de dezembro de 2023 
  2. a b c d e f Kurzweil, Raymond (2005). The Singularity Is Near: When Humans Transcend Biology [A Singularidade Está Próxima: Quando os Humanos Transcendem a Biologia]. [S.l.]: Viking Adult. ISBN 0-670-03384-7. OCLC 224517172 
  3. Keats, Jonathon (11 de novembro de 2010). Singularity [Singularidade]. Virtual Words (em inglês). [S.l.]: Oxford University Press. ISBN 978-0-19-539854-0. doi:10.1093/oso/9780195398540.003.0033. Consultado em 24 de julho de 2025 
  4. Extropy Institute. «Neologisms of Extropy» [Neologismos do Extropianismo]. Extropy.org. Consultado em 24 de julho de 2025. Cópia arquivada em 15 de janeiro de 2014 
  5. a b c Thweatt-Bates, Jeanine (2016). Cyborg Selves: A Theological Anthropology of the Posthuman [Eu Ciborgue: Uma Antropologia Teológica do Pós-Humano]. Oxon: Routledge. p. 52. ISBN 978-1-4094-2141-2 
  6. Kurzweil, Ray (2010). The Singularity is Near [A Singularidade Está Próxima]. Londres: Gerald Duckworth & Co. ISBN 978-0-7156-4015-9 
  7. «Singularitarianism» [Singularitarianismo]. ieet.org. Consultado em 24 de julho de 2025. Cópia arquivada em 26 de outubro de 2018 
  8. Eden, A.H.; Moor, J.H.; Soraker, J.H.; Steinhart, E. (2013). Singularity Hypotheses: A Scientific and Philosophical Assessment [Hipóteses da Singularidade: Uma Avaliação Científica e Filosófica]. Col: The Frontiers Collection. [S.l.]: Springer Berlin Heidelberg. p. 6. ISBN 978-3-642-32560-1. Consultado em 24 de julho de 2025. Cópia arquivada em 5 de maio de 2023 
  9. a b Vinge, Vernor (1993). «The Coming Technological Singularity: How to Survive in the Post-Human Era» [A Singularidade Tecnológica Vindoura: Como Sobreviver na Era Pós-Humana]. Department of Mathematical Sciences, San Diego State University. Consultado em 24 de julho de 2025. Cópia arquivada em 1 de janeiro de 2007 
  10. a b Markoff, John (26 de julho de 2009). «Scientists Worry Machines May Outsmart Man» [Cientistas Temem que Máquinas Superem o Homem]. New York Times. Consultado em 24 de julho de 2025. Cópia arquivada em 25 de fevereiro de 2017 
  11. a b Yudkowsky, Eliezer. «Singularitarian Principles» [Princípios Singularitarianistas]. Consultado em 24 de julho de 2025. Cópia arquivada em 28 de janeiro de 2016 
  12. Yudkowsky, Eliezer (2008). «Artificial Intelligence as a Positive and Negative Factor in Global Risk» [A Inteligência Artificial como um Fator Positivo e Negativo no Risco Global] (PDF). In: Bostrom, Nick; Ćirković, Milan M. Global Catastrophic Risks [Riscos catastróficos globais]. MIRI. Nova Iorque: Oxford University Press. pp. 308–345 
  13. «A world of abundance created by futuremakers working together to solve the world's greatest challenges» [Um mundo de abundância criado por criadores do futuro que trabalham juntos para resolver os maiores desafios do mundo]. Singularity. Consultado em 24 de julho de 2025 
  14. Palmer, Jason (3 de agosto de 2009). «Call for debate on killer robots» [Chamada para debate sobre robôs assassinos]. BBC News. Consultado em 24 de julho de 2025. Cópia arquivada em 7 de agosto de 2009 
  15. «AAAI Presidential Panel on Long-Term AI Futures 2008-2009 Study» [Painel Presidencial da AAAI sobre Futuros de Longo Prazo da IA 2008-2009]. research.microsoft.com. Consultado em 24 de julho de 2025. Cópia arquivada em 28 de agosto de 2009 
  16. a b Margolis, Eric; Samuels, Richard; Stitch, Stephen (2012). The Oxford Handbook of Philosophy of Cognitive Science [O Manual de Oxford de Filosofia da Ciência Cognitiva]. Oxford: Oxford University Press. p. 169. ISBN 978-0-19-530979-9 
  17. Markoff, John (7 de abril de 2026). «When Is the Singularity? Probably Not in Your Lifetime» [Quando será a Singularidade? Provavelmente não em seu tempo de vida]. The New York Times. Consultado em 24 de julho de 2025. Cópia arquivada em 7 de abril de 2016 
  18. «Tech Luminaries Address Singularity» [Luminárias Tecnológicas Discutem a Singularidade]. IEEE Spectrum (em inglês). 1 de junho de 2008. Consultado em 24 de julho de 2025. Cópia arquivada em 26 de junho de 2024 
  19. Horgan, John (2008). «The Consciousness Conundrum» [O Enigma da Consciência]. IEEE Spectrum. Consultado em 24 de julho de 2025. Cópia arquivada em 30 de junho de 2022 
  20. Jenkins Jr., Holman W. (12 de abril de 2013). «Will Google's Ray Kurzweil Live Forever?» [Ray Kurzweil do Google Viverá para Sempre?]. Wall Street Journal. Consultado em 24 de julho de 2025. Cópia arquivada em 18 de abril de 2014 
  21. Barfield, Woodrow (2015). Cyber-Humans: Our Future with Machines [Ciber-Humanos: Nosso Futuro com Máquinas]. Cham, Suíça: Springer. p. 40. ISBN 978-3-319-25048-9