Singularitarismo
O singularitarismo é um movimento definido pela crença de que uma singularidade tecnológica — a criação de superinteligência — provavelmente ocorrerá em um futuro próximo, e que ações deliberadas devem ser tomadas para garantir que a singularidade beneficie a humanidade.[1]
Os singularitaristas distinguem-se de outros futuristas que especulam sobre uma singularidade tecnológica por acreditarem que ela não é apenas possível, mas desejável, desde que guiada com prudência. Assim, eles podem dedicar suas vidas a agir de maneira a contribuir para sua realização rápida e segura.[2]
A revista americana Time descreve a visão de mundo dos singularitaristas ao afirmar que "embora pareça ficção científica, não é, assim como uma previsão do tempo não é ficção científica. Não é uma ideia marginal; é uma hipótese séria sobre o futuro da vida na Terra. Há um reflexo intelectual que se manifesta sempre que tentamos aceitar uma ideia que envolve ciborgues superinteligentes e imortais, mas... embora a Singularidade pareça, à primeira vista, absurda, é uma ideia que recompensa uma avaliação sóbria e cuidadosa".[1]
Definição
O termo "singularitarianista" foi originalmente definido em 1991 pelo pensador extropianista Mark Plus (Mark Potts) como "aquele que acredita no conceito de uma Singularidade".[3] Desde então, o termo foi redefinido para significar "ativista da Singularidade" ou "amigo da Singularidade", ou seja, alguém que age para promover a realização da singularidade.[4]
O singularitarismo também pode ser considerado uma orientação ou perspectiva que prefere o aprimoramento da inteligência humana como um objetivo específico do transumanismo, em vez de focar em tecnologias específicas, como a inteligência artificial (IA).[5] Há também definições que identificam um singularitarianista como um ativista ou amigo do conceito de singularidade, ou seja, alguém que age para promovê-la.[6] Algumas fontes descrevem o singularitarismo como uma filosofia moral que defende ações deliberadas para promover e orientar o desenvolvimento de uma superinteligência que levará a um ponto futuro teórico emergente durante um período de mudança acelerada.[7]
O inventor e futurista Ray Kurzweil, autor do livro de 2005 A Singularidade Está Próxima: Quando os Humanos Transcendem a Biologia, define um singularitarianista como alguém que "compreende a Singularidade e reflete sobre suas implicações para sua própria vida"[2] e estima que a singularidade ocorrerá por volta de 2045.[2]
História
Uma articulação inicial do singularitarismo, sugerindo que a história está progredindo em direção a um ponto de inteligência sobre-humana, é encontrada na obra de Hegel, A Fenomenologia do Espírito.[8] Em 1993, o matemático, cientista da computação e autor de ficção científica Vernor Vinge hipotetizou que poderia chegar um momento em que a tecnologia permitirá a "criação de entidades com inteligência superior à humana"[9] e usou o termo "a Singularidade" para descrever esse momento.[10] Ele sugeriu que a singularidade pode representar um risco existencial para a humanidade e que poderia ocorrer por meio de quatro caminhos:
- O desenvolvimento de computadores que estão "acordados" e superinteligentes.
- Grandes redes de computadores (e seus usuários associados) podem "despertar" como uma entidade superinteligente.
- Interfaces homem-computador podem se tornar tão íntimas que os usuários podem ser considerados superinteligentes.
- A ciência biológica pode encontrar maneiras de melhorar a inteligência humana natural.[9]
O singularitarismo coalesceu em uma ideologia coerente em 2000, quando o pesquisador de inteligência artificial (IA) Eliezer Yudkowsky escreveu Os Princípios singularitaristas,[2][11] no qual ele afirma que um singularitarianista acredita que a singularidade é um evento secular, não místico, que é possível, benéfico para o mundo e buscado por seus adeptos.[11] A definição de Yudkowsky é inclusiva de várias interpretações.[5] Teóricos como Michael Anissimov defendem uma definição estrita que se refere apenas à promoção do desenvolvimento de superinteligência.[5]
Em junho de 2000, Yudkowsky, com o apoio dos empreendedores da internet Brian Atkins e Sabine Atkins, fundou o Machine Intelligence Research Institute para trabalhar na criação de uma IA amigável autoaperfeiçoável. Os textos do MIRI afirmam que uma IA com a capacidade de melhorar seu próprio design (Seed AI) levaria rapidamente à superinteligência. Esses singularitaristas acreditam que alcançar a singularidade de forma rápida e segura é a melhor maneira de minimizar o risco existencial líquido.[12]
Muitas pessoas acreditam que uma singularidade tecnológica é possível sem adotar o singularitarismo como uma filosofia moral. Embora os números exatos sejam difíceis de quantificar, o singularitarismo é um movimento pequeno, que inclui o filósofo transumanista Nick Bostrom. O inventor e futurista Ray Kurzweil, que prevê que a singularidade ocorrerá por volta de 2045, contribuiu significativamente para popularizar o singularitarismo com seu livro de 2005 A Singularidade Está Próxima: Quando os Humanos Transcendem a Biologia.[2]
| “ | O que, então, é a Singularidade? É um período futuro durante o qual o ritmo da mudança tecnológica será tão rápido, seu impacto tão profundo, que a vida humana será irreversivelmente transformada. Embora não seja utópica nem distópica, essa era transformará os conceitos que usamos para dar significado às nossas vidas, desde nossos modelos de negócios até o ciclo da vida humana, incluindo a própria morte. Compreender a Singularidade alterará nossa perspectiva sobre a significância do nosso passado e as ramificações para nosso futuro. Compreendê-la verdadeiramente muda inherentemente a visão de vida em geral e da própria vida em particular. Eu considero alguém que compreende a Singularidade e reflete sobre suas implicações para sua própria vida como um "singularitarianista".[2] | ” |
Com o apoio da NASA, Google e uma ampla gama de especialistas em previsão tecnológica e tecnocapitalistas, a Singularity University foi inaugurada em 2009 no NASA Research Park no Vale do Silício com o objetivo de preparar a próxima geração de líderes para enfrentar os desafios da mudança acelerada.[13]
Em julho de 2009, muitos singularitaristas proeminentes participaram de uma conferência organizada pela Association for the Advancement of Artificial Intelligence [en] (AAAI) para discutir o impacto potencial de robôs e computadores e a possibilidade de que eles se tornem autossuficientes e capazes de tomar suas próprias decisões. Eles discutiram a possibilidade e o grau em que computadores e robôs poderiam adquirir autonomia, e até que ponto poderiam usar tais habilidades para representar uma ameaça ou perigo (ou seja, revolta cibernética). Eles observaram que algumas máquinas adquiriram várias formas de semi-autonomia, incluindo a capacidade de encontrar fontes de energia por conta própria e escolher alvos para atacar com armas de forma independente. Eles alertaram que alguns vírus de computador podem evitar a eliminação e alcançaram "inteligência de barata". Eles afirmaram que a autoconsciência, como retratada na ficção científica, é provavelmente improvável, mas que há outros perigos e armadilhas potenciais.[10]
Alguns especialistas e acadêmicos questionaram o uso de robôs para combate militar, especialmente quando esses robôs recebem algum grau de funções autônomas.[14] O presidente da AAAI encomendou um estudo sobre essa questão.[15]
Recepção
Há várias objeções ao singularitarismo de Kurzweil, mesmo de otimistas no campo da IA. Por exemplo, o autor ganhador do Prêmio Pulitzer, Douglas Hofstadter, argumentou que a previsão de Kurzweil de alcançar uma IA de nível humano até 2045 não é viável.[16] Até mesmo Gordon Moore, homônimo da Lei de Moore que fundamentou a noção de singularidade,[17] sustentou que ela nunca ocorrerá.[18] De acordo com alguns observadores, essas críticas não diminuem o entusiasmo pela singularidade, pois ela assumiu uma resposta quase religiosa ao medo da morte, permitindo que seus adeptos desfrutem dos benefícios da religião sem seus encargos ontológicos.[16] O jornalista científico John Horgan escreveu:
| “ | Admitamos. A singularidade é uma visão mais religiosa do que científica. O escritor de ficção científica Ken MacLeod [en] a chamou de "o arrebatamento para nerds", uma alusão ao fim dos tempos, quando Jesus leva os fiéis ao céu e deixa os pecadores para trás. Esse anseio por transcendência, seja espiritual ou tecnológica, é totalmente compreensível. Tanto como indivíduos quanto como espécie, enfrentamos problemas gravíssimos, incluindo terrorismo, proliferação nuclear, superpopulação, pobreza, fome, degradação ambiental, mudança climática, esgotamento de recursos e AIDS. Engenheiros e cientistas deveriam nos ajudar a enfrentar os problemas do mundo e encontrar soluções para eles, em vez de se entregarem a fantasias pseudocientíficas escapistas como a singularidade.[19] | ” |
Kurzweil rejeita essa avaliação, afirmando que suas previsões sobre a singularidade são impulsionadas pelos dados que mostram que os avanços na tecnologia computacional têm sido exponenciais há muito tempo.[20] Ele diz que seus críticos assumem equivocadamente uma visão intuitiva e linear do avanço tecnológico, em vez de considerar o crescimento exponencial.[21]
Ver também
- Inteligência artificial geral
- Escatologia
- Risco existencial da inteligência artificial geral
- Cérebro global
- Singularidade tecnológica#Explosão da inteligência
- Transumanismo
- Economia pós-escassez
- Utopismo tecnológico
Referências
- ↑ a b Grossman, Lev (10 de fevereiro de 2011). «2045: The Year Man Becomes Immortal» [2045: O Ano em que o Homem se Torna Imortal]. Time (em inglês). ISSN 0040-781X. Consultado em 24 de julho de 2025. Cópia arquivada em 21 de dezembro de 2023
- ↑ a b c d e f Kurzweil, Raymond (2005). The Singularity Is Near: When Humans Transcend Biology [A Singularidade Está Próxima: Quando os Humanos Transcendem a Biologia]. [S.l.]: Viking Adult. ISBN 0-670-03384-7. OCLC 224517172
- ↑ Keats, Jonathon (11 de novembro de 2010). Singularity [Singularidade]. Virtual Words (em inglês). [S.l.]: Oxford University Press. ISBN 978-0-19-539854-0. doi:10.1093/oso/9780195398540.003.0033. Consultado em 24 de julho de 2025
- ↑ Extropy Institute. «Neologisms of Extropy» [Neologismos do Extropianismo]. Extropy.org. Consultado em 24 de julho de 2025. Cópia arquivada em 15 de janeiro de 2014
- ↑ a b c Thweatt-Bates, Jeanine (2016). Cyborg Selves: A Theological Anthropology of the Posthuman [Eu Ciborgue: Uma Antropologia Teológica do Pós-Humano]. Oxon: Routledge. p. 52. ISBN 978-1-4094-2141-2
- ↑ Kurzweil, Ray (2010). The Singularity is Near [A Singularidade Está Próxima]. Londres: Gerald Duckworth & Co. ISBN 978-0-7156-4015-9
- ↑ «Singularitarianism» [Singularitarianismo]. ieet.org. Consultado em 24 de julho de 2025. Cópia arquivada em 26 de outubro de 2018
- ↑ Eden, A.H.; Moor, J.H.; Soraker, J.H.; Steinhart, E. (2013). Singularity Hypotheses: A Scientific and Philosophical Assessment [Hipóteses da Singularidade: Uma Avaliação Científica e Filosófica]. Col: The Frontiers Collection. [S.l.]: Springer Berlin Heidelberg. p. 6. ISBN 978-3-642-32560-1. Consultado em 24 de julho de 2025. Cópia arquivada em 5 de maio de 2023
- ↑ a b Vinge, Vernor (1993). «The Coming Technological Singularity: How to Survive in the Post-Human Era» [A Singularidade Tecnológica Vindoura: Como Sobreviver na Era Pós-Humana]. Department of Mathematical Sciences, San Diego State University. Consultado em 24 de julho de 2025. Cópia arquivada em 1 de janeiro de 2007
- ↑ a b Markoff, John (26 de julho de 2009). «Scientists Worry Machines May Outsmart Man» [Cientistas Temem que Máquinas Superem o Homem]. New York Times. Consultado em 24 de julho de 2025. Cópia arquivada em 25 de fevereiro de 2017
- ↑ a b Yudkowsky, Eliezer. «Singularitarian Principles» [Princípios Singularitarianistas]. Consultado em 24 de julho de 2025. Cópia arquivada em 28 de janeiro de 2016
- ↑ Yudkowsky, Eliezer (2008). «Artificial Intelligence as a Positive and Negative Factor in Global Risk» [A Inteligência Artificial como um Fator Positivo e Negativo no Risco Global] (PDF). In: Bostrom, Nick; Ćirković, Milan M. Global Catastrophic Risks [Riscos catastróficos globais]. MIRI. Nova Iorque: Oxford University Press. pp. 308–345
- ↑ «A world of abundance created by futuremakers working together to solve the world's greatest challenges» [Um mundo de abundância criado por criadores do futuro que trabalham juntos para resolver os maiores desafios do mundo]. Singularity. Consultado em 24 de julho de 2025
- ↑ Palmer, Jason (3 de agosto de 2009). «Call for debate on killer robots» [Chamada para debate sobre robôs assassinos]. BBC News. Consultado em 24 de julho de 2025. Cópia arquivada em 7 de agosto de 2009
- ↑ «AAAI Presidential Panel on Long-Term AI Futures 2008-2009 Study» [Painel Presidencial da AAAI sobre Futuros de Longo Prazo da IA 2008-2009]. research.microsoft.com. Consultado em 24 de julho de 2025. Cópia arquivada em 28 de agosto de 2009
- ↑ a b Margolis, Eric; Samuels, Richard; Stitch, Stephen (2012). The Oxford Handbook of Philosophy of Cognitive Science [O Manual de Oxford de Filosofia da Ciência Cognitiva]. Oxford: Oxford University Press. p. 169. ISBN 978-0-19-530979-9
- ↑ Markoff, John (7 de abril de 2026). «When Is the Singularity? Probably Not in Your Lifetime» [Quando será a Singularidade? Provavelmente não em seu tempo de vida]. The New York Times. Consultado em 24 de julho de 2025. Cópia arquivada em 7 de abril de 2016
- ↑ «Tech Luminaries Address Singularity» [Luminárias Tecnológicas Discutem a Singularidade]. IEEE Spectrum (em inglês). 1 de junho de 2008. Consultado em 24 de julho de 2025. Cópia arquivada em 26 de junho de 2024
- ↑ Horgan, John (2008). «The Consciousness Conundrum» [O Enigma da Consciência]. IEEE Spectrum. Consultado em 24 de julho de 2025. Cópia arquivada em 30 de junho de 2022
- ↑ Jenkins Jr., Holman W. (12 de abril de 2013). «Will Google's Ray Kurzweil Live Forever?» [Ray Kurzweil do Google Viverá para Sempre?]. Wall Street Journal. Consultado em 24 de julho de 2025. Cópia arquivada em 18 de abril de 2014
- ↑ Barfield, Woodrow (2015). Cyber-Humans: Our Future with Machines [Ciber-Humanos: Nosso Futuro com Máquinas]. Cham, Suíça: Springer. p. 40. ISBN 978-3-319-25048-9
Links externos
- Ethical Issues in Advanced Artificial Intelligence (2003), por Nick Bostrom (em inglês)
- Consciousness Conundrum, uma crítica aos singularitaristas por John Horgan (em inglês)