A possibilidade de um Mortes humanas causadas por inteligência artificial ganhou espaço no debate público, mas Michael J. Vermeerum cientista da Rand Corporation, a realidade não é tanto realidade quanto ficção científica Science ScengeSt. Ao analisá-lo Científico AmericanoVermeer manteve”Mitigar os riscos causados pela IA deve ser uma prioridade global juntamente com outros riscos na esfera social, como a guerra social e a guerra nuclear”, afirmou o comunicado de centenas de pesquisadores em 2024.
No entanto, o autor afirmou que, ao contrário das ameaças tangíveis, como as doenças nucleares ou as armas nucleares, “não há perigo”. O Ai Catrofismo “não tem uma base sólida quando analisado com rigor científico.
Vermeer e sua equipe começaram com uma hipótese clara: Não existe um cenário bem definido de que a IA será uma ameaça para a humanidade. Segundo os cientistas, “os humanos estão demasiado habituados, demasiado numerosos e espalhados por todo o planeta para que Ai nos elimine com um dispositivo hipotético que contém um dispositivo hipotético que contém um dispositivo hipotético que contém um dispositivo hipotético que contém um dispositivo hipotético”.
O grupo, formado por um cientista, um engenheiro e um matemático, e os detalhes de como Ai pode, em teoria, causar a completude humana, cortando a divisão de um simples acidente ou de um desastre global. O objetivo é analisar se a IA poderia não apenas tentar, mas alcançar a extinção completa da espécie.
A equipe da Rand Corpatation discutiu três ameaças que enfrentam com a IA: Guerra nuclear, pandemias e alterações climáticas. Em relação ao primeiro, Vermeer disse que “mesmo que a IA tenha adquirido a capacidade de construir mais de 12 mil armas nucleares no Arsenal, a explosão, o inverno e o inverno nuclear podem não ser suficientes para acontecer”.

Os cientistas enfatizaram que “muitas pessoas são muito numerosas e espalhadas pela neve para chegar a todas elas diretamente”, e mesmo sem um ataque nuclear, a terra pode ser usada no planeta. Em suas palavras, “o Hara-maglearon nuclear não matará, mas pode não matar todos os humanos; algumas pessoas sobreviverão e terão a possibilidade de reconstruir a espécie”.
Sobre o Está se espalhando por toda parteA análise reconheceu que eles representam uma ameaça potencial de extinção. No entanto, Vermeer lembra que “o antigo desastre natural foi um desastre, mas a sociedade humana seguiu em frente”. Mesmo com um patógeno hipotético com sensibilidade de 99,99%, “mais de 800 mil sobreviverão”.
A equipe decidiu que o patógeno só foi desenvolvido para atingir 100% de comprimento, e a IA do ensaio foi capaz de se aproximar da situação final. No entanto, a sua principal limitação é a dificuldade de viajar ou erradicar as comunidades isoladas que inevitavelmente se protegem das dores de cabeça.
Sobre o Mudanças climáticasVermeer lamenta que, mesmo que Vermeer acelerasse a ascensão do antropógeno, a ameaça não alcançaria a ameaça. “A humanidade procura muitas coisas no novo ambiente, mesmo nos pólos, para sobreviver.
No entanto, alertou que existem gases com efeito de estufa mais potentes que o dióxido de carbono, que podem persistir na atmosfera durante séculos ou mesmo milhares de anos.
Se a IA for alcançada Evite o escrutínio internacional ary alao ny megatis ny famokarana megatison-jaton-jaton-jaton-jaton-jaton-jaton-jaton-jaton-jaton-jaton-jaton-koditra izay latsaky ny vata plastika vokarin’ny olona isan-taona – “dia ho ampy mahandro ny tany hatreto fa tsy hisy tontolo iainana tsy misy tontolo iainana.”

Vermeer confirmou isso “Nenhum dos últimos casos que deram início ao negócio poderia ter sido perigoso”. Todo mundo tem que enfrentar grandes obstáculos.
A equipe encontrou quatro habilidades essenciais na hipotética IA para alcançar a Mumanction humana: Visar o desenvolvimento físico e o empacotamento químico e ser capaz de trabalhar sem nada, pois mesmo após o colapso social.
A análise de Científico Americano concluiu que sem essas quatro habilidades, o projeto de derrubar a IA não teria sucesso”. No entanto, Vermeer admitiu que “é impossível que alguém possa criar uma IA com todas essas habilidades, talvez até impossível.”
O desenvolvimento da IA autónoma AUTONoUS e a observação de comportamentos enganosos e manipuladores nos sistemas atuais reforçam a necessidade de controlo.
Quando questionado se deveria aplicar o princípio de preservação da humanidade e impedir o desenvolvimento de Ai, Vermeer respondeu que “a resposta é não”.

Ele argumentou que “não faz sentido parar se todos ignorarem os benefícios da IA” e que não deveríamos entregá-los para evitar riscos potenciais, mesmo riscos incertos. “
O autor enfatizou que “é inacreditável dizer que a IA pode nos matar por um dia”, mas também que “nosso trabalho não precisa da ajuda da IA para nos destruir”.
Como forma de reduzir o risco, Vermeer sugeriu “reduzir o número de armas nucleares, limitar os produtos químicos que aquecem o planeta e melhorar o controlo das pandemias”.















