A inteligência artificial pode levar à extinção da humanidade, alertaram especialistas – incluindo os chefes da OpenAI e do Google Deepmind.
Dezenas apoiaram uma declaração publicada na página do Center for AI Safety .
“Mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, diz.
Mas outros dizem que os medos são exagerados.
Sam Altman, executivo-chefe da OpenAI, fabricante do ChatGPT, Demis Hassabis, executivo-chefe do Google DeepMind e Dario Amodei, da Anthropic, apoiaram a declaração.
O site do Center for AI Safety sugere uma série de possíveis cenários de desastre:

- AIs podem ser armadas – por exemplo, ferramentas de descoberta de drogas podem ser usadas para construir armas químicas
- A desinformação gerada pela IA pode desestabilizar a sociedade e “minar a tomada de decisões coletiva”
- O poder da IA pode se tornar cada vez mais concentrado em menos e menos mãos, permitindo que “regimes imponham valores estreitos por meio de vigilância generalizada e censura opressiva”
- Enfraquecimento, onde os humanos se tornam dependentes da IA ”semelhante ao cenário retratado no filme Wall-E”
O Dr. Geoffrey Hinton, que emitiu um alerta anterior sobre os riscos da IA superinteligente, também apoiou a chamada do Center for AI Safety.
Yoshua Bengio, professor de ciência da computação na universidade de Montreal, também assinou.
O Dr. Hinton, o professor Bengio e o professor da NYU Yann LeCun são frequentemente descritos como os “padrinhos da IA” por seu trabalho inovador no campo – pelo qual ganharam juntos o Prêmio Turing de 2018, que reconhece contribuições excepcionais na ciência da computação.
Mas o professor LeCun, que também trabalha na Meta, disse que esses avisos apocalípticos são exagerados, twittando que “a reação mais comum dos pesquisadores de IA a essas profecias de destruição é a palma da mão”.
‘Fraturando a realidade’
Muitos outros especialistas também acreditam que o medo da IA acabar com a humanidade é irreal e uma distração de questões como preconceito em sistemas que já são um problema.
Arvind Narayanan, um cientista da computação da Universidade de Princeton, disse anteriormente à BBC que os cenários de desastre de ficção científica não são realistas: “A IA atual não é nem de longe capaz o suficiente para que esses riscos se materializem. danos de curto prazo da IA”.
A associada de pesquisa sênior do Instituto de Ética em IA de Oxford, Elizabeth Renieris, disse à BBC News que se preocupa mais com os riscos mais próximos do presente.
“Os avanços na IA ampliarão a escala da tomada de decisão automatizada que é tendenciosa, discriminatória, excludente ou injusta, ao mesmo tempo em que é inescrutável e incontestável”, disse ela. Eles “impulsionariam um aumento exponencial no volume e disseminação de desinformação, fraturando assim a realidade e corroendo a confiança do público, além de gerar mais desigualdade, principalmente para aqueles que permanecem do lado errado da divisão digital”.
Muitas ferramentas de IA essencialmente “carona” em “toda a experiência humana até o momento”, disse Renieris. Muitos são treinados em conteúdo, texto, arte e música criados por humanos que podem imitar – e seus criadores “transferiram efetivamente uma tremenda riqueza e poder da esfera pública para um pequeno punhado de entidades privadas”.
Mas o diretor do Center for AI Safety, Dan Hendrycks, disse à BBC News que os riscos futuros e as preocupações atuais “não devem ser vistos de forma antagônica”.
“Abordar algumas das questões hoje pode ser útil para abordar muitos dos riscos posteriores amanhã”, disse ele.
esforços de superinteligência
A cobertura da mídia sobre a suposta ameaça “existencial” da IA aumentou desde março de 2023, quando especialistas, incluindo o chefe da Tesla, Elon Musk, assinaram uma carta aberta pedindo a suspensão do desenvolvimento da próxima geração de tecnologia de IA.
Essa carta perguntava se deveríamos “desenvolver mentes não-humanas que eventualmente superassem em número, fossem mais espertas, obsoletas e nos substituíssem”.
Em contraste, a nova campanha tem uma declaração muito curta, destinada a “abrir a discussão”.
A declaração compara o risco ao representado pela guerra nuclear. Em uma postagem no blog, a OpenAI sugeriu recentemente que a superinteligência pode ser regulada de maneira semelhante à energia nuclear: “É provável que eventualmente precisemos de algo como uma AIEA [Agência Internacional de Energia Atômica] para esforços de superinteligência”, escreveu a empresa.
‘Fique tranquilo’
Sam Altman e o executivo-chefe do Google, Sundar Pichai, estão entre os líderes de tecnologia que discutiram recentemente a regulamentação da IA com o primeiro-ministro.
Falando aos repórteres sobre o último alerta sobre o risco de IA, Rishi Sunak enfatizou os benefícios para a economia e a sociedade.
“Você viu que recentemente ajudou pessoas paralisadas a andar, descobrindo novos antibióticos, mas precisamos garantir que isso seja feito de maneira segura e protegida”, disse ele.
“É por isso que me encontrei na semana passada com CEOs de grandes empresas de IA para discutir quais são as barreiras que precisamos implementar, qual é o tipo de regulamentação que deve ser implementada para nos manter seguros.
“As pessoas ficarão preocupadas com os relatos de que a IA representa riscos existenciais, como pandemias ou guerras nucleares.
“Quero que eles tenham certeza de que o governo está analisando isso com muito cuidado.”
Ele discutiu a questão recentemente com outros líderes, na cúpula do G7 das principais nações industrializadas, disse Sunak, e levantará a questão novamente nos Estados Unidos em breve.
O G7 criou recentemente um grupo de trabalho sobre IA.
Mais histórias
Transfira tudo o que preza com um novo aparelho de TV Fire disponível na Amazon.
Visite o Walmart para comprar um par de AirPods Pro recondicionados por US$ 89.
Elon Musk apresentou o Cybertruck “destinado à fabricação”.