28 de November de 2023

Inteligência artificial pode levar à extinção, alertam especialistas

A inteligência artificial pode levar à extinção da humanidade, alertaram especialistas – incluindo os chefes da OpenAI e do Google Deepmind.

Continua após a publicidade

Dezenas apoiaram uma declaração publicada na página do Center for AI Safety .

“Mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, diz.

Mas outros dizem que os medos são exagerados.

Sam Altman, executivo-chefe da OpenAI, fabricante do ChatGPT, Demis Hassabis, executivo-chefe do Google DeepMind e Dario Amodei, da Anthropic, apoiaram a declaração.

O site do Center for AI Safety sugere uma série de possíveis cenários de desastre:

Inteligência Artificial cria o corpo "perfeito" de homens e mulheres. Como  ele seria?
  • AIs podem ser armadas – por exemplo, ferramentas de descoberta de drogas podem ser usadas para construir armas químicas
  • A desinformação gerada pela IA pode desestabilizar a sociedade e “minar a tomada de decisões coletiva”
  • O poder da IA ​​pode se tornar cada vez mais concentrado em menos e menos mãos, permitindo que “regimes imponham valores estreitos por meio de vigilância generalizada e censura opressiva”
  • Enfraquecimento, onde os humanos se tornam dependentes da IA ​​”semelhante ao cenário retratado no filme Wall-E”

O Dr. Geoffrey Hinton, que emitiu um alerta anterior sobre os riscos da IA ​​superinteligente, também apoiou a chamada do Center for AI Safety.

Yoshua Bengio, professor de ciência da computação na universidade de Montreal, também assinou.

O Dr. Hinton, o professor Bengio e o professor da NYU Yann LeCun são frequentemente descritos como os “padrinhos da IA” por seu trabalho inovador no campo – pelo qual ganharam juntos o Prêmio Turing de 2018, que reconhece contribuições excepcionais na ciência da computação.

Mas o professor LeCun, que também trabalha na Meta, disse que esses avisos apocalípticos são exagerados, twittando que “a reação mais comum dos pesquisadores de IA a essas profecias de destruição é a palma da mão”.

Leia Mais:  Os dispositivos Android agora podem arquivar automaticamente aplicativos pouco usados

O que é Inteligência Artificial (IA)? Como funciona?

‘Fraturando a realidade’

Muitos outros especialistas também acreditam que o medo da IA ​​acabar com a humanidade é irreal e uma distração de questões como preconceito em sistemas que já são um problema.

Arvind Narayanan, um cientista da computação da Universidade de Princeton, disse anteriormente à BBC que os cenários de desastre de ficção científica não são realistas: “A IA atual não é nem de longe capaz o suficiente para que esses riscos se materializem. danos de curto prazo da IA”.

A associada de pesquisa sênior do Instituto de Ética em IA de Oxford, Elizabeth Renieris, disse à BBC News que se preocupa mais com os riscos mais próximos do presente.

“Os avanços na IA ampliarão a escala da tomada de decisão automatizada que é tendenciosa, discriminatória, excludente ou injusta, ao mesmo tempo em que é inescrutável e incontestável”, disse ela. Eles “impulsionariam um aumento exponencial no volume e disseminação de desinformação, fraturando assim a realidade e corroendo a confiança do público, além de gerar mais desigualdade, principalmente para aqueles que permanecem do lado errado da divisão digital”.

Muitas ferramentas de IA essencialmente “carona” em “toda a experiência humana até o momento”, disse Renieris. Muitos são treinados em conteúdo, texto, arte e música criados por humanos que podem imitar – e seus criadores “transferiram efetivamente uma tremenda riqueza e poder da esfera pública para um pequeno punhado de entidades privadas”.

Mas o diretor do Center for AI Safety, Dan Hendrycks, disse à BBC News que os riscos futuros e as preocupações atuais “não devem ser vistos de forma antagônica”.

esforços de superinteligência

A cobertura da mídia sobre a suposta ameaça “existencial” da IA ​​aumentou desde março de 2023, quando especialistas, incluindo o chefe da Tesla, Elon Musk, assinaram uma carta aberta pedindo a suspensão do desenvolvimento da próxima geração de tecnologia de IA.

Essa carta perguntava se deveríamos “desenvolver mentes não-humanas que eventualmente superassem em número, fossem mais espertas, obsoletas e nos substituíssem”.

Em contraste, a nova campanha tem uma declaração muito curta, destinada a “abrir a discussão”.

A declaração compara o risco ao representado pela guerra nuclear. Em uma postagem no blog, a OpenAI sugeriu recentemente que a superinteligência pode ser regulada de maneira semelhante à energia nuclear: “É provável que eventualmente precisemos de algo como uma AIEA [Agência Internacional de Energia Atômica] para esforços de superinteligência”, escreveu a empresa.

‘Fique tranquilo’

Sam Altman e o executivo-chefe do Google, Sundar Pichai, estão entre os líderes de tecnologia que discutiram recentemente a regulamentação da IA ​​com o primeiro-ministro.

Falando aos repórteres sobre o último alerta sobre o risco de IA, Rishi Sunak enfatizou os benefícios para a economia e a sociedade.

“Você viu que recentemente ajudou pessoas paralisadas a andar, descobrindo novos antibióticos, mas precisamos garantir que isso seja feito de maneira segura e protegida”, disse ele.

“É por isso que me encontrei na semana passada com CEOs de grandes empresas de IA para discutir quais são as barreiras que precisamos implementar, qual é o tipo de regulamentação que deve ser implementada para nos manter seguros.

“As pessoas ficarão preocupadas com os relatos de que a IA representa riscos existenciais, como pandemias ou guerras nucleares.

Ele discutiu a questão recentemente com outros líderes, na cúpula do G7 das principais nações industrializadas, disse Sunak, e levantará a questão novamente nos Estados Unidos em breve.

O G7 criou recentemente um grupo de trabalho sobre IA.