O governo Biden anunciou hoje um novo esforço para abordar os riscos em torno da inteligência artificial (IA) generativa, que vem avançando em velocidades vertiginosas e disparando alarmes entre os especialistas do setor .
A vice-presidente Kamala Harris e outros funcionários do governo devem se reunir hoje com os CEOs do Google, Microsoft, OpenAI, criador do popular chatbot ChatGPT, bem como com a startup de IA Anthropic. Funcionários do governo planejam discutir a “responsabilidade fundamental” dessas empresas em garantir que seus produtos de IA sejam seguros e protejam a privacidade dos cidadãos dos EUA, à medida que a tecnologia se torna mais poderosa e capaz de tomar decisões independentes.
“A IA é uma das tecnologias mais poderosas do nosso tempo, mas, para aproveitar as oportunidades que ela apresenta, devemos primeiro mitigar seus riscos”, afirmou a Casa Branca em comunicado. “O presidente Biden deixou claro que, quando se trata de IA, devemos colocar as pessoas e as comunidades no centro, apoiando a inovação responsável que serve ao bem público, protegendo nossa sociedade, segurança e economia.”
Esse novo esforço se baseia em tentativas anteriores do governo Biden de promover alguma forma de inovação responsável, mas até o momento o Congresso não apresentou nenhuma lei que controle a IA. Em outubro, o governo revelou um projeto para a chamada “Declaração de Direitos de IA” , bem como uma Estrutura de Gerenciamento de Risco de IA; mais recentemente, pressionou por um roteiro para estabelecer um Recurso Nacional de Pesquisa em IA.
As medidas não têm força legal; eles são apenas mais orientações, estudos e pesquisas “e não são o que precisamos agora”, de acordo com Avivah Litan, vice-presidente e analista distinto da Gartner Research.
“Precisamos de diretrizes claras sobre o desenvolvimento de IA segura, justa e responsável dos reguladores dos EUA”, disse ela. “Precisamos de regulamentos significativos, como os que vemos sendo desenvolvidos na UE com o AI Act . Embora eles não estejam obtendo tudo perfeito de uma vez, pelo menos eles estão avançando e estão dispostos a iterar. Os reguladores dos EUA precisam intensificar seu jogo e ritmo.”
Em março, o líder da maioria no Senado, Chuck Schumer, D-NY, anunciou planos para regras em torno da IA generativa , à medida que a popularidade do ChatGPT aumentava. Schumer pediu maior transparência e responsabilidade envolvendo tecnologias de IA.
Os Estados Unidos têm seguido as regras de IA. No início desta semana, a União Europeia divulgou o AI Act, um conjunto proposto de regras que, entre outras coisas, exigiria que os fabricantes de ferramentas generativas de IA publicassem qualquer material protegido por direitos autorais usado pelas plataformas para criar conteúdo. A China liderou o mundo no lançamento de várias iniciativas para governança de IA , embora a maioria dessas iniciativas esteja relacionada à privacidade do cidadão e não necessariamente à segurança.
Incluído nas iniciativas da Casa Branca está um plano para a National Science Foundation gastar US$ 140 milhões na criação de sete novos centros de pesquisa dedicados à IA.
A administração também disse que recebeu um “compromisso independente dos principais desenvolvedores de IA”, incluindo Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI e Stability AI, para participar de uma avaliação pública de sistemas de IA, consistente com os princípios de divulgação responsável – em uma plataforma de avaliação desenvolvida pela Scale AI — na AI Village no DEFCON 31.
“Isso permitirá que esses modelos sejam avaliados minuciosamente por milhares de parceiros da comunidade e especialistas em IA para explorar como os modelos se alinham com os princípios e práticas descritos no Projeto da Administração Biden-Harris para uma Declaração de Direitos de IA e uma Estrutura de Gerenciamento de Risco de IA,” disse a Casa Branca.
Tom Siebel, CEO da fornecedora de aplicativos corporativos de IA C3 AI e fundador da fornecedora de software de CRM Siebel Systems, disse esta semana que há um caso a ser feito Os fornecedores de IA poderiam regular seus próprios produtos, mas é improvável que em um sistema capitalista e competitivo eles seriam dispostos a controlar a tecnologia.
“Receio que não tenhamos um histórico muito bom lá; quero dizer, consulte o Facebook para obter detalhes”, disse Siebel a uma platéia na conferência EmTech do MIT Technology Review . “Gostaria de acreditar que a autorregulação funcionaria, mas o poder corrompe e o poder absoluto corrompe absolutamente”.
O anúncio da Casa Branca ocorre depois que dezenas de milhares de tecnólogos, cientistas, educadores e outros colocaram seus nomes em uma petição pedindo que a OpenAI faça uma pausa por seis meses no desenvolvimento do ChatGPT, que atualmente roda no modelo de linguagem grande GPT-4 (LLM). algoritmo.
Os tecnólogos estão alarmados com o rápido aumento da IA de melhorar tarefas, como pesquisas on-line, para criar prosa realista e codificar software a partir de prompts simples e criar vídeos e fotos – tudo quase indiscernível das imagens reais.
No início desta semana, Geoffrey Hinton, conhecido como “o padrinho da IA” por causa de seu trabalho no espaço nos últimos 50 anos ou mais, anunciou sua renúncia ao Google como membro da engenharia lá. Juntamente com sua renúncia, ele enviou uma carta ao The New York Times sobre as ameaças existenciais representadas pela IA.
Ontem, Hinton falou na conferência EmTech e expôs quão terríveis são as consequências e quão pouco pode ser feito porque indústrias e governos já estão competindo para vencer a guerra da IA.
“É como se alguns engenheiros genéticos dissessem, vamos melhorar os ursos pardos; já os melhoramos com um QI de 65, e eles podem falar inglês agora, e são muito úteis para todo tipo de coisa. Mas achamos que podemos melhorar o QI para 210”, disse Hinton a um público de cerca de 400 pessoas na escola.
A IA pode ser autodidata e se torna exponencialmente mais inteligente com o tempo. Eventualmente, em vez de precisar de orientação humana, ele começará a pensar por si mesmo. Quando isso acontecer, pouco poderá ser feito para impedir o que Hinton acredita ser inevitável – a extinção dos humanos.
“Essas coisas terão aprendido conosco lendo todos os romances de todos os tempos e tudo o que Maquiavel já escreveu [sobre] como manipular as pessoas”, disse ele. “E se eles forem muito mais espertos do que nós, eles serão muito bons em nos manipular. Você não vai perceber o que está acontecendo. Você será como uma criança de dois anos que está sendo perguntada: ‘Você quer ervilhas ou couve-flor’, e não percebe que não precisa comer nenhuma das duas coisas. E você será muito fácil de manipular.”
Hinton disse que sua “única esperança” é que governos concorrentes, como os EUA e a China, concordem que permitir que a IA tenha rédea solta é ruim para todos. “Estamos todos no mesmo barco com relação à ameaça existencial, então todos devemos ser capazes de cooperar na tentativa de detê-la”, disse Hinton.
Outros no evento do MIT concordaram. Siebel descreveu a IA como mais poderosa e perigosa do que a invenção da máquina a vapor, que provocou a revolução industrial.
A IA, disse Siebel, em breve será capaz de imitar sem detecção qualquer tipo de conteúdo já criado por seres humanos – notícias, fotos, vídeos – e quando isso acontecer, não haverá uma maneira fácil de determinar o que é real e o que é falso.
“E as consequências deletérias disso são simplesmente aterrorizantes. Faz um futuro orwelliano parecer o Jardim do Éden em comparação com o que é capaz de acontecer aqui”, disse Siebel. “Pode ser muito difícil manter uma sociedade democrática livre e aberta. Isso precisa ser discutido. Precisa ser discutido na academia. Precisa ser discutido no governo.”
Margaret Mitchell, cientista-chefe de ética do fornecedor de aplicativos de aprendizado de máquina Hugging Face, disse que aplicativos de IA generativos, como o ChatGPT, podem ser desenvolvidos para usos positivos, mas qualquer tecnologia poderosa também pode ser usada para fins maliciosos.
“Isso se chama uso duplo”, disse ela. “Eu não sei se há uma maneira de ter qualquer tipo de garantia de que qualquer tecnologia que você lançar não terá uso duplo.”
Regina Sam Penti, sócia do escritório de advocacia internacional Ropes & Gray LLP , disse aos participantes da conferência do MIT que as empresas que criam IA generativa e as organizações que compram e usam os produtos têm responsabilidade legal. Mas a maioria dos processos até o momento tem como alvo os desenvolvedores de modelos de linguagem grande (LLM).
Com a IA generativa, a maioria dos problemas gira em torno do uso de dados, de acordo com Penti, porque os LLMs consomem grandes quantidades de dados e informações “reunidas de todos os cantos do mundo”.
“Portanto, efetivamente, se você estiver criando esses sistemas, provavelmente enfrentará alguma responsabilidade”, disse Penti. “Especialmente se você estiver usando grandes quantidades de dados. E não importa se você está usando os dados sozinho ou obtendo-os de um provedor.”
Mais histórias
Transfira tudo o que preza com um novo aparelho de TV Fire disponível na Amazon.
Visite o Walmart para comprar um par de AirPods Pro recondicionados por US$ 89.
Elon Musk apresentou o Cybertruck “destinado à fabricação”.