4 de December de 2023

‘Pai da Internet’ adverte que investir dinheiro em IA legal pode não ser legal

Vint Cerf, conhecido como o pai da internet, levantou algumas sobrancelhas na segunda-feira quando pediu aos investidores que fossem cautelosos ao investir em negócios construídos em torno de chatbots de conversação.

Continua após a publicidade

Os bots ainda cometem muitos erros, afirmou Cerf, que é vice-presidente do Google, que tem um chatbot de IA chamado Bard em desenvolvimento.

Quando ele pediu ao ChatGPT, um bot desenvolvido pela OpenAI, para escrever uma biografia dele, ele errou um monte de coisas, disse ele a uma platéia na cúpula TechSurge Deep Tech, organizada pela empresa de capital de risco Celesta e realizada no Computer History Museum em Mountain View, Califórnia.

“É como um shooter de salada. Ele mistura [fatos] porque não sabe melhor”, disse Cerf, de acordo com a Silicon Angle.

Ele aconselhou os investidores a não apoiar uma tecnologia porque parece legal ou está gerando “buzz”.

Cerf também recomendou que eles levem em consideração considerações éticas ao investir em IA.

Ele disse: “Engenheiros como eu devem ser responsáveis ​​por tentar encontrar uma maneira de domar algumas dessas tecnologias, para que tenham menos probabilidade de causar problemas”, relatou Silicon Angle.

OpenAI vai permitir que usuários personalizem o ChatGPT - Olhar Digital

Supervisão Humana Necessária

Como aponta Cerf, existem algumas armadilhas para as empresas que se esforçam para entrar na corrida da IA .

Imprecisão e informações incorretas, tendenciosidade e resultados ofensivos são todos os riscos potenciais que as empresas enfrentam ao usar IA, observou Greg Sterling, cofundador da Near Media , um site de notícias, comentários e análises.

“Os riscos dependem dos casos de uso”, disse Sterling ao TechNewsWorld. “Agências digitais que dependem excessivamente do ChatGPT ou de outras ferramentas de IA para criar conteúdo ou concluir o trabalho para os clientes podem produzir resultados abaixo do ideal ou prejudiciais ao cliente de alguma forma.”

Leia Mais:  Para combater ameaças de e-mail de IA generativas, combata fogo com fogo

No entanto, ele afirmou que freios e contrapesos e forte supervisão humana poderiam mitigar esses riscos.

Pequenas empresas que não possuem experiência em tecnologia precisam ter cuidado antes de mergulhar na IA, alertou Mark N. Vena, presidente e principal analista da SmartTech Research em San Jose, Califórnia.

“No mínimo, qualquer empresa que incorpore IA em sua maneira de fazer negócios precisa entender as implicações disso”, disse Vena ao TechNewsWorld.

“A privacidade – especialmente no nível do cliente – é obviamente uma grande área de preocupação”, continuou ele. “Os termos e condições de uso precisam ser extremamente explícitos, assim como a responsabilidade caso a capacidade da IA ​​produza conteúdo ou tome ações que abram o negócio a possíveis responsabilidades.”

A Ética Precisa de Exploração

Embora Cerf queira que usuários e desenvolvedores de IA levem em consideração a ética ao trazer produtos de IA ao mercado, isso pode ser uma tarefa desafiadora.


Relacionado: Executivo da OpenAI admite que a IA precisa de regulamentação


“A maioria das empresas que utilizam IA concentra-se na eficiência e na economia de tempo ou custos”, observou Sterling. “Para a maioria deles, a ética será uma preocupação secundária ou mesmo desconsiderada.”

Existem questões éticas que precisam ser abordadas antes que a IA seja amplamente adotada, acrescentou Vena. Ele apontou o setor educacional como exemplo.

“É ético um aluno enviar um artigo totalmente extraído de uma ferramenta de IA?” ele perguntou. “Mesmo que o conteúdo não seja plágio no sentido mais estrito, porque poderia ser ‘original’, acredito que a maioria das escolas – especialmente nos níveis de ensino médio e universitário – rejeitaria isso.”

“Não tenho certeza se os meios de comunicação ficariam entusiasmados com o uso do ChatGPT por jornalistas que relatam eventos em tempo real que geralmente dependem de julgamentos abstratos com os quais uma ferramenta de IA pode ter dificuldades”, disse ele.

Leia Mais:  Hon Hai Group desenvolve computação espacial em Taiwan, e o servidor estará disponível em 18 meses no mínimo

“A ética deve desempenhar um papel importante”, continuou ele, “e é por isso que precisa haver um código de conduta de IA com o qual as empresas e até a mídia devem ser obrigadas a concordar, além de tornar esses termos de conformidade parte dos termos e condições ao usar ferramentas de IA.”

Chat GPT: como a inteligência artificial vai transformar as franquias e melhorar seus resultados | Exame

Consequências não-intencionais

É importante para qualquer pessoa envolvida em IA garantir que está fazendo o que está fazendo com responsabilidade, afirmou Ben Kobren, chefe de comunicações e políticas públicas da Neeva, um mecanismo de pesquisa baseado em IA com sede em Washington, DC

“Muitas das consequências não intencionais das tecnologias anteriores foram resultado de um modelo econômico que não estava alinhando os incentivos de negócios com o usuário final”, disse Kobren ao TechNewsWorld. “As empresas precisam escolher entre atender um anunciante ou o usuário final. Na grande maioria das vezes, o anunciante venceria. “

“A internet gratuita permitiu uma inovação inacreditável, mas teve um custo”, continuou ele. “Esse custo foi a privacidade de um indivíduo, o tempo de um indivíduo, a atenção de um indivíduo.”

“O mesmo vai acontecer com a IA”, disse ele. “A IA será aplicada em um modelo de negócios alinhado com os usuários ou com os anunciantes?”

Os pedidos de cautela de Cerf parecem ter como objetivo retardar a entrada de produtos de IA no mercado, mas isso parece improvável.

“O ChatGPT impulsionou a indústria muito mais rápido do que qualquer um esperava”, observou Kobren.

“A corrida começou e não há como voltar atrás”, acrescentou Sterling.

“Existem riscos e benefícios em trazer rapidamente esses produtos para o mercado”, disse ele. “Mas a pressão do mercado e os incentivos financeiros para agir agora vão superar a restrição ética. As maiores empresas falam sobre ‘IA responsável’, mas estão avançando de qualquer maneira.”

Leia Mais:  Não consegue manter o talento? As Forças Especiais da Marinha Real se transformaram em empreendedoras, contando com "check-in diário + IA" para aumentar o moral da equipe

Tecnologia transformacional

Em suas observações na cúpula do TechSurge, Cerf também lembrou aos investidores que todas as pessoas que usarão tecnologias de IA não as usarão para os propósitos pretendidos. Eles “procurarão fazer o que é benefício deles e não seu”, disse ele.

“Governos, ONGs e indústria precisam trabalhar juntos para formular regras e padrões, que devem ser incorporados a esses produtos para evitar abusos”, observou Sterling.

“O desafio e o problema são que o mercado e a dinâmica competitiva se movem mais rapidamente e são muito mais poderosos do que políticas e processos governamentais”, continuou ele. “Mas a regulamentação está chegando. É apenas uma questão de quando e como será.”

Os formuladores de políticas estão lutando com a responsabilidade da IA ​​há algum tempo, comentou Hodan Omaar, analista sênior de políticas de IA do Center for Data Innovation , um think tank que estuda a interseção de dados, tecnologia e políticas públicas, em Washington, DC

“Os desenvolvedores devem ser responsáveis ​​ao criar sistemas de IA”, disse Omaar ao TechNewsWorld. “Eles devem garantir que esses sistemas sejam treinados em conjuntos de dados representativos”.

No entanto, ela acrescentou que serão os operadores dos sistemas de IA que tomarão as decisões mais importantes sobre como os sistemas de IA impactam a sociedade.

“Está claro que a IA veio para ficar”, acrescentou Kobren. “Ele vai transformar muitas facetas de nossas vidas, em particular como acessamos, consumimos e interagimos com informações na internet.”

“É a tecnologia mais transformadora e empolgante que vimos desde o iPhone”, concluiu.