29 de November de 2023

Use o ChatGPT para controlar o NPC, a ação é tão realista quanto uma pessoa normal! Stanford, o novo campo de bombardeio de pesquisa do Google, dotando modelos grandes com memória precisa

A IA não só pode acordar, escovar os dentes, comer e dormir como as pessoas, mas também será forçada a “sair para trabalhar” e até celebrar festivais juntos nos momentos de lazer.

Continua após a publicidade

Este é um novo estudo de Stanford e Google : eles fizeram um novo experimento , criaram 25 AI NPCs, cada um com diferentes identidades e decisões comportamentais, e os deixaram viver juntos em uma caixa de areia, contando com o modelo ChatGPT para tomar decisões comportamentais. Como resultado, esses NPCs de IA não apenas vivem como pessoas, como escritores escrevem, chefes abrem lojas, mas também interagem uns com os outros e até conversam entre si:

A pesquisa se tornou popular assim que foi publicada. Ethan Mollick, professor da Wharton School of Business da Universidade da Pensilvânia, disse:

Essas ações são mais parecidas com o que as pessoas normais fariam do que “interpretações”.

 

O cientista da OpenAI, Andrej Karpathy, chegou a dizer que “isso supera os jogos de mundo aberto”:

 

Que tipo de “sociedade de IA” essa pesquisa construiu?

Quando a IA joga The Sims

Na demonstração, as 25 identidades, personalidades e idades da IA ​​são todas diferentes:

Eles viverão em comunidades comunais, com estruturas muito detalhadas, incluindo áreas residenciais, universidades, parques, cafés, etc.:

Cada IA ​​tem um cronograma básico, como acordar, se arrumar, comer, dormir, etc., e realizará diferentes ações de acordo com seus respectivos papéis para manter conjuntamente o funcionamento da comunidade. O emoji da Demo simplesmente representa as operações em andamento da IA, como enviar e receber cartas e comer:

A IA também interagirá com:

Não é na linguagem da IA ​​ao falar, mas na linguagem humana:

Além disso, a IA interativa pode até ouvir solicitações humanas e executar as ações correspondentes. Como os autores do artigo mencionaram, eles disseram a um NPC de IA como humano que queriam que ele realizasse uma “festa do dia dos namorados”. Este AI NPC não apenas concordou com entusiasmo com o pedido do autor, mas também começou a se organizar espontaneamente, incluindo tempo, local e pessoas presentes:

Vendo isso, alguns internautas disseram que era “muito louco” – para os jogadores, ao invés de seguir os passos, o jogo pode realmente ter que convencer o NPC ou agir depois de pensar para concluir a tarefa.

 

Também há internautas que abriram suas mentes e pensaram em maneiras mais malignas de jogar:

Imagine que você mata um NPC e depois dirige de volta para a cidade para assistir a outros NPCs fazerem um funeral para ele >”<.

 

Como essas IAs agem espontaneamente e constroem uma sociedade interativa de IA autogerida?

Decisões de ação de controle com modelos grandes

Stanford e Google estão realizando ações de IA e interagindo com outras IAs em duas etapas.

O primeiro passo é criar várias “configurações pessoais” de IA e garantir que elas atuem de acordo com as configurações. Tomando como exemplo o personagem AI John Lin, a Demo pode encontrar uma lista de configurações. Suas configurações são muito detalhadas, incluindo informações básicas (nome, idade, local, horário), configurações de atenção (campo de visão, etc.), informações pessoais (personalidade, antecedentes familiares, trabalho, etc.).

Com esta referência, John Lin AI pode formar um hábito de vida diário fixo, incluindo acordar cedo para se arrumar, depois ir trabalhar e ir para casa dormir depois de sair do trabalho.

Mas durante as atividades, você definitivamente se comunicará com outras IAs ou conhecerá novos colegas, então…

O segundo passo é deixar o personagem de IA responder ao ambiente externo e interagir com outras pessoas. Pesquise e construa uma arquitetura que capacite a IA com memória, memória de recuperação, detecção, feedback e interação.

A partir do diagrama de arquitetura, a IA primeiro detecta o ambiente circundante, registra eventos que ocorrem em um determinado campo de visão (atenção) e os adiciona ao seu próprio fluxo de memória.

Depois disso, não importa o que a IA planeje fazer (planejar) ou refletir (refletir) o que aconteceu lá fora, ela será afetada pelo fluxo de memória. O princípio é recuperar os eventos correspondentes da memória e tomar decisões com base em o grande modelo ChatGPT. É claro que, independentemente do planejamento ou reação, o evento correspondente também se juntará ao fluxo da memória e se tornará uma nova memória. A decisão final será transformada em um plano para fazer a IA pensar e agir.

Leia Mais:  "Metavers" e "computação em nuvem" nos dicionários Larousse e Le Robert

O estudo mencionou que a razão pela qual o modelo grande + arquitetura de memória é adotada é que, embora o modelo grande tenha uma lógica de ação muito boa, o planejamento de longo prazo e a manutenção da coerência da memória ainda são desafios, independentemente do GPT-4 ou de outros modelos grandes. Portanto, um sistema de memória é necessário como um “alvo de referência” para o modelo grande, para que ele tenha uma lista clara de eventos que podem ser rastreados ao tomar decisões.

No entanto, este estudo também levanta a questão da segurança da IA. Incluindo como evitar que a IA tenha um impacto na sociedade ou seja defraudada por IA deepfake e “personalizada”.

A paixão de IA que conversar com você no futuro não só lembrará de tudo o que você disse, preferências de aniversário, mas também se referirá a ela para gerar respostas mais “íntimas”, fazendo com que “ela” pareça mais humana…

Mais uma coisa

A empresa de tecnologia de hiperparâmetros da China também criou um sistema AI NPC semelhante, GAEA . Assim como a pesquisa do Stanford Google, o GAEA também possui um sistema de memória e conta com um grande modelo de linguagem para ajudar o NPC a tomar decisões.

No entanto, os dois tornam o mecanismo de recompensa da ação da IA ​​um pouco diferente. Em comparação com a pesquisa, a decisão da ação é completada pelo modelo grande:

A IA do GAEA também afetará as decisões de ação do NPC com base em valores mais específicos (valor da fome, valor do humor, etc.):

Para a atual tecnologia AI NPC, que outras ideias os leitores pensam?