25 de November de 2023

Musk anunciou a criação de um concorrente do ChatGPT! CEO da OpenAI joga água fria: GPT-5 pode mudar drasticamente

Quando o ChatGPT ou o novo Bing faz uma pergunta, a IA chama o cérebro da nuvem para pensar e produzir uma resposta mais razoável. Quando a OpenAI desenvolveu o GPT, também mencionou repetidamente que os parâmetros eram muito grandes e o tamanho do modelo se tornava mais complexo a cada nova geração.

Continua após a publicidade

O treinamento de um modelo de linguagem em grande escala requer uma quantidade enorme de clusters de GPU de poder de computação e, à medida que o número de usuários cresce proporcionalmente, certamente consumirá muito poder de computação. Toda empresa que deseja entrar no AIGC deve primeiro considerar como investir em computação em nuvem em grande escala.No centro, parece que a competição AIGC se tornou um campo de disputa de recursos de hardware.

Com um centro de computação com poder de computação mais forte, modelos e algoritmos de linguagem em larga escala podem ser executados e, eventualmente, produtos de IA também podem ser mais “inteligentes”. No entanto, o CEO da OpenAI, Sam Altman, fez recentemente um discurso no MIT, mas jogou água fria nos retardatários que queriam “fazer milagres vigorosamente”.

Altman: O escalonamento do modelo está obsoleto

“A era dos grandes modelos chegou ao fim, precisamos de novos pensamentos e ideias para fazer o AIGC avançar.”

Expandir a escala do modelo, usar parâmetros mais complexos e exigir maior poder de computação é basicamente o algoritmo iterativo do GPT da OpenAI nos últimos anos. O GPT-2 tem cerca de 1,5 bilhão de parâmetros e o GPT-3 tem 175 bilhões de parâmetros. Embora o GPT-4 não tenha dados oficiais, muitas instituições especulam que ele usa megabytes de texto e dezenas de milhares de servidores, e o custo de treinamento ultrapassa 100 milhões dólares americanos.

A influência do ChatGPT está crescendo e a Microsoft também está usando a tecnologia subjacente para lançar o novo Bing. Para não ficar atrás, o Google lançou o Bard e a Adobe lançou o Firefly. Além de grandes empresas, muitas start-ups bem financiadas no Vale do Silício, Anthropic, AI21, Cohere e Character.AI investiram muito para construir algoritmos de modelo maiores para acompanhe o ChatGPT e o OpenAI.

A demanda extremamente alta por recursos de hardware também causou uma corrida para comprar as GPUs Huida A100 e H100. O Huida H100 no eBay é uma mercadoria quente, e o preço subiu para 40.000 dólares americanos, e o preço oficial é de 33.000 dólares americanos. Além disso, o H100 geralmente é embalado com 8 placas para formar um servidor para venda, e não há canal de vendas de GPU de terceiros para competir com o Huida. Sob a onda da IA, quem tiver mais GPUs Huida parece ter a chave para Vitória do AIGC.

Semelhante ao monopólio do capital da indústria tradicional e das grandes empresas, a busca pelo poder de computação deu origem ao “monopólio do poder de computação”. Sam Altman disse que a OpenAI não tem planos de desenvolver o GPT-5. A implicação é que a escala do modelo será expandida sem cérebros e não permitirá que o GPT mantenha cálculos repetidos infinitos.

Leia Mais:  Seu primeiro assistente digital gêmeo e o futuro do entretenimento em vídeo

No momento, tanto o ChatGPT quanto o novo Bing da Microsoft encontraram muitas falhas e serviços instáveis ​​devido ao poder de computação insuficiente. O novo Bing não está aberto a todos os usuários e ainda precisa ser colocado na fila para uso, e é por isso que o Google não pode introduzir totalmente a IA generativa na pesquisa. Nick Frosst, que foi responsável pelo desenvolvimento da IA ​​no Google e agora é o fundador da Cohere, também disse que Altman é muito presciente. O novo design ou arquitetura do modelo de inteligência artificial pode ser ajustado com base no feedback humano. A OpenAI pode ter começado a conceber o GPT -5 em uma nova direção.

Musk: Cace pessoas, compre placas gráficas e forme uma equipe

Embora Sam Altman tenha dito que continuaria seguindo o antigo caminho do OpenAI, expandiria a escala do modelo e melhoraria o AI, seria difícil alcançar o ChatGPT, mas Musk, que era um velho amigo de Altman, ainda investiu no AIGC . O Wall Street Journal informou que Musk registrou silenciosamente uma empresa chamada X.AI Crop, roubou vários pesquisadores do Google e comprou milhares de placas gráficas de Huida.

O propósito de Musk é óbvio, competir com OpenAI e Google. Após a publicação do relatório, em entrevista à Fox News, Musk admitiu que queria lançar um produto semelhante ao ChatGPT, chamado TruthGPT, que “maximizaria a IA de busca da verdade” e tentaria entender a natureza do universo, esperando para beneficiar mais pessoas. Nada mal.

A visita de Musk é um pouco absurda. Afinal, a julgar pelo atual modelo de linguagem em larga escala, X.AI Crop pode não ser tão bom quanto a equipe start-up do Vale do Silício. O nome TruthGPT também parece estar na barra com ChatGPT . Musk sempre acreditou que a IA generativa do tipo GPT-4 é bastante arriscada, pedindo uma suspensão de desenvolvimento de seis meses e a introdução de métodos regulatórios, e até disse que “tem o potencial de destruir a civilização”.

Leia Mais:  Amazon Web Services lança acelerador de startups para empresas de IA generativa

Só de falar em suspender a pesquisa e estabelecer o X.AI Crop para entrar no AIGC, é difícil não acreditar que Musk está exagerando. Suspender a P&D por seis meses é mais como pedir à OpenAI para esperar que Musk acompanhe o progresso por seis meses. É inegável que a SpaceX e a Tesla de Musk subverteram a indústria e se tornaram as empresas mais famosas, então depois de sair da OpenAI e ver seu desenvolvimento e melhor discurso, mostra que Musk não quer perder a oportunidade.

Quanto a TruthGPT ser como ele disse, só podemos esperar pelo capítulo real em seis meses.

Jensen Huang: Precisamos de aplicativos

A IA generativa vive apenas em caixas de diálogo e oculta todos os dispositivos inteligentes de uma forma muito clássica. Independentemente de plug-ins ou aplicativos de terceiros, as caixas de diálogo são o que interagem com as pessoas no final. Essa também é a interação inicial humano-computador quando computadores apareceu pela primeira vez.

O podcast de Nicolai Tangen conversou com o CEO da Huida, Huang Renxun, sobre como a IA pode mudar a vida e o trabalho das pessoas. O rápido desenvolvimento da IA ​​é inseparável da ajuda da GPU Huida. A Huida quase monopoliza o mercado de computação em nuvem. O ponto de vista de Altman é que a IA ainda não pode se livrar do poder de computação super alto. Modelos supergrandes são suportados por algoritmos enormes. De Claro, é um grande desafio para novas inovações, assim como Huida.

A Huida precisa desenvolver continuamente GPUs mais fortes para atender ao desenvolvimento da IA, e a IA ainda vive em grandes centros de dados, exigindo muitos supercomputadores para fornecer poder de computação, diferente de qualquer aplicativo ou software. O GPT-3 tem 175 bilhões de parâmetros. Diante de uma quantidade tão grande de cálculos, a GPU Huida AI foi redesenhada de baixo para cima. No entanto, ainda leva semanas para processar dados em grande escala e aprender modelos grandes, e não pode ser condensado em um único aplicativo ou plug em um PC.

Leia Mais:  Leafly demite 21% da força de trabalho em meio a possível saída da Nasdaq

Isso realmente explica que, até agora, a IA existe na nuvem e nos plug-ins. Huida disse que a IA começou a penetrar no design de chips: “Quando os arquitetos de chips dormem à noite, a IA ainda está constantemente computando, otimizando e melhorando a arquitetura. Ela pode nos ajudar a projetar e fabricar chips.”

Em outras palavras, a IA até se envolve na produção de chips, e esses chips são usados ​​na computação em nuvem para desenvolver a IA. Isso é autossuficiência da IA? Huang Renxun acredita que a IA desencadeará a próxima revolução industrial. Embora não desperte e substitua os humanos por enquanto, liberará muito a mão de obra e aumentará a produtividade de cada pessoa. As pessoas podem escrever programas diretamente em linguagem natural sem aprender linguagens de programação complicadas como Python, Java e C.

▲ Função copiloto do Github.

Ele também citou os engenheiros de software da Huida como exemplo: após a ajuda da IA, cerca de 40% a 50% dos programas e softwares são entregues à IA generativa para escrever, e os engenheiros só precisam fornecer sugestões e ideias. Após a adição da IA, a eficiência de produção dos engenheiros de software da Huida aumentou 10 vezes. A intervenção da IA ​​permite que as pessoas concluam muitas tarefas triviais a uma velocidade de dez mil vezes, melhorando indiretamente a produtividade. Antes do surgimento do GPT-4, a indústria de IA poderia simplesmente expandir o tamanho do modelo e aumentar a implantação de hardware para manter a computação de alta velocidade. No entanto, com o surgimento de gargalos de poder de computação, a OpenAI teve que repensar como otimizar e encontrar a próxima direção da IA.

Huang Renxun também está ciente de que a demanda por poder de computação de IA é muito grande e precisa ser armazenada em um local com muito espaço e muitos chips. Agora, a IA é como o computador ENIAC de primeira geração do mundo. O próximo passo para a IA é reduzir os requisitos de recursos, e também precisa ser reduzido, e pode viver de forma independente em um aplicativo ou software. Não é realista no momento, mas a boa notícia é que a OpenAI começou a recrutar engenheiros Android e iOS, e a versão App do ChatGPT pode estar chegando em breve.