29 de November de 2023

Por que demora tanto para se inscrever no ChatGPT e em uma nova conta do Bing?

O AIGC enlouqueceu o mundo recentemente, e todos os dias acordamos pode ser um “mundo novo”, mas de outra perspectiva, não importa o quão inteligente o AIGC subverta, ainda estamos no “velho mundo” ou no mundo “alternativo” .

Continua após a publicidade

Não apenas o novo Bing, Github Copilot X, plug-in ChatGPT, Midjourney V5 e Adobe Firefly, até mesmo o Baidu Wenxin, você deve entrar na lista de espera e aguardar um teste antes de experimentá-lo. Este processo é como um sistema de racionamento: quanto mais serviços AIGC, maior o tempo de espera para atualizações GPT-4 e Midjourney V5. Muitas pessoas ainda estão na lista de espera pelo novo Bing, quanto mais por outras atualizações da IA ​​generativa.

Talvez seja uma resistência silenciosa às regras tácitas da lista de espera, alguém criou um site de “fila com um clique” . Mas a ironia é que a função “one-click join” ainda não foi concluída e precisa ser adicionada à lista de espera de cada empresa primeiro; e o sufixo do nome da variável da função do site é .wtf e o ressentimento está cheio.

Atrás da lista de espera é tornar o serviço mais estável

Ao fazer essa pergunta ao Bing, o Bing encontrou quatro razões em três páginas do site oficial da OpenAI.

  1. Limite o número de usuários para garantir a qualidade e estabilidade do serviço.
  2. Colete feedback do usuário para melhorar os serviços e a experiência.
  3. Aumente as expectativas do usuário e o senso de participação e aumente a popularidade e o boca a boca.
  4. Faça uma triagem dos usuários-alvo para melhorar a taxa de conversão de serviço e a taxa de retenção.

Isso é mais como a declaração oficial da espera aparentemente infinita de grandes empresas como OpenAI, Microsoft e Google. Relativamente falando, o ChatGPT, que foi o primeiro a ir ao público, experimentou muitas flutuações em seu serviço após atualizações de modelo e cortes significativos de preços, como desaparecimento de registros de perguntas e respostas, falhas e confusão na lista de perguntas e respostas e outros problemas de estabilidade.

O novo Bing baseado em OpenAI também teve uma retórica feroz.Até agora, a Microsoft limitou o número e a duração das novas conversas do Bing. Pode-se dizer que limitar o número de pessoas que usam o ChatGPT e o novo Bing pode fornecer serviços mais estáveis ​​e rápidos. No entanto, essas funções e serviços consumiram recursos consideráveis, respondendo por quase metade do poder de computação do Microsoft Azure.

Os superaplicativos ainda não apareceram no mundo AIGC e ainda estão calculando de forma rápida e repetida. Pode-se até dizer que é uma versão de teste beta. Ele também usa caixas de diálogo tradicionais para interagir com a IA. Na verdade, não corresponde o único telefone (de mão) em 2023. O AIGC só pode ser considerado uma função agora, e os próximos Copilot e Firefly são produtos mais parecidos, mas ainda estão na lista de espera de cada empresa. De certa forma, Microsoft, Google e Adobe ainda estão “polindo” seus produtos e, se quiserem abrir a porta para todos, ou dizer que a IA se torna o copiloto de todos, ainda precisam romper o “gargalo”.

▲ Função copiloto do Office 365.

Leia Mais:  A Hyundai Motor oferece suporte a novas inovações, IA de ataque, entrega autônoma e análise de dados

O próspero AIGC pode estar começando a atingir um gargalo

O “gargalo” não é externo, a ética, a lei ou a precisão da resposta da IA ​​generativa, o hardware por trás da IA ​​que fornece poder de computação e vários treinamentos de computação em nuvem. A Microsoft continua a investir em OpenAI, investindo sucessivamente biliões de dólares, e gradualmente surgindo um novo Bing baseado em GPT-4, e um novo Office 365 que ainda está em lista de espera. Para garantir a resposta estável e rápida do novo Bing e do novo Office 365 com função Copilot, a Microsoft também reserva metade do poder de computação e capacidade do Azure.

Isso levou a recursos de computação apertados no Microsoft Azure. A Information entrevistou funcionários e, para recursos de hardware limitados, a Microsoft está implementando um sistema de lista de espera de hardware. Outras equipes e departamentos da Microsoft que desenvolvem modelos de aprendizado de máquina querem chamar o Azure AI, precisam solicitar o registro passo a passo e um vice-presidente decide.

Assim como estamos na fila para experimentar a nova IA generativa, além dos novos serviços Bing, Office 365 e OpenAI, outros departamentos da Microsoft também estão na fila para usar o poder de computação do Azure. É que com a estratégia All in OpenAI da Microsoft, o poder de computação e a capacidade do Azure estão ficando mais restritos.

Além dos atendimentos empresariais, o Azure também possui diversos produtos e serviços, como IA, computação, containers, nuvem híbrida, Internet das Coisas, etc. Atualmente, o Azure fornece serviços em mais de 60 regiões em todo o mundo, e os produtos de servidor externo e receita de nuvem respondem por 36% da receita total da Microsoft. Mas, semelhante à equipe, os clientes do Azure também são afetados pelo poder de computação limitado, especialmente se quiserem chamar o Azure OpenAI, eles precisam entrar na lista de espera.

Leia Mais:  Celebridades da internet usam GPT-4 para se “copiar” para namorar milhares de “namorados” e querem ganhar US$ 5 milhões por mês

A partir do final de 2022, a Microsoft planeja adicionar mais hardware (GPU ou TPU) para expandir o poder de computação. A Microsoft e a Huida chegaram a um acordo para adicionar dezenas de milhares de GPUs H100 para fornecer à OpenAI maior treinamento de IA e eficiência de raciocínio. No entanto, a Microsoft e a Huida não divulgaram a implantação do Azure H100, e apenas um pequeno número de equipes da Microsoft tem o direito de ligar para o H100 (provavelmente as novas equipes do Bing e do Office 365), e outros departamentos precisam fazer fila.

Uma peça do H100 custa cerca de 240.000 yuans, e a expansão do Microsoft Azure requer um investimento de centenas de milhões de dólares. Não apenas a Microsoft, mas também os provedores de serviços em nuvem, como Google e Oracle, também estão investindo pesadamente em GPU e outros hardwares para se preparar para a expansão e se preparar para o poder de computação antes que o AIGC seja completamente lançado.

▲ O CEO da Huida, Huang Renxun, conversou com o cofundador e cientista-chefe da OpenAI, Ilya Sutskever.

No entanto, desde a publicação do GTC 2022 até agora, Huida não anunciou o status de produção e vendas do H100, e não se sabe se o plano de expansão do Azure da Microsoft será eficaz. GTC 2023 Huida não disse mais sobre o progresso do hardware do H100 e A100, mas apenas enfatizou as vantagens do hardware de computação em nuvem Huida. O diretor de tecnologia também enfatizou que “a criptomoeda não contribui para a sociedade, a IA tem”, e enfatizou que o campo AIGC será o campo em que Huida se concentrará por mais de 30 anos.

Como o AIGC continua a calcular, o preço das ações da Huida também aumentará em outubro de 2022, varrendo o declínio nos negócios causado pela recessão da criptomoeda. Atualmente, o valor de mercado da Huida atingiu um novo recorde, que é quase igual à soma do valor de mercado da Intel, AMD e ARM.

No entanto, a alta capitalização de mercado não parece melhorar a situação de fornecimento de hardware. Pelo contrário, como grandes empresas como Google e Microsoft investem em hardware de nuvem independentemente dos recursos de custo, é provável que Huida experimente uma escassez de placas gráficas novamente. Não apenas o hardware, mas a matriz de computação composta por GPUs de alto desempenho também requer alta potência. A potência de uma única interface SXM H100 pode chegar a 700W. O consumo de energia do treinamento de modelos de IA e dos centros de computação de big data é ainda mais alarmante.

Leia Mais:  Jamf anuncia suporte para login único da plataforma SSO sem senha

De acordo com um estudo de 2021 de David Patterson e Joseph Gonzalez, da Universidade da Califórnia , o treinamento do GPT-3 consumirá aproximadamente 1.287 gigawatts-hora de eletricidade, equivalente ao consumo anual de eletricidade de 120 lares americanos. O jornal também descobriu que o treinamento GPT-3 geraria 502 toneladas de emissões de carbono, o que equivale às emissões anuais de 110 carros. Embora enfatizem que este é apenas o custo de treinamento de um modelo, ele consumirá mais recursos depois de entrar no mercado, o que pode ser maior do que o custo de treinamento.

O OpenAI GPT-3 tem 175 bilhões de parâmetros ou variáveis, e os parâmetros GPT-4 são estimados em 175 bilhões a 280 bilhões. Para consumo de energia, a demanda por computação em nuvem só aumentará. Em entrevista ao The Verge, o CEO da OpenAI, Sam Altman, disse que a OpenAI está procurando maneiras mais eficazes de melhorar o desempenho e a segurança do modelo. Em outras palavras, a OpenAI também está tentando usar algoritmos eficientes para economizar recursos de hardware e energia para modelos de treinamento.

Superficialmente, o mecanismo de lista de espera pode garantir a experiência do usuário AIGC e a velocidade de resposta do serviço. Mas, em um nível mais profundo, é mais uma luta por recursos, é uma competição por poder e capacidade de computação em nuvem com GPUs e TPUs como núcleo, e também é uma competição com alto investimento e alto consumo de energia. No momento, o AIGC ainda está no estágio de “caixa cega” e os requisitos e uso de recursos não são claros.

Mas ficar na lista de espera para vários serviços de IA é realmente muito parecido com filmes de ficção científica, onde as pessoas fazem fila para entrar em uma fábrica controlada por IA para fornecer recursos operacionais. A lista de espera é a candidata para o mundo virtual, podendo ser também a fila de atendimento da IA ​​para o mundo real no futuro.