O AIGC enlouqueceu o mundo recentemente, e todos os dias acordamos pode ser um “mundo novo”, mas de outra perspectiva, não importa o quão inteligente o AIGC subverta, ainda estamos no “velho mundo” ou no mundo “alternativo” .
Não apenas o novo Bing, Github Copilot X, plug-in ChatGPT, Midjourney V5 e Adobe Firefly, até mesmo o Baidu Wenxin, você deve entrar na lista de espera e aguardar um teste antes de experimentá-lo. Este processo é como um sistema de racionamento: quanto mais serviços AIGC, maior o tempo de espera para atualizações GPT-4 e Midjourney V5. Muitas pessoas ainda estão na lista de espera pelo novo Bing, quanto mais por outras atualizações da IA generativa.
Talvez seja uma resistência silenciosa às regras tácitas da lista de espera, alguém criou um site de “fila com um clique” . Mas a ironia é que a função “one-click join” ainda não foi concluída e precisa ser adicionada à lista de espera de cada empresa primeiro; e o sufixo do nome da variável da função do site é .wtf e o ressentimento está cheio.
Atrás da lista de espera é tornar o serviço mais estável
Ao fazer essa pergunta ao Bing, o Bing encontrou quatro razões em três páginas do site oficial da OpenAI.
- Limite o número de usuários para garantir a qualidade e estabilidade do serviço.
- Colete feedback do usuário para melhorar os serviços e a experiência.
- Aumente as expectativas do usuário e o senso de participação e aumente a popularidade e o boca a boca.
- Faça uma triagem dos usuários-alvo para melhorar a taxa de conversão de serviço e a taxa de retenção.
Isso é mais como a declaração oficial da espera aparentemente infinita de grandes empresas como OpenAI, Microsoft e Google. Relativamente falando, o ChatGPT, que foi o primeiro a ir ao público, experimentou muitas flutuações em seu serviço após atualizações de modelo e cortes significativos de preços, como desaparecimento de registros de perguntas e respostas, falhas e confusão na lista de perguntas e respostas e outros problemas de estabilidade.
O novo Bing baseado em OpenAI também teve uma retórica feroz.Até agora, a Microsoft limitou o número e a duração das novas conversas do Bing. Pode-se dizer que limitar o número de pessoas que usam o ChatGPT e o novo Bing pode fornecer serviços mais estáveis e rápidos. No entanto, essas funções e serviços consumiram recursos consideráveis, respondendo por quase metade do poder de computação do Microsoft Azure.
Os superaplicativos ainda não apareceram no mundo AIGC e ainda estão calculando de forma rápida e repetida. Pode-se até dizer que é uma versão de teste beta. Ele também usa caixas de diálogo tradicionais para interagir com a IA. Na verdade, não corresponde o único telefone (de mão) em 2023. O AIGC só pode ser considerado uma função agora, e os próximos Copilot e Firefly são produtos mais parecidos, mas ainda estão na lista de espera de cada empresa. De certa forma, Microsoft, Google e Adobe ainda estão “polindo” seus produtos e, se quiserem abrir a porta para todos, ou dizer que a IA se torna o copiloto de todos, ainda precisam romper o “gargalo”.
▲ Função copiloto do Office 365.
O próspero AIGC pode estar começando a atingir um gargalo
O “gargalo” não é externo, a ética, a lei ou a precisão da resposta da IA generativa, o hardware por trás da IA que fornece poder de computação e vários treinamentos de computação em nuvem. A Microsoft continua a investir em OpenAI, investindo sucessivamente biliões de dólares, e gradualmente surgindo um novo Bing baseado em GPT-4, e um novo Office 365 que ainda está em lista de espera. Para garantir a resposta estável e rápida do novo Bing e do novo Office 365 com função Copilot, a Microsoft também reserva metade do poder de computação e capacidade do Azure.
Isso levou a recursos de computação apertados no Microsoft Azure. A Information entrevistou funcionários e, para recursos de hardware limitados, a Microsoft está implementando um sistema de lista de espera de hardware. Outras equipes e departamentos da Microsoft que desenvolvem modelos de aprendizado de máquina querem chamar o Azure AI, precisam solicitar o registro passo a passo e um vice-presidente decide.
Assim como estamos na fila para experimentar a nova IA generativa, além dos novos serviços Bing, Office 365 e OpenAI, outros departamentos da Microsoft também estão na fila para usar o poder de computação do Azure. É que com a estratégia All in OpenAI da Microsoft, o poder de computação e a capacidade do Azure estão ficando mais restritos.
Além dos atendimentos empresariais, o Azure também possui diversos produtos e serviços, como IA, computação, containers, nuvem híbrida, Internet das Coisas, etc. Atualmente, o Azure fornece serviços em mais de 60 regiões em todo o mundo, e os produtos de servidor externo e receita de nuvem respondem por 36% da receita total da Microsoft. Mas, semelhante à equipe, os clientes do Azure também são afetados pelo poder de computação limitado, especialmente se quiserem chamar o Azure OpenAI, eles precisam entrar na lista de espera.
A partir do final de 2022, a Microsoft planeja adicionar mais hardware (GPU ou TPU) para expandir o poder de computação. A Microsoft e a Huida chegaram a um acordo para adicionar dezenas de milhares de GPUs H100 para fornecer à OpenAI maior treinamento de IA e eficiência de raciocínio. No entanto, a Microsoft e a Huida não divulgaram a implantação do Azure H100, e apenas um pequeno número de equipes da Microsoft tem o direito de ligar para o H100 (provavelmente as novas equipes do Bing e do Office 365), e outros departamentos precisam fazer fila.
Uma peça do H100 custa cerca de 240.000 yuans, e a expansão do Microsoft Azure requer um investimento de centenas de milhões de dólares. Não apenas a Microsoft, mas também os provedores de serviços em nuvem, como Google e Oracle, também estão investindo pesadamente em GPU e outros hardwares para se preparar para a expansão e se preparar para o poder de computação antes que o AIGC seja completamente lançado.
▲ O CEO da Huida, Huang Renxun, conversou com o cofundador e cientista-chefe da OpenAI, Ilya Sutskever.
No entanto, desde a publicação do GTC 2022 até agora, Huida não anunciou o status de produção e vendas do H100, e não se sabe se o plano de expansão do Azure da Microsoft será eficaz. GTC 2023 Huida não disse mais sobre o progresso do hardware do H100 e A100, mas apenas enfatizou as vantagens do hardware de computação em nuvem Huida. O diretor de tecnologia também enfatizou que “a criptomoeda não contribui para a sociedade, a IA tem”, e enfatizou que o campo AIGC será o campo em que Huida se concentrará por mais de 30 anos.
Como o AIGC continua a calcular, o preço das ações da Huida também aumentará em outubro de 2022, varrendo o declínio nos negócios causado pela recessão da criptomoeda. Atualmente, o valor de mercado da Huida atingiu um novo recorde, que é quase igual à soma do valor de mercado da Intel, AMD e ARM.
No entanto, a alta capitalização de mercado não parece melhorar a situação de fornecimento de hardware. Pelo contrário, como grandes empresas como Google e Microsoft investem em hardware de nuvem independentemente dos recursos de custo, é provável que Huida experimente uma escassez de placas gráficas novamente. Não apenas o hardware, mas a matriz de computação composta por GPUs de alto desempenho também requer alta potência. A potência de uma única interface SXM H100 pode chegar a 700W. O consumo de energia do treinamento de modelos de IA e dos centros de computação de big data é ainda mais alarmante.
De acordo com um estudo de 2021 de David Patterson e Joseph Gonzalez, da Universidade da Califórnia , o treinamento do GPT-3 consumirá aproximadamente 1.287 gigawatts-hora de eletricidade, equivalente ao consumo anual de eletricidade de 120 lares americanos. O jornal também descobriu que o treinamento GPT-3 geraria 502 toneladas de emissões de carbono, o que equivale às emissões anuais de 110 carros. Embora enfatizem que este é apenas o custo de treinamento de um modelo, ele consumirá mais recursos depois de entrar no mercado, o que pode ser maior do que o custo de treinamento.
O OpenAI GPT-3 tem 175 bilhões de parâmetros ou variáveis, e os parâmetros GPT-4 são estimados em 175 bilhões a 280 bilhões. Para consumo de energia, a demanda por computação em nuvem só aumentará. Em entrevista ao The Verge, o CEO da OpenAI, Sam Altman, disse que a OpenAI está procurando maneiras mais eficazes de melhorar o desempenho e a segurança do modelo. Em outras palavras, a OpenAI também está tentando usar algoritmos eficientes para economizar recursos de hardware e energia para modelos de treinamento.
Superficialmente, o mecanismo de lista de espera pode garantir a experiência do usuário AIGC e a velocidade de resposta do serviço. Mas, em um nível mais profundo, é mais uma luta por recursos, é uma competição por poder e capacidade de computação em nuvem com GPUs e TPUs como núcleo, e também é uma competição com alto investimento e alto consumo de energia. No momento, o AIGC ainda está no estágio de “caixa cega” e os requisitos e uso de recursos não são claros.
Mas ficar na lista de espera para vários serviços de IA é realmente muito parecido com filmes de ficção científica, onde as pessoas fazem fila para entrar em uma fábrica controlada por IA para fornecer recursos operacionais. A lista de espera é a candidata para o mundo virtual, podendo ser também a fila de atendimento da IA para o mundo real no futuro.
Mais histórias
Transfira tudo o que preza com um novo aparelho de TV Fire disponível na Amazon.
Visite o Walmart para comprar um par de AirPods Pro recondicionados por US$ 89.
Elon Musk apresentou o Cybertruck “destinado à fabricação”.