Nos últimos meses, tenho lido com crescente fascínio a obsessão do segmento de tecnologia por aplicativos de alto perfil como o ChatGPT, o garoto-propaganda de aplicativos de IA generativos que estouraram em cena.
Em meus mais de 25 anos em tecnologia, nunca vi nada atrair a atenção de uma nova capacidade como Gen AI. Mais intrigante não é apenas a obsessão, mas o fato de que muitas empresas de alto nível foram pegas de surpresa pela mídia e pelo interesse do cliente e ainda não conseguem articular claramente como poderão participar da louca corrida do ouro do setor.
Igualmente sedutor é como a indústria está esperando ansiosamente pelo suposto lançamento de seus produtos AR/VR pela Apple em sua conferência WWDC em junho ou no final do ano. Embora a maioria das empresas com produtos AR/VR existentes (Meta vem à mente) geralmente temam que um grande concorrente como a Apple entre na categoria por causa de sua influência na indústria e apelo da marca, esse pode não ser o caso.
Deixe-me explicar.
Apelo tépido dos fones de ouvido MR e VR atuais
O renomado analista Ming-Chi Kuo acha que os investidores, até agora, exageraram o interesse genuíno dos consumidores e a demanda por fones de ouvido de realidade mista e realidade virtual. A entrada da Apple no espaço AR e VR pode mudar isso.
Recentemente, Kuo escreveu que os consumidores podem não estar prontos para adotar AR e VR ainda, pois não há provas convincentes suficientes de que os fones de ouvido de realidade aumentada se tornarão a mais nova moda em eletrônicos de consumo.
Em sua opinião, o fone de ouvido de realidade mista da Apple é “talvez a oportunidade final para convencer os investidores de que o dispositivo de fone de ouvido AR/MR pode ter uma chance de se tornar o próximo produto estrela em eletrônicos de consumo”.
Kuo não faz essa afirmação sem evidências, observando que houve um declínio na fabricação e nas vendas de headsets de realidade virtual em todo o mercado.
Um exemplo revelador: a Sony diminuiu sua previsão de produção de fones de ouvido PS VR2 em 20% para 2023. Além disso, o Quest Pro da Meta entregou apenas 300.000 unidades. Pico, o maior fabricante de headsets AR/VR na China, ficou mais de 40% aquém de suas metas de envio em 2022. Esses fatos não caracterizam o headset AR/VR como mainstream.
Todos os Olhos na WWDC 2023
Diante desse cenário de mercado não muito empolgante, há rumores de que a Apple revelará seu tão esperado fone de ouvido de realidade mista. Kuo declarou publicamente que acha que o gadget será lançado no terceiro trimestre deste ano, embora muitos outros acreditem que será lançado na WWDC 2023.
Tim Cook expressou repetidamente seu apoio a um fone de ouvido de realidade aumentada da Apple. No entanto, outros engenheiros da Apple supostamente temem que a entrada da empresa na realidade virtual e aumentada possa ser uma falha cara, pois pode não estar pronta para o horário nobre do ponto de vista do modelo de uso relevante.
Na minha opinião, o que as pessoas realmente precisam é de um bom motivo para adquirir um, em vez de um novo gadget sofisticado da Apple. Afinal, muitos especialistas do setor acreditam que a Apple anunciará esses novos fones de ouvido com preços decididamente “não convencionais”, na faixa de US $ 3.000 ou mais. Com esse tipo de preço e uma recessão no horizonte, esses fatores podem ser grandes obstáculos até mesmo para a Apple.
Os jogos de realidade virtual são emocionantes para alguns jogadores obstinados, mas os jogos casuais têm uma participação de mercado consideravelmente maior e não exigem fones de ouvido. As empresas podem absorver preços mais altos, pois os headsets AR/VR têm modelos de uso atraentes nas operações, armazenamento e espaços médicos, mas os volumes não são enormes.
Os filmes são interessantes, mas quantas pessoas gostam de interagir enquanto assistem à televisão, em vez de ficarem isoladas em seu pequeno cinema particular? Peço desculpas pelo meu bocejo.
Este último ponto me leva de volta à Apple.
Experiência imersiva do FaceTime
Prevejo que a Apple está esperando para desenvolver um modelo de uso convencional que atraia um público amplo, independentemente dos preços. Acredito que será algum tipo de implementação AR/VR do FaceTime.
O FaceTime revolucionou as videochamadas ponto a ponto e as transformou de algo que apenas os entusiastas de TI ou tecnologia fariam para algo tão casual que uma avó agora não pensa duas vezes sobre isso.
Sim, os preços desses novos fones de ouvido da Apple serão altos, pois o hardware premium necessário é crucial para evitar a experiência amadora, mas a Apple apontará para o futuro e esses preços cairão rapidamente à medida que o mercado aumentar.
Se a Apple puder gerar uma experiência imersiva do FaceTime que permita que um usuário com um fone de ouvido da Apple perceba que está no local real em que outro usuário ou usuários estão, isso mudará o jogo como nenhum outro. Portanto, nesse aspecto, o espaço AR/VR precisa da Apple para ser bem-sucedido. Como diz o ditado, a maré alta afeta todos os barcos, e a indústria sabe disso.
IA generativa é a ‘corrida do ouro’ de hoje
Para dizer o mínimo, os investidores, a indústria de tecnologia e o público em geral adotaram a IA generativa de maneiras que nunca vi. No entanto, acredito que eles estão ignorando um risco crucial.
O mundo da tecnologia enlouqueceu quando o ChatGPT foi lançado em novembro passado e permitiu que os usuários fizessem perguntas a um chatbot e recebessem respostas geradas por IA.
De acordo com muitos líderes de pensamento, a nova tecnologia tem o potencial de mudar setores, incluindo mídia e saúde (recentemente passou em todas as três partes do US Medical Licensing Examination). Até o HAL de “2001: Uma Odisséia no Espaço” ficaria impressionado.
Para implementar rapidamente a tecnologia em todo o mundo, a Microsoft já comprometeu bilhões de dólares em seu relacionamento com o criador da tecnologia OpenAI e começou a integrar esse recurso em seu mecanismo de busca Bing.
Sem dúvida, os executivos esperam que isso permita à Microsoft alcançar o líder de mercado Google em buscas, onde ficou para trás. Ironicamente, o Google teve sua série de reveses de IA generativa com um lançamento menos do que estelar de sua capacidade Bard.
O ChatGPT tem sido o exemplo proeminente do que a IA generativa é capaz, embora não seja o único. Ao receber um conjunto de dados de treinamento, a IA generativa pode produzir novos dados com base nele, como imagens, sons ou texto, no caso de um chatbot.
Um valor significativo pode ser reconhecido, pois os modelos generativos de IA podem produzir resultados muito mais rapidamente do que as pessoas. Considere, por exemplo, um cenário em que a inteligência artificial (IA) cria novas paisagens e pessoas complexas sem a ajuda da visão humana.
IA de caixa preta
No entanto, nem todas as circunstâncias ou setores são adequados para a IA generativa. Pode trazer resultados atraentes e práticos para jogos, vídeos, fotos e até poemas. No entanto, pode ser perigoso ao trabalhar com sistemas de missão crítica, em cenários onde os erros são caros, ameaçam a vida ou não queremos viés.
Por exemplo, uma instituição de saúde em uma região rural com recursos escassos, onde a IA está sendo utilizada para aprimorar o planejamento de diagnóstico e tratamento. Ou imagine uma escola onde um único instrutor usa o planejamento de aulas orientado por IA para personalizar a instrução para vários alunos, dependendo de seus níveis de habilidade específicos.
Nessas circunstâncias, a IA generativa inicialmente pareceria fornecer valor, mas causaria vários problemas. Como podemos ter certeza de que o diagnóstico é preciso? E quanto a qualquer preconceito que possa estar presente nos recursos didáticos? Essas perguntas são questões críticas que precisam ser abordadas.
Modelos que usam IA generativa são chamados de modelos de “caixa preta”. Como nenhuma lógica subjacente é fornecida, é difícil entender como eles chegaram a seus resultados. Até mesmo pesquisadores experientes frequentemente têm dificuldade em entender como tais modelos operam internamente. Por exemplo, descobrir o que faz com que uma IA reconheça com precisão a imagem de uma folha de grama é notoriamente desafiador.
Você pode até ter menos conhecimento dos dados de treinamento originais como um usuário casual do ChatGPT ou de outro modelo generativo. Se você perguntar sobre a fonte dos dados do ChatGPT, ele responderá apenas que foi treinado em “uma variedade variada de dados da internet”. Esses tipos de afirmações ambíguas não inspiram altos níveis de confiança.
Perigos de saída produzidos por IA
Esta situação pode resultar em certas circunstâncias perigosas. Você não pode compreender por que um modelo produz previsões específicas se não puder ver as conexões e estruturas internas que o modelo aprendeu com os dados ou determinar quais características dos dados são mais significativas para o modelo. Como resultado, falhas fundamentais ou vieses no modelo são difíceis de encontrar ou corrigir.
Lembro-me de uma cena do famoso filme de guerra nuclear acidental “Fail Safe”, onde um executivo de tecnologia diz a um funcionário do governo que os computadores podem cometer erros sutis tão sutis que nenhum humano jamais poderia contestar esses resultados em tempo real – e esse filme foi lançado em 1964!
Os usuários da Internet documentaram casos muitas vezes involuntariamente hilários quando o ChatGPT deu respostas incorretas ou duvidosas, variando de perder no xadrez a produzir código Python que decidia quem deveria ser torturado.
Participei de uma conferência recente da HP, na qual um conhecido executivo do setor expressou apoio a ferramentas como o ChatGPT para ajudar nas tarefas “cansativas” de realizar análises de desempenho de funcionários. Imagine os processos que aconteceriam se isso se tornasse uma prática regular.
Agora, esses são apenas os casos em que a resposta incorreta era evidente. De acordo com algumas estimativas, aproximadamente 20% das respostas do ChatGPT são inventadas. É possível que, à medida que a tecnologia de IA avança, vivamos em uma época em que os chatbots autoconfiantes fornecem respostas que parecem precisas e os humanos não conseguem perceber a diferença.
Pressione Pausa na IA?
Este comentário não quer dizer que não devemos nos entusiasmar com a IA, mas o mundo precisa proceder com prudência. Apesar do emocionalismo da imprensa que parece aumentar sempre que Elon Musk comenta algo, não vamos descartar a recente carta da indústria que ele e outros luminares da indústria, incluindo Steve Wozniak, assinaram pedindo uma “pausa” sobre novas implementações de IA.
Infelizmente, é improvável que a mentalidade da corrida do ouro desacelere as coisas sem uma diretiva governamental improvável, e a regulamentação está a anos de distância. Também sou sensível ao argumento de que os Estados Unidos devem ser o líder em IA por motivos de segurança nacional, principalmente porque a China se torna uma ameaça maior.
No entanto, devemos estar atentos aos riscos e nos concentrar em maneiras de usar esses modelos de IA em ambientes do mundo real. Resultados de IA mais positivos podem ser alcançados treinando-se para diminuir sua alta taxa de respostas falsas ou “alucinações”.
O treinamento pode não ser suficiente, no entanto. Teoricamente, podemos criar uma situação em que as ferramentas de IA sejam recompensadas por fornecer resultados que seus juízes humanos consideram bem-sucedidos, por exemplo, encorajando-os a nos enganar deliberadamente simplesmente treinando modelos para gerar nossos resultados preferidos.
É possível que as coisas piorem e os aplicativos de IA possam desenvolver modelos sofisticados para evitar a detecção, talvez até superando os humanos, como alguns previram. Este cenário pode ser trágico.
Abordagem de caixa branca
Existe outra opção. Algumas empresas podem empregar modelos como caixa branca ou aprendizado de máquina explicável, em vez de se concentrar em como treinamos modelos de IA generativos.
Um modelo de caixa branca, ao contrário de modelos de caixa preta como IA generativa, é transparente e facilita a compreensão de como o modelo deriva suas previsões e quais parâmetros ele considera.
Embora os modelos de caixa branca possam ser sofisticados em relação aos algoritmos, eles são mais simples de entender, pois vêm com justificativas e contexto. Ao declarar o que acredita ser a resposta correta, uma implementação de caixa branca do ChatGPT também pode indicar o quão confiante está nessa resposta. Por exemplo, é 60%, 90% ou 100% de certeza?
Essa abordagem ajudaria os usuários a determinar até que ponto, se houver, confiar nas respostas e entender como elas foram derivadas. Dito de forma um pouco diferente, compreender em quais entradas de dados a resposta foi baseada ajudaria os usuários a examinar múltiplas variações da mesma resposta. Esse é um passo na direção certa.
Claro, isso pode não ser necessário para um diálogo direto do chatbot. No entanto, ter esse contexto pode ser crítico em situações em que uma resposta falsa pode ter consequências graves (cuidados de saúde vêm à mente).
Esse cenário é significativamente menos arriscado do que se um médico basear inteiramente todos os seus julgamentos na saída de um algoritmo secreto se estiver utilizando IA para fazer diagnósticos, mas puder ver o quão confiante o programa está em sua conclusão.
Envolvimento Humano
Do meu ponto de vista, a IA sem dúvida terá um impacto significativo nos negócios e na sociedade. Portanto, vamos deixar que os humanos selecionem a técnica de IA apropriada para cada circunstância.
Ter um ser humano como parte do ciclo de cálculo da IA pode parecer estranho, mas pode ser exatamente o que é necessário para ganhar a confiança, credibilidade e responsabilidade dos usuários.
Mais histórias
Transfira tudo o que preza com um novo aparelho de TV Fire disponível na Amazon.
Visite o Walmart para comprar um par de AirPods Pro recondicionados por US$ 89.
Elon Musk apresentou o Cybertruck “destinado à fabricação”.