No final de março, Musk e muitas outras celebridades da indústria de tecnologia assinaram uma carta aberta, esperando que instituições como a OpenAI suspendam o desenvolvimento de AGI de nível superior por pelo menos 6 meses, para que os humanos possam chegar a algum tipo de acordo. baseado na ameaça de AGI (Inteligência Artificial Geral).
Embora a carta não seja longa, ela é muito ampla em conteúdo e rica em perguntas. Por exemplo, como o ser humano deve acertar essa conta, porque a AGI deixa o canal de informação cheio de propagandas e até mentiras; se o ser humano já gosta do trabalho que faz bem, a IA deveria fazer isso por ele? O ganho de eficiência vale o risco de “perder o controle da civilização”? Como o sistema regulatório da AGI deve ser projetado?
A carta gerou um debate sem precedentes no Vale do Silício. Afinal, com o GPT3.5 entrando no campo de visão humano como ponto de partida, ainda há muitos problemas não resolvidos no desenvolvimento da AGI e muitas controvérsias para chegar a um consenso. Mas quando os seres humanos ainda estão brigando, a AGI começou a causar problemas em todo o mundo. Notícias falsas e vários vazamentos são grandes caixas pretas que perturbam as pessoas.
Recentemente, países desenvolvidos da Europa, América, Japão e Coréia do Sul começaram a discutir a supervisão de grandes modelos. Em 11 de abril, o Escritório Nacional de Informações da Internet da China divulgou as “Medidas Geradoras de Gerenciamento de Serviços de Inteligência Artificial (Rascunho para Comentários)”, que é provavelmente a posição oficial mais antiga sobre a supervisão de AGI humana. No entanto, a regulamentação costuma ser um ângulo único quando as pessoas entendem a AGI:
Diferentemente da perspectiva dos cientistas, existem muitas interpretações complexas de parâmetros e gêneros de estruturas de modelos complexos. Os reguladores são os porta-vozes dos interesses sociais e pensam sob a perspectiva da sociedade como um todo. Eles deveriam estar mais próximos da intuição da maioria das pessoas, mas eles também representam as ideias do grupo principal de especialistas, para que também possam responder a algumas perguntas sobre coisas novas.
Quem sou eu: IA generativa
Do ponto de vista do Vale do Silício, AGI é aproximadamente equivalente a um grande modelo. É um programa de computador que combina um modelo otimizado, um corpus estruturado e um enorme poder computacional. Tem as características de um corpo inteligente. As “medidas” da China classificam essa “nova espécie” na indústria de “inteligência artificial generativa”, ou seja, “baseada em algoritmos, modelos e regras para gerar texto, imagens, sons, vídeos, códigos e outras tecnologias”. Obviamente, isso é da perspectiva da relação entre IA e sociedade.
Afinal, as características da AGI mudarão e o tamanho do modelo flutuará, mas o núcleo da busca final pela interação com a sociedade humana não mudará. Não importa quanto tempo o modelo seja fechado e desenvolvido, o objetivo final é entrar na sociedade. Esta é a maior diferença entre AI vertical e AGI, como tomada de decisão auxiliar, recuperação, segurança e pagamento no passado. De uma perspectiva de longo prazo, qualquer IA generativa com uma ampla base de usuários provavelmente é um produto com os recursos subjacentes da AGI.
Para as pessoas comuns, o termo AGI é um pouco pouco intuitivo. Muitas pessoas comparam AGI com seres humanos, como se as pessoas vissem que “a matéria inorgânica tem alma”, esquecendo-se completamente de que AGI é apenas um pouco inteligente e seu desenvolvimento futuro é realmente cheio de incertezas. Em vez de dizer que o futuro é uma “sociedade AGI” semelhante ao “Western Elysium”, é melhor dizer que é um mundo de IA generativa, que pode estar mais próximo da realidade desta geração.
Quem sou eu: provedor de serviços
Existe uma pergunta clássica na discussão da ética AGI: os direitos autorais do conteúdo produzido pelo modelo grande pertencem à empresa modelo grande ou ao usuário que trabalhou duro para escrever o prompt (palavra do prompt)? Embora as “Medidas” da China não especifiquem a propriedade dos direitos autorais, a supervisão atribui responsabilidades e obrigações:
Organizações e indivíduos que usam produtos generativos de inteligência artificial para fornecer bate-papo e texto, imagem, geração de som e outros serviços (doravante denominados “provedores”), incluindo o fornecimento de interfaces programáveis para ajudar outros a gerar texto, imagens, som, etc., assumir a responsabilidade do produtor do conteúdo produzido pelo produto.
Dessa forma, o responsável não é um desenvolvedor de maquetes de grande escala nem um usuário, mas um provedor de serviços que conecta a maquete de larga escala com o usuário. É claro que, na maioria dos casos, desenvolvedores de AGI e provedores de API costumam ser o mesmo assunto, mas conforme a tecnologia evolui, o assunto pode ser mais diversificado. Determinar a responsabilidade dos provedores de serviços intermediários está realmente de acordo com a definição oficial chinesa de IA generativa, e a divisão de poderes e responsabilidades também força a cadeia da indústria upstream a ter conteúdo de qualidade suficiente e confiança mútua.
Direitos de conteúdo AGI: Rotulagem necessária
Um debate semelhante ao copyright é: o conteúdo AGI pode ter “direitos iguais” ao conteúdo que os humanos normalmente consomem? As “Medidas” da China claramente restringem o conteúdo AGI em dois lugares:
De acordo com o “Regulamento sobre a Administração da Síntese Aprofundada dos Serviços de Informação da Internet”, marque as imagens, vídeos e outros conteúdos gerados.
O provedor deve, de acordo com os requisitos do departamento de informações de rede e dos departamentos competentes relevantes, fornecer as informações necessárias que possam afetar a confiança e a escolha do usuário, incluindo descrições como fonte, escala, tipo e qualidade do pré-treinamento e dados de treinamento otimizados, regras de rotulagem manual, escala e tipo de dados rotulados manualmente, algoritmos básicos e sistemas técnicos, etc.
O conteúdo do AGI sempre foi polêmico, principalmente durante o teste interno do GPT, o sistema às vezes se comportava como um velho parado na entrada de uma vila brincando com um celular, e às vezes dava julgamentos de valor diretamente aos usuários, mas não havia informações convincentes para apoiá-lo. Se as “Medidas” da China forem implementadas, a AGI se despedirá completamente da produção de “palavras sem evidências” e passará a derivar os atributos das ferramentas de busca. Como no passado, levar trabalhos de IA para ganhar prêmios em competições também se tornará “história negra .”
Isso está de acordo com o espírito da lei. A geração de conteúdo de IA é uma potência absoluta. Naturalmente, tem que suportar mais ônus de prova. O conteúdo de vários módulos pode ter riscos enormes e, é claro, deve haver um mecanismo restritivo. Pelo contrário, se o conteúdo gerado pela AGI tiver os mesmos direitos que o conteúdo humano, pode ter um impacto incalculável na ecologia do conteúdo humano.
Ecologia Regulatória: Princípios Asilomar
A carta pública à OpenAI tem um pequeno detalhe, propondo que deveria haver um ecossistema de auditoria (ecossistema), não um sistema (sistema), e também mencionou os Princípios de IA de Asilomar (Asilomar AI Principles), ou seja, o impacto da IA avançada em humanos será É um nível de civilização, então os recursos consumidos pelo planejamento e gerenciamento devem ser equivalentes aos recursos consumidos pela IA. Em outras palavras, se a IA generativa é um sistema enorme, ela não pode ser supervisionada apenas por um determinado link ou assunto.
Além de enfatizar o status regulatório legal existente, as “Medidas” da China também enfatizam a supervisão completa do processo de IA generativa. Por exemplo, o corpus (dados pré-treinamento) deve ser legal e compatível, a rotulagem de dados deve ser treinada com “regras de rotulagem claras, específicas e operáveis”, os cenários de uso devem estar em conformidade com as especificações e assumir as responsabilidades correspondentes, o conteúdo em si precisa ser rotulado e o processo de uso do usuário deve ser claro Canais de feedback de relatórios, etc.
Como a AGI se tornará uma enorme base ecológica, os reguladores também precisam de uma supervisão mais diversificada. Embora o modelo grande tenha um certo atributo de caixa preta, através de todo o conjunto de socos de combinação, é suficiente empurrar para trás a capacidade legal por trás da caixa preta técnica e chegar ao ponto de “abrir a caixa”.
A fim de esclarecer as responsabilidades dos desenvolvedores, as “Medidas” da China também adicionaram um artigo:
Para conteúdos encontrados durante a operação e relatados por usuários que não atendam aos requisitos dessas medidas, além de tomar medidas como filtragem de conteúdo, treinamento de otimização do modelo deve ser realizado em até 3 meses para evitar reincidência.
Em outras palavras, se os reguladores quiserem usar a filtragem de conteúdo apenas para fugir da responsabilidade pela otimização do modelo, isso é uma violação das “Medidas” da China.A AGI precisa de uma alma legal, não apenas de uma API legal.
Domando o fogo
Muitas pessoas comparam o AGI ao “fogo”. Os seres humanos aprendem a usar o fogo e desfrutam das conquistas da civilização do fogo, mas leva mais tempo para domar o fogo. A carta aberta mencionou que um bom AGI deve atender a vários critérios: preciso, seguro, interpretável, transparente, robusto, alinhado, confiável e leal (exato, seguro, interpretável, transparente, robusto, alinhado, confiável e leal). Em outras palavras, a AGI não deve se tornar uma caixa preta como uma fornalha de alquimia metafísica como é agora, e será mais lucrativa para os seres humanos com maior certeza.
Portanto, a carta aberta propõe perspectivas de supervisão mais técnica, como estabelecer um enorme poder de computação, sistema de supervisão vertical profissional e alcançar algum tipo de convenção de código subjacente. Se essas propostas são viáveis precisa de mais discussão, mas a relativa certeza é que:
Assim como o processo humano de “treinamento de fogo” para entender o “fogo”, os seres humanos só podem entender melhor a AGI se interagirem com a AGI continuamente.
Mais histórias
Transfira tudo o que preza com um novo aparelho de TV Fire disponível na Amazon.
Visite o Walmart para comprar um par de AirPods Pro recondicionados por US$ 89.
Elon Musk apresentou o Cybertruck “destinado à fabricação”.