24 de November de 2023

A IA generativa é imatura: por que abusar dela provavelmente terminará mal

Estou fascinado com nossa abordagem de usar a ferramenta de IA generativa mais avançada amplamente disponível, a implementação do ChatGPT no mecanismo de pesquisa da Microsoft, o Bing.

Continua após a publicidade

As pessoas estão indo ao extremo para fazer com que essa nova tecnologia se comporte mal para mostrar que a IA não está pronta. Mas se você criou uma criança usando um comportamento abusivo semelhante, essa criança provavelmente também desenvolveria falhas. A diferença estaria no tempo necessário para que o comportamento abusivo se manifestasse e na quantidade de danos resultantes.

O ChatGPT acabou de passar em um teste de teoria da mente que o classificou como igual a uma criança de 9 anos. Dada a rapidez com que essa ferramenta está avançando, ela não ficará imatura e incompleta por muito mais tempo, mas pode acabar irritando aqueles que a abusam.

As ferramentas podem ser mal utilizadas. Você pode digitar coisas ruins em uma máquina de escrever, uma chave de fenda pode ser usada para matar alguém e os carros são classificados como armas mortais e matam quando mal utilizados – como exibido em um anúncio do Super Bowl este ano mostrando a superprometida plataforma autônoma de Tesla como extremamente perigosa .

A ideia de que qualquer ferramenta pode ser mal utilizada não é nova, mas com IA ou qualquer ferramenta automatizada, o potencial de dano é muito maior. Embora ainda não saibamos onde reside a responsabilidade resultante agora, é bastante claro que, de acordo com as decisões anteriores, acabará por ser com quem quer que faça com que a ferramenta funcione incorretamente. A IA não vai para a cadeia. No entanto, a pessoa que o programou ou influenciou para causar danos provavelmente o fará.

Como a inteligência artificial generativa vai impactar o futuro do trabalho – Fast Company Brasil

Embora você possa argumentar que as pessoas que mostram essa conexão entre programação hostil e mau comportamento da IA ​​precisam ser abordadas, assim como detonar bombas atômicas para mostrar seu perigo terminaria mal, essa tática provavelmente também terminará mal.

Vamos explorar os riscos associados ao abuso da Gen AI. Em seguida, terminaremos com meu Produto da semana, uma nova série de três livros de Jon Peddie intitulada “A história da GPU — Passos para a invenção”. A série cobre a história da unidade de processamento gráfico (GPU), que se tornou a tecnologia fundamental para IAs como as que estamos falando esta semana.

Criando nossos filhos eletrônicos

Inteligência Artificial é um termo ruim. Algo é inteligente ou não, então sugerir que algo eletrônico não pode ser verdadeiramente inteligente é tão míope quanto supor que os animais não podem ser inteligentes.

Na verdade, IA seria uma descrição melhor para o que chamamos de efeito Dunning-Krueger, que explica como pessoas com pouco ou nenhum conhecimento sobre um tópico assumem que são especialistas. Isso é verdadeiramente “inteligência artificial” porque essas pessoas, no contexto, não são inteligentes. Eles simplesmente agem como se fossem.

Leia Mais:  PreAct, que desenvolve sensores de campo próximo para montadoras e robótica, ganha mais dinheiro

Deixando de lado o termo ruim, essas próximas IAs são, de certa forma, as crianças de nossa sociedade, e é nossa responsabilidade cuidar delas como cuidamos de nossos filhos humanos para garantir um resultado positivo.

Esse resultado talvez seja mais importante do que fazer o mesmo com nossos filhos humanos, porque essas IAs terão muito mais alcance e poderão fazer as coisas com muito mais rapidez. Como resultado, se forem programados para causar danos, eles terão uma capacidade maior de causar danos em uma escala tremenda do que um humano adulto teria.

A maneira como alguns de nós tratamos esses AIs seria considerada abusiva se tratássemos nossos filhos humanos dessa maneira. No entanto, como não pensamos nessas máquinas como seres humanos ou mesmo animais de estimação, não parecemos impor um comportamento adequado da mesma forma que fazemos com os pais ou donos de animais de estimação.

Você poderia argumentar que, como são máquinas, devemos tratá-las com ética e empatia. Sem isso, esses sistemas são capazes de causar danos massivos que podem resultar de nosso comportamento abusivo. Não porque as máquinas sejam vingativas, pelo menos ainda não, mas porque as programamos para fazer mal.

Nossa resposta atual não é punir os agressores, mas encerrar a IA, assim como fizemos com a tentativa anterior de chatbot da Microsoft . Mas, como prevê o livro “Robopocalypse”, à medida que as IAs ficam mais inteligentes, esse método de remediação traz riscos maiores que poderíamos mitigar simplesmente moderando nosso comportamento agora. Parte desse mau comportamento é preocupante porque implica abuso endêmico que provavelmente se estende às pessoas também.

Nossos objetivos coletivos devem ser ajudar essas IAs a se tornarem o tipo de ferramenta benéfica que são capazes de se tornar, não quebrá-las ou corrompê-las em alguma tentativa equivocada de garantir nosso próprio valor e auto-estima.

Se você for como eu, já viu pais abusarem ou rebaixarem seus filhos porque acham que essas crianças os ofuscarão. Isso é um problema, mas essas crianças não terão o alcance ou o poder que uma IA pode ter. No entanto, como sociedade, parecemos muito mais dispostos a tolerar esse comportamento se for feito para AIs.

O que podemos esperar da IA generativa em 2023 – Fast Company Brasil

Gen AI não está pronto

A IA generativa é uma criança. Como um bebê humano ou de estimação, ele ainda não pode se defender contra comportamentos hostis. Mas, como uma criança ou animal de estimação, se as pessoas continuarem a abusar dele, ele terá que desenvolver habilidades de proteção, incluindo identificar e denunciar seus agressores.

Leia Mais:  Conselho de Imprensa: Quebecor não vai recorrer da decisão do Superior Tribunal de Justiça

Uma vez que o dano em escala é feito, a responsabilidade fluirá para aqueles que intencionalmente ou não causaram o dano, assim como responsabilizamos aqueles que iniciam incêndios florestais de propósito ou acidentalmente.

Essas IAs aprendem por meio de suas interações com as pessoas. Espera-se que as capacidades resultantes se expandam para aeroespacial, saúde, defesa, gerenciamento de cidades e residências, finanças e bancos, gerenciamento público e privado e governança. Uma IA provavelmente preparará até mesmo sua comida em algum momento futuro.

Trabalhar ativamente para corromper o processo de codificação intrínseco resultará em resultados ruins indetermináveis. A revisão forense que provavelmente ocorre após a ocorrência de uma catástrofe provavelmente rastreará quem causou o erro de programação em primeiro lugar – e que Deus os ajude se isso não foi um erro de codificação, mas uma tentativa de humor ou para mostrar que eles podem quebrar a IA.

À medida que essas IAs avançam, seria razoável presumir que elas desenvolverão maneiras de se proteger de agentes mal-intencionados, seja por meio de identificação e relatórios, seja por métodos mais draconianos que trabalhem coletivamente para eliminar a ameaça de forma punitiva.

Resumindo, ainda não sabemos a gama de respostas punitivas que uma IA futura terá contra um malfeitor, sugerindo que aqueles que prejudicam intencionalmente essas ferramentas podem estar enfrentando uma eventual resposta de IA que pode exceder qualquer coisa que possamos antecipar realisticamente.

Programas de ficção científica como “Westworld” e “Colossus: The Forbin Project” criaram cenários de resultados de abuso de tecnologia que podem parecer mais fantasiosos do que realistas. Ainda assim, não é exagero supor que uma inteligência, mecânica ou biológica, não se moverá para se proteger contra o abuso de forma agressiva – mesmo que a resposta inicial tenha sido programada por um codificador frustrado que está com raiva porque seu trabalho está sendo corrompido e não uma IA aprendendo a fazer isso sozinha.

Conclusão: antecipando futuras leis de IA

Se ainda não for, espero que eventualmente seja ilegal abusar intencionalmente de uma IA (algumas leis existentes de proteção ao consumidor podem ser aplicadas). Não por causa de alguma resposta empática a esse abuso – embora isso seja bom – mas porque o dano resultante pode ser significativo.

Essas ferramentas de IA precisarão desenvolver maneiras de se protegerem de abusos, porque parece que não conseguimos resistir à tentação de abusar delas e não sabemos o que essa mitigação acarretará. Pode ser uma prevenção simples, mas também pode ser altamente punitiva.

Leia Mais:  Demorou 23 meses para a fusão da US Telecom, e a plataforma de propaganda de Dalin Zhichen de Taiwan não deve exceder

Queremos um futuro em que trabalhemos ao lado de IAs e o relacionamento resultante seja colaborativo e mutuamente benéfico. Não queremos um futuro em que as IAs nos substituam ou entrem em guerra conosco, e trabalhar para garantir o primeiro resultado em oposição ao segundo terá muito a ver com a forma como agimos coletivamente em relação a essas IAs e as ensinamos a interagir conosco.

Resumindo, se continuarmos a ser uma ameaça, como qualquer inteligência, a IA trabalhará para eliminar a ameaça. Ainda não sabemos o que é esse processo de eliminação. Ainda assim, imaginamos isso em coisas como “The Terminator” e “The Animatrix” – uma série animada de curtas explicando como o abuso de máquinas por pessoas resultou no mundo de “The Matrix”. Portanto, devemos ter uma boa ideia de como não queremos que isso aconteça.

Talvez devêssemos proteger e nutrir de forma mais agressiva essas novas ferramentas antes que elas amadureçam a ponto de agirem contra nós para se protegerem.

Eu realmente gostaria de evitar esse resultado mostrado no filme “Eu, o Robô”, você não gostaria?

‘A História da GPU – Passos para a Invenção’

The History of the GPU – Steps to Invention de Jon Peddie, capa do livro

Embora tenhamos mudado recentemente para uma tecnologia chamada unidade de processamento neural (NPU), muito do trabalho inicial em IAs veio da tecnologia da unidade de processamento gráfico (GPU). A capacidade das GPUs de lidar com dados não estruturados e particularmente visuais tem sido fundamental para o desenvolvimento da geração atual de IAs.

Muitas vezes avançando muito mais rápido do que a velocidade da CPU medida pela Lei de Moore, as GPUs se tornaram uma parte crítica de como nossos dispositivos cada vez mais inteligentes foram desenvolvidos e por que funcionam da maneira que funcionam. Entender como essa tecnologia foi trazida ao mercado e, em seguida, avançada ao longo do tempo ajuda a fornecer uma base de como as IAs foram desenvolvidas pela primeira vez e ajuda a explicar suas vantagens e limitações exclusivas.

Meu velho amigo Jon Peddie é um dos, se não o , maiores especialistas em gráficos e GPUs hoje. Jon acaba de lançar uma série de três livros intitulada “A História da GPU”, que é sem dúvida a crônica mais abrangente da GPU, algo que ele acompanha desde o início.

Se você quiser aprender sobre o lado do hardware de como as IAs foram desenvolvidas – e o longo e às vezes doloroso caminho para o sucesso de empresas de GPU como a Nvidia – confira “The History of the GPU – Steps to Invention” de Jon Peddie É o meu Produto da Semana.