A CTO da OpenAI, Mira Murati, alimentou a controvérsia sobre a supervisão governamental da inteligência artificial no domingo, quando admitiu em entrevista à revista Time que a tecnologia precisava ser regulamentada.
“É importante para a OpenAI e empresas como a nossa trazer isso à consciência pública de uma forma controlada e responsável”, disse Murati à Time. “Mas somos um pequeno grupo de pessoas e precisamos de muito mais informações neste sistema e muito mais informações que vão além das tecnologias – definitivamente reguladores, governos e todos os outros.”
Questionada se o envolvimento do governo nesta fase do desenvolvimento da IA pode prejudicar a inovação, ela respondeu: “Não é muito cedo. É muito importante que todos comecem a se envolver, dado o impacto que essas tecnologias vão ter.”
Como o mercado oferece incentivos para o abuso, provavelmente é necessária alguma regulamentação, concorda Greg Sterling, cofundador da Near Media , um site de notícias, comentários e análises.
Relacionado: ‘Pai da Internet’ adverte que investir dinheiro em IA legal pode não ser legal
“Desincentivos cuidadosamente construídos contra o comportamento antiético podem minimizar o potencial abuso da IA”, disse Sterling ao TechNewsWorld, “mas a regulamentação também pode ser mal construída e não conseguir impedir nada disso”.
Ele reconheceu que uma regulamentação muito precoce ou muito pesada pode prejudicar a inovação e limitar os benefícios da IA.
“Os governos devem reunir especialistas em IA e líderes do setor para estabelecer em conjunto uma estrutura para uma possível regulamentação futura. Provavelmente também deve ter um escopo internacional”, disse Sterling.
Considere as leis existentes
A inteligência artificial, como muitas tecnologias e ferramentas, pode ser usada para uma ampla variedade de propósitos, explicou Jennifer Huddleston, pesquisadora de políticas tecnológicas do Cato Institute , um think tank de Washington, DC.
Muitos desses usos são positivos e os consumidores já estão encontrando usos benéficos da IA, como tradução em tempo real e melhor navegação no tráfego, continuou ela. “Antes de pedir novos regulamentos, os formuladores de políticas devem considerar como as leis existentes sobre questões, como a discriminação, já podem abordar as preocupações”, disse Huddleston ao TechNewsWorld.
A inteligência artificial deve ser regulamentada, mas como ela já está regulamentada também precisa ser considerada, acrescentou Mason Kortz , instrutor clínico da Cyberlaw Clinic na Harvard University Law School em Cambridge, Massachusetts.
“Temos muitos regulamentos gerais que tornam as coisas legais ou ilegais, independentemente de serem feitas por um humano ou por uma IA”, disse Kortz ao TechNewsWorld.
“Precisamos olhar para as maneiras pelas quais as leis existentes já são suficientes para regular a IA e quais são as maneiras pelas quais elas não o fazem e precisam fazer algo novo e ser criativo”, disse ele.
Por exemplo, ele observou que não há um regulamento geral sobre responsabilidade de veículos autônomos. No entanto, se um veículo autônomo causar um acidente, ainda há muitas áreas da lei às quais recorrer, como a lei de negligência e a lei de responsabilidade do produto. Essas são formas potenciais de regular o uso da IA, explicou.
Toque leve necessário
Kortz admitiu, no entanto, que muitas regras existentes entram em jogo após o fato. “Então, de certa forma, eles são o segundo melhor”, disse ele. “Mas eles são uma medida importante a ser implementada enquanto desenvolvemos regulamentos.”
“Devemos tentar ser proativos na regulamentação sempre que pudermos”, acrescentou. “O recurso através do sistema legal ocorre após a ocorrência de um dano. Seria melhor se o dano nunca ocorresse.”
No entanto, Mark N. Vena, presidente e principal analista da SmartTech Research em San Jose, Califórnia, argumenta que uma regulamentação pesada poderia reprimir a crescente indústria de IA.
“Neste estágio inicial, não sou um grande fã da regulamentação governamental da IA.”, disse Vena ao TechNewsWorld. “A IA pode trazer muitos benefícios e a intervenção do governo pode acabar sufocando-os”.
Esse tipo de efeito sufocante na internet foi evitado na década de 1990, ele sustentou, por meio de regulamentação “leve” como a Seção 230 da Lei de Decência nas Comunicações, que dava às plataformas online imunidade de responsabilidade por conteúdo de terceiros que aparecesse em seus sites.
Kortz acredita, porém, que o governo pode colocar freios razoáveis em algo sem fechar uma indústria.
“As pessoas criticam o FDA, que é propenso a captura regulatória, que é administrado por empresas farmacêuticas, mas ainda estamos em um mundo melhor do que antes do FDA, quando qualquer um podia vender qualquer coisa e colocar qualquer coisa em um rótulo”, disse ele. .
“Existe uma boa solução que capture apenas os aspectos bons da IA e interrompa todos os ruins? Provavelmente não”, continuou Vena, “mas alguma estrutura é melhor do que nenhuma estrutura”.
“Deixar uma IA boa e uma IA ruim brigarem não vai ser bom para ninguém”, acrescentou. “Não podemos garantir que as boas IAs vão vencer essa luta, e o dano colateral pode ser bastante significativo.”
Regulação sem estrangulamento
Existem algumas coisas que os formuladores de políticas podem fazer para regular a IA sem prejudicar a inovação, observou Daniel Castro, vice-presidente da Information Technology & Innovation Foundation , uma organização de pesquisa e políticas públicas, em Washington, DC
“Uma delas é focar em casos de uso específicos”, disse Castro ao TechNewsWorld. “Por exemplo, regulamentar carros autônomos deve ser diferente de regulamentar a IA usada para gerar música”.
“Outra é focar nos comportamentos”, continuou ele. “Por exemplo, é ilegal discriminar ao contratar funcionários ou alugar apartamentos – se um humano ou um sistema de IA toma a decisão deve ser irrelevante.”
“Mas os formuladores de políticas devem ter cuidado para não manter a IA em um padrão diferente injustamente ou para implementar regulamentos que não fazem sentido para a IA”, acrescentou. “Por exemplo, alguns dos requisitos de segurança dos veículos atuais, como volantes e espelhos retrovisores, não fazem sentido para veículos autônomos sem passageiros ou motoristas.”
Vena gostaria de ver uma abordagem “transparente” da regulamentação.
“Prefiro que a regulamentação exija que os desenvolvedores de IA e os produtores de conteúdo sejam totalmente transparentes em relação aos algoritmos que estão utilizando”, disse ele. “Eles podem ser revisados por uma entidade terceirizada composta por acadêmicos e algumas entidades empresariais.”
“Ser transparente em relação aos algoritmos e às fontes de conteúdo das quais as ferramentas de IA são derivadas deve encorajar o equilíbrio e mitigar os abusos”, afirmou.
Planeje para os piores cenários
Kortz observou que muitas pessoas acreditam que a tecnologia é neutra.
“Não acho que a tecnologia seja neutra”, disse ele. “Temos que pensar nos maus atores. Mas também temos que pensar nas más decisões das pessoas que criam essas coisas e as divulgam no mundo”.
“Eu encorajaria qualquer pessoa desenvolvendo IA para um caso de uso específico a pensar não apenas sobre qual é o uso pretendido, mas também qual é o pior uso possível para sua tecnologia”, concluiu.
Mais histórias
Transfira tudo o que preza com um novo aparelho de TV Fire disponível na Amazon.
Visite o Walmart para comprar um par de AirPods Pro recondicionados por US$ 89.
Elon Musk apresentou o Cybertruck “destinado à fabricação”.