Bloomberg Opinion — No início de setembro, a OpenAI lançou seus modelos mais avançados de inteligência artificial (IA) até o momento e afirmou que eles tinham a capacidade de “raciocinar” e resolver problemas complexos de matemática e codificação. A startup líder do setor, avaliada em cerca de US$ 150 bilhões, também reconheceu que eles aumentavam o risco de a IA ser usada indevidamente para criar armas biológicas.
Seria de se esperar que o potencial de um resultado tão consequente fizesse soar o alarme de que uma supervisão mais rigorosa da IA é fundamental. Mas, apesar de quase dois anos de avisos existenciais de líderes do setor, acadêmicos e outros especialistas sobre o potencial da tecnologia para causar catástrofes, os Estados Unidos não promulgaram nenhuma regulamentação federal.
Diversos atores dentro e fora do setor de tecnologia descartam esses avisos apocalípticos como distrações dos danos de curto prazo da IA, como a possível violação de direitos autorais, a proliferação de deepfakes e desinformação ou o deslocamento de empregos. Mas os legisladores também fizeram pouco para lidar com esses riscos atuais.
Um dos principais argumentos apresentados contra a regulamentação é que ela impedirá a inovação e poderá fazer com que os EUA percam a corrida da IA para a China. No entanto a China tem avançado rapidamente, apesar da supervisão rígida e dos esforços dos EUA para impedir que o país tenha acesso a componentes e equipamentos essenciais.
Os controles de exportação prejudicaram o progresso da China, mas uma área que ela lidera, à frente dos EUA, é a da definição de padrões para a criação e o uso da tecnologia.
Leia mais: JPMorgan vai treinar novos funcionários para usar inteligência artificial
O regime autocrático da China facilita muito a imposição de regras rígidas, por mais sufocantes que elas possam parecer para seu setor de tecnologia. E o governo obviamente tem diferentes motivos, incluindo a manutenção da estabilidade social e do poder do partido.
Mas Pequim também prioriza a IA e, portanto, trabalha com o setor privado para impulsionar a inovação e, ao mesmo tempo, manter a supervisão.
Apesar das diferenças políticas, há algumas lições que os EUA podem aprender. Para começar, a China está lidando com as preocupações de curto prazo por meio de uma combinação de novas leis e precedentes judiciais.
Os órgãos reguladores lançaram leis sobre deepfakes em 2022, protegendo as vítimas cuja imagem foi usada sem consentimento e exigindo avisos em conteúdo alterado digitalmente.
Os tribunais chineses também estabeleceram padrões sobre como as ferramentas de IA podem ser usadas, emitindo decisões que protegem os artistas contra a violação de direitos autorais e os dubladores contra a exploração.
Regras provisórias mais amplas sobre IA generativa exigem que os desenvolvedores compartilhem detalhes com o governo sobre como os algoritmos são treinados e passem por testes de segurança rigorosos – parte dessas avaliações é para garantir que os resultados estejam alinhados com os valores socialistas.
Mas os órgãos reguladores também demonstraram equilíbrio e reverteram alguns dos requisitos mais assustadores após o feedback do setor. As revisões enviam um sinal de que eles estão dispostos a colaborar com o setor de tecnologia e, ao mesmo tempo, manter a supervisão.
Isso contrasta fortemente com os esforços nos EUA. As ações judiciais sobre os atuais danos causados pela IA chegam lentamente aos tribunais, mas a ausência de ação federal tem sido marcante. A falta de diretrizes também gera incerteza para os líderes empresariais.
Os órgãos reguladores dos Estados Unidos poderiam seguir o exemplo da China e direcionar leis específicas para os riscos conhecidos e, ao mesmo tempo, trabalhar mais de perto com o setor para estabelecer barreiras de proteção para os perigos existenciais distantes.
Na ausência de regulamentação federal, alguns estados resolvem o problema com suas próprias mãos. No mês passado, os legisladores californianos aprovaram um projeto de lei de segurança de IA que responsabilizaria as empresas se suas ferramentas fossem usadas para causar “danos graves”, como o lançamento de uma arma biológica.
Muitas empresas de tecnologia, incluindo a OpenAI, se opuseram ferozmente ao projeto de lei, argumentando que tal legislação deveria ser deixada para o Congresso americano.
Uma carta aberta de empresários e pesquisadores de IA também afirmou que o projeto de lei seria “catastrófico” para a inovação e permitiria que “lugares como a China assumissem a liderança no desenvolvimento dessa poderosa ferramenta”.
Leia mais: A IA foi concebida para ajudar a humanidade – até que as big techs a dominaram
Seria prudente que os formuladores de políticas se lembrassem de que as vozes altas do setor de tecnologia usaram essa linha de argumentação para evitar a regulamentação muito antes do frenesi da IA. E o fato de os EUA não conseguirem sequer chegar a um acordo sobre leis para evitar os piores cenários de IA – e muito menos abordar os danos mais imediatos – é preocupante.
Em última análise, usar a China como desculpa para evitar uma supervisão significativa não é um argumento válido. Abordar a segurança da IA como um jogo de soma zero entre os EUA e a China não deixa vencedores.
A suspeita mútua e as crescentes tensões geopolíticas significam que provavelmente não veremos os dois países trabalhando juntos para mitigar os riscos tão cedo. Mas não precisa ser assim.
Alguns dos maiores defensores da regulamentação são os pioneiros que ajudaram a criar a tecnologia. Alguns dos chamados “padrinhos” da IA, incluindo os vencedores do Prêmio Turing, Yoshua Bengio, Geoffrey Hinton e Andrew Yao, sentaram-se no início deste mês na Itália e pediram uma cooperação global entre jurisdições.
Eles reconheceram o clima geopolítico competitivo, mas também imploraram que a perda de controle ou o uso malicioso da IA poderia “levar a resultados catastróficos para toda a humanidade”. Eles ofereceram uma estrutura para um sistema global de governança.
Muitos argumentam que eles podem estar errados, mas os riscos parecem altos demais para serem totalmente descartados. Os formuladores de políticas, de Washington a Pequim, deveriam aprender com esses cientistas, que pelo menos mostraram que é possível encontrar um ponto em comum.
Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.
Catherine Thorbecke é colunista da Bloomberg Opinion e cobre tecnologia na Ásia. Já foi repórter de tecnologia na CNN e na ABC News.
Veja mais em Bloomberg.com
Leia também
Como robôs pulverizadores podem transformar um setor de US$ 37 bi no agro
Conheça as 500 pessoas mais influentes da América Latina e do Caribe de 2024
Como a Stellantis foi prejudicada por veículos caros e parceiros descontentes
© 2024 Bloomberg L.P.