Bloomberg — O Google removeu uma passagem importante sobre as aplicações que não serão seguidas de seus princípios de inteligência artificial (IA) listados publicamente, que orientam o trabalho da gigante da tecnologia no setor.
Os Princípios de IA da empresa incluíam anteriormente uma passagem intitulada “aplicações que não buscaremos”, como “tecnologias que causam ou podem causar danos gerais”, incluindo armas, de acordo com capturas de tela vistas pela Bloomberg. Esse texto não está mais visível na página.
Leia também: Google revela novo super computador quântico. O desafio: buscar um caso de uso
“Acreditamos que as democracias devem liderar o desenvolvimento da IA, guiadas por valores fundamentais como liberdade, igualdade e respeito aos direitos humanos”, disse o Google em um blog na terça-feira (4). “E acreditamos que empresas, governos e organizações que compartilham esses valores devem trabalhar juntos para criar uma IA que proteja as pessoas, promova o crescimento global e apoie a segurança nacional.”
A remoção da cláusula de “dano” pode ter implicações para o tipo de trabalho que o Google realizará, disse Margaret Mitchell, ex-pesquisadora de IA da empresa.
"A remoção dessa cláusula está apagando o trabalho que tantas pessoas no espaço ético da IA e também no espaço ativista fizeram no Google e, o que é mais problemático, significa que o Google provavelmente agora trabalhará na implantação direta de tecnologia que pode matar pessoas", disse ela.
O Google não respondeu imediatamente a um pedido de comentário sobre seus planos específicos.
Veja mais em Bloomberg.com
Leia também: Ele liderou a engenharia do Google no Brasil por 19 anos. Agora volta a empreender
©2025 Bloomberg L.P.