Bloomberg — O esforço para adotar a tecnologia de inteligência artificial (IA) deve ser bem regulamentado para evitar possíveis efeitos nocivos, afirmou o CEO da Alphabet Inc e do Google, Sundar Pichai.
Questionado em entrevista ao 60 Minutes sobre o que tira o seu sono com relação à IA, Pichai disse “a urgência de trabalhar e implantá-la de forma benéfica, mas que ao mesmo tempo pode ser muito prejudicial se aplicada de maneira errada”.
O Google, com sede em Mountain View, Califórnia, está entre os líderes no desenvolvimento e implementação de IA em seus serviços. Serviços como o Google Lens e o Google Fotos dependem dos sistemas de reconhecimento de imagem da empresa, enquanto o Google Assistant se beneficia da pesquisa de processamento de linguagem natural que o Google vem desenvolvendo há anos.
Ainda assim, seu ritmo de implantação da tecnologia foi deliberadamente medido e circunspecto, enquanto o ChatGPT da OpenAI abriu uma corrida para avançar com ferramentas de IA em um ritmo muito mais veloz. “Ainda não temos todas as respostas, e a tecnologia está avançando rapidamente”, disse Pichai. “Então isso me mantém acordado à noite? Absolutamente.”
O Google agora está buscando infundir seus produtos com IA generativa - software que pode criar texto, imagens, música ou até mesmo vídeo com base nas solicitações do usuário. O ChatGPT e outro produto da OpenAI, o Dall-E, mostraram o potencial da tecnologia, e inúmeras empresas, do Vale do Silício aos líderes da Internet na China, estão se envolvendo na apresentação de suas próprias ofertas. O ex-CEO do Google, Eric Schmidt, instou as empresas globais de tecnologia a se unirem e desenvolverem padrões e proteções apropriadas, alertando que qualquer desaceleração no desenvolvimento “simplesmente beneficiaria a China”.
Apesar do senso de urgência do setor, Pichai alertou para que as empresas não sejam arrastadas pela dinâmica competitiva. E ele encontra lições na experiência da abordagem mais direta da OpenAI e na estreia do ChatGPT.
“Um dos pontos que eles enfatizaram é que você não quer lançar uma tecnologia como essa quando ela é muito, muito poderosa porque não dá tempo para a sociedade se adaptar”, disse Pichai. “Eu acho que é uma perspectiva razoável. Acho que há pessoas responsáveis tentando descobrir como abordar essa tecnologia, e nós também”.
Entre os riscos da IA generativa que Pichai destacou estão os chamados vídeos deepfake, nos quais indivíduos podem ser retratados fazendo comentários que de fato não fizeram. Essas armadilhas ilustram a necessidade de regulamentação, disse Pichai.
“Tem que haver consequências para a criação de vídeos deepfake que causam danos à sociedade”, disse ele. “Qualquer um que tenha trabalhado com IA por um tempo, sabe, percebe que isso é algo tão diferente e tão profundo que precisaríamos de regulamentos sociais para pensar em como nos adaptar.”
Veja mais na Bloomberg.com
Leia também:
Este especialista do Vale do Silício alerta para os riscos da onda de IA
Em ‘ano da eficiência’, Meta quer crescer em pagamentos na América Latina, diz VP