Opinión - Bloomberg

Poder da China para mudar opiniões com uso de IA abre debate em segurança global

Recente pesquisa financiada pelo Departamento de Estado dos EUA e divulgada por um think tank australiano revelou preocupação com desenvolvimento da IA generativa na China

Un robot de inteligencia artificial juega una partida de go con un asistente al stand de SenseTime Group Inc. en la Smart China Expo de Chongqing, China, el lunes 4 de septiembre de 2023. La exposición se prolongará hasta el 6 de septiembre. Fotógrafo: Qilai Shen/Bloomberg
Tempo de leitura: 4 minutos

Bloomberg Opinion — Você acredita que o envolvimento com uma tecnologia emergente pode mudar suas convicções mais sólidas? Ou influenciá-lo a tomar uma decisão que, de outra forma, não teria tomado? A maioria de nós, humanos, acredita que somos inteligentes demais para isso, mas evidências crescentes sugerem o contrário.

Quando se trata de uma nova safra de tecnologia de inteligência artificial generativa, o poder de “persuasão” foi identificado como um risco potencialmente catastrófico, juntamente com o medo de que os modelos possam ganhar autonomia ou ajudar a construir uma arma nuclear.

Separadamente, os projetos de menor risco destinados a influenciar comportamentos já são onipresentes nos produtos que muitos de nós usamos todos os dias, como ao nos incentivar a rolar sem parar nas plataformas sociais ou a abrir o Snapchat ou o Duolingo para não perder uma sequência de lições.

Mas os recentes avanços nessa tecnologia nascente da China levantaram novas preocupações de segurança nacional em outros países. Uma nova pesquisa financiada pelo Departamento de Estado dos Estados Unidos e divulgada por um think tank australiano constatou que as empresas de tecnologia chinesas estão prestes a criar e implantar tecnologias com “recursos de persuasão sem precedentes”.

PUBLICIDADE

Leia mais: China passa a investigar a Nvidia em novo capítulo de disputa tech com EUA

Do ponto de vista da segurança, Pequim ou outros atores poderiam abusar disso para influenciar opiniões políticas ou semear agitação e divisão social. Em outras palavras, uma arma para subjugar os inimigos sem qualquer luta, a tática de guerra anunciada pelo filósofo chinês General Sun Tzu.

O relatório do Australian Strategic Policy Institute publicado na semana passada identificou o setor comercial da China como “já um líder global” no desenvolvimento e na adoção de produtos projetados para mudar atitudes ou comportamentos por meio da exploração de vulnerabilidades fisiológicas ou cognitivas.

PUBLICIDADE

Para conseguir isso, essas ferramentas dependem muito da análise dos dados pessoais que coletam e, em seguida, adaptam as interações com os usuários. O documento identificou algumas empresas chinesas que, segundo ele, já usam essa tecnologia – abrangendo IA generativa, realidade virtual e o setor de neurotecnologia mais emergente – para apoiar a propaganda e os objetivos militares de Pequim.

Mas essa também é uma questão global. O setor privado da China pode estar à frente para desenvolver métodos de persuasão, mas ainda segue os manuais desenvolvidos pelas grandes empresas de tecnologia dos EUA para entender melhor seus usuários e mantê-los engajados.

Para lidar com o risco de Pequim, será necessário desvendar adequadamente como deixar os produtos tecnológicos influenciarem nossas vidas. Mas os novos riscos à segurança dos países, combinados com a forma como a IA e outras inovações podem aumentar rapidamente a eficácia dessas ferramentas, devem ser um alerta em um momento em que a persuasão já está tão arraigada no design dos produtos do Vale do Silício.

Parte do que torna a abordagem dessa questão tão difícil é o fato de que ela pode ser uma faca de dois gumes. Um estudo da Science publicado no início deste ano constatou que conversar com modelos de IA poderia convencer os teóricos da conspiração a reduzir suas crenças, mesmo entre aqueles que diziam que elas eram importantes para sua identidade.

PUBLICIDADE

Isso destacou os “poderes de persuasão” positivos dos modelos de linguagem de grande porte e sua capacidade de se envolver em um diálogo personalizado, de acordo com os pesquisadores.

Como evitar que esses poderes sejam utilizados por Pequim, ou por outros agentes mal-intencionados, em campanhas nefastas será um desafio cada vez maior para os formuladores de políticas, que vai além de cortar o acesso a semicondutores avançados.

Exigir muito mais transparência seria uma forma de começar, por exemplo, obrigando que as empresas de tecnologia forneçam divulgações claras quando o conteúdo for adaptado de uma forma que possa influenciar comportamentos. Expandir as leis de proteção de dados ou oferecer aos usuários maneiras mais claras de optar por não ter suas informações coletadas também limitaria a capacidade dessas ferramentas de direcionar os usuários individualmente.

PUBLICIDADE

Leia mais: ChatGPT ainda não é uma ferramenta essencial o suficiente para incluir anúncios

Priorizar a alfabetização digital e a educação também é fundamental para aumentar a conscientização sobre tecnologias persuasivas, como funcionam os algoritmos e o conteúdo personalizado, como reconhecer táticas e evitar ser potencialmente manipulado por esses sistemas.

Em última análise, são necessárias muito mais pesquisas sobre como proteger as pessoas dos riscos da tecnologia persuasiva, e seria sensato que as empresas por trás dessas ferramentas liderassem o processo, como empresas como a OpenAI e a Anthropic começaram a fazer com a IA.

Os formuladores de políticas também devem exigir que as empresas compartilhem as descobertas com os órgãos reguladores e as partes interessadas relevantes para criar um entendimento global de como essas técnicas podem ser exploradas pelos adversários. Essas informações poderiam, então, ser usadas para definir padrões claros ou regulamentações específicas.

O risco de uma tecnologia tão sofisticada que permita que Pequim mexa os pauzinhos para mudar o que você acredita ou quem você é ainda pode parecer uma preocupação distante, de ficção científica.

Mas os riscos são altos demais para que os formuladores de políticas globais respondam somente depois que isso for desencadeado. Agora é a hora de fazer um acerto de contas global sobre a quantidade de informações pessoais e a influência que damos às empresas de tecnologia sobre nossas vidas.

Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.

Catherine Thorbecke é colunista da Bloomberg Opinion e cobre tecnologia na Ásia. Já foi repórter de tecnologia na CNN e na ABC News.

Veja mais em Bloomberg.com

Leia também

De Brasília a Rosário: mercados secundários impulsionam o setor aéreo em LatAm

Como a Oracle tem atraído startups em LatAm como clientes na nova era de IA

Mercado Pago avança em território do Nubank em batalha de gigantes em LatAm