Visão de ameaça da IA desvia o debate, diz autora de sociologia homem-máquina

Milena Tsvetkova, da London School of Economics, liderou estudo sobre o comportamento de robôs nas relações com os humanos e diz à Bloomberg Línea por que discorda de alertas de cenário apocalíptico

Por

Bloomberg Línea — O Senado aprovou na semana que passou o projeto que regulamenta a inteligência artificial (IA) no Brasil. O texto é um dos primeiros do mundo a abordar o tema de forma abrangente e se apresenta como um marco regulatório com regras para o desenvolvimento e o uso de sistemas de IA.

O projeto foi escrito após 14 audiências públicas com a participação da sociedade civil, de diversos setores e de especialistas em tecnologia e inovação. Ela prevê a proteção dos direitos dos criadores de conteúdo e obras artísticas e avalia a graduação de risco do uso da IA em diferentes áreas.

O desenvolvimento e a disseminação da IA tem sido discutido como algo transformador em todo o mundo. O tema levou um grupo de cientistas e empresários do Vale do Silício a publicar, em março do ano passado, uma carta pública que soou como um alarme e pediu a interrupção do avanço dessas tecnologias até que houvesse um entendimento maior sobre seu impacto e a aplicação de normas.

Passados dois anos do advento do ChatGPT e um ano e meio dessa carta, a pesquisadora Milena Tsvetkova faz uma avaliação mais otimista e menos apocalíptica sobre algoritmos de IA. “Essas máquinas não são tão inteligentes assim”, disse em entrevista à Bloomberg Línea. Mas, ainda que tenha uma perspectiva mais otimista, ela disse que a IA tem impactos importantes para a política e a economia.

Leia mais: Poder da China para mudar opiniões com uso de IA abre debate em segurança global

Mais do que isso, as novas tecnologias criam um impasse para pesquisadores preocupados em entender o funcionamento das sociedades. Além de estudar as relações de humanos com outros humanos, tem se tornado importante considerar também como as máquinas interagem com humanos, como elas se comportam e como influenciam a vida social em diferentes contextos.

“Essa visão de ameaça a longo prazo é um problema, pois não estamos abordando os problemas reais e atuais que alguns desses sistemas já causam, como o viés em decisões importantes para, por exemplo, pedidos de seguro, promoções em escolas, contratações e premiações. São vários casos”, disse.

Doutora (PhD) em sociologia pela Cornell University e professora de Ciência Social Computacional do Departamento de Metodologia da London School of Economics (LSE), Tsvetkova liderou um grupo de acadêmicos da Europa e dos Estados Unidos em uma pesquisa que propõe uma “nova sociologia”.

Para eles, é importante adotar uma abordagem que leve em conta não apenas o comportamento humano mas também o das máquinas e as interações complexas que ocorrem entre elas.

Esse estudo foi publicado recentemente com o título “A new sociology of humans and machines” - “Uma nova sociologia de humanos e máquinas”. O artigo analisa como algoritmos, robôs e outras máquinas autônomas estão se tornando cada vez mais presentes em nossas vidas, com a criação de sistemas sociais complexos que envolvem interações entre humanos e máquinas.

O artigo oferece exemplos concretos, como mercados financeiros, redes sociais, comunidades de colaboração aberta e fóruns de discussão, para ilustrar os impactos das máquinas nesses diferentes contextos sociais.

Leia mais: Fim do emprego com IA? Para Daron Acemoglu, 5% estão realmente sob ameaça

A análise aborda os benefícios e as desvantagens das máquinas em relação ao comportamento humano e destaca os desafios e as oportunidades relacionados à crescente interdependência entre humanos e máquinas autônomas.

Na entrevista a seguir, Tsvetkova explica o que é essa nova sociologia, sobre os impactos da IA para a sociedade e defende que não há motivo para alarmismo, mas argumenta por que é importante acompanhar o desenvolvimento dessas tecnologias.

Como você definiria os sistemas sociais entre humanos e máquinas e essa nova sociologia? Quais são os elementos que diferenciam essa abordagem das perspectivas anteriores?

O novo elemento é que queremos observar o comportamento das máquinas, de robôs, bots, algoritmos, qualquer tipo de script, como atores sociais. Precisamos considerá-los no mesmo nível dos humanos. Como um tipo alternativo aos humanos.

Até hoje, muita pesquisa acadêmica, especialmente na interação humano-computador, no campo da psicologia e ciência da computação, se concentrou em como os humanos interagem com computadores. Como estamos na área da sociologia, queremos focar no nível societal, considerando as máquinas como uma parte da sociedade como um todo.

Queremos introduzir as máquinas no estudo do social, mas também queremos mudar o foco não apenas para entender a inteligência artificial, as propriedades emergentes, cognitivas, ou particularmente a interação humano-computador, mas sim para um foco no nível societal e nas interações nesse nível.

Leia mais: A OpenAI quer se tornar uma empresa com fins lucrativos. Não vai ser tão simples

Esse tipo de discussão costuma ficar preso à filosofia ou à ficção científica. Quais são as conclusões iniciais sobre como esses sistemas estão se desenvolvendo?

Sim, essa discussão sempre esteve muito presente na literatura e na ficção, mas mais recentemente chegou também a políticas públicas. Tem havido muita discussão sobre o surgimento de uma “superinteligência” que tomaria conta da humanidade, eliminando-a, e assim por diante.

Aqui, o que estamos dizendo é que essas máquinas têm se infiltrado devagar em nosso mundo social, mas elas ainda não são tão inteligentes assim. O mesmo vale para o ChatGPT e para qualquer tipo de algoritmos de IA generativa. Ainda estamos longe de uma “superinteligência”. É algo bem distante, e não há necessidade de se preocupar com isso. Os scripts e máquinas estão em todo lugar, mas não são inteligentes.

Ao mesmo tempo, na verdade, temos que nos preocupar, porque mesmo quando não são muito inteligentes, a complexidade das interações sociais pode ter consequências não intencionais e causar problemas.

Leia mais: Inteligência artificial tomará decisões melhores que CEOs, diz Nobel de Economia

Isso é muito evidente na área de finanças e economia, campo em que houve o maior impacto dos algoritmos, com um impacto muito sério, palpável e mensurável. Em termos de crises financeiras, crashes rápidos e assim por diante.

E, claro, o outro domínio é a desinformação política. As redes sociais e muitos bots que espalharam desinformação, e mesmo sem serem muito inteligentes, muitas vezes imitam o comportamento humano.

Mesmo quando as pessoas conseguem perceber que é mentira, seus efeitos podem se espalhar nas redes e ter impactos muito sérios, tanto em ações coletivas quanto em eleições, por exemplo, e opinião pública.

Esse foi um tema importante na discussão sobre a eleição de Donald Trump nos EUA. Como você vê essa influência das máquinas na política?

Houve muita discussão sobre a desinformação política na eleição anterior e também em torno do Brexit, mas isso parece estar encolhendo no discurso público. E acho que há várias razões para isso.

Uma delas é que os dados do Twitter/X não estão mais disponíveis para análise, graças a decisões de Elon Musk, e assim, cientistas e jornalistas não têm mais acesso para entender o impacto dos bots. Por outro lado, os bots estão se tornando cada vez mais sofisticados e fica mais difícil determinar o que é um bot e o que não é, por causa da IA generativa.

Além disso, outro ponto importante é que as pessoas estão se tornando mais céticas em relação a qualquer conteúdo online que veem.

Talvez seja um pouco otimista aqui, mas acredito que estejamos caminhando para uma abordagem mais crítica a qualquer coisa que se veja na internet, porque as imagens agora são geradas e evidências fotográficas já não são tão confiáveis, e somos menos propensos a acreditar em qualquer tipo de opinião.

Leia mais: OpenAI desenvolve modelo de inteligência artificial que é capaz de raciocinar

Tem sido interessante observar que houve muito menos discussão sobre a influência de bots nas eleições do que no passado e, novamente, não tenho certeza se isso se deve apenas à falta de evidências, pela falta de acesso aos dados, ou se, de fato, as pessoas mudaram sua atitude em relação à desinformação online ou, talvez, normalizaram isso a esta altura.

Sua pesquisa se debruça bastante sobre a importância da interação entre homens e máquinas no mercado financeiro. Quais os impactos dessa relação para a economia?

Desde meados da década de 1990 já existem algoritmos em uso no mercado financeiro e, de uns tempos para cá, o mercado inteiro passou a ser ditado por eles. E isso cria uma situação especialmente interessante porque é possível ver algoritmos competindo, cada um tentando superar os outros por mais que, ao mesmo tempo, eles acabem se comportando de maneira muito semelhante. Essa é uma das causas de crashes financeiros. Como muitos deles reagem de maneira similar às mesmas notícias ou comportamentos, o mercado acaba oscilando muito.

Nosso artigo foca particularmente nessas consequências não intencionais, dos bots na economia. Essa ideia de que podemos projetar essas máquinas para se comportarem de determinadas maneiras, mas, quando as colocamos em um sistema social, tanto com humanos quanto entre outras máquinas, pode haver consequências não intencionais.

A discussão sobre os impactos das máquinas na economia também passa, necessariamente, pela preocupação da sociedade em relação a robôs que “roubam empregos” dos humanos. Como vê isso a partir da sua análise sobre as interações entre humanos e máquinas?

Sim, e é por isso que realmente gosto do termo “máquinas” nessa discussão, porque, basicamente, os problemas que discutimos agora já existiam antes. Quando surgiram as primeiras máquinas, autômatos mecânicos, a mesma coisa aconteceu. Tivemos que fazer a transição de um sistema agrícola para o sistema industrial, e, claro, com a tecnologia da informação, houve uma transição do sistema industrial para a economia de serviços.

Portanto, de certo modo, é importante não esquecer que, embora haja um salto qualitativo com as atuais tecnologias de IA, elas escalam capacidades de informação e tecnologia que vêm se desenvolvendo há 50 anos. E essa não é a primeira revolução econômica que enfrentaremos. Claro, haverá muita disrupção, teremos que nos adaptar, haverá perdedores e ganhadores, mas, se nos organizarmos e trabalharmos nisso, sobreviveremos da mesma forma que fizemos no passado.

Quais são as consequências dessa discussão, e de entender o papel social das máquinas, para a questão ética, especialmente quando falamos em redes sociais e sua influência sobre a economia e a política?

É verdade que elas desempenharam um papel importante, mas acho que as redes sociais estão em declínio atualmente. Parece que atingiram o auge com o Facebook e o Twitter, e ambos estão perdendo usuários, especialmente usuários engajados e ativos. Parece haver mais uma distribuição de interesses agora. Acho que parte disso é impulsionado pela busca por substitutos.

Minha impressão é que, por exemplo, após o Twitter se tornar X, muita gente migrou para o Mastodon. Atualmente, existe outra rede chamada Blue Sky, e percebi, por exemplo, muitos acadêmicos mostrando interesse no LinkedIn. Então, houve uma dispersão de interesses.

Leia também: Na era da inteligência artificial, é preciso valorizar o trabalho humano

Atualmente, a influência das redes sociais tem diminuído, e acho que essa é uma das razões pelas quais há menos discussão política sobre sua influência nas eleições agora, em comparação com o passado. Não sei como Elon Musk se sente sobre isso, mas parece que está se tornando menos relevante. Houve muitos desenvolvimentos em outras áreas, e não tenho certeza se essas redes vão desempenhar um papel significativo no futuro.

Ainda assim, sua pesquisa analisa como essas máquinas, e não só as redes sociais, podem influenciar a tomada de decisão coletiva. Como vê essa influência acontecendo?

Muito do que tentamos focar no estudo é sobre o uso intencional de IA e bots na tomada de decisão. Existem muitos exemplos em diagnósticos médicos, por exemplo, e na pesquisa científica, em que algoritmos de “machine learning”, algoritmos de previsão e IA generativa são usados na tomada de decisão, se misturando ao processo decisório.

Na academia, há muito uso da IA generativa para análise de texto, algo em que costumávamos ter um assistente de pesquisa humano para fazer. Agora misturamos e combinamos a expertise humana com a IA.

Espero que o uso de IA na tomada de decisão se torne mais intencional, controlado, medido e avaliado, e não apenas a influência sutil e oculta que vemos nas redes sociais.

Mais cedo comentamos que a interação entre humanos e máquinas costuma ser foco da ficção científica, muitas vezes em tons distópicos. Sua análise parece ser muito otimista sobre o futuro dessas relações.

Estamos tentando ser mais pragmáticos. De certa forma, essas coisas acontecem agora, mas não são tão ameaçadoras ou assustadoras quanto as visões transhumanistas ou de superinteligência fazem parecer. Sim, existem problemas, e chamamos a atenção para os efeitos indesejáveis de alguns desses comportamentos emergentes. Mas adotamos uma abordagem mais pragmática e, você pode dizer, otimista.

Se entendermos e estudarmos isso agora, estaremos em uma posição melhor para evitar crises. Sob esse ponto de vista, é definitivamente mais otimista do que muitas histórias assustadoras que a ficção científica nos conta, mas também do que muitos políticos e tecnólogos.

O surgimento do ChatGPT levou grandes vozes do Vale do Silício a se posicionar sobre os riscos dela.

Muitas pessoas pensaram que havia um salto qualitativo na tecnologia, e havia um certo desconhecimento do que estava acontecendo. Acho que o entusiasmo pode ter diminuído um pouco. Quando as pessoas começaram a estudar mais, perceberam que é um sistema que prevê texto, e é bom nisso. Sim, às vezes o texto gerado é sem sentido; outras vezes, parece correto, mas na verdade é enganoso. As pessoas começaram a avaliar mais.

Acho que o medo inicial dessa nova tecnologia pode ter diminuído. E, novamente, eu tendo a ser otimista, porque as pessoas percebem que não estamos lá ainda, que é uma ferramenta útil, mas tem muitas limitações e não possui uma cognição emergente. Pode parecer que sim, mas não é tão inteligente.

Espero que sigamos em direção a uma abordagem de “vamos trabalhar nisso”, em vez de paralisia e “ah, não, vai nos destruir”.

Nesse sentido, quão importante é pensar na regulação das máquinas e da relação entre humanos e máquinas?

É absolutamente muito importante. Já se fez bastante coisa nesse sentido. O campo de viés algorítmico, por exemplo, vem se desenvolvendo nos últimos dez anos, de modo que parte da conversa mudou.

Essa visão de ameaça a longo prazo é um problema, pois não estamos abordando os problemas reais e atuais que alguns desses sistemas já causam, como o viés em decisões importantes para, por exemplo, pedidos de seguro, promoções em escolas, contratações e premiações. São vários casos.

A ética deve desempenhar um papel, mas também deve ser aplicada de maneira concreta aos problemas atuais que já enfrentamos, incluindo, como mencionei, a desinformação política e muitos outros problemas.

Para onde vai essa nova sociologia da interação homem-máquina?

A ideia é que precisamos de cientistas sociais nesse debate. Muitas das pesquisas em IA foram feitas por cientistas da computação e filósofos, além de especialistas em ética, o que é ótimo. Mas a ideia agora é que, uma vez que essas tecnologias realmente se espalharam pelo mundo social, precisamos de psicólogos e, especialmente, cientistas sociais, assim como cientistas políticos e economistas, para trabalhar nisso.

Nossa visão é um pouco conservadora. A ideia é que já temos uma grande quantidade de literatura que estuda humanos e desenvolvemos métodos e teorias para estudar humanos. Em particular, já olhamos, por exemplo, para a psicologia de grupos e para o que acontece quando humanos de diferentes tipos interagem entre si.

O primeiro passo seria pegar isso e adaptar para quando o “outro” não é mais um tipo diferente de humano, mas, sim, uma máquina. Deveríamos conseguir adaptar muito do conhecimento que temos para esses sistemas. Já temos os métodos, portanto, um bom ponto de partida seria fazer o que já fazemos, mas agora com máquinas e humanos interagindo.

Leia também

Por que usar inteligência artificial em apps como o Tinder não é má ideia

Fim do emprego com IA? Salesforce abre mil vagas para vender agentes de IA

Esta empresa brasileira atraiu a OpenAI para acelerar o impacto no setor de moradia