Barcelona, Espanha — Enquanto executivos das mais proeminentes empresas do setor tecnológico pedem pausa no avanço vertiginoso da Inteligência Artificial (IA), governos mundo afora avaliam como se preparar para o impacto que a nova tecnologia trará à sociedade. Nenhum avança de forma mais resoluta que o da União Europeia, que prepara um marco regulatório que busca garantir o respeito à ética e aos direitos fundamentais dos cidadãos ante a o avanço dessas tecnologias.
O bloco votou no último mês um acordo político considerado vital para avançar com a aprovação da lei, que prevê maior grau de controle sobre os aplicativos de IA, como o ChatGPT da OpenAI e o Bard do Google.
Os legisladores dos comitês de mercado interno e justiça da UE decidiram obrigar as empresas que desenvolvem software de inteligência artificial “de base” a produzir avaliações de risco, sintetizar o conteúdo proprietário usado para treinar seus modelos e garantir que seus clientes sejam informados se estão interagindo com inteligência artificial ou um “deepfake”. Também votou para proibir o uso de inteligência artificial em tempo real com o objetivo de reconhecer pessoas publicamente.
A Espanha assumirá um papel-chave nesse contexto: a partir de 1º de julho presidirá o Conselho da União Europeia e terá a missão de liderar todo o desenvolvimento do primeiro regulamento da IA em âmbito global. Mas essa iniciativa não está imune a controvérsias. Embora aplaudam um marco jurídico para que a IA se desenvolva de maneira inclusiva, sustentável e centrada na cidadania, alguns especialistas alertam para brechas que poderiam “amarrar” a indústria e a inovação.
Esse é o caso de Ricardo Baeza-Yates, diretor de Pesquisa do Instituto de Inteligência Artificial Experimental da Northeastern University no Vale do Silício e professor na Universitat Pompeu Fabra (UPF) de Barcelona. “É a primeira vez na história da humanidade que tentamos regular o uso de uma tecnologia”, afirmou à Bloomberg Línea.
Segundo ele, a regulamentação atual tem muitas brechas. “Precisaremos regular o blockchain, a computação quântica e todas as tecnologias que inventemos no futuro? Acho que é um erro, temos de regular os problemas, independentemente da tecnologia usada para resolvê-los, da mesma maneira como já fizemos com alimentação, medicamentos, transportes e privacidade”, disse.
O acadêmico disse acreditar que a lei deveria regular todos os sistemas algorítmicos, não só aqueles que usam a IA. “Ou deixaremos um buraco gigantesco em que basta dizer que não se usa IA para escapar do cumprimento da regulação”, disse. “Devemos regular olhando o futuro, como os direitos humanos.”
Carme Artigas, secretária de Estado da Digitalização e Inteligência Artificial, órgão vinculado ao Ministério de Economia, disse no entanto que a regulamentação europeia não regula a Inteligência Artificial, e, sim, os usos de risco das aplicações que utilizam IA. Com isso, quer garantir a ética e proteger os direitos fundamentais do ser humano.
“Considero uma boa lei no sentido de evitar o impacto do desenvolvimento da IA sobre os direitos e as liberdades: tenta encontrar um equilíbrio entre a regulamentação dos riscos, mas sem matar a inovação”, explicou em entrevista à Bloomberg Línea. “Por exemplo, joga luz na discriminação que os algoritmos podem fazer em coletivos e indivíduos: os requisitos do que são implantações de alto risco de IA devem estar sujeitos a normas técnicas e diretrizes de implementação.”
Como a nova lei tenta coibir abusos
A proposta de Lei de Inteligência Artificial (IA), um documento de mais de 100 páginas publicado em 2021 pela Comissão Europeia e que está sendo trabalhado para entrar em vigor já no começo de 2024, se aplicará nos âmbito público e privado tanto dentro como fora da UE, desde que o uso dos sistemas de IA afetem os cidadãos residentes nos 27 países membros da União Europeia.
Pretende ser a primeira lei de IA do mundo e classifica o uso de IA de acordo com seu risco. “Quanto maior o risco que a inteligência artificial pode trazer para nossas vidas, mais firme e rigorosa será a regra”, explicou durante uma apresentação a vice-presidente da comissão, Margrethe Vestage.
Na categoria “risco mínimo” se enquadram os sistemas de AI que seriam inofensivos e de fácil acesso à população. O seguinte grau de risco incluiria as aplicações que classificam a publicidade conforme gostos, sexo, nacionalidade ou raça e também sistemas de IA que produzam deepfakes - neste caso, terão que deixar uma “marca d’água” e garantir que os usuários estejam conscientes de que estão diante da criação de uma máquina. A classificação de alto risco contemplaria, por exemplo, softwares de contratação automatizado e algoritmos para calcular concessão de crédito.
Como risco inaceitável na proposta da UE figuram, por exemplo, a vigilância biométrica massiva (câmeras de reconhecimento facial, por exemplo) e os sistemas de pontuação social, como aqueles usados na China, ou algoritmos que avaliam os “perfis de risco” de viajantes. Estas aplicações estariam proibidas por atentar contra a privacidade e dar margem a discriminações.
Haverá, no entanto, algumas exceções a serem autorizadas pelas autoridades competentes, como o uso do reconhecimento facial para prevenir ameaças terroristas ou buscar um menor desaparecido. “Não há lugar para a vigilância massiva na sociedade europeia”, sentenciou Vestage.
Como ficam tecnologias como o ChatGPT?
Inicialmente, os bots de IA generativa como o ChatGPT foram marcados com o menor grau de risco. Mas o debate em torno da tecnologia ainda está em ebulição, pois a possibilidade de que esses bots consolidem vieses e desinformem em grande escala poderia enquadrar a ferramenta na categoria de alto risco - a não ser que houvesse uma supervisão editorial para minimizar as distorções.
A falta de um consenso sobre a regulamentação de sistemas de uso geral como o ChatGPT provocou que a votação, originalmente marcada para 26 de abril, fosse adiada para maio.
Dúvidas sobre propriedade intelectual
Pela proposta da UE, a IA consiste em um software que utiliza uma ou mais das seguintes técnicas, como estratégias de aprendizagem automático/profundo e metodologias estatísticas como a bayesiana (baseada na definição de probabilidade como um grau de informação). Com essas ferramentas, a tecnologia pode gerar informações como conteúdo, previsões, recomendações ou decisões.
Enquanto para alguns legisladores e atores públicos e privados do mercado certos usos da IA podem ser incompatíveis com os direitos fundamentais, para outros a categorização oferece um enfoque muito amplo, como observou Gonzalo López-Barajas, responsável por Políticas Públicas e Internet do grupo Telefónica.
Em uma conferência mediada pelo Instituto de Desenvolvimento Digital da América Latina e do Caribe (IDD LAC), López-Barajas elogiou a intenção da União Europeia de buscar proteger os cidadãos, mas ressaltou que, da maneira como é exposta agora, a lei abarcaria uma grande quantidade de software que talvez não devesse ser enquadrado como de IA, o que pressupõe uma barreira para as empresas.
“Se tivessem que cumprir a legislação, poderiam ter que arcar com uma carga importante sem que isso representasse uma proteção adicional”, disse o especialista.
Dentre os pontos mais importantes em análise, conforme o executivo da Telefónica, está o acesso aos algoritmos e aos dados de treinamento das empresas. “Isso faz parte da propriedade intelectual das companhias e poderia constituir um problema muito sério se vazados: a UE terá que analisar muito bem esse ponto para proteger a propriedade intelectual das empresas.”
“Selo” da UE
Para tentar garantir a proteção à cidadania, a União Europeia quer estabelecer quem são os responsáveis pelas ações de um sistema de AI - que empresas o utiliza e quem o projetou. Com isso, as aplicações de AI consideradas como sendo de alto risco teriam que demonstrar conformidade com as regras antes de serem implementados na UE.
A UE pretende oferecer uma certificação de “IA de confiança”, para promover o cumprimento da normativa e que não incorra em danos à sociedade. A infração às normas acarreta o pagamento de multas. As sanções por não cumprimento podem chegar a 6% do faturamento anual no caso de prestadores de serviços reincidentes.
Não se sabe exatamente quando a lei será aprovada: no momento, os países membros estão na fase das discussão entre três partes: a Comissão Europeia, o Parlamento Europeu e o Conselho da Europa têm que chegar a uma opinião comum. A Espanha concluirá todas as negociações desse debate para ter a regulamentação final - a ideia é que até 2024 a lei possa ser implementada.
Leia também
Depois de pedir pausa em pesquisas, Musk quer lançar seu próprio ChatGPT
ChatGPT: é tarde demais para fazer uma pausa na Inteligência Artificial