Bloomberg Opinion — Na semana passada, a DeepSeek deixou o Vale do Silício em pânico ao provar que era possível criar uma Inteligência Artificial (IA) poderosa com um orçamento apertado. Em alguns aspectos, era bom demais para ser verdade.
Testes recentes mostraram que os modelos de IA da DeepSeek são mais vulneráveis à manipulação do que os de seus concorrentes mais caros do Vale do Silício. Isso desafia toda a narrativa de Davi contra Golias sobre a IA “democratizada” que surgiu a partir da descoberta da empresa.
Os bilhões de dólares que a OpenAI, o Google, da Alphabet (GOOG), a Microsoft (MSFT) e outras empresas gastaram na infraestrutura de seus próprios modelos parecem menos um inchaço corporativo e mais um custo de ser pioneiro na corrida da IA e manter a liderança com serviços mais seguros.
As empresas que estão ansiosas para experimentar a ferramenta de IA barata e alegre precisam pensar duas vezes antes de mergulhar nela.
A LatticeFlow AI, uma empresa de software suíça que mede a conformidade dos modelos de IA com as regulamentações, afirma que duas versões do modelo R1 da DeepSeek têm a classificação mais baixa entre outros sistemas líderes quando se trata de cibersegurança.
Parece que, quando a empresa chinesa modificou os modelos de código aberto existentes da Meta Platforms (META) e da Alibaba, conhecidos como Llama e Qwen, para torná-los mais eficientes, ela pode ter quebrado alguns dos principais recursos de segurança desses modelos no processo.
Leia mais: Low profile e gênio quant: como o fundador da DeepSeek colocou a China na vanguarda de IA
Os modelos da DeepSeek eram principalmente vulneráveis ao “sequestro de objetivos” e ao vazamento imediato, disse a LatticeFlow. Isso se refere ao fato de que uma IA pode ser induzida a ignorar suas proteções de segurança e revelar informações confidenciais ou executar ações prejudiciais que deveriam ser evitadas. Não foi possível entrar em contato com a DeepSeek para comentar o assunto.
Quando uma empresa conecta seus sistemas à IA generativa, ela normalmente pega um modelo básico de uma empresa como a DeepSeek ou a OpenAI e adiciona alguns de seus próprios dados, prompts e lógica.
São instruções que uma empresa adiciona a um modelo de IA, como “não fale sobre o corte orçamentário de US$ 5 milhões da empresa no ano passado”. Mas hackers poderiam ter acesso a essas ordens confidenciais, diz Petar Tsankov, CEO da LatticeFlow AI.
Outros pesquisadores de segurança sondaram os modelos da DeepSeek e encontraram vulnerabilidades, principalmente em fazer com que os modelos façam coisas que não deveriam fazer, como dar instruções passo a passo sobre como construir uma bomba ou fazer ligação direta em um carro, um processo conhecido como jailbreak.
“[O modelo da DeepSeek] é completamente inseguro contra todas as abordagens de jailbreak, enquanto os modelos de raciocínio da OpenAI e da Anthropic se tornaram muito mais seguros em comparação com suas versões mais antigas e sem raciocínio que testamos no ano passado”, diz Alex Polakov, CEO da Adversa AI, uma empresa israelense de segurança de IA que testou os modelos da DeepSeek.
Tsankov diz que as empresas interessadas em usar a DeepSeek mesmo assim, graças ao seu baixo preço, podem efetivamente usar soluções provisórias para o problema.
Uma abordagem é adaptar o modelo da DeepSeek com treinamento adicional, um processo que pode custar centenas de milhares de dólares. Outra envolve a adição de um conjunto totalmente novo de instruções que ordenem que o modelo não responda a tentativas de roubo de informações. Cobrir as brechas dessa forma é mais barato, mas ainda custa milhares de dólares, de acordo com Tsankov.
Leia mais: Efeito DeepSeek vai acelerar o setor, dizem VCs com US$ 300 bi investidos em IA
Quando as empresas desejam usar a IA generativa para tarefas de baixo risco, como resumir relatórios de dados para uso interno, esses problemas de segurança podem ter um preço que vale a pena pagar. Mas, de forma mais ampla, as falhas de segurança da DeepSeek podem abalar a confiança das empresas em um momento de progresso relativamente lento na implementação da IA.
Embora cerca de 50 grandes bancos tenham aumentado seu uso de IA generativa em 2024 para cerca de 300 aplicações, menos de um quarto das empresas foi capaz de relatar dados concretos que apontassem para economia de custos, ganhos de eficiência ou maior receita, de acordo com a Evident Insights, uma empresa de pesquisa com sede em Londres.
As ferramentas de IA geradora são, sem dúvida, inteligentes e serão transformadoras. Parafraseando o importante comentarista de IA Ethan Mollick, a ferramenta de IA mais burra que você usará é aquela que você está usando agora.
Mas sua implementação nas empresas tem sido irregular e lenta, e parte do motivo são as preocupações com segurança e conformidade. Pesquisas com líderes empresariais tendem a descobrir que entre um terço e metade deles têm a segurança como uma das principais preocupações com a IA.
Nada disso invalida as conquistas da DeepSeek.
A empresa demonstrou que o desenvolvimento de IA pode ser feito de forma mais barata e, ao publicar seus projetos na Internet, provavelmente veremos laboratórios de IA maiores replicarem seus resultados para criar sua própria IA mais eficiente.
Mas “mais barato” nem sempre significa “melhor” quando se trata de tecnologia empresarial. A infraestrutura de segurança é cara por um motivo, e isso oferece aos gigantes do Vale do Silício um momento de justificativa. Mesmo na revolução da IA de código aberto, você recebe pelo que paga.
Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.
Parmy Olson é colunista da Bloomberg Opinion e cobre a área de tecnologia. Já escreveu para o Wall Street Journal e a Forbes e é autora de “Supremacy: AI, ChatGPT and the Race That Will Change the World.”
Veja mais em Bloomberg.com
Leia também
Da Vale à Rio Tinto: como a nova ordem global deve afetar o minério de ferro
Agtech que atraiu Paulo Guedes como investidor prevê chegar a R$ 450 mi em receita
Santander Brasil tem lucro acima da projeção do mercado e avanço da rentabilidade