wp-header-logo-3246.png

A empresa norte-americana de inteligência artificial Anthropic está acusando três proeminentes laboratórios chineses de IA de extrair ilegalmente recursos de seu modelo Claude para aprimorar os seus próprios, alegando que isso levanta questões de segurança nacional.

As empresas chinesas DeepSeek, Minimax e Moonshot AI criaram mais de 24.000 contas fraudulentas e treinaram seus modelos usando mais de 16 milhões de trocas com o Claude, um processo conhecido como destilação, alegou a Anthropic em uma postagem no blog na segunda-feira (23).

A CNN entrou em contato com a DeepSeek, a MiniMax e a Moonshot AI para comentar o assunto.

A destilação é um método comum de treinamento na indústria de IA, com laboratórios de ponta frequentemente destilando seus próprios modelos para criar versões mais baratas para os clientes. Mas a maioria dos principais fornecedores de modelos de IA proprietários, incluindo a Anthropic, proíbe explicitamente tais práticas. O Claude não está disponível na China.

As acusações surgiram depois que a OpenAI, rival da Anthropic, fez alegações semelhantes no início deste mês, afirmando que a DeepSeek e outras empresas chinesas de IA estão destilando ilegalmente seus modelos ChatGPT ao longo do último ano, em um memorando enviado ao Comitê Seleto da Câmara dos EUA sobre a China.

A DeepSeek chocou o setor no ano passado quando lançou um modelo poderoso que quase se equiparava aos líderes do setor, como o ChatGPT, mas com menos recursos de computação necessários.

Esse desenvolvimento desafiou a sabedoria predominante na época de que o treinamento de modelos avançados requer mais poder de processamento e levantou questões sobre a eficácia da tecnologia e dos controles de exportação dos EUA.

A OpenAI disse então que estava analisando evidências de que a DeepSeek “pode ter destilado indevidamente” seus modelos.

No memorando deste mês, a OpenAI afirmou que os rápidos avanços da DeepSeek se baseiam em “seus esforços contínuos para se aproveitar das capacidades desenvolvidas pela OpenAI e outros laboratórios de ponta dos EUA”.

A DeepSeek ainda não se pronunciou publicamente sobre as alegações da Open AI.

A Anthropic alertou que modelos destilados ilegalmente podem carecer das proteções de segurança que empresas como ela e outros fornecedores de modelos dos EUA implementam, e que podem criar riscos à segurança nacional se forem usados para crimes cibernéticos e armas biológicas, por exemplo.

Esses modelos também podem permitir que “governos autoritários implantem IA de ponta para operações cibernéticas ofensivas, campanhas de desinformação e vigilância em massa”, afirmou. “A janela para agir é estreita.”

Defendendo os controles de exportação dos EUA

A ascensão surpreendente da DeepSeek gerou um debate sobre se os controles de exportação dos EUA haviam falhado. But a Anthropic argumentou que o fato de os laboratórios chineses de IA em questão terem desenvolvido modelos de alto desempenho por meio da destilação reforçava a justificativa para essas restrições, que ela disse apoiar há muito tempo para preservar a liderança dos EUA em IA.

Além do DeepSeek, o MiniMax e o modelo Kimi da Moonshot AI ganharam destaque na China, tornando-se conhecidos como “tigres da IA”. Atualmente, os três estão entre os 15 melhores modelos no renomado ranking da Artificial Analysis.

A Anthropic afirmou que, ao expor as tentativas de destilação, demonstra a eficácia dos controles de exportação e mostra que o desenvolvimento de modelos de ponta não pode ser sustentado apenas por meio da inovação, sem acesso a chips avançados.

“Na realidade, esses avanços dependem em grande parte das capacidades extraídas dos modelos americanos, e executar essa extração em escala requer acesso a chips avançados”, afirmou.

source
Fonte : CNN

Destaques Informa+

Relacionadas

Menu