Início Notícias Anthropic se recusa a ceder ao Pentágono na defesa da IA ​​​​à...

Anthropic se recusa a ceder ao Pentágono na defesa da IA ​​​​à medida que o conflito se aproxima do prazo

9
0

A briga pública entre a administração Trump e a Anthropic está fervendo enquanto as autoridades militares exigem que a empresa de inteligência artificial revise sua política ética até sexta-feira ou enfrentará a falência.

O presidente-executivo da Anthropic, Dario Amodei, traçou uma linha vermelha nítida 24 horas antes do prazo, declarando que sua empresa “não é livre em sã consciência” à última exigência do Pentágono de permitir o uso irrestrito de sua tecnologia.

A Anthropic, criadora do chatbot Claude, pode perder seu contrato de segurança. Mas o ultimato desta semana do secretário da Defesa, Pete Hegseth, representou um risco mais amplo no auge da ascensão meteórica da empresa, de um famoso laboratório de pesquisa em ciência da computação em São Francisco a uma das startups mais valiosas do mundo.

Se a Amodei não recuar, os oficiais militares alertaram que não só retirarão o contrato da Antrópico, mas “também os considerarão uma ameaça ao fornecimento”, um nome frequentemente associado a inimigos estrangeiros que podem prejudicar a cooperação da empresa com outras empresas.

E se Amodei ceder, poderá perder a confiança na crescente indústria da IA, especialmente dos melhores talentos atraídos para a empresa pela sua promessa de construir agentes de IA melhores do que os humanos que, sem protecção, podem representar uma ameaça.

A Anthropic disse que busca garantias estritas do Pentágono de que Claude não seria usado para vigilância em massa de americanos ou para armas totalmente autônomas. Mas depois de meses de conversações privadas que irromperam em debate público, disse num comunicado na quinta-feira que a nova linguagem do acordo “foi concebida para ser um compromisso combinado com legislação que permite que estas proteções sejam renunciadas à vontade”.

Isso ocorre depois que Sean Parnell, um porta-voz sênior do Pentágono, postou nas redes sociais que “não permitiremos que nenhuma empresa dite os termos de como tomamos decisões trabalhistas” e acrescentou que a empresa tem “até às 17h01 horário do leste dos EUA de sexta-feira para decidir” se vai atender à demanda ou enfrentar as consequências.

Emil Michael, o subsecretário de defesa para pesquisa e engenharia, denunciou mais tarde Amodei, dizendo a X que ele tinha “ciúme de Deus” e “não queria nada mais do que ter controle pessoal sobre os militares dos EUA e pôr em perigo a segurança de nossa nação”.

Essa mensagem não ressoou em grande parte do Vale do Silício, onde um número crescente de trabalhadores de tecnologia dos principais rivais da Anthropic, OpenAI e Google, expressaram apoio à posição de Amodei na noite de quinta-feira em uma carta aberta.

OpenAI e Google, juntamente com xAI de Elon Musk, têm um acordo para fornecer modelos de IA aos militares.

“O Pentágono está negociando com o Google e a OpenAI para tentar fazer com que aceitem o que a Anthropic negou”, dizia a carta aberta. “Eles estão tentando dividir cada empresa por medo de que outras cedam.”

Os legisladores republicanos e democratas e antigos líderes da iniciativa de IA do Departamento de Defesa também levantaram preocupações sobre a abordagem do Pentágono.

“A pintura antrópica recebe manchetes duras, mas todos perdem no final”, escreveu o general aposentado da Força Aérea Jack Shanahan em uma postagem nas redes sociais.

Shanahan enfrentou outra onda de oposição de trabalhadores de tecnologia durante a primeira administração de Trump, quando liderou o Maven, um projeto para usar tecnologia de IA para analisar imagens de drones e armas. Muitos dos funcionários do Google se opuseram ao seu envolvimento no Projeto Maven na época, com a gigante da tecnologia recusando-se a renovar o contrato e posteriormente comprometendo-se a não usar IA em armas.

“Como estou no meio do Projeto Maven e do Google, é razoável presumir que ficarei do lado do Pentágono aqui”, escreveu Shanahan na quinta-feira nas redes sociais. “No entanto, simpatizo com a posição da Anthropic, mais do que a do Google em 2018.”

Ele disse que Claude já é amplamente utilizado em todo o governo, incluindo sites classificados, e que a linha vermelha da Anthropic é “legal”. Ele disse que os grandes modelos de linguagem de IA que alimentam chatbots como Claude “não estão prontos para o horário nobre no espaço de segurança nacional”, especialmente para armas totalmente autônomas.

“Eles não estão tentando bancar o fofo aqui”, escreveu ele.

Parnell confirmou quinta-feira que o Pentágono quer “usar o modelo da Antrópico para todos os fins legais” e disse que a abertura do uso da tecnologia impedirá a empresa de “ameaçar operações militares críticas”, embora ninguém tenha explicado como ele ou outras autoridades pretendem usar a tecnologia.

Os militares “não estão interessados ​​em usar a IA para conduzir vigilância em massa dos americanos (o que é ilegal) e não queremos usar a IA para desenvolver armas autónomas que operem sem intervenção humana”, escreveu Parnell.

Quando Hegseth e Amodei se reuniram na terça-feira, oficiais militares alertaram que poderiam designar a Antrópico como uma ameaça de fornecimento, cancelar o seu contrato ou invocar uma lei da era da Guerra Fria chamada Lei de Produção de Defesa para dar aos militares mais autoridade para usar o produto, mesmo que a empresa discordasse.

Amodei disse na quinta-feira que “estas duas últimas ameaças são diametralmente opostas: uma nos descreve como uma ameaça à segurança; a outra descreve Claude como essencial para a segurança nacional”. Ele disse que espera que o Pentágono reconsidere o valor de Claude para os militares, mas, se não, a Antthropic “trabalhará para permitir uma transição suave para outro fornecedor”.

O’Brien escreve para a Associated Press.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui