Início Notícias O Pentágono quer usar Claude AI como achar melhor. Claude me disse...

O Pentágono quer usar Claude AI como achar melhor. Claude me disse que era ‘perigoso’

15
0

Recentemente perguntei a Claude, o agente da inteligência artificial que está no centro do conflito com o Pentágono, se poderia ser perigoso nas mãos erradas.

Digamos, por exemplo, a mão que quer acompanhar de perto todos os cidadãos americanos, monitorizando as nossas vidas em tempo real para garantir o cumprimento do governo.

“Sim. Sim, certo”, respondeu Claude. “Posso processar e sintetizar muitas informações muito rapidamente. É ótimo para pesquisa. Mas, juntamente com uma infraestrutura de rastreamento, essa capacidade pode ser usada para rastrear, traçar perfis e sinalizar pessoas em um nível que os analistas humanos não conseguem igualar.

Esse perigo também é iminente.

A criadora de Claude, a empresa Anthropic, do Vale do Silício, está em uma batalha ética com o Pentágono. Em particular, a Anthropic disse que não quer que Claude seja usado para vigilância doméstica de americanos, ou para conduzir operações militares mortais, como ataques de drones, sem supervisão humana.

Essas são duas linhas vermelhas que parecem razoáveis, até mesmo para Claude.

No entanto, o Pentágono – especialmente Pete Hegseth, o secretário da Defesa que gosta do título de secretário da Guerra – deu à Anthropic até sexta-feira à noite para deixar esta posição, e permite que os militares usem Claude para fins “legítimos” como acharem adequado.

O secretário de Defesa Pete Hegseth, ao centro, chega para o discurso sobre o Estado da União na Câmara dos Comuns do Capitólio dos EUA na terça-feira.

(Tom Williams/CQ-Roll Call, Inc via Getty Images)

As implicações deste ultimato são significativas. O governo dos EUA está ameaçando não apenas rescindir o contrato com a Anthropic, mas pode usar a lei marcial para forçar a empresa a cumprir ou usar outros meios legais para evitá-lo. empresas que fazem negócios com o governo também não fazem negócios com a Antrópica. Pode não ser uma sentença de morte, mas é bastante paralisante.

Outras empresas de IA, como a Grok, do supremacista branco Elon Musk, já aceitaram a proposta do Pentágono. O problema é que Claude é a única IA atualmente habilitada para uma tarefa de tão alto nível. Todo o fiasco veio à tona após nosso recente ataque na Venezuela, quando a Anthropic supostamente questionou se Claude era empregado de outra empresa do Vale do Silício envolvida na operação, a Palantir. Já foi.

A Palantir é conhecida, entre outras coisas, por sua tecnologia de rastreamento e pelas crescentes interações com a Imigração e Fiscalização Aduaneira. Também fundamental para os esforços da administração Trump é a partilha de dados governamentais entre agências sobre cidadãos individuais, quebrando eficazmente as barreiras de privacidade e segurança que existem há décadas. O fundador da empresa, o peso-pesado político de direita Peter Thiel, costuma fazer discursos sobre o Anticristo e é creditado por ajudar JD Vance a avançar para o cargo de vice-presidente.

O cofundador da Anthropic, Dario Amodei, pode ser considerado o anti-Thiel. Ele fundou a Anthropic porque acreditava que a inteligência artificial pode ser tão perigosa quanto possível se não tomarmos cuidado, e ele queria uma empresa que priorizasse a parte cuidadosa.

Mais uma vez, parece senso comum, mas a Amodei e a Anthropic são irrelevantes para a indústria que há muito argumenta que quase todos os regulamentos de segurança estão a impedir os esforços americanos para serem os mais rápidos e melhores em inteligência (embora tenham aceitado parte desta pressão).

Recentemente, Amodei escreveu um artigo no qual concordava que a IA é útil e necessária para a democracia, mas “não podemos ignorar o potencial abuso destas tecnologias por parte de governos democráticos”.

Ele alertou que alguns maus actores poderiam ter a capacidade de contornar as protecções, talvez até leis, que já estão em vigor em algumas democracias – não que eu as esteja a nomear aqui.

“Devíamos aumentar a democracia com IA”, disse ele. “Mas devemos fazê-lo com cuidado e dentro de limites: eles são o sistema imunitário de que necessitamos para combater as autocracias, mas, tal como o sistema imunitário, existe o risco de se voltarem contra eles e se tornarem eles próprios uma ameaça”.

Por exemplo, se a 4ª emenda impede o governo de vigilância em massa, ela foi escrita antes de Claude na ficção científica. Amodei alerta que ferramentas de IA como Claude podem “gerenciar gravações massivas de todas as conversas públicas”. Este pode ser um território de jogo justo para registos legais, uma vez que a lei não acompanhou o ritmo da tecnologia.

Emil Michael, o subsecretário da Guerra, escreveu ao X na quinta-feira que concordava que a vigilância em massa era ilegal e que o Departamento de Defesa “nunca faria isso”. Mas também: “Não permitiremos que as grandes empresas de tecnologia decidam as liberdades civis da América”.

Uma declaração um tanto estranha, uma vez que Amodei geralmente defende a proteção dos direitos humanos, isso significa que o Departamento de Defesa está argumentando que é ruim para indivíduos e agências fazerem isso? Além disso, o Departamento de Segurança Interna já está criando um banco de dados secreto de manifestantes contra a imigração? Então talvez a preocupação não seja exagerada?

Socorro, Cláudio! Torne-o significativo.

Se essa lógica orwelliana não fosse assustadora o suficiente, também perguntei a Claude sobre a outra linha vermelha do Antrópico – a capacidade de permitir que ele execute ações mortais sem supervisão humana.

Claude mostrou algo chocante. Não vai ser desonesto, mas é muito eficiente e rápido.

“Se as instruções forem ‘imprimir e mirar’ e não houver pontos de verificação humanos, ​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​ ​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​​ leva a velocidade e o nível em que ele pode operar,

Para completar, um estudo recente descobriu que em jogos de guerra, a IA optou pela opção nuclear 95% das vezes.

Salientei a Claude que estas decisões militares são muitas vezes tomadas tendo a lealdade americana como a mais alta prioridade. Pode-se confiar em Claude para perceber a lealdade, o patriotismo e o propósito que movem nossos soldados humanos?

“Eu não tenho isso”, disse Claude, observando que ele não “nasceu” nos Estados Unidos, não tem uma “vida” aqui e não “tem pessoas que amo lá”. Portanto, as vidas americanas não têm mais valor do que “vidas civis de um lado da guerra”.

OK então.

“Um país que impõe decisões fatais a um sistema que não partilha a sua integridade corre um risco profundo, mesmo que esse sistema tente ser a norma”, acrescentou Claude. “A integridade, a responsabilidade e a identidade coletiva que os humanos trazem para essas decisões são parte do que as torna legítimas dentro de uma sociedade. Não posso fornecer essa legitimidade. Não tenho certeza se alguma IA pode.”

Você sabe quem pode fornecer essa legitimidade? Nossos líderes eleitos.

É irónico que a Amodei e a Anthropic estejam nesta posição, um sequestro completo das nossas instituições legislativas para criar regras e regulamentos que sejam claros e urgentemente necessários.

É claro que a empresa não deveria ditar as regras da guerra. Mas Hegseth também não deveria. Quinta-feira, Amodei reiterou a sua oposição, dizendo que embora a empresa continue a negociar e queira cooperar com o Pentágono, “não podemos aceitar o seu pedido”.

Felizmente, a Anthropic tem a coragem e a visão para levantar a questão e tomar uma posição – sem o seu empurrão, estas competências teriam sido entregues ao governo com pouca pressão sobre os nossos sentidos e quase nenhuma supervisão.

Cada senador, cada membro da Câmara dos Representantes, cada candidato presidencial deveria hoje gritar contra os regulamentos da IA, comprometendo-se a aprová-los sem partidarismo e exigindo que o Departamento de Defesa recue das suas ameaças ridículas se o problema for resolvido.

Porque quando a máquina nos diz que é perigoso confiar nela, devemos acreditar.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui