Quando a OpenAI anunciou na semana passada o GPT-5.4-Cyber, um modelo de uso limitado para grupos fechados devido a riscos de segurança cibernética, ela não criou nada. Sete dias antes da Anthropic apresentar Claude Mythos Preview com a mesma lógica: acesso limitado, mesmo enredo, mesma performance.
O padrão se repetiu durante meses. A Anthropic lançou o Código Claude em 2025 e a OpenAI respondeu com o Codex. A Anthropic lançou o Claude Cowork, que controla a área de trabalho do usuário, e o Codex OpenAI atualizado em abril com controles de área de trabalho. Lançou a última versão do Anthropic Constituiçãoo documento que controla o comportamento do modelo, e a OpenAI implantou campanhas com o mesmo documento.
Uma inversão hierárquica está contida nele O Atlântico. Matteo Wong escreveu em 28 de abril que a OpenAI está correndo para alcançar seu maior concorrente. A Anthropic anunciou no início de abril que vale US$ 30 bilhões por ano, valor que parece ter superado o da OpenAI, e já está sendo vendido por mais de US$ 1 milhão em alguns mercados privados.

Memorandos, comunicação interna dentro de uma empresa, filtrados por O Atlântico Eles descrevem uma empresa de maneira defensiva. Denise Dresser, contratada em dezembro como chefe de gabinete da OpenAI após atuar como CEO do Slack, escreveu sobre o concorrente: “Sua história é baseada no medo”. Outro memorando de março dizia que o sucesso da Anthropic em código e empreendimento deveria ser um “alerta” para OpenAI.
A tradução funcionou instantaneamente. Sora, o videogame que o gerou, foi cancelado pela OpenAI. Formou a Frontier Alliance com a McKinsey e o Boston Consulting Group para acelerar a adoção do ChatGPT em grandes empresas. Lançou um novo plano ChatGPT Pro de US$ 100 por mês com uso de 5x Codex, em resposta direta ao Max 5x da Antrópico, de acordo com CNBC. E lançou um plugin oficial do Codex que funciona dentro do Claude Code: compartilhe seu próprio produto no campo do concorrente para que o criador que já escolheu o concorrente não perca.
TechCrunch Ele resumiu em uma única frase em 16 de abril: há uma batalha feroz entre OpenAI e Antrópico para ferramentas de programação, e agora a Anthropic está ganhando.

A cópia funciona no produto. Não trabalhar a partir de uma posição ética. Quando a Anthropic negou a Claude acesso irrestrito ao Pentágono, sustentando que os seus termos de utilização proíbem a vigilância doméstica em massa e armas autónomas, o Departamento de Defesa nomeou-o. “Risco da Cadeia de Suprimentos”a categoria reservada aos inimigos estrangeiros. Já existe um julgamento. OpenAI e xAI assinaram um acordo com o Pentágono há uma semana. O Google assinou em 28 de abril, de acordo com O Wall Street Journal sim TechCrunchapesar de uma carta aberta assinada por seus 950 colaboradores pedindo que seguisse o caminho da Antrópico.
A cópia funciona no produto. Não trabalhar a partir de uma posição ética. Antrópico Impôs limites de uso em seu contrato com o Departamento de Defesa dos EUA e mantém disputa aberta com a agência. OpenAI e xAI assinaram um acordo sem essas restrições uma semana antes. O Google assinou em 28 de abril, de acordo com O Wall Street Journal sim TechCrunch.
O “medo” de que Dresser zomba no memorando interno é a mesma propriedade que permitiu à Anthropic conquistar empresas. Enquanto a OpenAI persegue o seu produto, os seus concorrentes reivindicam uma posição que não pode ser duplicada.
OpenAI pode traduzir Claude Code com Codex e traduzir Cowork com controles de desktop. Não é possível copiar os limites que a Antrópico estabeleceu porque se inscreveu sem eles. Quando os concorrentes constroem a marca “aquele que diz não”, não basta copiar o produto. Você também deve ser capaz de dizer não, e não há espaço para isso.















