O mundo da inteligência artificial acordou com um sismo vindo diretamente dos corredores da OpenAI. Um memorando interno, redigido pela Chief Revenue Officer (CRO) Denise Dresser e recentemente filtrado, deitou por terra qualquer diplomacia que ainda pudesse existir entre os grandes interventores de Silicon Valley. A mensagem é clara e despudorada: a OpenAI não quer apenas liderar; quer desmantelar a narrativa da sua principal rival, a Anthropic, atacando tanto a sua saúde financeira como a sua própria filosofia de existência.
Um dos pontos mais sensíveis deste documento foca-se no “bolso” da Anthropic. Enquanto os rumores de mercado e relatórios da Bloomberg apontavam para uma receita anualizada superior a 30 mil milhões de dólares, a OpenAI alega que estes números são fruto de uma “contabilidade criativa”. Segundo Denise Dresser, a rival está a inflacionar os seus resultados em cerca de 8 mil milhões de dólares através de um tratamento contabilístico duvidoso.

A acusação é técnica mas fulcral: a Anthropic estaria a registar as receitas brutas provenientes de parcerias com gigantes como a Google e a Amazon (AWS), em vez de contabilizar apenas a receita líquida que efetivamente retém após a partilha de lucros. Num momento em que ambas as empresas preparam o terreno para eventuais entradas em bolsa (IPO), esta discrepância de 8 mil milhões não é apenas um detalhe — é uma bomba reputacional que coloca em causa a transparência da empresa que se apresenta como a “consciência ética” do setor.
O mito da segurança como barreira ao progresso
Talvez o ataque mais visceral contido no memorando seja o que visa a cultura organizacional da Anthropic. A OpenAI descreve a rival como uma empresa “construída sobre o medo” e a restrição. Para Dresser, a ideia de que um pequeno grupo de elites deve controlar e limitar a IA — o pilar da estratégia de segurança da Anthropic — é um erro fundamental que prejudica o desenvolvimento da tecnologia.
Esta crítica transforma o que a Anthropic considera o seu maior trunfo (a segurança rigorosa) numa fraqueza estratégica. A OpenAI argumenta que esta postura conservadora, longe de proteger a humanidade, serve apenas para mascarar falhas operacionais e impor um controlo elitista sobre ferramentas que deveriam ser mais dinâmicas. Esta guerra ideológica marca uma rutura total entre dois modelos de negócio: um focado na expansão rápida e na utilidade prática, e outro que se auto-intitula o guardião dos riscos existenciais da IA.
Erros estratégicos na corrida pelo processador
Para além da filosofia e dos números, o memorando entra no campo das infraestruturas puras. A OpenAI acredita que a Anthropic cometeu um erro estratégico fatal ao não assegurar capacidade de computação suficiente para as suas necessidades. Esta falta de visão sobre a “curva de computação” já estará a ter repercussões diretas nos clientes.
Eis os principais pontos críticos apontados pela OpenAI nesta vertente:
- Degradação do serviço: Relatos de throttling (limitação de velocidade) e menor fiabilidade nos serviços da Anthropic.
- Dependência excessiva: Uma vulnerabilidade estrutural por não ter garantido infraestruturas de processamento à escala da OpenAI.
- Foco limitado: A crítica de que a Anthropic se focou demasiado em ser um assistente de programação (coding assistant), tornando-se uma empresa de “produto único” num mercado que exige plataformas integrais.
- Perda de terreno corporativo: A OpenAI está a aproveitar estas falhas para “roubar” clientes em ambientes onde a Anthropic se sentia segura, como no Amazon Bedrock.
O utilizador no centro do fogo cruzado
Para ti, que utilizas estas ferramentas no dia a dia, esta disputa é mais do que uma simples “birra” corporativa. Quando a OpenAI ataca a estabilidade dos serviços da rival, está a dizer ao mercado que confiar a tua produtividade à Anthropic pode ser um risco operacional. Se os serviços de uma empresa começam a falhar por falta de infraestrutura, o utilizador final é o primeiro a sentir a lentidão nas respostas ou a indisponibilidade do sistema.
A estratégia da OpenAI passa agora por capitalizar estas perceções de fraqueza. Ao expandir a sua presença em plataformas como a AWS, a empresa de Sam Altman quer garantir que não há refúgio para a concorrência. Estamos a assistir a uma transição agressiva: a fase da curiosidade científica terminou e entrámos na era da guerra de plataformas, onde a eficiência bruta do processador e a escala financeira ditam quem sobrevive e quem fica pelo caminho. No final, esta agressividade pode beneficiar-te com ferramentas mais rápidas, mas levanta questões sérias sobre o monopólio de pensamento no desenvolvimento da inteligência artificial.
Outros artigos interessantes:









