Uma situação inusitada e um tanto polêmica está movimentando os bastidores do mundo da inteligência artificial: a Anthropic, empresa responsável pelo modelo Claude, cortou o acesso da OpenAI às suas APIs.
A decisão teria sido motivada por uma suposta violação dos termos de uso por parte da criadora do ChatGPT.
De acordo com fontes ouvidas pela revista Wired, a OpenAI estava utilizando ferramentas internas do Claude, não apenas a interface de conversa, para comparar e testar o desempenho do GPT-5, seu novo modelo previsto para ser lançado em agosto.
Esses testes envolviam desde tarefas de programação e escrita criativa até questões delicadas como conteúdo sensível, automutilação e difamação, tudo com o objetivo de ajustar e melhorar a nova versão do GPT.
O problema, segundo a Anthropic, é que esse tipo de uso fere as regras comerciais da empresa, que proíbem expressamente o uso de seus serviços para desenvolver produtos concorrentes.
Nos termos de serviço, há uma cláusula clara: é proibido acessar a plataforma com a intenção de criar ou treinar modelos de IA concorrentes, a menos que haja autorização formal da empresa.
A OpenAI, por sua vez, se defendeu dizendo que testes cruzados entre modelos são uma prática comum na indústria, e que todas as grandes empresas fazem isso como parte de seus processos de benchmark e segurança.
Apesar disso, a companhia reconheceu a decisão da Anthropic, mas demonstrou frustração, destacando que o acesso da Anthropic às APIs da OpenAI continua aberto.
Segundo um porta-voz, o acesso poderá ser restabelecido futuramente, mas apenas para fins de avaliação técnica e segurança.
Essa não é a primeira vez que a Anthropic corta o acesso à sua API. Em junho, a empresa também bloqueou o Windsurf após rumores de que ele seria vendido para a OpenAI, o que acabou não se concretizando.
Além disso, a Anthropic anunciou recentemente mudanças em seus limites de uso da API, alegando que alguns usuários estariam compartilhando ou revendendo o acesso ao Claude, o que também viola suas políticas.
