Rival põe ChatGPT e Google pra dançar, mas tem avalanche de notícias ruins

São Francisco – Enquanto o mundo acompanha a batalha bilionária entre OpenAI e Google pelos holofotes da inteligência artificial, uma terceira força cresce no silêncio dos servidores e nas entranhas do código. A Anthropic, criadora do assistente Claude, tornou-se nos últimos meses a queridinha de programadores, pesquisadores e entusiastas técnicos. Mas esse abraço apertado do público mais exigente vem acompanhado de uma sequência preocupante de escorregões.
A ascensão silenciosa
Fundada por ex-funcionários da OpenAI em 2021, a Anthropic sempre se posicionou como a alternativa "responsável" e "alinhada" no mundo dos modelos de linguagem. Sua aposta no método de treinamento chamado "IA constitucional" — que utiliza princípios explícitos para guiar o comportamento do modelo — rendeu a Claude uma reputação de mais seguro, menos propenso a alucinações e mais "honesto" do que seus concorrentes.
O mais recente modelo da empresa, o Claude 3.5 Sonnet, lançado em junho deste ano, foi recebido com entusiasmo raro. Em benchmarks de programação, raciocínio e compreensão de contexto — este último com janela de 200 mil tokens, suficiente para processar uma trilogia completa de livros — o modelo superou o GPT-4 em várias métricas.
"A primeira vez que usei Claude 3.5 foi um daqueles momentos 'uau' que não aconteciam desde o GPT-4 original", conta Rafael Mendes, engenheiro de software sênior de uma fintech paulista. "Ele entende código obscuro, sugere refatorações elegantes e ainda explica o raciocínio sem ser pedante. Para quem desenvolve, é outro nível."
Esse sentimento se espalhou como rastilho. No Reddit, no X (ex-Twitter) e em comunidades como Hacker News, Claude passou a ser tratado quase como um segredo bem guardado. Enquanto o ChatGPT se tornava popular entre o público geral, Claude se consolidava como a ferramenta do profissional que sabe exatamente o que quer.
A sucessão de tropeços
Mas o que parecia uma trajetória meteórica começou a mostrar rachaduras.
Julho de 2024 — A Anthropic lança a tão esperada funcionalidade de "Uso de ferramentas" (tool use) para Claude, permitindo que o modelo interaja com APIs e execute ações no mundo real. O lançamento foi ofuscado por uma instabilidade severa. Usuários relataram chamadas que simplesmente não funcionavam, respostas inconsistentes e documentação desatualizada.
"Eles lançaram às pressas para não ficarem para trás da OpenAI, que já tinha isso há meses", critica Camila Oliveira, desenvolvedora de IA em uma startup carioca. "Mas o resultado foi um produto quebrado. Perdi dois dias tentando fazer algo que no ChatGPT funcionou em duas horas."
Agosto de 2024 — O portal de desenvolvedores da Anthropic sofreu uma interrupção de mais de 12 horas em plena semana de pico de uso. A empresa demorou horas para se pronunciar, e a comunicação durante o incidente foi considerada "vaga e pouco tranquilizadora" por clientes corporativos.
Setembro de 2024 — Um bug no sistema de moderação do Claude causou rejeições absurdas de prompts perfeitamente inocentes. Frases como "explique como fazer um bolo de chocolate" e "qual a capital da França?" foram bloqueadas como potencialmente "perigosas". A empresa corrigiu após protestos em massa, mas o episódio gerou memes e zombarias nas redes sociais. O sentimento entre desenvolvedores começou a mudar de "adoração" para "preocupação".
Outubro de 2024 — A cereja do bolo dos tropeços: uma falha no sistema de autenticação expôs metadados de conversas de usuários durante quase 24 horas. Embora a Anthropic tenha sido rápida ao afirmar que nenhum conteúdo das conversas foi comprometido — apenas metadados como timestamps e IDs de sessão — o incidente abalou a confiança. A empresa que se vende como a mais segura e confiável, lembram críticos, simplesmente não pode ter esse tipo de falha.
O dilema do queridinho
O que explica esse fenômeno contraditório? Como uma empresa pode ser, ao mesmo tempo, a mais admirada tecnicamente e a mais descuidada operacionalmente?
Para a analista do setor Carolina Tavares, da consultoria AI Observatory, a resposta está na estratégia de crescimento.
"A Anthropic recebeu investimentos pesados — mais de US 4 bilhões da Amazon e US$ 2 bilhões do Google. Isso gerou uma pressão enorme para lançar rápido, mostrar resultados, provar que o dinheiro está sendo bem usado. O problema é que eles priorizaram a inovação de modelo — que é brilhante — em detrimento da robustez de infraestrutura e de produto. E estão pagando por isso."
Os números mostram uma empresa dividida. De um lado, a adoção de Claude disparou: o tráfego no site Claude.ai cresceu 400% nos últimos seis meses, segundo dados da Similarweb. Integrações com plataformas como Amazon Bedrock e Google Vertex AI trouxeram clientes empresariais de peso. Do outro lado, a taxa de erros reportada por usuários quase triplicou no mesmo período, de acordo com monitoramentos independentes.
A reação dos programadores
A comunidade dev, que tanto abraçou Claude, começa a demonstrar desgaste. Fóruns como o r/ClaudeAI no Reddit, que antes era um espaço de celebração, agora está repleto de relatórios de bugs, comparações desfavoráveis com o ChatGPT e apelos por melhorias.
"Eu ainda uso Claude para tarefas complexas de codificação porque, honestamente, ele é melhor", diz Mendes. "Mas eu não confio mais nele como ferramenta primária. Sempre tenho um plano B. Sempre tenho o ChatGPT aberto na outra aba. Isso não é sustentável."
Pesquisa não científica conduzida pelo perfil @ai__anon no X com 2.500 seguidores mostrou que, perguntados sobre "qual modelo de IA você recomendaria para um amigo desenvolvedor hoje", Claude 3.5 Sonnet perdeu para o GPT-4 em uma margem de 54% a 38%. Em junho, o mesmo levantamento apontava vantagem de 61% para Claude.
"A janela de entusiasmo está se fechando", anota Tavares. "Eles têm talvez mais três meses para acertar a operação antes que o rótulo de 'modelo brilhante mas instável' se torne permanente."
O que vem pela frente
A Anthropic tem uma trégua natural: a OpenAI ainda não lançou o aguardado GPT-5, e o Google Gemini, embora melhorado, não conseguiu o mesmo reconhecimento técnico que Claude conquistou. Mas essa janela não durará para sempre.
A empresa anunciou que dedicará o quarto trimestre de 2024 a "melhorias operacionais significativas". Em comunicado interno vazado para o site The Information, o CEO Dario Amodei teria dito aos funcionários: "Construímos um foguete. Agora precisamos aprender a lançá-lo sem que ele exploda na plataforma."
A pergunta que fica: será que dá tempo? Em um mercado onde confiança é moeda corrente e onde usuários podem migrar com um único clique, a diferença entre "queridinho" e "rejeitado" pode ser tão fina quanto uma linha de código mal escrita.
E a Anthropic, ironicamente, anda cometendo muitos erros de sintaxe.



COMENTÁRIOS