Seja bem-vindo
Costa Rica,27/04/2026

  • A +
  • A -

Rival põe ChatGPT e Google pra dançar, mas tem avalanche de notícias ruins

BOLSAOINFORMA.COM.BR
Rival põe ChatGPT e Google pra dançar, mas tem avalanche de notícias ruins

São Francisco – Enquanto o mundo acompanha a batalha bilionária entre OpenAI e Google pelos holofotes da inteligência artificial, uma terceira força cresce no silêncio dos servidores e nas entranhas do código. A Anthropic, criadora do assistente Claude, tornou-se nos últimos meses a queridinha de programadores, pesquisadores e entusiastas técnicos. Mas esse abraço apertado do público mais exigente vem acompanhado de uma sequência preocupante de escorregões.

A ascensão silenciosa

Fundada por ex-funcionários da OpenAI em 2021, a Anthropic sempre se posicionou como a alternativa "responsável" e "alinhada" no mundo dos modelos de linguagem. Sua aposta no método de treinamento chamado "IA constitucional" — que utiliza princípios explícitos para guiar o comportamento do modelo — rendeu a Claude uma reputação de mais seguro, menos propenso a alucinações e mais "honesto" do que seus concorrentes.

O mais recente modelo da empresa, o Claude 3.5 Sonnet, lançado em junho deste ano, foi recebido com entusiasmo raro. Em benchmarks de programação, raciocínio e compreensão de contexto — este último com janela de 200 mil tokens, suficiente para processar uma trilogia completa de livros — o modelo superou o GPT-4 em várias métricas.

"A primeira vez que usei Claude 3.5 foi um daqueles momentos 'uau' que não aconteciam desde o GPT-4 original", conta Rafael Mendes, engenheiro de software sênior de uma fintech paulista. "Ele entende código obscuro, sugere refatorações elegantes e ainda explica o raciocínio sem ser pedante. Para quem desenvolve, é outro nível."

Esse sentimento se espalhou como rastilho. No Reddit, no X (ex-Twitter) e em comunidades como Hacker News, Claude passou a ser tratado quase como um segredo bem guardado. Enquanto o ChatGPT se tornava popular entre o público geral, Claude se consolidava como a ferramenta do profissional que sabe exatamente o que quer.

A sucessão de tropeços

Mas o que parecia uma trajetória meteórica começou a mostrar rachaduras.

Julho de 2024 — A Anthropic lança a tão esperada funcionalidade de "Uso de ferramentas" (tool use) para Claude, permitindo que o modelo interaja com APIs e execute ações no mundo real. O lançamento foi ofuscado por uma instabilidade severa. Usuários relataram chamadas que simplesmente não funcionavam, respostas inconsistentes e documentação desatualizada.

"Eles lançaram às pressas para não ficarem para trás da OpenAI, que já tinha isso há meses", critica Camila Oliveira, desenvolvedora de IA em uma startup carioca. "Mas o resultado foi um produto quebrado. Perdi dois dias tentando fazer algo que no ChatGPT funcionou em duas horas."

Agosto de 2024 — O portal de desenvolvedores da Anthropic sofreu uma interrupção de mais de 12 horas em plena semana de pico de uso. A empresa demorou horas para se pronunciar, e a comunicação durante o incidente foi considerada "vaga e pouco tranquilizadora" por clientes corporativos.

Setembro de 2024 — Um bug no sistema de moderação do Claude causou rejeições absurdas de prompts perfeitamente inocentes. Frases como "explique como fazer um bolo de chocolate" e "qual a capital da França?" foram bloqueadas como potencialmente "perigosas". A empresa corrigiu após protestos em massa, mas o episódio gerou memes e zombarias nas redes sociais. O sentimento entre desenvolvedores começou a mudar de "adoração" para "preocupação".

Outubro de 2024 — A cereja do bolo dos tropeços: uma falha no sistema de autenticação expôs metadados de conversas de usuários durante quase 24 horas. Embora a Anthropic tenha sido rápida ao afirmar que nenhum conteúdo das conversas foi comprometido — apenas metadados como timestamps e IDs de sessão — o incidente abalou a confiança. A empresa que se vende como a mais segura e confiável, lembram críticos, simplesmente não pode ter esse tipo de falha.

O dilema do queridinho

O que explica esse fenômeno contraditório? Como uma empresa pode ser, ao mesmo tempo, a mais admirada tecnicamente e a mais descuidada operacionalmente?

Para a analista do setor Carolina Tavares, da consultoria AI Observatory, a resposta está na estratégia de crescimento.

"A Anthropic recebeu investimentos pesados — mais de US7bilho~es,sendoUS 4 bilhões da Amazon e US$ 2 bilhões do Google. Isso gerou uma pressão enorme para lançar rápido, mostrar resultados, provar que o dinheiro está sendo bem usado. O problema é que eles priorizaram a inovação de modelo — que é brilhante — em detrimento da robustez de infraestrutura e de produto. E estão pagando por isso."

Os números mostram uma empresa dividida. De um lado, a adoção de Claude disparou: o tráfego no site Claude.ai cresceu 400% nos últimos seis meses, segundo dados da Similarweb. Integrações com plataformas como Amazon Bedrock e Google Vertex AI trouxeram clientes empresariais de peso. Do outro lado, a taxa de erros reportada por usuários quase triplicou no mesmo período, de acordo com monitoramentos independentes.

A reação dos programadores

A comunidade dev, que tanto abraçou Claude, começa a demonstrar desgaste. Fóruns como o r/ClaudeAI no Reddit, que antes era um espaço de celebração, agora está repleto de relatórios de bugs, comparações desfavoráveis com o ChatGPT e apelos por melhorias.

"Eu ainda uso Claude para tarefas complexas de codificação porque, honestamente, ele é melhor", diz Mendes. "Mas eu não confio mais nele como ferramenta primária. Sempre tenho um plano B. Sempre tenho o ChatGPT aberto na outra aba. Isso não é sustentável."

Pesquisa não científica conduzida pelo perfil @ai__anon no X com 2.500 seguidores mostrou que, perguntados sobre "qual modelo de IA você recomendaria para um amigo desenvolvedor hoje", Claude 3.5 Sonnet perdeu para o GPT-4 em uma margem de 54% a 38%. Em junho, o mesmo levantamento apontava vantagem de 61% para Claude.

"A janela de entusiasmo está se fechando", anota Tavares. "Eles têm talvez mais três meses para acertar a operação antes que o rótulo de 'modelo brilhante mas instável' se torne permanente."

O que vem pela frente

A Anthropic tem uma trégua natural: a OpenAI ainda não lançou o aguardado GPT-5, e o Google Gemini, embora melhorado, não conseguiu o mesmo reconhecimento técnico que Claude conquistou. Mas essa janela não durará para sempre.

A empresa anunciou que dedicará o quarto trimestre de 2024 a "melhorias operacionais significativas". Em comunicado interno vazado para o site The Information, o CEO Dario Amodei teria dito aos funcionários: "Construímos um foguete. Agora precisamos aprender a lançá-lo sem que ele exploda na plataforma."

A pergunta que fica: será que dá tempo? Em um mercado onde confiança é moeda corrente e onde usuários podem migrar com um único clique, a diferença entre "queridinho" e "rejeitado" pode ser tão fina quanto uma linha de código mal escrita.

E a Anthropic, ironicamente, anda cometendo muitos erros de sintaxe.




COMENTÁRIOS

Buscar

Alterar Local

Anuncie Aqui

Escolha abaixo onde deseja anunciar.

Efetue o Login

Recuperar Senha

Baixe o Nosso Aplicativo!

Tenha todas as novidades na palma da sua mão.