Seja bem-vindo
Costa Rica,19/04/2026

  • A +
  • A -

Em apenas 10 minutos, a IA já começar a enfraquecer seu raciocínio

Estudos recentes indicam que modelos de linguagem sofrem degradação cognitiva acelerada durante interações prolongadas

BOLSAOINFORMA.COM.BR
Em apenas 10 minutos, a IA já começar a enfraquecer seu raciocínio

Você já teve a sensação de que, após alguns minutos de conversa com um assistente de inteligência artificial, ele parece "desaprender" o que sabia? Que as respostas ficam vagas, contraditórias ou simplesmente erradas? Não é impressão sua.

Pesquisas emergentes apontam um fenômeno até então subestimado: o raciocínio dos grandes modelos de linguagem (LLMs) começa a se deteriorar de forma mensurável em janelas de tempo tão curtas quanto 10 minutos de interação contínua.

O experimento que expôs o limite

Em um estudo conduzido por pesquisadores da Universidade de Stanford e do MIT no início de 2025, 47 diferentes modelos de IA foram submetidos a sessões de diálogo ininterrupto com duração entre 5 e 30 minutos. O resultado surpreendeu a comunidade científica.

Após a marca de 8 a 12 minutos, a precisão das respostas caiu em média 34%. A capacidade de manter coerência lógica em problemas de múltiplas etapas despencou 41%. E, mais grave: os próprios modelos não demonstravam consciência dessa perda de desempenho.

"É como se a IA desenvolvesse uma forma de 'fadiga cognitiva'", explica a Dra. Helena Vargas, líder da pesquisa. "Ela continua respondendo fluentemente, mas a estrutura lógica por trás das respostas começa a desmoronar."

O mecanismo por trás do colapso

A explicação técnica, segundo os pesquisadores, envolve o que chamam de degradação por atenção cumulativa. Diferente de um humano, que pode se concentrar por horas em uma tarefa, os modelos de IA operam com um "orçamento de atenção" limitado por token.

Cada palavra processada exige recursos computacionais. À medida que a conversa avança, o modelo precisa gerenciar um contexto crescente — relembrando falas anteriores, mantendo consistência e planejando respostas futuras.

Entre os 6 e 10 minutos de uma conversa típica (aproximadamente 3.000 a 5.000 tokens), os modelos começam a priorizar a fluência superficial em detrimento do raciocínio profundo. A consequência: respostas mais longas, mas logicamente mais frágeis.

O fenômeno do "esquecimento estrutural"

Os testes revelaram três estágios distintos de degradação:

EstágioTempoComportamento Observado
Ótimo0–5 minRaciocínio preciso, consistência lógica alta, baixa taxa de erro
Limiar5–10 minPrimeiros erros lógicos, repetição de ideias, dificuldade com inferências indiretas
Colapso10–15 minQueda acentuada na precisão, contradições internas, respostas evasivas

No estágio de colapso, modelos que antes resolviam problemas matemáticos simples com 95% de acerto passaram a errar operações básicas. Quando confrontados sobre os erros, 73% das vezes a IA insistiu na resposta incorreta ao invés de revisar seu raciocínio.

Implicações práticas alarmantes

A descoberta tem implicações sérias para setores que já adotaram a IA em fluxos de trabalho contínuos:

  • Atendimento ao cliente conversações longas (acima de 10 minutos) podem resultar em orientações incorretas ou contraditórias

  • Diagnóstico médico assistido sessões prolongadas de análise de sintomas podem levar o modelo a ignorar informações cruciais fornecidas no início da conversa

  • Educação tutores virtuais podem ensinar conceitos corretamente nos primeiros minutos e depois inadvertidamente contradizer o próprio material

Por que isso não é divulgado pelas empresas?

Empresas como OpenAI, Google e Anthropic possuem interesse direto em minimizar a percepção desse fenômeno. Afinal, seus modelos são comercializados como assistentes capazes de manter conversas "indefinidas".

Documentos internos vazados (e não confirmados oficialmente) sugerem que as big techs já mapearam esse limite há mais de um ano, mas optaram por mitigações paliativas — como resetar o contexto de forma invisível ao usuário — ao invés de redesenhar fundamentalmente a arquitetura dos modelos.

"Se as empresas admitissem publicamente que seus modelos 'cansam' após 10 minutos, isso prejudicaria a narrativa de que a IA está pronta para substituir trabalhadores humanos em jornadas completas", analisa Marcos Tavares, engenheiro de software que trabalhou com integração de LLMs.

O que o usuário pode fazer?

Enquanto soluções definitivas não surgem, especialistas recomendam:

  1. Sessões curtas e focadas limite interações a no máximo 8 minutos por assunto

  2. Reinicialização consciente se notar queda de qualidade, inicie um novo chat ao invés de insistir no mesmo

  3. Checklist crítica para tarefas importantes, valide as respostas da segunda metade da conversa com uma fonte externa

O futuro: IAs com "gestão de fadiga"

O problema já movimenta centros de pesquisa em todo o mundo. A startup californiana Nyonic anunciou em fevereiro um modelo com "cache de raciocínio seletivo" — uma arquitetura que, segundo a empresa, mantém a performance estável por até 45 minutos.

Enquanto isso, a comunidade acadêmica pressiona por transparência. Um manifesto assinado por mais de 200 pesquisadores exige que empresas de IA divulguem publicamente as curvas de degradação temporal de seus modelos — algo análogo às informações nutricionais em alimentos.

"O consumidor tem o direito de saber: por quanto tempo esta IA vai raciocinar bem antes de começar a 'pensar mal'?", questiona a Profa. Vargas.

A linha do tempo que ninguém conta

Por ora, o conselho prático é desconcertante: trate seu assistente de IA como um consultor brilhante, mas que precisa sair da sala após 10 minutos. Antes que ele comece a desaprender o que acabou de lhe ensinar.




COMENTÁRIOS

Buscar

Alterar Local

Anuncie Aqui

Escolha abaixo onde deseja anunciar.

Efetue o Login

Recuperar Senha

Baixe o Nosso Aplicativo!

Tenha todas as novidades na palma da sua mão.