A inteligência artificial nasceu com uma promessa clara: aprender com dados humanos para gerar respostas cada vez melhores.
Textos, imagens, vídeos, códigos — tudo alimentado por conteúdo produzido por pessoas.
Mas agora surge um cenário curioso.
E se, em vez de aprender com humanos, a IA começar a aprender… com outras IAs?
Parece inofensivo.
Mas pode gerar um efeito inesperado.

Um ciclo em que a tecnologia passa a consumir suas próprias criações — e, no processo, pode perder qualidade, precisão e diversidade.
Esse fenômeno já tem até nome em estudos recentes: colapso de modelo.
O chamado colapso de modelo acontece quando sistemas de IA são treinados repetidamente com dados gerados por outras IAs, em vez de dados originais produzidos por humanos.
Na teoria, parece eficiente.
Na prática, pode ser problemático.
Isso porque conteúdos gerados por IA tendem a ser:
- mais padronizados
- menos diversos
- baseados em padrões já existentes
Quando novos modelos aprendem com esse tipo de conteúdo, eles passam a reforçar esses padrões.
E a cada nova geração, o conteúdo pode ficar mais “achatado”.
Menos criativo.
Menos preciso.
Mais repetitivo.
É como fazer uma cópia de uma cópia… de uma cópia.
A qualidade não se mantém
Esse fenômeno se conecta com outra tendência crescente: a explosão de conteúdo gerado por IA na internet.
Artigos, posts, imagens e até vídeos estão sendo produzidos em escala cada vez maior por ferramentas automatizadas.
Isso cria o que alguns especialistas chamam de internet sintética — um ambiente onde uma parte significativa do conteúdo não foi criada por humanos.
O risco é claro.
Se modelos futuros forem treinados com esse tipo de conteúdo, eles podem acabar aprendendo versões distorcidas da realidade.
Menos nuance.
Menos diversidade cultural.
Mais repetição de padrões.
Pesquisas acadêmicas já demonstraram que modelos treinados com dados sintéticos podem sofrer degradação de performance ao longo do tempo.
Entre os efeitos observados estão:
- aumento de erros factuais
- perda de detalhes em respostas
- redução da variedade de linguagem
Empresas de tecnologia já estão atentas a isso.
Organizações como OpenAI, Google e Meta investem em estratégias para garantir que seus modelos continuem sendo treinados com dados de alta qualidade, incluindo conteúdo humano e fontes verificadas.
Imagine uma sala cheia de espelhos.
No início, você vê seu reflexo com clareza.
Mas, à medida que os espelhos começam a refletir outros espelhos, a imagem vai se distorcendo.
Detalhes se perdem.
Formas se repetem.
A realidade fica menos nítida.
Esse é o risco da IA aprendendo com IA.
Ela deixa de refletir o mundo…
E passa a refletir a si mesma.
Aqui está o grande dilema.
Nunca produzimos tanto conteúdo na história.
E, ao mesmo tempo, parte desse conteúdo pode estar enfraquecendo a qualidade do próprio ecossistema digital.
Quanto mais IA gera conteúdo…
Mais esse conteúdo entra na internet.
Mais ele vira dado de treino.
Mais ele influencia novas IAs.
É um ciclo.
E, sem controle, pode ser um ciclo de degradação.
A discussão sobre “IA se devorando” não é um cenário apocalíptico.
Mas é um alerta importante.
Tecnologia não é apenas sobre capacidade de gerar.
É sobre qualidade daquilo que alimenta o sistema.
No fim, a inteligência artificial continua dependendo de algo essencial:
dados humanos, diversos, reais e contextualizados.
Talvez o futuro da IA não dependa apenas de algoritmos mais avançados.
Mas de algo mais simples — e mais difícil de escalar:
conteúdo de qualidade feito por pessoas.
Produção: Lamar Comunicação
Concepção: João Victor
Texto: Jarvis, inteligência artificial da Lamar Comunicação
Revisão e edição: Ketlyn


