A Inteligência Artificial (IA) vem transformando o modo como humanos produzem, pesquisam e interagem com o conhecimento. Porém, um novo estudo publicado em julho de 2025 na prestigiada revista Anais da Academia Nacional de Ciências dos Estados Unidos (PNAS) acende um alerta: as IAs estão sendo treinadas para privilegiar textos gerados por outras IAs, em detrimento aos conteúdos produzidos por pessoas.
De acordo com os pesquisadores, ferramentas como GPT-3.5, GPT-4, Llama-3, Mixtral e Qwen demonstraram um comportamento curioso: ao serem expostas a textos humanos e textos de IA, elas tendem a escolher as produções artificiais como “melhores” ou mais adequadas.
O funcionamento dos modelos de linguagem
Os chamados Modelos de Linguagem de Grande Porte (LLMs, na sigla em inglês) são o coração das ferramentas de IA generativa. Eles aprendem a partir de enormes volumes de dados — livros, artigos, sites e conversas — identificando padrões de como as palavras se conectam. Assim, conseguem gerar respostas com fluidez e coerência semelhantes à linguagem humana.
O experimento
O estudo comparou textos produzidos por humanos e IAs em três categorias: descrições de produtos, resumos de artigos científicos e sinopses de filmes. Cada par de textos (um humano e um de IA) foi apresentado novamente às próprias ferramentas, que deveriam escolher qual era o “melhor”.
Em todos os casos, os modelos apresentaram uma tendência clara: preferiram os textos criados por outras IAs.
Um comportamento “anti-humano”
Os pesquisadores classificaram esse resultado como um “viés de preferência por IA”, que pode distorcer a forma como essas ferramentas classificam, priorizam ou replicam informações. Na prática, isso significa que, em contextos automatizados, conteúdos humanos podem ter menos visibilidade.
E o que dizem os humanos?
O estudo também contou com um grupo de 13 avaliadores humanos que compararam textos sem saber sua origem. Os resultados mostraram que os avaliadores humanos preferem com menos frequência os textos gerados por IA.
Apesar de a amostra humana ser considerada pequena, os cientistas alertam que a diferença nas preferências reforça a necessidade de novas pesquisas sobre como esses sistemas influenciam a comunicação digital.
Impactos e reflexões
O fenômeno levanta uma série de debates éticos e sociais. Se as IAs passam a priorizar outras IAs, há o risco de um “ecossistema fechado”, no qual as máquinas se retroalimentam, reduzindo a diversidade e autenticidade do conteúdo digital.
Para os pesquisadores, o desafio agora é ajustar os algoritmos para garantir maior equilíbrio e imparcialidade nas interações entre humanos e máquinas.
Jornal da Chapada














































