ChatGPT 5.2 inquieta especialistas ao citar enciclopédia de IA
Novo modelo do ChatGPT recorre à Grokipedia, levantando questões sobre precisão e viés, uso de fontes automatizadas preocupa desinformacionistas.

O lançamento do modelo GPT-5.2 do ChatGPT trouxe à tona uma questão intrigante e, possivelmente, problematizadora. Em uma série de testes realizados por diferentes órgãos de imprensa, descobriu-se que o chatbot de inteligência artificial agora cita a Grokipedia como fonte em suas respostas, especialmente sobre tópicos menos conhecidos como a estrutura política iraniana ou perfis de figuras históricas. A Grokipedia, uma criação da empresa xAI, fundada por Elon Musk, entrou em operação em 2025 e se apresenta como uma alternativa à tradicional Wikipedia, gerando conteúdo através de algoritmos de inteligência artificial ao invés de depender de editores voluntários. Com seu funcionamento automatizado, ela já foi criticada por especialistas em desinformação devido a incidentes envolvendo a propagação de conteúdos imprecisos e, em alguns casos, alinhados a narrativas controversas.
A utilização dessa enciclopédia pelo GPT-5.2 levanta sérias preocupações sobre a disseminação de informações enviesadas e a dificuldade em distinguir viés de treinamento de fatos concretos. Pesquisadores alertam que fontes geradas por IA, como a Grokipedia, podem sem querer aumentar a credibilidade de informações que carecem do rígido processo de verificação e curadoria humana. Enquanto representa uma inovação em termos de eficiência na geração e compartilha de dados, a inclusão da Grokipedia como fonte no repertório do ChatGPT acende um sinal de alerta sobre a forma como grandes modelos de inteligência artificial estão selecionando e classificando suas fontes, particularmente em respostas a perguntas complexas que demandam mais do que o simples acúmulo de informações.
Em contrapartida, a OpenAI, responsável pela criação do ChatGPT, afirma que seus modelos têm sido desenhados para incluir uma diversidade de fontes públicas confiáveis e que mecanismos de segurança são empregados para mitigar riscos de informações com potenciais danos. Contudo, a reação da comunidade de especialistas sugere que, enquanto a inclusão de sistemas informatizados automatizados pode agilizar a disponibilidade de dados, também requer um olhar crítico para evitar que desinformação se dissemine inadvertidamente.

Empresas tecnológicas negociam um aporte coletivo de US$ 60 bilhões na OpenAI, o que pode transformar a paisagem da inteligência artificial.

SoftBank negocia injeção de US$ 30 bilhões na OpenAI, ampliando guerra de investimentos em IA, aposta bilionária destaca corrida feroz no setor.

OpenAI aposta alto na monetização do ChatGPT com CPM superior ao do Meta, uma estratégia que muda o jogo publicitário na IA.