Por Redação OneBitNews
...
inteligencia-artificial

ChatGPT 5.2 inquieta especialistas ao citar enciclopédia de IA

Novo modelo do ChatGPT recorre à Grokipedia, levantando questões sobre precisão e viés, uso de fontes automatizadas preocupa desinformacionistas.

inteligencia-artificial, desinformacao, chatbots, fontes-de-informacao

O lançamento do modelo GPT-5.2 do ChatGPT trouxe à tona uma questão intrigante e, possivelmente, problematizadora. Em uma série de testes realizados por diferentes órgãos de imprensa, descobriu-se que o chatbot de inteligência artificial agora cita a Grokipedia como fonte em suas respostas, especialmente sobre tópicos menos conhecidos como a estrutura política iraniana ou perfis de figuras históricas. A Grokipedia, uma criação da empresa xAI, fundada por Elon Musk, entrou em operação em 2025 e se apresenta como uma alternativa à tradicional Wikipedia, gerando conteúdo através de algoritmos de inteligência artificial ao invés de depender de editores voluntários. Com seu funcionamento automatizado, ela já foi criticada por especialistas em desinformação devido a incidentes envolvendo a propagação de conteúdos imprecisos e, em alguns casos, alinhados a narrativas controversas.

A utilização dessa enciclopédia pelo GPT-5.2 levanta sérias preocupações sobre a disseminação de informações enviesadas e a dificuldade em distinguir viés de treinamento de fatos concretos. Pesquisadores alertam que fontes geradas por IA, como a Grokipedia, podem sem querer aumentar a credibilidade de informações que carecem do rígido processo de verificação e curadoria humana. Enquanto representa uma inovação em termos de eficiência na geração e compartilha de dados, a inclusão da Grokipedia como fonte no repertório do ChatGPT acende um sinal de alerta sobre a forma como grandes modelos de inteligência artificial estão selecionando e classificando suas fontes, particularmente em respostas a perguntas complexas que demandam mais do que o simples acúmulo de informações.

Em contrapartida, a OpenAI, responsável pela criação do ChatGPT, afirma que seus modelos têm sido desenhados para incluir uma diversidade de fontes públicas confiáveis e que mecanismos de segurança são empregados para mitigar riscos de informações com potenciais danos. Contudo, a reação da comunidade de especialistas sugere que, enquanto a inclusão de sistemas informatizados automatizados pode agilizar a disponibilidade de dados, também requer um olhar crítico para evitar que desinformação se dissemine inadvertidamente.

#inteligencia-artificial#desinformacao#chatbots#fontes-de-informacao
Ajude nosso trabalho e compartilhe
Continue lendo

RELACIONADOS