
Resumo
- O relatório “Education Accord” de Terra Nova e Labrador, no Canadá, cita pelo menos 15 fontes inexistentes, incluindo um filme fictício chamado “Schoolyard Games”.
- Suspeita-se que a IA tenha sido usada na elaboração do documento, uma vez que modelos de linguagem podem criar informações falsas.
- Especialistas expressam preocupações sobre a confiabilidade do documento devido às citações inventadas.
Um relatório sobre planos educacionais do governo de Terra Nova e Labrador, no Canadá, gerou polêmica. Isso acontece porque ele cita pelo menos 15 fontes que não existem, levantando suspeitas de que ferramentas de inteligência artificial foram utilizadas na sua elaboração.
O documento, intitulado “Education Accord”, possui mais de 400 páginas e levou 18 meses para ser desenvolvido. Ironicamente, entre suas sugestões de medidas pedagógicas, está a capacitação de alunos e educadores em “conhecimentos básicos de IA, incluindo ética, privacidade de dados e uso responsável da tecnologia”.
Quais são as fontes falsas no documento?
Uma das fontes citadas é um filme da National Film Board do Canadá chamado “Schoolyard Games”. Entretanto, esse filme não existe. Na verdade, ele é mencionado em um guia de escrita da Universidade de Vitória como um exemplo fictício, utilizado para ensinar a formatar citações corretamente.

Aaron Tucker, professor assistente da Universidade Memorial de Terra Nova, afirmou não ter conseguido encontrar diversas fontes citadas, mesmo utilizando o Google e bibliotecas acadêmicas. Segundo ele, “inventar fontes é um sinal claro do uso de inteligência artificial”.
Por que as fontes falsas levantam suspeitas sobre o uso de IA?
Apesar de sua habilidade na escrita, os chatbots de IA podem “alucinar”. Esse termo se refere ao fenômeno em que um robô gera resultados coerentes, mas falsos. Um exemplo comum é a invenção de informações, especialmente ao citar obras como livros, artigos, filmes e outros.
A IA generativa utiliza modelos de linguagem em larga escala (LLMs), os quais aprendem padrões a partir de grandes volumes de texto. No entanto, esses modelos nem sempre conseguem verificar se uma informação é verdadeira.
Ao solicitar à IA que liste artigos científicos, por exemplo, ela pode criar títulos fictícios que parecem reais, mas não existem. Esse problema não atinge apenas o meio acadêmico; também interfere em tarefas jurídicas, onde a IA pode “fabricar” referências legais.
Josh Lepawsky, professor que presidiu o conselho consultivo para a elaboração do documento, destacou que “erros são comuns, mas criar citações inventadas prejudica totalmente a confiabilidade do material”.
Karen Goodnough, professora da Universidade Memorial de Terra Nova e responsável pelo projeto, informou à CBC News que seu grupo está atualmente verificando as referências.
Com informações da CBC News e do Ars Technica
Por que importa
- Alertar sobre os riscos da utilização indiscriminada de inteligência artificial em documentos oficiais.
- Incentivar a investigação e verificação de fontes em trabalhos acadêmicos e relatórios.
- Destacar a importância de manter a integridade e a confiabilidade da informação no contexto educacional.
Fonte: tecnoblog.net