El uso generalizado de los grandes modelos del lenguaje o large language models (LLMs) se ha convertido en un desafío para la desinformación. ChatGPT de OpenAI o Gemini de Google, por ejemplo, tienen una gran capacidad de ser útiles para varias tareas, pero también tienden a producir contenido falso, erróneo o engañoso a través de sus alucinaciones, planteando desafíos sobre su potencial para difundir desinformación.
El CTO de Newtral, Rubén Míguez, explora junto a otros expertos los desafíos que esto plantea en un artículo científico recién publicado por Nature Machine Intelligence, una filial de la revista científica Nature, bajo el título Factuality challenges in the era of large language models and opportunities for fact-checking.
Hoja de ruta. Los investigadores apuntan a que, a pesar de los problemas con la precisión factual, los modelos del lenguaje pueden ser útiles para varias subtareas de la verificación, y proponen seguir una hoja de ruta con cuatro elementos:
Soluciones. Además, los autores examinan las soluciones existentes para contrarrestar las alucinaciones y las imprecisiones generadas por los chatbots, así como las posibles perspectivas para el fact-checking. En el artículo han participado académicos e investigadores de 12 universidades de Estados Unidos, Europa, Asia y Oriente Medio, miembros de las organizaciones de fact-checking Full Fact, Pagella Politica y Newtral, y un experto de Meta.