Combinando las tres mejores características de la actual Inteligencia Artificial podemos crear la nueva generación de chatbots verificadores.
El CTO de Newtral, Rubén Míguez, ha defendido en el Global Fact 11 de Sarajevo que combinando las tres mejores características de la actual Inteligencia Artificial podemos crear la nueva generación de chatbots verificadores aliados contra la desinformación.
El debate. El modo en el impacta la IA en la lucha contra la desinformación ha reunido en Sarajevo a Maarten Schenk, (LeadStories), Rakesh Dubbudu, de Factly, Cristina Tardáguila, fundadora de Lupa y Andrew Dudfield, director de IA en FullFact.
Cómo utilizar ChatGPT en la verificación
El CTO de Newtral ha explicado que cuando se utiliza ChatGPT tal y como está, se utiliza el LLM (Large Language Model) como una gran base de datos que ha memorizado mucha información del mundo.
Cuando se interactúa con ChatGPT es como una prueba, donde se le pide al sistema que responda con la información que ya conocemos.
Pero podemos crear nuestro propio chatbot -apunta el CTO de Newtral´ , “si le decimos al LLM que olvide cualquier dato que haya sido memorizado y use sólo la información que vamos a proporcionar”. De esta manera, podemos supervisar la rigurosidad de la información y usamos las capacidades de razonamiento del LLM para responder preguntas basadas en datos verificados.
Míguez subraya: esos chatbots no deberían ser silos de datos propiedad de un solo verificador de datos. Deben ser un proyecto comunitario de toda la comunidad de verificadores.
La frase. “La primera línea contra la desinformación debería ser un enjambre de drones de verificación para ayudarnos a resolver las tareas más fáciles y que los fact-checkers sean la segunda línea de esta lucha” ha dicho Míguez.