Newtral: usar la IA para combatir la desinformación en las plataformas
Proyecto: FactFlow AI
Tamaño del medio: 51 - 100
Solución: Una herramienta impulsada por IA que detecta desinformación en Telegram, ofreciendo a los chequeadores información en tiempo real y alertas personalizadas para abordar riesgos emergentes de desinformación.
Newtral es una organización española dedicada al periodismo, la verificación de datos y el fact-checking. Hace años que experimenta con inteligencia artificial para detectar desinformación en el discurso político. Sin embargo, pronto identificaron un cambio de escenario: los canales usados para la desinformación política estaban evolucionando. El contenido falso no solo provenía de entrevistas a líderes u otros espacios políticos, sino que se habían trasladado a las redes sociales. Descubrieron que mucha desinformación se viralizaba en redes antes de ser verificada, provocando una reacción en cadena de desinformación pública.
El problema: verificar desinformación en redes sociales
Uno de los principales desafíos que enfrentaba Newtral al verificar información en redes fue la magnitud de la desinformación en plataformas semiprivadas como Telegram. El volumen era tan grande que la verificación manual se volvía una tarea interminable.
“Por ejemplo, aquí en España tuvimos una catástrofe natural en Valencia en octubre de 2024. Hubo mucha desinformación sobre este evento, especialmente en Telegram. Nuestros verificadores pudieron desmentir algunos de los mensajes siguiendo ciertos canales. Pero la ola de desinformación fue tan grande que muchas personas comenzaron a creer información falsa. Queríamos evitar que situaciones así crecieran aún más”, explicó Sara Estevez, ingeniera en PLN e ingeniera de prompts en Newtral.
Para ayudar al equipo a responder a estos desafíos, los ingenieros de Newtral decidieron incorporar IA y desarrollar una herramienta nueva: FactFlow AI.
Construcción de la solución: cómo funciona FactFlow AI
FactFlow AI fue diseñada para ser utilizada por organizaciones de verificación, incluyendo Newtral y otras, con el fin de acelerar la detección de desinformación en Telegram. El panel de control de FactFlow AI permite a las organizaciones acceder y monitorear posibles contenidos falsos, verificar información y visualizar qué narrativas ya han sido verificadas. También ofrece la posibilidad de personalizar y seguir diferentes canales.
Según Estevez, la idea de permitir la personalización es hacer que la herramienta sea “modular” y ofrecer a los verificadores “un entorno que realmente puedan usar en su trabajo diario”.
FactFlow AI se encuentra actualmente en fase de pruebas internas en Newtral y estará disponible para otros equipos de verificación en los próximos meses. Durante esta etapa, el equipo recibió varias solicitudes para incorporar nuevas funciones.
“Esto surgió a partir de la retroalimentación del equipo, porque inicialmente solo veían mensajes potencialmente falsos de Telegram. Aunque era útil, también querían saber si algunos de esos mensajes ya habían sido verificados. Los chequeadores también anotaron datos para entrenar los modelos de IA, por lo que su participación fue siempre parte del proceso. El fine tuning de los modelos se hizo bajo los criterios definidos por los propios verificadores”, añadió Estevez.
Las oportunidades: iterar sobre la tecnología
FactFlow aplica inteligencia artificial con tres propósitos principales: 1) identificación automática de canales sospechosos, 2) detección de posibles mensajes de desinformación, y 3) agrupamiento de contenidos relacionados.
“El objetivo era que nuestros modelos tuvieran capacidad de razonamiento y fueran generativos, pero entrenar uno desde cero estaba fuera de nuestro alcance. Por eso optamos por ajustar un modelo ya existente y adaptarlo a nuestra tarea”, explicó Estevez.
Comenzaron utilizando el modelo Phi 3.5 Mini Instruct de Microsoft. “Funcionaba bien, pero en los últimos meses aparecieron los modelos de código abierto Qwen, que mostraron un mejor rendimiento en nuestros paneles”, señaló Estevez.
Esto llevó al equipo a adoptar Qwen, que ofrecía mejores resultados. “No usamos modelos cerrados como los de OpenAI en este proyecto”, aclaró.
La infraestructura tecnológica incluye múltiples bases de datos estructurales. “Tenemos los datos de Telegram en una base grande, luego los limpiamos y los trasladamos a otra. Después generamos embeddings de esos datos para realizar la comparación de afirmaciones. Manejamos distintas bases con diferentes tipos de información”, explicó.
El equipo y los desafíos enfrentados
El desarrollo del proyecto no estuvo exento de dificultades: garantizar que el modelo de IA funcionara “lo suficientemente bien” sin sesgos, realizar la mayor cantidad posible de anotaciones para mejorar su desempeño y definir de qué canales específicos de Telegram extraer datos.
“Seleccionar esos canales al principio fue difícil. El trabajo más duro lo hicieron los verificadores, eligiendo cuáles tenían potencial de desinformación, y eso fue clave para nosotros”, agregó Estevez.
El equipo de FactFlow AI se organizó en tres áreas. La primera consistió en armar un equipo de IA encargado de desarrollar, ajustar y seleccionar los datos para la anotación. En segundo lugar, se conformó un equipo de verificadores responsable de anotar datos, probar el sistema y ofrecer retroalimentación. “Ellos fueron quienes confirmaron que el proceso siguiera criterios de verificación y estuviera correctamente implementado”, explicó Estevez.
Además, contaron con apoyo del equipo de desarrollo de software y una jefa de proyecto, Diana Cid, quien gestionó la coordinación general.
Para garantizar la colaboración entre departamentos, establecieron plazos estrictos y reuniones periódicas. “Teníamos encuentros cada semana o cada dos semanas para asegurarnos de cumplir con los tiempos. Fue fundamental coordinar con el resto de nuestras tareas diarias”, señaló Estevez.
Otro reto fue el soporte multilingüe. FactFlow detecta desinformación basándose en la presencia de “patrones de desinformación”, es decir, rasgos lingüísticos frecuentes en la propagación de falsedades. Como el modelo original fue entrenado en español, su rendimiento es superior en idiomas similares como el italiano o el portugués, pero menor en lenguas como el ruso o el armenio.
El equipo espera colaborar con verificadores de otros países para mejorar las capacidades de FactFlow, y planea incorporar próximamente una función de desmentido automático dentro de la herramienta.
Lecciones para las redacciones
La experiencia de Newtral, desde la recopilación de datos hasta la detección automatizada de desinformación, ofrece aprendizajes relevantes para otros medios:
Iterar y adaptarse con rapidez: explorar distintos modelos de IA y tecnologías, y estar dispuestos a cambiar de enfoque cuando una alternativa muestre mejores resultados. La iteración rápida es esencial para implementar IA de manera efectiva.
Colaboración interdisciplinaria como ventaja: fomentar la cooperación interna entre equipos técnicos y periodísticos. En el caso de Newtral, esta colaboración permitió diseñar herramientas útiles para los verificadores y asegurar un enfoque ético centrado en el usuario final.
Explore Previous Grantees Journeys
Find our 2024 Innovation Challenge grantees, their journeys and the outcomes here. This grantmaking programme enabled 35 news organisations around the world to experiment and implement solutions to enhance and improve journalistic systems and processes using AI technologies.
The JournalismAI Innovation Challenge, supported by the Google News Initiative, is organised by the JournalismAI team at Polis – the journalism think-tank at the London School of Economics and Political Science, and it is powered by the Google News Initiative.
