Errores en los resúmenes de noticias redactados por IA

Imagen de Alexandra_Koch en Pixabay
Cuatro chatbots importantes de inteligencia artificial están resumiendo incorrectamente las noticias, según una investigación llevada a cabo por la BBC.
Si ayer hablábamos de la posibilidad de la IA puede llegar a leer mejor algunos textos que los humanos, hoy hablamos de los errores que ya está cometiendo. Según un estudio de la BBC, importantes programas de inteligencia artificial están resumiendo de manera incorrecta las noticias.
Para ver cómo resumían algunas noticias se le dio a ChatGPT de OpenAI, Copilot de Microsoft, Google Gemini y Perplexity contenido del sitio web de la BBC (100 noticias) y luego les hicieron preguntas sobre esas noticias.
Después, periodistas expertos relevantes en el tema de cada artículo calificaron la calidad de las respuestas de los asistentes de IA. Parece ser que las respuestas contenían errores significativos (51%) y distorsiones de tales noticias.
Además, el 19% de las respuestas de IA que citaban contenido de la BBC introdujeron errores claros, como declaraciones de hechos incorrectas, números y fechas equivocados.
En un blog, Deborah Turness, CEO de BBC News y temas de actualidad, ha señalado que la IA ha traído “infinitas oportunidades”, pero que a su vez las compañías que desarrollan tales herramientas estaban “jugando con fuego”, señalando que por ejemplo un titular distorsionado por una IA podría causar un daño significativo en el mundo real.
Turness ha señalado que la BBC estaba tratando establecer conversaciones con los proveedores de tecnología de IA para que puedan trabajar juntos en asociación y así encontrar soluciones a dichos fallos o errores.
Además, pidió a las compañías de tecnología que detengan sus resúmenes de noticias de IA como hizo Apple después de las quejas de la BBC de que Apple Intelligence estaba tergiversando noticias.
Normalmente la BBC bloquea su contenido de los chatbots de IA, pero abrió su sitio web durante la duración de unas pruebas en diciembre de 2024. El informe también señala que, además de contener imprecisiones fácticas, los chatbots “lucharon para diferenciar entre opinión y hecho, editorializados y, a menudo, no incluyeron el contexto esencial”.
El Director del Programa de IA Generativa de la BBC, Pete Archer ha apuntado que los editores deberían tener control sobre si se usa su contenido y cómo se usa ,y las compañías de IA deberían mostrar “cómo los asistentes procesan las noticias junto con la escala y el alcance de errores e inexactitudes que producen”.
Son varios los medios que aportan resúmenes de noticias como un servicio añadido, así es el caso de The Economist. Nos preguntamos si los servicios y apps de resúmenes de libros también caerán en los mismos errores o similares.