En un mundo donde la inteligencia artificial (IA) está revolucionando la forma en que consumimos y producimos información, surge una preocupación significativa sobre la precisión de las citas generadas por estas herramientas. Un estudio reciente del Tow Center for Digital Journalism ha puesto de manifiesto las deficiencias de ChatGPT, un popular chatbot de IA, en la identificación y representación precisa de las fuentes de información.
Este análisis se centra en cómo estas inexactitudes pueden afectar a los editores y a la integridad del periodismo.
La investigación y sus hallazgos
El estudio, realizado por investigadores de la Escuela de Periodismo de Columbia, examinó las citas producidas por ChatGPT al solicitarle que identificara las fuentes de citas extraídas de diversos editores. Se analizaron 200 citas de 20 editores seleccionados al azar, incluyendo medios de renombre como The New York Times y The Washington Post. Los resultados fueron alarmantes: independientemente de su relación con OpenAI, los editores no pudieron escapar de las representaciones inexactas de su contenido.
Los investigadores encontraron que, aunque ChatGPT a veces proporcionaba citas correctas, también había numerosos casos de citas incorrectas y una variabilidad preocupante en las respuestas. Esto plantea serias dudas sobre la fiabilidad de las herramientas de IA en la producción de contenido informativo, especialmente en un entorno donde la precisión es crucial.
Implicaciones para los editores
Las implicaciones de estos hallazgos son profundas. Para los editores, la posibilidad de que su contenido sea citado incorrectamente no solo afecta su reputación, sino que también puede desviar tráfico a fuentes no autorizadas. La falta de transparencia de ChatGPT sobre su confianza en las respuestas genera confusión entre los usuarios, quienes pueden no ser capaces de discernir la validez de la información presentada.
Además, el estudio sugiere que la IA podría estar, inadvertidamente, fomentando el plagio. En un caso, ChatGPT citó incorrectamente a un sitio web que había plagiado un artículo del New York Times, lo que plantea preguntas sobre la capacidad de OpenAI para filtrar y validar la calidad de sus fuentes de datos.
El futuro de la citación en el periodismo
A medida que más editores firman acuerdos con OpenAI, la expectativa de un tratamiento preferencial en términos de precisión de citas parece no cumplirse. La investigación indica que incluso aquellos que permiten que los rastreadores de OpenAI accedan a su contenido no están garantizados de recibir una representación precisa. Esto sugiere que la tecnología de OpenAI trata el periodismo como contenido descontextualizado, ignorando las circunstancias de su producción original.
La variabilidad en las respuestas de ChatGPT también es un punto de preocupación. Al realizar la misma consulta varias veces, los investigadores encontraron que el chatbot ofrecía respuestas diferentes en cada ocasión, lo que es problemático cuando se busca precisión en la citación. En un entorno donde la confianza en la información es esencial, esta inconsistencia es inaceptable.