in

Google y la transparencia en la evaluación de la seguridad de la IA

La reciente evaluación de seguridad de Google genera dudas sobre su compromiso con la transparencia

Evaluación de la seguridad de la IA por Google
Descubre cómo Google promueve la transparencia en la IA.

En un contexto donde la inteligencia artificial (IA) avanza a pasos agigantados, la seguridad y la transparencia en la evaluación de estos modelos se han convertido en temas cruciales. Recientemente, Google publicó un informe técnico sobre su modelo de IA más potente hasta la fecha, Gemini 2.5 Pro. Sin embargo, este informe ha sido objeto de críticas por su falta de detalles, lo que ha llevado a expertos a cuestionar los riesgos potenciales que podría presentar el modelo.

La importancia de los informes técnicos en la IA

Los informes técnicos son herramientas valiosas que ofrecen información sobre la seguridad y el rendimiento de los modelos de IA. Sin embargo, a menudo contienen datos que las empresas prefieren no hacer públicos. La comunidad de IA generalmente considera estos informes como esfuerzos de buena fe para apoyar la investigación independiente y las evaluaciones de seguridad. A pesar de esto, la reciente publicación de Google ha dejado a muchos expertos insatisfechos, ya que no menciona el Marco de Seguridad Frontier (FSF) de la compañía, introducido el año pasado para identificar capacidades futuras de IA que podrían causar daños severos.

Críticas a la falta de información en el informe de Gemini 2.5 Pro

Expertos como Peter Wildeford, cofundador del Instituto para la Política y Estrategia de IA, han expresado su decepción por la escasez de información en el informe de Gemini 2.5 Pro. Wildeford señala que la falta de detalles dificulta la verificación del cumplimiento de Google con sus compromisos públicos en materia de seguridad. Además, Thomas Woodside, cofundador del Proyecto de IA Segura, ha manifestado su preocupación por la falta de informes oportunos sobre las evaluaciones de seguridad de los modelos de IA de Google.

Desafíos en la transparencia de la IA

A pesar de ser uno de los primeros laboratorios de IA en proponer informes estandarizados, Google no es el único que ha sido acusado de falta de transparencia. Otras empresas, como Meta y OpenAI, también han sido criticadas por la escasez de información en sus evaluaciones de seguridad. Esta tendencia ha llevado a expertos a calificarla como una «carrera hacia el fondo» en términos de seguridad de la IA. Kevin Bankston, asesor senior en gobernanza de IA, ha destacado que la falta de documentación adecuada para los modelos de IA de Google plantea serias preocupaciones sobre la seguridad y la transparencia en el mercado.

Compromisos de Google con la seguridad de la IA

A pesar de las críticas, Google ha afirmado que realiza pruebas de seguridad y «red teaming» adversarial antes del lanzamiento de sus modelos. Sin embargo, la falta de informes detallados y oportunos ha generado dudas sobre la efectividad de estas evaluaciones. La presión para lanzar modelos de IA al mercado rápidamente puede comprometer la seguridad y la transparencia, lo que plantea un dilema ético para las empresas tecnológicas.

¿Qué piensas?

Immagine del nuovo gioco di parole sportivo del NYT

Descubre el nuevo juego de palabras de deportes de The New York Times

Gráfico sobre la filtración de datos en LSC afectando a millones

Filtración de datos en LSC afecta a 1.6 millones de personas