in

OpenAI implementa un sistema de monitoreo para modelos de IA avanzados

La compañía refuerza la seguridad de sus modelos o3 y o4-mini ante riesgos biológicos y químicos.

OpenAI implementa un sistema di monitoraggio per IA
Scopri come OpenAI monitora i modelli di IA avanzati.

Introducción a la seguridad en la inteligencia artificial

En un mundo donde la inteligencia artificial (IA) avanza a pasos agigantados, la seguridad se convierte en una prioridad fundamental. OpenAI, una de las empresas líderes en el desarrollo de modelos de IA, ha tomado medidas significativas para garantizar que sus sistemas no sean utilizados para fines dañinos. Recientemente, la compañía anunció la implementación de un nuevo sistema de monitoreo para sus modelos o3 y o4-mini, diseñado específicamente para abordar riesgos relacionados con amenazas biológicas y químicas.

Características del nuevo sistema de monitoreo

El sistema de monitoreo de OpenAI tiene como objetivo prevenir que sus modelos ofrezcan asesoramiento que pueda ser utilizado para llevar a cabo ataques potencialmente perjudiciales. Según el informe de seguridad de OpenAI, este sistema actúa como un «monitor de razonamiento enfocado en la seguridad», que se ejecuta sobre los modelos o3 y o4-mini. Este monitor ha sido entrenado para identificar solicitudes relacionadas con riesgos biológicos y químicos, instruyendo a los modelos para que se nieguen a proporcionar consejos sobre esos temas.

Resultados de las pruebas de seguridad

Para establecer una línea base de seguridad, OpenAI dedicó aproximadamente 1,000 horas a que un equipo de expertos identificara conversaciones «inseguras» relacionadas con bioriesgos en sus modelos. Durante las pruebas, se simuló la lógica de bloqueo del monitor de seguridad, y los modelos se negaron a responder a solicitudes riesgosas en un 98.7% de los casos. Sin embargo, OpenAI reconoce que este test no tuvo en cuenta a los usuarios que podrían intentar nuevas solicitudes después de ser bloqueados, lo que subraya la necesidad de un monitoreo humano continuo.

Desafíos y preocupaciones en la implementación

A pesar de los esfuerzos de OpenAI, algunos investigadores han expresado preocupaciones sobre si la compañía está priorizando la seguridad de manera adecuada. Un socio de red team de OpenAI, Metr, mencionó que tuvo poco tiempo para probar el modelo o3 en un benchmark de comportamiento engañoso. Además, OpenAI decidió no publicar un informe de seguridad para su modelo GPT-4.1, lo que ha generado inquietudes sobre la transparencia de sus procesos de seguridad.

El futuro de la seguridad en la IA

OpenAI continúa rastreando cómo sus modelos podrían facilitar a los usuarios malintencionados el desarrollo de amenazas químicas y biológicas. La compañía está cada vez más confiando en sistemas automatizados para mitigar los riesgos asociados con sus modelos. Por ejemplo, para evitar que el generador de imágenes nativo de GPT-4o produzca material de abuso sexual infantil, OpenAI utiliza un monitor de razonamiento similar al que se implementó para o3 y o4-mini. Estos esfuerzos son cruciales para asegurar que la IA se utilice de manera responsable y segura en el futuro.

¿Qué piensas?

Screenshot delle nuove funzioni di Google Gemini Live

Google Gemini Live: nuevas funciones de video y compartición de pantalla

Luna, il cane robot che apprende come un essere umano

Luna: el perro robot que aprende como un ser humano