in

Estudio revela posibles violaciones de derechos de autor en modelos de IA

Un nuevo estudio sugiere que OpenAI pudo haber utilizado contenido con derechos de autor para entrenar sus modelos de IA.

Estudio sobre derechos de autor en modelos de IA
Un análisis revela posibles infracciones de derechos de autor en la inteligencia artificial.

El contexto de la controversia

En los últimos años, la inteligencia artificial ha avanzado a pasos agigantados, pero este progreso ha traído consigo una serie de controversias legales. Recientemente, un estudio realizado por investigadores de la Universidad de Washington, la Universidad de Copenhague y Stanford ha puesto en tela de juicio las prácticas de OpenAI, la empresa detrás de modelos de IA como GPT-4. Los autores, programadores y otros titulares de derechos han presentado demandas contra OpenAI, acusando a la compañía de utilizar sus obras sin permiso para entrenar sus modelos.

La defensa de uso justo de OpenAI

OpenAI ha defendido su enfoque argumentando que se basa en el concepto de ‘uso justo’, una doctrina legal que permite el uso limitado de material protegido sin necesidad de obtener permiso. Sin embargo, los demandantes sostienen que no existe una excepción en la ley de derechos de autor de EE. UU. que permita el uso de datos de entrenamiento de esta manera. Este debate ha llevado a un examen más profundo de cómo se entrenan estos modelos y qué tipo de datos se utilizan.

Metodología del estudio

El estudio en cuestión propone un nuevo método para identificar los datos de entrenamiento que los modelos de IA, como los de OpenAI, podrían haber ‘memorizado’. Los modelos de IA funcionan como motores de predicción, aprendiendo patrones a partir de grandes volúmenes de datos. Aunque la mayoría de las salidas generadas no son copias literales de los datos de entrenamiento, algunos modelos han sido observados reproduciendo contenido de manera que podría considerarse plagio. Los investigadores utilizaron palabras que ellos llaman ‘de alta sorpresa’, es decir, palabras que son inusuales en el contexto de un texto más amplio, para evaluar si los modelos habían memorizado fragmentos de libros y artículos.

Resultados y hallazgos

Los resultados del estudio revelaron que GPT-4 mostró signos de haber memorizado partes de libros de ficción populares, así como fragmentos de artículos del New York Times, aunque a una tasa menor. Abhilasha Ravichander, una de las autoras del estudio, enfatizó la necesidad de una mayor transparencia en los datos utilizados para entrenar modelos de lenguaje. La investigación sugiere que, para desarrollar modelos de lenguaje confiables, es crucial poder auditar y examinar los datos de entrenamiento de manera científica.

El futuro de la regulación de la IA

OpenAI ha abogado por una regulación más flexible en el uso de datos protegidos por derechos de autor para el desarrollo de modelos de IA. Aunque la empresa ha establecido acuerdos de licencia de contenido y mecanismos de exclusión para que los propietarios de derechos puedan optar por no participar, también ha presionado a varios gobiernos para que codifiquen reglas de ‘uso justo’ en torno a los enfoques de entrenamiento de IA. A medida que la tecnología avanza, la necesidad de un marco legal claro y justo se vuelve cada vez más urgente.

¿Qué piensas?

Microsoft celebra 50 anni con nuove funzioni di Copilot

Microsoft celebra 50 años de innovación con nuevas funciones de Copilot

Incertezza sul futuro di TikTok negli Stati Uniti

La incertidumbre sobre el futuro de TikTok en Estados Unidos