El contexto de la controversia
En los últimos años, la inteligencia artificial ha avanzado a pasos agigantados, pero este progreso ha traído consigo una serie de controversias legales. Recientemente, un estudio realizado por investigadores de la Universidad de Washington, la Universidad de Copenhague y Stanford ha puesto en tela de juicio las prácticas de OpenAI, la empresa detrás de modelos de IA como GPT-4. Los autores, programadores y otros titulares de derechos han presentado demandas contra OpenAI, acusando a la compañía de utilizar sus obras sin permiso para entrenar sus modelos.
La defensa de uso justo de OpenAI
OpenAI ha defendido su enfoque argumentando que se basa en el concepto de ‘uso justo’, una doctrina legal que permite el uso limitado de material protegido sin necesidad de obtener permiso. Sin embargo, los demandantes sostienen que no existe una excepción en la ley de derechos de autor de EE. UU. que permita el uso de datos de entrenamiento de esta manera. Este debate ha llevado a un examen más profundo de cómo se entrenan estos modelos y qué tipo de datos se utilizan.
Metodología del estudio
El estudio en cuestión propone un nuevo método para identificar los datos de entrenamiento que los modelos de IA, como los de OpenAI, podrían haber ‘memorizado’. Los modelos de IA funcionan como motores de predicción, aprendiendo patrones a partir de grandes volúmenes de datos. Aunque la mayoría de las salidas generadas no son copias literales de los datos de entrenamiento, algunos modelos han sido observados reproduciendo contenido de manera que podría considerarse plagio. Los investigadores utilizaron palabras que ellos llaman ‘de alta sorpresa’, es decir, palabras que son inusuales en el contexto de un texto más amplio, para evaluar si los modelos habían memorizado fragmentos de libros y artículos.
Resultados y hallazgos
Los resultados del estudio revelaron que GPT-4 mostró signos de haber memorizado partes de libros de ficción populares, así como fragmentos de artículos del New York Times, aunque a una tasa menor. Abhilasha Ravichander, una de las autoras del estudio, enfatizó la necesidad de una mayor transparencia en los datos utilizados para entrenar modelos de lenguaje. La investigación sugiere que, para desarrollar modelos de lenguaje confiables, es crucial poder auditar y examinar los datos de entrenamiento de manera científica.
El futuro de la regulación de la IA
OpenAI ha abogado por una regulación más flexible en el uso de datos protegidos por derechos de autor para el desarrollo de modelos de IA. Aunque la empresa ha establecido acuerdos de licencia de contenido y mecanismos de exclusión para que los propietarios de derechos puedan optar por no participar, también ha presionado a varios gobiernos para que codifiquen reglas de ‘uso justo’ en torno a los enfoques de entrenamiento de IA. A medida que la tecnología avanza, la necesidad de un marco legal claro y justo se vuelve cada vez más urgente.