Introducción a la investigación de Microsoft
Microsoft ha anunciado una nueva iniciativa de investigación que busca evaluar la influencia de ejemplos de entrenamiento específicos en los resultados generados por modelos de inteligencia artificial (IA). Este proyecto, que se remonta a una oferta de trabajo publicada en diciembre, tiene como objetivo demostrar que es posible estimar de manera eficiente y útil el impacto de datos particulares, como fotos y libros, en las salidas de estos modelos.
La necesidad de transparencia en la IA
La oferta de trabajo destaca que las arquitecturas actuales de redes neuronales son opacas en cuanto a la procedencia de sus generaciones. Esto plantea un desafío significativo, ya que la falta de transparencia puede llevar a problemas legales y éticos, especialmente en un contexto donde las empresas de IA enfrentan múltiples demandas por infracción de derechos de autor. Microsoft, por su parte, está lidiando con al menos dos desafíos legales relacionados con el uso de datos protegidos en sus modelos de IA.
El concepto de dignidad de los datos
Jaron Lanier, un destacado tecnólogo involucrado en el proyecto, ha propuesto el concepto de «dignidad de los datos», que busca conectar la creación digital con los humanos que la han producido. Según Lanier, un enfoque de dignidad de los datos permitiría rastrear a los contribuyentes más únicos e influyentes cuando un modelo grande genera un resultado valioso. Esto podría implicar que los artistas y creadores sean reconocidos y compensados por su contribución a la formación de modelos de IA.
Desafíos y oportunidades en la compensación de datos
A pesar de que algunas empresas, como Bria, Adobe y Shutterstock, están explorando formas de compensar a los propietarios de datos, la implementación de programas de pago individualizados sigue siendo un reto. Muchos laboratorios grandes han optado por permitir que los titulares de derechos de autor se excluyan del entrenamiento de modelos, pero estos procesos a menudo son complicados y no aplican a modelos previamente entrenados. La iniciativa de Microsoft podría ser un paso hacia una mayor equidad en la compensación de los creadores de contenido.
El futuro de la regulación en IA
La investigación de Microsoft también podría ser vista como una respuesta a la creciente presión regulatoria sobre las prácticas de IA. A medida que las preocupaciones sobre el uso de datos y la propiedad intelectual se intensifican, la compañía podría estar buscando establecer un precedente que le permita navegar por un entorno legal cada vez más complicado. Sin embargo, la efectividad de este proyecto dependerá de su implementación y de la voluntad de la industria de adoptar un enfoque más ético y transparente en el uso de datos.