Cuando Ron Wyden, Cory Booker y Yvette Clarke introdujeron su Ley de Responsabilidad Algorítmica en 2019, que habría requerido que las empresas de tecnología realizaran controles de polarización (sesgo) en su IA, los tres patrocinadores podrían haber sido un poco temprano.
A pesar del hecho de que las empresas de tecnología ya estaban utilizando algoritmos de inteligencia artificial para una amplia gama de productos y servicios que afectan la vida de millones de personas, el tema del sesgo de la IA y sus efectos en el mundo real seguía siendo abstracto para muchos estadounidenses, incluyendo muchos en Washington. La administración Trump era ajena al tema, y los republicanos mostraron poco interés en la la ley Wyden y Booker, que nunca se ha leído en el comité, y mucho menos en el Senado. El proyecto de ley complementario de Clarke en la Cámara tampoco se adelantó.
Sesgos de IA y la administración de Biden: ¿Qué va a cambiar?
Ahora, Wyden, Booker y Clarke planean volver a presentar sus proyectos de ley en el Senado y la Cámara este año. Un entorno político muy diferente, que incluye un Congreso y una Casa Blanca liderados por los demócratas, significa que sus ideas podrían recibir una bienvenida mucho más cálida. Además, la nueva versión de la Ley de Responsabilidad Algorítmica llegará después de algunos casos recientes de alto perfil de inteligencia artificial discriminatoria y una mejor comprensión pública de la ubicuidad de la inteligencia artificial en general, junto con la creciente conciencia de que no puede confiar en las empresas tecnológicas cuando se trata de autorregulación (especialmente cuando tienen la costumbre de tratar de silenciar a sus críticos).
Un informe del Protocolo citando fuentes anónimas sugiere que la Casa Blanca considera que el proyecto de ley del Senado Wyden-Booker es un modelo para la futura legislación sobre IA.Ya sea que el proyecto de ley Wyden-Booker, o cualquier versión de la misma, el avance, dependerá de cuán alta sea la prioridad de la regulación IA para la administración de Biden.
Con base en las declaraciones y acciones, tanto del presidente Joe Biden como de la vicepresidenta Kamala Harris, puede haber un deseo de finalmente poner en marcha barreras a una tecnología que es cada vez más parte de nuestros sistemas automatizados más importantes. Pero el verdadero trabajo podría ser aprobar una legislación que aborde algunos de los escollos de sesgo de IA más inmediatamente peligrosos y obligue a las empresas de tecnología a evitarlos.
Una ley modelo
La Ley de Responsabilidad Algorítmica de 2019 propuso que las empresas con más de 50 millones de dólares en ingresos (o posesión de más de 100 millones de datos de personas) deben llevar a cabo evaluaciones de impacto algorítmico de su tecnología.
Esto significa que las empresas estarían obligadas a evaluar los sistemas automatizados que toman decisiones sobre las personas mediante el estudio de los datos de diseño, desarrollo y capacitación del sistema, hasta que busquen «impactos en la precisión, equidad, sesgo, discriminación, privacidad y seguridad», como está escrito en el proyecto de ley.
En el anterior proyecto de ley del Senado, Wyden y Booker eligieron abordar la IA de «alto riesgo» que tiene la capacidad de impactar seriamente la vida de alguien si se equivoca o falla. El reconocimiento facial, que hasta ahora ha causado la detención en falso de al menos tres hombres negros, es sólo un ejemplo. En particular, el proyecto de ley se centra en algoritmos que hacen determinaciones a partir de información sensible (piense en datos personales , información financiera o datos de salud), grandes grupos de datos de vigilancia o datos que podrían afectar la ocupación de una persona.
La auditoría algorítmica representa un enfoque similar al marco utilizado en las evaluaciones de impacto ambiental, donde los organismos públicos o privados estudian cómo un nuevo proyecto o tecnología podría tener un impacto en la naturaleza y las personas.
«Las empresas deben ser responsables de cualquier tecnología dañina; después de todo, ‘redlining’ – una práctica discriminatoria que ponga a los servicios (financieros y de otro tipo) fuera del alcance de los residentes de ciertas áreas basadas en la raza o la etnia – realizada por un ordenador hace el mismo daño que las políticas de ‘redlining’ hechas por una persona», dijo Wyden en una declaración a Fast Company. «Tiene sentido exigir a las empresas que controlen sus sistemas para garantizar que los algoritmos no hagan daño». «Es por eso que hay que actualizar la Ley de Responsabilidad Algorítmica para incorporar comentarios de expertos y reintroducirlo pronto», dice Wyden.
Una IA en Microsoft, apoya la legislación federal sobre IA ética, al menos en principio. Natasha Crampton, Directora responsable de la inteligencia artificial de Microsoft, dice que la evaluación de impacto debe ser el punto de partida para examinar con profundidad y honestidad los casos de uso y las partes interesadas de la IA. «Esto realmente puede ponernos en el camino hacia la comprensión de cómo el sistema podría funcionar en el mundo real, para que podamos salvaguardar, preservar los beneficios y mitigar los riesgos», explica. Crampton dice que Microsoft ha pedido legislación que aborda la ética en la IA desde 2018.
La Ley de Responsabilidad Algorítmica es una de las primeras facturas para abordar el sesgo a nivel federal. Es probable que se vea como un punto de partida en un largo proceso de desarrollo de un régimen regulatorio para tecnología compleja que se utiliza de maneras muy diferentes.
Señales prometedoras
El presidente Biden y la vicepresidenta Harris dijeron durante su campaña que tenían la intención de abordar los problemas de los derechos civiles en varias áreas desde el principio. Uno de estos frentes podría ser el desarrollo y el uso discriminatorio de algoritmos en aplicaciones como el reconocimiento facial.
Harris ya se ha ocupado del problema de sesgo algorítmico. En el otoño de 2018, Harris y otros siete miembros del Congreso enviaron cartas a los líderes de varias agencias, incluyendo la Oficina Federal de Investigaciones (FBI), la Comisión de Comercio Federal (FTC), y la Comisión de Igualdad de Empleo y Oportunidades (EEOC), preguntando cómo estaban abordando el sesgo en el uso de la tecnología de reconocimiento facial. La Protefa de Responsabilidad General informó en 2019 que el FBI ha hecho algunos progresos en la protección de la privacidad y la precisión del reconocimiento facial. Sin embargo, las mejores prácticas de la EEOC para los empleados del sector privado todavía no contienen directrices específicas para evitar sesgos algorítmicos como lo solicitan los senadores.
Además, la FTC todavía carece de una autoridad específica e integral para abordar las violaciones de privacidad relacionadas con la tecnología de reconocimiento facial, aunque la Sección 5 de la ley de la FTC autoriza a la agencia a actuar sobre actos o prácticas engañosas utilizados por los desarrolladores de tecnología de reconocimiento facial. Estos detalles son importantes porque la FTC probablemente sería la agencia más activa en la aplicación de cualquier nueva ley que aborde el sesgo en IA. Está claro que el tema es importante para Becca Kelly Slaughter, que Biden nombró como comisionada interina de la agencia en enero, ya que ha sido explícita sobre cuestiones de justicia y transparencia de la IA durante el último año.
«Para mí, el sesgo algorítmico es un problema de justicia económica«, dijo en una reciente mesa redonda. «Vemos resultados dispares de la toma de decisiones algorítmicas que afectan y perjudican desproporcionadamente a las comunidades negras y afectan su capacidad de participar de manera justa en la sociedad».
¿Otra señal prometedora? Cuando Biden nominó al genetista Eric Lander como director de la Oficina de Políticas de Ciencia y Tecnología (OSTP) en enero, elevó ese puesto a una posición de nivel de gabinete por primera vez. Esto sugiere que la nueva administración considera que las cuestiones de política científica y tecnológica, como la ética y la privacidad, son tan importantes como otras preocupaciones a nivel de gabinete como la defensa, el comercio y la energía.
Biden también nombró a dos abogados de derechos civiles para los primeros puestos en el Departamento de Justicia, lo que indica que la agencia puede tomar una mirada crítica sobre cómo se utilizan tecnologías como la evaluación como los algoritmos de riesgos penales y reconocimiento facial de IA en todos los niveles de aplicación de la ley. En particular, nombró a la presidenta del Comité de Abogados para los Derechos Civiles bajo la Ley, Kristen Clarke, como asistente del fiscal general para los derechos civiles, y a la presidenta de la Conferencia de Liderazgo sobre Derechos Civiles y Humanos, Vanita Gupta, como procuradora general adjunta. Ambas mujeres han presentado demandas o puesto mucha presión en las redes sociales, incluyendo Facebook, Google y Twitter, y ambas han llevado a cabo casos emblemáticos denunciando el sesgo algorítmico y la discriminación.
Otra señal prometedora es el nombramiento del Dra. Alondra Nelson, a quien Biden nombró como la primera subdirectora de ciencia y sociedad de la OSTP. «Cuando proporcionamos información al algoritmo, cuando programamos el dispositivo, cuando diseñamos, probamos e investigamos, estamos tomando decisiones humanas, decisiones que hacen que nuestro mundo social actúe de una manera nueva y poderosa», dijo en una Ceremonia en la Casa Blanca.
«Creo que la creación del papel de Alondra Nelson -que es subdirectora de ciencia y sociedad- es notable», dice Rashida Richardson, una académica visitante de la Facultad de Derecho de Rutgers y una experta en política de IA. «Sólo ese título per se significa que al menos [la administración] está indicando que hay cierta conciencia de que hay un problema».
Una ley autorizada
Los legisladores sólo podrían tratar de abordar este problema regulando algoritmos que ya están en uso amplio y que hacen daño demostrable. Pero lo que es importante es aprobar una legislación que realmente impida que este daño ocurra en primer lugar, quizás obligando a los desarrolladores de un algoritmo a corregir activamente los problemas antes de la implementación.
Richardson teme que el Congreso pueda terminar centrándose en una legislación que es fácil de aprobar, pero que sólo se ocupa de los sesgos de IA superficialmente. Por ejemplo, dice, el gobierno podría crear un conjunto de estándares de desarrollo destinados a eliminar los prejuicios de la IA. Si bien la Ley de Responsabilidad Algorítmica fue elogiada principalmente en la comunidad de ética de la IA, también carecía de autoridad de una manera importante. El idioma original de la ley permitió a los desarrolladores de IA mantener en silencio los resultados de sus comprobaciones de sesgo.
Richardson dice que esta falta de transparencia no es ideal «porque entonces no generará cambios, tanto de quienes crean las tecnologías como de quienes las usan». «Pero tener algún tipo de proceso, con un éxito público o semi-público, o al menos la opción de consulta pública, puede permitir lo mismo que sucede en el contexto de la evaluación del impacto ambiental». Esto permitiría al gobierno destacar los casos de uso que no han sido considerados, o ciertas etnias que han sido pasadas por alto, dice. Las oficinas de Wyden y Booker ahora están considerando cambiar el lenguaje de la ley para exigir a los desarrolladores que de alguna manera revelen los resultados de sus auditorías.
El mayor viento en contra de aprobar un proyecto de ley en el Congreso puede ser la capacidad limitada entre algunos legisladores para comprender la tecnología en sí, dice Richardson. Recuerda una audiencia en el Senado de 2019 a la que asistió y que se centró en los algoritmos de optimización utilizados por las grandes empresas tecnológicas: «Estaba muy claro que muy pocos senadores entendieron el tema».