La creciente tensión entre la inteligencia artificial y la censura política en EE. UU.
En un contexto donde la inteligencia artificial (IA) se ha convertido en un tema candente, la administración Biden se encuentra bajo el escrutinio de legisladores republicanos. El presidente del Comité Judicial de la Cámara de Representantes, Jim Jordan, ha enviado cartas a 16 empresas tecnológicas, incluyendo gigantes como Google y OpenAI, solicitando información sobre posibles comunicaciones que sugieran que la administración anterior «coaccionó o coludió» con estas compañías para censurar discursos legales en productos de IA.
La batalla por la libertad de expresión en la era digital
La administración Trump ya había señalado su intención de confrontar a las grandes tecnológicas sobre la censura en la IA, lo que indica que estamos ante una nueva fase en la guerra cultural entre los conservadores y Silicon Valley. Jordan, quien previamente lideró una investigación sobre la supresión de voces conservadoras en plataformas de redes sociales, ahora dirige su atención hacia las empresas de IA y sus intermediarios.
En sus cartas, Jordan menciona un informe publicado por su comité en diciembre, que alega que la administración Biden-Harris intentó controlar la IA para suprimir la libertad de expresión. Las empresas a las que se dirige, como Adobe, Alphabet, Amazon, Apple y Microsoft, tienen hasta el 27 de marzo para proporcionar la información solicitada.
Reacciones de las empresas tecnológicas
La respuesta de las empresas ha sido variada. Mientras que algunas, como Nvidia y Microsoft, han optado por no comentar, otras han comenzado a ajustar la forma en que sus chatbots de IA manejan consultas políticamente sensibles. OpenAI, por ejemplo, anunció cambios en la forma en que entrena sus modelos de IA, buscando representar más perspectivas y evitar la censura de ciertos puntos de vista. Sin embargo, la empresa niega que esto sea un intento de complacer a la administración Trump, argumentando que es parte de su compromiso con los valores fundamentales de la compañía.
Por otro lado, Anthropic ha afirmado que su modelo de IA más reciente, Claude 3.7 Sonnet, ofrecerá respuestas más matizadas y se negará a responder menos preguntas. Sin embargo, no todas las empresas han sido tan rápidas en adaptarse a las demandas de un entorno político cambiante.
El futuro de la IA y la política en EE. UU.
A medida que nos acercamos a las elecciones de 2024 en EE. UU., la presión sobre las empresas tecnológicas para que modifiquen sus políticas de contenido se intensifica. Google, por ejemplo, ha declarado que su chatbot Gemini no responderá a consultas políticas, lo que ha generado críticas sobre la falta de transparencia y la posible censura. Además, algunos ejecutivos de tecnología, como Mark Zuckerberg de Meta, han alimentado las acusaciones de censura al afirmar que la administración Biden los presionó para suprimir ciertos contenidos, como la desinformación sobre COVID-19.
La situación actual plantea preguntas cruciales sobre el equilibrio entre la libertad de expresión y la regulación de contenido en la era digital. A medida que las investigaciones continúan y las empresas tecnológicas se adaptan a un panorama político en constante cambio, el futuro de la IA y su relación con la política en EE. UU. sigue siendo incierto.