Recientemente, los usuarios de la plataforma de inteligencia artificial ChatGPT han descubierto un fenómeno curioso: el chatbot se niega a responder preguntas relacionadas con el nombre «David Mayer». Este comportamiento ha suscitado teorías de conspiración, pero una explicación más sencilla podría estar en juego.
El fenómeno viral
Durante el último fin de semana, la noticia de que el nombre «David Mayer» era un «veneno» para el chatbot se propagó rápidamente. Los usuarios intentaron engañar al servicio para que simplemente reconociera el nombre, pero cada intento resultó en un fallo del sistema. ChatGPT, al ser cuestionado, responde: «No puedo producir una respuesta». Sin embargo, no es solo Mayer el que causa este problema; otros nombres como Brian Hood y Jonathan Turley también han demostrado tener el mismo efecto.
¿Quiénes son estos nombres y por qué causan problemas?
La conexión entre estos nombres parece ser que pertenecen a figuras públicas que podrían haber solicitado que se restringiera la información relacionada con ellos en línea. Por ejemplo, Brian Hood, un alcalde australiano, acusó a ChatGPT de difundir información falsa sobre él. A pesar de que sus abogados se comunicaron con OpenAI, no se presentó ninguna demanda. Otros nombres en la lista, como Jonathan Turley y Jonathan Zittrain, son expertos legales que han hablado sobre el «derecho a ser olvidado». Esto sugiere que hay un patrón en el que estos individuos podrían haber solicitado que su información sea tratada con mayor cuidado.
La posible conexión con la privacidad
El caso de David Mayer es particularmente intrigante. Aunque no se encuentra un individuo notable con ese nombre, se sabe que un profesor de historia y drama, David Mayer, enfrentó problemas legales debido a la asociación de su nombre con un criminal. Esto plantea la hipótesis de que ChatGPT ha sido programado para manejar ciertos nombres de manera especial, posiblemente debido a preocupaciones de privacidad o seguridad. OpenAI, en una declaración reciente, confirmó que el nombre «David Mayer» ha sido marcado por herramientas internas de privacidad, indicando que podría haber instancias donde ChatGPT no proporcione información sobre ciertas personas para proteger su privacidad.
Este incidente nos recuerda que, aunque los modelos de inteligencia artificial son herramientas poderosas, no son infalibles. La forma en que manejan la información puede estar influenciada por múltiples factores, incluyendo la privacidad y la seguridad. Por lo tanto, la próxima vez que busques información a través de un chatbot, considera si sería más efectivo acudir directamente a la fuente.