Un cambio significativo en la moderación de contenido
Meta, la empresa matriz de plataformas como Facebook, Instagram y Threads, ha anunciado que a partir del lunes, dejará de contar con verificadores de hechos en los Estados Unidos. Esta decisión fue comunicada por Joel Kaplan, el director de asuntos globales de la compañía, y marca un cambio notable en la política de moderación de contenido de la empresa. Este movimiento se produce en un contexto donde la moderación de contenido ha sido objeto de intenso debate, especialmente en relación con la desinformación y el discurso de odio.
Contexto y motivaciones detrás de la decisión
La decisión de Meta de eliminar los verificadores de hechos se alinea con un cambio más amplio en su enfoque hacia la moderación de contenido. En enero, la compañía ya había comenzado a aflojar sus reglas de moderación, coincidiendo con la inauguración del presidente Trump, a la que asistió Mark Zuckerberg, fundador y CEO de Meta. Este cambio ha sido interpretado por algunos como un intento de priorizar la libertad de expresión, aunque también ha suscitado preocupaciones sobre el impacto que tendrá en las comunidades marginadas.
Las implicaciones de la nueva política
La eliminación de los verificadores de hechos plantea serias preguntas sobre cómo se manejará la desinformación en las plataformas de Meta. Kaplan ha indicado que la compañía adoptará un enfoque similar al de Community Notes de X, la plataforma de Elon Musk, donde la moderación de contenido recae en parte en los usuarios en lugar de en profesionales pagados. Aunque este enfoque comunitario puede ofrecer contexto en publicaciones engañosas, su efectividad se ve comprometida sin herramientas de moderación adicionales, que Meta ha decidido eliminar.
Reacciones y preocupaciones sobre la desinformación
Desde que Meta comenzó a desmantelar su programa de verificación de hechos, se ha observado un aumento en la difusión de contenido falso. Un administrador de una página de Facebook que compartió una afirmación viral y falsa sobre ICE expresó que la eliminación del programa de verificación de hechos es una “gran información”. Esta situación ha generado un debate sobre la responsabilidad de las plataformas en la lucha contra la desinformación y el discurso de odio, especialmente en temas sensibles como la inmigración y la identidad de género.
El futuro de la moderación en Meta
A medida que Meta avanza con su nueva política, el enfoque en la atención del usuario se convierte en su principal moneda. Menos moderación de contenido significa más publicaciones visibles, lo que podría resultar en un aumento de la interacción, pero también plantea el riesgo de que la desinformación y el contenido dañino se propaguen sin control. La comunidad y los usuarios tendrán un papel crucial en la configuración del futuro de la moderación en estas plataformas, y será fundamental observar cómo se desarrollan estos cambios en el tiempo.