in

Meta elimina los verificadores de hechos en EE. UU. y cambia su moderación

La decisión de Meta de eliminar los verificadores de hechos genera controversia en la moderación de contenido.

Immagine che rappresenta il cambiamento di Meta nella moderazione
Meta elimina i verificatori di fatti negli Stati Uniti, cambiando la moderazione.

Un cambio significativo en la moderación de contenido

Meta, la empresa matriz de plataformas como Facebook, Instagram y Threads, ha anunciado que a partir del lunes, dejará de contar con verificadores de hechos en los Estados Unidos. Esta decisión fue comunicada por Joel Kaplan, el director de asuntos globales de la compañía, y marca un cambio notable en la política de moderación de contenido de la empresa. Este movimiento se produce en un contexto donde la moderación de contenido ha sido objeto de intenso debate, especialmente en relación con la desinformación y el discurso de odio.

Contexto y motivaciones detrás de la decisión

La decisión de Meta de eliminar los verificadores de hechos se alinea con un cambio más amplio en su enfoque hacia la moderación de contenido. En enero, la compañía ya había comenzado a aflojar sus reglas de moderación, coincidiendo con la inauguración del presidente Trump, a la que asistió Mark Zuckerberg, fundador y CEO de Meta. Este cambio ha sido interpretado por algunos como un intento de priorizar la libertad de expresión, aunque también ha suscitado preocupaciones sobre el impacto que tendrá en las comunidades marginadas.

Las implicaciones de la nueva política

La eliminación de los verificadores de hechos plantea serias preguntas sobre cómo se manejará la desinformación en las plataformas de Meta. Kaplan ha indicado que la compañía adoptará un enfoque similar al de Community Notes de X, la plataforma de Elon Musk, donde la moderación de contenido recae en parte en los usuarios en lugar de en profesionales pagados. Aunque este enfoque comunitario puede ofrecer contexto en publicaciones engañosas, su efectividad se ve comprometida sin herramientas de moderación adicionales, que Meta ha decidido eliminar.

Reacciones y preocupaciones sobre la desinformación

Desde que Meta comenzó a desmantelar su programa de verificación de hechos, se ha observado un aumento en la difusión de contenido falso. Un administrador de una página de Facebook que compartió una afirmación viral y falsa sobre ICE expresó que la eliminación del programa de verificación de hechos es una “gran información”. Esta situación ha generado un debate sobre la responsabilidad de las plataformas en la lucha contra la desinformación y el discurso de odio, especialmente en temas sensibles como la inmigración y la identidad de género.

El futuro de la moderación en Meta

A medida que Meta avanza con su nueva política, el enfoque en la atención del usuario se convierte en su principal moneda. Menos moderación de contenido significa más publicaciones visibles, lo que podría resultar en un aumento de la interacción, pero también plantea el riesgo de que la desinformación y el contenido dañino se propaguen sin control. La comunidad y los usuarios tendrán un papel crucial en la configuración del futuro de la moderación en estas plataformas, y será fundamental observar cómo se desarrollan estos cambios en el tiempo.

¿Qué piensas?

Imagen que representa el almacenamiento en la nube de Koofr

Almacenamiento en la nube: la opción segura y económica de Koofr

Immagine del gioco Conexiones popolare sui social media

Conexiones: el juego de palabras que está arrasando en redes sociales