Meta relaja moderación de contenidos y genera alerta global
La eliminación de verificadores de datos y el cambio en sus políticas de moderación en EE.UU. generan preocupación en la comunidad internacional. Meta ajusta sus reglas y despierta crítica.
Internacional, 18 de febrero de 2025 (ND58).- La reciente decisión de Meta de eliminar verificadores de hechos y flexibilizar su moderación de contenidos en United States ha generado preocupación entre organizaciones de derechos humanos y organismos internacionales. Expertos advierten sobre el riesgo de una mayor propagación de desinformación y discursos de odio en sus plataformas.
Meta cambia su enfoque en moderación de contenidos
El 7 de enero, Mark Zuckerberg, CEO de Meta, anunció un cambio en la política de moderación de la empresa, argumentando que busca restaurar la «libertad de expresión» en Facebook e Instagram. Según el empresario, la medida responde a años de «presión de gobiernos y medios tradicionales» y marca «una nueva era» en el debate digital.
Este nuevo enfoque incluye la eliminación de verificadores de datos independientes, como la Agence France-Presse (AFP), que serán reemplazados por un sistema de «calificaciones comunitarias» similar al implementado en la plataforma X, de Elon Musk. Así, los propios usuarios pondrán en contexto las publicaciones, lo que según críticos podría facilitar la propagación de información falsa.
Reacciones y preocupaciones internacionales
Las modificaciones solo afectan a United States por ahora, pero ya han suscitado reacciones adversas a nivel global. Organizaciones de derechos humanos alertan sobre el impacto de la medida en comunidades vulnerables.
«Es una decisión muy imprudente. Sabemos que la desinformación puede incitar al odio, la violencia e incluso genocidios», advirtió Deborah Brown, subdirectora de tecnología y derechos humanos de Human Rights Watch.
Meta, que posee Facebook, Instagram, WhatsApp y Threads, cuenta con una audiencia global de casi 4.000 millones de personas. Investigaciones de la ONU y diversos gobiernos han señalado el papel de la plataforma en la difusión de desinformación, incluyendo eventos clave como las elecciones estadounidenses de 2016 y la pandemia de COVID-19.
Un caso emblemático es el de Myanmar en 2017, donde Facebook fue utilizado para incitar la violencia contra la comunidad rohingya. La ONU calificó estos hechos como genocidio y Meta admitió fallos en su gestión de contenidos.
Implicaciones para minorías y regulaciones globales
Para Stefania Di Stefano, experta en libertad de expresión, las nuevas directrices podrían aumentar el riesgo para comunidades marginadas. «Si el discurso dominante promueve insultos contra ciertos grupos, Meta podría permitirlo, dejando a minorías sin protección», explicó.
Desde la ONU, Scott Campbell, responsable de tecnología y derechos humanos, aseguró que han manifestado preocupaciones a Meta y que seguirán el diálogo con la compañía.
En Europa, la Ley de Servicios Digitales obliga a las plataformas a combatir la desinformación. Jerome Duberry, del Geneva Graduate Institute, sugiere que el cambio en Meta responde a una estrategia política alineada con el enfoque de «laissez-faire» de la administración de Donald Trump.
Si Meta estandariza su moderación a nivel global, podría enfrentar sanciones en la Unión Europea. «El reto será ver si Bruselas hace cumplir su normativa con firmeza», concluyó Di Stefano.
Redacción ND58 | Fuente: EFE
Edición: Villasmil, Henry
Gráficas: AP


