Donald Trump

Facebook retoma la conversación sobre Trump: ¿qué significa esto?

El conglomerado Meta, la empresa matriz de Facebook, Instagram, WhatsApp y Threads, va a poner fin a su política de verificación de contenidos en sus redes. Su fundador y primer ejecutivo, Mark Zuckerberg, pretende acomodarse al nuevo ciclo político en Estados Unidos, que se abre con Donald Trump y su tenebroso asesor informal Elon Musk, propietario de la red social X y defensor de la falta de control formal de la desinformación. Facebook abandona así su sistema de verificación por terceros independientes, lo que plantea serias preocupaciones sobre la gestión de información en sus plataformas. No se eliminarán contenidos abiertamente manipulados o falsos; al igual que en X, queda a la discreción de los usuarios añadir notas de contexto si desean denunciar las falsedades. Meta es considerablemente mayor que X: sus redes tienen unos 3.000 millones de usuarios en todo el mundo, frente a unos 250 millones de X.

Zuckerberg se justifica sin disimulo, argumentando que las elecciones del pasado noviembre suponen “un punto de inflexión cultural para priorizar de nuevo la expresión”. El magnate asegura que los verificadores cometen “demasiados errores”, pese a que apenas eliminan el 1% del contenido, y considera que su labor supone una “censura” en el discurso público. La supresión de la moderación afectará a la información política, sobre todo en temas de inmigración y la identidad de género, lo que representa una seria amenaza para cuestiones de derechos humanos. Se mantienen las medidas de moderación para casos considerados de alta gravedad, como el terrorismo, la explotación sexual infantil o las drogas.

Este giro es aún más llamativo después de que hace cuatro años Meta suprimiera las cuentas de Trump en Facebook e Instagram por incitar al odio y a la violencia; en ese momento, Zuckerberg incluso admitió ante el Congreso de EE UU el impacto negativo de las redes sociales en la salud mental de los jóvenes. Meta presumía de la efectividad de sus herramientas de verificación, que ahora argumenta que no sirven. Este cambio con la llegada de Trump sugiere que la supuesta buena voluntad de control de contenidos puede haber sido una estrategia para eludir críticas. Para enriquecer la pintura de sus intenciones, Meta ha realizado millonarias aportaciones a Trump, ha contratado al republicano Joel Kaplan como jefe de Asuntos Globales y ha incorporado al consejo a Dana White, un estrecho aliado de Trump.

El giro abre una brecha entre EE UU y Europa, donde sí están decididos a hacer que las plataformas tecnológicas sean responsables de los contenidos que publican. En su comunicado, Zuckerberg afirma que quiere trabajar con Trump para frenar “la persecución de gobiernos extranjeros a las empresas estadounidenses para que ejerzan mayor censura.” Europa tendrá que hacer valer su autoridad para asegurar el cumplimiento de las normas que ha establecido.

Impacto de la Nueva Política de Contenidos de Meta en la Desinformación y el Discurso Público

La decisión de Meta de eliminar la verificación de contenidos plantea un desafío significativo en la esfera de la desinformación en redes sociales. Este cambio no solo afecta a la política de contenido de la plataforma, sino que también podría tener repercusiones en la calidad de información a la que tiene acceso el público. Sin una correcta moderación y verificación, se corre el riesgo de dar más espacio a la difusión de noticias falsas, lo que podría influir en la opinión pública y polarizar aún más el discurso social.

Preguntas Frecuentes sobre la Política de Verificación de Contenidos de Meta

¿Por qué Meta ha decidido eliminar la verificación de contenidos?
Meta ha indicado que la modificación se debe a un cambio en el enfoque hacia la expresión y a la percepción de que los verificadores cometen “demasiados errores”.

¿Cómo afectará esto a la percepción de la desinformación en las redes sociales?
La eliminación de la verificación de terceros podría resultar en un aumento de la desinformación, ya que se ha confiado a los usuarios la responsabilidad de señalar el contenido engañoso.

¿Qué medidas se mantendrán para moderar contenidos dañinos?
Aunque se eliminan las verificaciones de contenido, se conservarán las moderaciones para violaciones graves como terrorismo, explotación sexual infantil y drogas.

Un Cambio Controversial: ¿Hacia Dónde se Dirige Meta?

La transición de Meta hacia una menor moderación de contenidos refleja no solo un cambio de dirección corporativa, sino también un peligroso juego político en el cual la salud de la información y la integridad del discurso público están en juego. A medida que las plataformas tecnológicas atraviesan esta nueva fase, será vital observar cómo se desarrollan las decisiones y políticas en Europa, donde la regulación puede establecer un estándar diferente para el manejo de la información. Esta situación nos lleva a cuestionar qué balance encontrará Meta entre libertad de expresión y responsabilidad social en el futuro.

¿Cual es tu reacción?