Ya sabías que Facebook estaba haciendo del mundo un lugar peor, pero es mucho peor de lo que imaginas.
La semana pasada, el Wall Street Journal comenzó a airear algunos secretos internos de Facebook. Esos secretos fueron revelados por una informadora llamada Frances Haugen. Haugen acaba de conceder una entrevista al programa 60 minutos en la que explica con más detalle cómo Facebook intoxica la sociedad.
Frances Haugen, de 37 años, trabajó como Gerente de Producto en el Equipo de Integridad Civil de Facebook, que era precisamente el departamento responsable de frenar la desinformación y los bulos sobre política estadounidense. La compañía decidió disolver ese equipo en diciembre de 2020. Semanas más tarde tuvieron lugar los altercados violentos del seis de junio en el Capitolio de Washinton. Haugen dimitió en abril de 2021 y pidió ayuda a Whistleblower Aid, una organización sin ánimo de lucro que proporciona ayuda legal a las personas que deciden denunciar a empresas o instituciones sospechosas de actividades ilegales.
Desde entonces, Haugen ha filtrado decenas de miles de páginas de documentos de Facebook e incluso se ha comprometido a testificar en el congreso. La ex-empleada ha presentado al menos ocho quejas ante la SEC (La comisión de comercio encargada de regular la manipulación del mercado) en las que alega que Facebook miente sistemáticamente a sus accionistas sobre sus productos.
Básicamente, lo que Haugen dice en su entrevista a 60 minutos es que hay un conflicto de intereses brutal entre lo que es bueno para Facebook y lo que es bueno para la sociedad. “Lo que quiero que la gente sepa es que Facebook es mucho más peligrosa de lo que la gente cree, y cada vez es peor”, explica. A continuación os ofrecemos un extracto de las revelaciones más preocupantes que ha hecho esta informadora durante su entrevista.
El algoritmo de Facebook muestra a los usuarios contenidos que causen enfado de forma intencionada
Facebook elige mostrarte cosas que te pongan de mal humor. La razón es que los contenidos negativos generan más interacciones, y las interacciones es lo que Facebook usa para generar ingresos. “Sus algoritmos internos muestran contenido que inspire odio, división y polarización porque es más fácil provocar ira en la gente que inspirar otras emociones. Facebook se ha dado cuenta de que si cambia e algoritmo para que sea más seguro la gente pasará menos tiempo en la página, hará clic en menos anuncios y por tanto generará menos ingresos.”
Facebook es mucho peor que otras redes sociales
Cuando hablamos de redes sociales a menudo metemos a todas en el mismo saco, pero Haugen, que ha trabajado en Pinterest y Google antes de llegar a Facebook, asegura que no hay punto de comparación. “He visto ya muchas redes sociales y lo que he visto en Facebook es sustancialmente peor que todo lo que he visto antes”.
Facebook disolvió el departamento que luchaba contra la desinformación política en Estados Unidos
Cómo explicábamos arriba, Haugen pertenecía a un equipo que combatía la desinformación y los bulos sobre política. La compañía disolvió ese equipo poco después de las elecciones.
“Nos dijeron que iban a disolver Integridad Civil y fue como: ¡oh! ya hemos pasado las elecciones y no ha pasado nada. Podemos prescindir de ese equipo. Poco después tuvo lugar la insurrección del Capitolio.
Los partidos políticos europeos han comenzado a hacer propaganda negativa por Facebook
Uno de los documentos hechos públicos por Haugen revela que las diferentes fuerzas políticas europeas han comenzado a hacer anuncios negativos porque son la única forma de obtener interacciones en Facebook. “Básicamente saben que hacer ese tipo de anuncios es malo para la sociedad, pero si no adoptan posiciones negativas no logran nada en redes sociales”, explica la informadora.
Facebook solo logra regular una mínima fracción de las noticias falsas y los contenidos de odio que circulan por la red
Un estudio interno de Facebook revela que la red social solo logra identificar entre un 3 y un 5% del contenido de odio, y apenas un 1% del contenido que incita a la violencia. Pese a ello, los ejecutivos de la compañía creen que lo están haciendo muy bien. De hecho, y a tenor por las declaraciones hechas por un portavoz de Facebook a Gizmodo sobre este asunto, la culpa parece ser de Internet: “Si algún estudio hubiera logrado identificar la solución a este tipo de retos, hace tiempo que la sociedad ya hubiera implementado esa solución”.
Nota completa AQUÍ.