Los aceleradores del odio, por Ezequiel Rivero

Las redes sociales como propaladores de discursos odiantes, mucha veces por dinero. Su regulación, sus números, sus estadísticas y las posibles soluciones en este impecable análisis del investigador del Conicet y experto en medios Ezequiel Rivero. POR EZEQUIEL RIVERO (@skielrivero)

Según un estudio reciente del Instituto Reuters de la Universidad de Oxford, durante las primeras semanas de la pandemia las redes superaron a la TV en el acceso a noticias por primera vez. En Argentina, el 71% de los encuestados dijo acceder a noticias a través de Facebook y WhatsApp. Esto ocurre a pesar la crisis de legitimidad que sufre en particular Facebook que, en los últimos tiempos estuvo envuelto en escándalos varios, entre el más resonante el de Cambridge Analytica, gracias al cual se supo de la filtración, comercialización y exploración de al menos 87 millones de cuentas de usuarios de todo el mundo.

En conjunto, los principales productos de Facebook (WhatsApp, Instagram, Messenger y el propio Facebook) suman unos 6.8 millardos de usuarios (miles de millones), apenas algo menos que la población total del planeta. El poderío de la empresa no tiene punto de comparación con ninguna otra red social (Twitter tiene algo menos de 400 millones de usuarios en el mundo) y la coloca en un lugar particular: se trata de una esfera privada donde tiene lugar buena parte de la conversación pública en la actualidad, una conversación pública cada vez más marcada por los discursos de odio, la incomprensión e incluso la violencia organizada.

La excandidata presidencial, Senadora estadunidense y profesora de Derecho de la Universidad de Harvard Elizabeth Warren, probó que Facebook difunde odio y discursos falsos por dinero. Warren creó una campaña en la plataforma en la que decía, falsamente, que Facebook apoyaba la candidatura de Donald Trump. El aviso falso se publicó sin problemas y la Senadora probó su punto: Facebook difunde odio y mentiras por dinero. En medio de su campaña afirmó que los gigantes tecnológicos ya son demasiado gigantes, y que es preciso “dividir Facebook, Google y Amazon”.

Facebook es plenamente consciente de que sus productos estrella son cada vez más espacios tóxicos que funcionan como propaladores de discursos de odio. Según una investigación reciente de The Wall Street Journal, Facebook sabe, al menos desde 2018, que sus algoritmos polarizan a los usuarios, y desalentó en su momento iniciativas para corregirlo. En un slide de una presentación interna de la empresa filtrada por el periódico puede leerse: “nuestros algoritmos explotan la atracción del cerebro humano hacia la división. Si no se controla, Facebook terminará proporcionando a los usuarios contenidos cada vez más divisivos en un esfuerzo por atraer su atención por más tiempo en la plataforma”.

La crisis de legitimidad de la empresa devino en la campaña de boicot #StopHateforProfit (Basta de odio por ingresos) que invitaba a los auspiciantes a pausar sus anuncios en la plataforma durante el mes de julio. En el mismo contexto, algunas marcas como Unilever o Coca-Cola entre otros gigantes, amenazaron con retirar sus inversiones publicitarias de Facebook si la empresa no tomaba medidas más activas para regular el discurso de odio.

Aunque se estima que la inversión de las grandes marcas apenas representa el 6% del total de ingresos publicitarios de Facebook (la red social vive básicamente de los miles de millones de pequeños comercios y particulares que promocionan allí sus actividades), no permaneció indiferente a tamaña crisis de relaciones públicas.

Se comprobó que Facebook publica discursos de odio a cambio de dinero.
En los primeros tres meses de este año Facebook eliminó 9.6 millones de publicaciones con contenido que incitaba al odio y la violencia, el doble que en igual periodo del año anterior. El problema es que el filtrado de contenidos es en su mayoría algorítmico, por lo que el margen de error es enorme. Este año la plataforma removió automáticamente contenidos sobre la guerra civil en Siria, considerando que se trataba de “contenido extremista”. La empresa reconoció luego que ese filtrado fue un 98% automático. El algoritmo había sido creado en 2014 como reacción a ISIS que por entonces había comenzado a utilizar Facebook y YouTube como espacios de propaganda a los que subía videos de extrema violencia.

Se removieron publicaciones sobre la guerra civil en Siria porque provenían de ISIS

Aunque se estima que la empresa cuenta con unos 30 mil empleados (bastante precarizados) que trabajan para la consultora Accenture en Dublín en tareas de moderación, es evidente que la tercerización de la censura en una empresa privada no es una buena idea para la libertad de expresión. En particular porque las decisiones que toman empresas del tamaño de Facebook sobre qué discursos permanecen y circulan y cuáles no, cuáles son jerarquizados y cuáles ocultados, pueden tener, en relación a la libertad de expresión, más incidencia que las regulaciones legales de países o de organismos internacionales.

Según una encuesta reciente el 44% de los consultados piensa que el periodismo promueve la grieta por estos días. El discurso de odio que irradian los medios tradicionales y algunos de sus periodistas estrella, encuentra en las redes sociales aliados ideales, que funcionan como cámaras que amplifican y aceleran la circulación del odio y la apología de la violencia. Una cuota de responsabilidad y de micro-poder tenemos también los usuarios, que debemos ser alfabetizados sobre cuáles son las mejores decisiones y prácticas para reducir la influencia de las expresiones violentas, cada vez que interactuamos en estos espacios.

Read Previous

El mundo al borde del abismo

Read Next

“Los gobiernos de derecha toman deuda y los gobiernos progresistas las pagan”, por Juan Enrique