La empresa matriz de Facebook, Meta, debería pagar reparaciones a las comunidades rohingya desalojadas del oeste de Myanmar en 2017 por desempeñar un papel en la facilitación de la campaña de limpieza étnica, dijo el grupo de derechos humanos Amnistía Internacional en un informe publicado ayer.
En un nuevo informe publicado ayer, Amnistía afirma que los «algoritmos peligrosos y la búsqueda despiadada de ganancias de Facebook… fueron los principales contribuyentes a las atrocidades cometidas por el ejército de Myanmar contra el pueblo rohingya en 2017».
En agosto del mismo año, el ejército de Myanmar lanzó una «operación de limpieza» contra las comunidades rohingya en el estado norteño occidental de Rakhine, lo que obligó a más de 700.000 civiles rohingya a cruzar la frontera hacia Bangladesh. Durante los ataques, cientos de aldeas fueron quemadas, civiles asesinados a tiros y cientos, posiblemente miles, de mujeres y niñas fueron violadas.
El papel de Facebook para permitir esta limpieza étnica, y posible genocidio, de los rohingya ha sido reconocido durante mucho tiempo. En marzo de 2018, la Misión Internacional Independiente de Investigación de las Naciones Unidas sobre Myanmar informó que las plataformas de redes sociales, en particular Facebook, habían desempeñado un «papel clave» en la violencia contra los rohingya y «contribuyeron significativamente al nivel de acritud y discordia» y los conflictos ” en el país antes de su desplazamiento. Más tarde ese año, The New York Times llevó a cabo su propia investigación sobre el papel de Facebook en la facilitación de la violencia, que concluyó que el personal militar de Myanmar «había convertido la red social en una herramienta para la limpieza étnica».
Facebook ha admitido que sus plataformas se han utilizado para racionalizar el discurso de odio y alimentar las tensiones sectarias y étnicas en Myanmar. Desde 2017, ha despojado de las páginas a altos funcionarios militares, incluido el actual líder de la junta, el general en jefe Min Aung Hlaing. Luego, a fines de 2018, publicó los hallazgos de un informe en el que admitía que «no hemos hecho lo suficiente para evitar que nuestra plataforma se use para alimentar la división e incitar a la violencia fuera de línea». Estamos de acuerdo en que podemos y debemos hacer más”.
Como se mencionó anteriormente, el informe de Amnistía afirma que la responsabilidad de Meta se desvió del ámbito de la omisión al de la comisión, y que la amplificación del discurso de odio por parte de los algoritmos de la red fue una característica, no un error. La gigante empresa de tecnología «sabía o debería haber sabido que los sistemas algorítmicos de Facebook aceleraron la propagación de contenido dañino anti-rohingya en Myanmar», pero «todavía no tomó ninguna medida», dice el informe.
El papel de Meta «no fue solo el de una plataforma pasiva y neutral que no ha respondido adecuadamente frente a una crisis sin precedentes», argumenta el informe. «En realidad, los algoritmos de modelado de contenido de Meta amplificaron y promovieron de manera proactiva contenido en la plataforma de Facebook que incitaba a la violencia, el odio y la discriminación contra los rohingya».
También afirma que la empresa debería haberse dado cuenta de los riesgos mucho antes de las atrocidades de 2017 contra los rohingya. Como evidencia, cita documentos internos de los llamados «Papeles de Facebook», que la denunciante Frances Haugen filtró de la compañía el año pasado. Estos parecen demostrar una clara conciencia tanto de la tendencia de los algoritmos a amplificar el discurso de odio como de la insuficiencia de los esfuerzos de moderación de contenido para detener su propagación. Como lo describió un antiguo colaborador de Meta en un documento interno de agosto de 2019:
“Tenemos evidencia de una variedad de fuentes de que el discurso de odio, el discurso político divisivo y la desinformación en Facebook y la familia de aplicaciones están afectando a las sociedades de todo el mundo. También tenemos pruebas convincentes de que los mecanismos principales de nuestro producto, como la viralidad, las recomendaciones y la optimización para la participación, son una parte integral de por qué este tipo de discursos prosperan en la plataforma».
Otro documento interno de julio de 2019 afirma: «Solo apuntamos a alrededor del 2 por ciento del discurso de odio en la plataforma».
Al mismo tiempo, durante este período, activistas de Myanmar y del extranjero intentaron advertir a Facebook/Meta sobre el impacto que estaba teniendo el rápido crecimiento de la red en Myanmar y la peligrosa falta de moderadores de contenido en birmano. (Incluso ahora, el grupo de defensa con sede en Londres Global Witness afirma que Meta todavía no reconoce el discurso de odio y la incitación a la violencia contra los rohingya).
Incluso entonces, los esfuerzos de Meta para abordar estas preocupaciones fueron mínimos y, en algunos casos, pueden haber empeorado las cosas. En oscura ironía, el informe detalla el apoyo de Facebook a una iniciativa contra el odio llamada Panzagar, que significa «discurso floral» en birmano, que creó un paquete de calcomanías que los usuarios de Facebook podían publicar en respuesta al contenido que abogaba por la violencia o la discriminación. Sin embargo, el informe encontró que los algoritmos de Facebook «interpretaron el uso de estas pegatinas como una señal de que a las personas les gustó una publicación y comenzaron a promocionarlas». En lugar de reducir el número de personas que veían una publicación que promovía el odio, las calcomanías en realidad hicieron que las publicaciones fueran más visibles”. También es cuestionable si tales iniciativas para sentirse bien estaban a la altura de la tarea de detener la ola de información errónea y discurso de odio.
Por todas estas razones, Amnistía Internacional dijo que la compañía tiene la responsabilidad de proporcionar una compensación financiera a casi un millón de personas que ahora se ganan la vida en los campos de refugiados en expansión alrededor de Cox’s Bazar en el sureste de Bangladesh.
«Meta debe rendir cuentas», dijo la secretaria general de Amnistía, Agnès Callamard, en un comunicado que acompaña a la publicación del informe. «La empresa ahora es responsable de reparar a todos aquellos que sufrieron las violentas consecuencias de sus acciones imprudentes».
Por supuesto, es difícil imaginar a Meta ofreciendo una compensación financiera a los cientos de miles de refugiados rohingya varados en Bangladesh. Esto significaría admitir públicamente que todo su modelo de negocios, esencialmente convertir la atención humana en dinero publicitario, es precisamente responsable de encender las tensiones sociales en muchos países. En un momento en que la abrumadora influencia de Facebook está más bajo escrutinio que nunca, tal admisión parece muy poco probable.