

por nuestro representante
En una sesión informativa del Congreso de EE. UU., dos empleadas de Facebook convertidas en denunciantes, Frances Haugen y Sophie Zhang, criticaron un informe de derechos humanos de Meta, la compañía propietaria de Facebook, por no reconocer su papel en la difusión de desinformación y discurso de odio en India, especialmente de los pertenecientes al gobernante partido nacionalista hindú Bharatiya Janata (BJP) de la India.
Que el primer informe international de Evaluación de Impacto en los Derechos Humanos (HRIA) de Meta publicado en julio no abordó su complicidad en la difusión de desinformación en India subrayó que el gigante de las redes sociales priorizaba las ganancias sobre la lucha contra el odio, dijeron Haugen y Zhang en la sesión informativa del Congreso. , organizado por varios grupos de derechos civiles con sede en EE. UU., muchos de ellos formados por la diáspora india.
La sesión informativa fue organizada conjuntamente por Genocide Watch, World Without Genocide, Indian American Muslim Council, Hindus for Human Rights, International Christian Concern, Jubilee Campaign, 21Wilberforce, Dalit Solidarity Forum, New York State Council of Churches, Federation of Indian American Christian Organizations de Norteamérica, India Civil Watch International, Center for Pluralism, International Commission for Dalit Rights, American Muslim Institution, Students Against Hindutva Ideology, International Society for Peace and Justice, Humanism Project y Association of Indian Muslims of America.
Haugen, quien se convirtió en una celebridad mundial el año pasado al compartir decenas de miles de documentos incriminatorios con la Comisión de Bolsa y Valores de EE. UU., rechazó la afirmación de Meta de proteger los derechos humanos y proporcionar remedios para los impactos negativos.
“Puntos de informe de Facebook [that] tienen una junta de supervisión a la que las personas pueden apelar, que son transparentes sobre lo que eliminan”, dijo Haugen durante la sesión informativa digital. «Pero la realidad es que no nos darán ni siquiera datos muy básicos sobre qué sistemas de moderación de contenido existen en qué idiomas y el rendimiento de esos sistemas».
Facebook había «invertido poco» en sistemas de moderación de contenido de alta calidad y «desplegó lo mínimo» para ellos, dijo. “Ni siquiera nos dejan ver muestras de cómo funcionan estos sistemas [as] se está eliminando el contenido de los activistas”.
El único país sobre el que puede leer en el informe de Meta es EE. UU., que tiene la «versión más segura y desinfectada de Facebook… el rincón más limpio de Facebook». Por otro lado, los idiomas distintos del inglés “reciben menos inversión [and] evaluación de la calidad.»
Los propios controles regulares de Facebook de las diez publicaciones principales en países que enfrentan conflictos encontraron que «publicación tras publicación sería horrible». [with] imágenes sangrientas, cabezas cortadas… Nos sentábamos allí y discutíamos, como, ¿cómo pasó esto? ¿Por qué estaba obteniendo la mayor distribución?” Haugen dijo sobre su tiempo como gerente de producto en el departamento de integridad cívica de Facebook.
“Los productos de Facebook están diseñados para dar el máximo alcance al contenido más extremo”, y sus algoritmos eran “intrínsecamente mayoritarios”, ya que el contenido que obtiene una mejor reacción de la mayoría obtiene “más distribución… Los derechos humanos y Facebook están entrelazados. No podemos promover los derechos humanos, [and] no podemos tener un discurso seguro a menos que Facebook participe activamente y tenga una relación con el público”, afirmó Haugen.
Despedida de Facebook en 2020 como científica de datos después de exponer su fracaso para combatir el contenido supuestamente falso y abusivo, Zhang dijo que Facebook enfrentó «la mayor interferencia política en India» y fue «más deferente» con el gobierno indio debido a la «mayor disposición de India». ” para amenazar con la acción y “la falta de reacción pública” en apoyo de una “línea más dura” en la India.
“Facebook ha realizado efectivamente una donación masiva en especie a gobiernos autoritarios al negarse a actuar y permitir que continúe su mal comportamiento”, dijo Zhang, y agregó que estaba “sesgado hacia quienes están en el poder”. Las personas “que pueden regular Facebook y obligarte a cambiar la situación no tienen ningún incentivo para cambiar [it.] Las únicas personas que quieren cambiar la situación son aquellos que no están en el poder y que no pueden cambiarla”.
El fracaso de Facebook para controlar el discurso de odio y la desinformación en India podría tener graves consecuencias. “Si Facebook conduce a la degradación de la democracia en India, eso dañará sus relaciones con Estados Unidos y los intereses estadounidenses a nivel mundial”, dijo.
Zhang dijo que Meta se negó a cerrar cuentas falsas en India que descubrió porque estaban vinculadas a un miembro del Parlamento del BJP. “Tan pronto como se hizo el descubrimiento, no pude obtener una respuesta de nadie. Era como si me hubieran bloqueado”, dijo. “Facebook no quería decir que sí porque tenían miedo de cualquier figura parlamentaria importante”.
A Facebook no le importaba “salvar el mundo y proteger la democracia. Se preocupa por su beneficio. [It] tiene un fuerte incentivo para ser solícito y diferencial con el partido de gobierno”.