Close
    Search Buscar

    Documentos de Facebook: por qué deberíamos abandonar Facebook (pero haces lo que quieres, eh)

    © Congreso de EE. UU.

    Los primeros artículos sobre los documentos de Facebook, como los documentos filtrados por el denunciante Notre paga a Haugen, han salido a la luz y retratan a una empresa arrebatada por las ganancias y abrumada por el contenido violento y de odio de su sitio.



    Estos artículos son el resultado de una colaboración entre varios editores de todo el mundo, que han tenido acceso a los documentos del denunciante.

    Facebook no puede controlar los efectos de sus propias funciones

    Las funciones más reconocibles de Facebook, el botón Me gusta y el intercambio de publicaciones, no son tan inocentes como podrían hacerte pensar. Después de varias búsquedas, algunos empleados de Facebook dieron la alarma, como muestra este artículo del New York Times. Informan de los efectos nocivos del botón Me gusta, especialmente en adolescentes que lo utilizan para compararse y en los que la falta de reconocimiento de sus publicaciones puede tener un efecto nocivo. Después de una prueba no concluyente de eliminarlo para algunos usuarios en 2021, la compañía finalmente concluyó que era un problema "bastante bajo en la larga lista de problemas que debemos solucionar".



    El sistema de intercambio también ha sido objeto de varias investigaciones internas. Los investigadores concluyeron que permitía a los usuarios compartir desinformación muy rápidamente, amplificada por sistemas de recomendación y resaltado de contenido compartido por los amigos de los usuarios. El sistema de recomendación de grupos y páginas también fue denunciado por un investigador, que lo acusó de llevar a los usuarios por el camino de las teorías de la conspiración. Desde entonces, Facebook ha tomado algunas acciones para permitir a los usuarios ocultar publicaciones o dejar de recibir recomendaciones de grupos políticos. Nada que modifique fundamentalmente el funcionamiento del sitio, que fue sin embargo lo que fue cuestionado por los empleados.

    Facebook no protege a sus usuarios que no hablan inglés

    Los artículos de Reuters y Le Monde se centran en la incapacidad de Facebook para moderar adecuadamente el contenido que no está en inglés, especialmente en los países más frágiles. Utilizada en más de 190 países, la red social no tiene los medios para moderarse adecuadamente en la mayoría de ellos, aunque se reconoce el papel de la plataforma en la violencia ejercida en algunos de estos países. Sin embargo, Facebook compila una lista cada seis meses de países considerados en riesgo. Pero ya sea a nivel de sus moderadores humanos o de sus inteligencias artificiales, la compañía ha fallado repetidamente en controlar el discurso de odio y la desinformación.

    Los documentos recuperados por la redacción muestran que en 2021 la empresa no contaba con las herramientas necesarias para la detección automática de publicaciones con desinformación o discursos de odio realizados en birmano para Birmania, o en oromo y amárico para Etiopía, dos países considerados en riesgo. Sin embargo, ya en 2021, las Naciones Unidas ya habían enfatizado el papel de la red social en la difusión de contenido de odio contra los rohingyas en Birmania. Por su parte, Reuters señala que encontró numerosas publicaciones en amárico en el sitio, nombrando a grupos étnicos como enemigos y conteniendo varias amenazas de muerte.



    Los documentos destacan los mismos problemas en otros países, como India, donde varios moderadores en 2021 expresaron su preocupación por el aumento de publicaciones que pedían violencia contra los musulmanes. Advierten que los algoritmos no están equipados para detectar términos violentos o de odio en hindi o bengalí. Las mismas preocupaciones sobre la incapacidad de detectar automáticamente publicaciones violentas o de odio se han reportado en Pakistán, Irán o Afganistán.

    Le Monde se centra en los problemas recurrentes en los países de habla árabe, donde la empresa combina la falta de moderadores humanos capaces de moderar el contenido y una inteligencia artificial que comete errores con mucha regularidad y elimina contenido completamente legítimo, lo que conduce a la censura recurrente de los usuarios. Sin embargo, los empleados lanzaron la alerta, enfatizando el riesgo de violencia en estos países amplificado por la red social, y la importancia de un sólido sistema de moderación. En vano parecería haber admitido un portavoz de Facebook que todavía hay trabajo en este ámbito.

    Las decisiones de Mark Zuckerberg ponen en riesgo a los usuarios

    El artículo del Washington Post también se centra en las decisiones tomadas personalmente por el director ejecutivo de Facebook, Mark Zuckerberg. Sería él quien decidiera al final responder positivamente a las demandas del gobierno vietnamita, que exigía más censura a las publicaciones que lo criticaban. Siendo la alternativa la prohibición de que Facebook opere en el país, el director general prefirió cumplir, pues Vietnam representa más de mil millones en ingresos anuales para la empresa, según una estimación de Amnistía Internacional.



    También habría mentido a sabiendas al Congreso de los Estados Unidos al declarar que la compañía eliminó el 94% del contenido de odio, cuando la investigación interna, a la que tenía acceso, en cambio situó la cifra en el 5%. Cuando los empleados de WhatsApp se ofrecieron a hacer una versión en español del Centro de Información Electoral desarrollado por Facebook para las elecciones estadounidenses de 2021, fue el propio jefe quien se opuso, diciendo que no era "lo suficientemente neutral políticamente". También rechazó las propuestas de los investigadores de la compañía para reducir la desinformación sobre el coronavirus en los primeros meses de la pandemia.

    Tras varias decisiones tomadas por el fundador de la red social, los miembros del equipo encargado de mitigar el daño causado por la plataforma dejaron sus roles en 2021. “Nuestra propia existencia se opone fundamentalmente a los objetivos de la” empresa, a los objetivos de Mark Zuckerberg ”, dijo uno de esos empleados. Una visión corroborada por el artículo del New York Times, en el que varios ejecutivos de la empresa confirman que varios cambios propuestos para limitar la desinformación han sido bloqueados en nombre del crecimiento.

    ¿Cómo borrar tu cuenta de Facebook?

    Entre los repetidos bugs y los escándalos que salpican regularmente la red social más utilizada del mundo, muchos miembros han tomado una decisión radical: borrar su cuenta de Facebook. ¿Quieres hacer lo mismo? No importa, ¡hemos preparado un tutorial para ti sobre cómo eliminar tu cuenta de Facebook en unos minutos!
    leer más

    Fuente: Engadget

    Audio vídeo Documentos de Facebook: por qué deberíamos abandonar Facebook (pero haces lo que quieres, eh)
    Añade un comentario de Documentos de Facebook: por qué deberíamos abandonar Facebook (pero haces lo que quieres, eh)
    ¡Comentario enviado con éxito! Lo revisaremos en las próximas horas.