Más odio y violencia en español


La gran deuda que Facebook tiene con los hispanohablantes


Hace algunos años, cuando buscaba un trabajo de medio tiempo mientras estudiaba, encontré una oferta que parecía prometedora: Facebook abría un centro de revisión de información y requería miles —sí miles— de trabajadores en sus nuevas oficinas. Los requerimientos eran sencillos, pero especificaban que se debía hablar español de cualquier país de Latinoamérica. Como el pago era decente, los horarios eran flexibles y Facebook sonaba importante, lo compartí con un grupo de amigos latinos en la misma situación. Uno de ellos, que había pasado por aquel proceso de selección, nos alertó: “Ni se les ocurra”. 

Lo que el anuncio no especificaba era que la información que uno tenia que revisar era aquella que nadie quiere ver: agresiones sexuales, insultos, decapitaciones, entre otras imágenes violentas que se quedan por siempre en la memoria. El objetivo de tener personal de países específicos era identificar características propias de cada país, como jergas o frases ofensivas en cada contexto. 

Facebook y otras compañías no dependen únicamente de observadores para decidir qué se debe quedar en la red y qué no. Para el volumen que manejan estas compañías, la inteligencia artificial es una aliada fundamental. Sin embargo, los sistemas de identificación de información no son inteligentes en sí mismos, sino que se les enseña a ser inteligentes y requieren de una constante revisión. Actualizar la información no solo es un atributo de las maquinas. Aunque a muchos nos cueste aceptarlo, si leemos una conversación entre adolescentes es probable que no entendamos gran cosa. Quizá no sabríamos el significado que le dan a los emojis, ni qué significan algunos stickers, o algunas palabras con nuevas interpretaciones. ¿No sabes a qué se refieren cuando dicen “basado” o “manyado”? Yo tampoco. Poco a poco nos vamos desactualizando. 

Cuando pensamos en compañías de tecnología como Facebook, nos crea conflicto pensar que estén desactualizadas. Suelen estar un paso adelante de nosotros y de la regulación que debe controlar sus acciones. Esta semana, la compañía que se encarga de Facebook lo ha tratado de demostrar y anunció su cambio de nombre a Meta para incluir sus proyectos de realidades virtuales en las que podremos interactuar. Sin embargo, debido a la reciente publicación de miles de documentos internos que han desnudado a Facebook, en lugar de preguntarnos si Facebook está suficientemente actualizada, nos estamos cuestionando si alguna vez lo estuvo. O si lo quiso estar.

Hace algunas semanas publiqué sobre los Facebook Files, una serie de artículos del Wall Street Journal sobre el impacto de Instagram en la salud mental de las adolescentes. Luego de esos primeros artículos han ocurrido varios terremotos internos dentro de Facebook. Se conoció que la persona que los compartió fue Frances Haugen, quien ha declarado ante los congresos de Estados Unidos y Reino Unido, y prepara futuras participaciones en otros países europeos. Además, se han publicado más documentos, ahora conocidos como Facebook Papers, los cuales están siendo investigados por un colectivo de medios, en su mayoría de Estados Unidos. 

En la información que se va conociendo sobre estos documentos hay un tema que nos debería preocupar particularmente: ¿Qué esfuerzos realiza Facebook para moderar los mensajes de odio y violencia en sus plataformas en español? A partir de las declaraciones de Haugen, hoy se conoce que el 87% de los recursos de Facebook se destinan a moderar el contenido en inglés, a pesar de que solo el 9% de sus usuarios hablan este idioma. 

Algunos artículos publicados por la asociación de medios que investiga Facebook Papers han demostrado el rol que ha tenido Facebook al promover la violencia en determinados países. Por ejemplo, como parte de los documentos filtrados, hoy se conoce que los mecanismos de Facebook solo identifican el  40% de contenido de odio en idioma árabe que se publica en Facebook, y solo el 6% que se publica en Instagram. Esto ha sido un factor importante para entender cómo se comparte la información en países del medio oriente. De la misma manera, las herramientas de Facebook son incapaces de moderar la información en países como la India, donde se ha comprobado el uso de la red social para promover narrativas antiminorías. 

Por el momento, ninguno de los artículos publicados por estos medios ha analizado a profundidad la falta de control en español. Estudios independientes, no basados en los documentos internos de Facebook, indican que los usuarios hispanohablantes están expuestos a la desinformación en el 70% de las publicaciones que ven en Facebook, a comparación de los usuarios que hablan inglés, quienes solo están expuestos a un 29% de desinformación. Los estudios también confirmaron que una publicación identificada como falsa en inglés es retirada en cuestión de horas o días, mientras que la misma publicación en español continúa en la plataforma durante mucho más tiempo, o nunca llega a retirarse, mientras prosigue su rumbo de desinformación en los grupos de WhatsApp, otra compañía de Facebook. 

Observar los casos en otros países nos lleva a preguntarnos qué responsabilidad ha tenido la falta de moderación de Facebook en los últimos acontecimientos de nuestro país. Compartimos con otras naciones la preocupación por el aumento de la desinformación sobre la pandemia y la polarización política. Respecto a la primera, uno se lleva un real susto si ve el Facebook de una persona que interactúa con desinformación médica. En alguna ocasión, algún familiar me ha dejado revisar su Facebook para comprobar que no solo se trata de un canal de información: es en sí otra realidad. Una en la que todos los días mueren miles de personas a causa de las vacunas, donde las pruebas PCR no existen y hasta se cuestiona si realmente han muerto personas por el coronavirus.

Con respecto a la política, también sería interesante conocer qué información tiene Facebook sobre nuestra realidad. Reportar una publicación con desinformación política en Perú y esperar que Facebook la retire es pedirle peras al olmo. Nuestras redes y grupos de WhatsApp fueron invadidos por supuestos fraudes e información falsa de toda clase.

Tanto en desinformación en salud y en política hemos alcanzando situaciones extremas, aunque quizás la primera nos ayude a alcanzar un poco de esperanza con la segunda: a pesar de la cantidad de desinformación que persiste sobre las vacunas, hemos visto aumentar el ritmo de vacunación. Con respecto al ámbito político, nos gustaría tener una solución tan eficaz como las vacunas para reducir el riesgo a nivel nacional. 

Por el momento, seguir de cerca las publicaciones sobre los Facebook Papers deja más preguntas que respuestas. Hemos empezado a conocer cómo nuestros “me gusta” o “me enoja” tienen un gran impacto en lo que percibimos como realidad o ficción. Sin embargo, no sabemos cómo esta tecnología ha impactado nuestra realidad nacional, o si nos sumaremos a los demás países para reclamar por una regulación de las redes sociales. Como siempre, estamos a la espera de que alguien más haga las preguntas que nos hacemos nosotros en “español de Perú”.

Comentarios

Aún no hay comentarios. ¿Por qué no comienzas el debate?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Volver arriba