Listen to this story
--:--
6:53
El predominio del lenguaje de odio en Facebook se ha reducido a la mitad durante el último año
La compañía ha trabajado para evitar la visibilidad predominante de este discurso en la red social con buenos resultados
Al hablar de odio en las redes sociales, es probable que cualquier persona piense en Twitter. Pero lo de Twitter en realidad es la confrontación constante (algo estimulado por sus algoritmos).
En el tema del odio expresado y visibilizado es Facebook quien ha tenido más problemas, sin embargo los resultados de las medidas tomadas durante los últimos 12 meses reflejan resultados alentadores, más si entendemos el alcance y penetración que tiene la red social a nivel mundial en todos los estratos sociales.
Misión clave: Reducir la prevalencia de los mensajes de odio
Desde 2016, Facebook desarrolló una campaña bastante agresiva para actuar ante denuncias por contenido discriminatorio, con lenguaje de odio o en contra de las normas de la comunidad, incluso contenido que violaba las normas y leyes de los países donde se manifestaba, pero siempre actuando tras las denuncias hechas por usuarios que se consideraban afectados por este tipo de contenido.
El problema para entonces, residía en tener que ir siempre detrás de las infracciones, es decir, actuar luego que los mensajes de odio habían tenido alguna visibilidad en la plataforma.
Algo que parecerá poco relevante si pensamos en términos individuales pero hablamos de Facebook: Millones de mensajes de odio estaban teniendo mucha visibilidad y había que hacer algo.
Del 2016 al 2020 había corrido mucha agua debajo del puente. Ahora Facebook tenía un plan: Detección proactiva de los mensajes de odio. Son cambios en el algoritmo que llevan a la eliminación de dicho contenido incluso sin permitir su publicación.
La política contra el lenguaje de odio trajo nuevas reglas a Facebook
Muchos usuarios de la red se han quejado recientemente de un "nivel de censura" que les impide postear determinado contenido. Es muy probable que se trate del algoritmo haciendo su trabajo, en lo cual es evidente que nunca será perfecto pero los resultados están a la vista.
En algunos casos, el contenido no será merecedor de una infracción o veto, pero puede quedar registrado como susceptible de contener lenguaje de odio.
En este caso, el algoritmo evitará que sea visibilizado como cualquier contenido, reduciendo así desde la visualización potencial el predominio de este lenguaje.
Este trabajo incluye la acción de un equipo humano que revisa montañas de contenido, no lo hace solo el algoritmo, por eso es válido pensar que en realidad Facebook ha invertido muchos recursos en trabajar contra el problema del lenguaje violento o discriminatorio en su plataforma.
¿Cuáles son los números que demuestran la reducción de la visibilidad del lenguaje de odio en Facebook?
Porque hablar todos podemos, pero Facebook ha cumplido con presentar el informe contrastado de la visibilidad de dicho contenido en julio 2020 y en junio 2021, prácticamente un año de evaluación constante, donde los resultados son:
- Julio 2020. Predominio del lenguaje de odio: entre 0,10 y 0,11%
- Junio 2021. Predominio del lenguaje de odio: 0,05%
¿A qué se refieren estos porcentajes?
Es un estándar de medición definido por facebook. Las cifras nacen de calcular la visibilidad del contenido señalado como discurso de odio dentro de una muestra de 10000 publicaciones en la plataforma.
Al tomar 10000 publicaciones en julio 2020, se encontró que de 10 a 11 de estas eran catalogadas por el algoritmo como mensajes de odio, pero al realizar esa misma prueba en junio 2021, el resultado fue que solo 5 publicaciones podían clasificarse como tal.
Estos resultados han sido posibles gracias a la implementación con éxito del control previo con la detección proactiva, algo que muchos critican como censura y quizás en parte lo parezca, pero lo que interesa a Facebook, como a toda gran compañía, son los resultados y lo que puede garantizar a sus usuarios y a la sociedad.
El trabajo contra el lenguaje de odio es mucho más complejo que eliminar contenido
Con millones de post subidos a la plataforma cada día, desde Facebook han tenido que ser muy cuidadosos con el manejo que hacen de este tema.
Por eso se trabaja en reducir la visibilidad de contenido que potencialmente sea lenguaje violento o discriminatorio, pero que no logra demostrarse de manera sólida que infringe el reglamento al respecto.
La razón de que exista un gigantesco equipo humano detrás de millones de revisiones, es que mucho contenido sobre lenguaje de odio es compartido bajo forma de análisis para combatir el problema, experiencias de usuarios afectados en el tema e incluso post que son un llamado a la red social a actuar contra el contenido de este tipo.
Si se tratara de una detección automática por palabras sería absurdo cuanto contenido de este tipo se eliminaría. La revisión filtra todo este contenido que queda publicado e incluso aquel que no llega a ser realmente peligoso, suele terminar en una limitación de la visibilidad de ciertos perfiles, publicaciones o páginas en cuanto a recomendaciones (algo que afecta el alcance, obviamente).
Trabajo constante en la detección proactiva del lenguaje violento
El crecimiento ha sido constante y la red social trabaja analizando todos los números para optimizar su servicio.
Es así como efectúan una comparación del total de contenido detectado por el algoritmo de manera proactica, sobre el 100% del contenido eliminado por el equipo humano, que verifica y toma decisiones (aunque el algoritmo puede eliminar contenido directo en casos extremos).
Resultados: Al comienzo de la aplicación de la detección proactiva, el porcentaje detectado por el algoritmo era de un 23,6% sobre el total de contenido final que era eliminado por los equipos humanos. En la última medición, ese número se acerca al 98%.
Al trabajar con metodología científica, la compañía siempre se ciñe a los resultados finales sobre el contenido que se ve, lo que se filtra y escapa a los controles aplicados, por eso hablamos de los porcentajes de contenido con lenguaje de odio vistos. Siendo lo que se quiere atacar, es la tasa sobre la que se tiene que seguir trabajando.
Si bien desde Facebook manejan informes precios y datos, estadísticas, suficientes para presentar y validar sus informes.
Siendo una red social tan polémica, siempre acuden a grandes empresas auditoras conocidas a nivel mundial para que validen todos los datos y resultados de sus mediciones. En este caso y muchos otros, les ha asistido la firma de auditoría global EY.
Siempre abiertos a que pueden existir manifestaciones de odio que sus algoritmos y equipo humano no detectan, se sigue trabajando en mejorar la experiencia segura y sana para los usuarios.