Lo que Facebook no nos dice sobre su lucha contra el abuso en línea

Lo que Facebook no nos dice sobre su lucha contra el abuso en línea
Shutterstock

Facebook por primera vez ha puesto a disposición datos sobre escala de comentarios abusivos publicado en su sitio. Esto puede haberse hecho bajo la creciente presión de las organizaciones para que las compañías de medios sociales sean más transparente sobre el abuso en línea, o para ganar credibilidad después de la Escándalo de datos de Cambridge Analytica. De cualquier manera, las cifras no son una lectura placentera.

In un período de seis meses desde octubre 2017 hasta marzo 20178, 21m fotos sexualmente explícitas, publicaciones 3.5m gráficamente violentas y formas 2.5m de discurso de odio fueron eliminadas de su sitio. Estas figuras ayudan a revelar algunos puntos sorprendentes.

Como se esperaba, los datos indican que el problema está empeorando. Por ejemplo, entre enero y marzo se estimó que por cada mensaje 10,000 en línea, entre 22 y 27 contenía violencia gráfica, desde 16 a 19 en los últimos tres meses. Esto pone de relieve el hecho de que en el Reino Unido, los procesamientos por abuso en línea han ido disminuyendo, como se demuestra en el siguiente gráfico.

Sin embargo, lo que Facebook no nos ha dicho es igual de significativo.

La red social ha sido bajo una presión creciente para combatir el abuso en su sitio, en particular, la eliminación de propaganda terrorista después de eventos como el ataque 2017 Westminster y el atentado de Manchester Arena. Aquí, la compañía ha sido proactiva. Entre enero y marzo 2018, Facebook eliminó los mensajes de 1.9m que fomentan la propaganda terrorista, un aumento de los comentarios de 800,000 en comparación con los tres meses anteriores. Un total de 99.5% de estos mensajes se localizaron con la ayuda de la tecnología avanzada.

A primera vista, parece que Facebook ha desarrollado con éxito un software que puede eliminar este contenido de su servidor. Pero Facebook no ha publicado cifras que muestren cómo terrorista prevalente la propaganda está en su sitio. Entonces, realmente no sabemos cuán exitoso es el software a este respecto.

Eliminar publicaciones violentas

Facebook también ha utilizado la tecnología para ayudar a eliminar la violencia gráfica de su sitio. Entre los dos períodos de tres meses hubo un aumento de 183% en la cantidad de publicaciones eliminadas que se etiquetaron como gráficamente violentas. Un total de 86% de estos comentarios fueron marcados por un sistema informático.

Pero también sabemos que las cifras de Facebook también muestran que hasta 27 de cada uno de los comentarios 10,000 que superaron la tecnología de detección contenían violencia gráfica. Eso no suena como muchos, pero vale la pena considerar la gran cantidad de comentarios publicados en el sitio por más de 2 mil millones de usuarios activos. Una estimación sugiere que los comentarios de 510,000 se publiquen cada minuto. Si es preciso, eso significaría que los comentarios violentos de 1,982,880 se publican cada 24 horas.

Para compensar las fallas en su software de detección, Facebook, al igual que otras redes sociales, se ha basado durante años en la autorregulación, con usuarios alentados a reportar comentarios ellos creen que no debería estar en el sitio. Por ejemplo, entre enero y marzo 2018, Facebook eliminó los comentarios de 2.5m que se consideraron incitación al odio, pero solo 950,000 (38%) de estos mensajes había sido marcado por su sistema. los otro 62% fueron reportados por los usuarios. Esto demuestra que la tecnología de Facebook no está combatiendo adecuadamente el discurso de odio en su red, a pesar de la creciente preocupación de que los sitios de redes sociales están alimentando odio al crimen en el mundo real.

¿Cuántos comentarios se informan?

Esto nos lleva a la otra cifra significativa no incluida en los datos publicados por Facebook: la cantidad total de comentarios informados por los usuarios. Como este es un mecanismo fundamental para abordar el abuso en línea, la cantidad de informes que se hagan a la compañía debería estar a disposición del público. Esto nos permitirá comprender el alcance de los comentarios abusivos hechos en línea, al tiempo que se aclara la cantidad total de mensajes que Facebook no elimina del sitio.

La decisión de Facebook de publicar datos que expongan la escala de abuso en su sitio es un avance significativo. Twitter, por el contrario, se le pidió información similar pero se negó liberarlo, alegando que sería engañoso. Claramente, no todos los comentarios marcados por los usuarios de los sitios de redes sociales violarán sus términos y condiciones. Pero el hecho de que Twitter no haya divulgado esta información sugiere que la compañía no está dispuesta a revelar la magnitud del abuso en su propio sitio.

La conversaciónSin embargo, incluso Facebook tiene un largo camino por recorrer para lograr una total transparencia. Idealmente, todos los sitios de redes sociales publicarían informes anuales sobre cómo abordan el abuso en línea. Esto permitiría a los reguladores y al público hacer que las empresas respondan más directamente ante las fallas para eliminar el abuso en línea de sus servidores.

Sobre el Autor

Laura Bliss, candidata a doctorado en derecho de las redes sociales, Universidad Edge Hill

Este artículo se publicó originalmente el La conversación. Leer el articulo original.

Libros relacionados:

{amazonWS: searchindex = Libros; palabras clave = abuso en línea; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

seguir a InnerSelf en

facebook-icontwitter-iconrss-icon

Obtenga lo último por correo electrónico

{Off} = emailcloak