TECNOLOGÍA

Imágenes sexuales, violencia explícita y terrorismo: los contenidos prohibidos de Facebook

Facebook ha decidido ser más transparente que nunca. Más aún desde el reciente escándalo del robo de cuentas por parte de Cambridge Analytica. Para demostrar el beneficioso trabajo que están realizando a favor de limpiar su red social de todo tipo de contenido que ponga en peligro la privacidad y seguridad de los usuarios, el equipo de Mark Zuckerberg ha sacado a la luz el primer informe que refleja las medidas que está llevando a cabo. Y las cifras no hacen sino confirmar que hay un repunte de publicaciones con violencia explícita y propagandaterrorista las cuales son impulsadas a la velocidad de la luz en las redes.

[image id=»96281″ data-caption=»» share=»true» expand=»true» size=»S»]

Gracias al sistema de inteligencia artificial que usan desde la compañía, son capaces de adelantarse entre un 86 y un 99.5% de los casos antes de que un usuario reporte el contenido inapropiado, según los casos. Para que os hagáis una idea de las cifras que han mostrado. Facebook ha llegado a retirar casi 2 millones de publicaciones relacionadas con la promoción o el enaltecimiento de bandas terroristas como Al Qaeda o ISIS en el primer cuarto de este 2018, un 73% más que en el último cuatrimestre de 2017. Por otro lado, se han llegado a eliminar 3,4 millones de imágenes violentas, casi el triple que en el último cuatrimestre del 2017.

En el caso de las imágenes sexuales, el número se dispara hasta los 21 millones de elementos en tan solo 4 meses de 2018. Aquí es donde los usuarios son más críticos, porque creen que el sistema no diferencia entre los pechos de una mujer y los de un hombre (los cuales no se suelen eliminar, al no considerarlos el sistema como ofensivos). De hecho, Facebook llegó a censurar la obra de arte “La Libertad guiando al pueblo” en la que se ve un pecho descubierto en la parte central del cuadro. La red social pidió disculpas un mes después.

El odio en Facebook

Es aquí donde la compañía tiene más problemas, ya que le cuesta llegar a detectar un discurso de odio como tal. A pesar de que han logrado suprimir 2 millones y medio de mensajes este año, un 56% más que el último trimestre de 2017, solo un 38 % fueron detectados antes de que alguien lo reportara. Así que es algo en lo que saben, deben trabajar más a fondo, ya que el sistema de inteligencia artificial no es capaz de diferenciar cuándo se están usando esos mensajes para atacar o para defenderse. De hecho, algunos colectivos han llegado a quejarse de que Facebook les ha vetado ciertos artículos en los que estaban tratando de denunciar precisamente por lo que les estaban borrando la publicación.

Veremos cómo evolucionan estos datos.

Alberto Pascual García

Alberto Pascual García

Noticias recientes

Este robot oruga se puede partir, separar y puede reptar por lugares estrechos

El origami o plegado de papel tradicional japonés y los nuevos materiales se combinan para…

30 mins hace

Venus casi no tiene agua. Un nuevo estudio podría revelar por qué

Científicos planetarios de la Universidad de Colorado en Boulder han descubierto cómo Venus, el vecino…

40 mins hace

CRISPR puede devolver la vista a las personas con problemas genéticos de visión

Los participantes en el ensayo pionero de edición genética CRISPR muestran que puede tratar enfermedades…

1 día hace

Suplementos de vitamina D, no todo el mundo necesita lo mismo

Un nuevo estudio cuestiona las directrices sobre suplementos de vitamina D, porque no todo el…

1 día hace

Aún hay tiempo: empezar con el ejercicio a los 50 puede remediar los daños de la inactividad

Un estudio confirma que empezar a hacer ejercicio en la mediana edad podría "revertir" los…

3 días hace

La ciencia ayuda a detectar el alcohol de garrafón

La falsificación de bebidas alcohólicas alcanza una de cada cuatro botellas que se venden en…

4 días hace