Facebook eliminó 583 millones de cuentas falsas, 837 millones de contenidos no deseados (spam) y más de tres millones y medio de piezas con violencia gráfica en el primer trimestre de 2018, según publicó este martes en su Informe de Transparencia, cuyos detalles fueron explicados en una videoconferencia exclusiva de la que participó Télam.
Allí, la red social reveló por primera vez datos numéricos sobre contenido removido por violar sus normas comunitarias en seis áreas: violencia gráfica, desnudez de adultos y pornografía, propaganda extremista, discurso de odio, spam y cuentas falsas.
La forma en que la empresa fundada por Mark Zuckerberg lleva adelante este trabajo es mediante tecnologías basadas en aprendizaje automático (machine learning), pero también con equipos de moderadores que revisan los contenidos que circulan por la red social.
"Puede ser que un contenido cuente con muchas visualizaciones pero tenga un nivel de severidad bajo, mientras que hay otros que son vistos pocas veces pero tienen una severidad alta", ejemplificó sobre la dinámica de trabajo Alex Schultz, vicepresidente de Analítica de Datos de Facebook.
El directivo brindó estas declaraciones desde la sede de la red social ubicada en California, donde también estaba Guy Rosen, vicepresidente de Producto de Facebook, durante una videoconferencia en la que Télam fue el único medio representante de Argentina.
Para desarrollar la tarea de revisión de contenidos, Schultz indicó que otra técnica que utilizan es priorizarlos con la variable del "aquí y ahora": "Por ejemplo, cuántas veces fue vista una determinada pieza en la última hora".
Rendición de cuentas por la privacidad
Los resultados de esta tarea que lleva adelante la gigantesca red social -que desde hace dos meses rinde cuentas por la privacidad de sus más de 2.000 millones de usuarios a raíz del conflicto que atraviesa junto a Cambridge Analytica -son los que publicó este martes por primera vez en su Informe de Transparencia.
Entre las cifras más significantes está la de cuentas falsas, porque es una "acción clave para combatir el spam", explicó Schultz.
En este punto, afirmó que eliminaron "837 millones de piezas con mensajes no deseados en el primer trimestre de 2018", y agregó que casi el 100% fue detectado antes de que algún usuario lo haya reportado.
"La clave para combatir el spam es eliminar las cuentas falsas que lo propagan. En el primer trimestre de 2018, desactivamos alrededor de 583 millones de cuentas falsas, la mayoría de ellas dentro de los primeros minutos de registro", añadió.
Aclaró que esas cifras se suman a "los millones de intentos por registrar cuentas falsas en Facebook" que previenen a diario.
Luego, señaló que eliminaron 21 millones de piezas de desnudos adultos o pornografía" en ese mismo período.
En promedio, dijo estiman que de cada 10.000 piezas de contenido vistas en Facebook, siete a nueve vistas son a contenidos que violan los estándares de desnudez o pornografía de la plataforma.
Para casos como violencia gráfica y discurso de odio, "nuestra tecnología aún no funciona de manera óptima y por eso todavía es necesaria la revisión final del equipo de moderadores" humanos, sostuvo Schultz.
En este punto, Rosen agregó que mejoraron las técnicas vinculadas a revisar "contenidos de odio", pero admitió que todavía queda un "largo camino por delante".
En el caso de discurso de odio, Facebook retiró dos millones y medio de contenidos en el primer trimestre de 2018.
Mientra que eliminó o aplicó etiquetas de advertencia en aproximadamente tres millones y medio de piezas con contenidos de violencia en el mismo período.
Sobre la "propaganda terrorista", la red social explicó en su informe que lo define "como organizaciones o individuos que participan en 'actos premeditados de violencia contra personas o propiedades para intimidar a una población civil, gobierno u organización internacional con el fin de lograr un objetivo político, religioso o ideológico'"
"Eliminamos contenido que muestra apoyo o defensa de estas organizaciones, individuos y sus actos", indicó, y afirmó haber eliminado casi dos millones de contenidos vinculados a "propaganda extremista" en el período analizado.
"Cómo dijo Mark (Zuckerberg) en (la conferencia para desarrolladores) F8, todavía tenemos mucho trabajo por hacer para evitar el abuso. Si bien tecnologías como inteligencia artificial (IA) son prometedoras, aún están lejos de ser efectivas en su mayor parte para los contenidos indeseados porque el contexto es muy importante", sostuvo Rosen.
Por ejemplo, afirmó, la IA todavía no es buena para determinar si alguien está promoviendo discursos de odio o está describiendo algo que le pasó para difundir el problema.
Además, remarcó que en muchas áreas -ya sea spam, pornografía o cuentas falsas- se enfrentan a "adversarios sofisticados" que cambian continuamente de táctica para eludir sus controles, lo que significa que tienen que desarrollar y adaptar sus esfuerzos de forma continua.