Facebook es mejor para vigilar la desnudez que el odio

En total, Facebook tomó medidas sobre casi 1,6 mil millones de contenido durante los seis meses que terminaron en marzo, una pequeña fracción de toda la actividad en su red social.
Solo de octubre a diciembre, Facebook inhabilitó casi 1.300 millones de cuentas. AP

Solo de octubre a diciembre, Facebook inhabilitó casi 1.300 millones de cuentas. AP

Por: San Francisco / AP -

Deshacerse de comentarios racistas, sexistas y de otro odio en Facebook es más desafiante que eliminar otros tipos de publicaciones inaceptables porque los programas de computadora todavía tropiezan con los matices del lenguaje humano, reveló la compañía el martes.

Facebook también publicó estadísticas que cuantificaban cómo se han vuelto las cuentas falsas generalizadas en su servicio influyente, a pesar de una política de larga data que requiere que las personas establezcan cuentas bajo sus identidades de la vida real.

Solo de octubre a diciembre, Facebook inhabilitó casi 1.300 millones de cuentas, y eso ni siquiera cuenta todas las veces que la empresa bloqueó los perfiles falsos antes de que pudieran configurarse.

Si la compañía no hubiera cerrado todas esas cuentas falsas, su audiencia de usuarios mensuales habría crecido más allá de los 2.2 mil millones actuales y probablemente haya creado más material potencialmente ofensivo para que Facebook elimine.

La autoevaluación de Facebook mostró que su sistema de detección es mucho mejor para depurar la violencia gráfica, la desnudez gratuita y la propaganda terrorista. Las herramientas automatizadas detectaron del 86 al 99.5 por ciento de las violaciones identificadas por Facebook en esas categorías.

Para el discurso de odio, los revisores humanos de Facebook y los algoritmos de la computadora identificaron solo el 38 por ciento de las violaciones. El resto se produjo después de que los usuarios de Facebook señalaran el contenido ofensivo para su revisión.

En total, Facebook tomó medidas sobre casi 1,6 mil millones de contenido durante los seis meses que terminaron en marzo, una pequeña fracción de toda la actividad en su red social, según la compañía.

LEE TAMBIÉN: Identifican sospechoso de filtrar programa de "hacking" de la CIA a Wikileaks

El informe marcó el primer desglose de Facebook sobre la cantidad de material que elimina por violar sus políticas. No reveló cuánto tiempo lleva Facebook para eliminar el material que viola sus estándares. El informe tampoco cubre la cantidad de contenido inapropiado que Facebook perdió.

"Incluso si eliminan 100 millones de mensajes que son ofensivos, habrá uno o dos que tengan cosas realmente malas y esas serán las que todos terminarán hablando en las noticias de televisión por cable", dijo Timothy Carone, que enseña sobre tecnología en la Universidad de Notre Dame.

En lugar de tratar de determinar la cantidad de material ofensivo que no capturó, Facebook proporcionó una estimación de la frecuencia con la que cree que los usuarios vieron publicaciones que violaron sus estándares, incluido el contenido que su sistema de detección no detectó. Por ejemplo, la compañía estimó que por cada 10,000 veces que las personas miraban el contenido en su red social, 22 a 27 de las vistas podían incluir publicaciones que incluían violencia gráfica no permitida.

El informe tampoco aborda cómo Facebook está atacando otro asunto irritante: la proliferación de historias falsas inventadas por agentes rusos y otros fabricantes que tratan de influir en las elecciones y la opinión pública.

Las cuentas falsas en Facebook han llamado más la atención porque los agentes rusos las usaban para comprar anuncios para tratar de influir en las elecciones de 2016 en los EE. UU.

A pesar de que se ha centrado en cerrar cuentas falsas, Facebook ha dicho que del 3 al 4 por ciento de sus usuarios mensuales activos son falsos. Eso significa que hasta 88 millones de cuentas falsas de Facebook seguían escapándose por las grietas en el sistema policial de la compañía hasta marzo.

LEE TAMBIÉN: Cámaras avanzadas detectan si los alumnos en una escuela china están distraídos

No es sorprendente que los programas automáticos de Facebook tengan la mayor dificultad para tratar de descubrir las diferencias entre las opiniones permisibles y el lenguaje despreciable que cruza la línea, dijo Carone.

"Es como tratar de descubrir el equivalente entre gritar '¡Fuego!' en un teatro lleno de gente cuando no hay ninguno y el equivalente de decir algo que es incómodo pero califica como libertad de expresión ", dijo.

Facebook dijo que eliminó 2,5 millones de contenido considerado discurso de odio inaceptable durante los primeros tres meses de este año, en comparación con los 1,6 millones del trimestre anterior. La compañía atribuyó una mejor detección, incluso cuando dijo que los programas de computadora tienen problemas para entender el contexto y el tono del lenguaje.

Facebook eliminó 3,4 millones de episodios de violencia gráfica durante los primeros tres meses de este año, casi el triple de los 1,2 millones de los tres meses anteriores. En este caso, una mejor detección fue solo una parte de la razón. Facebook dijo que los usuarios estaban publicando imágenes de violencia de manera más agresiva en lugares como la Siria devastada por la guerra.

La mayor transparencia se produce cuando la empresa de Menlo Park, California, intenta enmendar un escándalo de privacidad desencadenado por políticas laxas que permitieron que una empresa minera de datos vinculada a la campaña del presidente Donald Trump en 2016 recolectara información personal en hasta 87 millones de usuarios. . Sin embargo, el cribado de contenido no tiene nada que ver con la protección de la privacidad, y está dirigido a mantener un ambiente familiar para los usuarios y anunciantes.



Para comentar debes registrarte y completar los datos generales.