asi-funciona-la-“carcel”-de-facebook,-el-polemico-sistema-de-sanciones-que-acumula-criticas-en-la-redTecnología 

Así funciona la “cárcel” de Facebook, el polémico sistema de sanciones que acumula críticas en la red

La Junta de Supervisión de Facebook que definió en mayo el acceso del ex presidente Donald Trump a su perfil en la red social dejó en evidencia un polémico accionar que involucra moderadores externos, inteligencia artificial, algoritmos y -en muchos casos- carencia de argumentos a la hora de las sanciones.

Desde que comenzó a tomar casos en octubre, la Junta de Supervisión recibió más de 220.000 apelaciones de usuarios y emitió tan solo ocho fallos, seis de los cuales anulan la decisión inicial de Facebook.

John Taylor, el referente de la junta, asegura que la intención nunca fue “ofrecer las mejores versiones de ningún tema en particular del día. El objetivo de la junta es tomar una decisión sobre las decisiones de contenido más difíciles que enfrenta la empresa”.

En los últimos años, Facebook introdujo muchas reglas nuevas, comúnmente en respuesta a quejas específicas de legisladores y varios grupos de interés, diseñadas para proteger a los usuarios y guiar a un regimiento de empleados externos que trabajan en la moderación de contenido.


Los algoritmos de Facebook pueden restringir la visibilidad de publicaciones cuestionables, mostrándolas a menos usuarios. Foto: REUTERS.

Las pautas internas se suman a las Normas comunitarias de la empresa que figuran en su sitio web y no se hacen públicas.

Los moderadores recibieron instrucciones en documentos a los que tuvo acceso Wall Street Journal (WSJ) para eliminar, por ejemplo, declaraciones como “¡Si vota por correo, tendrá Covid!”.

En torno a la votación y las pasadas elecciones en Estados Unidos, que tuvo a Joe Biden como ganador, se pidió a los moderadores que eliminaran la leyenda: “Mis amigos y yo haremos nuestro propio seguimiento de las encuestas para asegurarnos de que solo voten las personas adecuadas”.

Lo curioso del caso, por ejemplo, fue que admitieran otra expresión al menos polémica que incitaba al electorado a no votar: “Escuché que la gente está interrumpiendo el proceso de ir a las urnas hoy. No voy a ir al colegio electoral”.

El vocero de la red social le dijo a WSJ que las diferencias son pequeñas pero “una distinción suficiente como para que las mencionamos y por qué tenemos esta documentación detallada para nuestros revisores de contenido”.

Dentro de la cárcel

Facebook revisa dos millones de piezas de contenido al día. En este contexto, según palabras de Zuckerberg, la compañía toma la decisión incorrecta en más del 10% de los casos, lo que significa que alrededor de 200.000 decisiones podrían ser incorrectas al final de la jornada de trabajo.

Los usuarios que no cumplan con las reglas pueden pasar tiempo en lo que varios denominaron “cárcel de Facebook”, perdiendo la capacidad de comentar y publicar durante 24 horas a 30 días o, en casos más serios, perder sus cuentas indefinidamente.

Por lo general, un usuario de Facebook tiene que acumular varios ataques en su contra antes de enfrentar una prohibición, pero ese número no está reflejado en la plataforma. “No queremos que la gente juegue con el sistema”, se justificaron.

Cuando se elimina el contenido o se bloquea a los usuarios, la red social generalmente dispara una notificación que les dice que violaron los “Estándares de la Comunidad.

El aviso generalmente indica qué categoría amplia fue violentada. Independientemente de las decisiones de la Junta de Supervisión, Facebook restaura miles de piezas de contenido previamente eliminado cada trimestre después de las apelaciones de los usuarios.

Recientemente, Facebook apeló más hacia la automatización para ayudar a guiar sus decisiones, confiando en la inteligencia artificial y los algoritmos para eliminar el contenido y también decidir sobre las apelaciones de los usuarios.


Muchos usuarios bloqueados desconocen los motivos que provocaron la restricción a su cuenta de Facebook. /Shutterstock

Un artículo de investigación de la Universidad de Nueva York publicado a mediados del 2020 calificó el enfoque de la compañía para la moderación de contenido como “extremadamente inadecuado” y le solicitó a Facebook que dejara de subcontratar la mayor parte del trabajo y duplicara el número total de moderadores.

“Esto es lo que obtenés cuando desarrollás un sistema tan grande como este”, dice Olivier Sylvain, profesor de derecho en la Universidad de Fordham, quien investigó a Facebook y la moderación de contenido en general.

“No creo que sea perjudicial para la salud o incorrecto que nos preguntemos si los beneficios que se derivan de un servicio tan grande superan la confusión y el daño”, agregó.

Barksdale, un profesor de historia en Newcastle, Oklahoma, fue expulsado de su página de Facebook varias veces desde sin haber recibido una respuesta convincente de parte de la compañía.

Una vez se le impidió publicar y comentar durante tres días después de compartir una foto de la era de la Segunda Guerra Mundial de funcionarios nazis frente a la Torre Eiffel como parte de una discusión de historia, con una breve descripción de la foto. Recibió una prohibición de 30 días por tratar de explicar el término pseudociencia a uno de sus seguidores.

Durante otro episodio que le costó siete días de restricción en la plataforma, Barksdale hizo directamente clic en un botón para apelar, Facebook no estuvo de acuerdo y extendió su prohibición a 30 días, diciendo que seis de sus publicaciones anteriores habían ido en contra de los Estándares de la comunidad de la compañía.

Barksdale dice que intenta seguir los Estándares de la comunidad de Facebook, pero no sabía que había cometido tantas infracciones.


La Junta de Supervisión que ratificó en mayo el acceso del ex presidente estadounidense, Donald Trump. Foto: AFP

Desde la red social se defendieron con el argumento que los usuarios pueden encontrar generalmente sus infracciones en su “bandeja de entrada de soporte” adjunta a su perfil.

Los Estándares Comunitarios de Facebook, las reglas públicas, se han expandido en los últimos años para incluir seis categorías principales y 27 subcategorías que van desde “contenido violento y gráfico” hasta “noticias falsas”.

La política de Facebook sobre incitación al odio prohíbe los ataques directos a personas, por motivos de raza, religión y otros datos demográficos. Sin embargo, las permite cuando las palabras se utilizan para crear conciencia, o “de una manera empoderadora”, de acuerdo con los Estándares Comunitarios.

“Pero requerimos que la gente indique claramente su intención. Si la intención no está clara, podemos eliminar el contenido”, remarcan.

Internamente, Facebook trabaja a partir de un conjunto de pautas mucho más específico y complicado, un documento de más de 10,000 palabras denominado “Estándares de implementación”, en el que se basan sus más de 15,000 moderadores de contenido para tomar decisiones.

Incluso hay más documentos, conocidos internamente como “Pautas operativas” y “Preguntas conocidas”, que explican con más detalle el fundamento de la compañía para sus reglas.

En la mayoría de los casos, cuando un contenido es marcado por Facebook, ya sea por un usuario o por sus algoritmos, la publicación, la foto o el video generalmente son revisados ​​por los moderadores, cuyo trabajo es tratar de aplicar las reglas desarrolladas por Facebook.

En uno de los documentos al que tuvo acceso WSJ, la compañía prohibió el uso de una “descripción física degradante”, que definió como “calificar la apariencia de un individuo de fea, repugnante o repulsiva”. Para ello dieron como ejemplo: “Es repugnante y repulsivo lo gordo y feo que es John Smith”.

Muchos usuarios no conocen los documentos internos que ayudan a los moderadores a interpretar las reglas públicas. En contraste, Alphabet, el motor de búsqueda de Google, publicó el conjunto completo de 175 páginas de reglas que utilizan sus 10.000 “evaluadores de calidad de búsqueda” para los resultados de búsqueda.


A diferencia de Facebook, Google reveló un documento con las reglas de sus evaluadores para moderar los resultados de búsqueda. Foto: DPA.

“Queremos que la gente entienda dónde trazamos la línea en los diferentes tipos de discurso, y queremos invitar a la discusión de nuestras políticas, pero no queremos enturbiar las aguas inundando a la gente con demasiada información”, dice la portavoz de Facebook. .

En varios fallos de este año, la Junta de Supervisión ha instado a Facebook a ser más claro en sus Estándares Comunitarios, similar a la especificidad que se encuentra en sus documentos internos.

Los números de Facebook

En los últimos años, la red social dependió más de su inteligencia artificial para marcar el contenido problemático, según fuentes de la compañía. En mayo de 2020, la compañía promocionó su uso de IA para eliminar contenido relacionado con la pandemia de coronavirus.

Facebook eliminó 6,3 millones de piezas de contenido en la categoría de “intimidación y acoso” durante el cuarto trimestre de 2020, frente a los 3,5 millones del tercer trimestre, en parte debido al “aumento de nuestras capacidades de automatización”, dijo la compañía en su Comunidad trimestral. 

Los usuarios apelaron alrededor de 443.000 piezas de contenido en la categoría y Facebook restauró alrededor de un tercio, según datos de la compañía.

En otras categorías se eliminaron menos piezas de contenido en comparación con el trimestre anterior, y la acción del contenido puede verse afectada por muchos factores externos, como las publicaciones virales que aumentan los números.

Facebook vigila cada vez más el contenido de formas que no se revelan a los usuarios, con la esperanza de evitar disputas sobre sus decisiones.

Los algoritmos “entierran” las publicaciones cuestionables, mostrándolas a menos usuarios, restringiendo silenciosamente el alcance de los sospechosos de mala conducta en lugar de eliminar el contenido o bloquearlos por completo de la plataforma.

SL

Mirá también

TEMAS QUE APARECEN EN ESTA NOTA

Articulos relacionados