23 mayo 2019
El Popular

Invitado

El reto de la regulación de contenidos en Facebook

Por Barthélémy MICHALON. / febrero . 17, 2019.

Los resultados anunciados por Facebook hace un par de semanas fueron mejores de lo esperado: la red social sigue aumentando su número de cuentas activas y generando niveles extraordinarios de ingreso. En el transcurso del 2018, el número total de usuarios subió un 9% para rebasar los 2,300 millones de personas, mientras que sus beneficios netos ascendieron a 22 mil millones de dólares.

Estos números son todavía más impactantes teniendo en cuenta que el año pasado fue especialmente demandante y complicado para la empresa, cuando encaró numerosos escándalos ligados, entre otros, a intrusiones en la privacidad de sus usuarios, a la difusión de noticias falsas o de mensajes de odio, o a su instrumentalización para fines electorales.

Estos problemas no son meros problemas internos a una empresa privada, sino que tienen un impacto concreto sobre las personas, las sociedades y los sistemas políticos. Por esta razón, Facebook y otros gigantes del mismo sector están enfrentando una presión creciente para resolverlos y para rendir cuentas de los resultados obtenidos.

Respecto a la difusión de contenidos en su plataforma, cada vez más gobiernos están exigiendo que las plataformas controlen estos mensajes, con el fin de impedir que se difundan de forma masiva aquellos considerados como peligrosos (por ejemplo, por ser llamados a la violencia, discursos de odio o relacionados con terrorismo).

En la actualidad, con tal de mostrar que está realizando los esfuerzos solicitados, Facebook menciona un dato de forma recurrente e insistente en su comunicación institucional: ahora, son 30.000 las personas que trabajan en la empresa en el ámbito de la “seguridad”, el triple de lo que eran hace dos años. Lo anterior no incluye a otras decenas de miles de “moderadores”, empleados en países de bajos salarios por empresas que por medio de subcontratación prestan servicios a Facebook. Después de una capacitación minimalista, estas personas revisan miles de contenidos al día, muchos de ellos altamente perturbadores, y toman igual número de micro decisiones para determinar cuáles pueden permanecer en línea y cuáles no.

La empresa ha desarrollado varios documentos que, se supone, deben servir de guía en esta tarea. A pesar de que sean cada vez más precisos y numerosos, no logran capturar todos los matices del lenguaje humano, menos aun teniendo en cuenta la diversidad de los contextos nacionales. Como consecuencia se da la paradoja siguiente: constantemente, se agregan nuevas reglas al buscar cubrir todos los tipos casos imaginables, pero esta cantidad exponencial de consignas, con sus inevitables excepciones y casos especiales, termina siendo abrumadora y finalmente cada vez más casi imposible de aplicar.

Aunque Zuckerberg la invoque con frecuencia como la respuesta perfecta a este reto, por el momento la inteligencia artificial no es capaz de realizar de manera satisfactoria esta labor de filtración de los contenidos: hasta la fecha, su uso en esta área se limita principalmente a identificar contenidos problemáticos, dejando la última palabra a un humano, con sus propias fallas y sus propios sesgos.

La selección de los contenidos aceptados en una plataforma tan ampliamente utilizada es una actividad altamente delicada, pues se relaciona directamente con el ejercicio de varios derechos, en primer lugar el derecho de expresión.

De la misma manera que la empresa ha sido criticada por permitir la difusión de mensajes intolerables en su plataforma (como llamados a la eliminación de miembros ciertos grupos étnicos), también lo ha sido por sofocar la expresión en línea de ideas legítimas (por ejemplo, contenidos políticos como caricaturas o mensajes de oposición al gobierno en turno).

En su intento por evitar ser responsabilizado por un motivo o por su contrario, el jefe de Facebook anunció a finales de enero su intención de crear una instancia independiente que tendría la capacidad de reconsiderar ciertas decisiones tomadas por la plataforma del pulgar levantado: una especie de “corte de apelaciones” que tendría la última palabra en estas cuestiones.

Pero los detalles prácticos para crear esta instancia representan un reto adicional: ¿Cómo se seleccionarán a sus integrantes? ¿Qué casos serán elegibles para ser presentados ante ella? ¿Cómo asegurar su independencia? Estas preguntas y muchas otras aún no están resueltas pero una cosa está segura: son reveladoras de que Facebook, por el alcance y el peso que ahora tiene, debe asumir responsabilidades que no son las de una empresa clásica.

 

* Profesor de tiempo completo del Tecnológico de Monterrey en Puebla, en la carrera de Relaciones Internacionales – bmichalon@itesm.mx

Te puede interesar