Categorías
Comunidades Online

Las políticas de moderación de Facebook, una guerra que no pueden ganar

Por primera vez se hacen públicas las políticas internas de moderación de Facebook, no por voluntad propia sino porque The Guardian hizo un gran trabajo publicándolas y explicándolas justo en momentos donde la red social está en la línea de fuego por el contenido que se publica constantemente y mi primer impresión es que están librando una guerra imposible de ganar.

¿Como marcar efectivamente que es bueno y que es malo cuando se generan unos 1.500 millones de «comentarios + fotos + status» al día?

Facebook está en una lucha donde casi 2.000 millones de usuarios tienen diferentes opiniones, educación y límites morales, donde podemos estar de acuerdo en que hay cosas intrínsecamente malas pero donde la decisión debe ser casi instantánea ¿un ejemplo? creo que es casi imposible reaccionar en menos de 10 segundos desde que una pieza de revenge porn se publica hasta que se extiende… y además ¿como definís una política global capaz de definir que es publicable y que no?

politica de porno de venganza
Definitivamente una definición vaga e inaplicable

Pero si es límite es dificil de «definir» para crear una política accionable ¿como definís una política donde la violencia es peligrosa o es simplemente «permisible» como discurso? ¿en base a la violencia intrínseca? ¿en base a la «credibilidad» de la frase? ¿del contexto? esta es una batalla realmente casi increíble… donde incluso los ejemplos oficiales son un desastre: “Someone shoot Trump” es no-permisible pero permitís explicar que: “To snap a bitch’s neck, make sure to apply all your pressure to the middle of her throat” ridículo.

violencia aceptable en facebook

Entiendo que la violencia verbal es, muchas veces, resultado de la frustración personal pero la frase de como aplicar presión es simplemente inaceptable.

En definitiva, creo que esta filtración es necesaria para entender como funcionan las políticas de Facebook pero muestra tres cosas a primera vista:

  • Es imposible moderar con la velocidad que necesita una plataforma con este alcance.
  • Las políticas deberían ser públicas para que se pueda «crear conjuntamente» o al menos ser «opinables» de forma pública.
  • La inteligencia artificial no puede, al menos ahora, entender contexto, ironía, intención, etc.

Mientras tanto conviviremos con definiciones como “We do not action photos of child abuse. We mark as disturbing videos of child abuse. We remove imagery of child abuse if shared with sadism and celebration.”

3 respuestas a «Las políticas de moderación de Facebook, una guerra que no pueden ganar»

Por como funcionan estos algoritmos y la capacidad de cómputo que tiene FB, intuyo que apuntan a eliminar el grueso-obvio-evidente de manera automática. Y dejar al lento manpower para los `critical`. ¿80/20?
Los algoritmos no van a parar de aprender.
Sera algo mas `long term`?

[…] Facebook, Twitter y YouTube están en el ojo de la tormenta hace rato por su escaso éxito para frenar el bullying, el extremismo político o religioso y el acoso, y por su incapacidad para responder a las denuncias de la comunidad de manera eficiente. Pero en el caso de Kik lo inaceptable reside en que, a sabiendas de probados delitos, la compañía ha sido poco eficiente en accionar de manera rápida para que no se repitan: mantener activos perfiles de personas condenadas por pedofilia es un ejemplo de ello. Otro problema es el anonimato, ya que para registrarte no tenés que hacer ningún tipo de verificación ni con tu teléfono, ni por correo o través de otra red social, y además no necesitás una SIM. En Kik podés ser todo lo anónimo que quieras. […]

Los comentarios están cerrados.