El problema con los bots en medios: los humanos

chatbot-1-930x760

People still want bots to be bots“. Son interesantes las conclusiones que extrae Martin Belam, responsable de nuevos formatos en The Guardian, tras dos meses de experiencia con  Sous-chef, un bot de Facebook que recomienda recetas según lo que haya en tu nevera.

La promesa de los bots en los medios lleva un tiempo estancada en ese terreno incómodo que se encuentra “esto promete” y “sí, pero no sé cómo hacerlo”. Tras la aparición de las primeras plataformas para bots en aplicaciones de mensajería (Facebook Messenger y Telegram son los principales exponentes, pero también hay algo más limitado en Slack y en Kik) fueron varios medios los que se subieron al carro de manera entusiasta. Techcrunch realizó una suerte de experimento con Chatfuel, ya inactivo o directamente cerrado/desactualizado, y Forbes lo propio en Telegram, pero también lo tiene cerrado y en estado de “revisión”.

¿Cuál es el problema? La teoría es, en apariencia, sencilla: coges el canal, la aplicación de mensajería, coges tu contenido, producido de manera orgánica por el medio y a correr. La práctica, como apunta Belam, es en realidad muchísimo más compleja. Es una práctica que, irónicamente, tiene poco que ver con los bots en sí, con su complejidad o naturaleza misma, sino con los humanos.

Esperamos que un bot, una máquina controlada por una IA ciertamente primitiva, se comporte de manera muy similar a un humano precisamente porque lo encontramos en un contexto, nuestra aplicación de mensajería favorita, donde interactuamos exclusivamente con humanos. En el momento en el que la idea se desvía de esa particularidad, aparecen los problemas.

En un bot de medios parecen críticos aspectos como:

  • Conversación: dicho así parece obvio pero el tono de un bot tiene que ser conversacional. Es importante porque excluye mecánicas como “pegar titular” + “pegar entradilla” (varios bots de medios ya han caído en esto). Al final, cuando se cae en eso no solo se convierte en una especie de Twitter en una realidad paralela sino que para dicha mecánica ya hay una función mucho más adecuada: los canales de Telegram. Da que pensar, también, sobre la inmensa mayoría de medios que ponemos Titular+link+imagen en Twitter y ya.
  • Pero no tanto: Belam apunta que, en sus pruebas, observaron que cuando las respuestas predefinidas eran muy encorsetadas y robóticas el engage caía, pero cuando se iban al extremo opuesto, demasiado informal y conversacional, ocurría algo similar. Curioso. Encontrar el tono correcto probablemente lleve algún tiempo, pero experimentos como el de Quartz con su app parecen buenos comienzos.
  • La delgada línea entre la información y el spam: un bot en una aplicación de mensajería es algo realmente íntimo, una fracción de IA entre un universo de conversaciones orgánicas generadas por humanos. Matrix en un mundo de Neos. Y del mismo modo que se acaba por silenciar o directamente salir de ese grupo de WhatsApp que no para de sonar, en The Guardian observaron cómo tenía más valor enviar alertas a una hora determinada (como si fuesen boletines) en función de la ubicación del usuario y su huso horario en lugar de abrasarlos con breaking news como puede ocurrir en Twitter (hay un claro ejemplo: el bot de CNN hace precisamente eso).

Existen muchos elementos en los bots para medios (aquí hay otro buen texto sobre su aplicación y uso en marcas) que merecen la pena ser revisados y estudiados con cautela: el tono, la longitud, el formato, la temática, la frecuencia de publicación… elementos que, irónicamente y no hace tanto, también se evaluaban a la hora de aplicarlos en los medios digitales.

 

2 thoughts on “El problema con los bots en medios: los humanos”

  1. Mi gran pregunta es ¿Realmente alguien los necesita?
    El único necesitado parece ser el medio para abaratar costos y amplificar audiencia, pero no el usuario. El bot ideal deberia aprender lo suficiente del usuario como para no acosarlo con temas que no le interesan pero ¿Cómo hacerlo sin invadir la privacidad de la persona? ¿con una conversación? ¿un “no me interesa”? ¿Está el humano dispuesto a educar a una AI a su gusto y medida?
    Nos falta un click mental que permita eso y, creo yo, el problema es que el robot está del lado de la empresa y no del usuario.
    Imaginemos que el bot sea en realidad un asistente personal real, que esté de nuestro lado, que aprenda sin violar nuestra privacidad y luego busque lo que nos guste más, pero todo esto sin pasar por un tercero.
    Ahí tendríamos un escenario distinto donde el usuario no se sentiría espiado sino acompañado, claro, ninguna empresa querría esto jamás, por eso Google mató Google Reader, que jamás quede la información sin controlar, que el feed muera así puede tener todo el control el medio generador o el intermediario (cosa que no funcionó con Goolge+ pero al menos lo intentaron).

    Un bot que te conozca, que nadie pueda acceder salvo vos, que te siga, que te cuide, que sea tu asistente, que haga de lector de feeds.

    1. De acuerdo, pero hablamos de casos distintos, me temo, creo que por un lado estarían los bots de medios (al servicio del medio, como es lógico) y por otro los de tipo personal, un Siri en formato texto (que para mí tuvo siempre mucho más sentido que vía voz).

      Dicho eso, sí, hay muchísimos matices y problemas que son variables y discutibles. De la parte de no invasión/no acosar, sí que habló Belam y hablo yo en el post.

Leave a Reply

Your email address will not be published. Required fields are marked *