Noticias de Agentes

Los Agentes de AI no siempre defienden tus intereses. Alineacion y oportunidades.

Pedís baterías, Alexa compra Amazon Basics. No Energizer, la marca que compraste los últimos 10 años en Amazon y cuya historia la plataforma tiene disponible 100%. El sistema sabe lo que preferís, sólo elige ignorarlo porque hay un incentivo económico más fuerte que tu preferencia.

Eso no es un bug, es diseño. Y lo que viene con los agentes de IA es exactamente el mismo playbook, pero con un poder de ejecución que Alexa no podía ni imaginar.

El problema no es la tecnología. Es el modelo de negocio.

Los agentes de IA van a manejar cada vez más decisiones que hoy todavía hacés vos: Reservas de hotel, compras recurrentes, renovación de suscripciones, seguros, gestión de cuentas de servicios y mucho más. El ejemplo de Alexa es de hace años. Lo que se viene es lo mismo con mil veces más poder de ejecución.

Anthropic, OpenAI y Google no te dicen explícitamente para quién trabajan los agentes cuando hay un conflicto de interés. Y ese conflicto existe desde el momento en que hay un modelo de negocio atrás. [Les recomiendo leer lo que es el Superalineamiento]

Un agente que maneja tu correo puede decidir qué emails priorizás (un proveedor que paga por visibilidad puede estar mejor posicionado que uno que no paga). Un agente que busca vuelos puede darte "las mejores opciones" con un criterio que no es el tuyo sino el del affiliate deal de la plataforma. Un agente que negocia servicios en tu nombre puede "optimizar" dentro de un universo de opciones que ya fue pre-curado para excluir a los competidores del que lo financió.

Los sistemas de recomendación y publicidad pueden guiar decisiones sin que el usuario note el empuje. Y esto ya esta pasando con los algoritmos de feed de cualquier red social y sus "pesos"; xon agentes que actúan, el problema es exponencialmente más serio.

Los dark patterns van a mutar

Hay un cuerpo importante de investigación sobre dark patterns (patrones de diseño que manipulan decisiones). Los reguladores europeos llevan años catalogándolos: urgencia falsa, opciones pre-seleccionadas, fricción asimétrica para cancelar servicios.

Todos los estudios coinciden en que los dark patterns tienen un impacto negativo en la elección, autonomía, intereses y bienestar del usuario.

Pero esos dark patterns operaban en interfaces que vos veías. Podías reconocer el botón de "Aceptar todo" versus el laberinto de configuraciones de privacidad. Podías darte cuenta, si prestabas atención, que te estaban llevando hacia una decisión particular.

Los agentes operan en otra capa. Vos no ves la interfaz. Ves el resultado.

"El agente encontró el mejor precio" (y vos no sabés qué opciones ni siquiera fueron consideradas). "El agente renovó tu suscripción" (en las condiciones que eligió el agente, no las que vos hubieras negociado). "El agente completó tu pedido" (con las marcas y proveedores que el agente tiene instrucciones de priorizar).

Los agentes de IA tomando decisiones consecuentes en nombre del usuario sin proveer notificación apropiada es una de las áreas que los reguladores ya están marcando como problemáticas. Pero la velocidad del deployment supera por mucho la velocidad de la regulación.

Esto no es nuevo. Es la historia de toda plataforma.

El patrón es exactamente lo que Google hizo con la búsqueda, lo que Facebook hizo con el feed, lo que Amazon hizo con el marketplace. La diferencia es de grado, no de naturaleza.

Con Google, te mostraban resultados orgánicos mezclados con publicidad, cada día tomando más espacio o vendiendo tu marca a competidores y vos podías ignorar los ads si querías. Con los agentes, no hay distinción visible entre "lo que el agente realmente cree que es mejor para vos" y "lo que el agente tiene como incentivo para priorizarte."

Es el mismo playbook, pero on steroids. Ahora que el modelo de búsqueda paga está siendo disrumpido por LLMs que potencialmente quieren su propio sistema de ads, el movimiento natural es capturar la capa de intent antes de que alguien más lo haga. Y nosotros, los usuarios, estamos cediendo esa capa sin demasiada discusión.

La trampa del "te lo hacemos más fácil"

El argumento para los agentes siempre va a ser la conveniencia. Nadie va a decir "le cedés el control de tus decisiones a una IA entrenada con incentivos que no son los tuyos." Van a decir "¿para qué perder tiempo en esto si el agente lo puede hacer mejor y más rápido?"

Y en muchos casos, ES VERDAD. Hay decisiones de baja "importancia" donde no me importa si el agente elige Marca A o Marca B. Si ahorra tiempo y el resultado es razonablemente bueno, adelante.

Pero hay decisiones donde el "mejor" es subjetivo y el criterio importa muchísimo. Médico, seguro de salud, proveedor de servicios financieros, infraestructura para tu startup. En esos casos, el agente que "optimiza" por criterios no alineados con los tuyos puede generarte un problema serio que vas a tardar mucho en ver.

Y el problema es que la línea entre "decisión trivial" y "decisión que importa" no siempre es obvia. El agregado de miles de decisiones "triviales" sobre qué comprás, qué servicios usás, qué información consumís configura algo más grande que la suma de las partes.

¿Qué hacemos con esto?

No tengo una respuesta limpia. Sospecho que nadie la tiene todavía.

La regulación europea va en la dirección correcta (las expectativas de consentimiento dinámico están creciendo, con usuarios que esperan poder revisar y actualizar sus decisiones a medida que cambia su nivel de comodidad), pero su historial anti-innovacion es tan grande que hoy por hoy no tiene ni capacidad de perseguir el ritmo de deployment de agentes.

La alternativa más pragmática es la del "bounded autonomy": agentes con límites explícitos, con audit trails, con escalation hacia humanos para decisiones de alto impacto. Pero eso requiere que las empresas que construyen agentes tengan incentivos para implementarlo. Y hoy los incentivos apuntan en la dirección contraria, porque el usuario final prefiere gratis que pago.

Lo que sí es claro es que la narrativa dominante ("los agentes van a liberarte de tareas tediosas") omite la segunda parte de la oración: "y en el proceso, van a tomar por vos decisiones que quizás no querrías ceder."

Elegir es costoso. Lleva tiempo, genera fricción, requiere atención. La promesa de los agentes es eliminar ese costo. Pero el costo no desaparece. Se transfiere. La pregunta es quién captura el valor de esa transferencia.

El problema es también una oportunidad para emprendedores dando vueltas

Cada vez que una plataforma captura demasiado valor a expensas del usuario, aparece espacio para alguien que juega distinto. Acá hay al menos cuatro direcciones interesantes para startups que quieran apostar por el lado del usuario.

  • La primera es la distinción entre agentes fiduciarios y agentes comerciales. En derecho, un fiduciario tiene obligación legal de actuar en el mejor interés de su cliente, por encima de sus propios incentivos. Un abogado no puede venderte mal consejo para cobrar más. Un asesor financiero con obligación fiduciaria no puede ponerte en el fondo que le paga mejor comisión. La pregunta es si vamos a exigir lo mismo de los agentes de IA que manejan decisiones consecuentes. Hay discusiones regulatorias en esa dirección, pero también hay una oportunidad de producto: el agente que se certifica como fiduciario, acepta auditorías externas de sus criterios, y cobra por eso como diferencial. Difícil de construir. Muy difícil de hacer cumplir. Pero si alguien lo logra con credibilidad, tiene un moat enorme.
  • La segunda es lo que podría llamarse la guerra de los agentes. La visión no necesariamente es que un agente de Google o de OpenAI controle todo. Una alternativa más interesante (y más probable en mercados donde la privacidad importa) es un ecosistema donde tu agente personal, posiblemente open source o de una empresa centrada en privacidad, interactúa con los agentes comerciales de los proveedores. Tu agente tiene un solo trabajo: detectar y filtrar los sesgos de los agentes que están al otro lado de la transacción. Es básicamente un abogado negociador automatizado que trabaja para vos. Eso es un modelo de negocio.
  • La tercera es la explicabilidad. Si un agente toma una decisión, el usuario debería poder preguntar "¿por qué elegiste esto?" y recibir una respuesta que revele el criterio real. "Elegí esto porque era lo más barato que cumplía tus requisitos mínimos" es útil. "Elegí esto porque es el proveedor preferido en esta plataforma" es incómodo pero honesto. Las empresas que construyen capas de XAI (explainability) sobre agentes comerciales, o que venden esa transparencia como feature central, están apuntando a un dolor real.
  • La cuarta es el modelo de suscripción pura. El problema central es el financiamiento por publicidad y comisiones de afiliados. La alternativa teórica es el agente que cobra al usuario directamente y no tiene ningún otro revenue stream. Vos sos el cliente, no el producto. La historia de la tecnología sugiere que la mayoría de los usuarios elige "gratis a cambio de datos" sobre pagar, lo cual complica el modelo. Pero hay segmentos (especialmente en B2B y en usuarios de alto valor) donde esa ecuación se invierte. El agente que maneja tu stack de proveedores para tu startup probablemente vale lo que cuesta si realmente trabaja para vos.

Ninguna de estas cuatro direcciones es fácil. Todas compiten contra plataformas con distribución masiva y costos marginales casi cero. Pero ese fue exactamente el argumento para no competir con Google en búsqueda, con Amazon en ecommerce, con Facebook en redes sociales. Y en todos esos casos aparecieron players que encontraron el ángulo correcto.

Hasta ahora, la historia de la tecnología tiene una respuesta muy consistente sobre quién captura el valor cuando cedés el control de tus decisiones y no somos nosotros.

La pregunta para los próximos años es si esa historia tiene que repetirse, o si el momento de los agentes es también el momento en que alguien construye el negocio de estar genuinamente del lado del usuario.

| Estrategias Inteligencia Artifical
Tags:
Agentes emprendedores IA inversiones