Inteligencia Artifical

Construir código no es construir un negocio; y ese error borró millones del mercado de SaaS

El reporte de Citrini Research que salió la semana pasada movió mercados. Adobe cayó, Salesforce cayó, DoorDash cayó. Los titulares declararon el fin del SaaS. Y todo basado en... un thought experiment escrito desde la perspectiva hipotética de junio de 2028 donde el desempleo llegó a 10,2% y el S&P cayó 38% desde sus máximos.

Seamos honestos sobre lo que es esto: un escenario de ciencia ficción con formato de macro memo. Citrini lo aclara en el preface (es un "thought exercise, not a prediction"), pero el mercado leyó los titulares y vendió. Conviene preguntarse si eso fue accidental.

Hoy, la gente de Citadel Securities respondió con datos reales. Y la diferencia entre los dos documentos es la diferencia entre un escenario que suena coherente y un análisis que es coherente.

El problema de confundir tecnología con adopción

El argumento central de Citrini es que la IA va a destruir el empleo white-collar tan rápido que el consumo colapsa, lo cual destruye la economía, lo cual genera una crisis sistémica que hace que el S&P caiga 38%. Todo en dos años.

Citadel apunta al problema fundamental: la difusión tecnológica históricamente sigue una S-curve, no una línea recta al infinito. Que la tecnología pueda mejorar recursivamente no implica que la adopción sea recursiva. Son dos cosas distintas, y Citrini las confunde deliberadamente (o inadvertidamente, que es peor).

Los datos del St. Louis Fed sobre uso de IA en el trabajo muestran algo que destruye la narrativa de Citrini: la adopción diaria de IA para trabajo es sorprendentemente estable. No hay evidencia de una inflexión exponencial. Y más importante: los job postings para software engineers subieron 11% interanual. Si la IA estuviera destruyendo esos empleos al ritmo que describe Citrini, ese número no existiría.

La formación de nuevos negocios en EEUU también está creciendo rápidamente (datos del Census Bureau que Citadel incluye). Que haya desplazamiento en algunos sectores no implica que no haya creación en otros. Esto es Economía 101, pero Citrini lo ignora olímpicamente para que el escenario funcione.

El error lógico de la demanda agregada

Acá viene lo importante. Citrini construye un loop donde la IA destruye empleos → los trabajadores gastan menos → la economía colapsa. El problema es que ese razonamiento viola identidades contables básicas.

Si la productividad sube, los costos bajan, los precios caen, el poder de compra real aumenta. Citadel lo dice directamente: un escenario donde la productividad sube y la demanda agregada colapsa simultáneamente viola identidades de contabilidad nacional. Si el output sube, algo en el lado de la demanda tiene que estar subiendo también: consumo, inversión, gasto público, exportaciones netas.

Citrini necesita asumir que el ingreso laboral cae, que no hay respuesta fiscal, que la inversión no absorbe el impacto y que no hay crecimiento de exportaciones. Todo al mismo tiempo. Es un escenario que solo funciona si uno asume que todo falla simultáneamente y que las democracias no responden a una crisis de desempleo masiva con política fiscal. Ese es un supuesto de una ingenuidad notable.

Citadel hace referencia a Keynes, que en 1930 predijo que trabajaríamos 15 horas semanales para 2030 gracias a la productividad. Se equivocó en la conclusión porque subestimó la elasticidad de los deseos humanos: cuando la productividad baja los costos, la gente no trabaja menos, consume más. El mismo mecanismo aplica acá.

El ejemplo de DoorDash, o cómo confundir código con negocio

El análisis de Citrini usa a DoorDash como el "poster child" de la destrucción por IA. El argumento: los agentes de coding colapsaron la barrera de entrada para lanzar una app de delivery, entonces van a aparecer decenas de competidores que le roban los drivers y fragmentan el mercado hasta que los márgenes lleguen a cero.

Es el ejemplo más revelador del documento, y no por las razones que Citrini cree.

El moat de DoorDash no es el código. Nunca lo fue. El código de una app de delivery es la parte más replicable de todo el negocio. Lo que no se replica con un agente de coding son las otras tres patas del negocio:

Los restaurantes. DoorDash tiene contratos negociados con cientos de miles de establecimientos. Eso implica relaciones comerciales, términos de comisión, integraciones con sistemas de punto de venta, acuerdos de exclusividad parcial. Nada de eso se genera con código. Se genera con vendedores en la calle, abogados, y años de construcción de relaciones.

Los repartidores. El supply side del marketplace es un activo construido con onboarding, soporte, sistemas de pagos, garantías de mínimos en algunas ciudades, y reputación. Si sos delivery person, trabajás donde hay volumen de pedidos y donde el sistema de pago es confiable. Un app nueva con código limpio pero sin pedidos no te da trabajo.

Los consumidores. Acá Citrini tiene un punto parcial: los agentes no tienen lealtad de marca. Pero lo que ignora es que los consumidores sí valoran reliability. El riesgo de que tu pedido llegue tarde, frío, o no llegue es suficiente para que muchos sigan usando la plataforma que conocen, aunque un agente encuentre una alternativa 15% más barata.

El dual-sided marketplace (en realidad tri-sided: restaurantes, repartidores, consumidores) tiene network effects que no se replican con código porque el valor de la plataforma aumenta con la densidad de los tres lados. Una app nueva en Buenos Aires con 50 restaurantes y 20 repartidores es inútil para el consumidor aunque esté escrita con el mejor código del mundo.

Citrini confunde "la barrera tecnológica es más baja" con "la barrera de entrada al negocio es más baja". Son cosas radicalmente distintas. Siempre fue barato construir el software de un banco. Lo que no es barato es conseguir la licencia regulatoria, el capital de respaldo, y la confianza de los depositantes.

Lo que el análisis sí tiene de valioso

Para ser justos: el escenario de Citrini no es completamente inútil. Hay partes donde el análisis es correcto.

El long tail de SaaS (Monday.com, Zapier, Asana) sí está genuinamente expuesto. Productos que existen principalmente para eliminar friction técnica en procesos sencillos tienen un problema real cuando la IA hace eso directamente. El argumento de la negociación de renewals también tiene sustancia: si un CIO puede mostrar un prototipo funcional en semanas, tiene leverage en la negociación aunque nunca piense deployar ese prototipo.

Pero de ahí al colapso sistémico hay un salto lógico enorme que Citrini hace con narrativa en lugar de con datos.

El timing del documento también genera preguntas legítimas. Un análisis bearish sobre SaaS, publicado días antes de resultados de empresas del sector, que genera caídas del 7-15% en acciones específicas... no digo que sea la intención, pero uno nota que Citrini eligió no aclarar sus posiciones. En el mundo de los hedge funds, eso importa.

La pregunta que me queda

Citadel tiene razón en el análisis macro. Citrini construyó un escenario que solo funciona si asumís que todo falla al mismo tiempo, que las respuestas institucionales no existen, y que los moats de negocios complejos se reducen a código.

Pero hay una pregunta más interesante que el debate sobre si el escenario es realista o no: ¿por qué nos convence tanto?

Quizás porque mezcla algo verdadero (el long tail de SaaS tiene un problema real) con algo seductor (la narrativa del colapso total es más marketeable que "algunas categorías de software van a bajar de precio"). Y en los mercados, la narrativa seductora mueve precios antes que el análisis riguroso.

El reporte de Citadel es más aburrido. Tiene gráficos del St. Louis Fed y referencias a identidades contables keynesianas. No genera titulares. Pero tiene algo que el de Citrini no tiene: datos del mundo real donde estamos, no de un 2028 que nadie conoce todavía.

| Estrategias Inteligencia Artifical Mercados
Tags:
Citadel Citrini IA innovación inversiones mercado

Freelancers e IA, el mismo modelo de negocio

Ya que hablamos de trabajo "desplazado por la IA": los datos sobre el estado del freelancing muestran que son, efectivamente, el sector más golpeado. Y tiene sentido por razones estructurales que un paper reciente hace muy explícitas.

Payrolls to Prompts: Firm-Level Evidence on the Substitution of Labor for AI (Ryan Stevens, enero 2026) es posiblemente la primera medición directa a nivel micro de que la IA generativa se está usando como sustituto parcial del trabajo humano.

La metodología es sólida: usan datos de gasto real de empresas (no job postings, sino pagos efectivos) de una plataforma de gestión de gastos de EE.UU. Siguieron el gasto trimestral desde Q3 2021 hasta Q3 2025 en marketplaces de trabajo online como Upwork y Fiverr, y en los principales proveedores de IA. El evento de corte que usan para medir causalidad es el lanzamiento de ChatGPT en octubre 2022 — lo cual les permite construir un modelo difference-in-differences y no quedarse en correlación.

El resultado central: una caída de $1 en gasto en trabajo online se asocia con aproximadamente $0,03 de gasto adicional en IA. Lo que implica ahorros de costos de un orden de magnitud, no mejoras marginales.

Leer completa
| Desarrollo Inteligencia Artifical
Tags:
emprendedores freelancers IA trabajo

El impacto real de la IA en el empleo: lo que muestran los datos

Desde que apareció ChatGPT que la idea del impacto de la inteligencia artificial en el trabajo es un péndulo que va desde "vamos a convertirnos en máquinas ultraproductivas con un copiloto" hasta "no necesitaremos más programadores (o abogados, o insertá acá tu profesión)" y muy pocas voces coherentes en el medio. Este estudio es interesante porque analiza con datos qué impacto se está viendo en el mercado laboral y muestra algunas conclusiones que van más allá del hype y el pánico.

El paper "Canaries in the Coal Mine" de Stanford usa datos administrativos de ADP (la empresa de nóminas más grande de EEUU) para trackear qué está pasando realmente con el empleo desde que ChatGPT explotó a fines de 2022. La muestra es enorme: millones de trabajadores cada mes, con información hasta septiembre 2025.

Los cuatro hallazgos clave

Leer completa
| Estrategias Inteligencia Artifical Rants
Tags:
desarrolladores HR IA trabajo

Anthropic levantó $30.000 millones y tiene perfecto sentido

Anthropic anunció que levantó $30.000 millones en su Serie G, duplicando su valuación a $380.000 millones en apenas cinco meses y muchos dudan de la logica de esta ronda. La ronda fue liderada por GIC y Coatue, con co-liderazgo de D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ, y MGX. La lista de inversores lee como un directorio de quién es quién en capital global: Accel, Blackstone, Fidelity, Goldman Sachs, JPMorgan, Sequoia, y varios fondos soberanos.

Y mirá, ya sé lo que estás pensando. "$380.000 millones de valuación para una empresa que hace tres años facturaba cero. Es una locura. Estamos en plena burbuja". Excepto que no: NO ESTAMOS EN UNA BURBUJA.

Esta ronda tiene toda la lógica del mundo si entendés la dinámica real de la carrera de IA. Y el hecho de que suene excesiva es precisamente el punto.

Leer completa
| Estrategias Inteligencia Artifical Rants
Tags:
Anthropic Google inversiones openai

Software as a Service a Software as a Solution

Durante años, el software fue un peaje. Pagabas por acceso, por asientos, por features. La propuesta era simple: "Te damos la herramienta, vos hacés el trabajo". Pero cuando los agentes de IA pueden hacer el trabajo por vos, esa ecuación se invierte completamente.

Si el SaaS tradicional era un peaje por usar herramientas, el Agentic AI es un contrato de resultados. Y esa inversión cambia todo: pricing, distribución, riesgo. Lo interesante es que la mayoría de las empresas están discutiendo los primeros dos mientras ignoran el tercero, que es donde se va a definir quién gana.

Leer completa
| Corporate IT Inteligencia Artifical
Tags:
AI emprendedores Estrategias inteligencia artificial inversiones

SOR vs SOA: donde la IA le saca valor a los SaaS

El jueves pasado, cuando OpenAI anunció Frontier, volvió la discusión de "La Muerte del SaaS" cuando vieron que Salesforce caia y ServiceNow se destruía, el sector entero de SaaS empresarial entró en pánico. Los analistas corrieron a declarar que "OpenAI va a comerse a los incumbentes" y que "el modelo de per-seat licensing está muerto". Y acá hay dos cosas interesantes, la reacción está basada en un malentendido fundamental sobre qué es Frontier y sobre todo si los SOR (System of Record) enterprise van a morir o simplemente ¿como va a cambiar el valor que generan? ¿como van a cuidar su MOAT?

Para ponerlo claro, OpenAI no está construyendo un CRM o un ERP, está construyendo una capa de orquestación que se conecta a Salesforce, SAP, Workday. El diagrama que OpenAI mostró es explícito: "Your systems of record" están en la base, Frontier vive arriba.

La amenaza real no es que OpenAI reemplace a Salesforce—es que se convierta en la interfaz principal, relegando a Salesforce a "motor de base de datos glorificado". Eso asusta, pero no es lo mismo que obsolescencia. El mercado escuchò "AI agents que pueden hacer workflows end-to-end" y proyectó "la muerte del software", cuando la realidad es mucho más matizada: habrá un cambio de dónde vive el valor en el stack.

Leer completa
| Corporate IT Inteligencia Artifical
Tags:
AI Anthropic enterprise openai

El Software no está muerto y la IA no matará al SaaS

El martes pasado, Adobe cayó 7,31%, Salesforce 6,85%, y Thomson Reuters se desplomó 15,83%. Los analistas corrieron a declarar que "la IA va a reemplazar al software" y que "las empresas de SaaS están condenadas". Es el tipo de narrativa que suena profunda en un titular pero que se desmorona cuando la pensás dos minutos.

Buen titulo... deberia haberlo pensado antes ;)

Porque acá hay una confusión fundamental sobre qué es el software y para qué sirve.

El software no es el enemigo de la IA. El software es la herramienta que hace que los datos sean útiles. Es lo que transforma información en decisiones, contexto en acción. Y esa necesidad no desaparece porque tengamos modelos de lenguaje más potentes. Si acaso, se vuelve más crítica.

La pregunta mal formulada

"¿Va a desaparecer el software?" es como preguntar "¿van a desaparecer las herramientas?" cuando inventamos mejores materiales. La pregunta asume que el software es una cosa específica que puede ser reemplazada, cuando en realidad es la forma en que estructuramos soluciones a problemas.

Lo que está pasando es mucho más interesante y matizado que eso.

Leer completa
| Estrategias Inteligencia Artifical
Tags:
AI SAAS

Dark Patterns e Incentivos mal alineados.

Inclui 1 link externo en un post en Linkedin; su alcance fue literalmente el peor en 6 meses. Esto es un dark pattern claro de LinkedIn por incentivos mal alineados.

Un dark pattern en una app es una decisión de diseño hecha a propósito para empujar al usuario a hacer algo que no haría si tuviera toda la información clara: suscribirse sin darse cuenta, aceptar cargos, compartir más datos de los que quiere o no poder cancelar fácilmente. No es un bug ni un error de UX, sino una manipulación sutil que aprovecha la atención limitada del usuario usando textos confusos, botones engañosos o fricción selectiva (fácil entrar, difícil salir). En resumen: parece una ayuda, pero trabaja en contra del interés del usuario.

Y es super interesante porque la repregunta seria ¿seguro esto es un dark pattern? si, claro: "al mantener al usuario en tu conversacion, estas en un espacio seguro donde todas la relaciones laborales se forjan" cuando en realidad lo que están haciendo es empujar dos metricas claves en el bono de los ejecutivos de la empresa:

  • Time Spent by User
  • Pageviews per user per session
Leer completa
| Inteligencia Artifical Redes Sociales
Tags:
engagement linkedin links marketing startups

OpenAI y el "adiós" al romance sin anuncios: ¿nuevo paradigma como Meta o necesidad finaciera?

No era un misterio, solo hacía falta saber como lo presentaban; pero OpenAI finalmente abrió el juego a la publicidad y, aunque lo venden como una forma de "expandir el acceso", los que seguimos la industria sabemos que hay mucho más debajo de la alfombra.

Anuncos en ChatGPT

Pasamos de un Sam Altman que juraba que ChatGPT no tendría anuncios a una realidad donde Google les está respirando en la nuca. La diferencia es que Google ya tiene el "manual del usuario" de la publicidad online escrito en su ADN, pero además es el dueño de la infraestructura publicitaria global y esa presión se siente como una pinza, con una mano Gemini no para de ganar usuarios al ser el dueño de Chrome, Android y el buscador monopólico... con la otra, Alphabet tiene las relaciones, el conocimiento y una infraestructura de publicidad que, repito, nadie tiene.

The Financial Times reported that in 2025 OpenAI operated at a loss of around $8bn (£5.98bn) in the first six months of the year, and that only 5% of ChatGPT's 800 million users are paid subscribers.

Leer completa
| Inteligencia Artifical
Tags:
AI ChatGPT2026 DigitalMarketing Gemini openai

Auditando lo que sabe tu LLM de vos

Hablando con amigos, sale el tema de que la barrera de salida de un LLM a otro es alta por "todo lo que sabe de mi ChatGPT frente a Gemini" (o el que sea)... honestamente no creo que sea un problema pero a cualquier LLM podes pedirle que te diga, no solo lo que sabe de vos sino lo que puede inferir... un prompt y listo, aca abajo copio el que estuve usando/modificando/creando/etc usando los mismos LLMs que critico siempre 🤣

Tres aclaraciones:

  • No se siquiera si es necesario hacerlo pero esta version es una que saque pidiendole que sea "estilo auditoria forense para detectar contradicciones"
  • En ChatGPT funciona mejor que en Gemini, quizas porque ChatGPT es el que uso desde antes que sea publico por mi laburo con MS4Startups
  • Seguro en JSON se puede hacer mas automatizable...

De cualquier manera es super util para saber que sabe tu LLM de vos.

Leer completa
| Inteligencia Artifical Rants
Tags:
AI chatgpt pavadas privacidad

Financiar la demanda: Nvidia y el mundo de AI

Hace tiempo hay algunos acuerdos entre proveedores de LLM y fabricantes de GPUs que no parecen tener sentido; el 23 de Septiembre Nvidia anunció una inversion en OpenAI de 100Bn mientras que OpenAI anunciaba que esa inversión se iba a dar progresivamente mientras se habilitaran datacenters donde las GPUs eran compradas a Nvidia, el 8 de Octubre Nvidia anuncio una inversión de 2bn en Xai en una ronda total de 20bn mientras que xAI anunciaba la compra de casi 18bn en GPUs a Nvidia.

Todo en una especie de endogamia que huele a burbuja... o peor aún recuerda como CISCO financió su crecimiento en los 90 con la "burbuja puntoCOM" para explotar el 10 de Marzo de 2000 en el dotcom crash. Pero me pregunto ¿es una burbuja o se puede explicar racionalmente como una estrategia de financiamiento de demanda que es arriesgada pero que explica el crecimiento de empresas como Amazon, Microsoft o Intel?

Leer completa
| Inteligencia Artifical
Tags:
AI Amazon innovación Microsoft nvidia openai

Jardines Vallados en AI: ChatGPT vs Claude vs Gemini

Los chatbots, ChatGPT o Gemini o Claude, son de la tecnologia que más rapido creció en la historia; literalmente cientos de miles de millones de dólares están siendo invertidos para que OpenAI, Anthropic o Google sean los ganadores de esta carrera y adquieran clientes lo más rápido posible; ¿la razón? una vez que empezás a usar un chatbot el lock-in para cambiar a otro es gigante y no lo vas a querer hacer.

Primer ¿Qué es lock-in? En el contexto de la tecnología, lock-in es la dependencia que se genera hacia un proveedor o producto, dificultando cambiar a una alternativa como el cambiar de iPhone a Android o de Windows a Mac. En el caso de los chatbots de IA –especialmente ChatGPT (OpenAI), Claude (Anthropic) y Gemini (Google)– existen mecanismos que fomentan esta fidelidad forzada y lo interesante es que podemos dividir en 3 contextos el lock-in en estos productos: (a) técnico, (b) producto y (c) el de uso.

Lock-in técnico (dependencia de la tecnología)

En el plano técnico, esto es más relevante para usuarios B2B (o sea, no finales) los tres modelos son cerrados y propietarios, lo que implica que dependes de la infraestructura y avances del proveedor:

  • ChatGPT (OpenAI): Funciona con modelos como GPT-4 que no son de código abierto, accesibles solo a través de la API o la interfaz de OpenAI. Si construís soluciones o flujos de trabajo basados en GPT-4, migrar a otro modelo requeriría re-desarrollar integraciones y puede implicar perder la calidad o afinación específica lograda. Por ejemplo, muchas empresas han incorporado la API de ChatGPT en sus productos; salir de ahí supone re-entrenar modelos alternativos o aceptar resultados diferentes. Además, OpenAI ofrece opciones de fine-tuning (ajuste fino) en algunos de sus modelos: una vez que entrenas GPT con datos propios, ese ajuste no es portátil a otros sistemas, incrementando la dependencia técnica.
  • Gemini (Google): Es la familia de modelos de lenguaje de Google (evolución de PaLM y de Bard). Al igual que ChatGPT, es un servicio cerrado en la nube de Google, sin opción de auto-hospedaje. El acceso suele ser mediante la app de Gemini (antes Bard) o APIs de Google. Esto crea lock-in porque cualquier solución construida sobre Gemini queda atada a Google Cloud y a sus condiciones. Además, como Google utiliza hardware optimizado (TPUs) y una integración profunda con su ecosistema, se dificulta replicar la solución fuera de su plataforma, así que quienes dependen de su capacidad (por ejemplo, en multi-modalidad o en comprensión de consultas complejas) se ven obligados a seguir usando los servicios de Google.
  • Claude (Anthropic): También es un modelo propietario ofrecido a través de API y aplicaciones asociadas (como la integración nativa en Slack o la plataforma web de Anthropic). Un ejemplo, Claude destacó por innovar en el tamaño de la ventana de contexto –pudiendo manejar hasta 100,000 tokens en Claude 2– lo que significa que puede leer documentos o conversaciones muy extensas. Si tu caso de uso aprovecha esa capacidad (por ejemplo, cargar informes largos para análisis), puedes quedar bloqueado en Claude porque otros bots (hasta hace poco) no manejaban tanto contexto. Nuevamente, al no ser open-source, no es posible llevar el modelo fuera de Anthropic. Así, a nivel técnico, los tres chatbots generan un lock-in similar: utilizan modelos de IA exclusivos y nativos de cada proveedor, obligando a permanecer en sus plataformas para mantener el mismo rendimiento.

Lock-in de producto (ecosistema y funcionalidades)

Cada servicio de chatbot construye funciones y ecosistemas en torno al modelo base, lo que refuerza la lealtad del usuario al producto:

  • ChatGPT: OpenAI ha convertido ChatGPT en una plataforma con características únicas. Por ejemplo, introdujo un ecosistema de plugins donde el chatbot puede conectarse con servicios de terceros (buscador de vuelos, bases de conocimiento, herramientas como Wolfram Alpha, etc.), ampliando enormemente lo que puede hacer. Estos complementos resuelven tareas dentro de ChatGPT, evitando que el usuario salga a otras apps. Asimismo, OpenAI agregó capacidades multimodales: ChatGPT puede analizar imágenes y voz, integrando funcionalidades que antes requerían herramientas separadas. También funciones como Code Interpreter (ahora llamado “Advanced Data Analysis”) permiten ejecutar código y procesar archivos dentro de la misma interfaz de chat. Todas estas facilidades hacen que el usuario encuentre en ChatGPT un “todo en uno”, dificultando reemplazarlo con otro bot que no tenga un repertorio de plugins o características equivalente.
  • Gemini (Google): La estrategia de Google para Gemini (y Bard) es apoyarse en su amplio ecosistema de servicios. Gemini está integrándose con las aplicaciones de Google que millones de personas usan a diario. Por ejemplo, con las Extensiones de Bard/Gemini, el asistente puede extraer información de Gmail, Google Drive, Maps, YouTube y otras apps directamente dentro de la conversación . Esto significa que un usuario de Gmail o Docs puede pedirle a Gemini que encuentre un correo específico, resuma un documento de Drive o planifique un viaje con datos de Maps, todo sin salir del chat. Este nivel de integración es un poderoso lock-in de producto: si tu vida digital está en Google (correo, fotos, documentos, calendario), es muy tentador usar el chatbot nativo que “habla” con esas apps. Gemini con personalización incluso usa tu historial de búsquedas de Google para dar respuestas adaptadas a tus intereses , y Google planea conectarlo también con Fotos y YouTube . En conjunto, Gemini se vuelve una pieza central del ecosistema Google –un asistente personal omnipresente– del que es difícil salir sin perder comodidades.
  • Claude: Anthropic, aunque más nuevo en el plano de producto de consumo, ha buscado nichos específicos para Claude. Un factor importante es la integración empresarial: por ejemplo, Slack incorporó a Claude como parte de sus herramientas (Slack GPT), lo que atrae a equipos de trabajo a usar Claude dentro de su flujo laboral. Si tu empresa comienza a usar Claude en Slack para asistencia en canal, quedas ligado a ese entorno. En cuanto a funcionalidades diferenciadoras, Claude ofrece estilos personalizables (Anthropic introdujo Claude Styles a fines de 2024 para ajustar la personalidad o tono del bot) . Sin embargo, en general Anthropic ha mantenido una interfaz más sencilla. No tiene, por ahora, un sistema de plugins tan amplio ni capacidades multimediales visibles al usuario común. Su ventaja de producto recae más en la experiencia de conversación (se percibe amistoso y bueno en tareas creativas) y en límites más amplios (contexto extenso, respuestas más largas), lo cual fideliza a usuarios que necesitan esas cualidades. Aun con menos “campanas y silbatos” que ChatGPT o Google, Claude genera lock-in si has adaptado tu flujo de trabajo a sus puntos fuertes (ej. cargar grandes documentos, uso en herramientas como Notion o Slack mediante API).

Lock-in de uso (memoria, personalización y datos del usuario)

Captura: Ajustes de memoria en ChatGPT. La IA va recordando detalles proporcionados por el usuario para personalizar futuras respuestas (por ejemplo, preferencias de formato, datos personales mencionados, etc.). Este perfil almacenado hace que mientras más uses ChatGPT, más se adapte a ti, fortaleciendo el lock-in .

El lock-in más sutil –y quizás más poderoso– surge del historial de uso y la personalización. A medida que interactúas con el chatbot, este puede aprender sobre tus preferencias, contexto y necesidades, creando un perfil que enriquece las siguientes respuestas. Cada servicio ha implementado esta idea de memoria de manera diferente:

  • ChatGPT: OpenAI introdujo la memoria activa entre conversaciones en 2024. Ahora ChatGPT puede referenciar todas tus conversaciones pasadas para darte respuestas más relevantes y personalizadas . Por ejemplo, recuerda que tienes una hija pequeña o que te gusta cierto estilo de resumen si se lo has mencionado, y aplicará ese contexto automáticamente en nuevas sesiones. Además, las instrucciones personalizadas permiten fijar datos o indicaciones persistentes sobre ti (rol, tono deseado, información clave) sin tener que repetirlas en cada chat. En conjunto, “mientras más usas ChatGPT, más útil se vuelve” porque cada nueva conversación se construye sobre lo que ya sabe de ti . Esto crea un fuerte lock-in de uso: después de semanas o meses, ChatGPT “te conoce” y cambiar a otro chatbot implicaría perder esa familiaridad. Hay que destacar que esta memoria es persistente y unificada: no distingue entre diferentes contextos o proyectos, lo que puede llevar a que detalles de un ámbito aparezcan en otro si no se tiene cuidado  . Aun así, desde el punto de vista de la fidelización, este perfil global anima a usar siempre la misma IA para no empezar desde cero en cada nueva plataforma.
  • Gemini (Google): Google, tras un periodo más conservador, ha incorporado recientemente funciones de memoria y contexto personal en Gemini. En 2024 permitía que el usuario le pida “recuerda que me interesa X”, pero desde agosto de 2025 ya recuerda detalles previos automáticamente si activas esa opción . Con la función Personal Context (Contexto personal) encendida, Gemini “aprende de tus conversaciones pasadas para brindar respuestas relevantes y a tu medida”  . Un ejemplo dado por Google: si antes hablaste con Gemini sobre ideas para un canal de YouTube de cultura japonesa, más adelante, al pedir nuevas ideas, te sugerirá algo relacionado (como comida japonesa) sin que tengas que recordárselo  . Asimismo, Gemini aprovecha datos de tu cuenta Google (p. ej. historial de búsquedas) para afinar respuestas a tus intereses . En esencia, Google busca construir un asistente personal inteligente completamente integrado a tu vida digital: “nuestra visión es un asistente de IA que aprende y te entiende verdaderamente”, dijo un director del proyecto . Esto evidentemente aumenta la dependencia: un usuario que habilita estos recuerdos en Gemini verá cómo el asistente cada vez le ahorra más contexto y le entrega respuestas a la carta, volviéndose difícil renunciar a esa comodidad. (Vale mencionar que Google activa esta personalización por defecto en ciertos países, aunque permite desactivarla ). En resumen, tu actividad previa en Google se convierte en valor añadido exclusivo de Gemini, cerrando la puerta a competidores que no pueden acceder a esos datos.

Captura: Búsqueda de conversaciones pasadas en Claude 2. El usuario pregunta “¿en qué estábamos trabajando antes de mis vacaciones?” y Claude localiza y resume el chat relevante. A diferencia de ChatGPT, Claude no mezcla contextos automáticamente: solo recupera aquello que se le solicita , evitando construir un perfil unificado del usuario.

  • Claude (Anthropic): La aproximación de Anthropic ha sido más enfocada en el control del usuario que en la proactividad. Durante mucho tiempo, Claude no guardaba memoria persistente entre chats –cada conversación era aislada–. En agosto de 2025 lanzaron una función de “Conversa y busca” que permite al usuario consultar conversaciones previas cuando lo necesite . Por ejemplo, puedes indicarle a Claude: “revisa lo que discutimos la semana pasada sobre el Proyecto X” y el sistema buscará en tus chats archivados para traer los detalles relevantes . Importante: “Claude solo recupera y referencia tus chats pasados cuando se lo pides, y no está construyendo un perfil de usuario según aclaró Anthropic . Es decir, no hay memoria automática cruzada; tú decides cuándo y qué recordar. Esto tiene dos caras para el lock-in: por un lado, ofrece menos personalización espontánea que ChatGPT o Gemini, lo que podría significar un vínculo menos fuerte (el usuario no siente que Claude “lo conoce” de manera profunda). Pero, por otro lado, algunos usuarios profesionales pueden preferir esta compartimentación. Claude introdujo el concepto de “memoria por proyecto”, donde los recuerdos no se mezclan entre distintos temas o clientes  . Esto evita filtraciones de información de un contexto a otro y da más confianza para usar la herramienta en entornos sensibles. Si tu prioridad es ese control, podrías volverte leal a Claude precisamente porque no te arriesga con memorias fuera de lugar. En síntesis, el lock-in de uso en Claude es más débil en términos de perfil personal global, pero Anthropic apuesta a fidelizar mediante la transparencia y seguridad: tú mandas sobre qué se recuerda y cuándo, y no tienes sorpresas de la IA sacando datos antiguos sin pedirlo . Aun con enfoques distintos, todos los proveedores reconocen que la memoria es clave para enganchar a los usuarios: “las funciones de memoria buscan atraer y mantener usuarios en un servicio, aumentando la ‘pegajosidad’” .

Antes era "interoperabilidad" ahora ¿podés llevarte tu contexto de un chatbot a otro?

La realidad actual es que no existe portabilidad fácil de un contexto personalizado entre distintas plataformas. Cada proveedor guarda tus datos de manera propietaria y no ofrece, por ejemplo, una exportación de “lo que la IA ha aprendido de mí” en formato estándar. Si quisieras cambiar de bot, prácticamente tendrías que empezar de cero o manualmente resumir y reenviar la información relevante.

Por ejemplo, ChatGPT permite ver y editar lo que recuerda de ti en sus ajustes de memoria, e incluso exportar tus conversaciones en un archivo, pero otro chatbot no sabría interpretar directamente esos datos para replicar el mismo entendimiento. De forma similar, Gemini podría estar usando tu historial de búsquedas y otros datos de Google –los cuales no puedes simplemente transferir a un rival, por privacidad y formato–. Claude, al no compilar un perfil único, te lo pone un poco más fácil en el sentido de que lo que necesita saber, tú se lo das explícitamente (y podrías dárselo igualmente a otro bot). Aún así, no hay una API universal ni estándar de “memoria de usuario” que permita llevar tu contexto personal de ChatGPT a Gemini o viceversa. Esta falta de portabilidad es deliberada hasta cierto punto: como vimos, la memoria y personalización son ventajas competitivas y mecanismo de lock-in. Cada empresa quiere que los beneficios de “conocerte bien” se queden dentro de su producto.

¿Y Meta AI?

Aunque Meta también lanzó su propio chatbot, no lo incluimos en este análisis por dos motivos principales:

  1. Nivel de adopción: hoy Meta AI está principalmente integrado en productos como Facebook, Instagram o WhatsApp, pero su alcance como asistente independiente es todavía limitado comparado con ChatGPT, Gemini o Claude.
  2. Estrategia distinta: Meta apuesta a modelos abiertos como Llama para impulsar su IA. Su jugada es más bien construir un ecosistema de desarrolladores y empresas que adopten su tecnología, en lugar de generar lock-in sobre un único asistente centralizado con memoria y personalización.

En otras palabras, la competencia de Meta es más horizontal (distribución de modelos abiertos) que vertical (chatbot con lock-in directo), y por eso este post se centra en quienes hoy disputan el lock-in de los usuarios finales.

Los chatbots de IA más avanzados están desplegando una combinación de estrategias para mantenernos enganchados en sus plataformas. En lo técnico, nos atan con modelos potentes pero propietarios y difíciles de reemplazar. A nivel de producto, nos seducen con integraciones y funciones exclusivas (ya sean plugins, acceso al ecosistema Google, o contextos gigantes para manejar nuestros datos). Y mediante el uso continuado, construyen una relación cada vez más personalizada –ya sea mediante un perfil unificado como ChatGPT/Gemini, o con memorias controladas por el usuario como Claude– que hace que cambiar de chatbot se sienta como retroceder.

Como usuarios o creadores de contenido, es importante ser conscientes de estos lock-ins. Disfrutar de la conveniencia de que “mi chatbot ya sabe lo que quiero” es genial, pero implica confiar nuestros datos y preferencias a un silo específico. Por ahora, mover nuestro “yo digital” de una IA a otra no es sencillo, así que elegir con cuál casarse no es trivial. La competencia entre OpenAI, Anthropic y Google está llevando a rápidos avances –todos han acelerado en incorporar memoria y personalización – lo que beneficia al usuario en funcionalidad. Pero también refuerza que cada uno quiera ser “el asistente del que no te puedes desprender”.

En última instancia, un posible camino para aliviar el lock-in sería que aparezcan estándares abiertos o asistentes locales que permitieran portar nuestras instrucciones y datos de contexto de forma privada. Sin embargo, hoy por hoy, si inviertes tiempo en un chatbot, tiendes a quedarte con él por inercia y beneficio acumulado.

Este es un mercado donde habrán pocos ganadores y por eso cada uno quemando decenas de miles de millones de inversores; porque una vez elegido es muy dificil que lo dejes; la elección racional seria: "elegir aquel que se alinee con tus valores (privacidad, control) y necesidades, sabiendo que cambiar de barco más adelante tendrá sus costos" pero ¿como lo podrías saber si ni siquiera creo que lo sepan ellos mismos?

| Inteligencia Artifical
Tags:
Anthropic Google IA innovación inversiones openai privacidad

Juniors por AI: la forma más rápida de destruir el pipeline de talento

Hoy Matt Garman, el jefe de AWS dijo en voz alta algo que repito en las charlas sobre AI: reemplazar a los empleados junior con herramientas o agentes de inteligencia artificial es una de las ideas más estúpidas que existen.

Si uno analiza como se forma un ecosistema de trabajo, como se arma una carrera, como se desarrolla el talento y hasta los costos organizacionales... lo único que estás haciendo es confirmar una tesis que sostengo hace tiempo: usar AI para “sacar del medio” a los juniors es destruir a largo plazo la base del talento de cualquier organización.

  • El pipeline de talento se rompe: Un junior necesita aprender haciendo. Es en esa etapa donde se equivocan, reciben feedback y crecen para convertirse en seniors. Si cortás esa experiencia porque la “reemplaza” la AI, estás matando el semillero del que salen los futuros líderes.
  • Rompés la estructura de costos del talento: El modelo natural es que juniors hagan tareas más operativas mientras crecen, liberando a los seniors para trabajos de mayor impacto. Si eliminás juniors, los seniors terminan atascados en tareas que la AI todavía no puede resolver sola. Resultado: ineficiencia y costos más altos.
  • Perdés diversidad de perspectivas: No es solo cuestión de edad: los juniors suelen venir con nuevas herramientas, marcos mentales distintos y otra forma de ver los problemas. Quitar esa capa del equipo empobrece la toma de decisiones y refuerza la homogeneidad.
  • Son los más nativos en AI: El talento joven no necesita que lo convenzas ni le armes talleres para usar herramientas de inteligencia artificial. Ya las adoptan de forma natural. Reemplazarlos es perder el grupo que mejor y más rápido incorpora la AI en los procesos.

Es cierto, los agentes y los modelos que estan apareciendo día a día pueden hacer mil tareas "básicas" y soy el primero en pensar que se pueden optimizar y reemplazar procesos y talento (hey, es algo natural como parte del progreso) pero creo, más allá del interés corporativo de AWS, que la mejor apuesta es potenciar el talento joven con herramientas y agentes de IA en vez de reemplazarlo directamente.

| Inteligencia Artifical
Tags:
AI IA talento

¿Querés tener siempre la razón? Hablá con ChatGPT


Cada vez más conocidos me cuentan que usan “charlas” con ChatGPT para atravesar un mal momento: desde una ruptura sentimental hasta la muerte de un ser querido o simples interacciones diarias. Y no puedo dejar de decirles que es un error.

Un analista humano puede incomodarte con preguntas duras, confrontarte con verdades incómodas o simplemente decirte: “estás equivocado”. Esa fricción —aunque molesta— es parte esencial del crecimiento. Un chatbot, en cambio, tiende a validar casi todo lo que decís. Y ese “confort” constante puede ser el inicio de un problema mucho mayor.

Leer completa
| Inteligencia Artifical
Tags:
AI chatbot salud mental

No, Google no está muerto y la distribución sigue escribiendo la historia

En los últimos dos años, gran parte de la conversación sobre IA se ha centrado en el ascenso de ChatGPT y en los supuestos errores de Google. La narrativa dominante, en la que incluso entré a veces, pinta a ChatGPT como el first mover que tomó la delantera mientras Google dudaba y perdía terreno por la tibieza de Sundar Pichai cuando lo comparabas con la decisión de Satya Nadella y otros. Y, sobre el papel, esa historia es tentadora, pero.

Es innegable que ChatGPT logró una tracción impresionante. Lanzado en noviembre de 2022, alcanzó los 100 millones de usuarios en apenas dos meses — la curva de adopción más rápida en la historia del consumo digital. Desde entonces, OpenAI ha mantenido un ritmo de lanzamientos vertiginoso: GPT-4, GPT-4 Turbo, GPT-5, capacidades multimodales, voz, memoria, agentes, versiones enterprisa… todo en menos de tres años. Todo esto respaldado por un músculo financiero sin precedentes: más de 13.000 millones de dólares de Microsoft y unos 4.000 millones comprometidos por Softbank. El resultado: alrededor de 700 millones de usuarios activos semanales a mediados de 2025 y una posición cultural en la que, para mucha gente, “IA” es sinónimo de “ChatGPT”.

Leer completa
| Estrategias Google Inteligencia Artifical
Tags:
AI innovación openai startups

Los nuevos ‘Traitorous Eight’: El momento de los emprendedores en Generative AI”

En 1957, ocho jóvenes ingenieros, conocidos más tarde como los “Traitorous Eight”, tomaron la decisión que dio origen a Silicon Valley: abandonaron Shockley Semiconductor por desacuerdos con su fundador, fundaron Fairchild Semiconductor y no solo marcó el nacimiento de la industria de los semiconductores, sino que también sentó las bases de una nueva era con empresas como Intel y AMD.

Leer completa
| Inteligencia Artifical
Tags:
emprendedores innovación inteligencia artificial inversiones

Microsoft Copilot y Google AI: una carrera al abismo

Hace 2 días Microsoft y Google decidieron incluir gratuitamente sus versiones de AI en sus aplicaciones de productividad, léase Microsft 365 y Google Wokspace, mientras aumentaron el precio base en menos del 10%... esta es, literalmente, una carrera hacia el abismo donde cada uno busca entrar al mercado de otro solo con precio.

  • Google: "A customer using the Workspace Business Standard plan with a Gemini Business add-on previously paid $32 per user, per month. Now, that same customer will pay just $14 per user, per month — only $2 more than they were paying for Workspace without Gemini."
  • Microsoft: "bringing Microsoft Copilot and Microsoft Designer to Microsoft 365 Personal and Family subscribers in most markets worldwide" ... "the prices of Microsoft 365 Personal and Family in the US for the first time since its release by $3 USD per month"

La primer lectura es que; sacaron del juego a cualquier otro jugador del mercado de "software de productividad" que quiera agregar funciones de AI porque los únicos con la espalda financiera para atender un par de centenas de millones de usuarios son Microsoft, Google, Amazon y Meta... y estos últimos dos no cuentan aca.

Leer completa
| Inteligencia Artifical
Tags:
AI competencia Google Microsoft openai

OpenAI Mafia

Si de Paypal salieron varios emprendedores que se convirtieron en estrellas en Internet (desde Elon Musk hasta Roelof Bohta o Dave Mclure, Peter Thiel y tantos otros) creo que de OpenAI están saliendo tantos empleados que fundan empresas que están dominando nichos que recien arrancan en este landgrab que va a dejar atrás a los de Paypal.

Solo estas 15 empresas fundadas por ex empleados de OpenAI ya levantaron casi 15.000 millones de dólares de fondos de inversión y estan tomando verticales tan específicos que con sus backgrounds de research y el capital que reciben... van a sacudir a algunos de los grandes que conocemos hoy.

Name of StartupName of FounderPosition at OpenAI
Safe Superintelligence (SSI)Ilya SutskeverCo-founder and Chief Scientist
AnthropicDario AmodeiSenior Research Scientist
Perplexity AIAravind SrinivasFormer Researcher and Intern
AdeptDavid LuanFormer Researcher
CovariantPieter AbbeelFormer Researcher
GantryJosh Tobin, Vicki CheungResearch Scientist, Head of Infrastructure
Eureka LabsAndrej KarpathyFormer Research Scientist
Unnamed AI StartupMira MuratiFormer CTO
Unnamed AI StartupBarret ZophFormer VP of Research
Prosper RoboticsShariq HashmeMember of Technical Staff
QuantasticaPetar KorponaićData Preparation Engineer
Forecasting Research InstituteMichael PagePolicy and Ethics Adviser
AidenceTim SalimansResearch Scientist and Team Lead
CrestaTim ShiMember of Technical Staff
PilotJeff ArnoldHead of Operations
DustStanislas PoluResearch Engineer

| Inteligencia Artifical
Tags:
Dario Amodei Ilya Sutskever mafia openai

LLMs intentando engañar o manipular a sus devs

Me pareció interesante leer este paper de los investigadores de Apollo Research donde evaluaron diferentes modelos de IA para ver si participarían en "maquinaciones" más simple si intentarían engañar o manipular a sus desarrolladores para lograr un objetivo específico.

Pero más allá de los resultados me pareció un paper interesante porque muestra los desafíos que existen al momento de entrenar un modelo de AI, encontrar los patrones para crear "guardas" de seguridad y/o entender como suceden estas cosas en lo que para muchos es una gran caja negra donde no se sabe con seguridad que es lo que pasa dentro.

Leer completa
| Inteligencia Artifical Seguridad
Tags:
AI innovación LLMs Seguridad

Here's to the lazy ones...

Pasamos de los locos a los vagos en un abrir y cerrar de ojos... de acuerdo a la publicidad de Apple Intelligence, aunque siendo justos de Google tambien, está bien: hacer nada y esperar que un algoritmo magico nos resuelva todo, fijense estos videos de campaña.

Honestamente, creo que esto es lo que les pasó a los creativos que no usaron jamás ChatGPT o Claude o Apple Intelligence entonces no entienden todo lo que estas herramientas pueden hacer y, de hecho, hasta los que critican estas herramientas reconocen que "I do not like Generative AI"

O no trabajar y enviarle un mail a un jefe explicandole lo genial que es y como su liderazgo nos emociona

O simplemente olvidarte el cumpleaños de tu marido y regalarle un "recuerdo" que inventa Apple Photos

Pasamos de "los crazy ones" a los "lazy ones"... podrian enfocarse en tantas otras cosas. pero realmente escribir una carta a tu idolo, explicando lo que querés de tu vida y porque lo admiras, es algo que creo que jamás le pediría a un algoritmo

Me gustó como lo puso en Blue Sky un autor:

“Obviously there are special circumstances and people who need help, but as a general ‘look how cool, she didn’t even have to write anything herself!’ story, it SUCKS. Who wants an AI-written fan letter??”

“Here's to the crazy ones. The misfits. The rebels. The troublemakers. The round pegs in the square holes. The ones who see things differently. They're not fond of rules. And they have no respect for the status quo. You can quote them, disagree with them, glorify or vilify them. About the only thing you can't do is ignore them. Because they change things. They push the human race forward. And while some may see them as the crazy ones, we see genius. Because the people who are crazy enough to think they can change the world, are the ones who do.” ― Steve Jobs

| Apple Google Inteligencia Artifical
Tags:
generative AI publicidad Rants