Noticias de inversiones

Anthropic levantó $30.000 millones y tiene perfecto sentido

Anthropic anunció que levantó $30.000 millones en su Serie G, duplicando su valuación a $380.000 millones en apenas cinco meses y muchos dudan de la logica de esta ronda. La ronda fue liderada por GIC y Coatue, con co-liderazgo de D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ, y MGX. La lista de inversores lee como un directorio de quién es quién en capital global: Accel, Blackstone, Fidelity, Goldman Sachs, JPMorgan, Sequoia, y varios fondos soberanos.

Y mirá, ya sé lo que estás pensando. "$380.000 millones de valuación para una empresa que hace tres años facturaba cero. Es una locura. Estamos en plena burbuja". Excepto que no: NO ESTAMOS EN UNA BURBUJA.

Esta ronda tiene toda la lógica del mundo si entendés la dinámica real de la carrera de IA. Y el hecho de que suene excesiva es precisamente el punto.

Otra ronda en Anthropic

Una carrera de tres caballos

Dejemos China de lado por un segundo (DeepSeek y compañía son un tema aparte). En Occidente, la carrera de modelos fundacionales se redujo a tres jugadores serios: OpenAI, Anthropic, y Gemini (Google).

Meta entrena modelos open source increíbles, pero no monetiza directamente. Microsoft tiene partnership profundo con OpenAI pero sus modelos propios todavía no son una realidad (confirmado por el CEO de Microsoft AI). Amazon invierte fuerte en Anthropic pero tampoco entrena sus propios modelos competitivos. Y lo de Elon… bueno, no sé qué decir realmente.

Esos tres (OpenAI, Anthropic, Gemini) son los únicos que están realmente compitiendo por liderazgo técnico en modelos de frontera. Y en una carrera donde el costo de entrenamiento del próximo modelo puede ser $100.000 millones o más, no podés quedarte atrás ni seis meses (de hecho, entre Claude 4.5 y 4.6 pasaron 5 meses).

Acá viene lo interesante: a las tasas de crecimiento y burning cash que requiere esta competencia, el financiamiento tradicional en mercados públicos no aguanta el ritmo.

Las IPO ya no son para vos ni para mí

Ya escribí sobre esto hace unos cuantos meses. Las IPO cambiaron. Ya no son el evento donde el público general puede participar del upside temprano de una empresa prometedora. Son eventos de liquidez para venture capitalists e insiders que llegan después de que el 90% del valor ya se creó.

Las empresas están saliendo a bolsa cada vez más tarde, con valuaciones cada vez más altas, y con tasas de crecimiento cada vez más moderadas. Uber salió a $82.000 millones. Airbnb a $100.000 millones. Para cuando llegaron a mercados públicos, ya no eran startups. Eran empresas maduras.

Anthropic hoy vale $380.000 millones privada. Cuando salga a bolsa (si es que sale), probablemente lo haga a $600.000 millones o más. Para ese entonces, todo el crecimiento explosivo ya va a haber pasado.

Esto refuerza una tendencia más amplia: los retornos asimétricos están cada vez más concentrados en mercados privados. Y solo accesibles para quienes tienen capital institucional o son accredited investors.

Pero esta ronda específica hace sentido por otra razón

Más allá de la tendencia general hacia financiamiento privado tardío, esta ronda de Anthropic tiene una lógica propia, estos son los números que reportaron junto con el anuncio:

  • Run-rate revenue de $14.000 millones, creciendo 10x anualmente en cada uno de los últimos tres años
  • Claude Code solo tiene un run-rate de $2.500 millones, que se duplicó desde principios de 2026
  • Los clientes que pagan más de $100.000 anuales crecieron 7x en el último año
  • 4% de todos los commits públicos en GitHub están siendo generados por Claude Code

Esos no son números de un startup SERIE E. Son números de una empresa que encontró product-market fit en enterprise, mientras siguen experimentando y escalando como loca. Y acá está la clave: a estas tasas de crecimiento, esperar a una IPO tradicional te deja vulnerable frente a competidores que pueden moverse más rápido.

OpenAI está buscando levantar $100.000 millones adicionales a una valuación de $830.000 millones. Google tiene el balance de Alphabet detrás. Anthropic necesitaba esta ronda para seguir en la carrera.

El cap table más estratégico del mundo

Sumale algo clave que le da a Anthropic una buena ventaja entre los tres líderes. Anthropic es el único jugador que tiene a los tres hyperscalers principales en su cap table.

  • Amazon: $8.000 millones invertidos, es el "primary cloud and training partner"
  • Google: ~14% de ownership (más de $3.000 millones invertidos)
  • Microsoft: $5.000 millones en esta última ronda (más Nvidia con $10.000 millones)

Pensá en las implicaciones de esto.

OpenAI está profundamente ligado a Microsoft. Ese es su único canal de distribución cloud enterprise. Gemini obviamente es de Google. Pero Anthropic está disponible en AWS Bedrock, Google Cloud Vertex AI, y Microsoft Azure Foundry.

Es el único modelo de frontera que podés desplegar nativamente en las tres nubes más grandes del mundo. Y es un moat defensivo increíble: ninguno de los hyperscalers quiere que Anthropic fracase, porque eso concentraría aún más poder en sus competidores.

Amazon no quiere que todo enterprise AI sea OpenAI vía Azure. Google no quiere depender solo de Gemini. Microsoft quiere diversificar más allá de su apuesta todo-in en OpenAI. Anthropic es la cobertura estratégica de los tres.

La pregunta real

Entonces la pregunta real que todos se hacen antes de invertir o antes de levantar más capital no es "¿es demasiado alta esta valuación?" sino "¿cuál es el costo de quedarse atrás en la carrera de modelos fundacionales?".

Si creés que los modelos de lenguaje grandes van a ser infraestructura crítica de la próxima década (y todos los hyperscalers claramente lo creen), entonces tener un jugador independiente viable con capacidades de frontera que puedan integrar en sus clouds tiene un valor estratégico enorme.

No es solo acerca de multiplos de revenue. Es sobre opcionalidad y posición en un mercado que podría valer trillones.

¿Hay riesgos? Obvio. La competencia es brutal. Los costos de entrenamiento siguen subiendo. Las regulaciones podrían cambiar. Técnicamente, no hay garantía de que scaling laws sigan funcionando indefinidamente.

Pero dados los números actuales de adopción enterprise, el crecimiento en revenue, y la posición estratégica única que tiene Anthropic con los tres hyperscalers, esta ronda hace perfecto sentido.

Y confirma algo más incómodo: que el acceso a estos retornos tempranos está cada vez más cerrado. Que las IPO ya no son el evento democratizador que solían ser. Y que si no estás en el círculo de inversores institucionales o fondos soberanos, llegás tarde a la fiesta.

Pero esa es otra discusión.

| Estrategias Inteligencia Artifical Rants
Tags:
Anthropic Google inversiones openai

Software as a Service a Software as a Solution

Durante años, el software fue un peaje. Pagabas por acceso, por asientos, por features. La propuesta era simple: "Te damos la herramienta, vos hacés el trabajo". Pero cuando los agentes de IA pueden hacer el trabajo por vos, esa ecuación se invierte completamente.

Si el SaaS tradicional era un peaje por usar herramientas, el Agentic AI es un contrato de resultados. Y esa inversión cambia todo: pricing, distribución, riesgo. Lo interesante es que la mayoría de las empresas están discutiendo los primeros dos mientras ignoran el tercero, que es donde se va a definir quién gana.

El elefante en la sala: ¿Quién asume el riesgo cuando el agente se equivoca?

Esto me surgió hablando con Michele Schocron de Continuum; Casi todas las conversaciones sobre AI en software giran alrededor de "eficiencia" y "ahorro de costos". Pero hay una pregunta que nadie quiere responder directamente: ¿Quién se hace cargo cuando el agente comete un error?

No estoy hablando de un typo en un email. Estoy hablando de errores con consecuencias reales:

  • Tu agente de ventas de Salesforce cierra un deal con términos pésimos que te comprometen contractualmente. ¿Quién paga? ¿Salesforce? ¿El modelo de OpenAI que ejecuta el agente? ¿Vos?
  • Tu agente de soporte le dice a un cliente que tiene derecho a un reembolso que en realidad no aplica. El cliente te demanda. ¿Quién es responsable? ¿Zendesk que provee la plataforma? ¿Anthropic cuyo modelo generó la respuesta?
  • Tu agente de finanzas aprueba una transacción fraudulenta porque interpretó mal los parámetros de compliance. ¿Quién cubre las pérdidas?

Acá está el problema: Las cortes todavía no resolvieron esto. Los tribunales aún no han emitido fallos definitivos sobre quién es responsable cuando un AI agent ejecuta acciones autónomas que resultan en daños. Estamos en 2026, con regulaciones que están entrando en vigor (el EU AI Act empieza a aplicar en agosto), pero sin jurisprudencia clara.

Y mientras tanto, las aseguradoras están haciendo lo único sensato desde su perspectiva: salirse del juego. Las compañías de seguros están agregando exclusiones específicas de AI en las pólizas de Errors & Omissions tradicionales, o subiendo las primas dramáticamente, porque ven el riesgo como "exposición catastrófica". ¿Por qué? Porque un solo update defectuoso de un modelo puede causar pérdidas simultáneas en toda la base de clientes. No es un incidente aislado, es un evento sistémico.

El compliance como moat técnico

Acá viene lo contraintuitivo: el verdadero moat en software agentic no es qué tan bueno es tu modelo, sino qué tan bien podés demostrar que controlás el riesgo.

Las empresas no van a pagar por el software que es 10% más rápido o 15% más barato. Van a pagar por el que les deja dormir tranquilos. Y "dormir tranquilo" en 2026 significa:

1. Compliance automatizado, no como feature sino como arquitectura

Más del 75% de las empresas Fortune 500 ahora exigen un reporte SOC 2 antes de evaluar a un vendor. Pero SOC 2 es apenas el piso. Para agentic software necesitás:

  • EU AI Act compliance (si vendés a Europa, no es opcional)
  • ISO 42001 (el nuevo estándar de AI governance que se está volviendo prerequisito)
  • Audit trails determinísticos de cada decisión que toma el agente
  • Capacidad de explicar por qué el agente hizo lo que hizo

Esto no son checkboxes que agregás al final. Es arquitectura desde el diseño. Y es caro. Muy caro. Lo cual es perfecto si sos un incumbent con recursos, y brutal si sos una startup tratando de competir.

2. Indemnización contractual explícita

Acá está la jugada que va a separar winners de losers: los vendors que estén dispuestos a asumir liability contractualmente van a ganar.

No estoy hablando de un "seguro de performance" abstracto. Estoy hablando de cláusulas que digan: "Si nuestro agente ejecuta una acción que te causa daño financiero o legal, nosotros cubrimos hasta $X millones en pérdidas".

Esto requiere tres cosas que la mayoría de las startups de AI no tienen:

  • Reservas de capital reales (no podés ofrecer indemnización si estás quemando cash)
  • Seguros específicos para AI (que como vimos, casi no existen)
  • Confianza técnica de que tu sistema no va a fallar de forma catastrófica

Los únicos que pueden hacer esto hoy son los grandes: Microsoft, Google, etc. Y esa es exactamente la ventaja que van a explotar.

3. El botón de pánico empresarial

Toda empresa que implemente agentes va a querer lo mismo: un kill switch. La capacidad de apagar todo si algo sale mal. Pero el kill switch no es suficiente, necesitás rollback determinístico: poder revertir cada acción que el agente tomó en las últimas 24 horas.

Eso no es fácil. Requiere logging comprehensivo, capacidad de deshacer transacciones, integraciones que soporten reversión. Y es exactamente el tipo de infraestructura que diferencia software enterprise de un MVP.

El timing es perfecto para los que estén preparados

Estamos en un momento único. El EU AI Act entró en vigor en agosto 2024, con la mayoría de los requisitos para sistemas de alto riesgo aplicando desde agosto 2026. Las multas pueden llegar hasta €35 millones o 7% del revenue global anual. En Estados Unidos, Colorado ya tiene su AI Act efectivo desde febrero 2026, California está siguiendo, Texas también.

Las regulaciones están en los libros, pero los casos legales que van a definir "¿quién es responsable?" todavía no llegaron a las cortes. Cuando lleguen (y van a llegar, porque los errores costosos son inevitables) van a establecer precedentes que definan el mercado por la próxima década.

Los vendors que se posicionen ahora como "el agente que podés usar sin miedo" van a capturar todo el upside cuando las empresas se den cuenta de que esto no es negociable.

La trampa de márgenes tiene una salida inesperada

Y al costo del compliance, sumemosle el pricing, porque acá hay una tensión que parece irresoluble pero tiene un plot twist que pocos están viendo.

El modelo de cobrar por "asiento" es obviamente absurdo cuando un solo agente puede reemplazar a diez analistas. Pero el salto a usage-based pricing (créditos, tokens, consumo) traslada todo el riesgo operativo al vendor: si el agente es eficiente, el cliente paga menos; si es ineficiente, el costo de cómputo devora tus márgenes.

Los números, tomémoslo con sal porque lo dice Gartner, dicen que el 70% de las empresas van a preferir "usage-based pricing" sobre "per-seat" para 2026, impulsado por lo que llaman el "seat apocalypse". Y la migración ya está pasando: 79 de las 500 empresas del PricingSaaS Index ofrecen ahora modelo de créditos, un aumento del 126% año contra año.

La pregunta es: ¿cómo protegés márgenes cuando cobrás por uso y el uso es cada vez más eficiente?

El plot twist: La deflación exponencial de costos de IA

Acá viene lo que cambia la ecuación completamente: los costos de desarrollar modelos de IA están colapsando de forma exponencial.

Mirá estos números: en 2023, desarrollar un modelo como GPT-4 le costó a OpenAI cerca de $100 millones. En 2024, DeepSeek (un modelo chino) replicó capacidades similares por $5 millones. Y en 2025, investigadores de Berkeley crearon TinyZero, que reproduce performance comparable por apenas $30. Estamos hablando de una caída del 99.99% en costo en menos de dos años. (Honestamente los números de DeepSeek no los creo reales)

¿Qué significa esto para el modelo de créditos? Que la "trampa de márgenes" tiene una salida inesperada: los vendors pueden permitirse ser cada vez más generosos con los créditos porque el costo por token está cayendo en picada. Lo que hoy te cuesta $1000 en inferencia, en 6 meses te va a costar $100.

Tomá el caso de Box. En 2024 lanzaron un modelo de créditos para sus features de IA: cada usuario recibe 20 créditos mensuales, cada tarea cuesta 1 crédito. Si un equipo de 100 personas usa los 2000 créditos incluidos, Box gana lo mismo que antes. Pero si usan 5000 créditos (porque el agente es súper eficiente), Box tendría que cobrar más por los créditos extra.

Acá viene el plot twist: Box puede permitirse bajar el precio por crédito cada trimestre porque su costo de procesamiento está cayendo más rápido que el uso está creciendo. El cliente siente que está "pagando por valor", pero Box sigue protegiendo márgenes porque la deflación de costos es más rápida que la expansión de uso.

La tensión real entonces no es "más eficiente = menos revenue". La tensión real es: ¿podés bajar precios más rápido que caen tus costos, manteniendo márgenes, mientras competís con vendors que también están bajando precios?

Es una carrera hacia el fondo donde el ganador no es el que tiene el mejor modelo, sino el que tiene los mejores unit economics para sostener una guerra de precios de 24 meses.

Por eso el outcome-based pricing cobra sentido

Intercom lanzó Fin, su chatbot de soporte, con un modelo simple: te cobran solo cuando el bot resuelve el ticket, no por cuántos tokens consumió en el proceso. Tu precio está atado al valor de negocio, no al costo de cómputo.

Esto es lo que llamo "Agentic ELA" (Enterprise License Agreement): cobrás por outcomes (ticket resuelto, reunión agendada, lead calificado), no por consumo. Te desacoplás de la volatilidad del costo de inferencia. Y si tu agente mejora con el tiempo y resuelve más tickets con menos recursos, tu margen sube, no baja.

El problema es que esto solo funciona si podés medir outcomes de forma determinística. Y ahí volvemos al punto anterior: necesitás infraestructura de logging, audit trails, capacidad de demostrar que el agente realmente resolvió el problema. Compliance y pricing no son temas separados, son la misma arquitectura.

El discovery cambió de pantalla

Ahora hablemos de algo que parece tangencial pero es estructural: cómo se vende software cambió fundamentalmente, y la mayoría de los vendors no se dieron cuenta.

El CAC (Customer Acquisition Cost) está explotando. El CAC promedio para SaaS ahora es $205, con empresas enterprise llegando a $500 por cliente, un aumento del 60% en los últimos 5 años. Y la reacción instintiva es: "Los canales están saturados, tenemos que buscar nuevas tácticas en las mismas plataformas".

Pero el problema no es saturación. El problema es que el canal de discovery cambió de Google a LLMs, y las reglas del juego son completamente diferentes.

De SEO a GEO: El nuevo battlefield

Antes, cuando alguien necesitaba un CRM, googleaba "best CRM for startups", leía 3 artículos de comparación, y terminaba en las páginas de Salesforce, HubSpot, Pipedrive. Toda tu estrategia de CAC se construía sobre SEO/SEM: aparecer primero en Google, convertir en landing page, nurturing por email.

Ahora, ese mismo founder abre ChatGPT o Claude y pregunta: "Necesito un CRM para un equipo de 5 personas en fintech, con buena integración a Stripe. ¿Qué me recomendás?". Y el LLM le da 3 opciones directamente, con pros/contras, sin que el usuario salga de la conversación.

El problema: No podés hacer SEM en ChatGPT. No podés comprar ads en Claude. Tu SEO no sirve porque el LLM no está "rankeando" tu web, está sintetizando información de múltiples fuentes y generando una respuesta.

Acá nace GEO (Generative Engine Optimization): es el nuevo SEO, pero optimizás para aparecer en las respuestas de los LLMs, no en el ranking de Google.

Los datos son claros: GEO tiene un CAC promedio de $559 (14.4% más caro que SEO tradicional) pero genera 27% más conversiones y 9.2% mejor calidad de leads. ¿Por qué? Porque cuando un LLM te recomienda, viene con contexto: "Esta opción es mejor para tu caso específico porque X". Es como tener un sales engineer conversando con cada lead.

El moat ya no está en el UI

Stripe tiene una ventaja estructural brutal acá. Durante años invirtieron en documentación técnica impecable: guides detalladas, ejemplos de código en 7 lenguajes, arquitecturas explicadas paso a paso. Cuando un desarrollador le pregunta a ChatGPT "cómo implementar pagos recurrentes en mi SaaS", ChatGPT recomienda Stripe en el 80% de los casos porque tiene la mejor documentación en su contexto de entrenamiento.

Twilio, lo mismo. Plaid, lo mismo. Las empresas que invirtieron en developer experience no para SEO, sino para educación genuina, ahora tienen un moat en GEO.

Por eso digo que el UI está muerto. No porque desaparezca (obviamente seguís necesitando una interfaz), sino porque ya no es el punto de contacto donde se decide la compra. Ese punto de contacto ahora es una conversación con un LLM.

La interfaz de decisión cambió de visual a conversacional. No hay "comparación de features en una tabla". La decisión pasa por qué tan bien el LLM entiende tu producto y cuándo recomendarlo.

Share of Wallet se decide en la capa de integración

El "Share of Wallet" ya no se decide en qué tan lindo es tu dashboard. Se decide en:

  • Qué tan bien tu API está documentada → Aparecés en respuestas técnicas de LLMs cuando developers preguntan cómo resolver problemas específicos.
  • Qué tan fácil es integrarte → Los developers prefieren lo que el LLM les puede explicar en 2 minutos, no lo que requiere leer 50 páginas de docs.
  • Qué tan "memeable" es tu posicionamiento → Si sos "el Stripe de X", aparecés en analogías. Los LLMs piensan en patrones y comparaciones.

Si tu producto no aparece en esas conversaciones, no existís. Así de simple. Y no podés arreglarlo con más presupuesto de ads, porque no hay ads que comprar. Tenés que construir la presencia desde la sustancia: documentación real, integraciones que funcionen, casos de uso bien explicados.

Lo que separa a los que van a ganar de los que van a desaparecer

Acá está la síntesis: SaaS dejó de ser vender acceso a herramientas y se convirtió en vender resultados con garantías.

Los que van a ganar en los próximos 3 años no son los que tengan el mejor modelo de IA. Son los que puedan responder estas tres preguntas mejor que sus competidores:

  1. ¿Podés asumir liability contractualmente? Si tu agente se equivoca, ¿estás dispuesto a pagar por el error? Los que puedan decir "sí" y respaldarlo con capital y seguros van a capturar enterprise.
  2. ¿Tus unit economics sobreviven una guerra de precios de 24 meses? La deflación de costos de IA es exponencial, pero tus competidores también tienen acceso a esa deflación. ¿Podés bajar precios más rápido que ellos sin destruir márgenes?
  3. ¿Tu producto aparece cuando alguien le pregunta a un LLM? Si la respuesta es no, no importa qué tan bueno sea tu software. El discovery cambió de canal, y si no estás en ese canal, estás fuera del juego.

Lo interesante es que estas tres cosas están conectadas. No podés ofrecer indemnización sin compliance robusto. No podés sostener una guerra de precios sin outcome-based pricing. No podés ganar en GEO sin documentación e integraciones que hagan que tu producto sea fácil de explicar y recomendar.

Los incumbents (de nuevo, MSFT, Google, Stripe, Salesforce, etc.) tienen ventaja en los primeros dos. Las startups pueden ganar en el tercero si se mueven rápido. Pero nadie puede ignorar ninguno de los tres y sobrevivir.

Si el SaaS lo pensas como Service as a Software, entendes como cambió el riesgo y la estructura de costos y vas a tener ventaja cuando el mercado corrija.

| Corporate IT Inteligencia Artifical
Tags:
AI emprendedores Estrategias inteligencia artificial inversiones

De rondas monstruosas y expectativas

Brex se vende en 5bn y muchos opinan que es “disappointing”… todos ganaron plata pero las expectativas eran tan altas que les pegaron aun con ese exit…

Recomiendo este post de SaaStr sobre hubristic fundraising. Está contado desde el caso Brex, y el paralelismo que hace es con el mercado de AI donde vemos noticias constantes de rondas de cientos de millones aún sin producto, pero vale la pena para cualquier founder, incluso si no está en AI.

La lectura clave no es “levantar mucho está mal”. Es entender el trade-off real cuando levantás rondas enormes a valoraciones que ya te dejan muy poco margen de error.

Leer completa
| Mercados
Tags:
inversiones startups

Jardines Vallados en AI: ChatGPT vs Claude vs Gemini

Los chatbots, ChatGPT o Gemini o Claude, son de la tecnologia que más rapido creció en la historia; literalmente cientos de miles de millones de dólares están siendo invertidos para que OpenAI, Anthropic o Google sean los ganadores de esta carrera y adquieran clientes lo más rápido posible; ¿la razón? una vez que empezás a usar un chatbot el lock-in para cambiar a otro es gigante y no lo vas a querer hacer.

Primer ¿Qué es lock-in? En el contexto de la tecnología, lock-in es la dependencia que se genera hacia un proveedor o producto, dificultando cambiar a una alternativa como el cambiar de iPhone a Android o de Windows a Mac. En el caso de los chatbots de IA –especialmente ChatGPT (OpenAI), Claude (Anthropic) y Gemini (Google)– existen mecanismos que fomentan esta fidelidad forzada y lo interesante es que podemos dividir en 3 contextos el lock-in en estos productos: (a) técnico, (b) producto y (c) el de uso.

Lock-in técnico (dependencia de la tecnología)

En el plano técnico, esto es más relevante para usuarios B2B (o sea, no finales) los tres modelos son cerrados y propietarios, lo que implica que dependes de la infraestructura y avances del proveedor:

  • ChatGPT (OpenAI): Funciona con modelos como GPT-4 que no son de código abierto, accesibles solo a través de la API o la interfaz de OpenAI. Si construís soluciones o flujos de trabajo basados en GPT-4, migrar a otro modelo requeriría re-desarrollar integraciones y puede implicar perder la calidad o afinación específica lograda. Por ejemplo, muchas empresas han incorporado la API de ChatGPT en sus productos; salir de ahí supone re-entrenar modelos alternativos o aceptar resultados diferentes. Además, OpenAI ofrece opciones de fine-tuning (ajuste fino) en algunos de sus modelos: una vez que entrenas GPT con datos propios, ese ajuste no es portátil a otros sistemas, incrementando la dependencia técnica.
  • Gemini (Google): Es la familia de modelos de lenguaje de Google (evolución de PaLM y de Bard). Al igual que ChatGPT, es un servicio cerrado en la nube de Google, sin opción de auto-hospedaje. El acceso suele ser mediante la app de Gemini (antes Bard) o APIs de Google. Esto crea lock-in porque cualquier solución construida sobre Gemini queda atada a Google Cloud y a sus condiciones. Además, como Google utiliza hardware optimizado (TPUs) y una integración profunda con su ecosistema, se dificulta replicar la solución fuera de su plataforma, así que quienes dependen de su capacidad (por ejemplo, en multi-modalidad o en comprensión de consultas complejas) se ven obligados a seguir usando los servicios de Google.
  • Claude (Anthropic): También es un modelo propietario ofrecido a través de API y aplicaciones asociadas (como la integración nativa en Slack o la plataforma web de Anthropic). Un ejemplo, Claude destacó por innovar en el tamaño de la ventana de contexto –pudiendo manejar hasta 100,000 tokens en Claude 2– lo que significa que puede leer documentos o conversaciones muy extensas. Si tu caso de uso aprovecha esa capacidad (por ejemplo, cargar informes largos para análisis), puedes quedar bloqueado en Claude porque otros bots (hasta hace poco) no manejaban tanto contexto. Nuevamente, al no ser open-source, no es posible llevar el modelo fuera de Anthropic. Así, a nivel técnico, los tres chatbots generan un lock-in similar: utilizan modelos de IA exclusivos y nativos de cada proveedor, obligando a permanecer en sus plataformas para mantener el mismo rendimiento.

Lock-in de producto (ecosistema y funcionalidades)

Cada servicio de chatbot construye funciones y ecosistemas en torno al modelo base, lo que refuerza la lealtad del usuario al producto:

  • ChatGPT: OpenAI ha convertido ChatGPT en una plataforma con características únicas. Por ejemplo, introdujo un ecosistema de plugins donde el chatbot puede conectarse con servicios de terceros (buscador de vuelos, bases de conocimiento, herramientas como Wolfram Alpha, etc.), ampliando enormemente lo que puede hacer. Estos complementos resuelven tareas dentro de ChatGPT, evitando que el usuario salga a otras apps. Asimismo, OpenAI agregó capacidades multimodales: ChatGPT puede analizar imágenes y voz, integrando funcionalidades que antes requerían herramientas separadas. También funciones como Code Interpreter (ahora llamado “Advanced Data Analysis”) permiten ejecutar código y procesar archivos dentro de la misma interfaz de chat. Todas estas facilidades hacen que el usuario encuentre en ChatGPT un “todo en uno”, dificultando reemplazarlo con otro bot que no tenga un repertorio de plugins o características equivalente.
  • Gemini (Google): La estrategia de Google para Gemini (y Bard) es apoyarse en su amplio ecosistema de servicios. Gemini está integrándose con las aplicaciones de Google que millones de personas usan a diario. Por ejemplo, con las Extensiones de Bard/Gemini, el asistente puede extraer información de Gmail, Google Drive, Maps, YouTube y otras apps directamente dentro de la conversación . Esto significa que un usuario de Gmail o Docs puede pedirle a Gemini que encuentre un correo específico, resuma un documento de Drive o planifique un viaje con datos de Maps, todo sin salir del chat. Este nivel de integración es un poderoso lock-in de producto: si tu vida digital está en Google (correo, fotos, documentos, calendario), es muy tentador usar el chatbot nativo que “habla” con esas apps. Gemini con personalización incluso usa tu historial de búsquedas de Google para dar respuestas adaptadas a tus intereses , y Google planea conectarlo también con Fotos y YouTube . En conjunto, Gemini se vuelve una pieza central del ecosistema Google –un asistente personal omnipresente– del que es difícil salir sin perder comodidades.
  • Claude: Anthropic, aunque más nuevo en el plano de producto de consumo, ha buscado nichos específicos para Claude. Un factor importante es la integración empresarial: por ejemplo, Slack incorporó a Claude como parte de sus herramientas (Slack GPT), lo que atrae a equipos de trabajo a usar Claude dentro de su flujo laboral. Si tu empresa comienza a usar Claude en Slack para asistencia en canal, quedas ligado a ese entorno. En cuanto a funcionalidades diferenciadoras, Claude ofrece estilos personalizables (Anthropic introdujo Claude Styles a fines de 2024 para ajustar la personalidad o tono del bot) . Sin embargo, en general Anthropic ha mantenido una interfaz más sencilla. No tiene, por ahora, un sistema de plugins tan amplio ni capacidades multimediales visibles al usuario común. Su ventaja de producto recae más en la experiencia de conversación (se percibe amistoso y bueno en tareas creativas) y en límites más amplios (contexto extenso, respuestas más largas), lo cual fideliza a usuarios que necesitan esas cualidades. Aun con menos “campanas y silbatos” que ChatGPT o Google, Claude genera lock-in si has adaptado tu flujo de trabajo a sus puntos fuertes (ej. cargar grandes documentos, uso en herramientas como Notion o Slack mediante API).

Lock-in de uso (memoria, personalización y datos del usuario)

Captura: Ajustes de memoria en ChatGPT. La IA va recordando detalles proporcionados por el usuario para personalizar futuras respuestas (por ejemplo, preferencias de formato, datos personales mencionados, etc.). Este perfil almacenado hace que mientras más uses ChatGPT, más se adapte a ti, fortaleciendo el lock-in .

El lock-in más sutil –y quizás más poderoso– surge del historial de uso y la personalización. A medida que interactúas con el chatbot, este puede aprender sobre tus preferencias, contexto y necesidades, creando un perfil que enriquece las siguientes respuestas. Cada servicio ha implementado esta idea de memoria de manera diferente:

  • ChatGPT: OpenAI introdujo la memoria activa entre conversaciones en 2024. Ahora ChatGPT puede referenciar todas tus conversaciones pasadas para darte respuestas más relevantes y personalizadas . Por ejemplo, recuerda que tienes una hija pequeña o que te gusta cierto estilo de resumen si se lo has mencionado, y aplicará ese contexto automáticamente en nuevas sesiones. Además, las instrucciones personalizadas permiten fijar datos o indicaciones persistentes sobre ti (rol, tono deseado, información clave) sin tener que repetirlas en cada chat. En conjunto, “mientras más usas ChatGPT, más útil se vuelve” porque cada nueva conversación se construye sobre lo que ya sabe de ti . Esto crea un fuerte lock-in de uso: después de semanas o meses, ChatGPT “te conoce” y cambiar a otro chatbot implicaría perder esa familiaridad. Hay que destacar que esta memoria es persistente y unificada: no distingue entre diferentes contextos o proyectos, lo que puede llevar a que detalles de un ámbito aparezcan en otro si no se tiene cuidado  . Aun así, desde el punto de vista de la fidelización, este perfil global anima a usar siempre la misma IA para no empezar desde cero en cada nueva plataforma.
  • Gemini (Google): Google, tras un periodo más conservador, ha incorporado recientemente funciones de memoria y contexto personal en Gemini. En 2024 permitía que el usuario le pida “recuerda que me interesa X”, pero desde agosto de 2025 ya recuerda detalles previos automáticamente si activas esa opción . Con la función Personal Context (Contexto personal) encendida, Gemini “aprende de tus conversaciones pasadas para brindar respuestas relevantes y a tu medida”  . Un ejemplo dado por Google: si antes hablaste con Gemini sobre ideas para un canal de YouTube de cultura japonesa, más adelante, al pedir nuevas ideas, te sugerirá algo relacionado (como comida japonesa) sin que tengas que recordárselo  . Asimismo, Gemini aprovecha datos de tu cuenta Google (p. ej. historial de búsquedas) para afinar respuestas a tus intereses . En esencia, Google busca construir un asistente personal inteligente completamente integrado a tu vida digital: “nuestra visión es un asistente de IA que aprende y te entiende verdaderamente”, dijo un director del proyecto . Esto evidentemente aumenta la dependencia: un usuario que habilita estos recuerdos en Gemini verá cómo el asistente cada vez le ahorra más contexto y le entrega respuestas a la carta, volviéndose difícil renunciar a esa comodidad. (Vale mencionar que Google activa esta personalización por defecto en ciertos países, aunque permite desactivarla ). En resumen, tu actividad previa en Google se convierte en valor añadido exclusivo de Gemini, cerrando la puerta a competidores que no pueden acceder a esos datos.

Captura: Búsqueda de conversaciones pasadas en Claude 2. El usuario pregunta “¿en qué estábamos trabajando antes de mis vacaciones?” y Claude localiza y resume el chat relevante. A diferencia de ChatGPT, Claude no mezcla contextos automáticamente: solo recupera aquello que se le solicita , evitando construir un perfil unificado del usuario.

  • Claude (Anthropic): La aproximación de Anthropic ha sido más enfocada en el control del usuario que en la proactividad. Durante mucho tiempo, Claude no guardaba memoria persistente entre chats –cada conversación era aislada–. En agosto de 2025 lanzaron una función de “Conversa y busca” que permite al usuario consultar conversaciones previas cuando lo necesite . Por ejemplo, puedes indicarle a Claude: “revisa lo que discutimos la semana pasada sobre el Proyecto X” y el sistema buscará en tus chats archivados para traer los detalles relevantes . Importante: “Claude solo recupera y referencia tus chats pasados cuando se lo pides, y no está construyendo un perfil de usuario según aclaró Anthropic . Es decir, no hay memoria automática cruzada; tú decides cuándo y qué recordar. Esto tiene dos caras para el lock-in: por un lado, ofrece menos personalización espontánea que ChatGPT o Gemini, lo que podría significar un vínculo menos fuerte (el usuario no siente que Claude “lo conoce” de manera profunda). Pero, por otro lado, algunos usuarios profesionales pueden preferir esta compartimentación. Claude introdujo el concepto de “memoria por proyecto”, donde los recuerdos no se mezclan entre distintos temas o clientes  . Esto evita filtraciones de información de un contexto a otro y da más confianza para usar la herramienta en entornos sensibles. Si tu prioridad es ese control, podrías volverte leal a Claude precisamente porque no te arriesga con memorias fuera de lugar. En síntesis, el lock-in de uso en Claude es más débil en términos de perfil personal global, pero Anthropic apuesta a fidelizar mediante la transparencia y seguridad: tú mandas sobre qué se recuerda y cuándo, y no tienes sorpresas de la IA sacando datos antiguos sin pedirlo . Aun con enfoques distintos, todos los proveedores reconocen que la memoria es clave para enganchar a los usuarios: “las funciones de memoria buscan atraer y mantener usuarios en un servicio, aumentando la ‘pegajosidad’” .

Antes era "interoperabilidad" ahora ¿podés llevarte tu contexto de un chatbot a otro?

La realidad actual es que no existe portabilidad fácil de un contexto personalizado entre distintas plataformas. Cada proveedor guarda tus datos de manera propietaria y no ofrece, por ejemplo, una exportación de “lo que la IA ha aprendido de mí” en formato estándar. Si quisieras cambiar de bot, prácticamente tendrías que empezar de cero o manualmente resumir y reenviar la información relevante.

Por ejemplo, ChatGPT permite ver y editar lo que recuerda de ti en sus ajustes de memoria, e incluso exportar tus conversaciones en un archivo, pero otro chatbot no sabría interpretar directamente esos datos para replicar el mismo entendimiento. De forma similar, Gemini podría estar usando tu historial de búsquedas y otros datos de Google –los cuales no puedes simplemente transferir a un rival, por privacidad y formato–. Claude, al no compilar un perfil único, te lo pone un poco más fácil en el sentido de que lo que necesita saber, tú se lo das explícitamente (y podrías dárselo igualmente a otro bot). Aún así, no hay una API universal ni estándar de “memoria de usuario” que permita llevar tu contexto personal de ChatGPT a Gemini o viceversa. Esta falta de portabilidad es deliberada hasta cierto punto: como vimos, la memoria y personalización son ventajas competitivas y mecanismo de lock-in. Cada empresa quiere que los beneficios de “conocerte bien” se queden dentro de su producto.

¿Y Meta AI?

Aunque Meta también lanzó su propio chatbot, no lo incluimos en este análisis por dos motivos principales:

  1. Nivel de adopción: hoy Meta AI está principalmente integrado en productos como Facebook, Instagram o WhatsApp, pero su alcance como asistente independiente es todavía limitado comparado con ChatGPT, Gemini o Claude.
  2. Estrategia distinta: Meta apuesta a modelos abiertos como Llama para impulsar su IA. Su jugada es más bien construir un ecosistema de desarrolladores y empresas que adopten su tecnología, en lugar de generar lock-in sobre un único asistente centralizado con memoria y personalización.

En otras palabras, la competencia de Meta es más horizontal (distribución de modelos abiertos) que vertical (chatbot con lock-in directo), y por eso este post se centra en quienes hoy disputan el lock-in de los usuarios finales.

Los chatbots de IA más avanzados están desplegando una combinación de estrategias para mantenernos enganchados en sus plataformas. En lo técnico, nos atan con modelos potentes pero propietarios y difíciles de reemplazar. A nivel de producto, nos seducen con integraciones y funciones exclusivas (ya sean plugins, acceso al ecosistema Google, o contextos gigantes para manejar nuestros datos). Y mediante el uso continuado, construyen una relación cada vez más personalizada –ya sea mediante un perfil unificado como ChatGPT/Gemini, o con memorias controladas por el usuario como Claude– que hace que cambiar de chatbot se sienta como retroceder.

Como usuarios o creadores de contenido, es importante ser conscientes de estos lock-ins. Disfrutar de la conveniencia de que “mi chatbot ya sabe lo que quiero” es genial, pero implica confiar nuestros datos y preferencias a un silo específico. Por ahora, mover nuestro “yo digital” de una IA a otra no es sencillo, así que elegir con cuál casarse no es trivial. La competencia entre OpenAI, Anthropic y Google está llevando a rápidos avances –todos han acelerado en incorporar memoria y personalización – lo que beneficia al usuario en funcionalidad. Pero también refuerza que cada uno quiera ser “el asistente del que no te puedes desprender”.

En última instancia, un posible camino para aliviar el lock-in sería que aparezcan estándares abiertos o asistentes locales que permitieran portar nuestras instrucciones y datos de contexto de forma privada. Sin embargo, hoy por hoy, si inviertes tiempo en un chatbot, tiendes a quedarte con él por inercia y beneficio acumulado.

Este es un mercado donde habrán pocos ganadores y por eso cada uno quemando decenas de miles de millones de inversores; porque una vez elegido es muy dificil que lo dejes; la elección racional seria: "elegir aquel que se alinee con tus valores (privacidad, control) y necesidades, sabiendo que cambiar de barco más adelante tendrá sus costos" pero ¿como lo podrías saber si ni siquiera creo que lo sepan ellos mismos?

| Inteligencia Artifical
Tags:
Anthropic Google IA innovación inversiones openai privacidad

La OpenAI Mafia ahora también juega como VC

En mi post sobre la OpenAI Mafia hablé de cómo ex-empleados de OpenAI están creando startups alrededor de los nichos que saben serán clave en la nueva economía de la inteligencia artificial. Ahora están dando un paso más: crear fondos de inversión en early stage startups.

¿Por qué? Tres patrones conocidos lo explican:

  1. Empleados mega-millonarios: Las rondas de inversión gigantes en OpenAI y otras firmas de AI generaron liquidez inédita. Ejemplo: empleados de OpenAI acaban de vender acciones por USD 9.000 millones en la última ronda. Esa riqueza personal les permite retirarse jóvenes o crear fondos con su propio capital.
  2. Acceso privilegiado a dealflow técnico: Los tentáculos de la OpenAI Mafia llegan a startups fundadas por ex-compañeros que conocen dónde están las oportunidades reales. Esto no es nuevo: yo mismo invertí en el vehículo que creamos entre empleados de Microsoft para apostar en startups de ex-Microsoft que apalancan tecnología cloud. La diferencia es que aquí se trata del sector más caliente del mercado: AI.
  3. Conocimiento técnico + estrategia = confianza de LPs: La combinación de ser insiders técnicos y haber vivido el hypergrowth desde adentro, les da credibilidad para armar tesis de inversión sólidas. En un mercado con USD 175.000 millones de dry powder listos para ser invertidos, no sorprende que Limited Partners quieran entrar en estos fondos temáticos de AI.

En otras palabras, la OpenAI Mafia no sólo crea startups: ahora también controla parte del capital que financiará la próxima generación de AI... si no entienden ahora porque es un mercado laboral 996 se estan perdiendo algo.

Nota: los 3 patrones que digo se repiten son a nivel conceptual super simples; concentracion de talento vertical, creacion de riqueza y liquidez en el mercado y, finalmente, una nueva ola-macro de nueva tecnologia

| Mercados
Tags:
inversiones openai startups

Las IPO ya no son negocio para vos o para mí

Hoy en día, las startups tecnológicas de EE.UU. tardan más tiempo en salir a bolsa y lo hacen con valuaciones mucho mayores que las empresas de décadas pasadas . Gran parte del upside (el mayor crecimiento en valor) ocurre ahora en el mercado privado – beneficiando a venture capital y private equity – y no en el mercado público al que acceden los inversores minoristas. Esto significa que el tramo inicial de creación de valor se privatiza: el inversor retail se pierde potenciales ganancias tempranas, aunque por otro lado pudieran evitarse algunos riesgos de invertir en empresas inmaduras infladas por inversores privados.

¿Pero cuándo salían “baratas” las IPO tecnológicas?

Veamos algunos ejemplos de grandes tecnológicas y sus valuaciones al momento de salir a bolsa, comparadas con startups recientes:

  • Microsoft (fundada 1975, IPO en 1986): 11 años para salir a bolsa, con una valuación de mercado de aproximadamente $500–780 millones. La oferta pública inicial recaudó apenas $61 millones . (Dato curioso: Bill Gates consideraba que un precio por acción de $20 ya empujaría la capitalización por encima de $500 millones, lo cual le parecía “incómodamente alto” ).
  • Amazon (fundada 1994, IPO en 1997): Solo 3 años hasta su IPO, debutando con una capitalización cercana a $438 millones . Jeff Bezos llevó a Amazon al mercado público cuando aún era esencialmente una librería online con altísimas tasas de crecimiento pero muy pequeña en tamaño.
  • Google (fundada 1998, IPO en 2004): 6 años hasta la IPO, debutando con una valuación de alrededor de $23.000 millones . Google ya era rentable y dominaba la búsqueda en Internet, pero aun así el público pudo invertir desde un market cap relativamente “moderado” en comparación con los gigantes actuales (hoy Alphabet vale más de $1,7 billones ).
  • Facebook (fundada 2004, IPO en 2012): 8 años hasta salir a bolsa. Su IPO fue histórica: valuación de $104.000 millones, recaudando $16.000 millones – en su momento, la tercera oferta pública más grande de la historia de EE.UU. . Ya fue un mega-IPO, reflejando que Facebook había capturado gran parte de su crecimiento antes de llegar al mercado público.
  • NVIDIA (fundada 1993, IPO en 1999): ~6 años hasta la IPO, con una valuación inicial mucho más modesta. Sus acciones salieron a $12 por acción , lo que implicó una capitalización de apenas unos $500–600 millones (estimados). Tras 25 años como empresa pública, NVIDIA superó los $1–2 billones de market cap en 2024, pero aquel crecimiento fenomenal se gestó desde una base pública muy pequeña.
Leer completa
| Estrategias Mercados
Tags:
emprendedores inversiones IPO startups

Thoughts on Fund Performance Data from AngelList

I dont share here the email for LP/GPs i sent monthly, however AngelList published the performance for funds in their platform (aggregates) and if you are in the VC industry I believe its a good way to understand the current market. (note: in english since the email I send is in english)

Hi dear friends,
Here’s my take on the trends and concerns reflected in this dataset:

Key Observations
• The 2017 vintage shows the strongest performance:
• Median IRR: 19.7%
• Median TVPI: 3.57x
• Median DPI: 0.29x
• Steady decline across all metrics from 2017 to 2023:
• IRR drops from 19.7% (2017) to -5.5% (2023)
• TVPI declines from 3.57x (2017) to 0.95x (2023)
• DPI remains near zero for recent vintages, indicating a lack of distributions.

Leer completa
| Mercados
Tags:
inversiones startups venture capital

Medir Retención No es Suficiente: La Clave Está en los Timeframes

Si hay algo fundamental en una startup es medir qué tan bien tu producto cumple con las expectativas de los usuarios y si logra mantenerse como parte de su vida: eso se hace midiendo la retención. Punto. Es uno de los indicadores clave de product-market fit, que muestra si las personas no solo prueban tu solución, sino si regresan y la usan de manera recurrente. ¿Y dónde impacta esto? Directamente en los ingresos, sostenibilidad del negocio y tu capacidad de escalar, ya que adquirir nuevos usuarios es mucho más caro que mantener a los existentes.

Pero un problema que veo en varias startups e incluso analistas de fondos es que la retención no se mide en una sola instancia porque el comportamiento de los usuarios cambia con el tiempo. Una sola medición no captura esta evolución ni permite tomar decisiones estratégicas informadas.

Tomar periodos de medición permite identificar patrones de comportamiento, detectar posibles puntos de abandono y optimizar la experiencia de usuario. Por eso la retención se mide a través de timeframes específicos, que podemos estandarizar en los primeros 30, 90 y 365 días.

Leer completa
| Estrategias
Tags:
emprendedores inversiones metricas startups

Los nuevos ‘Traitorous Eight’: El momento de los emprendedores en Generative AI”

En 1957, ocho jóvenes ingenieros, conocidos más tarde como los “Traitorous Eight”, tomaron la decisión que dio origen a Silicon Valley: abandonaron Shockley Semiconductor por desacuerdos con su fundador, fundaron Fairchild Semiconductor y no solo marcó el nacimiento de la industria de los semiconductores, sino que también sentó las bases de una nueva era con empresas como Intel y AMD.

Leer completa
| Inteligencia Artifical
Tags:
emprendedores innovación inteligencia artificial inversiones

Entendiendo la carrera de IA y genAI

Creo que el ecosistema inversor/emprendedor de la region (Latam+España) no entiende el momento o espacio en el que está en temas de Inteligencia Artificial especialmente en GenAI y, quizás, analizar los 100 papers más citados en el ámbito académico ayude a explicar dónde estamos parados para así entender dónde podemos encontrar oportunidades de inversión para crecer.

Version simplificada del Stack (lo del medio podes pensarlo de varias maneras)

¿Por qué los 100 papers más citados? [fuente] Por dos razones principales: por un lado, el momento actual de la inteligencia artificial generativa es el de transferencia tecnológica, de R&D y academia a corporaciones y startups. Y, por otro lado, porque el avance de las corporaciones sobre la investigación académica se está dando a pasos agigantados por la cantidad de capital necesario para desplegar estas soluciones.

Leer completa
| Estrategias Inteligencia Artifical
Tags:
AI emprendedores generative AI innovación inversiones

Zero Interest Rate Phenomenom y un gran momento para early-stage

Pocas cosas son mas simples de entender que el ZIRP que vivimos hasta 2021; con tasas de interés en cero el mercado no le preocupa el ROI ahora o en una década con lo que un fondo de inversión puede apostar a largo plazo y en ideas estúpidas.... ¿cuando levantaron plata esos fondos que admirás?

Fast-Forward a hoy: con tasas de 5.5% pongo plata en bonos y en una década tengo 170% de retorno ¿que fondo me da ese retorno? (*) entonces a un VC no puedo darle plata para que haga pelotudeces y entonces los inversores de riesgo se vuelven mas conservadores porque les cuesta levantar un fondo.

¿Cual es la segunda derivada de esto? los fondos grandes que invirtieron en valuaciones ridiculas (eg: A16z) llamaron la atención de los PE players (eg: Coatue, Tiger, etc.) y juntos generaron una generación de startups que van a parir para que sus siguientes rondas no sean un downround y hay una fricción gigantesca para invertir si no tienen runway.

¿A que viene esto? a que es un gran momento para invertir en early stage o inversiones ángel... el mercado se limpió:

  • muchos de los fondos que necesitaban desplegar su capital en growth hoy no van a molestar en early stage porque necesitan cuidar sus números,
  • muchos emprendedores que lograron salir en 2020/21/22 tienen ganas de hacer cosas y tienen capital para invertir en otros,
  • Ai está recién arrancando y el valle de la desilusión va a borrar wrappers y startups sin diferenciación.

Soy más que optimista de este momento, creo que el ecosistema emprendedor debería enfocarse en construir porque el capital va a seguirlos, en vez de seguir ellos al capital (x) como pasó un tiempito nomás.

notas:

(*) y eso es solo para mantener mi poder de compra porque con 5.5% técnicamente voy a perder un 42% de valor.

(x) si los fondos y las asociaciones regionales no empiezan a hablar en serio del tema del ZIRP van a seguir mirando boludeces en vez de dar un debate interesante aunque privado.

| Estrategias
Tags:
emprendedores fondos de inversión innovación inversiones latam

¿Hay una burbuja de la Inteligencia Artificial? No.

Estamos en un momento interesante de la Inteligencia Artificial, todos los días hay titulares que dicen “La burbuja de la IA está llegando a un punto de inflexión” o "La Revolución de la Inteligencia Artificial pierde fuerza" y muestran críticas interesantes, pero dejan de lado noticias clave como el desarme de Character.AI o Inflection.AI o, aún más interesantes como el momento de NVIDIA en la bolsa.

“Now you’re looking for the secret, but you won’t find it, because of course you’re not really looking. You don’t really want to know. You want to be fooled.”
― Christopher Priest, The Prestige

Creo, honestamente, que hay una conjunción de 3 temas: (a) Falta de conocimiento real sobre IA al punto que no separan entre LLMs/GenAI e Inteligencia artificial como campo; (b) Un pico de expectativas sobredimensionadas especialmente por varios inversores y (c) Una necesidad de maravillarse sin preguntar realmente que hay atrás de todo esto para luego descartarlo y pasar al siguiente "fad".

Leer completa
| Inteligencia Artifical
Tags:
AI innovación inteligencia artificial inversiones startups

Monzo, nueva ronda de inversión y volver a las raíces

Esta semana, Monzo, con sede en Londres, logró una de las mayores rondas de financiación en algún tiempo para fintechs, una Serie I de $435 millones con una valuación post de $5.000 millones, subiendo desde $4.500 millones en 2021 aunque en los dos últimos años las inversiones en fintech cayeron mas de un 50% y en banking startups un 72%.

Investment to banking startups has evaporated, with funding falling 72% in 2023 — the biggest YoY decrease across fintech sectors. Payments startups saw funding decline just 30% YoY — the least of any fintech sector — though the annual funding total was propped up by 2 massive rounds to Stripe ($6.5B) and Metropolis ($1B). Payments remains the most well-funded fintech sector by a wide margin.

CB Insights Fintech 2023
Leer completa
| Mercados
Tags:
fintech inversiones monzo neobancos startups

OpenAI despide a Sam Altman que (NO) se une a Microsoft con todo su equipo

Qué fin de semana increíble para Sam Altman, Satya Nadella, OpenAI y Microsoft; desde un despido a traición el viernes a última hora seguido de renuncias en masa, hasta una oferta grupal para liderar el nuevo Microsoft Advanced AI Research Teamupdate: que resultó ser una palanca para negociar la vuelta de Sam a OpenAI

Fue todo tan rápido que hubo mil especulaciones pero es bastante simple de entender, enfocandose en el origen de OpenAI, su estructura societaria y los bandos que se fueron formando naturalmente. Tengan en cuenta este gráfico:

  1. Un Board enfrentado con el concepto de empresa: la clave de lo que vimos arranca con un board of directors pensado para una ONG/non-profit (OpenAI LLC), enfrentado con la realidad de una empresa (OpenAI Global LLC) que tuvo el lanzamiento más exitoso en la historia de Internet (ChatGPT) y que NECESITA ser for-profit para escalar su tecnología, por el nivel de gastos que el desarrollo de modelos implica y el costo de infraestructura que conlleva su crecimiento.
    • Extraoficialmente, desde 2019 a hoy, se necesitaron mas de USD2.500 millones de infraestructura.
    • Los compensation packs para algunos de los nuevos investigadores es de USD5 millones a USD10 millones.
  2. Falta de alineamiento: aunque la forma de comunicar fue todo lo que está mal, lo interesante es que al Board no le afecta porque ellos controlan a OpenAI Inc, que parece un departamento académico desconectado del for-profit y por eso lo hicieron de forma amateur; creo que no habían calculado que a minutos del despido casi todos los investigadores senior (el talento puro y duro) iban a comenzar a renunciar en masa.
  3. Inversiones masivas para que OpenAI (o MSAI) escale: si OpenAI LLC no necesita funding, la realidad es que escalar modelos o la infraestructura de Inteligencia Artificial necesita unos recursos casi imposibles de encontrar; sumados a que si tuvieras el capital tendrías que crear organizaciones enteras desde cero.
  4. Enter Satya: mientras el mercado estaba en pánico, Satya Nadella, con el apalancamiento de los 10+ billions invertidos, trató de mediar y que Sam Altman "vuelva" a OpenAI, pero mostrando al mismo tiempo opciones para que OpenAI pueda enfocarse en Artificial General Inteligence y el equipo focalizado en productos pueda impactar al mundo desde una plataforma plug&play... como Microsoft :)
  5. $MSFT: Microsoft tiene una licencia perpetua para todo el IP de OpenAI y ahora además tiene el talento para explotarlo (¡gracias Ben Thompson por el reminder!)
    (Ejemplo: ~50bn de investment esperado en AI por año fiscal).

Y esto, más allá de estar feliz de tener a Sam Altman en Microsoft y reafirmar que Nadella se merece una estampita, es una realidad: en cada adquisición que hizo Satya Nadella los fundadores siguieron haciendo crecer sus ideas, identidades y productos, hoy interconectados.

Si Open AI era una "compañia accidental" ahora los objetivos están claros y veremos como se acelera todo.

| Inteligencia Artifical Microsoft
Tags:
adquisiciones inversiones Microsoft sam altman satya nadella

Instacart IPO: ¿vuelven los exits?

Hoy Instacart comenzó a cotizar en el NASDAQ:CART con un valor de mercado de $10.000 millones y creo que todos los que están en el mercado de inversiones o emprendimiento deberían mirar esta empresa porque puede ser un gran barómetro del mercado.

Instacart IPO y sus numeros

Instacart IPO y la montaña rusa de crecer en COVID

Para los que siguen imaginando que llegar a cotizar es fácil, me gustaría que entiendan el timeline de esta empresa; fue fundada en 2012 ...

  • En 2017 Amazon compró a WholeFoods que era el mejor cliente y le cortaron el contrato de delivery... muchos imaginaron que iban a morir pero;
  • en 2018 consiguieron que muchos retailers que compiten con Amazon los comiencen a utilizar y asi "el enemigo de mi enemigo es mi amigo" lo dejo listo para
  • Salir a bolsa en 2019... y cuando todo estaba listo, apareció COVID y de golpe su negocio explotó al punto de lograr levantar en un solo año más del doble de lo que esperaban levantar al salir a bolsa
  • Era Marzo de 2021 y aparecieron Andreessen Horowitz, Sequoia Capital, D1 Capital Partners valorando la empresa en $39.000 millones y todos festejaban, pero terminó COVID y tuvieron que cortar todo porque el negocio cambió

Sin embargo Apoorva Mehta, su CEO, logró convertir a Instacart en una empresa rentable, preparar un IPO y ser el primero de la "era de los unicornios" en salir al mercado y asi convertirse en una prueba de como el mercado valora realmente a los que levantaron con cotizaciones de zero interest rate phenomenon.

Hoy el pop fue de 40% y durante el dia se estabilizó en -10% veremos en un mes como el mercado analiza esto y si vuelven los exits realmente y no los papelitos de colores :)

| Internet
Tags:
emprendedores inversiones IPO startups

Matar al mejor socio

Mi postura sobre SVB es super clara, hice un post sobre el tema que es publico, pero estaría bueno leer otro punto de vista al simplificado que está dando vueltas por las redes sociales; por un lado Michael Moritz, partner de Sequoia en el Financial Times, y por otro Hemant Teja, CEO y MD de General Catalyst.

Pero antes que nada quiero dejar en claro 3 puntos que nadie puede negar y que haciendo el post mortem parecen no ser importantes:

  • El valor del SVB en el nacimiento del ecosistema de startups y VCs es innegable. Cuando las empresas tecnológicas nacen y son "una idea liderada por dos emprendedores" los bancos tradicionales no le prestan atención... y cuando estás armando tu primer vehículo de inversión ¿quién estaba ahí dándote servicios?
  • El manejo de riesgo fue terrible, aun con la excusa que los depósitos se triplicaron en la pandemia, diversificar mal fue estúpido y eso se paga; encima el CEO solo generó desconfianza con un timming terrible y una comunicación terriblemente mala.
  • La cámara de eco de nuestro mercado fue destructiva y mostró POCO profesionalismo. De 3 fondos que arrancaron la corrida, las redes sociales empujaron una corrida de 42.000 millones de dólares en menos de 2 días, 3 veces más que la segunda corrida bancaria de la historia y aún así todos los pedidos fueron honrados.

Ecosistema implica una interconexión

In a perverse way, SVB has paid a price for its loyalty. Much will be said about the reasons for its demise, but few will dwell on what made it special for those of us in Silicon Valley. SVB stayed close to its roots and its customers. When it collapsed almost all of its 40,000 customers were technology companies — a drop in the bucket for the big banks.

Michael Moritz - Sequoia en el FT

"What should have been sophisticated, systems-level thinking quickly gave way to the most basic human instinct to act in one’s own self-interest, not out of malice or greed, but to ensure survival." ... "But the losses SVB reported should not have been fatal. The value-generating parts of the business remained intact, as did the deep relationships and trust SVB enjoyed with nearly every actor in our industry."

The counternarrative—that those investors who panicked first were fulfilling a fiduciary duty—is incomplete. We were all shocked at the speed with which the events of last week unfolded. But causing a bank run at the most important institution in your sector can hardly be considered an act of fiduciary duty. While your own company may be able to recover most or all of its cash, what happens if the resulting collapse wipes out your customer base? Or your venture debt provider?

Hemant Taneja - CEO General catalyst @ The Information

Creo que esas notas dicen bastante claro que hay algo que se perdió en el momento donde algunos dejaron de "ayudar a emprendedores a crecer!" para crear FUD (Fear, Uncertainty and Doubt) en redes sociales. De nuevo, el management hizo una peor que otra, pero no estoy seguro de que el banco fuera a colapsar.

La industria se debe un gran debate, que afortunadamente se está dando pero a puertas cerradas, sobre cómo se manejan rumores en épocas de redes sociales y mentalidad de rebaño.

Si decimos que de los errores se aprende.... tenemos una gran oportunidad como ecosistema, aunque hayamos matado a uno de los mejores socios del ecosistema.

| Rants
Tags:
emprendedores innovación inversiones twitter

SVB de iliquidez a insolvencia

La crisis del Silicon Valley Bank me trajo recuerdos a un Ministro de economía argentino quejándose del mercado -"Les hablé con el corazón y me respondieron con el bolsillo"porque un componente importante de esta crisis se dio por temas de percepción y timming sumadas a una de las peores diversificaciones a nivel negocio que vi:

SVB customers were pulling deposits out of the bank as the prolific venture capital fund Founders Fund advised its startup companies to withdraw funds from SVB. This deposit outflow is forcing the bank to sell bonds worth $21bn at a combined post-tax loss of $1.8bn forcing SVB Financial to announce a public offering of common stock worth $1.25bn and $500mn of depository shares.

Esto disparó una serie de comunicaciones por parte del CEO que, en otro momento, podría generar un debate sobre que sus comunicaciones hicieron un cocktail explosivo:

  • El CEO decidió vender varios millones de dólares que tenia en acciones del banco.
  • Decidieron reforzar su balance sheet con 2.5bn luego de la venta de MBS a pérdida.
  • Comunicaron esto el mismo dia que Silvergate, otro banco, tenía que cerrar operaciones por sus problemas de balance-sheet (misma lógica)
  • Y comenzaron algunas declaraciones del CEO: “We have ample liquidity to support our clients, with ONE exception” y “If everybody is telling each other that SVB is in trouble, that will be a challenge.”

Honestamente creo que la suma de mala estrategia de negocio sumada a un muy mal timming y estrategia de salida, crearon lo que llevó al banco preferido del ecosistema de startups y fondos de inversión a ser intervenido por la FDIC porque no lograron interés de compradores que, en este punto, esperan que todo se rompa para pagar menos.

¿Cómo sigue esto? El procedimiento tradicional de la FDIC:

"All insured SVB depositors will have access to their insured deposits no later than Monday morning" ... "It would pay uninsured depositors an advance dividend within the next week." ... "Uninsured depositors will get a receivership certificate for the remaining amount" ... "as it sells off SVB’s assets, future payments may be made to uninsured depositors" ... "the FDIC will now look for a buyer to take over SVB" ... "If one can't be found, the bank will likely be pieced out over the coming weeks. Stockholders in the bank will be wiped out."

Ahora ¿quién va a pagar por este outlook? Acá les dejo el PDF con el update oficial del banco.

| Estrategias
Tags:
adquisiciones emprendedores inversiones

¿Los fondos de inversion dudan del valor de AI?

Me gustaría resaltar dos detalles de la nota del Financial Times sobre cómo los fondos de inversión están siendo cautos con las inversiones en el mercado de Inteligencia Artificial:

AI’s potential has drawn in the likes of Sarah Guo who, a year ago, led investment into the crypto sector for venture capital firm Greylock, having also been an angel investor into cryptocurrency exchange FTX. FTX has since collapsed into bankruptcy, but Guo has raised more than $100mn to invest into artificial intelligence with her new fund Conviction.

Link

Cuando uno maneja fondos o alocaciones de cientos de millones veo increiblemente dificil saltar de un mercado que necesita tanto domain knowledge, como cripto/web3, saltar a manejar cientos de millones en algo como inteligencia artificial donde se necesita mucho conocimiento para separar paja del trigo.

Aunque ambos mercados comparten el hype del conocimiento superficial:

One investor said that, because of the huge amount of capital and computing resources required, recent leaps in generative AI were comparable to landing on the moon: a massively impressive technical achievement, only replicable by those with nation-state level wealth.

Link

Cuando una tecnología arranca masivamente (no entremos en detalles de investigación y papers) es obvio que es un momento donde no hay economías de escala y que los modelos de negocio no son claros; encontrar donde existen esos modelos de negocio y donde esas economías de escala pueden aparecer es lo que distingue a los grandes inversores de los mediocres.

Cuando la duda sobre las inversiones en inteligencia artificial se den por las valuaciones es que no se termina de entender como es el stack de esta tecnología y cómo se dividen: plataformas, modelos y aplicaciones.

Es bastante simple de entender: plataformas cloud para AI son las 3 tradicionales con la entrada de startups como Coreweave, los modelos de IA son abiertos como Stable Diffusion o cerrados como GPT-3 y pueden correr en hubs como Hugging Face para finalmente ver aplicaciones de IA como Github Copilot o Midjourney que es el "front end" :)

En definitiva: hay muchos fondos que apuestan a AI y eso es porque tienen conocimiento como para entender el mercado y encima están completamente alejados del miedo que el Financial Times parece estar viendo en el mercado.

| Inteligencia Artifical
Tags:
AI inversiones modelos

Startup Boards: A Field Guide to Building and Leading an Effective Board of Directors

Pocos libros son mas utiles para un startup que esta teniendo tracción que Startup Boards: A Field Guide to Building and Leading an Effective Board of Directors de Brad Feld y Mahendra Ramsinghani.

A veces se olvida que un board basicamente ademas de ayudar, guiar, opinar al CEO tiene la responsabilidad de proveer "accountability" y supervision ... y las reuniones de ese directorio tienen que ser super claras, con estructura y agenda para que nadie pierda el tiempo.

  • ejemplo: sin agenda ni pre-reads se hacen preguntas que solo hacen perder tiempo; que haya agenda e información clara ayuda a entender quien le dedica tiempo realmente y quien no suma valor.

No solo eso, sino que entender como se compone y estructura un board ayuda a hacerlo efectivo sin que haya desbalances de poder (la cantidad de discusiones que he visto por esto) especialmente en situaciones donde el apoyo del board es clave: en 2021 era como discutir valuaciones astronomicas, en 2023 y 2024 podemos asumir discusiones menos amigables como M&A y firesales o como querer poner mas plata si estas creciendo sin parar ;)

When building a board, the path of least resistance is to start with what you have (Founders) and add the people who are included with your financing (Investor Directors). But having seen the impact of independent domain experts, I’m blown away that bringing some onboard as soon as possible isn’t a matter of top priority for founders.  

Will Gibs de Octopus Ventures

Una parte que me parece super interesante es como crear un "perfil" de board y especialmente como elegir los directores independientes (la falta de claridad al momento de "reclutarlos" mata muchas grandes sociedades), especialmente por sus redes, influencia en el ecosistema pero también teniendo en contra potenciales conflictos de interés o incluso compensación.

En definitiva, es un gran recurso para emprendendores... y en Amazon sale U$S18 para descargar en Kindle, una ganga ;)

| Libros
Tags:
adquisiciones emprendedores inversiones scaleups startups

El incentivo de innovar y el costo de no hacerlo

Fue Steve Jobs el que dijo "If you don't cannibalize yourself, someone else will." y creo que por eso la acción de Google cayó un 9% en un solo dia cuando apuró un evento de AI y no porque "hubo un error en una demo".

Lo que el análisis de 280 caracteres resume en "Google perdió un 9% porque una demo salió mal" es no entender el porque Google no habia presentado hasta ahora una interfaz conversacional como ChatGPT para aumentar los resultados: esto cambia la dinamica de negocio y no hay incentivos para innovar si canibalizas tus ingresos mientras cambia tu estructura de costos

  • La estructura de costos de una interfaz conversacional sobre inteligencia artificial es diferente a la del modelo actual de los buscadores (aka: 10 blue links).
  • El modelo de ingresos cambia radicalmente versus la actual integracion de links de anuncios arriba y abajo de los resultados en varios sentidos:
    • La interfaz es diferente entonces el espacio "above the fold" cambia; la integracion/mezcla de SERP/SEO cambia
    • pero mas estratégico es que el usuario ahora espera algo mas que "un link con la informacion" y nadie hizo pruebas a escala de esos nuevos modelos.

Pero entonces ¿con tantas preguntas porque el mercado le pego a Google este golpe que borró $100b en una hora? porque esperaban que se presente algo parecido al nuevo Bing que presentó Microsoft y Google no lo hizo... repito: no lo hizo porque pese a tener talento y tecnologia no tenia incentivos para probar algo que pudiera canibalizar su modelo de negocios por eso hay otro jugador, Microsoft, probando cosas nuevas.

¿Porque hablo de Microsoft si empece hablando de la caida de 9% en un dia de $GOOG o citando a Steve Jobs? porque la realidad es que en algun momento todos los negocios necesitan cambiar... y los mejores ejemplos son los dos "abuelos" del mercado de las Big Tech: Apple y Microsoft tienen 47 años y ya sufrieron reinvenciones.

Apple presento el iPhone en 2007 sabiendo que iban a volver obsoleto al iPod aun cuando era el motor de su crecimiento; Microsoft se enfoco en la nube aun cuando era su core eran los servers... "If you don't cannibalize yourself, someone else will."

Enter Satya y su experiencia en canibalizarse antes que lo canibalice otro, que explica MUY bien en su entrevista con The Verge sobre "The New Bing":

Like all things, one of the things that I think about is, in platform shifts, two things have to happen. You have to retool pretty much every product of yours, so you’ve got to rethink it, whether that’s the way you build it or what its core features are. It’s like how Microsoft had to pivot for the cloud to rethink exchange. It was not an exchange server. It was exchange as a service or what we had to do with our server infrastructure. We had to rebuild, essentially, a new core stack in Azure. So every time, with transitions, you have to essentially rewrite it. That’s how I think about it. The second thing is you also have to think about the business model. Sometimes these transitions are pretty harsh. I’ll tell you, the last transition from having the high share server business with great gross margins to saying, “Hey, the new business is called cloud, and it’s going to have one-fourth the margins” as the new news was pretty harsh, but we made it.

Satya Nadella explicando las dos caras de un cambio de paradigma.

Pero ¿hace bien el mercado en apostar contra Google? honestamente no lo creo... Google tiene el talento, tiene el market share y sobre todo tiene a Chrome y Android para apalancar todo; ojala hoy tengan algo de miedo y dejen de alocar experimentos interesantes como Google Duplex a una parte de Assistant.

| Estrategias Inteligencia Artifical
Tags:
Bard chatgpt Google innovación inversiones Microsoft openai
1 2 3 11