It's time to build agents. Pero no donde todos miran.

El nuevo estudio de Anthropic sobre uso de agentes en el mundo real tiene un número que domina la conversación: 49,7% de toda la actividad agentica está en software engineering. Casi la mitad. Y la reacción natural es "claro, tiene sentido" (los developers adoptaron Claude Code primero, entienden las herramientas, las usan más). Todo lógico hasta ahí. 

Excepto que es un caso clásico de survivorship bias. Ves los dominios que sobrevivieron a la fricción de adopción temprana y concluís que ahí está el mercado. Pero los números chicos (finanzas con 3%, salud con 1%, legal con 0,9%) no son evidencia de poco interés, sino la evidencia de alta fricción en mercados que todavía no explotaron. El mejor ejemplo: salud pasó de 3% a ser uno de los sectores de mayor crecimiento en adopción de AI en solo dos años (Menlo Ventures, 2025).

Repito: Estamos mirando el gráfico antes de que explote.

La ventana que se está abriendo

Los mercados regulados tienen algo en común: la tecnología los penetró tarde y mal. Los sistemas legacy de un hospital o de una firma contable no son un accidente, son décadas de decisiones conservadoras tomadas por gente que tenía mucho que perder si algo fallaba. Esa inercia protegió a los incumbentes por años. Pero hay un momento en la adopción de cualquier tecnología donde la fricción baja lo suficiente como para que los nuevos entrantes tengan ventaja. No porque los incumbentes sean tontos, sino porque reescribir sistemas legacy les cuesta más a ellos que construir desde cero le cuesta a alguien que llega nuevo.

Ese momento es ahora. Los LLMs bajaron el costo de construir interfaces inteligentes sobre datos complejos en un orden de magnitud, no para reemplazar a los incumbentes (ese es otro debate), sino para meterse en los espacios que los incumbentes no cubren o no les interesan. Slack no compitió con el email corporativo de frente. Stripe no peleó contra los bancos. Encontraron la fricción específica que el sistema existente dejaba sin resolver y construyeron ahí.

En finanzas y salud hay docenas de esas fricciones esperando a alguien que las vea… y son mercado más grandes que los que estamos viendo ahora.

Los grandes players van a llegar (siempre llegan). Pero llegan tarde a los mercados donde el conocimiento del dominio importa más que el tamaño. La ventana no es permanente. Pero al menos ahora está abierta y eso estamos viendo en el mercado.

El agente necesita un lugar donde vivir

La narrativa fácil dice que los agentes van a reemplazar al software. Que con un buen LLM y un buen prompt alcanza. Pero cualquiera que haya intentado deployar un agente en producción (no en una demo, en producción) sabe que eso no funciona así y hay incontables ejemplos.

Un agente de IA en salud sin acceso a historiales clínicos, sin integración con sistemas de prescripción, sin audit trails que satisfagan a los reguladores, no es un producto. Es una demo. Un agente en finanzas sin integración con sistemas contables, sin lógica para manejar distintos regímenes fiscales, sin los controles que exige un auditor, tampoco funciona en producción.

Lo que los agentes necesitan para ser útiles en industrias reguladas es exactamente lo que construye el SaaS vertical: datos propietarios del dominio, integraciones profundas con los sistemas que ya existen, compliance desde el diseño, y el contexto específico que ningún modelo genérico tiene.

Analogía: El agente es el motor. El SaaS vertical es el auto. Y doy dos ejemplos:

Finanzas: el caso más obvio que todavía no explotó

Pensá en cualquier contador o CFO de una empresa mediana en Latam. Su día a día está lleno de tareas perfectas para un agente: conciliación de cuentas, categorización de gastos, preparación de reportes, seguimiento de obligaciones fiscales, comunicación con clientes sobre facturas vencidas.

El problema es que ningún agente genérico puede hacer eso bien sin conocer el plan de cuentas específico de la empresa, las reglas de la AFIP (o del SAT, o del SRI), los formatos que acepta el sistema bancario local, y las particularidades del régimen contable de esa industria.

Eso es un moat enorme para quien lo construya primero. No el lock-in artificial de contratos largos, sino el lock-in genuino de ser el único sistema que entiende el contexto completo del negocio. El que construya eso en cada mercado regional va a tener una ventaja estructural difícil de atacar, al menos ahora (más de esto al final)

Salud: el TAM más grande con la penetración más baja

El 1% de actividad agentic en salud es al mismo tiempo una señal de dificultad y una señal de oportunidad.

Hay tres capas y no todas son iguales para un founder nuevo. La más accesible es la administrativa: agendamiento, pre-autorización de seguros, documentación clínica, gestión de derivaciones. Alto volumen, bajo valor diferencial para el médico, alto costo operativo para las clínicas. Menor fricción regulatoria, ROI obvio, construible hoy.

La segunda capa son los copilotos clínicos. Nabla y Abridge ya lo están haciendo en mercados desarrollados: agentes que escuchan una consulta, generan el resumen clínico, sugieren preguntas de seguimiento. Los médicos que los usan reportan hasta 42% menos tiempo en documentación (AtlantiCare, 2025). En Latam ese mercado está casi virgen.

La tercera capa (drug discovery, investigación) es trillonaria pero capital intensiva. Recursion Pharmaceuticals e Insilico Medicine operan ahí. No es territorio de primer producto para la mayoría de los founders, pero vale entender que existe.

La oportunidad concreta para quien arranca hoy está en las dos primeras. Y son suficientemente grandes.

Pero que separa a quien va a ganar y la gran pregunta de “me van a copiar!”

No cualquiera puede construir esto. Y eso es bueno.

El SaaS vertical con agentes requiere tres cosas difíciles de falsificar: expertise genuino en el dominio (no alcanza con haber leído papers sobre healthtech, tenés que entender cómo funciona una guardia de noche o un cierre contable de fin de mes), acceso a datos propietarios para entrenar comportamientos específicos, y paciencia para vender ciclos largos en sectores conservadores.

Los que van a perder son los que lleguen con un wrapper de GPT y una landing page. Los que van a ganar son los que entiendan que el agente es solo la parte visible, y que el valor real está en los datos, las integraciones, y el conocimiento del dominio.

Acá aparece la objeción obvia: "si construyo sobre Claude o GPT, ¿no me van a copiar los mismos creadores del modelo?" Es una pregunta válida. La respuesta es que el riesgo real no es que Anthropic te copie el producto. Es que construyas algo tan genérico que no necesite conocimiento local ni del dominio, y entonces sí seas copiable. Anthropic (y OpenAI) ya lanzaron agentes para finanzas y para cyber, y va a seguir expandiéndose a verticales grandes.

Pero no va a construir integración con AFIP, ni con el sistema de historias clínicas de una red de clínicas medianas en Latam. Eso requiere un tipo de conocimiento que no escala globalmente, y es exactamente donde está tu ventaja.

Honestamente creo qeu Anthropic publicó un estudio sobre autonomía de agentes, pero sin querer publicó algo más valioso: un mapa de los mercados donde todavía nadie llegó.

La pregunta es quién lo está leyendo bien.

Link a Anthropic paper

| Rants
Tags:
adquisiciones Anthropic emprendedores IA innovación inversiones

Freelancers e IA, el mismo modelo de negocio

Ya que hablamos de trabajo "desplazado por la IA": los datos sobre el estado del freelancing muestran que son, efectivamente, el sector más golpeado. Y tiene sentido por razones estructurales que un paper reciente hace muy explícitas.

Payrolls to Prompts: Firm-Level Evidence on the Substitution of Labor for AI (Ryan Stevens, enero 2026) es posiblemente la primera medición directa a nivel micro de que la IA generativa se está usando como sustituto parcial del trabajo humano.

La metodología es sólida: usan datos de gasto real de empresas (no job postings, sino pagos efectivos) de una plataforma de gestión de gastos de EE.UU. Siguieron el gasto trimestral desde Q3 2021 hasta Q3 2025 en marketplaces de trabajo online como Upwork y Fiverr, y en los principales proveedores de IA. El evento de corte que usan para medir causalidad es el lanzamiento de ChatGPT en octubre 2022 — lo cual les permite construir un modelo difference-in-differences y no quedarse en correlación.

El resultado central: una caída de $1 en gasto en trabajo online se asocia con aproximadamente $0,03 de gasto adicional en IA. Lo que implica ahorros de costos de un orden de magnitud, no mejoras marginales.

Leer completa
| Desarrollo Inteligencia Artifical
Tags:
emprendedores freelancers IA trabajo

El impacto real de la IA en el empleo: lo que muestran los datos

Desde que apareció ChatGPT que la idea del impacto de la inteligencia artificial en el trabajo es un péndulo que va desde "vamos a convertirnos en máquinas ultraproductivas con un copiloto" hasta "no necesitaremos más programadores (o abogados, o insertá acá tu profesión)" y muy pocas voces coherentes en el medio. Este estudio es interesante porque analiza con datos qué impacto se está viendo en el mercado laboral y muestra algunas conclusiones que van más allá del hype y el pánico.

El paper "Canaries in the Coal Mine" de Stanford usa datos administrativos de ADP (la empresa de nóminas más grande de EEUU) para trackear qué está pasando realmente con el empleo desde que ChatGPT explotó a fines de 2022. La muestra es enorme: millones de trabajadores cada mes, con información hasta septiembre 2025.

Los cuatro hallazgos clave

Leer completa
| Estrategias Inteligencia Artifical Rants
Tags:
desarrolladores HR IA trabajo

Anthropic levantó $30.000 millones y tiene perfecto sentido

Anthropic anunció que levantó $30.000 millones en su Serie G, duplicando su valuación a $380.000 millones en apenas cinco meses y muchos dudan de la logica de esta ronda. La ronda fue liderada por GIC y Coatue, con co-liderazgo de D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ, y MGX. La lista de inversores lee como un directorio de quién es quién en capital global: Accel, Blackstone, Fidelity, Goldman Sachs, JPMorgan, Sequoia, y varios fondos soberanos.

Y mirá, ya sé lo que estás pensando. "$380.000 millones de valuación para una empresa que hace tres años facturaba cero. Es una locura. Estamos en plena burbuja". Excepto que no: NO ESTAMOS EN UNA BURBUJA.

Esta ronda tiene toda la lógica del mundo si entendés la dinámica real de la carrera de IA. Y el hecho de que suene excesiva es precisamente el punto.

Leer completa
| Estrategias Inteligencia Artifical Rants
Tags:
Anthropic Google inversiones openai

Software as a Service a Software as a Solution

Durante años, el software fue un peaje. Pagabas por acceso, por asientos, por features. La propuesta era simple: "Te damos la herramienta, vos hacés el trabajo". Pero cuando los agentes de IA pueden hacer el trabajo por vos, esa ecuación se invierte completamente.

Si el SaaS tradicional era un peaje por usar herramientas, el Agentic AI es un contrato de resultados. Y esa inversión cambia todo: pricing, distribución, riesgo. Lo interesante es que la mayoría de las empresas están discutiendo los primeros dos mientras ignoran el tercero, que es donde se va a definir quién gana.

Leer completa
| Corporate IT Inteligencia Artifical
Tags:
AI emprendedores Estrategias inteligencia artificial inversiones

SOR vs SOA: donde la IA le saca valor a los SaaS

El jueves pasado, cuando OpenAI anunció Frontier, volvió la discusión de "La Muerte del SaaS" cuando vieron que Salesforce caia y ServiceNow se destruía, el sector entero de SaaS empresarial entró en pánico. Los analistas corrieron a declarar que "OpenAI va a comerse a los incumbentes" y que "el modelo de per-seat licensing está muerto". Y acá hay dos cosas interesantes, la reacción está basada en un malentendido fundamental sobre qué es Frontier y sobre todo si los SOR (System of Record) enterprise van a morir o simplemente ¿como va a cambiar el valor que generan? ¿como van a cuidar su MOAT?

Para ponerlo claro, OpenAI no está construyendo un CRM o un ERP, está construyendo una capa de orquestación que se conecta a Salesforce, SAP, Workday. El diagrama que OpenAI mostró es explícito: "Your systems of record" están en la base, Frontier vive arriba.

La amenaza real no es que OpenAI reemplace a Salesforce—es que se convierta en la interfaz principal, relegando a Salesforce a "motor de base de datos glorificado". Eso asusta, pero no es lo mismo que obsolescencia. El mercado escuchò "AI agents que pueden hacer workflows end-to-end" y proyectó "la muerte del software", cuando la realidad es mucho más matizada: habrá un cambio de dónde vive el valor en el stack.

Leer completa
| Corporate IT Inteligencia Artifical
Tags:
AI Anthropic enterprise openai

El Software no está muerto y la IA no matará al SaaS

El martes pasado, Adobe cayó 7,31%, Salesforce 6,85%, y Thomson Reuters se desplomó 15,83%. Los analistas corrieron a declarar que "la IA va a reemplazar al software" y que "las empresas de SaaS están condenadas". Es el tipo de narrativa que suena profunda en un titular pero que se desmorona cuando la pensás dos minutos.

Buen titulo... deberia haberlo pensado antes ;)

Porque acá hay una confusión fundamental sobre qué es el software y para qué sirve.

El software no es el enemigo de la IA. El software es la herramienta que hace que los datos sean útiles. Es lo que transforma información en decisiones, contexto en acción. Y esa necesidad no desaparece porque tengamos modelos de lenguaje más potentes. Si acaso, se vuelve más crítica.

La pregunta mal formulada

"¿Va a desaparecer el software?" es como preguntar "¿van a desaparecer las herramientas?" cuando inventamos mejores materiales. La pregunta asume que el software es una cosa específica que puede ser reemplazada, cuando en realidad es la forma en que estructuramos soluciones a problemas.

Lo que está pasando es mucho más interesante y matizado que eso.

Leer completa
| Estrategias Inteligencia Artifical
Tags:
AI SAAS

Dark Patterns e Incentivos mal alineados.

Inclui 1 link externo en un post en Linkedin; su alcance fue literalmente el peor en 6 meses. Esto es un dark pattern claro de LinkedIn por incentivos mal alineados.

Un dark pattern en una app es una decisión de diseño hecha a propósito para empujar al usuario a hacer algo que no haría si tuviera toda la información clara: suscribirse sin darse cuenta, aceptar cargos, compartir más datos de los que quiere o no poder cancelar fácilmente. No es un bug ni un error de UX, sino una manipulación sutil que aprovecha la atención limitada del usuario usando textos confusos, botones engañosos o fricción selectiva (fácil entrar, difícil salir). En resumen: parece una ayuda, pero trabaja en contra del interés del usuario.

Y es super interesante porque la repregunta seria ¿seguro esto es un dark pattern? si, claro: "al mantener al usuario en tu conversacion, estas en un espacio seguro donde todas la relaciones laborales se forjan" cuando en realidad lo que están haciendo es empujar dos metricas claves en el bono de los ejecutivos de la empresa:

  • Time Spent by User
  • Pageviews per user per session
Leer completa
| Inteligencia Artifical Redes Sociales
Tags:
engagement linkedin links marketing startups

OpenAI y el "adiós" al romance sin anuncios: ¿nuevo paradigma como Meta o necesidad finaciera?

No era un misterio, solo hacía falta saber como lo presentaban; pero OpenAI finalmente abrió el juego a la publicidad y, aunque lo venden como una forma de "expandir el acceso", los que seguimos la industria sabemos que hay mucho más debajo de la alfombra.

Anuncos en ChatGPT

Pasamos de un Sam Altman que juraba que ChatGPT no tendría anuncios a una realidad donde Google les está respirando en la nuca. La diferencia es que Google ya tiene el "manual del usuario" de la publicidad online escrito en su ADN, pero además es el dueño de la infraestructura publicitaria global y esa presión se siente como una pinza, con una mano Gemini no para de ganar usuarios al ser el dueño de Chrome, Android y el buscador monopólico... con la otra, Alphabet tiene las relaciones, el conocimiento y una infraestructura de publicidad que, repito, nadie tiene.

The Financial Times reported that in 2025 OpenAI operated at a loss of around $8bn (£5.98bn) in the first six months of the year, and that only 5% of ChatGPT's 800 million users are paid subscribers.

Leer completa
| Inteligencia Artifical
Tags:
AI ChatGPT2026 DigitalMarketing Gemini openai

De rondas monstruosas y expectativas

Brex se vende en 5bn y muchos opinan que es “disappointing”… todos ganaron plata pero las expectativas eran tan altas que les pegaron aun con ese exit…

Recomiendo este post de SaaStr sobre hubristic fundraising. Está contado desde el caso Brex, y el paralelismo que hace es con el mercado de AI donde vemos noticias constantes de rondas de cientos de millones aún sin producto, pero vale la pena para cualquier founder, incluso si no está en AI.

La lectura clave no es “levantar mucho está mal”. Es entender el trade-off real cuando levantás rondas enormes a valoraciones que ya te dejan muy poco margen de error.

Leer completa
| Mercados
Tags:
inversiones startups

Auditando lo que sabe tu LLM de vos

Hablando con amigos, sale el tema de que la barrera de salida de un LLM a otro es alta por "todo lo que sabe de mi ChatGPT frente a Gemini" (o el que sea)... honestamente no creo que sea un problema pero a cualquier LLM podes pedirle que te diga, no solo lo que sabe de vos sino lo que puede inferir... un prompt y listo, aca abajo copio el que estuve usando/modificando/creando/etc usando los mismos LLMs que critico siempre 🤣

Tres aclaraciones:

  • No se siquiera si es necesario hacerlo pero esta version es una que saque pidiendole que sea "estilo auditoria forense para detectar contradicciones"
  • En ChatGPT funciona mejor que en Gemini, quizas porque ChatGPT es el que uso desde antes que sea publico por mi laburo con MS4Startups
  • Seguro en JSON se puede hacer mas automatizable...

De cualquier manera es super util para saber que sabe tu LLM de vos.

Leer completa
| Inteligencia Artifical Rants
Tags:
AI chatgpt pavadas privacidad

Harari más Allá del Nihilismo

Tuve la suerte de interactuar con Yuval Noah Harari en PuntaTech durante varios dias, y en su momento, lo critiqué demasiado irónicamente. Reconozco hoy que mi crítica fue simplona mientras que la Sergio Fogel fue realmente buena, pero especialmente al leer el lúcido contrapunto que David Deutsch presenta en "The Beginning of Infinity". Me obliga a reexaminar a Harari, no para desestimarlo por completo, sino para entender dónde sus brillantes hipótesis, a mi juicio, se tornan en una sobresimplificación determinista que coquetea peligrosamente con el nihilismo.

Harari, en obras como Sapiens, ha articulado cómo las "órdenes imaginadas" —ficciones colectivas como naciones o dinero— nos permitieron cooperar a gran escala, un motor clave para nuestra dominación planetaria. Sin embargo, su insistencia en que el libre albedrío es un "mito" y que somos esencialmente "animales hackeables", moldeados por algoritmos bioquímicos y condicionamientos ambientales, tiende a reducir la experiencia humana a una serie de respuestas predeterminadas. Su perspectiva, que postula el significado y los derechos como meras "ficciones compartidas", si bien provocadora, puede dejar un sabor a una complacencia casi nihilista sobre el valor intrínseco de la existencia humana.

Leer completa
| Rants
Tags:
filosofia Puntatech Yuval Noah Harari

Lecciones de un gran año sabático

Y trece meses después decidí que el año sabático que arranqué el 4 de septiembre de 2024 termine. Es interesante, de estos trece meses disfruté intensamente la última mitad, mientras que la primera mitad fue un desastre. Cuando uno no frena por años termina imaginando que la rueda tiene que seguir girando porque "algo" se puede perder, aunque no sepas qué.

Es super interesante, si me preguntabas yo estaba genial pero, evidentemente estaba un poco estresado... de hecho, cuando frené y arranqué el sabático, mi corazón se rompió literal y figurativamente. Tuve un infarto leve en noviembre del que estoy en recuperación… pero logré la primera enseñanza, no pasa nada si pisás el freno, te enfocás en vos y lo que querés y decidís cambiar (o no) el mundo no frena pero tampoco es tan grave como lo imaginamos, es tan simple que ya lo sabia:

«Son muchas más las cosas que nos aterran que las que nos aplastan; a menudo sufrimos más en la imaginación que en la realidad»

Séneca - Cartas a Lucilo

Lo mejor de esta primer enseñanza es la derivada o la segunda lección que saqué: “disfrutá la validación pero no la necesitás” ... las preguntas de los que sabian que arrancaba un sabático eran "¿pero donde te vas? dale, contame!" o "¿que viene ahora?" o "ya Wayra y MFS.. ¿como estas invirtiendo tu tiempo ahora?" esperando un nombre rutilante que valide que era una buena decisión y, honestamente, se disfruta ver que esperan algo bueno de vos pero... la única validación que NECESITAS, es la tuya y si tenés o no unpropósito

Dos cosas se dieron juntas; (a) en mi industria (VCs/Startups) se vive como en redes, una era de likes y constante foco en el exterior pero en esteroides y con aplausitos; (b) luego de MUCHO tiempo, dejé un apellido corporativo para frenar la pelota y ponerme a “Watching the wheels” (tip: gran canción de Lennon) fue genial para mi cabeza. De hecho, como diría Marco Aurelio:

“Si estás afligido por algo externo, el dolor no se debe a la cosa en sí, sino a la interpretación que haces de ella; y eso, tienes el poder de revocarlo en cualquier momento.”

Marco Aurelio — Meditaciones, Libro VIII, 47

De ese momento que, repito, era en medio de un año sabático que podía disfrutar sin preocupaciones… logré avanzar gracias a 3 cosas; primero le debo mucho a Valerie Derome, gran amiga y tal vez la mejor coach que he conocido, y la única persona capaz de decirme verdades directas incluyendo “te sentiste cómodo y perdiste el hambre…“. De nuevo, poca gente va más allá del aplausito asi que las charlas que te fuerzan a enfocarte valen y mucho.

En ese momento algo dio un vuelco y pude empezar a disfrutar el año incluso eligiendo trabajar con gente que quiero porque son buena gente y admiro porque son grandes emprendedores, así fue que me convertí en Advisor de Belo y su CEO Manu Beaudroit; de Workana y su CEO Tom O’Farrell y me sume a RetailIQ con Martin Pombo y Pablo Alvarez (si, raro para un sabatico trabajar)

De ahi salió una tercera lección: conocer a estos emprendedores fue suerte pero la suerte me agarró con conocimientos de lo que puedo hacer y así sumarnos valor a todos... el síndrome del impostor es una cagada y es real, pero cuando lo mirás podés elegir con quien trabajar y haciendo solo cosas que te gusten y desafíen, ¿no hay desafío ni interés? mejor me subo a una bici y nos vemos en la ruta.

La gran constante en este año fue el ciclismo y mis hijos; el ciclismo cambió bastante muchas de mis percepciones, es una fuente gigante de contradicciones y puteadas y esfuerzos que parecen no llevarte a ningún lado pero como podés medir todo... te das cuenta si estás creciendo o no.

En ciclismo todo SON datos... potencia, w/kg, zonas cardiacas, calorias, km/h, altitud, hay tanto para entender y mejorar que cuando te das vuelta no lo podes creer. Cuando miro los números es claro: pese al infarto en noviembre y gracias al foco en “lo que puedo controlar” estoy casi 200% arriba de mis objetivos propios de kilómetros y mejorando en TODAS las métricas de RHR, HRV, Watts/Kg y obviamente BMI.

Mejorando el estado fisico y actividades desde el inicio del sabatico (e infarto :P)

Gran lección: “enfócate en lo que podes controlar, preguntale a los que saben y no tenés que demostrarle nada a nadie más que a vos” (gracias Luisa Miguens por esa cena, estos parafraseando partes :P)

Tal vez las dos mejores lecciones de este año reforzaron algo en lo que vengo trabajando desde hace mucho y, aunque parezca algo hippie psilocibin-based, es clave:

  • La empatía es tu superpoder este año tuve 3 episodios que me harían perder la fe en la gente; pero si me esfuerzo en mirarlo con los lentes del otro puedo entender de dónde vienen sus actitudes/incentivos y así mejorar mi reacción que es literalmente lo ÚNICO QUE UNO CONTROLA.
  • Estas en un juego infinito, las metas y objeticos solo sirven si entendés eso. Sin entenderlo solo seguís jugando un juego que te deja vacío al cumplir objetivos y solo respondés a un "¿que viene ahora?" sin parar mi propio ejemplo en 2012 Wayra, en 2018 Microsoft for Startups LA, en 2021 MFS Americas, en 2024 AI4Startups… y jamás frené o celebré algo.

En fin, este pequeño post surgió por una pregunta de don Carlos Otermín y termine escribiendo demasiado... pero al menos, sirvió para "cerrar oficialmente" el sabático; y seguir pedaleando :)

Monte Baldo, VR. 7% por 16km. Disfrutando e insultandome por hacerlo pero al terminar se siente bien
| Rants

Financiar la demanda: Nvidia y el mundo de AI

Hace tiempo hay algunos acuerdos entre proveedores de LLM y fabricantes de GPUs que no parecen tener sentido; el 23 de Septiembre Nvidia anunció una inversion en OpenAI de 100Bn mientras que OpenAI anunciaba que esa inversión se iba a dar progresivamente mientras se habilitaran datacenters donde las GPUs eran compradas a Nvidia, el 8 de Octubre Nvidia anuncio una inversión de 2bn en Xai en una ronda total de 20bn mientras que xAI anunciaba la compra de casi 18bn en GPUs a Nvidia.

Todo en una especie de endogamia que huele a burbuja... o peor aún recuerda como CISCO financió su crecimiento en los 90 con la "burbuja puntoCOM" para explotar el 10 de Marzo de 2000 en el dotcom crash. Pero me pregunto ¿es una burbuja o se puede explicar racionalmente como una estrategia de financiamiento de demanda que es arriesgada pero que explica el crecimiento de empresas como Amazon, Microsoft o Intel?

Leer completa
| Inteligencia Artifical
Tags:
AI Amazon innovación Microsoft nvidia openai

Jardines Vallados en AI: ChatGPT vs Claude vs Gemini

Los chatbots, ChatGPT o Gemini o Claude, son de la tecnologia que más rapido creció en la historia; literalmente cientos de miles de millones de dólares están siendo invertidos para que OpenAI, Anthropic o Google sean los ganadores de esta carrera y adquieran clientes lo más rápido posible; ¿la razón? una vez que empezás a usar un chatbot el lock-in para cambiar a otro es gigante y no lo vas a querer hacer.

Primer ¿Qué es lock-in? En el contexto de la tecnología, lock-in es la dependencia que se genera hacia un proveedor o producto, dificultando cambiar a una alternativa como el cambiar de iPhone a Android o de Windows a Mac. En el caso de los chatbots de IA –especialmente ChatGPT (OpenAI), Claude (Anthropic) y Gemini (Google)– existen mecanismos que fomentan esta fidelidad forzada y lo interesante es que podemos dividir en 3 contextos el lock-in en estos productos: (a) técnico, (b) producto y (c) el de uso.

Lock-in técnico (dependencia de la tecnología)

En el plano técnico, esto es más relevante para usuarios B2B (o sea, no finales) los tres modelos son cerrados y propietarios, lo que implica que dependes de la infraestructura y avances del proveedor:

  • ChatGPT (OpenAI): Funciona con modelos como GPT-4 que no son de código abierto, accesibles solo a través de la API o la interfaz de OpenAI. Si construís soluciones o flujos de trabajo basados en GPT-4, migrar a otro modelo requeriría re-desarrollar integraciones y puede implicar perder la calidad o afinación específica lograda. Por ejemplo, muchas empresas han incorporado la API de ChatGPT en sus productos; salir de ahí supone re-entrenar modelos alternativos o aceptar resultados diferentes. Además, OpenAI ofrece opciones de fine-tuning (ajuste fino) en algunos de sus modelos: una vez que entrenas GPT con datos propios, ese ajuste no es portátil a otros sistemas, incrementando la dependencia técnica.
  • Gemini (Google): Es la familia de modelos de lenguaje de Google (evolución de PaLM y de Bard). Al igual que ChatGPT, es un servicio cerrado en la nube de Google, sin opción de auto-hospedaje. El acceso suele ser mediante la app de Gemini (antes Bard) o APIs de Google. Esto crea lock-in porque cualquier solución construida sobre Gemini queda atada a Google Cloud y a sus condiciones. Además, como Google utiliza hardware optimizado (TPUs) y una integración profunda con su ecosistema, se dificulta replicar la solución fuera de su plataforma, así que quienes dependen de su capacidad (por ejemplo, en multi-modalidad o en comprensión de consultas complejas) se ven obligados a seguir usando los servicios de Google.
  • Claude (Anthropic): También es un modelo propietario ofrecido a través de API y aplicaciones asociadas (como la integración nativa en Slack o la plataforma web de Anthropic). Un ejemplo, Claude destacó por innovar en el tamaño de la ventana de contexto –pudiendo manejar hasta 100,000 tokens en Claude 2– lo que significa que puede leer documentos o conversaciones muy extensas. Si tu caso de uso aprovecha esa capacidad (por ejemplo, cargar informes largos para análisis), puedes quedar bloqueado en Claude porque otros bots (hasta hace poco) no manejaban tanto contexto. Nuevamente, al no ser open-source, no es posible llevar el modelo fuera de Anthropic. Así, a nivel técnico, los tres chatbots generan un lock-in similar: utilizan modelos de IA exclusivos y nativos de cada proveedor, obligando a permanecer en sus plataformas para mantener el mismo rendimiento.

Lock-in de producto (ecosistema y funcionalidades)

Cada servicio de chatbot construye funciones y ecosistemas en torno al modelo base, lo que refuerza la lealtad del usuario al producto:

  • ChatGPT: OpenAI ha convertido ChatGPT en una plataforma con características únicas. Por ejemplo, introdujo un ecosistema de plugins donde el chatbot puede conectarse con servicios de terceros (buscador de vuelos, bases de conocimiento, herramientas como Wolfram Alpha, etc.), ampliando enormemente lo que puede hacer. Estos complementos resuelven tareas dentro de ChatGPT, evitando que el usuario salga a otras apps. Asimismo, OpenAI agregó capacidades multimodales: ChatGPT puede analizar imágenes y voz, integrando funcionalidades que antes requerían herramientas separadas. También funciones como Code Interpreter (ahora llamado “Advanced Data Analysis”) permiten ejecutar código y procesar archivos dentro de la misma interfaz de chat. Todas estas facilidades hacen que el usuario encuentre en ChatGPT un “todo en uno”, dificultando reemplazarlo con otro bot que no tenga un repertorio de plugins o características equivalente.
  • Gemini (Google): La estrategia de Google para Gemini (y Bard) es apoyarse en su amplio ecosistema de servicios. Gemini está integrándose con las aplicaciones de Google que millones de personas usan a diario. Por ejemplo, con las Extensiones de Bard/Gemini, el asistente puede extraer información de Gmail, Google Drive, Maps, YouTube y otras apps directamente dentro de la conversación . Esto significa que un usuario de Gmail o Docs puede pedirle a Gemini que encuentre un correo específico, resuma un documento de Drive o planifique un viaje con datos de Maps, todo sin salir del chat. Este nivel de integración es un poderoso lock-in de producto: si tu vida digital está en Google (correo, fotos, documentos, calendario), es muy tentador usar el chatbot nativo que “habla” con esas apps. Gemini con personalización incluso usa tu historial de búsquedas de Google para dar respuestas adaptadas a tus intereses , y Google planea conectarlo también con Fotos y YouTube . En conjunto, Gemini se vuelve una pieza central del ecosistema Google –un asistente personal omnipresente– del que es difícil salir sin perder comodidades.
  • Claude: Anthropic, aunque más nuevo en el plano de producto de consumo, ha buscado nichos específicos para Claude. Un factor importante es la integración empresarial: por ejemplo, Slack incorporó a Claude como parte de sus herramientas (Slack GPT), lo que atrae a equipos de trabajo a usar Claude dentro de su flujo laboral. Si tu empresa comienza a usar Claude en Slack para asistencia en canal, quedas ligado a ese entorno. En cuanto a funcionalidades diferenciadoras, Claude ofrece estilos personalizables (Anthropic introdujo Claude Styles a fines de 2024 para ajustar la personalidad o tono del bot) . Sin embargo, en general Anthropic ha mantenido una interfaz más sencilla. No tiene, por ahora, un sistema de plugins tan amplio ni capacidades multimediales visibles al usuario común. Su ventaja de producto recae más en la experiencia de conversación (se percibe amistoso y bueno en tareas creativas) y en límites más amplios (contexto extenso, respuestas más largas), lo cual fideliza a usuarios que necesitan esas cualidades. Aun con menos “campanas y silbatos” que ChatGPT o Google, Claude genera lock-in si has adaptado tu flujo de trabajo a sus puntos fuertes (ej. cargar grandes documentos, uso en herramientas como Notion o Slack mediante API).

Lock-in de uso (memoria, personalización y datos del usuario)

Captura: Ajustes de memoria en ChatGPT. La IA va recordando detalles proporcionados por el usuario para personalizar futuras respuestas (por ejemplo, preferencias de formato, datos personales mencionados, etc.). Este perfil almacenado hace que mientras más uses ChatGPT, más se adapte a ti, fortaleciendo el lock-in .

El lock-in más sutil –y quizás más poderoso– surge del historial de uso y la personalización. A medida que interactúas con el chatbot, este puede aprender sobre tus preferencias, contexto y necesidades, creando un perfil que enriquece las siguientes respuestas. Cada servicio ha implementado esta idea de memoria de manera diferente:

  • ChatGPT: OpenAI introdujo la memoria activa entre conversaciones en 2024. Ahora ChatGPT puede referenciar todas tus conversaciones pasadas para darte respuestas más relevantes y personalizadas . Por ejemplo, recuerda que tienes una hija pequeña o que te gusta cierto estilo de resumen si se lo has mencionado, y aplicará ese contexto automáticamente en nuevas sesiones. Además, las instrucciones personalizadas permiten fijar datos o indicaciones persistentes sobre ti (rol, tono deseado, información clave) sin tener que repetirlas en cada chat. En conjunto, “mientras más usas ChatGPT, más útil se vuelve” porque cada nueva conversación se construye sobre lo que ya sabe de ti . Esto crea un fuerte lock-in de uso: después de semanas o meses, ChatGPT “te conoce” y cambiar a otro chatbot implicaría perder esa familiaridad. Hay que destacar que esta memoria es persistente y unificada: no distingue entre diferentes contextos o proyectos, lo que puede llevar a que detalles de un ámbito aparezcan en otro si no se tiene cuidado  . Aun así, desde el punto de vista de la fidelización, este perfil global anima a usar siempre la misma IA para no empezar desde cero en cada nueva plataforma.
  • Gemini (Google): Google, tras un periodo más conservador, ha incorporado recientemente funciones de memoria y contexto personal en Gemini. En 2024 permitía que el usuario le pida “recuerda que me interesa X”, pero desde agosto de 2025 ya recuerda detalles previos automáticamente si activas esa opción . Con la función Personal Context (Contexto personal) encendida, Gemini “aprende de tus conversaciones pasadas para brindar respuestas relevantes y a tu medida”  . Un ejemplo dado por Google: si antes hablaste con Gemini sobre ideas para un canal de YouTube de cultura japonesa, más adelante, al pedir nuevas ideas, te sugerirá algo relacionado (como comida japonesa) sin que tengas que recordárselo  . Asimismo, Gemini aprovecha datos de tu cuenta Google (p. ej. historial de búsquedas) para afinar respuestas a tus intereses . En esencia, Google busca construir un asistente personal inteligente completamente integrado a tu vida digital: “nuestra visión es un asistente de IA que aprende y te entiende verdaderamente”, dijo un director del proyecto . Esto evidentemente aumenta la dependencia: un usuario que habilita estos recuerdos en Gemini verá cómo el asistente cada vez le ahorra más contexto y le entrega respuestas a la carta, volviéndose difícil renunciar a esa comodidad. (Vale mencionar que Google activa esta personalización por defecto en ciertos países, aunque permite desactivarla ). En resumen, tu actividad previa en Google se convierte en valor añadido exclusivo de Gemini, cerrando la puerta a competidores que no pueden acceder a esos datos.

Captura: Búsqueda de conversaciones pasadas en Claude 2. El usuario pregunta “¿en qué estábamos trabajando antes de mis vacaciones?” y Claude localiza y resume el chat relevante. A diferencia de ChatGPT, Claude no mezcla contextos automáticamente: solo recupera aquello que se le solicita , evitando construir un perfil unificado del usuario.

  • Claude (Anthropic): La aproximación de Anthropic ha sido más enfocada en el control del usuario que en la proactividad. Durante mucho tiempo, Claude no guardaba memoria persistente entre chats –cada conversación era aislada–. En agosto de 2025 lanzaron una función de “Conversa y busca” que permite al usuario consultar conversaciones previas cuando lo necesite . Por ejemplo, puedes indicarle a Claude: “revisa lo que discutimos la semana pasada sobre el Proyecto X” y el sistema buscará en tus chats archivados para traer los detalles relevantes . Importante: “Claude solo recupera y referencia tus chats pasados cuando se lo pides, y no está construyendo un perfil de usuario según aclaró Anthropic . Es decir, no hay memoria automática cruzada; tú decides cuándo y qué recordar. Esto tiene dos caras para el lock-in: por un lado, ofrece menos personalización espontánea que ChatGPT o Gemini, lo que podría significar un vínculo menos fuerte (el usuario no siente que Claude “lo conoce” de manera profunda). Pero, por otro lado, algunos usuarios profesionales pueden preferir esta compartimentación. Claude introdujo el concepto de “memoria por proyecto”, donde los recuerdos no se mezclan entre distintos temas o clientes  . Esto evita filtraciones de información de un contexto a otro y da más confianza para usar la herramienta en entornos sensibles. Si tu prioridad es ese control, podrías volverte leal a Claude precisamente porque no te arriesga con memorias fuera de lugar. En síntesis, el lock-in de uso en Claude es más débil en términos de perfil personal global, pero Anthropic apuesta a fidelizar mediante la transparencia y seguridad: tú mandas sobre qué se recuerda y cuándo, y no tienes sorpresas de la IA sacando datos antiguos sin pedirlo . Aun con enfoques distintos, todos los proveedores reconocen que la memoria es clave para enganchar a los usuarios: “las funciones de memoria buscan atraer y mantener usuarios en un servicio, aumentando la ‘pegajosidad’” .

Antes era "interoperabilidad" ahora ¿podés llevarte tu contexto de un chatbot a otro?

La realidad actual es que no existe portabilidad fácil de un contexto personalizado entre distintas plataformas. Cada proveedor guarda tus datos de manera propietaria y no ofrece, por ejemplo, una exportación de “lo que la IA ha aprendido de mí” en formato estándar. Si quisieras cambiar de bot, prácticamente tendrías que empezar de cero o manualmente resumir y reenviar la información relevante.

Por ejemplo, ChatGPT permite ver y editar lo que recuerda de ti en sus ajustes de memoria, e incluso exportar tus conversaciones en un archivo, pero otro chatbot no sabría interpretar directamente esos datos para replicar el mismo entendimiento. De forma similar, Gemini podría estar usando tu historial de búsquedas y otros datos de Google –los cuales no puedes simplemente transferir a un rival, por privacidad y formato–. Claude, al no compilar un perfil único, te lo pone un poco más fácil en el sentido de que lo que necesita saber, tú se lo das explícitamente (y podrías dárselo igualmente a otro bot). Aún así, no hay una API universal ni estándar de “memoria de usuario” que permita llevar tu contexto personal de ChatGPT a Gemini o viceversa. Esta falta de portabilidad es deliberada hasta cierto punto: como vimos, la memoria y personalización son ventajas competitivas y mecanismo de lock-in. Cada empresa quiere que los beneficios de “conocerte bien” se queden dentro de su producto.

¿Y Meta AI?

Aunque Meta también lanzó su propio chatbot, no lo incluimos en este análisis por dos motivos principales:

  1. Nivel de adopción: hoy Meta AI está principalmente integrado en productos como Facebook, Instagram o WhatsApp, pero su alcance como asistente independiente es todavía limitado comparado con ChatGPT, Gemini o Claude.
  2. Estrategia distinta: Meta apuesta a modelos abiertos como Llama para impulsar su IA. Su jugada es más bien construir un ecosistema de desarrolladores y empresas que adopten su tecnología, en lugar de generar lock-in sobre un único asistente centralizado con memoria y personalización.

En otras palabras, la competencia de Meta es más horizontal (distribución de modelos abiertos) que vertical (chatbot con lock-in directo), y por eso este post se centra en quienes hoy disputan el lock-in de los usuarios finales.

Los chatbots de IA más avanzados están desplegando una combinación de estrategias para mantenernos enganchados en sus plataformas. En lo técnico, nos atan con modelos potentes pero propietarios y difíciles de reemplazar. A nivel de producto, nos seducen con integraciones y funciones exclusivas (ya sean plugins, acceso al ecosistema Google, o contextos gigantes para manejar nuestros datos). Y mediante el uso continuado, construyen una relación cada vez más personalizada –ya sea mediante un perfil unificado como ChatGPT/Gemini, o con memorias controladas por el usuario como Claude– que hace que cambiar de chatbot se sienta como retroceder.

Como usuarios o creadores de contenido, es importante ser conscientes de estos lock-ins. Disfrutar de la conveniencia de que “mi chatbot ya sabe lo que quiero” es genial, pero implica confiar nuestros datos y preferencias a un silo específico. Por ahora, mover nuestro “yo digital” de una IA a otra no es sencillo, así que elegir con cuál casarse no es trivial. La competencia entre OpenAI, Anthropic y Google está llevando a rápidos avances –todos han acelerado en incorporar memoria y personalización – lo que beneficia al usuario en funcionalidad. Pero también refuerza que cada uno quiera ser “el asistente del que no te puedes desprender”.

En última instancia, un posible camino para aliviar el lock-in sería que aparezcan estándares abiertos o asistentes locales que permitieran portar nuestras instrucciones y datos de contexto de forma privada. Sin embargo, hoy por hoy, si inviertes tiempo en un chatbot, tiendes a quedarte con él por inercia y beneficio acumulado.

Este es un mercado donde habrán pocos ganadores y por eso cada uno quemando decenas de miles de millones de inversores; porque una vez elegido es muy dificil que lo dejes; la elección racional seria: "elegir aquel que se alinee con tus valores (privacidad, control) y necesidades, sabiendo que cambiar de barco más adelante tendrá sus costos" pero ¿como lo podrías saber si ni siquiera creo que lo sepan ellos mismos?

| Inteligencia Artifical
Tags:
Anthropic Google IA innovación inversiones openai privacidad

La OpenAI Mafia ahora también juega como VC

En mi post sobre la OpenAI Mafia hablé de cómo ex-empleados de OpenAI están creando startups alrededor de los nichos que saben serán clave en la nueva economía de la inteligencia artificial. Ahora están dando un paso más: crear fondos de inversión en early stage startups.

¿Por qué? Tres patrones conocidos lo explican:

  1. Empleados mega-millonarios: Las rondas de inversión gigantes en OpenAI y otras firmas de AI generaron liquidez inédita. Ejemplo: empleados de OpenAI acaban de vender acciones por USD 9.000 millones en la última ronda. Esa riqueza personal les permite retirarse jóvenes o crear fondos con su propio capital.
  2. Acceso privilegiado a dealflow técnico: Los tentáculos de la OpenAI Mafia llegan a startups fundadas por ex-compañeros que conocen dónde están las oportunidades reales. Esto no es nuevo: yo mismo invertí en el vehículo que creamos entre empleados de Microsoft para apostar en startups de ex-Microsoft que apalancan tecnología cloud. La diferencia es que aquí se trata del sector más caliente del mercado: AI.
  3. Conocimiento técnico + estrategia = confianza de LPs: La combinación de ser insiders técnicos y haber vivido el hypergrowth desde adentro, les da credibilidad para armar tesis de inversión sólidas. En un mercado con USD 175.000 millones de dry powder listos para ser invertidos, no sorprende que Limited Partners quieran entrar en estos fondos temáticos de AI.

En otras palabras, la OpenAI Mafia no sólo crea startups: ahora también controla parte del capital que financiará la próxima generación de AI... si no entienden ahora porque es un mercado laboral 996 se estan perdiendo algo.

Nota: los 3 patrones que digo se repiten son a nivel conceptual super simples; concentracion de talento vertical, creacion de riqueza y liquidez en el mercado y, finalmente, una nueva ola-macro de nueva tecnologia

| Mercados
Tags:
inversiones openai startups

Juniors por AI: la forma más rápida de destruir el pipeline de talento

Hoy Matt Garman, el jefe de AWS dijo en voz alta algo que repito en las charlas sobre AI: reemplazar a los empleados junior con herramientas o agentes de inteligencia artificial es una de las ideas más estúpidas que existen.

Si uno analiza como se forma un ecosistema de trabajo, como se arma una carrera, como se desarrolla el talento y hasta los costos organizacionales... lo único que estás haciendo es confirmar una tesis que sostengo hace tiempo: usar AI para “sacar del medio” a los juniors es destruir a largo plazo la base del talento de cualquier organización.

  • El pipeline de talento se rompe: Un junior necesita aprender haciendo. Es en esa etapa donde se equivocan, reciben feedback y crecen para convertirse en seniors. Si cortás esa experiencia porque la “reemplaza” la AI, estás matando el semillero del que salen los futuros líderes.
  • Rompés la estructura de costos del talento: El modelo natural es que juniors hagan tareas más operativas mientras crecen, liberando a los seniors para trabajos de mayor impacto. Si eliminás juniors, los seniors terminan atascados en tareas que la AI todavía no puede resolver sola. Resultado: ineficiencia y costos más altos.
  • Perdés diversidad de perspectivas: No es solo cuestión de edad: los juniors suelen venir con nuevas herramientas, marcos mentales distintos y otra forma de ver los problemas. Quitar esa capa del equipo empobrece la toma de decisiones y refuerza la homogeneidad.
  • Son los más nativos en AI: El talento joven no necesita que lo convenzas ni le armes talleres para usar herramientas de inteligencia artificial. Ya las adoptan de forma natural. Reemplazarlos es perder el grupo que mejor y más rápido incorpora la AI en los procesos.

Es cierto, los agentes y los modelos que estan apareciendo día a día pueden hacer mil tareas "básicas" y soy el primero en pensar que se pueden optimizar y reemplazar procesos y talento (hey, es algo natural como parte del progreso) pero creo, más allá del interés corporativo de AWS, que la mejor apuesta es potenciar el talento joven con herramientas y agentes de IA en vez de reemplazarlo directamente.

| Inteligencia Artifical
Tags:
AI IA talento

¿Querés tener siempre la razón? Hablá con ChatGPT


Cada vez más conocidos me cuentan que usan “charlas” con ChatGPT para atravesar un mal momento: desde una ruptura sentimental hasta la muerte de un ser querido o simples interacciones diarias. Y no puedo dejar de decirles que es un error.

Un analista humano puede incomodarte con preguntas duras, confrontarte con verdades incómodas o simplemente decirte: “estás equivocado”. Esa fricción —aunque molesta— es parte esencial del crecimiento. Un chatbot, en cambio, tiende a validar casi todo lo que decís. Y ese “confort” constante puede ser el inicio de un problema mucho mayor.

Leer completa
| Inteligencia Artifical
Tags:
AI chatbot salud mental

No, Google no está muerto y la distribución sigue escribiendo la historia

En los últimos dos años, gran parte de la conversación sobre IA se ha centrado en el ascenso de ChatGPT y en los supuestos errores de Google. La narrativa dominante, en la que incluso entré a veces, pinta a ChatGPT como el first mover que tomó la delantera mientras Google dudaba y perdía terreno por la tibieza de Sundar Pichai cuando lo comparabas con la decisión de Satya Nadella y otros. Y, sobre el papel, esa historia es tentadora, pero.

Es innegable que ChatGPT logró una tracción impresionante. Lanzado en noviembre de 2022, alcanzó los 100 millones de usuarios en apenas dos meses — la curva de adopción más rápida en la historia del consumo digital. Desde entonces, OpenAI ha mantenido un ritmo de lanzamientos vertiginoso: GPT-4, GPT-4 Turbo, GPT-5, capacidades multimodales, voz, memoria, agentes, versiones enterprisa… todo en menos de tres años. Todo esto respaldado por un músculo financiero sin precedentes: más de 13.000 millones de dólares de Microsoft y unos 4.000 millones comprometidos por Softbank. El resultado: alrededor de 700 millones de usuarios activos semanales a mediados de 2025 y una posición cultural en la que, para mucha gente, “IA” es sinónimo de “ChatGPT”.

Leer completa
| Estrategias Google Inteligencia Artifical
Tags:
AI innovación openai startups

Las IPO ya no son negocio para vos o para mí

Hoy en día, las startups tecnológicas de EE.UU. tardan más tiempo en salir a bolsa y lo hacen con valuaciones mucho mayores que las empresas de décadas pasadas . Gran parte del upside (el mayor crecimiento en valor) ocurre ahora en el mercado privado – beneficiando a venture capital y private equity – y no en el mercado público al que acceden los inversores minoristas. Esto significa que el tramo inicial de creación de valor se privatiza: el inversor retail se pierde potenciales ganancias tempranas, aunque por otro lado pudieran evitarse algunos riesgos de invertir en empresas inmaduras infladas por inversores privados.

¿Pero cuándo salían “baratas” las IPO tecnológicas?

Veamos algunos ejemplos de grandes tecnológicas y sus valuaciones al momento de salir a bolsa, comparadas con startups recientes:

  • Microsoft (fundada 1975, IPO en 1986): 11 años para salir a bolsa, con una valuación de mercado de aproximadamente $500–780 millones. La oferta pública inicial recaudó apenas $61 millones . (Dato curioso: Bill Gates consideraba que un precio por acción de $20 ya empujaría la capitalización por encima de $500 millones, lo cual le parecía “incómodamente alto” ).
  • Amazon (fundada 1994, IPO en 1997): Solo 3 años hasta su IPO, debutando con una capitalización cercana a $438 millones . Jeff Bezos llevó a Amazon al mercado público cuando aún era esencialmente una librería online con altísimas tasas de crecimiento pero muy pequeña en tamaño.
  • Google (fundada 1998, IPO en 2004): 6 años hasta la IPO, debutando con una valuación de alrededor de $23.000 millones . Google ya era rentable y dominaba la búsqueda en Internet, pero aun así el público pudo invertir desde un market cap relativamente “moderado” en comparación con los gigantes actuales (hoy Alphabet vale más de $1,7 billones ).
  • Facebook (fundada 2004, IPO en 2012): 8 años hasta salir a bolsa. Su IPO fue histórica: valuación de $104.000 millones, recaudando $16.000 millones – en su momento, la tercera oferta pública más grande de la historia de EE.UU. . Ya fue un mega-IPO, reflejando que Facebook había capturado gran parte de su crecimiento antes de llegar al mercado público.
  • NVIDIA (fundada 1993, IPO en 1999): ~6 años hasta la IPO, con una valuación inicial mucho más modesta. Sus acciones salieron a $12 por acción , lo que implicó una capitalización de apenas unos $500–600 millones (estimados). Tras 25 años como empresa pública, NVIDIA superó los $1–2 billones de market cap en 2024, pero aquel crecimiento fenomenal se gestó desde una base pública muy pequeña.
Leer completa
| Estrategias Mercados
Tags:
emprendedores inversiones IPO startups