Durante años, el software fue un peaje. Pagabas por acceso, por asientos, por features. La propuesta era simple: "Te damos la herramienta, vos hacés el trabajo". Pero cuando los agentes de IA pueden hacer el trabajo por vos, esa ecuación se invierte completamente.
Si el SaaS tradicional era un peaje por usar herramientas, el Agentic AI es un contrato de resultados. Y esa inversión cambia todo: pricing, distribución, riesgo. Lo interesante es que la mayoría de las empresas están discutiendo los primeros dos mientras ignoran el tercero, que es donde se va a definir quién gana.
El jueves pasado, cuando OpenAI anunció Frontier, volvió la discusión de "La Muerte del SaaS" cuando vieron que Salesforce caia y ServiceNow se destruía, el sector entero de SaaS empresarial entró en pánico. Los analistas corrieron a declarar que "OpenAI va a comerse a los incumbentes" y que "el modelo de per-seat licensing está muerto". Y acá hay dos cosas interesantes, la reacción está basada en un malentendido fundamental sobre qué es Frontier y sobre todo si los SOR (System of Record) enterprise van a morir o simplemente ¿como va a cambiar el valor que generan? ¿como van a cuidar su MOAT?
Para ponerlo claro, OpenAI no está construyendo un CRM o un ERP, está construyendo una capa de orquestación que se conecta a Salesforce, SAP, Workday. El diagrama que OpenAI mostró es explícito: "Your systems of record" están en la base, Frontier vive arriba.
La amenaza real no es que OpenAI reemplace a Salesforce—es que se convierta en la interfaz principal, relegando a Salesforce a "motor de base de datos glorificado". Eso asusta, pero no es lo mismo que obsolescencia. El mercado escuchò "AI agents que pueden hacer workflows end-to-end" y proyectó "la muerte del software", cuando la realidad es mucho más matizada: habrá un cambio de dónde vive el valor en el stack.
El martes pasado, Adobe cayó 7,31%, Salesforce 6,85%, y Thomson Reuters se desplomó 15,83%. Los analistas corrieron a declarar que "la IA va a reemplazar al software" y que "las empresas de SaaS están condenadas". Es el tipo de narrativa que suena profunda en un titular pero que se desmorona cuando la pensás dos minutos.
Buen titulo... deberia haberlo pensado antes ;)
Porque acá hay una confusión fundamental sobre qué es el software y para qué sirve.
El software no es el enemigo de la IA. El software es la herramienta que hace que los datos sean útiles. Es lo que transforma información en decisiones, contexto en acción. Y esa necesidad no desaparece porque tengamos modelos de lenguaje más potentes. Si acaso, se vuelve más crítica.
La pregunta mal formulada
"¿Va a desaparecer el software?" es como preguntar "¿van a desaparecer las herramientas?" cuando inventamos mejores materiales. La pregunta asume que el software es una cosa específica que puede ser reemplazada, cuando en realidad es la forma en que estructuramos soluciones a problemas.
Lo que está pasando es mucho más interesante y matizado que eso.
No era un misterio, solo hacía falta saber como lo presentaban; pero OpenAI finalmente abrió el juego a la publicidad y, aunque lo venden como una forma de "expandir el acceso", los que seguimos la industria sabemos que hay mucho más debajo de la alfombra.
Pasamos de un Sam Altman que juraba que ChatGPT no tendría anuncios a una realidad donde Google les está respirando en la nuca. La diferencia es que Google ya tiene el "manual del usuario" de la publicidad online escrito en su ADN, pero además es el dueño de la infraestructura publicitaria global y esa presión se siente como una pinza, con una mano Gemini no para de ganar usuarios al ser el dueño de Chrome, Android y el buscador monopólico... con la otra, Alphabet tiene las relaciones, el conocimiento y una infraestructura de publicidad que, repito, nadie tiene.
The Financial Times reported that in 2025 OpenAI operated at a loss of around $8bn (£5.98bn) in the first six months of the year, and that only 5% of ChatGPT's 800 million users are paid subscribers.
Hablando con amigos, sale el tema de que la barrera de salida de un LLM a otro es alta por "todo lo que sabe de mi ChatGPT frente a Gemini" (o el que sea)... honestamente no creo que sea un problema pero a cualquier LLM podes pedirle que te diga, no solo lo que sabe de vos sino lo que puede inferir... un prompt y listo, aca abajo copio el que estuve usando/modificando/creando/etc usando los mismos LLMs que critico siempre 🤣
Tres aclaraciones:
No se siquiera si es necesario hacerlo pero esta version es una que saque pidiendole que sea "estilo auditoria forense para detectar contradicciones"
En ChatGPT funciona mejor que en Gemini, quizas porque ChatGPT es el que uso desde antes que sea publico por mi laburo con MS4Startups
Seguro en JSON se puede hacer mas automatizable...
De cualquier manera es super util para saber que sabe tu LLM de vos.
Hace tiempo hay algunos acuerdos entre proveedores de LLM y fabricantes de GPUs que no parecen tener sentido; el 23 de Septiembre Nvidia anunció una inversion en OpenAI de 100Bn mientras que OpenAI anunciaba que esa inversión se iba a dar progresivamente mientras se habilitaran datacenters donde las GPUs eran compradas a Nvidia, el 8 de Octubre Nvidia anuncio una inversión de 2bn en Xai en una ronda total de 20bn mientras que xAI anunciaba la compra de casi 18bn en GPUs a Nvidia.
Todo en una especie de endogamia que huele a burbuja... o peor aún recuerda como CISCO financió su crecimiento en los 90 con la "burbuja puntoCOM" para explotar el 10 de Marzo de 2000 en el dotcom crash. Pero me pregunto ¿es una burbuja o se puede explicar racionalmente como una estrategia de financiamiento de demanda que es arriesgada pero que explica el crecimiento de empresas como Amazon, Microsoft o Intel?
Hoy Matt Garman, el jefe de AWS dijo en voz alta algo que repito en las charlas sobre AI: reemplazar a los empleados junior con herramientas o agentes de inteligencia artificial es una de las ideas más estúpidas que existen.
Si uno analiza como se forma un ecosistema de trabajo, como se arma una carrera, como se desarrolla el talento y hasta los costos organizacionales... lo único que estás haciendo es confirmar una tesis que sostengo hace tiempo: usar AI para “sacar del medio” a los juniors es destruir a largo plazo la base del talento de cualquier organización.
El pipeline de talento se rompe: Un junior necesita aprender haciendo. Es en esa etapa donde se equivocan, reciben feedback y crecen para convertirse en seniors. Si cortás esa experiencia porque la “reemplaza” la AI, estás matando el semillero del que salen los futuros líderes.
Rompés la estructura de costos del talento: El modelo natural es que juniors hagan tareas más operativas mientras crecen, liberando a los seniors para trabajos de mayor impacto. Si eliminás juniors, los seniors terminan atascados en tareas que la AI todavía no puede resolver sola. Resultado: ineficiencia y costos más altos.
Perdés diversidad de perspectivas: No es solo cuestión de edad: los juniors suelen venir con nuevas herramientas, marcos mentales distintos y otra forma de ver los problemas. Quitar esa capa del equipo empobrece la toma de decisiones y refuerza la homogeneidad.
Son los más nativos en AI: El talento joven no necesita que lo convenzas ni le armes talleres para usar herramientas de inteligencia artificial. Ya las adoptan de forma natural. Reemplazarlos es perder el grupo que mejor y más rápido incorpora la AI en los procesos.
Es cierto, los agentes y los modelos que estan apareciendo día a día pueden hacer mil tareas "básicas" y soy el primero en pensar que se pueden optimizar y reemplazar procesos y talento (hey, es algo natural como parte del progreso) pero creo, más allá del interés corporativo de AWS, que la mejor apuesta es potenciar el talento joven con herramientas y agentes de IA en vez de reemplazarlo directamente.
Cada vez más conocidos me cuentan que usan “charlas” con ChatGPT para atravesar un mal momento: desde una ruptura sentimental hasta la muerte de un ser querido o simples interacciones diarias. Y no puedo dejar de decirles que es un error.
Un analista humano puede incomodarte con preguntas duras, confrontarte con verdades incómodas o simplemente decirte: “estás equivocado”. Esa fricción —aunque molesta— es parte esencial del crecimiento. Un chatbot, en cambio, tiende a validar casi todo lo que decís. Y ese “confort” constante puede ser el inicio de un problema mucho mayor.
En los últimos dos años, gran parte de la conversación sobre IA se ha centrado en el ascenso de ChatGPT y en los supuestos errores de Google. La narrativa dominante, en la que incluso entré a veces, pinta a ChatGPT como el first mover que tomó la delantera mientras Google dudaba y perdía terreno por la tibieza de Sundar Pichai cuando lo comparabas con la decisión de Satya Nadella y otros. Y, sobre el papel, esa historia es tentadora, pero.
Es innegable que ChatGPT logró una tracción impresionante. Lanzado en noviembre de 2022, alcanzó los 100 millones de usuarios en apenas dos meses — la curva de adopción más rápida en la historia del consumo digital. Desde entonces, OpenAI ha mantenido un ritmo de lanzamientos vertiginoso: GPT-4, GPT-4 Turbo, GPT-5, capacidades multimodales, voz, memoria, agentes, versiones enterprisa… todo en menos de tres años. Todo esto respaldado por un músculo financiero sin precedentes: más de 13.000 millones de dólares de Microsoft y unos 4.000 millones comprometidos por Softbank. El resultado: alrededor de 700 millones de usuarios activos semanales a mediados de 2025 y una posición cultural en la que, para mucha gente, “IA” es sinónimo de “ChatGPT”.
Tenemos la costumbre de antropomorfizar la tecnología para sentirnos cómodos y a medida que los modelos de IA, especialmente los LLMs, se vuelven más sofisticados, el lenguaje que usamos para describirlos toma prestados términos de la neurociencia, la psicología y cognición humana, quizás porque se nos hace más simple de racionalizar o simplemente porque nos gusta sentirnos el tope de la evolución. Esto a menudo crea la impresión errónea de que la IA funciona como una mente humana, cuando en realidad solo opera a través de reconocimiento de patrones y probabilidad.
Esto no es ni malo ni bueno: es natural en nosotros, los seres humanos, porque tenemos sesgos cognitivos, limitaciones de lenguaje, la necesidad de "dumb-things-down" y, sobre todo, de marketinear ideas como si fuesen más avanzadas de lo que lo son. Decir que una Inteligencia Artificial “razona” es poderoso, pero no tiene lógica propia, solo sigue correlaciones.
Y sí, no dejo de maravillarme día a día con la IA, pero es bueno entender la intencionalidad atribuida que le damos. Así que se me ocurrió listar y tratar de simplificar los términos que usamos en AI y que están relacionados con el cerebro o la cognición humana de forma que sea más simple entender
Hace 2 días Microsoft y Google decidieron incluir gratuitamente sus versiones de AI en sus aplicaciones de productividad, léase Microsft 365 y Google Wokspace, mientras aumentaron el precio base en menos del 10%... esta es, literalmente, una carrera hacia el abismo donde cada uno busca entrar al mercado de otro solo con precio.
Google: "A customer using the Workspace Business Standard plan with a Gemini Business add-on previously paid $32 per user, per month. Now, that same customer will pay just $14 per user, per month — only $2 more than they were paying for Workspace without Gemini."
Microsoft: "bringing Microsoft Copilot and Microsoft Designer to Microsoft 365 Personal and Family subscribers in most markets worldwide" ... "the prices of Microsoft 365 Personal and Family in the US for the first time since its release by $3 USD per month"
La primer lectura es que; sacaron del juego a cualquier otro jugador del mercado de "software de productividad" que quiera agregar funciones de AI porque los únicos con la espalda financiera para atender un par de centenas de millones de usuarios son Microsoft, Google, Amazon y Meta... y estos últimos dos no cuentan aca.
Me pareció interesante leer este paper de los investigadores de Apollo Research donde evaluaron diferentes modelos de IA para ver si participarían en "maquinaciones" más simple si intentarían engañar o manipular a sus desarrolladores para lograr un objetivo específico.
Pero más allá de los resultados me pareció un paper interesante porque muestra los desafíos que existen al momento de entrenar un modelo de AI, encontrar los patrones para crear "guardas" de seguridad y/o entender como suceden estas cosas en lo que para muchos es una gran caja negra donde no se sabe con seguridad que es lo que pasa dentro.
Recuerdo en The Matrix cuando Neo llega a conocer a The Oracle: ahí se da cuenta de que no hay una cuchara, sino solo la representación mental de una cuchara. Es entonces cuando comprende que la realidad no es como la percibimos, sino una interpretación que hace nuestro cerebro: lo mismo nos pasa cuando imaginamos que un LLM alucina o que entiende inherentemente lo que le preguntamos.
La cita de The Matrix funciona aquí como una metáfora clave: “No existe la cuchara” en el sentido de que el modelo no tiene ninguna percepción o concepto inherente de la realidad; está imitando patrones estadísticos sin una comprensión o creencia subyacente. Por eso en lugar de tratar de “ver la cuchara” (o una realidad concreta), un LLM se limita a procesar y reproducir correlaciones.
El “fallo” en el sistema es de nuestra percepción humana cuando se espera una precisión o intencionalidad que el modelo no puede ofrecer, no es un fallo del modelo.
Creo que el ecosistema inversor/emprendedor de la region (Latam+España) no entiende el momento o espacio en el que está en temas de Inteligencia Artificial especialmente en GenAI y, quizás, analizar los 100 papers más citados en el ámbito académico ayude a explicar dónde estamos parados para así entender dónde podemos encontrar oportunidades de inversión para crecer.
Version simplificada del Stack (lo del medio podes pensarlo de varias maneras)
¿Por qué los 100 papers más citados? [fuente] Por dos razones principales: por un lado, el momento actual de la inteligencia artificial generativa es el de transferencia tecnológica, de R&D y academia a corporaciones y startups. Y, por otro lado, porque el avance de las corporaciones sobre la investigación académica se está dando a pasos agigantados por la cantidad de capital necesario para desplegar estas soluciones.
Perplexity está empeñado en crear "el próximo Google", o al menos finalmente sacarnos del ridículo paradigma de los 10 links azules como la mejor forma de buscar en Internet; pero es interesante que esto implica que uno puede "dialogar" con el LLM, que es parte del buscador, mantener las búsquedas en memoria e indagar mucho mas en cualquier búsqueda que hagas, entre otras. Esto tiene, al menos, dos nuevas derivadas:
Es mucho más interesante "investigar que buscar" con lo que para un dato puro termino volviendo a Google, pero para buscar cuando estoy armando o creando termino dialogando con Perplexity.
Si podés usarlo para profundizar, utilizar tus propios documentos o papers suma mucho a este trabajo.
Por eso que aparezcan los Perplexity Spaces tiene sentido y parece un paso natural; los Perplexity Spaces son espacios donde podés agrupar tus búsquedas en la web con tus archivos personales e invitar a terceros a sumarse a ese "centro de colaboración" donde tus búsquedas son híbridas (porque agrupan data pública y data tuya), grupales (porque podés invitar a terceros) y colaborativas(porque todos suman al espacio).
En 1973, Arthur C. Clarke escribió “Perfiles del Futuro: Una Investigación sobre los Límites de lo Posible", donde formuló sus famosas “Tres Leyes”, siendo la tercera la más citada: “Cualquier tecnología suficientemente avanzada es indistinguible de la magia.” Esta frase hoy me persigue, especialmente con el auge de los Modelos de Lenguaje Grande (LLMs) o el uso de ChatGPT. Estos modelos pueden generar resultados que se sienten mágicos, pero no entender el papel que juega el contexto es no entender su esencia misma.
El contexto no es solo una característica; es la base que permite a estos modelos realizar su “magia”.
El contexto en los LLMs se refiere a los diversos tipos de información que el modelo procesa para generar una respuesta relevante y eso incluye al menos 3 divisiones:
La consulta: esto es el texto o consulta que el usuario quiere entender y sirve como el prompt principal para la respuesta del modelo.
Instrucciones del usuario: cualquier directiva específica o guía dada por el usuario, como pedir un resumen, una explicación detallada o un cambio en el tono. Esto incluye que le digas cual es el perfil al que debe apuntar (eg: "soy un arquitecto de 35 años, con 8 de experiencia en diseño de aeropuertos") y que puedes incluir siempre en la consulta.
Conocimiento amplio: la información con la que el modelo ha sido entrenado, incluidos libros, artículos y otras fuentes de datos, que le permite entender el lenguaje, los conceptos y los contextos más allá de la entrada inmediata.
Cuando el LLM genera respuestas, está sintetizando estos elementos, por eso las respuestas generadas suenan coherentes y, sobre todo, relevantes para las expectativas del usuario. Sin aprovechar este contexto, el modelo perdería su capacidad de proporcionar respuestas significativas para tus expectativas o, luego de refinar el "context window", que sean realmente precisas.
“Now you’re looking for the secret, but you won’t find it, because of course you’re not really looking. You don’t really want to know. You want to be fooled.” ― Christopher Priest, The Prestige (citado antes)
Personalizar los LLMs para aprovechar al máximo la entrada inmediata y las instrucciones del usuario es clave para garantizar respuestas relevantes y efectivas. (Nota: obviamente no hablo de personalizar el modelo porque no está a tu alcance). Por ejemplo:
Optimizar la entrada inmediata: puedes ser preciso en la forma en que formulas tus consultas para obtener las respuestas más precisas y enfocadas. En lugar de hacer preguntas vagas, como “¿Qué es la IA?”, intenta algo más específico para que la respuesta salga adaptada a un perfil como el tuyo:
“Explica los beneficios clave de la IA en la salud en términos simples, soy un paciente de 53 años que conoce poco de tecnología.”
Personalizar las instrucciones del usuario: puedes guiar al modelo para que produzca contenido que se ajuste a tus preferencias y las opciones son ilimitadas. Por ejemplo, podrías pedir que se adapte a un formato: “Resume este artículo en 3 puntos”. O a tu conocimiento: “Dame una explicación detallada con términos técnicos”. O a tu necesidad de mimos al ego:
"De todas nuestras interacciones, ¿cuál es una cosa que puedes decirme sobre mí que tal vez no sepa sobre mí?"
Cuanto más refines y personalices tus entradas, mejor podrá el modelo responder a tus necesidades específicas.
Además de mejorar las interacciones con preguntas más precisas, podés personalizar ChatGPT/Claude o MetaAI para que se adapte aún más a tus necesidades.
Por ejemplo, ChatGPT puede recordar detalles de tus conversaciones previas, lo que le permite ofrecer respuestas más relevantes y personalizadas a largo plazo. Podés preguntarle directamente qué recuerda de ti para que borres lo que no te interese o agregues datos o pedirle que te ayude a ajustar la forma en que responde a tus solicitudes.
Por ejemplo, una simple pregunta como “¿Qué sabes sobre mí?” te mostrará la información que ChatGPT ha guardado de tus interacciones previas, brindándote una mayor comprensión de cómo utiliza el contexto para personalizar su asistencia y quizás tengo la ventaja de haber heche una carrera humanistica donde se entiende que:
La importancia del contexto en comunicación es que organiza y da sentido al mensaje. El significado de un mensaje no depende solo de su estructura gramatical, sintáctica o léxica sino también del contexto que acompaña a un enunciado y afecta a su interpretación.
Que lindo futuro nos espera con prompt engineering.
Me gusta NotebookLM por varias razones: primero, porque es una gran muestra de las cosas que se pueden hacer con la IA generativa combinando modelos; luego, porque algunos casos de uso me están sorprendiendo; y finalmente, porque, en cierto sentido, muestra que Google sigue siendo capaz de desarrollar productos interesantes.
¿Qué es y cómo funciona NotebookLM?
Para los que no lo conozcan, NotebookLM (antes conocido como Project Tailwind) es una herramienta impulsada por IA, diseñada para ayudar a los usuarios a organizar, analizar y obtener información de las notas que toman, sean estas propias o documentos que uno sube. También funciona con enlaces que uno ingresa en el sistema y utiliza una combinación de modelos de lenguajes, empleando IA para extraer puntos clave, resumir contenido y generar preguntas o insights… ¡incluso en formato de podcast!
Ejemplo de "podcast" creado con solo introducir la URL de "Inteligencia Artificial" de este blog en NotebookLM
Lo interesante es cómo funciona. El proceso que usa NotebookLM de Google para transformar contenido escrito en conversaciones de audio es fascinante, porque combina partes ya vistas y "estandarizadas" con nuevas ideas, especialmente en edición. Todo comienza cuando subís tus documentos - pueden ser notas, documentos en PDF o enlaces como en el ejemplo anterior.
Cuando subís el contenido, Google con su IA (usa el modelo Gemini 1.5 Pro) analiza tu texto, procesándolo y "entendiendo" no solo las palabras sueltas, sino también el contexto y los puntos clave de todo el documento.
Luego, la IA crea un "script" donde transforma/convierte ese análisis de tu texto en un diálogo (usando otro modelo de "texto a tokens") entre dos personas.
Finalmente, la inteligencia artificial sintetiza ese resultado en dos voces (usando otro modelo más, Soundstorm) e incluye risas, interrupciones, pausas pensativas, muletillas sutiles y lo "publica"... con una atención al detalle sorprendente.
Todo esto en menos de 10 minutos. ¿Qué tiene de interesante? En cuestión de minutos, tu texto se transforma en un podcast de 10-15 minutos que suena natural y hace que tu contenido sea más accesible. Básicamente, convierte tu material escrito en una charla de audio que presenta la información de manera clara y entretenida.
Principios clave de diseño
¿Por qué me pareció interesante esto como muestra de que Google Labs puede crear productos virales y, potencialmente, interesantes? Dos razones bastante simples:
Enfoque AI-First: NotebookLM fue diseñado desde cero con capacidades de IA como núcleo, reimaginando cómo podría ser un software de toma de notas con un potente modelo de lenguaje como base.
IA Basada en Fuentes (Source-Grounded AI): una característica distintiva de NotebookLM es que permite a los usuarios "anclar" el modelo de lenguaje en fuentes y documentos específicos proporcionados por el usuario. Esto crea un asistente de IA personalizado que está versado en la información relevante para las necesidades del usuario y donde el potencial de alucinar es menor.
De nuevo, Google no metió herramientas de IA en Google Keep, sino que creó algo desde cero basado en herramientas de IA en menos de dos meses. Y más allá de que esto pueda terminar en el Google Graveyard, es una gran prueba de concepto que muestra que la información puede hacerse más accesible.
Información o educación más accesible
Esta tecnología representa un avance muy significativo en la forma en que podemos consumir y compartir información. Aunque la primera lectura podría ser cínica y decir "estamos convirtiendo texto en snacks" o "si lo hace una IA es que es simple", la realidad es que las aplicaciones potenciales abarcan varios campos, desde la educación y los negocios hasta hacer que la información sea más accesible para personas con diferentes preferencias de aprendizaje o problemas de visión.
No pienso solamente en convertir capítulos de libros en discusiones de audio para estudiar mejor, que es, tal vez, lo primero que viene a la mente, sino en buscar nuevas formas de escuchar tu contenido y crear una narrativa nueva (de hecho, tengo ganas de hacer unas pruebas con decks de startups... ¡pueden enviarlo para que lo haga! 😄).
¿Cómo seguirán? Asumo que expandirán esto a otros idiomas, personalizarán las voces o ajustarán la duración, o tal vez con ideas que ni se me hayan ocurrido.
Estamos en un momento interesante de la Inteligencia Artificial, todos los días hay titulares que dicen “La burbuja de la IA está llegando a un punto de inflexión” o "La Revolución de la Inteligencia Artificial pierde fuerza" y muestran críticas interesantes, pero dejan de lado noticias clave como el desarme de Character.AI o Inflection.AI o, aún más interesantes como el momento de NVIDIA en la bolsa.
“Now you’re looking for the secret, but you won’t find it, because of course you’re not really looking. You don’t really want to know. You want to be fooled.” ― Christopher Priest, The Prestige
Creo, honestamente, que hay una conjunción de 3 temas: (a) Falta de conocimiento real sobre IA al punto que no separan entre LLMs/GenAI e Inteligencia artificial como campo; (b) Un pico de expectativas sobredimensionadas especialmente por varios inversores y (c) Una necesidad de maravillarse sin preguntar realmente que hay atrás de todo esto para luego descartarlo y pasar al siguiente "fad".
¿Estamos realmente viendo el impacto de AI que tanto se promete? Comienzan a aparecer indicios de que la gente está cansada de leer cosas genéricas sobre casos de uso de AI, o quizás sólo yo estoy cansado de leer templates que no muestran diferenciación con datos o impacto concreto:
“Leveraging non-specialized Large Language Models (LLMs) to streamline general information discovery, gathering, and organization workflows that would have taken a lot more time to complete without it.”
Creo que podriamos mejorar mucho el entendimiento de la promesa de la inteligencia artificial generativa; el ritmo de inversión que estamos viendo necesita ejemplos concretos y directos como el siguiente:
“Alaska Airlines ha estado utilizando inteligencia artificial desde 2021 para ayudar a optimizar las rutas de vuelo por eficiencia. El sistema... analiza el clima, cierres de espacio aéreo y planes de vuelo de la FAA dos horas antes de cada vuelo para sugerir las mejores rutas. La AI procesa volúmenes de datos que sobrepasarían las capacidades humanas y, en menos de dos años, contribuyó a reducir los tiempos de vuelo en el 25% de los vuelos de Alaska, ahorrando un total de 41,000 minutos y aproximadamente medio billón de galones de combustible.”
Hace unos días Elon Musk demandó a OpenAI para que rompan sus alianzas comerciales. Hoy OpenAI respondió con datos mostrando que Elon Musk los demanda porque "logramos avanzar en la misión de OpenAI sin su ayuda". Honestamente no iba a hablar de la demanda de Musk porque es la continuación de su lobby personal por destruirla.
No sólo la "demanda" no tiene sentido porque no había un contrato sino que es un diatriba sobre cómo se aprovecharon de él, pero esto es simplemente una pelea de egos porque Musk no acepta que no se la regalaron.