Elon Musk vs OpenAI

Hace unos días Elon Musk demandó a OpenAI para que rompan sus alianzas comerciales. Hoy OpenAI respondió con datos mostrando que Elon Musk los demanda porque “logramos avanzar en la misión de OpenAI sin su ayuda”. Honestamente no iba a hablar de la demanda de Musk porque es la continuación de su lobby personal por destruirla.

No sólo la “demanda” no tiene sentido porque no había un contrato sino que es un diatriba sobre cómo se aprovecharon de él, pero esto es simplemente una pelea de egos porque Musk no acepta que no se la regalaron.

Continuar leyendo “Elon Musk vs OpenAI”

Open AI Sora crear videos con Inteligencia Artificial y prompts

Prompt: Photorealistic closeup video of two pirate ships battling each other as they sail inside a cup of coffee.

Este video fue creado por Open AI usando Sora, su último modelo, que puede crear videos usando prompts de texto pero, también, crear videos usando videos como base para crear variaciones en estilo, cinematografía y cualquier otra variable que puedas elegir o crear simplemente describiendo el cambio que querés.

We explore large-scale training of generative models on video data. Specifically, we train text-conditional diffusion models jointly on videos and images of variable durations, resolutions and aspect ratios. We leverage a transformer architecture that operates on spacetime patches of video and image latent codes. Our largest model, Sora, is capable of generating a minute of high fidelity video. Our results suggest that scaling video generation models is a promising path towards building general purpose simulators of the physical world.

Research: Video generation models as world simulators
Continuar leyendo “Open AI Sora crear videos con Inteligencia Artificial y prompts”

Generative AI Wars

Llegó el momento donde para “defender sus obras” algunos investigadores de la Universidad de Chicago desarrollaron Nightshade una herramienta ofensiva que aunque busca “para combatir el uso no autorizado de imágenes en el entrenamiento de modelos generativos” lo que hace es “envenenar” imagenes para destruir los modelos entrenados con ellas. Nightshade es el modo ofensivo de Glaze que era realmente defensivo.

Here is the image depicting the dramatic and intense war between two factions of generative AI models. One side represents advanced AI models working on self-improvement, and the other shows rogue AIs attempting to disrupt their processes. The scene captures the essence of a digital battlefield.

Para entender cómo funciona Nightshade, es importante comprender el concepto de envenenamiento de modelos. En el ámbito de machine learning, los modelos aprenden y evolucionan basados en los datos que reciben. Si estos datos están comprometidos o alterados de una manera específica, pueden llevar a que el modelo desarrolle comportamientos inesperados o patrones indeseables. Nightshade aprovecha esta vulnerabilidad transformando cualquier imagen estándar en una muestra de datos “envenenada”. Estas imágenes alteradas, cuando se usan en el entrenamiento de modelos generativos, hacen que los modelos aprendan patrones y comportamientos incorrectos.

Nightshade is computed as a multi-objective optimization that minimizes visible changes to the original image. While human eyes see a shaded image that is largely unchanged from the original, the AI model sees a dramatically different composition in the image.

What Is Nightshade?
Continuar leyendo “Generative AI Wars”

OpenAI despide a Sam Altman que (NO) se une a Microsoft con todo su equipo

Qué fin de semana increíble para Sam Altman, Satya Nadella, OpenAI y Microsoft; desde un despido a traición el viernes a última hora seguido de renuncias en masa, hasta una oferta grupal para liderar el nuevo Microsoft Advanced AI Research Teamupdate: que resultó ser una palanca para negociar la vuelta de Sam a OpenAI

Fue todo tan rápido que hubo mil especulaciones pero es bastante simple de entender, enfocandose en el origen de OpenAI, su estructura societaria y los bandos que se fueron formando naturalmente. Tengan en cuenta este gráfico:

  1. Un Board enfrentado con el concepto de empresa: la clave de lo que vimos arranca con un board of directors pensado para una ONG/non-profit (OpenAI LLC), enfrentado con la realidad de una empresa (OpenAI Global LLC) que tuvo el lanzamiento más exitoso en la historia de Internet (ChatGPT) y que NECESITA ser for-profit para escalar su tecnología, por el nivel de gastos que el desarrollo de modelos implica y el costo de infraestructura que conlleva su crecimiento.
    • Extraoficialmente, desde 2019 a hoy, se necesitaron mas de USD2.500 millones de infraestructura.
    • Los compensation packs para algunos de los nuevos investigadores es de USD5 millones a USD10 millones.
  2. Falta de alineamiento: aunque la forma de comunicar fue todo lo que está mal, lo interesante es que al Board no le afecta porque ellos controlan a OpenAI Inc, que parece un departamento académico desconectado del for-profit y por eso lo hicieron de forma amateur; creo que no habían calculado que a minutos del despido casi todos los investigadores senior (el talento puro y duro) iban a comenzar a renunciar en masa.
  3. Inversiones masivas para que OpenAI (o MSAI) escale: si OpenAI LLC no necesita funding, la realidad es que escalar modelos o la infraestructura de Inteligencia Artificial necesita unos recursos casi imposibles de encontrar; sumados a que si tuvieras el capital tendrías que crear organizaciones enteras desde cero.
  4. Enter Satya: mientras el mercado estaba en pánico, Satya Nadella, con el apalancamiento de los 10+ billions invertidos, trató de mediar y que Sam Altman “vuelva” a OpenAI, pero mostrando al mismo tiempo opciones para que OpenAI pueda enfocarse en Artificial General Inteligence y el equipo focalizado en productos pueda impactar al mundo desde una plataforma plug&play… como Microsoft :)
  5. $MSFT: Microsoft tiene una licencia perpetua para todo el IP de OpenAI y ahora además tiene el talento para explotarlo (¡gracias Ben Thompson por el reminder!)
    (Ejemplo: ~50bn de investment esperado en AI por año fiscal).

Y esto, más allá de estar feliz de tener a Sam Altman en Microsoft y reafirmar que Nadella se merece una estampita, es una realidad: en cada adquisición que hizo Satya Nadella los fundadores siguieron haciendo crecer sus ideas, identidades y productos, hoy interconectados.

Si Open AI era una “compañia accidental” ahora los objetivos están claros y veremos como se acelera todo.

Apple volviéndose IBM

Hay un viejo dicho que dice que nadie fue despedido por comprar IBM, porque era la única apuesta segura: los blindaba de las repercusiones si algo había salido mal ya que presumiblemente tenían la reputación y Apple era, ese momento, la innovación y el disruptor; sin embargo el tiempo pasa para todos y hoy…

En una era donde los dispositivos se convierten en integrales para la era de la inteligencia artificial; vemos al mercado aplaudir cosas que son intrigantes:

I would argue that the improved autocorrect in iOS 17 is a major feature — in my use it’s clearly an improvement, and autocorrect is a feature used every day, in almost every app, by almost every iOS user. It’s one of the most used and most important features in the entire OS. I’d also argue that Apple has done some terrific work with AI features in Photos. The search feature in Photos works really well.

Gruber en “Apple AI”
Continuar leyendo “Apple volviéndose IBM”

Superalignment: o cómo alinear la IA con humanos

El concepto de “superalignment” en inteligencia artificial (IA) es bastante simple a primera vista: la “superalineación” se refiere a la idea de alinear sistemas de inteligencia artificial general (IAG) con los valores y objetivos humanos en un grado excepcionalmente alto.

Superalineación o Superalignment... o terminamos mal

Esto implica asegurar que los sistemas de IAG no solo entiendan y sigan instrucciones explícitas que le son dadas, sino que también tengan una comprensión profunda y matizada de los valores humanos, y puedan actuar de maneras que sean beneficiosas para la humanidad, incluso cuando eso no sea un objetivo explícitamente especificado.

Continuar leyendo “Superalignment: o cómo alinear la IA con humanos”

San Francisco está muerto, larga vida a San Francisco

Desde la pandemia todos hablaban de la muerte de San Francisco, el boom de la inteligencia artificial muestra (con datos) que San Francisco esta más vivo que nunca.. y eso me genera algunas ideas

Desde la pandemia, uno no se cansa de ver análisis diciendo que ya pasó la era dorada de San Francisco y la Bay Area para el talento tecnológico, que San Francisco no tenia futuro y que el talento estaba en todas partes… pero el AI Boom nos demuestra que no es así y que el ecosistema de Bay Area y San Francisco están mas vivos que nunca.

Hay datos que son realmente interesantes y todos de diferentes fuentes agregadas, analizando datos de LinkedIn: “Over the last 12 months, San Francisco has seen the second-biggest worker population gain of any area in the United States” y la encuesta anual de CBRE muestra que esos datos son consistentes con salarios y contrataciones y hasta las quejas contra la inteligencia artificial nacen en Bay Area ;)

Pero el datos que nos interesa para analizar el ecosistema tecnológico es bastante simple ¿donde se junta el talento? ¿donde se crean las compañias que se convierten en lideres? y sobre todo ¿donde hay inversión? porque eso es la vara que se usa para definir ecosistemas y empresas con el war-chest financiero para crecer rápido.

¿donde esta el talento y los nodos de Inteligencia Artificial?

  • Tomemos el AI Top 50 de Forbes (con sus fallas o no) es un estudio con una gran metodología y consistente con el estado actual del mercado y literalmente el 70% del mercado global está en California…
  • Eso es consistente con la publicación de papers y estudios relacionados a Inteligencia Artificial desde 2001 donde mas del 25% se publicó desde Bay Area
  • A su vez; Bay Area tienen más búsquedas de empleados para trabajar en Inteligencia Artificial que los 14 ecosistemas siguientes en el ranking de Brookings
  • Aunque es cierto que el mundo de la inteligencia artificial generativa (o LLMs) es demasiado nuevo para tener datos históricos, es una buena señal para entender donde se crean los hubs de mercado y los nodos de talento que luego van a generar los futuros unicornios.
el futuro ya está aquí, pero desigualmente distribuido

el futuro ya está aquí, pero desigualmente distribuido

Esta es una de esas frases que William Gibson dijo y pareció predecir el futuro de la concentración de ecosistemas y cada día parece más relevante; los recursos necesarios para desarrollar nuevas tecnologías (especialmente cuando arrancan los ciclos de tecnología) son monstruosos y es ahí donde el valor de los ecosistemas es clave.

Las explosiones cámbricas

Internet + ARPA; mobile apps + el mundo de la nube; Inteligencia Artificial + Attention is all you need + OpenAI … son 3 momentos que definieron y definirán décadas de negocios y de tecnología y podemos, medio en broma, definirlos como explosiones cámbricas.

Y tal vez San Francisco estaba muerta cuando no existía una explosión cámbrica que necesitaba la concentración de talento, de capital y de infraestructura… mientras que otros ecosistemas son buenos cuando el capital de riesgo es menos averso al riesgo, los modelos de negocios están medianamente establecidos y el conocimiento esta más distribuido igualitariamente.

Estando basado en Argentina pero analizando la cantidad de datos sobre startups que construyen en la nube y orientados en AI creo que hay una oportunidad gigantesca para crear algo aprovechando el talento existente porque la infra existe y es solo cuestión de tiempo que los lideres se establezcan quizás a nivel global

OpenAI y las oportunidades inevitables

Esta semana el uso de inteligencia artificial en el cine es parte del reclamo en la huelga de los escritores, también el uso de inteligencia artificial en la creación de las animaciones en Secret Invasion desató quejas y amenazas de más huelgas…

Esta misma semana Carlos Banon, un arquitecto multi-premiado, decidió crear un curso para “expandir conceptos arquitectónicos con comandos de Midjourney y desarrollar skills de control de geometría, materiales y creación de atmósferas usando stable Difussion y ControlNet

It was the best of times, it was the worst of times, it was the age of wisdom, it was the age of foolishness, it was the epoch of belief, it was the epoch of incredulity, it was the season of light, it was the season of darkness, it was the spring of hope, it was the winter of despair.

Charles Dickens, A Tale of Two Cities

Esta misma semana salió un estudio donde se muestra que el 92% de los developers de software usan Copilot y “Over 80% of developers believe that AI-powered coding tools can enhance team collaboration, improve code quality, speed project completion and improve incident resolution

Mientras una industria abraza una tecnología como un copiloto que la ayuda a mejorar sus capacidades creativas (evitando lo repetitivo) y otra industria trata de buscar el espacio donde se puede mejorar (la idea de crear atmósferas en arquitectura usando motores OSS!) hay otras que tratan de frenar el uso de la tecnología y frenar a los que la están usando.

El cambio es inevitable… pero estas herramientas son un copiloto y amplían tu capacidad creativa y de protototipadp liberando espacio repetitivo y solitario.

Every now and then… vuelven los Beatles (con AI)

El resúmen: Paul McCartney utilizó AI en un demo de John Lennon para poder aislar su voz, limpiarla, editarla y poder editar un tema que nunca habían grabado y se lanzará como “El último tema”… pero no es la primera vez que se edita la voz de Lennon luego de muerto. Free as a Bird y real Love se editaron limpiando grabaciones de Lennon 15 años luego de su muerte.

Y esto, es más interesante de lo que parece porque abre la puerta a nuevos experimentos, mezclas y hasta juegos como el dueto que se usó en su ultimo tour… porque al fin del día no esta claro donde estará el límite del “gemelo digital” de un artista por más que se cuente con la autorización de sus administradores y, del otro lado del espectro, significa que hay nuevas herramientas para crear mezclas deep-fakes que nunca existieron,

BloombergGPT: un modelo de IA financiera

Si algo distinguió a Bloomberg del resto de los proveedores de información financiera fue que siempre estuvo al frente del uso de nueva tecnología; ahora su terminal suma un modelo como ChatGPT pero entrenado y orientado puramente a finanzas.

Bloomberg GPT o Inteligencia artificial en la terminal de bloomberg

Con las ventajas de estos modelos para dominios especificos de conocimiento, Bloomberg tiene un leverage competitivo gigantesco: entrenaron a BloombergGPT como un modelo financiero con su dataset propietario de 363.000 millones de tokens de documentos financieros en inglés, y lo aumentaron luego con un dataset similar en tamaño pero público; por eso los benchmarks de NLP dan números gigantescos.

Los tokens son las unidades básicas de texto o código que un LLM AI utiliza para procesar y generar lenguaje. Los tokens pueden ser caracteres, palabras, subpalabras u otros segmentos de texto o código, dependiendo del método o esquema de tokenización elegido.

LLM AI Tokens en Microsoft Learn.

Ahora, con este poder de fuego mejorando las herramientas para escanear noticias, datos, análisis de sentimiento y aplicardo en el sentido general de las preguntas que se pueden generar con lenguaje natural… le abre a Bloomberg un mercado gigante con casos de uso que no termino de imaginar.

Y esto es un gran paso para entender el peso de estos modelos en dominios de conocimiento específico. Qué mejor que finanzas para verlos claramente donde los resultados son blanco o negro, positivo o negativo.

La carta abierta con la inteligencia artificial

Ayer se conoció una carta abierta con mas de mil firmas pidiendo que se abra un período de “freno” al desarrollo y entrenamiento de modelos de inteligencia artificial (LLM) superiores a GPT-4 por seis meses porque “no se entienden los alcances de esta tecnología”. Los medios corrieron a publicarlo en medio de advertencias sobre el poder de la Inteligencia Artificial General; en Linkedin varios gurús hablaron de un apocalipsis mientras otros pedimos calma.

Hoy se descubrió que la carta estaba financiada por Elon Musk, que en las “mil firmas de científicos e investigadores” había muchas falsificadas y que otros tampoco estaban de acuerdo con el texto final.

Primero lo importante: ¿tiene sentido pedir que se frene el avance de los LLM?

Realmente no tiene sentido, arrancando por el hecho de que un modelo de linguistico grande (LLM) está muy lejos de ser una inteligencia artificial general capaz de sustituir y dominar a los humanos; de hecho incluso los firmantes de esa carta lo reconocen con lo que de movida no tiene sentido el pedido.

Segundo, ¿están pidiendo que “el Estado establezca una moratoria de seis meses”? ¿Qué aplicabilidad real tiene el pedido de algo a escala mundial cuando ni siquiera se pueden regular conceptos básicos como la exportación de tecnología a “estados rebeldes”?

Pero más allá de eso los “threat actors” que descubrieron en esto una nueva herramienta para sus intereses ¿van a frenar porque lo piden académicos? Si era así de simple, deberían pedir que se dejen de cometer crímenes :)

¿Porque Elon financió esta carta?

En 2016 cuando se funda Open AI, Elon Musk estaba en el grupo fundador y se comprometió a poner 1.000 millones, pero en 2018 se imaginó que el podía hacer mejor trabajo que el equipo liderado por Sam Altam entonces quiso tomar control de la iniciativa.

Le dijeron que no (porque no podia manejar Tesla, Space X y encima OpenAI) y se enojó y retiró la plata que se había comprometido a poner en el proyecto. Hoy, casi 5 años después, se arrepiente y decide crear un nuevo startup que compita con OpenAI pero necesita tiempo para alcanzarlos. [Link a Semafor]

Y esta usando Twitter para avanzar su agenda; ahí reside el valor de la apuesta que hizo por la red social.

Pero mas allá de todo, este incidente es clave para entender que estamos en un momento de cambio y que hay muchos intereses tratando de frenar el avance de una herramienta que ya está activa y evolucionando.

¿Los fondos de inversion dudan del valor de AI?

Me gustaría resaltar dos detalles de la nota del Financial Times sobre cómo los fondos de inversión están siendo cautos con las inversiones en el mercado de Inteligencia Artificial:

AI’s potential has drawn in the likes of Sarah Guo who, a year ago, led investment into the crypto sector for venture capital firm Greylock, having also been an angel investor into cryptocurrency exchange FTX. FTX has since collapsed into bankruptcy, but Guo has raised more than $100mn to invest into artificial intelligence with her new fund Conviction.

Link

Cuando uno maneja fondos o alocaciones de cientos de millones veo increiblemente dificil saltar de un mercado que necesita tanto domain knowledge, como cripto/web3, saltar a manejar cientos de millones en algo como inteligencia artificial donde se necesita mucho conocimiento para separar paja del trigo.

Aunque ambos mercados comparten el hype del conocimiento superficial:

One investor said that, because of the huge amount of capital and computing resources required, recent leaps in generative AI were comparable to landing on the moon: a massively impressive technical achievement, only replicable by those with nation-state level wealth.

Link

Cuando una tecnología arranca masivamente (no entremos en detalles de investigación y papers) es obvio que es un momento donde no hay economías de escala y que los modelos de negocio no son claros; encontrar donde existen esos modelos de negocio y donde esas economías de escala pueden aparecer es lo que distingue a los grandes inversores de los mediocres.

Cuando la duda sobre las inversiones en inteligencia artificial se den por las valuaciones es que no se termina de entender como es el stack de esta tecnología y cómo se dividen: plataformas, modelos y aplicaciones.

Es bastante simple de entender: plataformas cloud para AI son las 3 tradicionales con la entrada de startups como Coreweave, los modelos de IA son abiertos como Stable Diffusion o cerrados como GPT-3 y pueden correr en hubs como Hugging Face para finalmente ver aplicaciones de IA como Github Copilot o Midjourney que es el “front end” :)

En definitiva: hay muchos fondos que apuestan a AI y eso es porque tienen conocimiento como para entender el mercado y encima están completamente alejados del miedo que el Financial Times parece estar viendo en el mercado.

Weeklog (Dumping links): AI, ChatGPT y mas

Algunos links interesantes que encontré o estuve leyendo sobre Inteligencia Artificial, OpenAI, ChatGPT y hasta costos de infraestructura; no es un week-log en realidad pero… quizas es una buena forma de volver a escribir ;)

From now on, the [gross margin] of search is going to drop forever.

Satya Nadella, Microsoft CEO

AI y el sentido común

Al escribir algo de AI o cuando estoy tratando de usar sentido común para explicar algo hablo con Diego Basch para ver si pasa su filtro; pero la realidad es que el el “sentido común” es tan dificil de definir que es en esos puntos donde termino haciendo agua… y por eso me parecio maravillosa esta entrevista con Yeichin Choi

¿como definimos lo que es “entender”? ¿como definimos lo que es “saber”? ¿cuales son las excepciones? ¿como las manejamos? ¿como las definimos? ¿como interactuamos nosotros con el contexto que rodea la información?

Yeichin Choi, Computer Scientist, 2022 MacArthur Fellow, Seattle, WA

Yeichin Choi usa el mismo ejemplo que me viene a la cabeza cuando me dicen “OpenAI no entiende lo que le pregunto” o “Google Bard comete errores de nene” ¿pueden las aves volar? nuestra respuesta automática es “si” pero la realidad es que la respuesta es “generalmente si” y ese “generalmente” depende del contexto de la pregunta.

”Commonsense is the dark matter of intelligence. We know it’s there, and we all rely on it effortlessly, yet it has been notoriously hard to pin down, especially for machines. My research seeks to tackle this longstanding challenge in AI (artificial intelligence) by teaching machines to reason about the likely causes and effects of everyday events and the likely intents and mental states of people in relation to those events.”

Jeichin Yoi en la MacArthur Foundation

Pero más alla de esto que es clave ¿como definimos el sentido común? la entrevista revisa el concepto de value pluralism o las diferentes verdades a las que nos enfrentamos y como esas verdades, hoy explícitamente, toman en cuenta valores morales.

These rules basically cannot be written down as universal truths, because when applied in your context versus in my context, that truth will have to be bent. Moral rules: There must be some moral truth, you know? Don’t kill people, for example. But what if it’s a mercy killing? Then what?

El incentivo de innovar y el costo de no hacerlo

Fue Steve Jobs el que dijo “If you don’t cannibalize yourself, someone else will.” y creo que por eso la acción de Google cayó un 9% en un solo dia cuando apuró un evento de AI y no porque “hubo un error en una demo”.

Lo que el análisis de 280 caracteres resume en “Google perdió un 9% porque una demo salió mal” es no entender el porque Google no habia presentado hasta ahora una interfaz conversacional como ChatGPT para aumentar los resultados: esto cambia la dinamica de negocio y no hay incentivos para innovar si canibalizas tus ingresos mientras cambia tu estructura de costos

  • La estructura de costos de una interfaz conversacional sobre inteligencia artificial es diferente a la del modelo actual de los buscadores (aka: 10 blue links).
  • El modelo de ingresos cambia radicalmente versus la actual integracion de links de anuncios arriba y abajo de los resultados en varios sentidos:
    • La interfaz es diferente entonces el espacio “above the fold” cambia; la integracion/mezcla de SERP/SEO cambia
    • pero mas estratégico es que el usuario ahora espera algo mas que “un link con la informacion” y nadie hizo pruebas a escala de esos nuevos modelos.

Pero entonces ¿con tantas preguntas porque el mercado le pego a Google este golpe que borró $100b en una hora? porque esperaban que se presente algo parecido al nuevo Bing que presentó Microsoft y Google no lo hizo… repito: no lo hizo porque pese a tener talento y tecnologia no tenia incentivos para probar algo que pudiera canibalizar su modelo de negocios por eso hay otro jugador, Microsoft, probando cosas nuevas.

¿Porque hablo de Microsoft si empece hablando de la caida de 9% en un dia de $GOOG o citando a Steve Jobs? porque la realidad es que en algun momento todos los negocios necesitan cambiar… y los mejores ejemplos son los dos “abuelos” del mercado de las Big Tech: Apple y Microsoft tienen 47 años y ya sufrieron reinvenciones.

Apple presento el iPhone en 2007 sabiendo que iban a volver obsoleto al iPod aun cuando era el motor de su crecimiento; Microsoft se enfoco en la nube aun cuando era su core eran los servers… “If you don’t cannibalize yourself, someone else will.”

Enter Satya y su experiencia en canibalizarse antes que lo canibalice otro, que explica MUY bien en su entrevista con The Verge sobre “The New Bing”:

Like all things, one of the things that I think about is, in platform shifts, two things have to happen. You have to retool pretty much every product of yours, so you’ve got to rethink it, whether that’s the way you build it or what its core features are. It’s like how Microsoft had to pivot for the cloud to rethink exchange. It was not an exchange server. It was exchange as a service or what we had to do with our server infrastructure. We had to rebuild, essentially, a new core stack in Azure. So every time, with transitions, you have to essentially rewrite it. That’s how I think about it. The second thing is you also have to think about the business model. Sometimes these transitions are pretty harsh. I’ll tell you, the last transition from having the high share server business with great gross margins to saying, “Hey, the new business is called cloud, and it’s going to have one-fourth the margins” as the new news was pretty harsh, but we made it.

Satya Nadella explicando las dos caras de un cambio de paradigma.

Pero ¿hace bien el mercado en apostar contra Google? honestamente no lo creo… Google tiene el talento, tiene el market share y sobre todo tiene a Chrome y Android para apalancar todo; ojala hoy tengan algo de miedo y dejen de alocar experimentos interesantes como Google Duplex a una parte de Assistant.

OpenAI, Anthropic y POE

Me pareció interesante el lanzamiento de Quora, POE o “Platform for Open Exploration” es su AI conversacional usando OpenAI y Anthropic como motor para encontrar contenido con dos enfoques diferentes pero sin entrenarlo con su contenido porque todavía no esta claro como impacta en propiedad intelectual y saben que no hay precisión fáctica… sabiendo que quieren construir un ecosistema sobre este.

(1) Dos modelos en un producto ¿porque Quora usa dos motores y cuales son las diferencias entre OpenAI y Anthropic? Por las dudas explico algo básico; cada modelo tiene su propio entrenamiento, cada modelo se optimiza para cosas diferentes y, estoy seguro que a medida que aparezcan mas opciones veremos cosas muy diferentes (eg: un modelo entrenado en el “cespool of hate” que es Twitter seguro sale racista pero sin duda va a estar optimizado para engagement) lo bueno de esto es que uno puede elegir.

Por ejemplo, por la base de sus decisiones, OpenAI no tiene acceso a eventos posteriores a 2021 y Anthropic no responde ciertas preguntas (honestamente no se cuales son esos lineamientos) entonces cuando instalas POE y elegís entre Sage, Claude o Dragonfly… en realidad estas eligiendo bots entrenados por esas modelos y atados a esas limitaciones…

Por esas mismas limitaciones, que incluyen los sesgos de entrenamiento, las limitaciones de dataset y sobre todo que no están entrenados para certeza es que NO se integran en Quora sino que se mantiene como un “extra” para experimentar… de ahi su nombre: “Platform for Open Exploration”

(2) una comunidad para refinar preguntas y resultados Y acá viene lo interesante de Quora, no solo podes elegir el modelo, sino que podes crear un perfil y seguir a otros usuarios que esten usando POE y puedas usar sus “prompts” para hacerles sintonía fina y vayan mejorando… con algo de suerte una comunidad de varios cientos de millones ayudaran a mejorar el modelo con el ida y vuelta que genera su uso.

(3) una api para crear ecosistema Ah, si sos developer… Quora está preparando una API para que puedas integrarlo en tus aplicaciones o crear algo nuevo desde cero en ese ecosistema. Que es lo que, en última instancia, los va a separar del resto y le da sentido a la frase que uso el CEO en el anuncio:

Over time, we hope to become the most efficient way for people to collectively explore the possibilities opened up by new AI models as they are released. 

Adam D’Angelo: POE

Pueden descargar POE para iOS en este link

AI en Medios: una carrera de algoritmos, modelos y transformers

OpenAI o ChatCGT son todo lo que los fundadores de Demand Media hubiesen soñado; una herramienta capaz de crear miles de notas a una velocidad increíbles y donde la calidad del output es capaz de lograr clicks en publicidad y nada mas… ¿estoy exagerando?

El modelo de negocios de Red Ventures es directo y explícito: publica contenido diseñado para posicionarse alto en la búsqueda de Google para consultas de “alta intención” y luego monetiza ese tráfico con lucrativos enlaces de afiliados. Específicamente, Red Ventures ha encontrado un nicho importante en las tarjetas de crédito y otros productos financieros. Además de CNET, Red Ventures es propietaria de The Points Guy, Bankrate y CreditCards.com, todos los cuales se monetizan a través de tarifas de afiliados de tarjetas de crédito.

The Verge

En esa sola frase se explica el modelo de las content-farm y se explica porque hay 3 factores que las hacen inevitables en Internet:

  • el costo de publicación es marginal: desde el nacimiento de Links.net hasta el imperio de WordPress, el costo de publicación no deja de bajar. Poner contenido frente a los ojos de la gente es casi gratis.
  • el costo de creación baja constantemente: empresas como Demand Media (los menciono porque los conocí y porque me los acuerdo) siempre encontraron formas de hacer clearing de costos; pagar lo menos posible por palabra pero inundando de su contenido las paginas de resultados de los buscadores.
  • el costo de exposición se mantiene alto: ¿que determina que un articulo lo vea gente? algoritmos. Desde Pagerank de Google hasta FYP de TikTok… estas son las claves de diferenciación y llegada a los consumidores. Es una carrera armamentistica contra los cancerberos de las audiencias.

Esto es literalmente lo que hace que los “Transformers” de Inteligencia artificial sean ideales: ¿que mejor que reemplazar a cientos de manos baratas que un algoritmo donde haya que decirle, literalmente: “escribe un articulo sobre (incluir tema que sepas que tiene poca competencia en Google) en 10 variaciones de estilo” cientos de veces por hora? si automáticamente se publica en internet con links o publicidad y te genera centavos :)

Nota: un transformer es cualquiera de estos algoritmos que al consumidor final le parecen mágicos. Dall-E, ChatGPT, Midjourney y asi. Nacieron imaginadas como transformadores de un texto de un idioma a otro.. solo que de un idioma a otro, termino siendo algo mas que solo texto a texto :)

Y asi llegamos a uno de los grandes problemas de estas herramientas ¿es el usuario promedio capaz de detectar qeu contenido lo creó un periodista y cual una herramienta de inteligencia articificial? No. Hay decenas de estudios que llegan a la misma conclusion: No se demostró que los lectores, consistentemente, puedan distinguir un articulo de otro. Lo que nos dispara al segundo problema ¿si los humanos no logran distinguirlo, pueden otros algoritmos hacerlo? Claro que pueden y asi es como llegamos a una carrera armamentistica entre algoritmos, modelos e IA.

Pronto esto va a ser un estándar.

Un modelo de IA escribe una nota pensada para lograr alto posicionamiento en Google; otro modelo toma esa nota y le inserta publicidad de texto pensada para lograr clicks de usuarios; se publica en un dominio… que google lee, analiza con otro modelo de posicionamiento pensado para descartar contenido de mala calidad o automático, lo ranchea de acuerdo a eso; el sistema del medio analiza porque de donde vienen las visitas con un producto de analytics que le de insights de que funciona y que no, ese resultado entrena al primer modelo que mejora y vuelve a comenzar el mismo proceso mientras Google sigue entrenando al suyo para sacarle visibilidad a esos artículos y asi sucesivamente… mientras tanto los periodistas se siguen indignando pero cada dia le quedan menos pageviews para quejarse.

Y nosotros… consumiendo redes social.

Coronavirus y la vida en un Estado de vigilancia

Cuando el coronavirus arrancó y las noticias hablaban sobre cómo el gobierno chino estaba conteniendo la expansión, pocos se dieron cuenta que este es un momento ideal para entender el concepto de “Estado de Vigilancia” o “Surveillance State”.

Porque a la campaña de control social tradicional que se aplicó -puertas marcando familias con infectados y hasta recompensas por la información de paraderos de personas originarias de las ciudades del virus ( Hubei, Yueyang, Hunan y Xinyang)- se le sumó la vigilancia tecnológica de China que uno conoce por arriba, pero que tiene ahora aplicaciones impensadas, como por ejemplo:

  1. Cámaras remotas capaces de identificar personas con temperatura un poco más alta de lo normal en medio de una multitud; un algoritmo de reconocimiento facial que puede correr aun cuando usen máscaras para respirar y enviar el dato a la policía, en tiempo real, con geo-posicionamento, para intercepción y contención.
  2. Identificar a una persona sin permiso de viaje en un transporte público, aún usando una máscara, y automáticamente notificar a las personas que están cerca de forma física mediante una notificación en sus móviles… y sumarlos a la base de datos de potenciales portadores.

Mientras algunas personas hablan de ratios de contagio del coronavirus, de mortalidad o de expansión o la comparan con enfermedades históricas, me pregunto si toman en cuenta estas capacidades modernas de identificar, aislar y contener movimientos de ciudades enteras en días. No creo que haya un Estado con tanto poder sobre sus ciudadanos como la China de hoy en día.

Mientras BlueDot roba titulares porque, incorrectamente, decía que la IA había predicho el coronavirus, me pregunto si en este caso nadie habla de privacidad o control social porque imaginan que este es un “caso bueno de control” o si simplemente porque recién se está corriendo el velo de las capacidades de vigilancia.

Links interesantes: en Wikipedia “Mainland China during the Wuhan Coronavirus Outbreak” y en Reuters: “Coronavirus brings China’s surveillance state out of the shadows” y En NY Times “China, Desperate to Stop Coronavirus, Turns Neighbor Against Neighbor

De patrones a significado en el lenguaje humano: como la AI se nutre de la diversidad

Si les interesa entender como la Inteligencia Artificial puede nutrirse de la diversidad les dejo este link más que interesante en SCMP donde se muestra como usar la logica del idioma chino junto a la del inglés le dió a Baidu la ventaja para destronar por un tiempo a Google y Microsoft en la tabla GLUE que es el benchmark “Entendimiento de Lenguaje Natural” en AI… y este párrafo es clave:

En inglés, la palabra sirve como unidad semántica, lo que significa que una palabra sacada completamente de contexto aún contiene significado. No se puede decir lo mismo de los caracteres en chino. Si bien ciertos caracteres tienen un significado inherente, como fuego (火, huŏ), agua (水, shuĭ) o madera (木, mù), la mayoría no lo hacen hasta que se unen con otros. El carácter 灵 (líng), por ejemplo, puede significar inteligente (机灵, jīlíng) o alma (灵魂, línghún), dependiendo de su coincidencia. Y los caracteres en un nombre propio como Boston (波士顿, bōshìdùn) o los EE. UU. (美国, měiguó) no significan lo mismo una vez separados.

Technology Review

En el post oficial de Baidu hay más datos pero lo interesante es ver como lograron pegar un salto gigante en evaluación gracias a unir la lógica de su lenguage (Chino) con la de los modelos previos (Inglés) incluyendo al del lider anterior en la tabla… BERT (desarrollado por Google en Inglés)

Y a mi me fascina porque esto es un gran ejemplo de diversidad; antes de BERT el análisis de lenguaje era unidireccional: esto es podia anticipar que palabra seguía a una o cual venia antes de otra… ¿Donde se ve claro? en el autocorrector de los teléfonos donde sugieren la palabra que sigue o en Word sugiriendo cambios para una palabra anterior a la que tipeaste y que cambia el sentido.

Cuando llega BERT, el sistema de Google, se empieza a analizar al mismo tiempo lo que viene antes y despues de una palabra para darle contexto al texto… y lo aprende usando una técnica que se llama “masking” esto es borrando el 15% de las palabras de un texto y luego tratando de predecir las que no están. Si, asi se entrena un algoritmo, prueba y error.

Cuando Baidu lanza ERNIE lo que hace es tomar la logica del chino y en vez de borrar UN caracter o UNA palabra empieza a borrar bloques de palabras para entender el contexto de bloques de palabras y asi generar algo que antes no se podía hacer que buscar significado en vez de patrones de uso y eso es clave en nuestra comunicación!

¿Que le sigue a esto? conocimiento persistente y progresiones lógicas. Esto en términos simples, entender que signigica el “eso” o “como decía antes” y asociarlo al significado para lograr entendimiento comunicacional real.

Que grandes momentos estamos viviendo… les dejo el link al paper en ARVIX para que se diviertan un poco leyendo el modelo

Un vehículo autónomo de Pronto.ai atraviesa USA sin intervención humana

Finalmente Anthony Lewandowski, el ingeniero en medio del juicio entre Uber y Waymo por robo de secretos industriales, hace público su nuevo proyecto de vehículos autónomos que es una evolución de Otto el add-on para camiones del que hablamos hace más de 2 años ahora llamado Pronto.AI y que acaba de lograr un viaje costa a costa sin intervención humana.

El acercamiento de Lewandowski es realmente bueno y me gustó siempre porque busca ir a un nivel de manejo más cercano con la tecnología actual y manteniendo el precio bajo mientras suma datos para entrenar redes neuronales… básicamente pone más fuerza en el software que en el hardware que estamos viendo.

Para explicarlo de forma más simple:

  • No busca un sistema de manejo completamente autónomo (nivel 4) sino un sistema “copiloto” donde la intervención humana es requerida para supervisión(nivel 2)
  • Eso le permite evitar hardware tipo LiDAR e integrado en el auto, y usando más fuerza en machine learning para que el sistema aprenda a manejar basado en ML en vez de en reglas desde cero.
Continuar leyendo “Un vehículo autónomo de Pronto.ai atraviesa USA sin intervención humana”