Inteligencia Artifical

Weeklog (Dumping links): AI, ChatGPT y mas

Algunos links interesantes que encontré o estuve leyendo sobre Inteligencia Artificial, OpenAI, ChatGPT y hasta costos de infraestructura; no es un week-log en realidad pero... quizas es una buena forma de volver a escribir ;)

From now on, the [gross margin] of search is going to drop forever.

Satya Nadella, Microsoft CEO
| Inteligencia Artifical Week-Logs
Tags:
innovación links

AI y el sentido común

Al escribir algo de AI o cuando estoy tratando de usar sentido común para explicar algo hablo con Diego Basch para ver si pasa su filtro; pero la realidad es que el el "sentido común" es tan dificil de definir que es en esos puntos donde termino haciendo agua... y por eso me parecio maravillosa esta entrevista con Yeichin Choi

¿como definimos lo que es "entender"? ¿como definimos lo que es "saber"? ¿cuales son las excepciones? ¿como las manejamos? ¿como las definimos? ¿como interactuamos nosotros con el contexto que rodea la información?

Yeichin Choi, Computer Scientist, 2022 MacArthur Fellow, Seattle, WA

Yeichin Choi usa el mismo ejemplo que me viene a la cabeza cuando me dicen "OpenAI no entiende lo que le pregunto" o "Google Bard comete errores de nene" ¿pueden las aves volar? nuestra respuesta automática es "si" pero la realidad es que la respuesta es "generalmente si" y ese "generalmente" depende del contexto de la pregunta.

”Commonsense is the dark matter of intelligence. We know it’s there, and we all rely on it effortlessly, yet it has been notoriously hard to pin down, especially for machines. My research seeks to tackle this longstanding challenge in AI (artificial intelligence) by teaching machines to reason about the likely causes and effects of everyday events and the likely intents and mental states of people in relation to those events.”

Jeichin Yoi en la MacArthur Foundation

Pero más alla de esto que es clave ¿como definimos el sentido común? la entrevista revisa el concepto de value pluralism o las diferentes verdades a las que nos enfrentamos y como esas verdades, hoy explícitamente, toman en cuenta valores morales.

These rules basically cannot be written down as universal truths, because when applied in your context versus in my context, that truth will have to be bent. Moral rules: There must be some moral truth, you know? Don’t kill people, for example. But what if it’s a mercy killing? Then what?

| Inteligencia Artifical
Tags:
innovación inteligencia artificial Rants Yeichin Choi

El incentivo de innovar y el costo de no hacerlo

Fue Steve Jobs el que dijo "If you don't cannibalize yourself, someone else will." y creo que por eso la acción de Google cayó un 9% en un solo dia cuando apuró un evento de AI y no porque "hubo un error en una demo".

Lo que el análisis de 280 caracteres resume en "Google perdió un 9% porque una demo salió mal" es no entender el porque Google no habia presentado hasta ahora una interfaz conversacional como ChatGPT para aumentar los resultados: esto cambia la dinamica de negocio y no hay incentivos para innovar si canibalizas tus ingresos mientras cambia tu estructura de costos

  • La estructura de costos de una interfaz conversacional sobre inteligencia artificial es diferente a la del modelo actual de los buscadores (aka: 10 blue links).
  • El modelo de ingresos cambia radicalmente versus la actual integracion de links de anuncios arriba y abajo de los resultados en varios sentidos:
    • La interfaz es diferente entonces el espacio "above the fold" cambia; la integracion/mezcla de SERP/SEO cambia
    • pero mas estratégico es que el usuario ahora espera algo mas que "un link con la informacion" y nadie hizo pruebas a escala de esos nuevos modelos.

Pero entonces ¿con tantas preguntas porque el mercado le pego a Google este golpe que borró $100b en una hora? porque esperaban que se presente algo parecido al nuevo Bing que presentó Microsoft y Google no lo hizo... repito: no lo hizo porque pese a tener talento y tecnologia no tenia incentivos para probar algo que pudiera canibalizar su modelo de negocios por eso hay otro jugador, Microsoft, probando cosas nuevas.

¿Porque hablo de Microsoft si empece hablando de la caida de 9% en un dia de $GOOG o citando a Steve Jobs? porque la realidad es que en algun momento todos los negocios necesitan cambiar... y los mejores ejemplos son los dos "abuelos" del mercado de las Big Tech: Apple y Microsoft tienen 47 años y ya sufrieron reinvenciones.

Apple presento el iPhone en 2007 sabiendo que iban a volver obsoleto al iPod aun cuando era el motor de su crecimiento; Microsoft se enfoco en la nube aun cuando era su core eran los servers... "If you don't cannibalize yourself, someone else will."

Enter Satya y su experiencia en canibalizarse antes que lo canibalice otro, que explica MUY bien en su entrevista con The Verge sobre "The New Bing":

Like all things, one of the things that I think about is, in platform shifts, two things have to happen. You have to retool pretty much every product of yours, so you’ve got to rethink it, whether that’s the way you build it or what its core features are. It’s like how Microsoft had to pivot for the cloud to rethink exchange. It was not an exchange server. It was exchange as a service or what we had to do with our server infrastructure. We had to rebuild, essentially, a new core stack in Azure. So every time, with transitions, you have to essentially rewrite it. That’s how I think about it. The second thing is you also have to think about the business model. Sometimes these transitions are pretty harsh. I’ll tell you, the last transition from having the high share server business with great gross margins to saying, “Hey, the new business is called cloud, and it’s going to have one-fourth the margins” as the new news was pretty harsh, but we made it.

Satya Nadella explicando las dos caras de un cambio de paradigma.

Pero ¿hace bien el mercado en apostar contra Google? honestamente no lo creo... Google tiene el talento, tiene el market share y sobre todo tiene a Chrome y Android para apalancar todo; ojala hoy tengan algo de miedo y dejen de alocar experimentos interesantes como Google Duplex a una parte de Assistant.

| Estrategias Inteligencia Artifical
Tags:
Bard chatgpt Google innovación inversiones Microsoft openai

OpenAI, Anthropic y POE

Me pareció interesante el lanzamiento de Quora, POE o “Platform for Open Exploration” es su AI conversacional usando OpenAI y Anthropic como motor para encontrar contenido con dos enfoques diferentes pero sin entrenarlo con su contenido porque todavía no esta claro como impacta en propiedad intelectual y saben que no hay precisión fáctica... sabiendo que quieren construir un ecosistema sobre este.

(1) Dos modelos en un producto ¿porque Quora usa dos motores y cuales son las diferencias entre OpenAI y Anthropic? Por las dudas explico algo básico; cada modelo tiene su propio entrenamiento, cada modelo se optimiza para cosas diferentes y, estoy seguro que a medida que aparezcan mas opciones veremos cosas muy diferentes (eg: un modelo entrenado en el "cespool of hate" que es Twitter seguro sale racista pero sin duda va a estar optimizado para engagement) lo bueno de esto es que uno puede elegir.

Por ejemplo, por la base de sus decisiones, OpenAI no tiene acceso a eventos posteriores a 2021 y Anthropic no responde ciertas preguntas (honestamente no se cuales son esos lineamientos) entonces cuando instalas POE y elegís entre Sage, Claude o Dragonfly... en realidad estas eligiendo bots entrenados por esas modelos y atados a esas limitaciones...

Por esas mismas limitaciones, que incluyen los sesgos de entrenamiento, las limitaciones de dataset y sobre todo que no están entrenados para certeza es que NO se integran en Quora sino que se mantiene como un "extra" para experimentar... de ahi su nombre: “Platform for Open Exploration”

(2) una comunidad para refinar preguntas y resultados Y acá viene lo interesante de Quora, no solo podes elegir el modelo, sino que podes crear un perfil y seguir a otros usuarios que esten usando POE y puedas usar sus "prompts" para hacerles sintonía fina y vayan mejorando... con algo de suerte una comunidad de varios cientos de millones ayudaran a mejorar el modelo con el ida y vuelta que genera su uso.

(3) una api para crear ecosistema Ah, si sos developer... Quora está preparando una API para que puedas integrarlo en tus aplicaciones o crear algo nuevo desde cero en ese ecosistema. Que es lo que, en última instancia, los va a separar del resto y le da sentido a la frase que uso el CEO en el anuncio:

Over time, we hope to become the most efficient way for people to collectively explore the possibilities opened up by new AI models as they are released. 

Adam D'Angelo: POE

Pueden descargar POE para iOS en este link

| Estrategias Inteligencia Artifical
Tags:
inteligencia artificial quora Redes Sociales Superinteligencias

AI en Medios: una carrera de algoritmos, modelos y transformers

OpenAI o ChatCGT son todo lo que los fundadores de Demand Media hubiesen soñado; una herramienta capaz de crear miles de notas a una velocidad increíbles y donde la calidad del output es capaz de lograr clicks en publicidad y nada mas... ¿estoy exagerando?

El modelo de negocios de Red Ventures es directo y explícito: publica contenido diseñado para posicionarse alto en la búsqueda de Google para consultas de "alta intención" y luego monetiza ese tráfico con lucrativos enlaces de afiliados. Específicamente, Red Ventures ha encontrado un nicho importante en las tarjetas de crédito y otros productos financieros. Además de CNET, Red Ventures es propietaria de The Points Guy, Bankrate y CreditCards.com, todos los cuales se monetizan a través de tarifas de afiliados de tarjetas de crédito.

The Verge

En esa sola frase se explica el modelo de las content-farm y se explica porque hay 3 factores que las hacen inevitables en Internet:

  • el costo de publicación es marginal: desde el nacimiento de Links.net hasta el imperio de WordPress, el costo de publicación no deja de bajar. Poner contenido frente a los ojos de la gente es casi gratis.
  • el costo de creación baja constantemente: empresas como Demand Media (los menciono porque los conocí y porque me los acuerdo) siempre encontraron formas de hacer clearing de costos; pagar lo menos posible por palabra pero inundando de su contenido las paginas de resultados de los buscadores.
  • el costo de exposición se mantiene alto: ¿que determina que un articulo lo vea gente? algoritmos. Desde Pagerank de Google hasta FYP de TikTok... estas son las claves de diferenciación y llegada a los consumidores. Es una carrera armamentistica contra los cancerberos de las audiencias.

Esto es literalmente lo que hace que los "Transformers" de Inteligencia artificial sean ideales: ¿que mejor que reemplazar a cientos de manos baratas que un algoritmo donde haya que decirle, literalmente: "escribe un articulo sobre (incluir tema que sepas que tiene poca competencia en Google) en 10 variaciones de estilo" cientos de veces por hora? si automáticamente se publica en internet con links o publicidad y te genera centavos :)

Nota: un transformer es cualquiera de estos algoritmos que al consumidor final le parecen mágicos. Dall-E, ChatGPT, Midjourney y asi. Nacieron imaginadas como transformadores de un texto de un idioma a otro.. solo que de un idioma a otro, termino siendo algo mas que solo texto a texto :)

Y asi llegamos a uno de los grandes problemas de estas herramientas ¿es el usuario promedio capaz de detectar qeu contenido lo creó un periodista y cual una herramienta de inteligencia articificial? No. Hay decenas de estudios que llegan a la misma conclusion: No se demostró que los lectores, consistentemente, puedan distinguir un articulo de otro. Lo que nos dispara al segundo problema ¿si los humanos no logran distinguirlo, pueden otros algoritmos hacerlo? Claro que pueden y asi es como llegamos a una carrera armamentistica entre algoritmos, modelos e IA.

Pronto esto va a ser un estándar.

Un modelo de IA escribe una nota pensada para lograr alto posicionamiento en Google; otro modelo toma esa nota y le inserta publicidad de texto pensada para lograr clicks de usuarios; se publica en un dominio... que google lee, analiza con otro modelo de posicionamiento pensado para descartar contenido de mala calidad o automático, lo ranchea de acuerdo a eso; el sistema del medio analiza porque de donde vienen las visitas con un producto de analytics que le de insights de que funciona y que no, ese resultado entrena al primer modelo que mejora y vuelve a comenzar el mismo proceso mientras Google sigue entrenando al suyo para sacarle visibilidad a esos artículos y asi sucesivamente... mientras tanto los periodistas se siguen indignando pero cada dia le quedan menos pageviews para quejarse.

Y nosotros... consumiendo redes social.

| Inteligencia Artifical Medios
Tags:
Analytics inteligencia artificial medios de comunicacion modelos de lenguaje

Coronavirus y la vida en un Estado de vigilancia

Cuando el coronavirus arrancó y las noticias hablaban sobre cómo el gobierno chino estaba conteniendo la expansión, pocos se dieron cuenta que este es un momento ideal para entender el concepto de "Estado de Vigilancia" o "Surveillance State".

Porque a la campaña de control social tradicional que se aplicó -puertas marcando familias con infectados y hasta recompensas por la información de paraderos de personas originarias de las ciudades del virus ( Hubei, Yueyang, Hunan y Xinyang)- se le sumó la vigilancia tecnológica de China que uno conoce por arriba, pero que tiene ahora aplicaciones impensadas, como por ejemplo:

  1. Cámaras remotas capaces de identificar personas con temperatura un poco más alta de lo normal en medio de una multitud; un algoritmo de reconocimiento facial que puede correr aun cuando usen máscaras para respirar y enviar el dato a la policía, en tiempo real, con geo-posicionamento, para intercepción y contención.
  2. Identificar a una persona sin permiso de viaje en un transporte público, aún usando una máscara, y automáticamente notificar a las personas que están cerca de forma física mediante una notificación en sus móviles... y sumarlos a la base de datos de potenciales portadores.

Mientras algunas personas hablan de ratios de contagio del coronavirus, de mortalidad o de expansión o la comparan con enfermedades históricas, me pregunto si toman en cuenta estas capacidades modernas de identificar, aislar y contener movimientos de ciudades enteras en días. No creo que haya un Estado con tanto poder sobre sus ciudadanos como la China de hoy en día.

Mientras BlueDot roba titulares porque, incorrectamente, decía que la IA había predicho el coronavirus, me pregunto si en este caso nadie habla de privacidad o control social porque imaginan que este es un "caso bueno de control" o si simplemente porque recién se está corriendo el velo de las capacidades de vigilancia.

Links interesantes: en Wikipedia "Mainland China during the Wuhan Coronavirus Outbreak" y en Reuters: "Coronavirus brings China's surveillance state out of the shadows" y En NY Times "China, Desperate to Stop Coronavirus, Turns Neighbor Against Neighbor"

| Inteligencia Artifical Seguridad
Tags:
Coronavirus privacidad Seguridad

De patrones a significado en el lenguaje humano: como la AI se nutre de la diversidad

Si les interesa entender como la Inteligencia Artificial puede nutrirse de la diversidad les dejo este link más que interesante en SCMP donde se muestra como usar la logica del idioma chino junto a la del inglés le dió a Baidu la ventaja para destronar por un tiempo a Google y Microsoft en la tabla GLUE que es el benchmark "Entendimiento de Lenguaje Natural" en AI... y este párrafo es clave:

En inglés, la palabra sirve como unidad semántica, lo que significa que una palabra sacada completamente de contexto aún contiene significado. No se puede decir lo mismo de los caracteres en chino. Si bien ciertos caracteres tienen un significado inherente, como fuego (火, huŏ), agua (水, shuĭ) o madera (木, mù), la mayoría no lo hacen hasta que se unen con otros. El carácter 灵 (líng), por ejemplo, puede significar inteligente (机灵, jīlíng) o alma (灵魂, línghún), dependiendo de su coincidencia. Y los caracteres en un nombre propio como Boston (波士顿, bōshìdùn) o los EE. UU. (美国, měiguó) no significan lo mismo una vez separados.

Technology Review

En el post oficial de Baidu hay más datos pero lo interesante es ver como lograron pegar un salto gigante en evaluación gracias a unir la lógica de su lenguage (Chino) con la de los modelos previos (Inglés) incluyendo al del lider anterior en la tabla... BERT (desarrollado por Google en Inglés)

Y a mi me fascina porque esto es un gran ejemplo de diversidad; antes de BERT el análisis de lenguaje era unidireccional: esto es podia anticipar que palabra seguía a una o cual venia antes de otra... ¿Donde se ve claro? en el autocorrector de los teléfonos donde sugieren la palabra que sigue o en Word sugiriendo cambios para una palabra anterior a la que tipeaste y que cambia el sentido.

Cuando llega BERT, el sistema de Google, se empieza a analizar al mismo tiempo lo que viene antes y despues de una palabra para darle contexto al texto... y lo aprende usando una técnica que se llama "masking" esto es borrando el 15% de las palabras de un texto y luego tratando de predecir las que no están. Si, asi se entrena un algoritmo, prueba y error.

Cuando Baidu lanza ERNIE lo que hace es tomar la logica del chino y en vez de borrar UN caracter o UNA palabra empieza a borrar bloques de palabras para entender el contexto de bloques de palabras y asi generar algo que antes no se podía hacer que buscar significado en vez de patrones de uso y eso es clave en nuestra comunicación!

¿Que le sigue a esto? conocimiento persistente y progresiones lógicas. Esto en términos simples, entender que signigica el "eso" o "como decía antes" y asociarlo al significado para lograr entendimiento comunicacional real.

Que grandes momentos estamos viviendo... les dejo el link al paper en ARVIX para que se diviertan un poco leyendo el modelo

| Inteligencia Artifical
Tags:
AI natural language understanding

Un vehículo autónomo de Pronto.ai atraviesa USA sin intervención humana

Finalmente Anthony Lewandowski, el ingeniero en medio del juicio entre Uber y Waymo por robo de secretos industriales, hace público su nuevo proyecto de vehículos autónomos que es una evolución de Otto el add-on para camiones del que hablamos hace más de 2 años ahora llamado Pronto.AI y que acaba de lograr un viaje costa a costa sin intervención humana.

El acercamiento de Lewandowski es realmente bueno y me gustó siempre porque busca ir a un nivel de manejo más cercano con la tecnología actual y manteniendo el precio bajo mientras suma datos para entrenar redes neuronales... básicamente pone más fuerza en el software que en el hardware que estamos viendo.

Para explicarlo de forma más simple:

  • No busca un sistema de manejo completamente autónomo (nivel 4) sino un sistema "copiloto" donde la intervención humana es requerida para supervisión(nivel 2)
  • Eso le permite evitar hardware tipo LiDAR e integrado en el auto, y usando más fuerza en machine learning para que el sistema aprenda a manejar basado en ML en vez de en reglas desde cero.
Leer completa
| Inteligencia Artifical
Tags:
automatizacion IoT Levandowsky otto Pronto vehiculos autonomos