Noticias de privacidad

Jardines Vallados en AI: ChatGPT vs Claude vs Gemini

Los chatbots, ChatGPT o Gemini o Claude, son de la tecnologia que más rapido creció en la historia; literalmente cientos de miles de millones de dólares están siendo invertidos para que OpenAI, Anthropic o Google sean los ganadores de esta carrera y adquieran clientes lo más rápido posible; ¿la razón? una vez que empezás a usar un chatbot el lock-in para cambiar a otro es gigante y no lo vas a querer hacer.

Primer ¿Qué es lock-in? En el contexto de la tecnología, lock-in es la dependencia que se genera hacia un proveedor o producto, dificultando cambiar a una alternativa como el cambiar de iPhone a Android o de Windows a Mac. En el caso de los chatbots de IA –especialmente ChatGPT (OpenAI), Claude (Anthropic) y Gemini (Google)– existen mecanismos que fomentan esta fidelidad forzada y lo interesante es que podemos dividir en 3 contextos el lock-in en estos productos: (a) técnico, (b) producto y (c) el de uso.

Lock-in técnico (dependencia de la tecnología)

En el plano técnico, esto es más relevante para usuarios B2B (o sea, no finales) los tres modelos son cerrados y propietarios, lo que implica que dependes de la infraestructura y avances del proveedor:

  • ChatGPT (OpenAI): Funciona con modelos como GPT-4 que no son de código abierto, accesibles solo a través de la API o la interfaz de OpenAI. Si construís soluciones o flujos de trabajo basados en GPT-4, migrar a otro modelo requeriría re-desarrollar integraciones y puede implicar perder la calidad o afinación específica lograda. Por ejemplo, muchas empresas han incorporado la API de ChatGPT en sus productos; salir de ahí supone re-entrenar modelos alternativos o aceptar resultados diferentes. Además, OpenAI ofrece opciones de fine-tuning (ajuste fino) en algunos de sus modelos: una vez que entrenas GPT con datos propios, ese ajuste no es portátil a otros sistemas, incrementando la dependencia técnica.
  • Gemini (Google): Es la familia de modelos de lenguaje de Google (evolución de PaLM y de Bard). Al igual que ChatGPT, es un servicio cerrado en la nube de Google, sin opción de auto-hospedaje. El acceso suele ser mediante la app de Gemini (antes Bard) o APIs de Google. Esto crea lock-in porque cualquier solución construida sobre Gemini queda atada a Google Cloud y a sus condiciones. Además, como Google utiliza hardware optimizado (TPUs) y una integración profunda con su ecosistema, se dificulta replicar la solución fuera de su plataforma, así que quienes dependen de su capacidad (por ejemplo, en multi-modalidad o en comprensión de consultas complejas) se ven obligados a seguir usando los servicios de Google.
  • Claude (Anthropic): También es un modelo propietario ofrecido a través de API y aplicaciones asociadas (como la integración nativa en Slack o la plataforma web de Anthropic). Un ejemplo, Claude destacó por innovar en el tamaño de la ventana de contexto –pudiendo manejar hasta 100,000 tokens en Claude 2– lo que significa que puede leer documentos o conversaciones muy extensas. Si tu caso de uso aprovecha esa capacidad (por ejemplo, cargar informes largos para análisis), puedes quedar bloqueado en Claude porque otros bots (hasta hace poco) no manejaban tanto contexto. Nuevamente, al no ser open-source, no es posible llevar el modelo fuera de Anthropic. Así, a nivel técnico, los tres chatbots generan un lock-in similar: utilizan modelos de IA exclusivos y nativos de cada proveedor, obligando a permanecer en sus plataformas para mantener el mismo rendimiento.

Lock-in de producto (ecosistema y funcionalidades)

Cada servicio de chatbot construye funciones y ecosistemas en torno al modelo base, lo que refuerza la lealtad del usuario al producto:

  • ChatGPT: OpenAI ha convertido ChatGPT en una plataforma con características únicas. Por ejemplo, introdujo un ecosistema de plugins donde el chatbot puede conectarse con servicios de terceros (buscador de vuelos, bases de conocimiento, herramientas como Wolfram Alpha, etc.), ampliando enormemente lo que puede hacer. Estos complementos resuelven tareas dentro de ChatGPT, evitando que el usuario salga a otras apps. Asimismo, OpenAI agregó capacidades multimodales: ChatGPT puede analizar imágenes y voz, integrando funcionalidades que antes requerían herramientas separadas. También funciones como Code Interpreter (ahora llamado “Advanced Data Analysis”) permiten ejecutar código y procesar archivos dentro de la misma interfaz de chat. Todas estas facilidades hacen que el usuario encuentre en ChatGPT un “todo en uno”, dificultando reemplazarlo con otro bot que no tenga un repertorio de plugins o características equivalente.
  • Gemini (Google): La estrategia de Google para Gemini (y Bard) es apoyarse en su amplio ecosistema de servicios. Gemini está integrándose con las aplicaciones de Google que millones de personas usan a diario. Por ejemplo, con las Extensiones de Bard/Gemini, el asistente puede extraer información de Gmail, Google Drive, Maps, YouTube y otras apps directamente dentro de la conversación . Esto significa que un usuario de Gmail o Docs puede pedirle a Gemini que encuentre un correo específico, resuma un documento de Drive o planifique un viaje con datos de Maps, todo sin salir del chat. Este nivel de integración es un poderoso lock-in de producto: si tu vida digital está en Google (correo, fotos, documentos, calendario), es muy tentador usar el chatbot nativo que “habla” con esas apps. Gemini con personalización incluso usa tu historial de búsquedas de Google para dar respuestas adaptadas a tus intereses , y Google planea conectarlo también con Fotos y YouTube . En conjunto, Gemini se vuelve una pieza central del ecosistema Google –un asistente personal omnipresente– del que es difícil salir sin perder comodidades.
  • Claude: Anthropic, aunque más nuevo en el plano de producto de consumo, ha buscado nichos específicos para Claude. Un factor importante es la integración empresarial: por ejemplo, Slack incorporó a Claude como parte de sus herramientas (Slack GPT), lo que atrae a equipos de trabajo a usar Claude dentro de su flujo laboral. Si tu empresa comienza a usar Claude en Slack para asistencia en canal, quedas ligado a ese entorno. En cuanto a funcionalidades diferenciadoras, Claude ofrece estilos personalizables (Anthropic introdujo Claude Styles a fines de 2024 para ajustar la personalidad o tono del bot) . Sin embargo, en general Anthropic ha mantenido una interfaz más sencilla. No tiene, por ahora, un sistema de plugins tan amplio ni capacidades multimediales visibles al usuario común. Su ventaja de producto recae más en la experiencia de conversación (se percibe amistoso y bueno en tareas creativas) y en límites más amplios (contexto extenso, respuestas más largas), lo cual fideliza a usuarios que necesitan esas cualidades. Aun con menos “campanas y silbatos” que ChatGPT o Google, Claude genera lock-in si has adaptado tu flujo de trabajo a sus puntos fuertes (ej. cargar grandes documentos, uso en herramientas como Notion o Slack mediante API).

Lock-in de uso (memoria, personalización y datos del usuario)

Captura: Ajustes de memoria en ChatGPT. La IA va recordando detalles proporcionados por el usuario para personalizar futuras respuestas (por ejemplo, preferencias de formato, datos personales mencionados, etc.). Este perfil almacenado hace que mientras más uses ChatGPT, más se adapte a ti, fortaleciendo el lock-in .

El lock-in más sutil –y quizás más poderoso– surge del historial de uso y la personalización. A medida que interactúas con el chatbot, este puede aprender sobre tus preferencias, contexto y necesidades, creando un perfil que enriquece las siguientes respuestas. Cada servicio ha implementado esta idea de memoria de manera diferente:

  • ChatGPT: OpenAI introdujo la memoria activa entre conversaciones en 2024. Ahora ChatGPT puede referenciar todas tus conversaciones pasadas para darte respuestas más relevantes y personalizadas . Por ejemplo, recuerda que tienes una hija pequeña o que te gusta cierto estilo de resumen si se lo has mencionado, y aplicará ese contexto automáticamente en nuevas sesiones. Además, las instrucciones personalizadas permiten fijar datos o indicaciones persistentes sobre ti (rol, tono deseado, información clave) sin tener que repetirlas en cada chat. En conjunto, “mientras más usas ChatGPT, más útil se vuelve” porque cada nueva conversación se construye sobre lo que ya sabe de ti . Esto crea un fuerte lock-in de uso: después de semanas o meses, ChatGPT “te conoce” y cambiar a otro chatbot implicaría perder esa familiaridad. Hay que destacar que esta memoria es persistente y unificada: no distingue entre diferentes contextos o proyectos, lo que puede llevar a que detalles de un ámbito aparezcan en otro si no se tiene cuidado  . Aun así, desde el punto de vista de la fidelización, este perfil global anima a usar siempre la misma IA para no empezar desde cero en cada nueva plataforma.
  • Gemini (Google): Google, tras un periodo más conservador, ha incorporado recientemente funciones de memoria y contexto personal en Gemini. En 2024 permitía que el usuario le pida “recuerda que me interesa X”, pero desde agosto de 2025 ya recuerda detalles previos automáticamente si activas esa opción . Con la función Personal Context (Contexto personal) encendida, Gemini “aprende de tus conversaciones pasadas para brindar respuestas relevantes y a tu medida”  . Un ejemplo dado por Google: si antes hablaste con Gemini sobre ideas para un canal de YouTube de cultura japonesa, más adelante, al pedir nuevas ideas, te sugerirá algo relacionado (como comida japonesa) sin que tengas que recordárselo  . Asimismo, Gemini aprovecha datos de tu cuenta Google (p. ej. historial de búsquedas) para afinar respuestas a tus intereses . En esencia, Google busca construir un asistente personal inteligente completamente integrado a tu vida digital: “nuestra visión es un asistente de IA que aprende y te entiende verdaderamente”, dijo un director del proyecto . Esto evidentemente aumenta la dependencia: un usuario que habilita estos recuerdos en Gemini verá cómo el asistente cada vez le ahorra más contexto y le entrega respuestas a la carta, volviéndose difícil renunciar a esa comodidad. (Vale mencionar que Google activa esta personalización por defecto en ciertos países, aunque permite desactivarla ). En resumen, tu actividad previa en Google se convierte en valor añadido exclusivo de Gemini, cerrando la puerta a competidores que no pueden acceder a esos datos.

Captura: Búsqueda de conversaciones pasadas en Claude 2. El usuario pregunta “¿en qué estábamos trabajando antes de mis vacaciones?” y Claude localiza y resume el chat relevante. A diferencia de ChatGPT, Claude no mezcla contextos automáticamente: solo recupera aquello que se le solicita , evitando construir un perfil unificado del usuario.

  • Claude (Anthropic): La aproximación de Anthropic ha sido más enfocada en el control del usuario que en la proactividad. Durante mucho tiempo, Claude no guardaba memoria persistente entre chats –cada conversación era aislada–. En agosto de 2025 lanzaron una función de “Conversa y busca” que permite al usuario consultar conversaciones previas cuando lo necesite . Por ejemplo, puedes indicarle a Claude: “revisa lo que discutimos la semana pasada sobre el Proyecto X” y el sistema buscará en tus chats archivados para traer los detalles relevantes . Importante: “Claude solo recupera y referencia tus chats pasados cuando se lo pides, y no está construyendo un perfil de usuario según aclaró Anthropic . Es decir, no hay memoria automática cruzada; tú decides cuándo y qué recordar. Esto tiene dos caras para el lock-in: por un lado, ofrece menos personalización espontánea que ChatGPT o Gemini, lo que podría significar un vínculo menos fuerte (el usuario no siente que Claude “lo conoce” de manera profunda). Pero, por otro lado, algunos usuarios profesionales pueden preferir esta compartimentación. Claude introdujo el concepto de “memoria por proyecto”, donde los recuerdos no se mezclan entre distintos temas o clientes  . Esto evita filtraciones de información de un contexto a otro y da más confianza para usar la herramienta en entornos sensibles. Si tu prioridad es ese control, podrías volverte leal a Claude precisamente porque no te arriesga con memorias fuera de lugar. En síntesis, el lock-in de uso en Claude es más débil en términos de perfil personal global, pero Anthropic apuesta a fidelizar mediante la transparencia y seguridad: tú mandas sobre qué se recuerda y cuándo, y no tienes sorpresas de la IA sacando datos antiguos sin pedirlo . Aun con enfoques distintos, todos los proveedores reconocen que la memoria es clave para enganchar a los usuarios: “las funciones de memoria buscan atraer y mantener usuarios en un servicio, aumentando la ‘pegajosidad’” .

Antes era "interoperabilidad" ahora ¿podés llevarte tu contexto de un chatbot a otro?

La realidad actual es que no existe portabilidad fácil de un contexto personalizado entre distintas plataformas. Cada proveedor guarda tus datos de manera propietaria y no ofrece, por ejemplo, una exportación de “lo que la IA ha aprendido de mí” en formato estándar. Si quisieras cambiar de bot, prácticamente tendrías que empezar de cero o manualmente resumir y reenviar la información relevante.

Por ejemplo, ChatGPT permite ver y editar lo que recuerda de ti en sus ajustes de memoria, e incluso exportar tus conversaciones en un archivo, pero otro chatbot no sabría interpretar directamente esos datos para replicar el mismo entendimiento. De forma similar, Gemini podría estar usando tu historial de búsquedas y otros datos de Google –los cuales no puedes simplemente transferir a un rival, por privacidad y formato–. Claude, al no compilar un perfil único, te lo pone un poco más fácil en el sentido de que lo que necesita saber, tú se lo das explícitamente (y podrías dárselo igualmente a otro bot). Aún así, no hay una API universal ni estándar de “memoria de usuario” que permita llevar tu contexto personal de ChatGPT a Gemini o viceversa. Esta falta de portabilidad es deliberada hasta cierto punto: como vimos, la memoria y personalización son ventajas competitivas y mecanismo de lock-in. Cada empresa quiere que los beneficios de “conocerte bien” se queden dentro de su producto.

¿Y Meta AI?

Aunque Meta también lanzó su propio chatbot, no lo incluimos en este análisis por dos motivos principales:

  1. Nivel de adopción: hoy Meta AI está principalmente integrado en productos como Facebook, Instagram o WhatsApp, pero su alcance como asistente independiente es todavía limitado comparado con ChatGPT, Gemini o Claude.
  2. Estrategia distinta: Meta apuesta a modelos abiertos como Llama para impulsar su IA. Su jugada es más bien construir un ecosistema de desarrolladores y empresas que adopten su tecnología, en lugar de generar lock-in sobre un único asistente centralizado con memoria y personalización.

En otras palabras, la competencia de Meta es más horizontal (distribución de modelos abiertos) que vertical (chatbot con lock-in directo), y por eso este post se centra en quienes hoy disputan el lock-in de los usuarios finales.

Los chatbots de IA más avanzados están desplegando una combinación de estrategias para mantenernos enganchados en sus plataformas. En lo técnico, nos atan con modelos potentes pero propietarios y difíciles de reemplazar. A nivel de producto, nos seducen con integraciones y funciones exclusivas (ya sean plugins, acceso al ecosistema Google, o contextos gigantes para manejar nuestros datos). Y mediante el uso continuado, construyen una relación cada vez más personalizada –ya sea mediante un perfil unificado como ChatGPT/Gemini, o con memorias controladas por el usuario como Claude– que hace que cambiar de chatbot se sienta como retroceder.

Como usuarios o creadores de contenido, es importante ser conscientes de estos lock-ins. Disfrutar de la conveniencia de que “mi chatbot ya sabe lo que quiero” es genial, pero implica confiar nuestros datos y preferencias a un silo específico. Por ahora, mover nuestro “yo digital” de una IA a otra no es sencillo, así que elegir con cuál casarse no es trivial. La competencia entre OpenAI, Anthropic y Google está llevando a rápidos avances –todos han acelerado en incorporar memoria y personalización – lo que beneficia al usuario en funcionalidad. Pero también refuerza que cada uno quiera ser “el asistente del que no te puedes desprender”.

En última instancia, un posible camino para aliviar el lock-in sería que aparezcan estándares abiertos o asistentes locales que permitieran portar nuestras instrucciones y datos de contexto de forma privada. Sin embargo, hoy por hoy, si inviertes tiempo en un chatbot, tiendes a quedarte con él por inercia y beneficio acumulado.

Este es un mercado donde habrán pocos ganadores y por eso cada uno quemando decenas de miles de millones de inversores; porque una vez elegido es muy dificil que lo dejes; la elección racional seria: "elegir aquel que se alinee con tus valores (privacidad, control) y necesidades, sabiendo que cambiar de barco más adelante tendrá sus costos" pero ¿como lo podrías saber si ni siquiera creo que lo sepan ellos mismos?

| Inteligencia Artifical
Tags:
Anthropic Google IA innovación inversiones openai privacidad

Cloudflare y los limites del discurso en Internet

"Recién bloqueamos a KiwiFarms" publico el CEO de Cloudflare en un mensaje que pareció una claudicación al pedido de usuarios de internet pidiendo que le cancelen el servicio de protección a Kiwifarms, un foro que ataca a personas trans; pero esto abre mas interrogantes que respuestas porque nada es lineal en Internet.

Cloudflare es una plataforma de protección anti DDoS, básicamente evita que un sitio sea "apagado" por un ataque donde se simula que millones de usuarios están queriendo accederlo para que los usuarios reales no puedan verlo, y hoy protegen al 20% de internet... y aunque la respuesta les parezca fácil como twittear "Discriminatorio!!!" les pido que piensen estos preguntas antes de responder:

Leer completa
| Derechos
Tags:
infraestructura libertad de expresión privacidad

Tus privacidad en iOS cuesta 15b al año

Cuando Apple introdujo ATT, el sistema de "privacidad" en iOS14.5, comenzó una gran campaña sobre Apple defendiendo tu privacidad. Esos 15.000 millones de dólares al año es lo que pierde anualmente Facebook por esa implementación; también esos 15.000 millones de dólares al año es lo que paga Google a Apple anualmente para poder ser el buscador por defecto en Safari y... no tener problemas de tracking. ¿Lo interesante? Apple trató de convencer a Facebook de hacer una versión paga de sus servicios y cobrar una comisión justo antes de lanzar ATT.

"Every day, we meet and collaborate with developers of all sizes to make suggestions, address concerns, and help them continue to grow their businesses"

Apple spokesman

Sin entrar en teorías raras, si uno se sienta un par de minutos a analizar los modelos de negocios de las 3 empresas que estamos viendo ($AAPL, $META y $GOOG) vemos algunas pistas que la privacidad estuvo en venta desde el momento en que Apple decidió enfocarse en aumentar sus ingresos por servicios y dejar de depender del hardware para empujar sus ingresos.

  • En 2017 Tim Cook promete duplicar ingresos de servicios por el estancamiento de su unidad de hardware y comienzan las negociaciones con Facebook.
  • En 2018 se lanza un update en Safari que bloquea el tracking de usuarios entre sitios de diferentes dueños.
  • En 2019 los ingresos de hardware de Apple caen por primera vez.
  • En 2020 se anuncia App Tracking Transparency (ATT)  y se cierran las negociaciones con Facebook. Se descubre (gracias al juicio de Epic Games) un acuerdo secreto por el que Google paga a Apple miles de millones por estar en Safari como buscador predeterminado (sin limitaciones de tracking).
  • En 2022 Facebook registra una caída de ingresos publicitarios por primera vez en su historia y la acción de Snap cae un 25% como consecuencia de eso.
Leer completa
| Apple
Tags:
Apple facebook Google privacidad

Reconocimiento Facial: una batalla perdida

Interesante nota en NYT sobre Fawkes y algunos papers de de-identificación muestran los esfuerzos que se están haciendo para evitar que los sistemas de reconocimiento facial nos identifiquen pero en esta carrera armamentística la capacidad de volvernos anónimos esta perdida.

Vamos por partes, las imagenes izquierdas y derechas de Jessica Simpson, Gwyneth Paltrow y Patrick Dempsey que nuestro cerebro identifica como de la misma persona, para un algoritmo tradicional genera problemas y es interpretada como un objeto diferente porque se rompe alguna de las caracteristicas salientes de identificación.

La herramienta que genera estas modificaciones o "cloaking" (palabra que siempre asociaré a la tecnología romulana de las naves Klingon) se llama Fawkes y esta disponible para que la bajes y pruebes e imagines que vas a poder aplicarlo y evitar que Deepface, Rekognition, Azure Face API, Clearview y otros te reconozcan... ¿la realidad? no vas a tener éxito.

Los sistemas de reconocimiento facial trabajan analizando datasets de miles de millones de fotos, encontrando patrones y dando un resultado relevante atado a un dato que es el ID/nombre del objeto en la foto... por eso el resultado es un "reconocimiento" que es simplemente la unión de ciertos patrones.

Para ponerlo de otro modo, a un algoritmo el objeto del medio está marcado como Gwyneth Paltrow pero solo porque se lo entrenó para eso; si le dijeramos que el ID es "Goop Founder" la presentaría como eso y punto... el cerebro humano no trabaja de esa manera y la evaluación para identificación es más abarcativa y compleja.

¿Que pasa al usar estos algoritmos de anonimato como Fakwes y ver sus resultados online? le estás explicando a los algoritmos de reconomiento facial que "este objeto es Patrick Dempsey aunque el parámetro X sea difernte" y así entender que otras cosas analizar para identificarlo.

En definitiva, estos algoritmos públicos de "anonimización" solo sirven para entrenar a los algortimos de reconocimiento facial y mejorarlos.

El mejor ejemplo de eso son los algortimos usados en Wuhan durante el primer lockdown por el SARS-CoV-2 que aprendieron a trabajar e identificar caras abajo de ciertos tipos de mascarillas (las estándares celestes) porque empezaron a enfocarse en puntos distintivos en la parte superior de la cara (distancias y profundidad) pero tambien en las inclinaciones de la misma.

Básicamente estamos en una carrera armamentística donde el desbalance de poder entre los que desarrollan aplicaciones de reconocmiento facial y los que crean herramientas de anonimización es tanta que, a nivel tecnológico, la batalla está perdida.

Y el siguiente párrafo muestra el nivel de recursos que se necesita para implementar esto en video, al punto que el que lo hace es R&D de Facebook... quien siempre está interesado en nuestra privacidad ;)

We propose a method for face de-identification that enables fully automatic video modification at high frame rates.
The goal is to maximally decorrelate the identity, while having the perception (pose, illumination and expression) fixed.
We achieve this by a novel feed-forward encoder-decoder
network architecture that is conditioned on the high-level
representation of a person’s facial image. The network is
global, in the sense that it does not need to be retrained for
a given video or for a given identity, and it creates natural
looking image sequences with little distortion in time.

Live Face De-Identification in Video

¿Como lo resolvemos? En este punto solo con regulaciones y políticas claras de tratamiento de imágenes, ¿como se recolectan? ¿como se agregan? ¿como se analizan? ¿como se comercializan los datasets? ¿que algoritmos se aplican? aún así estamos en un punto donde si sos una persona de interés para un actor estatal no tenés como esconderte de forma simple o económica...

Solo espero que, la próxima vez que leas "Con esta herramienta gratuita podés evitar el reconocimiento facial" sepas que la ventaja durará el tiempo que los otros algoritmos se entrenen... y nada más.

| Derechos
Tags:
facial fawkes machine learning privacidad reconocimiento

Ley de Privacidad de ADN

Florida se convirtió en el primer estado de USA en regular la privacidad del ADN prohibiendo expresamente a las empresas de salud y aseguradoras acceder a los datos del ADN de una persona incluso por medio de terceras partes, esto es... las empresas de test caseros como 23 and Me.

La ‘House Bill 1189’ fue patrocinada por un senador republicano que al tener cáncer descubrió que ni HIPAA ni GINA evitan que esos datos personales se usen para las cláusulas y precio de los seguros de vida, discapacidad o enfermedades crónicas y por eso las aseguradoras promueven el uso de apps de test genéticos.

El uso de información genética, que para algunos es algo a largo plazo, es tan presente gracias a los tests caseros que:

  • En algunos estados, al momento de comprar un apartamento pueden pedirte que presentes un análisis de que no tenés predisposición al Alzheimer... los del consorcio!
  • Las leyes federales no prohiben el uso en los casos que resuelve esta nueva ley de Florida.
  • Ancestry y 23andMe pueden, y de hecho ya lo han hecho, compartir la información genética con las fuerzas policiales (y asi se atrapó a un asesino serial, porque compararon ADN de sospechosos y encontraron un pariente directo)

Y aunque desde hace ya un par de años sigo el tema, cada tanto aparece una empresa (médica o de seguros) que me aseguran que podrian bajar las primas gracias a la baja predisposicion a algunas enfermedades... lo que significa que podrían subirlas para otras, simplemente porque escupiste en un tarrito para hacer un test de ascendencia.

| Derechos
Tags:
adn genetica privacidad

Coronavirus y la vida en un Estado de vigilancia

Cuando el coronavirus arrancó y las noticias hablaban sobre cómo el gobierno chino estaba conteniendo la expansión, pocos se dieron cuenta que este es un momento ideal para entender el concepto de "Estado de Vigilancia" o "Surveillance State".

Porque a la campaña de control social tradicional que se aplicó -puertas marcando familias con infectados y hasta recompensas por la información de paraderos de personas originarias de las ciudades del virus ( Hubei, Yueyang, Hunan y Xinyang)- se le sumó la vigilancia tecnológica de China que uno conoce por arriba, pero que tiene ahora aplicaciones impensadas, como por ejemplo:

  1. Cámaras remotas capaces de identificar personas con temperatura un poco más alta de lo normal en medio de una multitud; un algoritmo de reconocimiento facial que puede correr aun cuando usen máscaras para respirar y enviar el dato a la policía, en tiempo real, con geo-posicionamento, para intercepción y contención.
  2. Identificar a una persona sin permiso de viaje en un transporte público, aún usando una máscara, y automáticamente notificar a las personas que están cerca de forma física mediante una notificación en sus móviles... y sumarlos a la base de datos de potenciales portadores.

Mientras algunas personas hablan de ratios de contagio del coronavirus, de mortalidad o de expansión o la comparan con enfermedades históricas, me pregunto si toman en cuenta estas capacidades modernas de identificar, aislar y contener movimientos de ciudades enteras en días. No creo que haya un Estado con tanto poder sobre sus ciudadanos como la China de hoy en día.

Mientras BlueDot roba titulares porque, incorrectamente, decía que la IA había predicho el coronavirus, me pregunto si en este caso nadie habla de privacidad o control social porque imaginan que este es un "caso bueno de control" o si simplemente porque recién se está corriendo el velo de las capacidades de vigilancia.

Links interesantes: en Wikipedia "Mainland China during the Wuhan Coronavirus Outbreak" y en Reuters: "Coronavirus brings China's surveillance state out of the shadows" y En NY Times "China, Desperate to Stop Coronavirus, Turns Neighbor Against Neighbor"

| Inteligencia Artifical Seguridad
Tags:
Coronavirus privacidad Seguridad

Facebook abre la puerta a los Deekfakes

Hace un tiempo, la estrategia de algunos partidos es subir a Facebook videos editados y distribuirlos lo máximo posible para lastimar a sus rivales a sabiendas que son mentira; Facebook lo sabe y tomó la decisión deliberada de permitir la distribución de esos videos sino agregarle un texto abajo diciendo que "de acuerdo a nuestras fuentes este video no es real"amparándose en su política de "sólo se borra si el que lo sube es una persona falsa"... vean este video de una portavoz defendiendo una estupidez:

Leer completa
| Derechos
Tags:
Derechos facebook fake news privacidad

Google y la privacidad en IO2019... otro jardin vallado

Con menos de una semana de diferencia Google y Facebook pusieron sus armas sobre la mesa y atacaron el tema de la privacidad de formas diferentes pero armando su jardín vallado y protegiendo sus ventajas competitivas frente al resto del ecosistema de publicidad online.

Mientras Facebook se puso defensivo pidiendo una regulación que le complique la vida a competidores pequeños, Google decidió mostrar que hay opciones para "cuidar la privacidad" y entonces presento varias cosas con pequeño impacto en su negocio y una que es una bomba para el resto: Chrome va a incluir tecnología que fuerce a los devs a pedir un opt-in explícito para usar en sitios de terceros aka: anti-fingerprint  pero...

Leer completa
| Publicidad Online
Tags:
cookies Google I/O privacidad

En F8 Facebook se puso en modo defensivo

Hace tiempo Facebook está siendo golpeado por usuarios, competidores y reguladores; que no pueden hacer mucho realmente por frenar su cultura ¿una multa de millones? tienen un free cashflow de 5bn por trimestre y unos 50bn en COH ¿una campaña como #deletefacebook? tienen WhatsApp e Instagram así que no van a lograr nada... ¿competidores? miren a Snap y entiendan como pueden destruirte y como Mark lo usa como técnica de negociación.

El futuro es regulado. Esa es su estrategia defensiva en tres actos.

Leer completa
| Redes Sociales
Tags:
competencia facebook privacidad

Facebook Portal y el valor de la confianza para entrar a tu hogar

Cuando Facebook presentó Portal, su asistente always-on con Alexa integrado, dije básicamente que era raro que alguien pensara seriamente en utilizar un equipo de una empresa que cada 3 meses tiene un problema de privacidad y luego pide disculpas en un bucle infinito... pero $FB previendo estas críticas decidió que cada dispositivo tenga un "camera cover provided" y que no se iban a usar datos para publicidad.

Una semana después hay una declaración oficial de Facebook diciendo:

“Las llamadas de voz de Portal están construidas en la infraestructura de Messenger, por lo que cuando realices una videollamada en Portal, recopilamos los mismos tipos de información (ej: datos de uso como la duración de llamadas, frecuencia de las llamadas) que recopilamos en otros dispositivos que usan Messenger. Nosotros podríamos utilizar esta información para informar los anuncios que te mostremos en nuestras plataformas. Otros datos de uso general, como el uso agregado de aplicaciones, etc., también pueden usarse para alimentar la información que utilizamos para publicar anuncios."

Leer completa

| Derechos
Tags:
alexa facebook privacidad smart home

¿Como monetizamos y manejamos la privacidad del ADN?

No tengo realmente claro como una empresa farmacológica como GSK comunica mejor que 23&Me el acuerdo entre ambas empresas; que incluye una inversión de $300 millones en 23&Me, identificación de subgrupos para tratamientos médicos específicos e investigación conjunta de drogas genéticas... en la base de datos del ADN que enviamos unos cinco millones de personas a 23&Me para ver nuestros patrones genéticos y de ascendencia.

Y acá les dejo unos pensamientos sueltos sobre el tema porque increíblemente estoy leyendo poco del tema en medios en españolLeer completa

| Derechos
Tags:
adn genetica privacidad

Dos personas se conocen en un avion y lo que sucedio luego no lo creerás!

Ayer una persona le pidio a otra cambiar de asiento asi podía viajar con su pareja, lo que sucedio no lo creerás pero básicamente Rosey Blair se dedicó a espiar a la persona que le cambió el asiento, publicó sus fotos sin consentimiento, se dedicó a calificar su aspecto físico y se viralizó tanto que la gente de Buzzfeed publicó el nombre de Euan Holden (el joven muy feliz de ser una celebrity por 15 segundos) y no consiguieron el nombre de ella.

Y mientras todos nos reimos y celebramos que en el mundo el amor triunfa, al punto que el CEO de T-Mobile le va a dar crédito gratis a la que relató todo me pregunto hasta que punto no se violó la privacidad de la parejita feliz, me pregunto hasta que punto está bien fotografiar, filmar y publicar lo que hacen dos personas sin que ellos lo sepan.

Me pregunto si la privacidad cuando "es con onda" es menos importante que en otros casos... o simplemente estoy "out of touch"

| Derechos
Tags:
privacidad

Facebook y Cambridge Analytica: sólo un síntoma de un problema más grande

Cuando The Guardian arrancó con las revelaciones sobre Cambridge Analytica usando datos de Facebook para influir en la campaña presidencial de Trump y comenzó todo el escándalo sobre la privacidad, preferí escuchar y ver cómo se iba desarrollando algo que tiene tantas aristas que gran parte de la cobertura es, cuando menos, parcial o desinformada.

Para arrancar me gustaría dejar en claro algunos puntos:

  • ¿Usó Cambridge Analytica tus datos privados? Hasta casi 2016 estos datos eran accesibles por la API de Facebook; luego de eso sinceramente no está claro si hubo acceso indebido.
  • ¿Qué hizo mal Cambridge Analytica con tus datos de Facebook, entonces? Venderlos a un tercero, en este caso la campaña de Trump que mostraba avisos perfilados.
  • ¿Cómo convirtieron los datos en un arma? Simplemente por volumen y aplicación de patrones psicológicos (esos que los programadores dicen que son irrelevantes), para luego convertidos en algoritmos para escalar.
  • Borraste Facebook. ¿Ya está? En realidad deberías dejar de usar Google, Android, Alexa y los permisos que les diste a todas esas apps antes de borrar todo.
  • Sin el uso de estos datos, la mitad de los servicios y apps que estás usando gratuitamente no existirían.

Esto no es nuevo, ya en 2009 escribí sobre el Gaydar Experiment, uno uno de los experimentos más provocativos, estúpidos y hasta discriminadores que conocí: definir tu sexualidad con sólo analizar tus contactos.  En 2011 se podía establecer una inclinación política en base a likes, y en 2015 se predecía el color de piel en base al mismo parámetro. Es decir que hace tres años con sólo tener acceso a los likes ya se podía perfilar tu sexualidad, el color de tu piel, tus preferencias políticas y tu posición frente a ciertos temas (armas, aborto, etc.) para mostrarte publicidad... incluso a tus amigos. Ninguna sorpresa acá, esto es el modelo de negocios de Facebook, Google y del ad-tech space.Leer completa

| Derechos
Tags:
datos personales facebook Google privacidad

Compartir tu ubicación, otra mina de oro

Pocas veces los usuarios tienen conciencia de la cantidad de datos que le entregan a los proveedores de servicios, en algunos casos con razón en otros casos de formas totalmente injustificadas. Uber hace un par de semanas comenzó a forzar a que compartas tu ubicación con la app aún cuando no la estés usando alegando que así pueden entender mejor cuales son tus patrones de conducta al momento de pedir un Uber y que solamente analiza los 5 minutos anteriores y posteriores al uso de la app.

Para que tengan una idea de la pérdida de privacidad que esto implica les recomiendo leer este párrafo de una demanda iniciada por ex-empleados donde se descubre que hay un "God-view" o "Heaven View":Leer completa

| Rants
Tags:
facebook geolocalizacion privacidad Redes Sociales Uber

Ik weet zoveel van jou... y ustedes tan poco de privacidad

Que un juguete sea capaz de interactuar con un niño al responder sus preguntas o comentarios es genial. 

Que un padre no sepa, al comprar ese juguete, que la voz de sus hijos es analizada en un servidor remoto y se convierten en datos susceptibles de ser utilizados para publicidad y explotación comercial con terceras partes es increíble.

"Ik weet zoveel van journey" significa "Te conozco tanto..." y está en la caja de los juguetes como si fuera una suerte de chiste sobre la falta de conocimiento que tienen las personas sobre su propia privacidad... y la de sus hijos.

Más en TNW

| Derechos
Tags:
privacidad

Suecia prohibe los drones con cámaras

La suprema corte de Suecia decidió prohibir el uso de drones con cámaras porque son potencialmente un aparato de vigilancia y por lo tanto solo pueden usarlas los policías o con un permiso especial para filmación que es uno de los permisos más caros que se conceden en ese país.

Es interesante porque las leyes suecas tan liberales en muchos campos son de las más estrictas en cuanto al tratamiento de la privacidad y aunque a nivel personal no esté de acuerdo con esta prohibición total de algo que tiene decenas de usos válidos debo reconocer que tiene cierta lógica en su argumento.

"the [drone] camera can be used for personal monitoring, although it is not the purpose. The camera is therefore to be regarded as a surveillance camera."

Y la lógica de esto, frente a la de permitir el uso de cámaras en cascos o autos (que se da en el mismo comunicado) es que básicamente uno extiende el alcance de lo que puede ver/vigilar más allá de nuestra línea de visión natural convirtiéndose en algo que potencialmente puede salir del dominio público e invadir espacios privados.

Una sola de las pequeñas batallas que se avecinan en el balance entre privacidad y libertad.

| Derechos
Tags:
drones privacidad

Peter Thiel y la peor cara de Silicon Valley 

Hoy leo en The Information una carta abierta a Peter Thiel sobre su nuevo ataque a los medios luego de haber logrado romperle la espalda a Gawker. Algo sobre lo que mi posición es bastante similar a la de Jessica Lessin y poco popular:

Esto no es una pelea por la libertad de expresión, es una pelea de millonarios con sus egos lastimados pero donde, le guste a quien le guste o no, un jurado encontró a un medio culpable de un delito (no, el chantaje por usar un escort gay que le hicieron al CFO de una empresa se cerró con un acuerdo) y ahora tiene que pagar, o apelar

Pero de ahí, un pelea personal donde uno puede dejar que un juzgado determine la responsabilidad de un medio o no, a hablar del peligro que los periodistas y medios son para la privacidad gracias a Internet hay un trecho gigantesco... sobre todo si miembro del consejo de Facebook!

“As an internet entrepreneur myself, I feel partly responsible for a world in which private information can be instantly broadcast to the whole planet.”

Apoyé la pelea contra Gawker, no apoyo su vendetta, no apoyo su devoción por Trump ni sus negocios con Palantir y el Pentágono... 

Pero Facebook debería tomar una posición cuando alguien habla de definir que es públicamente relevante para los medios y que se puede publicar o no, usando como excusa las prácticas de Gawker.

| Medios Rants
Tags:
Gawker peter thiel privacidad

Microsoft y las fronteras de la privacidad en la nube

Finalmente el Departamento de Justicia de Estados Unidos perdió el juicio contra Microsoft en el que le pedían que entregue emails y datos almacenados en los cloud services de Microsoft en servidores basados en otros países lo que, técnicamente, le pone fronteras a la nube y asegura la privacidad de acuerdo a las leyes que aplican en el país donde se almacenan los datos... una victoria para el concepto de cloud services, para Microsoft y una derrota para el DoJ estadounidense.

El post oficial de Microsoft es claro y directoLeer completa

| Derechos
Tags:
cloud services derechos digitales Microsoft privacidad

Tesla y los datos persistentes, otra potencial pesadilla

Si a algo no estamos acostumbrados es a la medición completa de nuestras actividades diarias; este caso de Tesla demostrando que un individuo no usó bien una función del Tesla Model S es la segunda, luego de destrozar a un periodista públicamente con datos privados del uso de su auto, vez donde se usan públicamente datos de una actividad que uno imagina privada.

"Los registros de vehículos confirman que la función automática SUMMON fue iniciado por una doble pulsación del botón selector de marchas, pasando de Drive a Park y solicitar la activación de SUMMON. El conductor fue alertado de la activación de SUMMON con un aviso sonoro y un mensaje emergente en la pantalla del centro de la pantalla táctil. En este momento, el conductor tuvo la oportunidad de cancelar la acción pulsando CANCEL en la pantalla del centro de la pantalla táctil; Sin embargo, el botón CANCELAR no fue pulsado por el conductor. En el segundo siguiente, el pedal de freno se liberó y dos segundos más tarde, el conductor salió del vehículo. Tres segundos más tarde, la puerta del conductor fue cerrada, y otros tres segundos más tarde, SUMMON activado de conformidad con la solicitud de doble pulsación del conductor. Aproximadamente cinco minutos, diez y y seis segundos después de la activación de SUMMON, la puerta del lado del conductor del vehículo se abrió de nuevo. El comportamiento del vehículo es el resultado de las propias acciones del conductor..."

Leer completa

| Derechos
Tags:
privacidad Tesla

Dejo de usar AdBlockers si dejás de trackearme

Este twitt de @carlosdomingo muestra parte del problema gracias al cual los adblockers tienen sentido para todos, entiendo que una empresa de medios debe generar ingresos para sobrevivir, vamos... en la empresa-que-me-borró-de-su-historia vivíamos de eso pero creo que nunca llegamos a este tipo de invasión que va más allá de un banner mas o menos en mi pantalla.

Hagamos de cuenta que el ancho de banda no es un problema, hagamos de cuenta que no me molesta ver un intersticial y un banner y un desplegable y un roll-over para llegar al contenido, hagamos de cuenta que no tengo problema en pagar 4USD/mes para ver una versión de tu sitio sin publicidad, hagamos de cuenta que no me molesta que los desarrollan herramientas "anti-adblockers" son paladines de la libertad de prensa...

Les propongo a los medios que me ofrezcan un plan donde yo elija una suscripción mensual no de 4USD sino de 8USD o 15USD pero los medios se comprometen a NO trackearme de ninguna manera, remover todo script que pueda definir que soy un hombre de 44 años, casado, viviendo en Madrid y Buenos Aires que compra viajes, maletas, bolsos, relojes y zapatillas como TOC... ¿estoy pidiendo mucho?

No, no creo que esté pidiendo mucho, porque gran parte del público se cree que los adblockers sirven porque te frenan un banner, cuando lo importante es bloquear los scripts que rompen tu privacidad pedacito a pedacito y te convierten en un bit de "audiencias premium" donde se venden tus datos a quien sea... pero el dia que se den cuenta, ahí van a tener un problema y la gente va a ver a los adblockers como aliados y van a dejar de ser un 3±4% del tráfico.

En fin, si algún medio promete no trackearme... les pago con gusto, aunque las centrales de medios se mueran de hambre :)

| Publicidad Online Rants
Tags:
adnetworks privacidad tracking
1 2 3 8