Reconocimiento Facial: una batalla perdida

Interesante nota en NYT sobre Fawkes y algunos papers de de-identificación muestran los esfuerzos que se están haciendo para evitar que los sistemas de reconocimiento facial nos identifiquen pero en esta carrera armamentística la capacidad de volvernos anónimos esta perdida.

Vamos por partes, las imagenes izquierdas y derechas de Jessica Simpson, Gwyneth Paltrow y Patrick Dempsey que nuestro cerebro identifica como de la misma persona, para un algoritmo tradicional genera problemas y es interpretada como un objeto diferente porque se rompe alguna de las caracteristicas salientes de identificación.

La herramienta que genera estas modificaciones o “cloaking” (palabra que siempre asociaré a la tecnología romulana de las naves Klingon) se llama Fawkes y esta disponible para que la bajes y pruebes e imagines que vas a poder aplicarlo y evitar que Deepface, Rekognition, Azure Face API, Clearview y otros te reconozcan… ¿la realidad? no vas a tener éxito.

Los sistemas de reconocimiento facial trabajan analizando datasets de miles de millones de fotos, encontrando patrones y dando un resultado relevante atado a un dato que es el ID/nombre del objeto en la foto… por eso el resultado es un “reconocimiento” que es simplemente la unión de ciertos patrones.

Para ponerlo de otro modo, a un algoritmo el objeto del medio está marcado como Gwyneth Paltrow pero solo porque se lo entrenó para eso; si le dijeramos que el ID es “Goop Founder” la presentaría como eso y punto… el cerebro humano no trabaja de esa manera y la evaluación para identificación es más abarcativa y compleja.

¿Que pasa al usar estos algoritmos de anonimato como Fakwes y ver sus resultados online? le estás explicando a los algoritmos de reconomiento facial que “este objeto es Patrick Dempsey aunque el parámetro X sea difernte” y así entender que otras cosas analizar para identificarlo.

En definitiva, estos algoritmos públicos de “anonimización” solo sirven para entrenar a los algortimos de reconocimiento facial y mejorarlos.

El mejor ejemplo de eso son los algortimos usados en Wuhan durante el primer lockdown por el SARS-CoV-2 que aprendieron a trabajar e identificar caras abajo de ciertos tipos de mascarillas (las estándares celestes) porque empezaron a enfocarse en puntos distintivos en la parte superior de la cara (distancias y profundidad) pero tambien en las inclinaciones de la misma.

Básicamente estamos en una carrera armamentística donde el desbalance de poder entre los que desarrollan aplicaciones de reconocmiento facial y los que crean herramientas de anonimización es tanta que, a nivel tecnológico, la batalla está perdida.

Y el siguiente párrafo muestra el nivel de recursos que se necesita para implementar esto en video, al punto que el que lo hace es R&D de Facebook… quien siempre está interesado en nuestra privacidad ;)

We propose a method for face de-identification that enables fully automatic video modification at high frame rates.
The goal is to maximally decorrelate the identity, while having the perception (pose, illumination and expression) fixed.
We achieve this by a novel feed-forward encoder-decoder
network architecture that is conditioned on the high-level
representation of a person’s facial image. The network is
global, in the sense that it does not need to be retrained for
a given video or for a given identity, and it creates natural
looking image sequences with little distortion in time.

Live Face De-Identification in Video

¿Como lo resolvemos? En este punto solo con regulaciones y políticas claras de tratamiento de imágenes, ¿como se recolectan? ¿como se agregan? ¿como se analizan? ¿como se comercializan los datasets? ¿que algoritmos se aplican? aún así estamos en un punto donde si sos una persona de interés para un actor estatal no tenés como esconderte de forma simple o económica…

Solo espero que, la próxima vez que leas “Con esta herramienta gratuita podés evitar el reconocimiento facial” sepas que la ventaja durará el tiempo que los otros algoritmos se entrenen… y nada más.

Facebook despide a los humanos de “Trending News”. No. Los algoritmos no son neutrales.

Hace un tiempo el partido republicano, ese que lleva a Trump como candidato, se quejó porque “trending news in Facebook are not neutral” y ahí el pánico apareció en Facebook porque no se animaron a pelearse con los seguidores de Trump. El resto es una sucesión de malas decisiones por parte de Facebook.

  • investigar si las denuncias eran verdaderas, dando de esta forma validez a una queja ridícula fomentada por la campaña de un megalomaníaco… cuando el resultado independiente salió verificando que no había parcialidad nadie leyó esa noticia.
  • despedir al equipo de humanos que curaban las noticias, dando a entender que había injerencia humana en el algoritmo… cuando quisieron explicar que solo revisaban que no aparezcan noticias falsas o títulos tontos nadie leyó esa noticia.

Esto le dio validez a las denuncias de que había parcialidad en la publicación de noticias, cuando la realidad es que siempre va a haber parcialidad aunque no sea explícita porque los algoritmos no son neutrales porque el humano que los escribe no es neutral y tiene cargas implícitas desde el lenguaje hasta en variables que son cargadas y que luego pueden ser “suavizadas”. pero que si encima confían en humanos entrenando algoritmos de AI volvemos a cero y estamos poniendo a un algoritmo de machine-learning en manos de humanos para su entrenamiento… con la carga implícita de parcialidad en su propia personalidad. Continuar leyendo “Facebook despide a los humanos de “Trending News”. No. Los algoritmos no son neutrales.”