Generative AI Wars

Llegó el momento donde para “defender sus obras” algunos investigadores de la Universidad de Chicago desarrollaron Nightshade una herramienta ofensiva que aunque busca “para combatir el uso no autorizado de imágenes en el entrenamiento de modelos generativos” lo que hace es “envenenar” imagenes para destruir los modelos entrenados con ellas. Nightshade es el modo ofensivo de Glaze que era realmente defensivo.

Here is the image depicting the dramatic and intense war between two factions of generative AI models. One side represents advanced AI models working on self-improvement, and the other shows rogue AIs attempting to disrupt their processes. The scene captures the essence of a digital battlefield.

Para entender cómo funciona Nightshade, es importante comprender el concepto de envenenamiento de modelos. En el ámbito de machine learning, los modelos aprenden y evolucionan basados en los datos que reciben. Si estos datos están comprometidos o alterados de una manera específica, pueden llevar a que el modelo desarrolle comportamientos inesperados o patrones indeseables. Nightshade aprovecha esta vulnerabilidad transformando cualquier imagen estándar en una muestra de datos “envenenada”. Estas imágenes alteradas, cuando se usan en el entrenamiento de modelos generativos, hacen que los modelos aprendan patrones y comportamientos incorrectos.

Nightshade is computed as a multi-objective optimization that minimizes visible changes to the original image. While human eyes see a shaded image that is largely unchanged from the original, the AI model sees a dramatically different composition in the image.

What Is Nightshade?
Continuar leyendo “Generative AI Wars”