Mr. Código: La inteligencia artificial puede ser envenenada para proteger los derechos de autor
Nightshade: la herramienta que protege las obras de arte de las infracciones de derechos de autor
Nightshade es la nueva herramienta desarrollada por investigadores de la Universidad de Chicago para proteger las obras de arte de posibles infracciones de derechos de autor. Utilizando la técnica de “envenenamiento de datos”, Nightshade altera sutilmente las imágenes con el objetivo de confundir a los modelos de Inteligencia Artificial (IA).
Esta herramienta hace que las IA “alucinen” imágenes completamente diferentes a las originales, llegando a confundir un globo con un huevo o una sandía. Los síntomas de la intoxicación de datos pueden incluir errores en la representación de objetos e incluso la creación de características ilógicas.
Además, el envenenamiento de datos no solo afecta a las imágenes en cuestión, sino también a términos de búsqueda relacionados. Esto plantea un dilema ético y legal en la intersección de la tecnología y los derechos de autor.
Los creadores de Nightshade buscan empoderar a los artistas, pero también advierten sobre el riesgo de abuso de la tecnología para interrumpir servicios de IA. Consideran que su tecnología es un primer paso hacia la armonía entre la creatividad, la propiedad intelectual y la innovación tecnológica.
Sin embargo, también advierten sobre las limitaciones de los modelos de IA Generativa y el riesgo de ataques más poderosos en el futuro. Para más información, se puede consultar el estudio “Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models” de Shawn Shan y otros, publicado en arXiv:2310.13828v2 [cs.CR] el 16 de febrero de 2024.