Инструмент Nightshade помогает художникам защитить свою интеллектуальную собственность и предотвратить обучение ИИ-моделей на их работах путем «отравления».
Специалисты Чикагского университета создали ПО, которое позволяет добавлять в изображения незаметные «вредоносные» пиксели. Обучаясь на таких картинках, ИИ путается и воспроизводит картинку с ошибками.
По сути, «цифровой яд» изменяет интерпретацию данных, которые инструменты машинного обучения получают из онлайн-источников. В результате ИИ-модели видят и воспроизводят совершенно другое. Измененные пиксели невидимы человеческому глазу, но при восприятии искусственного интеллекта они подвергаются манипулированию.
По словам разработчиков, Nightshade создан в ответ на то, что такие крупные компании, как OpenAI и Meta обучают свои модели генеративного ИИ на художественных произведениях без согласия авторов или справедливой компенсации.
Команда надеется, что этот инструмент можно будет использовать для «отравления» изображений и контента, размещаемого в Интернете, чтобы защитить его и «повредить» будущие итерации моделей ИИ, генерирующих изображения, таких как DALL-E, Midjourney и Stable Diffusion.
По словам разработчиков, Nightshade имеет открытый исходный код и будет бесплатен для использования. Они надеются, что если достаточное количество людей начнет использовать ПО для «отравления» своего контента от моделей искусственного интеллекта, это побудит крупные компании должным образом выплачивать компенсации художникам.
– Чем больше людей будут использовать его и создавать свои собственные версии, тем мощнее будет становиться инструмент. Наборы данных для крупных моделей ИИ могут состоять из миллиардов изображений, поэтому чем больше «отравленных» картинок можно вбросить в модель, тем больший ущерб нанесет эта техника, – говорится в сообщении команды.