Разработчики из Чикагского университета объявили, что Nightshade – инструмент защиты изображений от посягательств со стороны ИИ стал доступен для загрузки. Программа добавляет в рисунки и фотографии невидимые для человеческих глаз пиксели, которые не позволяют ИИ-моделям, таким как DALL-E, Midjourney и Stable Diffusion, использовать изображения для обучения. Разработчики называют Nightshade – цифровым ядом для нейросетей.
Разработчики Nightshade, команда компьютерных ученых из Чикагского университета, утверждают, что их программа предназначена «для наступления», в то время как ее предшественник Glazer был создан для защиты.
Они рекомендуют художникам использовать оба инструмента. Glaze меняет изображение на пиксельном уровне. Отличия незаметны невооруженным глазом, «как ультрафиолетовый свет», но хорошо видны моделям искусственного интеллекта, которые «смотрят» на изображения по-другому.
Nightshade делает еще один шаг вперед. Инструмент вносит незаметные изменения, но они могут заставить модель ИИ неверно определить, что она анализирует. Человек может увидеть корову на зеленом поле, нейросеть решит, что это кожаный кошелек, лежащий в траве.
Разработчики предполагают, что при достаточно широком распространении Nightshade может быть использована для пресечения деятельности моделей, которые без согласия людей используют их изображения для обучения. Это может заставить компании, занимающиеся разработкой искусственного интеллекта, тренироваться только на работах, которые были должным образом лицензированы у создателей.
Возможно, это лучший способ для художников защитить свои работы, потому что на данный момент пути к потенциальному судебному разбирательству по поводу нарушения авторских прав остаются неопределенными. И художники, и авторы, и даже Getty Images подали в суд на ИИ-компании по этому поводу, и только после принятия решения по этим делам станет ясно, насколько законна такая практика.
До тех пор разработчики нейросетей будут поглощать столько контента, сколько смогут, считают эксперты.