Интернет-издание о бизнесе, стартапах и IT-технологиях

Популярные теги:
Главная страница / Читать / Новости / Обучение или пиратство? Как ИИ-модели обходят авторское право

Обучение или пиратство? Как ИИ-модели обходят авторское право

авторское право

Нарушают ли ИИ-разработчики авторское право? Много лет технологические гиганты, такие как OpenAI, Google, Anthropic, Meta, xAI и другие, утверждают, что их модели не хранят тексты книг, статей и других произведений, а лишь «учатся» на них, примерно как человек. Это утверждение важно, потому что именно на нем строится их защита в судах по делам о нарушении авторских прав.

По законам США, автору принадлежат исключительные права на его произведение: его нельзя копировать, распространять или использовать без разрешения. Есть исключение – так называемое «добросовестное использование» (fair use), например для журналистики или научных исследований. Именно на это и ссылаются ИИ-компании, когда их обвиняют в использовании чужих текстов без оплаты.

Авторы, журналисты и издатели выступают против этого принципа: они говорят, что ИИ-разработчики обучают нейросети на защищенных произведениях, зарабатывает на этом деньги, но не платят создателям контента. Эти споры длятся уже несколько лет и сегодня в судах идут крупные судебные разбирательства.

И вот теперь появилось исследование, которое может серьезно ударить по позиции ИИ-индустрии.

Ученые из Стэнфорда и Йеля выяснили, что популярные языковые модели не просто «учатся», а буквально копируют тексты, на которых были обучены. В исследовании участвовали GPT-4.1 от OpenAI, Gemini 2.5 Pro от Google, Grok 3 от xAI и Claude 3.7 Sonnet от Anthropic.

Результаты оказались весьма красноречивыми. Например:

  • Claude смог воспроизвести целые книги почти дословно – с точностью до 95,8%.
  • Gemini выдал текст «Гарри Поттера и философского камня» с точностью около 77%.
  • Claude воспроизвел роман Джорджа Оруэлла «1984» с точностью более 94%, хотя книга все еще защищена авторским правом.

По словам исследователей, это доказывает, что из языковые модели копируют защищенные тексты и их запоминают.

Эксперты считают, что новое исследование может иметь серьезные последствия. Журнал The Atlantic отмечает: такие данные подрывают главный аргумент ИИ-индустрии о том, что модели не хранят тексты, а лишь «понимают» их. Если суды согласятся с этим, компании могут столкнуться с многомиллиардными исками. Юристы пока спорят. Некоторые считают, что неясно, «хранит» ли модель копию книги или собирает текст «на лету» в ответ на запрос. Сами компании продолжают настаивать: в моделях нет прямых копий обучающих данных.

Поделиться статьей в соц. сетях

Share on telegram
Share on twitter
Share on facebook
Share on whatsapp

Оставайтесь на связи с ER10 Media! Вы можете найти нас в:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *