Интернет-издание о бизнесе, стартапах и IT-технологиях

Популярные теги:
Главная страница / Читать / Новости / Переизбыток данных вредит ИИ: новое исследование

Переизбыток данных вредит ИИ: новое исследование

В Anthropic узнали, как думают LLM

Слишком умный? Исследователи из Стэнфорда и Гарварда выяснили, что продолжительное обучение ИИ может не только не улучшать их работу, но и ухудшать. Этот эффект они назвали catastrophic overtraining (катастрофическое чрезмерное обучение).

Ученые сравнили две версии модели OLMo-1B: одну обучили на 2,3 трлн токенов, а другую – на 3 трлн. Казалось бы, вторая должна быть умнее, но оказалось наоборот: она хуже справлялась с заданиями после настройки.

В процессе исследований выяснилось, что модели, которые обучались слишком долго, становятся нестабильными и хуже адаптируются к новым задачам. После определенного момента новая информация начинает «размывать» старые знания, снижая точность ответов.

Исследователи выявили, что для ИИ-модели OLMo-1B предел составил 2,5 трлн токенов, после чего дальнейшее обучение не приносит пользы, а даже начинает вредить. Раньше считалось, что чем больше данных – тем лучше.

Однако новое исследование доказывает, что нужно искать баланс: если переусердствовать с обучением, ИИ станет менее гибким и менее точным. Разработчикам придется учитывать этот эффект при создании будущих моделей, чтобы избежать негативных последствий.

Поделиться статьей в соц. сетях

Share on telegram
Share on twitter
Share on facebook
Share on whatsapp

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *