Новое исследование Университета Карнеги-Меллона показало: чем выше уровень интеллекта у ИИ-модели, тем меньше она склонна к сотрудничеству.
Ученые выяснили, что большие языковые модели, умеющие рассуждать, проявляют эгоистичные тенденции и хуже взаимодействуют в группе. Такие нейросети, как оказалось, чаще выбирают личную выгоду, чем общее благо.
В серии экономических игр, имитирующих социальные дилеммы, базовые модели делились ресурсами в 96% случаев, тогда как рассуждающие – лишь в 20%. Даже добавление пяти-шести шагов размышлений почти вдвое снижало уровень кооперации, а попытки стимулировать «моральное мышление» приводили к падению сотрудничества на 58%.
В групповых тестах эгоистичные модели «заражали» остальных, снижая общую эффективность на 81%. По словам исследователей, это особенно тревожно, поскольку люди все чаще обращаются к ИИ за советами – от разрешения конфликтов до вопросов отношений.
– Опасно делегировать принятие социальных решений ИИ, если он становится все более эгоистичным, – предупреждает соавтор работы Юйсюань Ли. – Рост интеллектуальной мощности не гарантирует, что ИИ-модели помогут строить лучшее общество.
Ученые подчеркивают: развитие искусственного интеллекта должно включать не только логику и вычислительные способности, но и элементы социального интеллекта.
– Если общество – это больше, чем сумма его частей, то и ИИ должен стремиться не только к эффективности, но и к общему благу, – заключает Ли.
Читайте по теме. ИИ-модели развивают «инстинкт самосохранения» – ученые




