Нейросети знают только то, чему их научили. Исследователи из Калифорнийского университета в Беркли обратили внимание, что ChatGPT от OpenAI имеет весьма существенные пробелы в знаниях и ограничения в их использовании.
Ученые отмечают, что нейросети ограничены в своих возможностях по нескольким причинам.
– ChatGPT очень хорошо ориентируется в англоязычной информационной среде – документах, законодательстве, литературе и т.д. Очевидно, что он обучался на основании этих материалов. Однако, чат-бот практически ничего не знает о текстах на других языках. Более того, ChatGPT имеет весьма смутное представление об англоязычных документах, созданных в Африке, Азии или Латинской Америке.
– Нейросети не всегда могут продемонстрировать своих знания из-за ограничений авторского права. ChatGPT может знать о каком-либо исследовании, но ничего вам не скажет, чтобы не нарушить закон.
– Алгоритмы ориентируются на частоту цитирования тех или иных документов. Проще говоря, в ответе про космос чат-бот может выдать информацию на основе данных из популярных «Звездных войн», проигнорировав выкладки какого-нибудь специализированного исследования, к тому же защищенного авторскими правами.
Исследователи считают, что компании должны открыть модели, по которым они обучают искусственный интеллект. Кроме того, необходимо решить вопрос об авторском праве на контент, который генерируют нейросети.