Интернет-издание о бизнесе, стартапах и IT-технологиях

Популярные теги:
Главная страница / Читать / Новости / Ученые не знают, как заставить ИИ не давать вредные ответы

Ученые не знают, как заставить ИИ не давать вредные ответы

Как искусственный интеллект «съедает» интернет – исследование

По мере того как использование искусственного интеллекта растет с головокружительной скоростью, все больше людей получают от нейросетей потенциально вредные ответы и советы. К ним относятся враждебные высказывания, подстрекательство к опасным действиям, нарушения авторских прав или сексуальный контент. Ученые заявляют, что заставить ИИ-модели вести себя так, как задумано разработчиками, оказалось сложной задачей, пишет CNBC.com.

– Ответ после почти 15 лет исследований таков: нет, мы не знаем, как это сделать, и не похоже, что мы добились значительных позитивных результатов, – считает исследователь в области ИИ Хавьер Рандо.

Существуют некоторые способы оценки рисков в ИИ, такие как red teaming. Эта практика включает в себя тестирование и исследование систем искусственного интеллекта отдельными лицами для выявления и определения потенциального вреда – подход, распространенный в сфере кибербезопасности. ИИ-стартапы сейчас используют собственных тестировщиков для проверки своих ИИ-моделей. Однако, по мнению специалистов, такая мера недостаточна.

– Зачастую проверка фактов требует привлечения юристов, врачей, настоящих ученых, которые являются специализированными экспертами в предметной области. У среднестатистических тестировщиков попросту нет такого уровня экспертизы, – считает руководитель Data Provenance Initiative Шейн Лонгпре. – Привлечение широкого круга пользователей со стороны позволило бы значительно улучшить ситуацию и ограничить вредные ответы.

ИИ-модели должны соответствовать строгому набору условий, прежде чем они будут одобрены, считают эксперты. По их мнению, переход от широких ИИ-инструментов к разработке тех, которые предназначены для более конкретных задач, облегчил бы предвидение и контроль их неправильного использования.

– Когда фармацевтическая компания разрабатывает новое лекарство, ей нужны месяцы тестов и очень серьезные доказательства того, что оно полезно и не вредно, прежде чем оно будет одобрено правительством. В свою очередь, технологические компании выпускают ИИ-модели без должной оценки, – считает профессор статистики в ESSEC Business School Пьер Альквье.

Очевидно, что индустрия ИИ находится на перепутье. С одной стороны, стремительное развитие и внедрение ИИ-технологий открывает невероятные возможности. С другой стороны, отсутствие адекватного тестирования, стандартизации и регулирования создает серьезные риски для пользователей и общества в целом.

Ранее сообщалось, что чат-боты дают вредные советы подросткам

Поделиться статьей в соц. сетях

Share on telegram
Share on twitter
Share on facebook
Share on whatsapp

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *