Интернет-издание о бизнесе, стартапах и IT-технологиях

Популярные теги:
Главная страница / Читать / Новости / Угроза человечеству – эксперты призвали приостановить обучение ИИ

Угроза человечеству – эксперты призвали приостановить обучение ИИ

Илон Маск, Стив Возняк и еще более одной тысячи авторитетных специалистов IT-индустрии написали открытое письмо, призывающее приостановить обучение нейросетей.
Угроза человечеству – эксперты призвали приостановить обучение ИИ

Илон Маск, Стив Возняк и еще более одной тысячи авторитетных специалистов IT-индустрии написали открытое письмо, призывающее приостановить обучение нейросетей, превосходящих по своим возможностям GPT-4. По словам экспертов, ИИ-системы могут представлять серьезную опасность для всего человечества. Параллельно специалисты банка Goldman Sachs заявили, что автоматизация и нейросети затронут рабочие места 300 млн человек только в Европе и США.

По мнению Илона Маска, Стива Возняка и тысяч других экспертов сегодня необходимо ввести полугодовой мораторий на дальнейшее развитие ИИ-систем. Специалисты считают, что сегодня наступил ключевой момент, когда общество должно проанализировать возможности нейросетей и убедиться в том, что они принесут только позитивные изменения. В противном случае, человечество может столкнуться с экономическими, политическими и социальными потрясениями.

– Обширные исследования показали, что нейросети, которые конкурируют с людьми, с большой долей вероятности могут представлять серьезную опасность для человечества. Разработка ИИ должна идти под строгим контролем общественных организаций, государственных органов и регуляторов, – утверждается в письме.

Эксперты считают, что уже сегодня должны быть внедрены обязательные стандарты этики и протоколы безопасности для искусственного интеллекта.

Сообщается, что глава компании OpenAI (разработчика ChatGPT) Сэм Альтман не присоединился к обращению.

Письмо вышло примерно в одно время с отчетом Европола. В нем говорится, что злоумышленники уже используют ChatGPT для совершения преступлений – языковые модели ИИ могут способствовать мошенничеству, киберпреступности и терроризму.

Поделиться статьей в соц. сетях

Share on telegram
Share on twitter
Share on facebook
Share on whatsapp

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *