Интернет-издание о бизнесе, стартапах и IT-технологиях

Популярные теги:
Главная страница / Читать / Новости / Экзистенциальная угроза со стороны ИИ немного преувеличена

Экзистенциальная угроза со стороны ИИ немного преувеличена

Модели искусственного интеллекта сами по себе не представляют экзистенциальной угрозу человечеству. К такому выводу пришли исследователи...
Киберстрахование идет на спад – компании не хотят платить хакерам

Модели искусственного интеллекта сами по себе не представляют экзистенциальной угрозу человечеству. К такому выводу пришли исследователи из Technische Universität Darmstadt (Германия) и University of Bath (Великобритания). По словам ученых, ИИ-модели, и в частности LLM, по их словам, по своей сути управляемы, предсказуемы и безопасны.

– Преобладающее мнение о том, что ИИ представляет угрозу для человечества, препятствует широкому внедрению и развитию этих технологий, а также отвлекает внимание от реальных проблем, –  говорит доктор Хариш Тайяр Мадабуши

Ученые объяснили свою точку зрения.

При ближайшем рассмотрении этих моделей через тестирование их способности выполнять задачи, с которыми они раньше не сталкивались, выяснилось, что LLM очень хорошо выполняют инструкции и демонстрируют знание языков. Они способны выполнять задачи, когда им показывают всего несколько примеров, например, отвечая на вопросы о социальных ситуациях.

Но чего они не могут сделать, так это выйти за рамки инструкций или освоить новые навыки без явных указаний. LLM могут демонстрировать удивительное поведение, но оно всегда может быть связано с их программированием или инструкциями. Другими словами, они не могут эволюционировать в нечто, выходящее за рамки того, как они были созданы, поэтому никаких богоподобных машин быть не может.

Однако это не означает, что ИИ не представляет никакой угрозы. Эти системы уже обладают огромными возможностями и в ближайшем будущем станут еще более совершенными. Они способны манипулировать информацией, создавать фальшивые новости, совершать откровенное мошенничество, предоставлять ложные сведения даже без умысла и подавлять правду, говорят ученые.

– Опасность, как всегда, заключается не в машинах, а в людях, которые их программируют и контролируют. По злому умыслу или из-за некомпетентности, нам нужно беспокоиться не о компьютерах. А о людях, которые стоят за ними, – считают ученые.

Поделиться статьей в соц. сетях

Share on telegram
Share on twitter
Share on facebook
Share on whatsapp

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *