Интернет-издание о бизнесе, стартапах и IT-технологиях

Популярные теги:
Главная страница / Читать / Новости / Специалисты по кибербезопасности обеспокоены ИИ-кодом

Специалисты по кибербезопасности обеспокоены ИИ-кодом

Руководители служб кибербезопасности все больше беспокоятся о коде, генерируемом искусственным интеллектом.
Проверка стартапов – онлайн-вебинар VC Talks с Данилом Кислинским

Руководители служб кибербезопасности все больше беспокоятся о коде, генерируемом искусственным интеллектом. Они считают, что не могут предотвратить его использование сотрудниками и связанные с этим явлением сопутствующие риски.

Согласно новому отчету компании Venafi, почти все руководители служб безопасности в США, Великобритании, Германии и Франции обеспокоены тем, что использование в их организациях кода, сгенерированного искусственным интеллектом, может привести угрозам безопасности.

Большинство (92%) руководителей служб безопасности выразили обеспокоенность тем, насколько активно разработчики уже используют код на основе искусственного интеллекта в своих компаниях, ссылаясь на сомнительную целостность кода, созданного с помощью генеративного искусственного интеллекта, и отсутствие контроля за тем, когда он используется.

Данные показывают, что код, созданный с помощью ИИ, становится обычным явлением. 83% организаций, принявших участие в опросе, уже используют ИИ для генерации кода, а 57% респондентов назвали использование ИИ для помощи в кодировании стандартной практикой.

63% респондентов сообщили, что они рассматривали возможность запрета использования ИИ в коде из-за рисков безопасности. Однако почти 72% признались, что они вынуждены разрешать код ИИ, чтобы не отставать от конкурентов.

Данные GitHub, опубликованные в августе, свидетельствуют о том, что инструменты для кодирования с использованием ИИ уже позволяют разработчикам экономить время: производительность и качество кода повысились в большинстве компаний, опрошенных платформой для разработчиков.

Однако специалисты по безопасности обеспокоены тем, что скорость может идти в ущерб качеству кода, генерируемого ИИ.

Почти две трети респондентов заявили, что командам безопасности уже невозможно отслеживать и эффективно контролировать разработчиков, задействующих нейросети. Теневой ИИ – процесс использования сотрудниками инструментов ИИ без разрешения – сложно обнаружить или предотвратить без четких правил. Только 47% респондентов сообщили о наличии целостной политики в отношении использования нейросетей.

Основные опасения руководителей служб безопасности связаны с тем, что разработчики могут чрезмерно полагаться на ИИ, а это приведет к снижению качества кода и использованию устаревших библиотек.

Поделиться статьей в соц. сетях

Share on telegram
Share on twitter
Share on facebook
Share on whatsapp

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *