Руководители служб кибербезопасности все больше беспокоятся о коде, генерируемом искусственным интеллектом. Они считают, что не могут предотвратить его использование сотрудниками и связанные с этим явлением сопутствующие риски.
Согласно новому отчету компании Venafi, почти все руководители служб безопасности в США, Великобритании, Германии и Франции обеспокоены тем, что использование в их организациях кода, сгенерированного искусственным интеллектом, может привести угрозам безопасности.
Большинство (92%) руководителей служб безопасности выразили обеспокоенность тем, насколько активно разработчики уже используют код на основе искусственного интеллекта в своих компаниях, ссылаясь на сомнительную целостность кода, созданного с помощью генеративного искусственного интеллекта, и отсутствие контроля за тем, когда он используется.
Данные показывают, что код, созданный с помощью ИИ, становится обычным явлением. 83% организаций, принявших участие в опросе, уже используют ИИ для генерации кода, а 57% респондентов назвали использование ИИ для помощи в кодировании стандартной практикой.
63% респондентов сообщили, что они рассматривали возможность запрета использования ИИ в коде из-за рисков безопасности. Однако почти 72% признались, что они вынуждены разрешать код ИИ, чтобы не отставать от конкурентов.
Данные GitHub, опубликованные в августе, свидетельствуют о том, что инструменты для кодирования с использованием ИИ уже позволяют разработчикам экономить время: производительность и качество кода повысились в большинстве компаний, опрошенных платформой для разработчиков.
Однако специалисты по безопасности обеспокоены тем, что скорость может идти в ущерб качеству кода, генерируемого ИИ.
Почти две трети респондентов заявили, что командам безопасности уже невозможно отслеживать и эффективно контролировать разработчиков, задействующих нейросети. Теневой ИИ – процесс использования сотрудниками инструментов ИИ без разрешения – сложно обнаружить или предотвратить без четких правил. Только 47% респондентов сообщили о наличии целостной политики в отношении использования нейросетей.
Основные опасения руководителей служб безопасности связаны с тем, что разработчики могут чрезмерно полагаться на ИИ, а это приведет к снижению качества кода и использованию устаревших библиотек.