Почти все организации, использующие генеративный искусственный интеллект, сталкиваются с проблемами безопасности или утечками данных. Об этом говорится в исследовании института Capgemini.
Согласно выводим ученых, 97% организаций, использующих генеративный ИИ, сталкивались с утечками данных или проблемами безопасности, связанными с этой технологией.
52% указали на прямые и косвенные убытки в размере не менее $50 млн, возникшие по причине этих инцидентов. В результате 62% заявили, что им необходимо увеличить бюджеты для снижения рисков.
По мнению Capgemini, проблемы безопасности вызваны ростом сложности атак со стороны более широкого круга злоумышленников, а также расширением поверхности кибератак и обнаружением уязвимостей во всех аспектах пользовательских решений генеративного ИИ.
В то же время неправильное использование ИИ и генеративного ИИ сотрудниками может значительно повысить риск утечки данных. Две из трех организаций заявили, что их беспокоит «отравление» информации и возможная утечка конфиденциальных данных в результате сбора сведений, используемых для обучения моделей генеративного ИИ.
ИИ может привнести дополнительные риски через генерируемый им материал, включая галлюцинации, создание предвзятого, вредного или неуместного контента. Так, 43% респондентов заявили, что понесли финансовые потери из-за использования deepfakes.