Генеративный искусственный интеллект не только учит киберпреступников новым трюкам, но и облегчает любому человеку задачу стать злоумышленником. Об этом говорит глава Агентства кибербезопасности и защиты инфраструктуры США (CISA) Джен Истерли.
Киберпреступники, имеющие в своем распоряжении ИИ, смогут делать больше всего: от фишинга и рассылки спама до актов шантажа и терроризма, кампаний по дезинформации и саботажа выборов.
– Я думаю, что это заставит людей, которые менее искушены, лучше делать некоторые плохие вещи. ИИ усугубит угрозы кибератак – более изощренный фишинг, клонирование голоса, подделки, злонамеренное влияние и дезинформация, – отмечает Истерли.
Организация CISA, которой руководит Истерли, – одно из самых новых федеральных агентств – не имеет собственных регулирующих полномочий в отношении частных предприятий.
Поэтому Истерли работает с предприятиями как внутри, так и вне технологической индустрии, чтобы улучшить их методы обеспечения кибербезопасности.
Это обязательство включает в себя целый ряд лучших практик по повышению надежности паролей, внедрению многофакторной аутентификации и уменьшению целых классов уязвимостей.