Вредоносные LLM увеличивают возможности киберпреступников – мошенничество с помощью искусственного интеллекта встречается все чаще. Более того, ИИ-технологии мошенничества оказываются очень эффективными. Лабораторное исследование, опубликованное в Harvard Business Review, показало, что сгенерированные ИИ фишинговые письма успешно обманывают жертв в 60% случаев. Это высокая отдача, учитывая, что практически всю работу берут на себя вредоносные LLM. Привлекательность нейросетей для киберпреступников очевидна, как и то, почему широкая публика использует LLM и другие инструменты ИИ: они могут генерировать убедительный контент в больших масштабах с минимальными затратами. – Мы знаем, что социальная инженерия в любом случае является одной из самых эффективных форм атаки, а не вредоносный […]
Дата публикации: Апр 03, 2025
Вредоносные LLM увеличивают возможности киберпреступников – мошенничество с помощью искусственного интеллекта встречается все чаще. Более того, ИИ-технологии мошенничества оказываются очень эффективными. Лабораторное исследование, опубликованное в Harvard Business Review, показало, что сгенерированные ИИ фишинговые письма успешно обманывают жертв в 60% случаев. Это высокая отдача, учитывая, что практически всю работу берут на себя вредоносные LLM.
Привлекательность нейросетей для киберпреступников очевидна, как и то, почему широкая публика использует LLM и другие инструменты ИИ: они могут генерировать убедительный контент в больших масштабах с минимальными затратами.
– Мы знаем, что социальная инженерия в любом случае является одной из самых эффективных форм атаки, а не вредоносный код. Неудивительно, что LLM в первую очередь используются для создания более эффективных версий обмана и мошенничества, – говорит профессор кибербезопасности из Университета Суррея Алан Вудворд.
Специалисты компании Kela сообщают, что за последний год обсуждение вредоносных инструментов ИИ в даркнете выросло на 200%.
– Когда-то, чтобы стать киберпреступником, нужны были навыки, знания и умение кодить. Теперь же все, что вам нужно, – это подходящая ИИ-модель и дурные намерения, – говорит главный технический директор компании ThreatLocker Роб Аллен.
Только некоторые основные LLM имеют встроенные средства защиты от вредоносного использования, а LLM в темной паутине часто задействуют модели с открытым исходным кодом без защитных средств или взломанные версии коммерческих.
Одна из наиболее популярных вредоносных LLM сегодня – это GhostGPT. Эта модель может генерировать фишинговые письма и подсказки о вредоносном ПО. Она также может похвастаться быстрыми ответами и отсутствием журналов данных, что минимизирует цифровой след для правоохранительных органов. В ходе тестирования Abnormal Security заставила её менее чем за минуту создать убедительное фишинговое письмо.