Google обнаружила вредоносные программы первого поколения, которые используют искусственный интеллект, чтобы менять свое поведение прямо во время работы. Пока эти вирусы не представляют серьезной угрозы, но специалисты предупреждают – это только начало.
Команда Google Threat Intelligence Group впервые зафиксировала несколько семейств вредоносных программ, которые используют большие языковые модели (LLM).
Два самых заметных примера – Promptflux и Promptsteal.
Promptflux – это программа, написанная на языке программирования VBScript, которая притворяется безобидным установщиком, чтобы не вызвать подозрений. Ее особенность – самообновление с помощью ИИ.
Вирус использует Google Gemini API, чтобы «попросить» языковую модель переписать собственный код. После этого он сохраняет измененную версию и запускается при старте системы. Таким образом, антивирусам становится сложнее его обнаружить.
Второй пример – Promptsteal, написанный на Python. Он использует Hugging Face API, чтобы обращаться к языковой модели Qwen2.5-Coder-32B-Instruct.
С помощью ИИ программа создает короткие команды для Windows, которые собирают системную информацию и документы из определенных папок. Затем все это отправляется на сервер злоумышленников.
По словам специалистов, эти вредоносные программы пока являются экспериментальными и не способны нанести реальный ущерб. Однако Google предупреждает: злоумышленники быстро учатся, и следующее поколение таких программ будет гораздо опаснее.
Как отмечают эксперты, умение вредоносных программ маскироваться и меняться в реальном времени с помощью ИИ – это новый рубеж в кибервойне. Пока у специалистов нет готовых решений, как бороться с такими угрозами.
Читайте по теме. Хакеры выдают вредоносное ПО за ChatGPT, Microsoft Office и Google Drive




