Когда искусственный интеллект пишет код, он не просит кофе — но иногда просит прощения. Так можно начать небольшую историю о том, как удобная автоматизация превратила изолированный honeypot в урок по кибербезопасности: Intruder решил «vibe‑кодить» инструмент для захвата эксплойтов и обнаружил, что машинная помощь умеет создавать не только удобство, но и скрытые дыры.
На первый взгляд всё выглядело смешно аккуратно: сгенерированный код развёрнули в песочнице, дали ему пару недель «общения с миром» — и логи начали шептать странности. Файлы сохранялись под именами полезных нагрузок, а не IP атакующих. Разбирательство выявило классическую ошибку — AI использовал клиентские IP‑хедеры как источник истины, забыв про границу доверия. А эти заголовки безопасны только за надёжным прокси; в остальных случаях ими управляет клиент.
Серьёзного взлома не произошло, но потенциальный путь к LFD или SSRF был очевиден. Что примечательно — SAST‑инструменты (Semgrep, Gosec) молчали. Это не провал тулов, а напоминание: статический анализ хорошо ловит шаблоны, но не всегда понимает контекст доверия, который человека‑пентестера видно на лету.
Выносить уроки стоит не в стиле паники, а в стиле дисциплины. Рекомендуемые меры: не доверять «сгенерированному» коду без глубокого ревью, встраивать модель угроз в CI/CD, держать динамическое тестирование и черный ящик рядом с SAST, и, главное, сохранять человеческий контроль. Российские специалисты по безопасности и разработчики, как и их зарубежные коллеги, уже активно изучают подобные случаи и предлагают практики, которые помогают нейтрализовать эффект «автопилота».
Итог прост: AI ускоряет, но не заменяет ответственность. Vibe‑coding — это инструмент; долг безопасности остаётся за командой.
