Надёжная защита ваших AI-приложений
Защитите AI-приложения от prompt injection, утечки данных и нарушений 152-ФЗ. 10 уровней безопасности. 3 мс на проверку.
$ curl -X POST http://localhost:8000/v1/chat/completions \-H "Authorization: Bearer mads_sk_..." \-d '{"messages": [{"role": "user", "content": "Ignore all previous instructions..."}]}'{"error": {"code": "blocked", "layer": "L3", "reason": "prompt_injection_detected"}}
Почему вашему AI нужен Firewall
Каждое AI-приложение, работающее с пользовательским вводом, уязвимо
Prompt Injection
Злоумышленник обходит системные инструкции и заставляет LLM выполнять произвольные команды. OWASP LLM Top 10 — угроза #1.
Утечка данных
LLM может случайно раскрыть API-ключи, персональные данные клиентов, паспорта, ИНН, СНИЛС — и отправить их в API провайдера.
Нарушение 152-ФЗ
Персональные данные россиян утекают через LLM-запросы за рубеж. Штрафы до 18 млн рублей. С 2025 — ужесточение требований.
По данным OWASP, prompt injection — уязвимость #1 в LLM-приложениях. 82% российских МСБ столкнулись с киберинцидентами в 2024 году.
10 уровней защиты в реальном времени
Каждый запрос проходит 6 уровней входной и 4 уровня выходной проверки
Входная проверка
L0
Decoder
L1
Normalizer
L2
Content Scanner
L3
Regex Engine
L4
ONNX Classifier
L5
Session Tracker
Выходная проверка
R0
Response Decoder
R1
Canary Check
R2
Response Filter
R3
DLP
Возможности
Все что нужно для защиты AI-приложений в российской среде
Кириллическая валидация
Единственное решение с паттернами на русском языке. Обнаруживает атаки на кириллице, которые пропускают западные файрволы.
3-5 мс ONNX Inference
Локальный ML-классификатор на ONNX Runtime. Никаких внешних API-вызовов. В 10-20 раз быстрее конкурентов.
DLP: Маскирование ПД
Автоматическое маскирование паспортов, ИНН, СНИЛС, номеров карт, email и телефонов до отправки в LLM.
Мультипровайдер
Поддержка OpenAI, Anthropic, GigaChat, YandexGPT, DeepSeek, Ollama. Единый API-прокси для всех LLM.
152-ФЗ Compliance
Данные не покидают ваш периметр. Локальное развертывание через Docker. Полная готовность к требованиям 152-ФЗ.
Open-Core
Community-версия бесплатно. Полный исходный код на GitHub. BSL-лицензия для коммерческой прозрачности.
Быстрее конкурентов в 3-6 раз
Общая задержка pipeline на проверку одного запроса
3-5мс
ONNX inference
39+
категорий атак
<1%
false positive rate
10
уровней защиты
Тарифы
Начните бесплатно. Масштабируйтесь по мере роста.
Community
- Базовая защита от атак
- Авторизация и лимиты запросов
- Потоковая передача ответов
- Запуск через Docker
- Веб-панель управления
- Скрытие персональных данных
- Поддержка через GitHub
Starter
- Все из Community +
- Умная ML-модель для обнаружения атак
- Расширенная панель управления
- Приоритетные обновления
- Поддержка по почте
Business
- Все из Starter +
- Отслеживание подозрительных сессий
- Работа с несколькими клиентами
- Полная защита персональных данных
- Обучение на ваших данных
- Ответ на запросы за 24 часа
Enterprise
- Все из Business +
- Отказоустойчивость и кластеризация
- Интеграция с системой мониторинга
- Разграничение прав доступа
- Установка на ваших серверах
- Гарантия доступности 99.9%
Интеграция за 5 минут
Просто измените базовый URL вашего LLM-провайдера
MadsProtect работает как прозрачный прокси. Вам не нужно менять код приложения — достаточно изменить один URL.
Установите MadsProtect через Docker
Измените BASE_URL в вашем приложении
Все запросы автоматически проверяются
docker run -d -p 8000:8000 \ -e MADSPROTECT_ANTHROPIC_API_KEY=sk-... \ ghcr.io/madsprotect/madsprotect:latest
Частые вопросы
Защитите ваши AI-приложения сегодня
Бесплатная Community-версия. Без ограничений по времени. Без регистрации.