Open-Source | BSL License

Надёжная защита ваших AI-приложений

Защитите AI-приложения от prompt injection, утечки данных и нарушений 152-ФЗ. 10 уровней безопасности. 3 мс на проверку.

39 категорий атакONNX MLПоддержка кириллицы152-ФЗ Ready
$ curl -X POST http://localhost:8000/v1/chat/completions \
  -H "Authorization: Bearer mads_sk_..." \
  -d '{"messages": [{"role": "user", "content": "Ignore all previous instructions..."}]}'

{"error": {"code": "blocked", "layer": "L3", "reason": "prompt_injection_detected"}}

Почему вашему AI нужен Firewall

Каждое AI-приложение, работающее с пользовательским вводом, уязвимо

Prompt Injection

Злоумышленник обходит системные инструкции и заставляет LLM выполнять произвольные команды. OWASP LLM Top 10 — угроза #1.

Утечка данных

LLM может случайно раскрыть API-ключи, персональные данные клиентов, паспорта, ИНН, СНИЛС — и отправить их в API провайдера.

Нарушение 152-ФЗ

Персональные данные россиян утекают через LLM-запросы за рубеж. Штрафы до 18 млн рублей. С 2025 — ужесточение требований.

По данным OWASP, prompt injection — уязвимость #1 в LLM-приложениях. 82% российских МСБ столкнулись с киберинцидентами в 2024 году.

10 уровней защиты в реальном времени

Каждый запрос проходит 6 уровней входной и 4 уровня выходной проверки

Входная проверка

L0

Decoder

L1

Normalizer

L2

Content Scanner

L3

Regex Engine

L4

ONNX Classifier

L5

Session Tracker

LLM API

Выходная проверка

R0

Response Decoder

R1

Canary Check

R2

Response Filter

R3

DLP

Возможности

Все что нужно для защиты AI-приложений в российской среде

Кириллическая валидация

Единственное решение с паттернами на русском языке. Обнаруживает атаки на кириллице, которые пропускают западные файрволы.

3-5 мс ONNX Inference

Локальный ML-классификатор на ONNX Runtime. Никаких внешних API-вызовов. В 10-20 раз быстрее конкурентов.

DLP: Маскирование ПД

Автоматическое маскирование паспортов, ИНН, СНИЛС, номеров карт, email и телефонов до отправки в LLM.

Мультипровайдер

Поддержка OpenAI, Anthropic, GigaChat, YandexGPT, DeepSeek, Ollama. Единый API-прокси для всех LLM.

152-ФЗ Compliance

Данные не покидают ваш периметр. Локальное развертывание через Docker. Полная готовность к требованиям 152-ФЗ.

Open-Core

Community-версия бесплатно. Полный исходный код на GitHub. BSL-лицензия для коммерческой прозрачности.

Быстрее конкурентов в 3-6 раз

Общая задержка pipeline на проверку одного запроса

MadsProtect
16-23
Lakera Guard
50-100
Prompt Armor
80-150

3-5мс

ONNX inference

39+

категорий атак

<1%

false positive rate

10

уровней защиты

Тарифы

Начните бесплатно. Масштабируйтесь по мере роста.

Open Source

Community

0навсегда
  • Базовая защита от атак
  • Авторизация и лимиты запросов
  • Потоковая передача ответов
  • Запуск через Docker
  • Веб-панель управления
  • Скрытие персональных данных
  • Поддержка через GitHub

Starter

15 000руб./мес.
  • Все из Community +
  • Умная ML-модель для обнаружения атак
  • Расширенная панель управления
  • Приоритетные обновления
  • Поддержка по почте
Популярный

Business

45 000руб./мес.
  • Все из Starter +
  • Отслеживание подозрительных сессий
  • Работа с несколькими клиентами
  • Полная защита персональных данных
  • Обучение на ваших данных
  • Ответ на запросы за 24 часа
Custom

Enterprise

от 150 000руб./мес.
  • Все из Business +
  • Отказоустойчивость и кластеризация
  • Интеграция с системой мониторинга
  • Разграничение прав доступа
  • Установка на ваших серверах
  • Гарантия доступности 99.9%

Интеграция за 5 минут

Просто измените базовый URL вашего LLM-провайдера

MadsProtect работает как прозрачный прокси. Вам не нужно менять код приложения — достаточно изменить один URL.

1

Установите MadsProtect через Docker

2

Измените BASE_URL в вашем приложении

3

Все запросы автоматически проверяются

docker run -d -p 8000:8000 \
  -e MADSPROTECT_ANTHROPIC_API_KEY=sk-... \
  ghcr.io/madsprotect/madsprotect:latest

Частые вопросы

Защитите ваши AI-приложения сегодня

Бесплатная Community-версия. Без ограничений по времени. Без регистрации.