RU

Guardrails для LLM на Java: как приручить промпт‑инъекции и токсичные ответы

Когда я впервые внедрял LLM в production-сервис, схема безопасности выглядела примерно так: написать хороший system prompt, поставить галочку «мы всё …

llmguardrailsprompt injectionjailbreakai securityбезопасность llmjavaspring ailangchain4jbackend
Habr
RU

Пентест с помощью ИИ в России и материалы для сертификации по безопасности ИИ

Привет, Хабр. Не так давно вышли две новости, которые я прочитал вместе. Первая. Николас Карлини из Anthropic продемонстрировал, как Claude автономно …

AI pentestбезопасность ИИCompTIA SecAI+prompt injectionRed TeamпентестИИ-агентыAI red teamingOWASP LLMметеор
Habr