RU

AI-агент на OpenClaw слил $441 000 за один твит. Разбор шести катастроф и архитектуры, которая меня пока спасает

AI-агент на OpenClaw слил $441 000 за один твит. Разбор шести катастроф и архитектуры, которая меня пока спасает Один твит про «лечение столбняка для …

AI-агентыLLMOpenClawинформационная безопасностьархитектураprompt injectionchatgptавтоматизацияdevopsself-hosted
Habr
RU

Guardrails для LLM на Java: как приручить промпт‑инъекции и токсичные ответы

Когда я впервые внедрял LLM в production-сервис, схема безопасности выглядела примерно так: написать хороший system prompt, поставить галочку «мы всё …

llmguardrailsprompt injectionjailbreakai securityбезопасность llmjavaspring ailangchain4jbackend
Habr
RU

Пентест с помощью ИИ в России и материалы для сертификации по безопасности ИИ

Привет, Хабр. Не так давно вышли две новости, которые я прочитал вместе. Первая. Николас Карлини из Anthropic продемонстрировал, как Claude автономно …

AI pentestбезопасность ИИCompTIA SecAI+prompt injectionRed TeamпентестИИ-агентыAI red teamingOWASP LLMметеор
Habr