RU

[Перевод] Как дообучать локальные LLM в 2026 году: практическое руководство

В 2026 году дообучение локальных LLM перестало быть задачей «для тех, у кого есть кластер и бюджет». Снижение требований к VRAM, развитие QLoRA и появ…

LLMлокальные llmдообучениеfine tuningдообучение LLMлокальные моделиQLoRARAGLoRA
Habr
RU

Как мы перестали мерить качество ответов RAG-поиска «на глаз» и начали нормально сравнивать

Если вы делаете RAG-поиск по документации или базе знаний, то рано или поздно упираетесь в проблему: хорошо найти — это еще не хорошо ответить. База з…

RAGAILLMQwen3.5Gemma 4gemma 3бенчмарк
Habr
RU

ИИ в ITSM: уже не эксперимент, а корпоративный стандарт

В поддержке запрос бизнеса очень прикладной: быстрее отвечать, делать меньше ошибок, выполнять SLA, выдерживать рост обращений при расширении каналов …

ITSMITILискусственный интеллектLLMRAGServiceDeskавтоматизациябаза знанийкорпоративное ПОподдержка пользователей