RU

[Перевод] Как дообучать локальные LLM в 2026 году: практическое руководство

В 2026 году дообучение локальных LLM перестало быть задачей «для тех, у кого есть кластер и бюджет». Снижение требований к VRAM, развитие QLoRA и появ…

LLMлокальные llmдообучениеfine tuningдообучение LLMлокальные моделиQLoRARAGLoRA
Habr
RU

Почему Cluely и другие плохо слышат русских айтишников: разбор того, как Whisper ломается и что мы сделали с этим

В январе я купил подписки на Cluely, Final Round AI и Sensei. Хотел посмотреть как они справляются с русским айти-собесами, раз уж все три заявляют о …

WhisperSTTspeech-to-textfine-tuningLoRAASRNLPраспознавание речирусский языкcode-switching
Habr
RU

Почему ИИ-пилоты не доходят до реального производства и как это исправить архитектурой

8–9 апреля на конференции Data Fusion ВТБ публично признал: их ИИ-проекты массово застревают между пилотом и промышленной эксплуатацией. Это не жалоба…

низкоэнтропийная автоматизацияИИ в производствеMLOpsLoRAfine-tuninghuman-in-the-loopcompounding entropyлокальные LLMцифровой двойник