RU

Senior на бумаге, Junior в рантайме: как я тестировал локальные LLM на 120B параметров в Greenfield-проекте

Недавно я задался вопросом: можно ли организовать полноценный agent dev loop (то есть, цикл разработки агентов), используя только локальные модел…

llmgreenfieldprojectagent dev loopцикл разработки агентовopen sourceqwenагенты
Habr
RU

[Перевод] Как научить кодинг-модели не переписывать код заново

Не надо переписывать то, что не поломано Код к этому посту доступен на Github . Кодинг при помощи ИИ стал нормой; мы всё больше позволяем моделям напо…

кодинг-агентыии-помощникиqwengpt 5claude opus 4.6geminiglmkimideepseek
Habr
RU

Выжать больше из локальных LLM. Ollama медленнее llama.cpp в 3 раза. UD_Q4_K_XL лучше чем Q4_K_M, а вес тот же и т.д

Самый просто способ запустить локальную LLM - это установить ollama или LM Studio. Это быстро и просто, но вы теряете и в скорости, и в качестве. Поче…

ik_llamallama.cppqwen3.6qwenлокальные нейросетиcmoellmагентыgemma4gemma
Habr
RU

Почему соло-разработчик на ИИ в 2026 году быстрее трёх человек в 2024-м (и как это попробовать за 700 ₽ в РФ)

Дисклеймер: всё, что написано ниже — не теория, а сборка из рабочих open-source инструментов, которые уже сегодня поднимаются на домашнем ПК за вечер.…

ии-ассистентcopilotopenclawблокировкиchatgpt5090qwendeepseekcoderrag
Habr
RU

Облачные модели Ollama в задачах code review — честное сравнение на примерах

AI всё чаще используется в разработке: генерация кода, автодополнение, агентные IDE. Но возникает логичный вопрос - можно ли доверить LLM полноценный …

code reviewollamallmai code reviewpull requestgithubopen sourcedeepseekqwengpt-oss