RU

Open WebUI (с веб-поиском) + llama.cpp

Когда я решил использовать веб-поиск в OpenWebUI результат оказался бесполезным. Гайд по настройке, чтобы получать хоть сколько-то приемлемый результа…

llama.cppopenwebuiwebsearch
Habr
RU

Как в СНГ выбирают людей для AI-внедрения — и почему это страшно. Кейс из жизни

Реальная история: компания внедряет AI, но оценивать экспертов назначила DevOps-инженера на n8n. Это не исключение — это норма для СНГ-рынка. И вот по…

искусственный интеллектlanggraphvllmllama.cpppythonit-рынок снгit-рынокit-рынок россии
Habr
RU

Выжать больше из локальных LLM. Ollama медленнее llama.cpp в 3 раза. UD_Q4_K_XL лучше чем Q4_K_M, а вес тот же и т.д

Самый просто способ запустить локальную LLM - это установить ollama или LM Studio. Это быстро и просто, но вы теряете и в скорости, и в качестве. Поче…

ik_llamallama.cppqwen3.6qwenлокальные нейросетиcmoellmагентыgemma4gemma
Habr
RU

Запускаем Qwen3.6 35B-A3B + opencode локально на RTX 4070 12GB — AI-ассистент для разработки без облака

Я давно слежу за развитием локальных LLM, но всегда упирался в одно и то же — либо модель маленькая и качество не устраивает, либо большая и не влезае…

llmлокальные моделиqwenmoelm studioopencodellama.cppискусственный интеллектrtx 4070ai-ассистент
Habr