RU

Запускаем Qwen3.6 35B-A3B + opencode локально на RTX 4070 12GB — AI-ассистент для разработки без облака

Я давно слежу за развитием локальных LLM, но всегда упирался в одно и то же — либо модель маленькая и качество не устраивает, либо большая и не влезае…

llmлокальные моделиqwenmoelm studioopencodellama.cppискусственный интеллектrtx 4070ai-ассистент
Habr