Fine-tuning Qwen-8B под проприетарный синтаксис (CADINP) на одной RTX 3090: опыт инженера-конструктора
Возможно ли на одной домашней видеокарте (RTX 3090) создать AI-ассистента, который знает узкоспециализированный инженерный язык лучше, чем GPT-4?
Я инженер-конструктор, и мне надоело писать рутинный код для SOFiSTiK руками. Поэтому я решил дообучить (fine-tune) модель Qwen 3 (8B) с дистилляцией логики DeepSeek под свои задачи.
В статье подробный технический разбор:
— Как собрать датасет с логикой Chain of Thought (CoT).
— Как бороться с Out of Memory в 24 ГБ VRAM на Windows + WSL.
— Рабочие конфиги Unsloth, параметры обучения и итоговая GGUF модель.