Můžeme ten model natrénovat na naše data? Otázka číslo jedna od každého klienta. Odpověď: záleží. Fine-tuning je mocný, ale často drahý a zbytečný.
Fine-tuning vs RAG vs prompt engineering¶
- Prompt engineering: Zero cost, okamžité výsledky, limitovaný kontext.
- RAG: Střední effort, dynamický přístup k datům, žádný retraining.
- Fine-tuning: Vysoký effort, model se naučí váš styl/doménu.
Kdy fine-tunovat¶
- Specifický output formát: Proprietární strukturovaný výstup.
- Domain-specific jazyk: Lékařská terminologie, právnický žargon.
- Konzistentní styl: Odpovědi znějící jako váš brand.
- Latency/cost optimalizace: Menší fine-tuned model nahradí drahý GPT-4.
Praktický workflow¶
OpenAI zjednodušilo fine-tuning GPT-3.5 Turbo. Pro open-source: LoRA a QLoRA umožňují fine-tuning na single GPU. Dramaticky snižuje HW nároky.
Začněte s RAG, fine-tunujte jen když musíte¶
Osvědčený postup: prompt engineering → RAG → fine-tuning. Většina projektů se zastaví u RAG. A to je OK.
fine-tuningllmmachine learningenterprise