AI课程3:“智能微调:在不烧毁GPU的情况下适应大型语言模型”

QLoRA通过将4位量化与低秩适配器相结合,实现了在低内存GPU上对大型语言模型的高效微调,在减少显存使用的同时保持性能。


🧭 课程结构

  • 模块1:什么是微调,为什么这么昂贵?
  • 模块2:PEFT — 高效微调范式
  • 模块3:LoRA — 低秩适配
  • 模块4:QLoRA — 高性能量化微调
  • 模块5:实际配置 — 超参数、target_modules和环境
  • 模块6:数据集准备和指令格式
  • 模块7:使用TRL(Transformer强化学习)进行训练配置
  • 模块8:训练监控和评估
  • 模块9:资源管理和常见问题
  • 模块10:保存、加载和合并LoRA/QLoRA适配器
  • 模块11:最终综合项目 — 微调Qwen2.5-0.5B生成产品描述
Course Info

Course: AI-course3

Language: ZH

Lesson: Index