Curso de IA 3: "Ajuste Fino Inteligente: Adapte Modelos de Linguagem sem Queimar sua GPU"

QLoRA permite o ajuste fino eficiente de grandes modelos de linguagem em GPUs com pouca memória combinando quantização de 4 bits com adaptadores de baixo rank, reduzindo o uso de VRAM enquanto preserva o desempenho.


🧭 Estrutura do Curso

  • Módulo 1: O que é Ajuste Fino e Por Que É Tão Caro?
  • Módulo 2: PEFT — O Paradigma de Ajuste Fino Eficiente
  • Módulo 3: LoRA — Adaptação de Baixo Rank
  • Módulo 4: QLoRA — Ajuste Fino Quantizado de Alto Desempenho
  • Módulo 5: Configuração Prática — Hiperparâmetros, target_modules e Ambiente
  • Módulo 6: Preparação de Conjuntos de Dados e Formato de Instruções
  • Módulo 7: Configuração de Treinamento com TRL (Aprendizado por Reforço de Transformadores)
  • Módulo 8: Monitoramento do Treinamento e Avaliação
  • Módulo 9: Gerenciamento de Recursos e Problemas Comuns
  • Módulo 10: Salvar, Carregar e Fundir Adaptadores LoRA/QLoRA
  • Módulo 11: Projeto Integrado Final — Ajuste Fino do Qwen2.5-0.5B para Geração de Descrições de Produtos
Course Info

Course: AI-course3

Language: PT

Lesson: Index