📚 Módulo 2: PEFT — O Paradigma de Ajuste Fino Eficiente

2.1 Introdução ao PEFT

PEFT (Parameter-Efficient Fine-Tuning) é um conjunto de técnicas que permitem adaptar modelos grandes atualizando apenas uma pequena fração de seus parâmetros enquanto mantém o resto congelado. Isso reduz drasticamente os requisitos de memória, acelera o treinamento e mitiga o risco de esquecimento catastrófico.

O princípio fundamental do PEFT é simples: nem todos os parâmetros do modelo precisam ser atualizados para que o modelo aprenda uma nova tarefa. Em muitos casos, introduzir pequenas modificações estruturadas — como matrizes de baixo rank, camadas adaptadoras ou mudanças de ativação — é suficiente para guiar o modelo para o comportamento desejado.

PEFT não é um método único, mas uma família de técnicas que inclui:

  • LoRA (Low-Rank Adaptation)
  • Camadas Adaptadoras
  • Ajuste de Prefixo / Ajuste de Prompt
  • QLoRA (Quantized LoRA)

Entre estas, LoRA e QLoRA são atualmente as mais populares e amplamente adotadas na comunidade, graças à sua simplicidade, eficácia e excelente suporte em bibliotecas como Hugging Face PEFT.

2.2 Vantagens do PEFT sobre o Ajuste Fino Completo

Característica Ajuste Fino Completo PEFT (LoRA/QLoRA)
Parâmetros Treináveis 100% ~0.1% - 1%
Requisito de VRAM Muito Alto (dezenas de GB) Baixo a Moderado (pode ser executado em 16GB)
Tempo de Treinamento Longo Curto a Moderado
Risco de Esquecimento Catastrófico Alto Baixo
Portabilidade do Modelo Todo o modelo deve ser salvo Apenas os parâmetros PEFT são salvos (arquivos pequenos)
Reusabilidade do Modelo Base Não é possível diretamente Sim: múltiplos adaptadores podem ser carregados no mesmo modelo base

2.3 Quando Usar PEFT

PEFT é ideal nos seguintes cenários:

  • Hardware limitado está disponível (GPU com 16GB ou menos).
  • O conjunto de dados de ajuste fino é pequeno (<10.000 exemplos).
  • Você quer preservar o conhecimento geral do modelo base.
  • Você planeja adaptar o mesmo modelo base para múltiplas tarefas (aprendizado multitarefa).
  • Você visa reduzir os custos de treinamento e armazenamento.
  • Você está prototipando rapidamente ou realizando experimentação iterativa.

PEFT não é recomendado quando:

  • O conjunto de dados de ajuste fino é extremamente grande e diverso (nesse caso, o ajuste fino completo pode dar melhores resultados).
  • É necessário uma mudança radical na distribuição de saída do modelo (por exemplo, mudar completamente o vocabulário ou domínio linguístico).
  • Há acesso ilimitado a hardware de alta gama e o tempo não é um fator limitante.

Course Info

Course: AI-course3

Language: PT

Lesson: Module2