PEFT (Parameter-Efficient Fine-Tuning) es un conjunto de técnicas que permiten adaptar modelos grandes actualizando solo una pequeña fracción de sus parámetros mientras se mantiene el resto congelado. Esto reduce drásticamente los requisitos de memoria, acelera el entrenamiento y mitiga el riesgo de olvido catastrófico.
El principio fundamental de PEFT es simple: no todos los parámetros del modelo necesitan ser actualizados para que el modelo aprenda una nueva tarea. En muchos casos, introducir pequeñas modificaciones estructuradas — como matrices de rango bajo, capas adaptadoras o cambios de activación — es suficiente para guiar al modelo hacia el comportamiento deseado.
PEFT no es un método único sino una familia de técnicas que incluye:
Entre estas, LoRA y QLoRA son actualmente las más populares y ampliamente adoptadas en la comunidad, gracias a su simplicidad, efectividad y excelente soporte en bibliotecas como Hugging Face PEFT.
| Característica | Ajuste Fino Completo | PEFT (LoRA/QLoRA) |
|---|---|---|
| Parámetros Entrenables | 100% | ~0.1% - 1% |
| Requisito de VRAM | Muy Alto (decenas de GB) | Bajo a Moderado (puede ejecutarse en 16GB) |
| Tiempo de Entrenamiento | Largo | Corto a Moderado |
| Riesgo de Olvido Catastrófico | Alto | Bajo |
| Portabilidad del Modelo | Se debe guardar todo el modelo | Solo se guardan los parámetros PEFT (archivos pequeños) |
| Reusabilidad del Modelo Base | No es posible directamente | Sí: se pueden cargar múltiples adaptadores en el mismo modelo base |
PEFT es ideal en los siguientes escenarios:
PEFT no se recomienda cuando: