Curso de IA 3: "Ajuste Fino Inteligente: Adapta Modelos de Lenguaje sin Quemar tu GPU"
QLoRA permite el ajuste fino eficiente de grandes modelos de lenguaje en GPUs con poca memoria combinando cuantización de 4 bits con adaptadores de rango bajo, reduciendo el uso de VRAM mientras se preserva el rendimiento.
🧠Estructura del Curso
- Módulo 1: ¿Qué es el Ajuste Fino y Por Qué Es Tan Costoso?
- Módulo 2: PEFT — El Paradigma de Ajuste Fino Eficiente
- Módulo 3: LoRA — Adaptación de Rango Bajo
- Módulo 4: QLoRA — Ajuste Fino Cuantizado de Alto Rendimiento
- Módulo 5: Configuración Práctica — Hiperparámetros, target_modules y Entorno
- Módulo 6: Preparación de Conjuntos de Datos y Formato de Instrucciones
- Módulo 7: Configuración de Entrenamiento con TRL (Aprendizaje por Refuerzo de Transformadores)
- Módulo 8: Monitoreo del Entrenamiento y Evaluación
- Módulo 9: Gestión de Recursos y Problemas Comunes
- Módulo 10: Guardar, Cargar y Fusionar Adaptadores LoRA/QLoRA
- Módulo 11: Proyecto Integrado Final — Ajuste Fino de Qwen2.5-0.5B para Generación de Descripciones de Productos