2.5 - El Método del Descenso del Gradiente
Introducción
El Método del Descenso del Gradiente es el algoritmo fundamental que permite a los modelos de machine learning "aprender" encontrando los valores óptimos de sus parámetros. Funciona como un explorador que busca el punto más bajo de una montaña siguiendo siempre la dirección de mayor descenso.
Actividad
Algoritmo del Descenso del Gradiente
Cómo explorarlo
- Observa la Exploración: Ve cómo el algoritmo se mueve por la superficie de la función, siguiendo siempre la dirección de mayor descenso según el gradiente.
- Ajusta los Parámetros: Experimenta con la tasa de aprendizaje para ver cómo afecta la velocidad y estabilidad de convergencia.
- Analiza la Convergencia: Observa cómo la norma del gradiente se reduce indicando que se acerca al mínimo, y cuándo el algoritmo decide detenerse.
Controles y Configuración
Gráfica de la Función
Evolución del Error (|∇f|)
Conceptos Fundamentales
¿Qué es el Gradiente?
El Gradiente como Brújula Matemática
El gradiente (∇f) es un vector que apunta en la dirección de mayor crecimiento de una función. En optimización:
- Dirección: Indica hacia dónde la función crece más rápidamente
- Magnitud: Su longitud indica qué tan empinada es la pendiente
- Descenso: Para minimizar, vamos en dirección opuesta al gradiente
Criterio de Parada
¿Cuándo Detenerse?
Norma del Gradiente (|∇f|)
Imagina el gradiente como una flecha indicando la subida más empinada. La norma es simplemente la longitud de esa flecha:
- Flecha larga → Pendiente fuerte → Seguir optimizando
- Flecha corta → Terreno plano → Cerca del mínimo
- Criterio: Detenerse cuando |∇f| < tolerancia (ej: 0.001)
Esto nos indica que hemos llegado al "valle" donde el terreno es casi plano.
Parámetros Clave
Tasa de Aprendizaje (Learning Rate)
Demasiado alta: El algoritmo puede "saltar" sobre el mínimo
Demasiado baja: Convergencia muy lenta
Óptima: Balance entre velocidad y precisión