Capítulo 2: Modelos de Aprendizaje Automático
Entusiasmo y Frustración: Regresión Lineal

Agotado y entre pruebas, Víctor se apoya en Luis y la AIA mientras Javier duda, y la regresión lineal se convierte en el primer logro medible de Minermont.
Este capítulo se centra en la mecánica básica del aprendizaje supervisado con modelos simples: ajustar una recta, elegir una función de coste y optimizar parámetros.
¿Qué aprenderás?
Usa las actividades interactivas para construir intuición ajustando parámetros y observando cómo cambia el error.
2.1 Ajustar un Modelo de Regresión Lineal
Ajusta manualmente pendiente e intercepto y compara predicciones vs. datos.2.2 Visualizar el Descenso del Gradiente
Visualiza cómo las actualizaciones iterativas mueven los parámetros hacia menor error.2.5 Comparar Funciones de Coste
Compara MAE vs. MSE y cómo cada una trata outliers.
Fundamentos matemáticos
- 📐 Derivadas: Referencia concisa de reglas de derivación y un widget interactivo para calcular $f'(x)$ y explorar explicaciones paso a paso mediante WolframAlpha.
- 📐 Derivadas parciales y gradiente: Desde derivadas parciales hasta el vector gradiente, intuición geométrica y un widget para calcular $\nabla f$ de forma simbólica.
Pseudocódigo de Algoritmos
- 📝 Pseudocódigo de Regresión Lineal: Pseudocódigo detallado para regresión lineal con ecuación normal y descenso del gradiente.
- 📝 Pseudocódigo de Descenso del Gradiente: Pseudocódigo paso a paso para descenso del gradiente por lotes, estocástico y mini-lotes.
Implementación práctica
- ⚡ Regresión lineal desde cero: Construye un modelo de regresión lineal desde cero, aplicando los conceptos aprendidos a un problema real.
- ⚡ Regresión lineal con Scikit-Learn: Usa la biblioteca estándar de la industria para implementar un modelo de regresión lineal de forma eficiente.
Bibliografía y recursos adicionales
- 📚 Regresión lineal: Materiales para profundizar en la regresión lineal, desde la teoría hasta la práctica.
- 📚 Descenso del gradiente: Recursos para entender y aplicar el descenso del gradiente, desde fundamentos hasta técnicas avanzadas de optimización.