📚 K-NN y Árboles de Decisión

Estas referencias refuerzan la narrativa del capítulo sobre clasificadores interpretables: cómo opera K-NN, cómo ajustar y explicar árboles de decisión y cómo se aplican en entornos con requisitos de transparencia.


Índice

  1. Fundamentos de K-Nearest Neighbors
  2. Árboles de decisión
  3. Métricas de distancia y normalización
  4. Casos de estudio y adopción
  5. Recursos adicionales

1. Fundamentos de K-Nearest Neighbors

RecursoTipoNotasAcceso
Nearest Neighbors — scikit-learnDocumentaciónDetalla KNeighborsClassifier, métricas soportadas y estructuras KD/Ball Tree.https://scikit-learn.org/stable/modules/neighbors.html
Algoritmo de los k vecinos más próximos — WikipediaArtículo de referenciaHistoria, formulación matemática y variantes ponderadas.https://es.wikipedia.org/wiki/Algoritmo_de_los_k_vecinos_m%C3%A1s_pr%C3%B3ximos
K-Nearest Neighbors — IBM ThinkArtículo divulgativoResumen accesible de ventajas, limitaciones y preparación de datos.https://www.ibm.com/mx-es/topics/knn
Machine Learning Basics with K-NNTutorialEjemplo paso a paso con visualizaciones de fronteras de decisión.https://towardsdatascience.com/machine-learning-basics-with-the-k-nearest-neighbors-algorithm-6a6e71d01761
Bishop, C. M. (2006). Pattern Recognition and Machine LearningLibroCapítulo 2 conecta K-NN con teoría bayesiana y soft decisions.https://www.microsoft.com/en-us/research/publication/pattern-recognition-machine-learning/

2. Árboles de decisión

RecursoTipoNotasAcceso
Decision Trees — scikit-learnDocumentaciónExplica CART, medidas de impureza, poda por complejidad y extracción de reglas.https://scikit-learn.org/stable/modules/tree.html
Árbol de decisión — WikipediaArtículo de referenciaDescribe ID3, C4.5, CART y aplicaciones en diferentes dominios.https://es.wikipedia.org/wiki/%C3%81rbol_de_decisi%C3%B3n
Decision Tree Algorithm ExplainedTutorialGuía práctica con ejemplos, visualizaciones y consejos de hiperparámetros.https://www.analyticsvidhya.com/blog/2021/08/decision-tree-algorithm/
Decision Region Visualizer — MLxtendHerramientaUtilidad en Python para graficar fronteras de decisión en 2D y 3D.http://rasbt.github.io/mlxtend/user_guide/plotting/plot_decision_regions/
Breiman, L., Friedman, J., Olshen, R. y Stone, C. (1984). Classification and Regression TreesMonografíaTexto clásico que introduce el algoritmo CART, poda y validez estadística.https://doi.org/10.1201/9781315139470

3. Métricas de distancia y normalización

RecursoFocoAcceso
Métricas de distancia — scikit-learnCatálogo de métricas (Euclidiana, Manhattan, Mahalanobis, coseno) con ejemplos.https://scikit-learn.org/stable/modules/generated/sklearn.metrics.pairwise_distances.html
Normalización de características — scikit-learnResumen de StandardScaler, MinMaxScaler y pipelines para preprocesado consistente.https://scikit-learn.org/stable/modules/preprocessing.html#preprocessing-scaler
The Curse of Dimensionality — StatQuestVideo que explica por qué la alta dimensionalidad degrada el rendimiento de K-NN.https://www.youtube.com/watch?v=mDaxrKL2iWw
Reducción de la dimensión — WikipediaPanorama de PCA, ICA y métodos de reducción previos a aplicar K-NN.https://es.wikipedia.org/wiki/Reducci%C3%B3n_de_la_dimensi%C3%B3n

4. Casos de estudio y adopción

RecursoDestacadoAcceso
K-NN for cancer classificationClasificación de tumores benignos/malignos con K-NN sobre el Wisconsin Breast Cancer Dataset.https://link.springer.com/article/10.1007/s10916-012-9833-7
Decision trees in medical diagnosisVentajas de los árboles para explicar decisiones en protocolos clínicos.https://bmcmedinformdecismak.biomedcentral.com/articles/10.1186/1472-6947-9-11
Clinical decision support systems — OMSGuía de la OMS sobre sistemas basados en reglas comparables a árboles de decisión.https://www.who.int/publications/i/item/clinical-decision-support-systems-for-family-planning
Machine Learning for Healthcare — MIT OCWCurso de posgrado con aplicaciones de K-NN y árboles en datos clínicos.https://ocw.mit.edu/courses/hst-953j-machine-learning-for-healthcare-spring-2019/

5. Recursos adicionales

RecursoEnfoqueAcceso
Ejemplos de clasificación — scikit-learnGalería de notebooks que comparan K-NN, árboles y métricas de evaluación.https://scikit-learn.org/stable/auto_examples/index.html#classification
Google ML Crash CourseMódulos interactivos sobre clasificación supervisada y buenas prácticas.https://developers.google.com/machine-learning/crash-course
Hastie, T., Tibshirani, R. y Friedman, J. (2009). The Elements of Statistical LearningCapítulos 13–14 profundizan en métodos basados en vecinos y árboles con ejemplos médicos.https://hastie.su.domains/ElemStatLearn/

Nota: Todos los enlaces se verificaron en octubre de 2025. Para materiales de acceso restringido, utiliza bibliotecas institucionales o repositorios abiertos.