Capitulo 7

Capítulo 7: La Revolución del Lenguaje - Entendiendo LLMs

La Revolución del Lenguaje: Entendiendo LLMs

Ilustración del capítulo 7

Con los LLMs por todas partes, Víctor, Marta y Luis se preguntan cómo encajan en Minermont; Alma los guía por tokenización, embeddings y atención.

Los Modelos de Lenguaje Grande como GPT y Claude están en todas partes, generando texto similar al humano, respondiendo preguntas y asistiendo con diversas tareas. El equipo de Minermont los ha estado usando informalmente, pero ¿cómo podrían los LLM encajar en la atención médica donde la privacidad del paciente es primordial? A diferencia de las redes neuronales convolucionales para imágenes, los LLM enfrentan desafíos únicos: el texto es secuencial, dependiente del contexto e infinitamente variable. El equipo se embarca en su viaje de aprendizaje más ambicioso hasta ahora, explorando tokenización (cómo las palabras se convierten en números), incrustaciones (cómo el significado se captura en espacio vectorial), mecanismos de atención (cómo los modelos entienden el contexto) y arquitecturas transformadoras (la base de los LLM modernos). Esta primera parte sienta los fundamentos cruciales para entender cómo funcionan realmente los modelos de lenguaje bajo la superficie.

En este capítulo, te unirás al equipo en la exploración de los pilares fundamentales sobre los que se construyen todos los LLMs: la tokenización y las representaciones semánticas.

  1. 7.1 El Artesano de Palabras: El Tokenizador BPE: Descubrirás el algoritmo Byte-Pair Encoding (BPE). En esta simulación interactiva, no solo verás cómo funciona, sino que entrenarás tu propio tokenizador. Comprenderás por qué este proceso de "aprender un vocabulario" es crucial para que un modelo de IA pueda procesar eficientemente la jerga médica, las abreviaturas y la riqueza del lenguaje humano.

  2. 7.1 Embedding Projector: Visualizando Vectores de Palabras: Explorarás cómo las palabras se transforman en vectores matemáticos en espacios de alta dimensión, donde el significado emerge de la geometría. Usando el TensorFlow Embedding Projector, visualizarás cómo los modelos de lenguaje organizan el conocimiento médico, agrupando términos relacionados y capturando relaciones semánticas complejas.

  3. 7.3 Visualización de LLMs: Ver la IA por Dentro: Descubrirás el funcionamiento interno de un modelo de lenguaje grande mediante una visualización 3D interactiva. Podrás observar cómo fluye la información a través de las capas, cómo funciona el mecanismo de atención, y cómo el modelo finalmente predice la siguiente palabra. Esta herramienta conecta todo lo aprendido en el capítulo en una experiencia visual única.

  4. 7.4 Juego Interactivo: Entrenando un Modelo de Lenguaje: Experimenta cómo un modelo de lenguaje mejora progresivamente sus predicciones a medida que ajusta sus parámetros internos. En este juego educativo, entrenarás una pequeña red neuronal sobre un corpus temático, observando visualmente cómo los valores cambian con cada ejemplo procesado.

  5. 7.5 Panorama de LLMs: los modelos más relevantes: Un mapa práctico de las familias de modelos actuales (APIs “frontier”, open-weight autoalojables, opciones en dispositivo) y sus trade-offs en despliegues reales.

  6. 7.5 Benchmarks de LLM: vigentes vs. saturados: Guía curada de los benchmarks más usados, cuáles siguen diferenciando modelos y dónde verificar afirmaciones de leaderboards. Prepárate para dar los primeros pasos en el viaje hacia la comprensión del lenguaje artificial, una habilidad que está transformando la medicina y el mundo.

Pseudocódigo de Algoritmos

Fundamentos Matemáticos

Bibliografía y Recursos Complementarios

22 ene. 2025