📚 Bibliografía: LLMs y Tokenización
Fundamentos de Large Language Models
| Recurso | Tipo/Enfoque | Idioma | Acceso |
|---|---|---|---|
| Hugging Face NLP Course | Curso completo sobre NLP y transformers | EN | Online |
| Wikipedia: Large language model | Introducción a LLMs, historia y aplicaciones | EN | Online |
| OpenAI: GPT-3 Paper | Artículo técnico sobre GPT-3 | EN | arXiv |
| Vaswani et al. (2017). "Attention Is All You Need" | Artículo seminal sobre arquitectura Transformer | EN | arXiv |
Tokenización y BPE
| Recurso | Tipo/Enfoque | Idioma | Acceso |
|---|---|---|---|
| Hugging Face: Byte-Pair Encoding tokenization | Tutorial detallado sobre BPE con implementación | EN | Online |
| Wikipedia: Byte pair encoding | Historia y funcionamiento del algoritmo BPE | EN | Online |
| Sennrich, R., Haddow, B., & Birch, A. (2016). "Neural Machine Translation of Rare Words with Subword Units" | Artículo original sobre BPE para NLP | EN | arXiv |
| Hugging Face Tokenizers | Documentación de la librería Tokenizers | EN | Online |
Transformers y Arquitecturas
| Recurso | Tipo/Enfoque | Idioma | Acceso |
|---|---|---|---|
| The Illustrated Transformer | Explicación visual de la arquitectura Transformer | EN | Online |
| Attention Is All You Need | Paper original de Transformers (Google) | EN | arXiv |
| Stanford CS224N: Natural Language Processing with Deep Learning | Curso de Stanford sobre NLP | EN | Online |
| Devlin, J. et al. (2018). "BERT: Pre-training of Deep Bidirectional Transformers" | Paper de BERT | EN | arXiv |
Modelos Pre-entrenados y Fine-tuning
| Recurso | Tipo/Enfoque | Idioma | Acceso |
|---|---|---|---|
| Hugging Face Model Hub | Repositorio de modelos pre-entrenados | EN | Online |
| OpenAI API Documentation | Documentación de GPT-3.5/4 | EN | Online |
| Radford, A. et al. (2019). "Language Models are Unsupervised Multitask Learners" | Paper de GPT-2 | EN | |
| Brown, T. et al. (2020). "Language Models are Few-Shot Learners" | Paper de GPT-3 | EN | arXiv |
Aplicaciones Médicas de LLMs
| Recurso | Tipo/Enfoque | Idioma | Acceso |
|---|---|---|---|
| Nature: Large language models in medicine | Aplicaciones de LLMs en medicina | EN | Artículo |
| PubMed: ChatGPT and Healthcare | Revisión sobre ChatGPT en salud | EN | Artículo |
| Med-PaLM: Google's Medical LLM | LLM especializado en medicina | EN | arXiv |
| WHO: Ethics and governance of AI for health | Perspectiva ética de la OMS sobre IA en salud | EN |
Nota: Todos los enlaces han sido verificados y son accesibles online. Para acceso a artículos en arXiv, están disponibles gratuitamente. Para artículos en revistas científicas, consulta tu biblioteca universitaria o Google Scholar.