Bloque 0 — Orientación Block 0 — Orientation
Objetivos de aprendizaje
- Entender qué es y qué no es este curso.
- Conocer los prerrequisitos y cómo recorrerlo.
- Configurar el entorno (API + modelo local) en 15 min.
Learning objectives
- Understand what this course is and isn't.
- Know the prerequisites and how to navigate it.
- Set up your environment (API + local model) in 15 min.
0.1 ¿Qué es este curso? 0.1 What is this course?
Un curso académico abierto para hacer de ti un profesional competente con LLMs en 2026. Cubre desde fundamentos (qué es un transformer, cómo se entrena) hasta producción (RAG en escala, observabilidad, agentes multi-día), pasando por todo lo intermedio.
- Agnóstico de proveedor. Cada técnica se enseña con tablas cross-API: Claude, GPT-5, Gemini, DeepSeek, Kimi, MiniMax, Qwen, GLM, Grok, Mistral, Llama, Gemma. No "curso de Anthropic" ni "curso de OpenAI".
- Académico. Cada bloque tiene objetivos de aprendizaje, prerrequisitos, tiempo estimado, knowledge checks y bibliografía con enlaces a documentación oficial y papers.
- Profesional. Equiparable en alcance a Anthropic Academy, Google ML Crash Course, DeepLearning.AI Generative AI courses.
- Práctico. Ejemplos runnable, ejercicios interactivos, proyectos capstone con starter repos.
- Bilingüe. Todo en castellano e inglés. Toggle ES/EN en la sidebar.
- Vivo. Versionado con changelog. Las afirmaciones llevan fecha y se actualizan cuando el panorama cambia.
- Gratuito y abierto. MIT license. Fork it, mejoradlo, repostead.
- Un tutorial de "Hello World con la API". Asumimos que sabes pedir HTTP/REST y leer JSON. Si nunca has llamado a una API, primero hazlo: hay tutoriales de 30 minutos.
- Un libro de matemáticas. Explicamos atención, transformer y entrenamiento con la profundidad necesaria para entender QUÉ pasa, no para derivar las ecuaciones. Para eso ve a "Attention is All You Need" o al curso de Andrej Karpathy "Let's build GPT".
- Comercial. No vendemos certificación, ni hay paywall, ni promocionamos un proveedor.
- Un curso de programación. Mostramos código (Python mayoritariamente, también JavaScript), pero no enseñamos el lenguaje. Si Python te suena chino, primero el curso de Python.
An open academic course to make you a competent professional with LLMs in 2026. It covers from fundamentals (what is a transformer, how it's trained) all the way to production (RAG at scale, observability, multi-day agents), and everything in between.
- Vendor-agnostic. Every technique is taught with cross-API tables: Claude, GPT-5, Gemini, DeepSeek, Kimi, MiniMax, Qwen, GLM, Grok, Mistral, Llama, Gemma. Not "an Anthropic course" or "an OpenAI course".
- Academic. Each block has learning objectives, prerequisites, time estimates, knowledge checks and bibliography with links to official docs and papers.
- Professional. Comparable in scope to Anthropic Academy, Google ML Crash Course, DeepLearning.AI Generative AI courses.
- Practical. Runnable examples, interactive exercises, capstone projects with starter repos.
- Bilingual. Everything in Spanish and English. ES/EN toggle in the sidebar.
- Living. Versioned with changelog. Claims are dated and updated as the landscape shifts.
- Free and open. MIT license. Fork it, improve it, republish.
- A "Hello World API" tutorial. We assume you can make HTTP/REST calls and read JSON. If you've never called an API, do that first — there are 30-minute intro tutorials.
- A math book. We explain attention, transformers and training with enough depth to understand WHAT happens, not to derive the equations. For that, read "Attention is All You Need" or follow Andrej Karpathy's "Let's build GPT".
- Commercial. We don't sell certifications, there's no paywall, no provider promotion.
- A programming course. We show code (mostly Python, some JavaScript), but we don't teach the language. If Python is foreign to you, take a Python course first.
0.2 Prerrequisitos 0.2 Prerequisites
| Conocimiento | Nivel mínimo | Por qué |
|---|---|---|
| Programación general | 1+ año experiencia | Leerás snippets en Python/JS, harás llamadas a APIs. |
| HTTP / REST / JSON | Básico | Todas las APIs LLM hablan REST + JSON. |
| Línea de comandos | Básico (git, npm/pip, ssh) | Para Ollama, Claude Code, OpenCode. |
| Inglés técnico (lectura) | B2+ | Aunque el curso es bilingüe, los papers y docs oficiales están en inglés. |
| Estadística / probabilidad | Útil pero no esencial | Para entender sampling, evals y benchmarks. Conceptos clave los introducimos. |
| Álgebra lineal | Útil pero no esencial | Para profundizar en cómo funcionan los transformers. No imprescindible. |
| Knowledge | Minimum level | Why |
|---|---|---|
| General programming | 1+ year experience | You'll read Python/JS snippets, make API calls. |
| HTTP / REST / JSON | Basic | All LLM APIs speak REST + JSON. |
| Command line | Basic (git, npm/pip, ssh) | For Ollama, Claude Code, OpenCode. |
| Technical English (reading) | B2+ | The course is bilingual but papers and official docs are in English. |
| Statistics / probability | Helpful but not essential | To understand sampling, evals and benchmarks. Key concepts are introduced. |
| Linear algebra | Helpful but not essential | To deepen transformer understanding. Not required. |
0.3 Cómo recorrer el curso 0.3 How to navigate the course
Hay tres modos de uso según tu objetivo:
📖 Modo "estudio sistemático"
Vas en orden 0 → I → II → III → IV → … → XIII. Cada bloque toma 1-3 horas. Total ~30 horas distribuidas en 4-6 semanas.
Al final, deberías poder llevar un sistema LLM a producción end-to-end.
🎯 Modo "necesito saber X"
Vas directo al bloque que necesitas. Cada bloque tiene prerrequisitos al principio — si te faltan, salta a esos bloques antes.
Útil para: integrar RAG en tu app (Bloque VI), montar local self-hosted (Bloque VII), defender contra prompt injection (Bloque IV).
🔍 Modo "referencia"
Usas el glosario, las tablas comparativas (Bloques I y IX) y la cost calculator como herramientas de consulta.
Útil cuando ya sabes el tema y necesitas un dato preciso.
Convenciones del curso
- Idioma del prompt: los ejemplos en castellano se muestran en castellano cuando el toggle está en ES, en inglés cuando está en EN. En producción, escribir prompts en inglés rinde 5-15% mejor en los modelos abiertos pequeños (Llama, Qwen, Gemma) y marginalmente mejor en frontier — adapta al modelo target.
- Versiones: precios, contextos y benchmarks reflejan inicios de 2026. El changelog (footer) anota cuando algo se actualiza.
- Niveles de dificultad: beginner intermediate advanced visibles en cada bloque.
- Términos técnicos: al pasar el ratón sobre un término técnico verás su definición; clic abre la entrada completa en el glosario.
Three modes of use depending on your goal:
📖 "Systematic study" mode
Go in order 0 → I → II → III → IV → … → XIII. Each block takes 1-3 hours. Total ~30 hours spread over 4-6 weeks.
By the end, you should be able to take an LLM system to production end-to-end.
🎯 "I need to know X" mode
Jump straight to the block you need. Each block has prerequisites at the top — if you're missing them, hit those blocks first.
Useful for: integrating RAG in your app (Block VI), self-hosting local (Block VII), defending against prompt injection (Block IV).
🔍 "Reference" mode
Use the glossary, comparison tables (Blocks I and IX) and the cost calculator as lookup tools.
Useful when you know the topic and need a precise data point.
Course conventions
- Prompt language: Spanish examples show in Spanish when the toggle is ES, in English when EN. In production, English prompts run 5-15% better on small open models (Llama, Qwen, Gemma) and marginally better on frontier — adapt to the target model.
- Versions: prices, contexts and benchmarks reflect early 2026. The changelog (footer) tracks updates.
- Difficulty levels: beginner intermediate advanced visible on each block.
- Technical terms: hover over a technical term to see its definition; click to open the full entry in the glossary.
0.4 Setup del entorno 0.4 Environment Setup
Necesitas al menos uno de estos canales antes del Bloque II:
Canal 1 — API cloud (más rápido, paga por uso)
Elige uno de los siguientes según tu presupuesto y caso:
| Proveedor | Coste mínimo viable | Cómo crear API key |
|---|---|---|
| Anthropic (Claude) | $5 prepago | console.anthropic.com → API Keys |
| OpenAI (GPT-5) | $5 prepago | platform.openai.com → API Keys |
| Google (Gemini) | Free tier 15 req/min | aistudio.google.com |
| DeepSeek (V4 Pro) | $2 prepago, ~30× más barato | platform.deepseek.com |
| OpenRouter (multi-proveedor) | $5 prepago, todos los modelos | openrouter.ai |
Recomendación 2026: empieza con OpenRouter ($5 prepago te da acceso a todos los modelos top con una sola API key) o DeepSeek (más barato si vas a hacer mucho coding).
Canal 2 — Modelo local (privacidad total, requiere hardware)
Instala Ollama, el camino más rápido:
# macOS
brew install ollama
ollama serve # arranca daemon en :11434
# Linux
curl -fsSL https://ollama.com/install.sh | sh
# Windows
# Descarga el .exe en https://ollama.com/
# Descarga un modelo y prueba
ollama run gemma3:4b
ollama run qwen3:7b
ollama run llama3.2:3b # 2 GB, corre en cualquier PC moderno
Si tienes ≥16 GB VRAM (RTX 4080+/4090/5090) sube a Qwen3-14B Q5 o Llama 4 70B Q4.
Para Mac M-series con ≥32 GB unified memory, instala LM Studio que usa MLX nativo.
Canal 3 — Tu agente de coding
Para los bloques V (Agentes), VI (Infra) y XIII (Workshop), instala uno:
- Claude Code —
npm install -g @anthropic-ai/claude-code(requiere API key Anthropic). - OpenCode —
curl -fsSL https://opencode.ai/install | bash(open-source, soporta 75+ proveedores). - Codex CLI —
npm install -g @openai/codex(requiere API key OpenAI).
You need at least one of these channels before Block II:
Channel 1 — Cloud API (fastest, pay-per-use)
Pick one of the following based on your budget and case:
| Provider | Minimum viable cost | How to create an API key |
|---|---|---|
| Anthropic (Claude) | $5 prepaid | console.anthropic.com → API Keys |
| OpenAI (GPT-5) | $5 prepaid | platform.openai.com → API Keys |
| Google (Gemini) | Free tier 15 req/min | aistudio.google.com |
| DeepSeek (V4 Pro) | $2 prepaid, ~30× cheaper | platform.deepseek.com |
| OpenRouter (multi-provider) | $5 prepaid, every model | openrouter.ai |
2026 recommendation: start with OpenRouter ($5 prepaid gives you all top models with a single API key) or DeepSeek (cheaper if you'll do a lot of coding).
Channel 2 — Local model (full privacy, needs hardware)
Install Ollama, the fastest path:
# macOS
brew install ollama
ollama serve # starts daemon on :11434
# Linux
curl -fsSL https://ollama.com/install.sh | sh
# Windows
# Download the .exe at https://ollama.com/
# Pull a model and test
ollama run gemma3:4b
ollama run qwen3:7b
ollama run llama3.2:3b # 2 GB, runs on any modern PC
If you have ≥16 GB VRAM (RTX 4080+/4090/5090) move up to Qwen3-14B Q5 or Llama 4 70B Q4.
For Mac M-series with ≥32 GB unified memory, install LM Studio which uses MLX natively.
Channel 3 — Your coding agent
For blocks V (Agents), VI (Infra) and XIII (Workshop), install one:
- Claude Code —
npm install -g @anthropic-ai/claude-code(needs Anthropic API key). - OpenCode —
curl -fsSL https://opencode.ai/install | bash(open-source, supports 75+ providers). - Codex CLI —
npm install -g @openai/codex(needs OpenAI API key).