🧭 beginner ⏱️ 20 min

Bloque 0 — Orientación Block 0 — Orientation

Objetivos de aprendizaje

  • Entender qué es y qué no es este curso.
  • Conocer los prerrequisitos y cómo recorrerlo.
  • Configurar el entorno (API + modelo local) en 15 min.

Learning objectives

  • Understand what this course is and isn't.
  • Know the prerequisites and how to navigate it.
  • Set up your environment (API + local model) in 15 min.

0.1 ¿Qué es este curso? 0.1 What is this course?

Un curso académico abierto para hacer de ti un profesional competente con LLMs en 2026. Cubre desde fundamentos (qué es un transformer, cómo se entrena) hasta producción (RAG en escala, observabilidad, agentes multi-día), pasando por todo lo intermedio.

✅ Lo que SÍ es
  • Agnóstico de proveedor. Cada técnica se enseña con tablas cross-API: Claude, GPT-5, Gemini, DeepSeek, Kimi, MiniMax, Qwen, GLM, Grok, Mistral, Llama, Gemma. No "curso de Anthropic" ni "curso de OpenAI".
  • Académico. Cada bloque tiene objetivos de aprendizaje, prerrequisitos, tiempo estimado, knowledge checks y bibliografía con enlaces a documentación oficial y papers.
  • Profesional. Equiparable en alcance a Anthropic Academy, Google ML Crash Course, DeepLearning.AI Generative AI courses.
  • Práctico. Ejemplos runnable, ejercicios interactivos, proyectos capstone con starter repos.
  • Bilingüe. Todo en castellano e inglés. Toggle ES/EN en la sidebar.
  • Vivo. Versionado con changelog. Las afirmaciones llevan fecha y se actualizan cuando el panorama cambia.
  • Gratuito y abierto. MIT license. Fork it, mejoradlo, repostead.
❌ Lo que NO es
  • Un tutorial de "Hello World con la API". Asumimos que sabes pedir HTTP/REST y leer JSON. Si nunca has llamado a una API, primero hazlo: hay tutoriales de 30 minutos.
  • Un libro de matemáticas. Explicamos atención, transformer y entrenamiento con la profundidad necesaria para entender QUÉ pasa, no para derivar las ecuaciones. Para eso ve a "Attention is All You Need" o al curso de Andrej Karpathy "Let's build GPT".
  • Comercial. No vendemos certificación, ni hay paywall, ni promocionamos un proveedor.
  • Un curso de programación. Mostramos código (Python mayoritariamente, también JavaScript), pero no enseñamos el lenguaje. Si Python te suena chino, primero el curso de Python.

An open academic course to make you a competent professional with LLMs in 2026. It covers from fundamentals (what is a transformer, how it's trained) all the way to production (RAG at scale, observability, multi-day agents), and everything in between.

✅ What it IS
  • Vendor-agnostic. Every technique is taught with cross-API tables: Claude, GPT-5, Gemini, DeepSeek, Kimi, MiniMax, Qwen, GLM, Grok, Mistral, Llama, Gemma. Not "an Anthropic course" or "an OpenAI course".
  • Academic. Each block has learning objectives, prerequisites, time estimates, knowledge checks and bibliography with links to official docs and papers.
  • Professional. Comparable in scope to Anthropic Academy, Google ML Crash Course, DeepLearning.AI Generative AI courses.
  • Practical. Runnable examples, interactive exercises, capstone projects with starter repos.
  • Bilingual. Everything in Spanish and English. ES/EN toggle in the sidebar.
  • Living. Versioned with changelog. Claims are dated and updated as the landscape shifts.
  • Free and open. MIT license. Fork it, improve it, republish.
❌ What it ISN'T
  • A "Hello World API" tutorial. We assume you can make HTTP/REST calls and read JSON. If you've never called an API, do that first — there are 30-minute intro tutorials.
  • A math book. We explain attention, transformers and training with enough depth to understand WHAT happens, not to derive the equations. For that, read "Attention is All You Need" or follow Andrej Karpathy's "Let's build GPT".
  • Commercial. We don't sell certifications, there's no paywall, no provider promotion.
  • A programming course. We show code (mostly Python, some JavaScript), but we don't teach the language. If Python is foreign to you, take a Python course first.

0.2 Prerrequisitos 0.2 Prerequisites

ConocimientoNivel mínimoPor qué
Programación general1+ año experienciaLeerás snippets en Python/JS, harás llamadas a APIs.
HTTP / REST / JSONBásicoTodas las APIs LLM hablan REST + JSON.
Línea de comandosBásico (git, npm/pip, ssh)Para Ollama, Claude Code, OpenCode.
Inglés técnico (lectura)B2+Aunque el curso es bilingüe, los papers y docs oficiales están en inglés.
Estadística / probabilidadÚtil pero no esencialPara entender sampling, evals y benchmarks. Conceptos clave los introducimos.
Álgebra linealÚtil pero no esencialPara profundizar en cómo funcionan los transformers. No imprescindible.
💡 Si te falta alguno: el curso lo cita y te apunta a un recurso rápido cuando hace falta. No tienes que parar todo para repasarlo antes de empezar.
KnowledgeMinimum levelWhy
General programming1+ year experienceYou'll read Python/JS snippets, make API calls.
HTTP / REST / JSONBasicAll LLM APIs speak REST + JSON.
Command lineBasic (git, npm/pip, ssh)For Ollama, Claude Code, OpenCode.
Technical English (reading)B2+The course is bilingual but papers and official docs are in English.
Statistics / probabilityHelpful but not essentialTo understand sampling, evals and benchmarks. Key concepts are introduced.
Linear algebraHelpful but not essentialTo deepen transformer understanding. Not required.
💡 If you're missing any: the course points to a quick resource when needed. You don't have to stop and review everything before starting.

0.3 Cómo recorrer el curso 0.3 How to navigate the course

Hay tres modos de uso según tu objetivo:

📖 Modo "estudio sistemático"

Vas en orden 0 → I → II → III → IV → … → XIII. Cada bloque toma 1-3 horas. Total ~30 horas distribuidas en 4-6 semanas.

Al final, deberías poder llevar un sistema LLM a producción end-to-end.

🎯 Modo "necesito saber X"

Vas directo al bloque que necesitas. Cada bloque tiene prerrequisitos al principio — si te faltan, salta a esos bloques antes.

Útil para: integrar RAG en tu app (Bloque VI), montar local self-hosted (Bloque VII), defender contra prompt injection (Bloque IV).

🔍 Modo "referencia"

Usas el glosario, las tablas comparativas (Bloques I y IX) y la cost calculator como herramientas de consulta.

Útil cuando ya sabes el tema y necesitas un dato preciso.

Convenciones del curso

  • Idioma del prompt: los ejemplos en castellano se muestran en castellano cuando el toggle está en ES, en inglés cuando está en EN. En producción, escribir prompts en inglés rinde 5-15% mejor en los modelos abiertos pequeños (Llama, Qwen, Gemma) y marginalmente mejor en frontier — adapta al modelo target.
  • Versiones: precios, contextos y benchmarks reflejan inicios de 2026. El changelog (footer) anota cuando algo se actualiza.
  • Niveles de dificultad: beginner intermediate advanced visibles en cada bloque.
  • Términos técnicos: al pasar el ratón sobre un término técnico verás su definición; clic abre la entrada completa en el glosario.

Three modes of use depending on your goal:

📖 "Systematic study" mode

Go in order 0 → I → II → III → IV → … → XIII. Each block takes 1-3 hours. Total ~30 hours spread over 4-6 weeks.

By the end, you should be able to take an LLM system to production end-to-end.

🎯 "I need to know X" mode

Jump straight to the block you need. Each block has prerequisites at the top — if you're missing them, hit those blocks first.

Useful for: integrating RAG in your app (Block VI), self-hosting local (Block VII), defending against prompt injection (Block IV).

🔍 "Reference" mode

Use the glossary, comparison tables (Blocks I and IX) and the cost calculator as lookup tools.

Useful when you know the topic and need a precise data point.

Course conventions

  • Prompt language: Spanish examples show in Spanish when the toggle is ES, in English when EN. In production, English prompts run 5-15% better on small open models (Llama, Qwen, Gemma) and marginally better on frontier — adapt to the target model.
  • Versions: prices, contexts and benchmarks reflect early 2026. The changelog (footer) tracks updates.
  • Difficulty levels: beginner intermediate advanced visible on each block.
  • Technical terms: hover over a technical term to see its definition; click to open the full entry in the glossary.

0.4 Setup del entorno 0.4 Environment Setup

Necesitas al menos uno de estos canales antes del Bloque II:

Canal 1 — API cloud (más rápido, paga por uso)

Elige uno de los siguientes según tu presupuesto y caso:

ProveedorCoste mínimo viableCómo crear API key
Anthropic (Claude)$5 prepagoconsole.anthropic.com → API Keys
OpenAI (GPT-5)$5 prepagoplatform.openai.com → API Keys
Google (Gemini)Free tier 15 req/minaistudio.google.com
DeepSeek (V4 Pro)$2 prepago, ~30× más baratoplatform.deepseek.com
OpenRouter (multi-proveedor)$5 prepago, todos los modelosopenrouter.ai

Recomendación 2026: empieza con OpenRouter ($5 prepago te da acceso a todos los modelos top con una sola API key) o DeepSeek (más barato si vas a hacer mucho coding).

Canal 2 — Modelo local (privacidad total, requiere hardware)

Instala Ollama, el camino más rápido:

# macOS
brew install ollama
ollama serve  # arranca daemon en :11434

# Linux
curl -fsSL https://ollama.com/install.sh | sh

# Windows
# Descarga el .exe en https://ollama.com/

# Descarga un modelo y prueba
ollama run gemma3:4b
ollama run qwen3:7b
ollama run llama3.2:3b   # 2 GB, corre en cualquier PC moderno

Si tienes ≥16 GB VRAM (RTX 4080+/4090/5090) sube a Qwen3-14B Q5 o Llama 4 70B Q4.

Para Mac M-series con ≥32 GB unified memory, instala LM Studio que usa MLX nativo.

Canal 3 — Tu agente de coding

Para los bloques V (Agentes), VI (Infra) y XIII (Workshop), instala uno:

  • Claude Codenpm install -g @anthropic-ai/claude-code (requiere API key Anthropic).
  • OpenCodecurl -fsSL https://opencode.ai/install | bash (open-source, soporta 75+ proveedores).
  • Codex CLInpm install -g @openai/codex (requiere API key OpenAI).
⚠️ Antes de seguir: verifica que puedes hacer una llamada simple. Abre tu canal y manda "Hola, dime el resultado de 2+2 explicado paso a paso". Si responde "4 (porque 2+2=4 por la propiedad asociativa…)", estás listo. Si no, revisa la API key y el endpoint.

You need at least one of these channels before Block II:

Channel 1 — Cloud API (fastest, pay-per-use)

Pick one of the following based on your budget and case:

ProviderMinimum viable costHow to create an API key
Anthropic (Claude)$5 prepaidconsole.anthropic.com → API Keys
OpenAI (GPT-5)$5 prepaidplatform.openai.com → API Keys
Google (Gemini)Free tier 15 req/minaistudio.google.com
DeepSeek (V4 Pro)$2 prepaid, ~30× cheaperplatform.deepseek.com
OpenRouter (multi-provider)$5 prepaid, every modelopenrouter.ai

2026 recommendation: start with OpenRouter ($5 prepaid gives you all top models with a single API key) or DeepSeek (cheaper if you'll do a lot of coding).

Channel 2 — Local model (full privacy, needs hardware)

Install Ollama, the fastest path:

# macOS
brew install ollama
ollama serve  # starts daemon on :11434

# Linux
curl -fsSL https://ollama.com/install.sh | sh

# Windows
# Download the .exe at https://ollama.com/

# Pull a model and test
ollama run gemma3:4b
ollama run qwen3:7b
ollama run llama3.2:3b   # 2 GB, runs on any modern PC

If you have ≥16 GB VRAM (RTX 4080+/4090/5090) move up to Qwen3-14B Q5 or Llama 4 70B Q4.

For Mac M-series with ≥32 GB unified memory, install LM Studio which uses MLX natively.

Channel 3 — Your coding agent

For blocks V (Agents), VI (Infra) and XIII (Workshop), install one:

  • Claude Codenpm install -g @anthropic-ai/claude-code (needs Anthropic API key).
  • OpenCodecurl -fsSL https://opencode.ai/install | bash (open-source, supports 75+ providers).
  • Codex CLInpm install -g @openai/codex (needs OpenAI API key).
⚠️ Before moving on: verify you can make a simple call. Open your channel and send "Hi, what's 2+2 explained step by step?" If it replies "4 (because 2+2=4 by the associative property…)", you're set. Otherwise, double-check API key and endpoint.

Referencias References