LLM 101

Cómo construir un LLM desde cero

Esta sesión forma parte del Club de Lectura de la Comunidad Ninja.

Basándonos en el libro Build a large language model (from scratch) de Sebastian Raschka, exploramos paso a paso los componentes fundamentales de los modelos del lenguaje.

Durante más de una hora desgranamos los capítulos centrales del libro, combinando teoría, visualizaciones y anécdotas que nos ayudan a aterrizar conceptos que, sobre el papel, pueden parecer complejos.

👉 Hablamos de:

  • Cómo se representan las palabras en forma de números mediante tokenización y embeddings.
  • Qué hace tan especial a la arquitectura Transformer y por qué los modelos GPT se quedan solo con su “mitad”.
  • Qué son los mecanismos de atención y cómo permiten al modelo entender el contexto.
  • Y sí, también tocamos temas más filosóficos como los sesgos en los datos y cómo acaban filtrándose en las predicciones.

🔧 En la próxima sesión nos meteremos de lleno en código con PyTorch para ver cómo se entrena un LLM (en versión mini, claro).

Así que si quieres tener contexto antes de ensuciarte las manos, esta sesión es la mejor antesala.

🎥 Dale al play, abre tu cuaderno de notas y prepárate para entender, de verdad, cómo funcionan los modelos de lenguaje más potentes del momento.

Membresía requerida

Este contenido está disponible únicamente para suscriptores.

Puedes apuntarte a la plataforma en este enlace

¿Ya eres un ninja? Accede aquí

Accede a todo el contenido premium

Ya no necesitas pagar cientos de euros por un Bootcamp para convertirte en ninja de los datos. Por solo 17€/mes (o menos 🤯), obtén acceso al podcast premium, a todos los tutoriales y a los resúmenes de los libros más top sobre Machine Learning y Ciencia de datos y aprende a tu ritmo.
¡Empieza ahora!
Copyright © 2025  · Datos 🥷 · Todos los derechos reservados