26. Fine-Tuning de LLMs

Membresía requerida

Este contenido está disponible únicamente para suscriptores.

Puedes apuntarte a la plataforma en este enlace

¿Ya eres un ninja? Accede aquí

¿Te has preguntado alguna vez por qué ChatGPT puede seguir tus instrucciones con precisión mientras que un modelo recién entrenado solo genera texto aleatorio?

La respuesta está en una fase que pocos conocen: el fine-tuning o ajuste fino.

Después de explorar cómo preparar el texto para poder entreanr un LLM y la arquitectura Transformer en episodios anteriores, hoy cerramos el círculo completo del entrenamiento de LLMs con la fase que transforma un generador de texto básico en un modelo especializado.

El Secreto Detrás de Gemini 3 y ChatGPT

Oriol Vinyals de Google DeepMind lo dejó claro en un tweet tras el lanzamiento de Gemini 3: el verdadero poder de este modelo está en el pre-entrenamiento escalable y en su post-entrenamiento.

Peeero un modelo pre-entrenado, por muy grande que sea, solo sabe hacer una cosa: predecir la siguiente palabra.

Nada más.

No puede clasificar emails como spam, ni seguir instrucciones complejas, ni mantener conversaciones coherentes.

Para conseguir esas capacidades necesita una fase adicional de especialización.

De Predictor de Palabras a modelo Especializado

El ajuste fino es esa transformación que convierte miles de millones de coeficientes entrenados en texto crudo en herramientas especializadas capaces de realizar tareas concretas.

En este episodio exploramos dos modalidades de fine-tuning:

1. Fine-Tuning para Clasificación

¿Por qué entrenar tu propio clasificador cuando GPT-5 ya puede clasificar texto de manera directa?

La respuesta está en los costes y la eficiencia.

Un modelo pequeño ajustado para clasificar mensajes de soporte puede ser bastante más barato de operar que llamar a la API de GPT-5 millones de veces al día.

Además, aprende patrones específicos de tu negocio que ningún modelo generalista conoce.

2. Instruction Fine-Tuning

Esta es la técnica que diferencia un generador de texto de un asistente conversacional.

Mediante datasets especializados de pares instrucción-respuesta, el modelo aprende a entender conceptos como "resume este texto", "traduce al francés" o "explícamelo como si tuviera yo 5 años".

Es la fase que convierte un LLM en ChatGPT.

Los Pasos del Fine-Tuning

En el episodio desentrañamos el proceso completo:

  • Preparación de datasets etiquetados: A diferencia del pre-entrenamiento con texto crudo, aquí necesitas datos curados y etiquetados
  • Modificación de la arquitectura: Cómo adaptar la última capa del modelo según tu objetivo
  • Estrategias de congelamiento de capas: La decisión sobre qué parámetros entrenar y cuáles dejar intactos
  • Evaluación de LLMs: Desde benchmarks objetivos hasta usar otros LLMs como evaluadores.

Con este episodio cerramos el círculo completo de comprensión de los LLMs:

  1. Tokenización y embeddings: Convertir palabras en números con significado
  2. La arquitectura de los modelos del lenguaje basados en GPT.
  3. La fase de pre-entrenamiento en la que el modelo aprende las reglas del lenguaje para poder generar texto.
  4. Fine-tuning: Especializar el modelo para tareas concretas
  5. Evaluación: Cómo medir si realmente funciona

Todo emergiendo de esa tarea aparentemente simple de predecir la siguiente palabra.

Es alucinante lo lejos que hemos llegado ajustando miles de millones de números.

🎧 Escucha el episodio premium completo para entender todo lo que hay que saber sobre modelos del lenguaje en menos de 1 hora.

Si tenéis dudas sobre fine-tuning, estrategias de entrenamiento o evaluación de modelos, nos vemos en Discord para resolverlas juntos.

Accede a todo el contenido premium

Ya no necesitas pagar cientos de euros por un Bootcamp para convertirte en ninja de los datos. Por solo 17€/mes (o menos 🤯), obtén acceso al podcast premium, a todos los tutoriales y a los resúmenes de los libros más top sobre Machine Learning y Ciencia de datos y aprende a tu ritmo.
¡Empieza ahora!
Copyright © 2026  · Datos 🥷 · Todos los derechos reservados