¿Te has preguntado alguna vez por qué ChatGPT puede seguir tus instrucciones con precisión mientras que un modelo recién entrenado solo genera texto aleatorio?
La respuesta está en una fase que pocos conocen: el fine-tuning o ajuste fino.
Después de explorar cómo preparar el texto para poder entreanr un LLM y la arquitectura Transformer en episodios anteriores, hoy cerramos el círculo completo del entrenamiento de LLMs con la fase que transforma un generador de texto básico en un modelo especializado.
Oriol Vinyals de Google DeepMind lo dejó claro en un tweet tras el lanzamiento de Gemini 3: el verdadero poder de este modelo está en el pre-entrenamiento escalable y en su post-entrenamiento.
Peeero un modelo pre-entrenado, por muy grande que sea, solo sabe hacer una cosa: predecir la siguiente palabra.
Nada más.
No puede clasificar emails como spam, ni seguir instrucciones complejas, ni mantener conversaciones coherentes.
Para conseguir esas capacidades necesita una fase adicional de especialización.
El ajuste fino es esa transformación que convierte miles de millones de coeficientes entrenados en texto crudo en herramientas especializadas capaces de realizar tareas concretas.
En este episodio exploramos dos modalidades de fine-tuning:
¿Por qué entrenar tu propio clasificador cuando GPT-5 ya puede clasificar texto de manera directa?
La respuesta está en los costes y la eficiencia.
Un modelo pequeño ajustado para clasificar mensajes de soporte puede ser bastante más barato de operar que llamar a la API de GPT-5 millones de veces al día.
Además, aprende patrones específicos de tu negocio que ningún modelo generalista conoce.
Esta es la técnica que diferencia un generador de texto de un asistente conversacional.
Mediante datasets especializados de pares instrucción-respuesta, el modelo aprende a entender conceptos como "resume este texto", "traduce al francés" o "explícamelo como si tuviera yo 5 años".
Es la fase que convierte un LLM en ChatGPT.
En el episodio desentrañamos el proceso completo:
Con este episodio cerramos el círculo completo de comprensión de los LLMs:
Todo emergiendo de esa tarea aparentemente simple de predecir la siguiente palabra.
Es alucinante lo lejos que hemos llegado ajustando miles de millones de números.
🎧 Escucha el episodio premium completo para entender todo lo que hay que saber sobre modelos del lenguaje en menos de 1 hora.
Si tenéis dudas sobre fine-tuning, estrategias de entrenamiento o evaluación de modelos, nos vemos en Discord para resolverlas juntos.