Saltar al contenido

🧠 Cómo funciona ChatGPT por dentro: tokens, entrenamiento y prompts

abril 2, 2025

La Inteligencia Artificial generativa ha dado un salto impresionante con herramientas como ChatGPT, pero… ¿cómo funciona realmente por dentro? En este artículo vamos a explicar, paso a paso y de forma clara, qué hay detrás de un modelo como este: qué son los tokens, cómo se entrena, y por qué los prompts (las instrucciones que le das) son tan importantes.


Índice

📦 1. ¿Qué es ChatGPT?

ChatGPT es un modelo de lenguaje desarrollado por OpenAI basado en la arquitectura GPT (Generative Pre-trained Transformer). Su trabajo es generar texto que tenga sentido, basado en el texto que tú le das. Puede responder preguntas, continuar ideas, resumir, traducir, escribir código y mucho más.

La clave está en que no entiende el lenguaje como un humano, sino que predice la siguiente palabra en función de las anteriores. Y aunque parezca simple, el nivel de precisión que ha alcanzado es sorprendente.


🧩 2. ¿Qué son los tokens?

En vez de trabajar con palabras completas, los modelos como ChatGPT procesan texto en tokens, que son fragmentos de texto. Un token puede ser:

  • una palabra completa: "hola"
  • parte de una palabra: "artifi-", "cial"
  • un signo de puntuación: ".", ",", etc.

Por ejemplo, la frase:

«La inteligencia artificial es fascinante.»
puede convertirse en:
["La", " inteligencia", " artificial", " es", " fascinante", "."]

Cada token se transforma en un número (a través de un proceso llamado tokenización) que el modelo puede procesar.

🔢 GPT-4, por ejemplo, puede manejar hasta 128,000 tokens por conversación (según la versión), lo que le permite “recordar” mucho contexto.


🧠 3. ¿Cómo se entrena un modelo como ChatGPT?

ChatGPT no “nace sabiendo”. Se entrena en dos fases principales:

🔹 a) Preentrenamiento

El modelo se alimenta con enormes cantidades de texto: libros, artículos, webs, conversaciones públicas, etc. Su objetivo durante esta fase es aprender a predecir el siguiente token dada una secuencia anterior.

Ejemplo:

Entrada: “La capital de Francia es…”
El modelo intenta predecir: “París”.

No se le enseña explícitamente geografía: aprende por estadística, viendo millones de frases similares.

🔹 b) Fine-tuning (ajuste fino)

Después del preentrenamiento, se afina el modelo con ejemplos cuidadosamente elegidos, donde se le enseña a responder como lo haría un asistente útil y educado. Aquí es donde entra el RLHF (Reinforcement Learning from Human Feedback):

  1. Humanos escriben buenas y malas respuestas.
  2. El modelo aprende a priorizar las respuestas más útiles y coherentes.

🧠 4. ¿Qué papel juegan los prompts?

Un prompt es el texto que tú escribes para “hablar” con el modelo. Pero no es solo una pregunta: es la clave que activa una determinada respuesta.

Por ejemplo:

  • “Explica qué es el ADN como si fuera una receta de cocina.”
  • “Resume este artículo en 3 puntos clave.”
  • “Escribe una carta de presentación para un diseñador gráfico.”

El modelo no «piensa», pero responde en función de cómo se formula el prompt. Cuanto más claro y específico, mejores resultados obtienes.

📌 Pro tip:
Puedes guiar a ChatGPT como si fuera un actor interpretando un rol:

“Actúa como un profesor de biología que enseña a niños de 10 años.”

Esto se llama prompt engineering y es una habilidad clave en el uso de IA generativa.


⚙️ 5. ¿Qué hay detrás del “cerebro” de ChatGPT?

GPT-4 tiene cientos de miles de millones de parámetros. Un parámetro es un número que el modelo ajusta durante el entrenamiento, y que determina cómo “piensa”.

Imagina miles de perillas que se afinan mientras el modelo aprende.
Cada capa del modelo procesa la información con más abstracción: desde letras → palabras → frases → ideas.

Y todo esto funciona gracias a los Transformers, una arquitectura de red neuronal inventada en 2017, que revolucionó el campo del lenguaje natural.


🧭 6. ¿Tiene memoria ChatGPT?

Sí… y no.

  • En una sesión normal, recuerda el contexto de lo que le has dicho antes, hasta un límite de tokens (por ejemplo, 8k, 32k o más, según el plan).
  • Pero no recuerda tus conversaciones pasadas si cierras la sesión, a menos que uses una cuenta con memoria activada.
  • En la versión API, puedes diseñar tu propio sistema de memoria.

🤔 Conclusión

ChatGPT no es mágico. Es el resultado de años de investigación, millones de datos y una arquitectura matemática muy avanzada. No “piensa”, pero simula conversaciones de forma tan natural que parece que lo hace.

Saber cómo funciona te ayuda a usarlo mejor, hacer mejores prompts y entender sus límites (y sus peligros).

Si quieres formarte en Inteligencia Artificial, puedes leer mi reseña sobre este programa aquí.


🧪 ¿Quieres experimentar?

Aquí tienes algunos retos para jugar con los prompts:

  • Pídele que resuma un texto y luego reformúlalo para otro público.
  • Pídele que actúe como diferentes perfiles: abogado, poeta, entrenador, etc.
  • Hazle preguntas con ambigüedad y observa cómo responde.

📚 Lecturas recomendadas

Ajustes