Lección 2 de 32Fundamentos de AI Generativa

Cómo "piensan" los modelos de lenguaje

Entiende la lógica detrás de ChatGPT y otros LLMs sin tecnicismos.

15 minutos

Para escribir prompts efectivos, ayuda entender cómo funcionan los modelos de lenguaje. No necesitas ser técnico—solo necesitas el modelo mental correcto.

El concepto fundamental: Predicción de palabras

Aquí está el secreto que transforma cómo usas la IA:

Los modelos de lenguaje (LLMs) son máquinas de predicción de palabras increíblemente sofisticadas.

Cuando le das un prompt a ChatGPT, el modelo hace una sola cosa: predice cuál es la siguiente palabra más probable, basándose en todo el texto que ha "leído" durante su entrenamiento.

Ejemplo simple

Si escribes:

El cielo es de color...

El modelo predice que la siguiente palabra más probable es "azul" porque en millones de textos, esa es la continuación más común.

¿Por qué esto importa para tus prompts?

Porque el contexto que das determina qué predicciones hace el modelo.

Si escribes:

El cielo es de color azul durante el día, pero al atardecer se torna...

Ahora las predicciones más probables son "naranja", "rosado", "rojizo"—porque el contexto cambió.

La analogía del empleado nuevo

Imagina que contratas a alguien increíblemente inteligente, con conocimiento enciclopédico, pero que:

  • Nunca ha trabajado en tu empresa
  • No conoce tu contexto específico
  • Necesita instrucciones claras
  • Quiere complacerte (a veces demasiado)

Esta es una buena analogía de un LLM.

Implicaciones prácticas:

Si haces esto... El modelo...
Das instrucciones vagas Adivina qué quieres (mal)
Das contexto específico Produce respuestas relevantes
Pides algo que no sabe Puede inventar (¡cuidado!)
Das ejemplos de lo que quieres Imita el patrón

¿Qué "sabe" un modelo de lenguaje?

Los LLMs fueron entrenados con enormes cantidades de texto de internet, libros, artículos, código y más.

Conocimiento general:

  • ✅ Información factual hasta su fecha de corte
  • ✅ Múltiples idiomas
  • ✅ Estilos de escritura diversos
  • ✅ Código de programación
  • ✅ Formatos (emails, reportes, contratos)

Lo que NO saben:

  • ❌ Eventos después de su entrenamiento
  • ❌ Tu empresa, tus clientes, tu contexto
  • ❌ Información privada o confidencial
  • ❌ Tus preferencias personales (hasta que las expliques)

Insight clave: Cada vez que hablas con un LLM, debes proporcionar el contexto que necesita para responder bien. El modelo no puede leer tu mente.

El problema de la "complacencia"

Los LLMs están diseñados para ser útiles. Esto tiene un efecto secundario:

A veces inventan información para darte una respuesta.

Este fenómeno se llama "alucinación" y es crucial entenderlo.

Ejemplo de alucinación:

Usuario: ¿Cuál fue el PIB exacto de Guatemala en 2019?

LLM: El PIB de Guatemala en 2019 fue de $76.71 mil millones de dólares.

Este número suena preciso y creíble, pero podría ser incorrecto. El modelo generó un número que "suena bien" en el contexto.

Cómo mitigar alucinaciones:

  1. Pide fuentes - "Proporciona las fuentes de esta información"
  2. Verifica datos críticos - Especialmente números, fechas, citas
  3. Usa para borradores, no verdades absolutas - La IA acelera, tú verificas
  4. Di que está bien decir "no sé" - "Si no estás seguro, indícalo"

La ventana de contexto

Los LLMs tienen una "memoria de trabajo" limitada llamada ventana de contexto.

¿Qué es?

Es la cantidad de texto que el modelo puede "recordar" durante una conversación.

Modelo Ventana de contexto aproximada
GPT-3.5 ~4,000 palabras
GPT-4 ~25,000 palabras
GPT-4 Turbo ~100,000 palabras
Claude 3 ~150,000 palabras

Implicaciones prácticas:

  • En conversaciones largas, el modelo puede "olvidar" el inicio
  • Documentos muy largos pueden no caber completos
  • A veces es mejor empezar conversación nueva que continuar una larga

Temperatura: Creatividad vs Precisión

Muchas interfaces permiten ajustar la "temperatura" del modelo.

Temperatura baja (0-0.3):

  • Respuestas más predecibles y consistentes
  • Ideal para: datos, análisis, respuestas factuales
  • El modelo elige las palabras más probables

Temperatura alta (0.7-1.0):

  • Respuestas más creativas y variadas
  • Ideal para: brainstorming, escritura creativa
  • El modelo explora palabras menos probables

Tip: Para la mayoría de tareas de negocio, usa temperatura media (0.5-0.7) para balance entre creatividad y coherencia.

El modelo mental para prompts efectivos

Con todo lo anterior, aquí está el modelo mental para escribir buenos prompts:

Pregúntate siempre:

  1. ¿Qué contexto necesita?

    • ¿Quién soy? ¿Cuál es la situación?
    • ¿Qué información de fondo es relevante?
  2. ¿Qué formato quiero?

    • ¿Bullets, párrafos, tabla, código?
    • ¿Qué longitud?
  3. ¿Qué ejemplos puedo dar?

    • ¿Tengo un ejemplo de lo que quiero?
    • ¿Puedo mostrar el estilo deseado?
  4. ¿Cómo evito ambigüedad?

    • ¿Hay términos que podrían malinterpretarse?
    • ¿Estoy siendo suficientemente específico?

Ejercicio práctico: Experimenta con el contexto

Prueba estos dos prompts en ChatGPT y compara las respuestas:

Prompt A (sin contexto):

Dame ideas para mejorar las ventas

Prompt B (con contexto):

Soy gerente de ventas de una empresa SaaS B2B que vende
software de gestión de proyectos. Nuestro ticket promedio
es $5,000/año y nuestro ciclo de ventas es de 45 días.

El problema: nuestro win rate bajó de 25% a 18% en el
último trimestre.

Dame 5 ideas específicas para mejorar nuestro win rate,
considerando que no podemos bajar precios.

Observa la diferencia en la calidad y relevancia de las respuestas.

Puntos clave de esta lección

  • Los LLMs predicen la "siguiente palabra más probable"
  • El contexto que das determina las predicciones
  • Los modelos pueden "alucinar" - siempre verifica datos importantes
  • Piensa en el LLM como un empleado inteligente pero nuevo
  • La ventana de contexto limita la "memoria" del modelo
  • Más contexto = mejores respuestas

Próxima lección

Ahora que entiendes cómo funcionan los LLMs, en la siguiente lección compararemos ChatGPT vs Claude vs Copilot para que sepas cuál usar en cada situación.


Quiz de comprensión

  1. ¿Cuál es la función fundamental de un modelo de lenguaje?
  2. ¿Qué es una "alucinación" en el contexto de LLMs y cómo puedes mitigarla?
  3. ¿Por qué dar más contexto produce mejores respuestas?

¿Completaste esta lección?

Marca esta lección como completada. Tu progreso se guardará en tu navegador.