Dale permiso a la IA para decir "No lo sé"Dale permiso a la IA para decir "No lo sé"
Dale permiso a la IA para decir "No lo sé" para reducir las alucinaciones y obtener resultados confiables.
Dale a la IA el permiso de decir “No lo sé”
Muchas respuestas de la IA no son incorrectas porque el modelo sea malo.
Son incorrectas porque el modelo no puede detenerse.
Un modelo de lenguaje está entrenado para responder.
No para callarse en el momento adecuado.
Si faltan informaciones, casi siempre sucede lo mismo:
- la IA rellena los vacíos
- suena convincente
- se equivoca
Si deseas resultados confiables, necesitas un ajuste simple pero extremadamente efectivo:
Permite que el modelo diga “No lo sé”.
Por qué la IA prefiere inventar antes que no decir nada
Los LLM están entrenados para continuar textos.
Una salida vacía es considerada un error desde la perspectiva del modelo.
Un texto plausible, por otro lado, es un éxito.
El atajo definitivo hacia
resultados de IA impecables
Deja de perder tiempo con prompts de prueba y error. Obtén resultados de IA consistentes y profesionales desde el primer intento, siempre.

Si faltan informaciones, el modelo tiene dos opciones:
2. entregar algo probable
Sin instrucciones explícitas, casi siempre se decide por la opción 2.
El error de pensamiento: “El modelo sabrá cuando no sepa algo”
Un modelo de lenguaje no sabe que no sabe algo.
Solo reconoce que faltan informaciones.
Y precisamente esa brecha intenta rellenarla estadísticamente de manera plausible.
Para ti parece una alucinación.
Para el modelo es un comportamiento esperado y correcto.
La frase más importante contra respuestas inventadas
Hay una formulación que aumenta instantáneamente la confiabilidad:
Si una información no está contenida en el contexto, diga explícitamente:
Por qué funciona tan bien:
- le quita al modelo la presión de tener que inventar algo
- define una respuesta nula legítima
- cambia el enfoque de completitud a corrección
En resumen: El modelo puede detenerse.
Un ejemplo práctico
“Explica la causa del incidente y describe las medidas.”
- causas plausibles pero inventadas
- medidas que suenan bien pero no están confirmadas
- Si faltan informaciones o no están confirmadas, diga explícitamente “No lo sé”.
- Causa: todavía no está clara
- Medidas: la investigación está en curso
- delimitación clara
- no hay detalles inventados
- mayor credibilidad
Interacción con los requisitos de salida
El permiso para callarse funciona mejor en combinación con instrucciones de salida claras.
- Lista hechos confirmados
- Lista puntos abiertos por separado
- No hacer suposiciones
- Si faltan informaciones: “No lo sé”
Por qué la salida es importante, lo explicamos aquí:
Requisitos de salida: La superpotencia subestimada para resultados consistentes (próximamente).
Por qué esto no es un caso especial, sino que debería ser estándar
Muchos tratan esta regla como una excepción.
En realidad, debería ser siempre parte de un prompt cuando:
- la situación de los hechos es incompleta
- existen riesgos legales o comunicativos
- se basan decisiones en ella
“No lo sé” no es un error.
La transición hacia la sistematización
Cuando uses esta regla regularmente, notarás:
- se olvida
- se formula ligeramente diferente
- de repente falta
Reglas como estas no pertenecen a la memoria,
Por qué este paso vale la pena, lo leerás aquí:
Desde cuándo una biblioteca de prompts vale realmente la pena.
Conclusión
Las alucinaciones no se pueden prevenir completamente.
Pero se pueden reducir significativamente.
No a través de modelos más estrictos.
No a través de prompts más largos.
Sino a través de un simple permiso:
Eso no hace que la IA sea más débil.