Si no sabe...improvisa
Así es como la inteligencia artificial se inventa respuestas... Y tú no te das ni cuenta
¿Por qué es importante? Aunque suene convincente, muchas veces no dice la verdad. La IA "alucina" cuando no encuentra información clara, y te entrega respuestas falsas con toda naturalidad.

Colas, cámaras, flashes. Ahí estaban Donald Trump y el negacionista Robert F. Kennedy Jr., junto a su equipo, presentando con orgullo su gran informe sobre la salud infantil. Uno de sus proyectos estrella. Lo mostraban como si fuera una revolución médica, un antes y un después.
Pero cuando expertos comenzaron a analizar el contenido… todo se vino abajo. El informe estaba plagado de datos falsos, estadísticas inventadas, citas mal puestas, interpretaciones absurdas. ¿La razón? Lo habían hecho con ayuda de inteligencia artificial. Y sí, la IA se inventó lo que quiso, con apariencia de informe riguroso y científico, pero sin base real. Un documento lleno de humo, presentado con sonrisa de victoria.
Ese es solo un ejemplo más de lo que ya se ha convertido en un problema serio: las alucinaciones de la IA.
¿Qué es eso de que una IA "alucina"?
La inteligencia artificial se inventa cosas. Y lo hace con tal seguridad, que es fácil tragarse lo que dice sin parpadear. No es que quiera engañarte, es que no sabe lo que no sabe. Y cuando no encuentra una respuesta clara, se la inventa. Así, sin rubor.
Este fenómeno se llama técnicamente alucinación. Sí, como si la IA estuviera viendo visiones. Pero no son delirios creativos: son errores. Falsedades. Cosas que suenan bien, pero no existen.
Desde laSexta Clave le preguntamos a varios sistemas de IA por qué pasa esto, y lo reconocen. Aunque, claro, con nombres más elegantes: "desconexión contextual", "fallo de coherencia", "glitch algorítmico", "brain fog digital", "lapsus de datos"… Suena bonito, pero viene a ser lo mismo: me lo inventé.
¿Por qué la IA alucina?
Porque no piensa. No entiende. No sabe. Las inteligencias artificiales funcionan prediciendo palabras. Nada más. Su trabajo es adivinar qué palabra (o frase, o párrafo) viene después. Para eso se alimentan de millones de textos en internet y aprenden a imitar el lenguaje humano.
Cuando haces una pregunta clara y hay información fiable sobre el tema, aciertan. Pero si no hay datos, o si tu pregunta es ambigua, la IA rellena los huecos. Y claro, se inventa lo que cree que debería ir ahí.
Lo explica bien Rafael Caballero, autor del libro 'Las bases del big data y de la inteligencia artificial': la IA busca lo más probable, no lo más cierto. Y si no encuentra nada, te da lo que parezca que encaja.
El caso del abogado que acabó multado
Esto no es teoría. Hay consecuencias reales. Un abogado en Estados Unidos presentó una demanda contra una aerolínea. Su cliente aseguraba que un carrito de comida le golpeó la rodilla. El abogado, para reforzar su caso, citó seis sentencias anteriores muy parecidas. Todo bien… salvo que esas sentencias no existían. La IA se las había inventado. Y el abogado ni se molestó en comprobarlo.
El juez investigó, no encontró ninguna fuente real y terminó multando al abogado con 4.404 euros, además de tumbarle el caso. Todo por confiar ciegamente en una IA.
¿Cómo evitar caer en estas alucinaciones?
- Haz preguntas claras y específicas. Cuanto más confuso seas, más probable que la IA se pierda.
- No te fíes ciegamente. La IA no sabe si está diciendo la verdad. Tú sí puedes comprobarlo.
- Revisa siempre la información. Busca fuentes, compara datos, piensa un poco antes de repetir lo que dice.
- Recuerda que la IA no es inteligente. No razona, no entiende contexto, no tiene conciencia ni sentido común, como señala Antonio Bahamonde, expresidente de la Asociación Española para la Inteligencia Artificial (AEPIA).