30 enero, 2026

PERIODISMO INDEPENDIENTE EN MORELOS

¿PUEDE ALUCINAR LA INTELIGENCIA ARTIFICIAL?

Por ALEJANDRO CÁRDENAS SAN ANTONIO / MASEUAL

Pregunta distópica: ¿Puede una Inteligencia Artificial IA “alucinar”? la respuesta no es utópica. Es un rotundo ¡sí!

Cuernavaca, Morelos, México, 29 de enero de 2026.- Desde luego, en términos digitales, el término “alucinación”, no se refiere a una experiencia psiquiátrica humana, sino a una metáfora que describe cómo estos sistemas digitales generan información falsa con una convicción absoluta, lo hacen de manera fluida y persuasiva, presentan información aparentemente verídica y coherente y esto ha ocurrido en la gama de asistentes virtuales y herramientas de generación de contenido.

Ejemplos abundan: un sistema podría inventar referencias bibliográficas inexistentes, citar fechas o números erróneos, describir eventos históricos que nunca sucedieron o incluso crear detalles plausibles sobre personas, empresas o leyes ficticias.

¿Cuáles son las raíces de este problema? En esencia, las IA´s como los modelos de lenguaje grandes (LLM, por sus siglas en inglés) no buscan la verdad; están diseñadas para predecir la siguiente palabra en una secuencia, basándose en patrones estadísticos aprendidos durante su entrenamiento y es este enfoque lo que prioriza la coherencia y la naturalidad del texto sobre la precisión de los hechos.

Es decir:  El conocimiento se comprime en miles de millones de parámetros, lo que inevitablemente causa distorsiones, mezclas u omisiones.

En un mundo donde la inteligencia artificial se integra cada vez más en nuestra vida cotidiana, en sus contextos más técnicos como la programación, la “alucinación” de una IA podría sugerir funciones que no existen en una biblioteca real. Peor aún, en campos sensibles como la medicina o el derecho.

Estos delirios digitales, pueden llevar a recomendaciones peligrosas disfrazadas de conocimiento experto.

Sucede que la Inteligencia Artificial, carece de un mecanismo robusto para admitir ignorancia; está programada para responder casi siempre evitando el “no sé”.

A lo largo de los años, ha habido avances significativos en mitigar estas alucinaciones.

En 2023, modelos como GPT-3.5 exhibían una frecuencia muy alta de errores graves. GPT-4, lanzado entre 2023 y 2024, mejoró en referencias y números, pero aún era propenso a fallos.

Para 2024, Claude 3 y Gemini 1.5 redujeron la incidencia a niveles medios, enfocándose en coherencia factual en textos largos.

Hoy, en 2025-2026, la frecuencia es media-baja, con progresos en citas reales, cálculos y búsquedas integradas.

Lo siguiente son un par de ejemplos memorables de estas “alucinaciones” de la Inteligencia Artificial: ChatGPT generó una historia detallada sobre un hombre noruego que supuestamente había asesinado a sus dos hijos y cumplido condena en prisión. La narrativa incluía nombres, fechas y circunstancias aparentemente creíbles, pero el crimen y la persona nunca existieron. Este caso ilustra cómo los modelos pueden fabricar eventos traumáticos con total confianza, poniendo en riesgo la reputación de personas inocentes.

Otro ejemplo de alucinación fue el de un abogado que usó ChatGPT para redactar un escrito legal. La IA inventó sentencias y citas judiciales completas (casos, jueces y fragmentos), que no existían. El juez lo detectó y sancionó al abogado.

Como se ve, las “alucinaciones” de la inteligencia artificial son reales, no son del tipo psiquiátrico, son una consecuencia estructural de modelos diseñados para generar lenguaje plausible, no para verificar la realidad, buscan predecir palabras probables según patrones estadísticos.

No es un bug, no necesita psiquiatra, por lo pronto es una consecuencia casi inevitable de cómo están construidas, pero van en un franco proceso de mejoría.

About The Author