EN BOCA DE TODOS
Un estudio desvela que la inteligencia artificial no tiene verdadera comprensión del lenguaje
Los investigadores encontraron que los modelos de IA, aunque eficientes en tareas específicas, no son capaces de aplicar el conocimiento de manera coherente.

Publicidad
Un estudio conjunto de la Universidad de Harvard, la Universidad de Chicago y el Instituto Tecnológico de Massachusetts ha llegado a una conclusión llamativa sobre la inteligencia artificial. Si bien los modelos de lenguaje son capaces de producir respuestas correctas, en realidad no comprenden lo que expresan. Los investigadores señalan que, aunque estas herramientas funcionan con eficacia en tareas concretas, no logran aplicar el conocimiento de forma coherente, generando solo una apariencia de entendimiento.
A este fenómeno lo denominaron Potemkin, en alusión a las aldeas ficticias construidas por el general Gregory Potemkin para impresionar a Catalina II en 1787. Según el informe, modelos como GPT-4 o Claude 3.5 ofrecen la ilusión de comprensión: parecen entender los conceptos, pero carecen de una representación sólida y coherente de ellos. Por ello, aunque puedan acertar en determinados contextos, fracasan al intentar trasladar esos mismos conceptos a situaciones prácticas.
La investigación, basada en 32 pruebas en ámbitos como literatura, teoría de juegos y sesgos cognitivos, reveló que, pese a definir con precisión ciertos términos, la IA falla en más del 55% de los casos cuando debe aplicarlos, con un margen de error del 94,2%. Este resultado resalta la diferencia esencial entre saber y comprender, un reto clave para el futuro desarrollo de la inteligencia artificial.
Publicidad