Rotar un rectángulo para inscribirlo en un cuadrado ha revelado un
fenómeno llamativo:
cuatro modelos de Inteligencia Artificial (IA),
Claude, Gemini, DeepSeek y ChatGPT, no solo fallaron,
sino que cada uno propuso una solución de rotación distinta
(52,77°, 49,47°, 37,26° y 37,57° respectivamente),
demostrando que el error no fue sistemático.
Y sólo uno acertó, Manus con su 45º exactos.
Esta disparidad sugiere la existencia de algoritmos internos diferentes
y/o distintas fuentes de datos de entrenamiento o del peso entre ellas,
lo que contradice el rumor de que unos modelos han copiado a otros.
Por ejemplo, aunque la diferencia entre
DeepSeek (37,26°) y ChatGPT (37,57°) es mínima (0,31°),
sus enfoques son radicalmente distintos:
DeepSeek usa una solución analítica simplificada, mientras que
ChatGPT busca una solución exacta resolviendo numéricamente.
De este mal resultado, cabría achacarme la culpa argumentando que
formulé mal la pregunta o que no sé crear prompts adecuados, que es, en
cierta forma, lo que intentó Gemini para autoexculparse. Sin embargo, si
ese fuera el caso: todos los modelos habrían dado respuestas erróneas
similares, o varios habrían coincidido en el mismo error, y Manus no
habría encontrado la solución correcta. Por tanto, en este caso, un
error en mi prompt no explica la divergencia observada.
Yo, como humano, tengo que reconocer que la solución de 45° la obtuve a
la primera por una mezcla de práctica geométrica e intuición, el llamado
conocimiento superficial; pero si ahora me encerrara en una habitación
con lápiz y papel para deducirlo, lo haría, aunque tardaría, es un
conocimiento profundo que sé que está ahí, pero que tarda en emerger.
Que uno solo de estos 5 modelos acierte no invalida el potencial de las
IA, pero sí expone la importancia de verificar sus resultados con
pensamiento crítico y recordar que, a menudo, la elegancia de una
solución reside en su simplicidad.
A diferencia de otros paradigmas de representación del conocimiento
(como los sistemas basados en reglas o la búsqueda heurística),
las redes neuronales adolecen de una opacidad intrínseca:
Sus errores y comportamientos anómalos son
notablemente difíciles de rastrear, interpretar y
no son capaces de autoexplicarse
ni de identificar el origen de sus divergencias
(como ha ocurrido en este caso), lo que complica su depuración.
Esta limitación, vinculada a su naturaleza estadística y de caja negra,
supone un grave problema en aplicaciones donde la transparencia
es esencial, por ejemplo,
en el diagnóstico médico o en la aplicación de la Justicia.