Divergencia artificial: 5 IAs, 5 respuestas diferentes y 4 erróneas

Rotar un rectángulo para inscribirlo en un cuadrado ha revelado un fenómeno llamativo: cuatro modelos de Inteligencia Artificial (IA), Claude, Gemini, DeepSeek y ChatGPT, no solo fallaron, sino que cada uno propuso una solución de rotación distinta (52,77°, 49,47°, 37,26° y 37,57° respectivamente), demostrando que el error no fue sistemático. Y sólo uno acertó, Manus con su 45º exactos.
Esta disparidad sugiere la existencia de algoritmos internos diferentes y/o distintas fuentes de datos de entrenamiento o del peso entre ellas, lo que contradice el rumor de que unos modelos han copiado a otros. Por ejemplo, aunque la diferencia entre DeepSeek (37,26°) y ChatGPT (37,57°) es mínima (0,31°), sus enfoques son radicalmente distintos: DeepSeek usa una solución analítica simplificada, mientras que ChatGPT busca una solución exacta resolviendo numéricamente.
De este mal resultado, cabría achacarme la culpa argumentando que formulé mal la pregunta o que no sé crear prompts adecuados, que es, en cierta forma, lo que intentó Gemini para autoexculparse. Sin embargo, si ese fuera el caso: todos los modelos habrían dado respuestas erróneas similares, o varios habrían coincidido en el mismo error, y Manus no habría encontrado la solución correcta. Por tanto, en este caso, un error en mi prompt no explica la divergencia observada.
Yo, como humano, tengo que reconocer que la solución de 45° la obtuve a la primera por una mezcla de práctica geométrica e intuición, el llamado conocimiento superficial; pero si ahora me encerrara en una habitación con lápiz y papel para deducirlo, lo haría, aunque tardaría, es un conocimiento profundo que sé que está ahí, pero que tarda en emerger.
Que uno solo de estos 5 modelos acierte no invalida el potencial de las IA, pero sí expone la importancia de verificar sus resultados con pensamiento crítico y recordar que, a menudo, la elegancia de una solución reside en su simplicidad.
A diferencia de otros paradigmas de representación del conocimiento (como los sistemas basados en reglas o la búsqueda heurística), las redes neuronales adolecen de una opacidad intrínseca: Sus errores y comportamientos anómalos son notablemente difíciles de rastrear, interpretar y no son capaces de autoexplicarse ni de identificar el origen de sus divergencias (como ha ocurrido en este caso), lo que complica su depuración. Esta limitación, vinculada a su naturaleza estadística y de caja negra, supone un grave problema en aplicaciones donde la transparencia es esencial, por ejemplo, en el diagnóstico médico o en la aplicación de la Justicia.