martes, 21 de octubre de 2025

EL DESPROPÓSITO DE LA SUPERINTELIGENCIA

En medio de un debate absolutamente abierto, y altamente polarizado entre neoluditas y tecnoilusos, resulta difícil ubicarse en posiciones aceptables para las mayorías. Y la afirmación que plantea este titular es una de esas posiciones. En efecto, la tierra prometida de los profetas del transhumanismo[1] (curiosa pero reveladora semejanza con los profetas de las grandes religiones) es lo que ellos denominan la singularidad[2]: el advenimiento de una inteligencia artificial superior a la humana. No obstante, quiero sumar argumentos al debate y tengo al menos tres para sustentar mi posición:

Argumento 1: los diseños de los modelos de IA actuales son más complicados que complejos. Y la inteligencia humana es un sistema más complejo que complicado.

Efectivamente, una sola respuesta promedio de ChatGPT consume la misma energía que una célula viva consume para operar, pero esta produce miles de respuestas por segundo. Y el mejor ejemplo: “El cerebro humano opera con aproximadamente 20 vatios de potencia (lo necesario para producir 1.176 respuestas promedio de ChatGPT), [pero] realizando billones de operaciones por segundo con redes neuronales intrincadas que sobresalen en reconocimiento de patrones, creatividad e inteligencia emocional. Esta eficiencia energética contrasta dramáticamente con los métodos de entrenamiento de IA actuales que demandan enormes recursos computacionales”[3] (paréntesis propio).

Se calcula, por ejemplo, que América Latina tendrá un gasto energético del 5 % de su capacidad, solo en IA, hacia 2030. De hecho, ya EE. UU. y China están implementando opciones extremas, para aliviar el gasto energético de sus centros de datos: o sumergirlos en el océano (China) o enviarlos al espacio (EE. UU.), pues la refrigeración representa su mayor consumo. Y un informe reciente de Naciones Unidas ya aboga por una moratoria en la construcción de centros de datos, argumentando que “Ese crecimiento genera importantes y preocupantes demandas de agua, así como un dramático aumento del consumo de electricidad”[4].

La razón es muy simple: la arquitectura de una célula (del cerebro, de cualquier órgano) es de una gran complejidad, producto de la evolución; y, por lo mismo, de una altísima eficiencia. La arquitectura de la IA es de una complicación ya prácticamente insostenible a largo plazo en opinión de expertos. Un diseño de Torre de Babel, basado en la acumulación obsesiva (y, hasta ahora, abusiva) de datos, que ya está llegando a sus máximos, aparte de su aparatosa estructura. De ahí el insuperable diferencial en eficiencia energética.

Con razón anotaba Sonia Contera, de El País −España−, a propósito de los recientes premios Nobel de Química, Física y Medicina: “Frente a un mundo que tiende a simplificar lo complejo, a reducir la vida a métricas, algoritmos o jerarquías, estos descubrimientos nos recuerdan que el conocimiento verdadero nace de la creatividad, de las grietas del conocimiento y de la cooperación”[5]. Y así lo corroboran muchos expertos en IA: “no será posible superar las limitaciones actuales en IA sin ir más allá de las arquitecturas MLG (modelos de lenguaje grandes)”[6].

Una curiosa encuesta[7] indagaba recientemente a los lectores de literatura científica si era hora de complementar los estándares de la investigación científica, agregándoles, así fuera en un apéndice, “ideas audaces, interpretaciones atrevidas y teorías creativas”, a lo cual, un 82,5 % respondió afirmativamente. ¿Tanto rigor, en la ciencia, puede estar ahogando el nuevo conocimiento?

Argumento 2: los modelos de IA funcionan de manera predictiva, de tal manera que siempre se les escapará el pensamiento complejo o disruptivo, que no se basa en predicciones.

En momentos disruptivos, como el que vivimos, los modelos predictivos son inútiles, porque son simples proyecciones del pasado. Lo que la humanidad requiere hoy es pensamiento complejo y pensamiento disruptivo, que los grandes modelos de lenguaje (MLG) que soportan la actual IA, son sencillamente incapaces de suministrarnos, por su diseño mismo.

Javier Pastor, comentando experimentos llevados a cabo por Apple, con los modelos Claude Thinking, DeepSeek-R1 y o3-mini, concluye rotundamente: “en sus pruebas comprobaron cómo todos estos modelos de razonamiento se acababan estrellando de bruces contra un muro cuando se enfrentaban a problemas complejos”[8].

Sin lugar a dudas, la incursión en el mundo de la inteligencia artificial cuántica llegará a ser un paliativo importante, cuando ocurra. A hoy, sin embargo, no tenemos el primer computador cuántico en servicio. Pero, mientras el modelo siga siendo exclusivamente predictivo, nunca alcanzará el nivel de lo disruptivo y complejo, así sea cuántica su plataforma de funcionamiento.

Argumento 3: la IA pertenece al mundo de la mecánica y la inteligencia humana pertenece al mundo de la biología. Como tal, la IA podrá simular emociones, pero jamás experimentarlas.

El mundo de la mecánica es: a) lineal: causa-efecto; b) binario: on-off; c) predecible: por su encadenamiento lógico de sucesos; y d) simple: todo puede reducirse a sus elementos constitutivos individuales. El mundo de la biología, por el contrario, es: a) circular: circuitos que se retroalimentan continuamente; b) pluriestado: no solo provisto de infinidad de matices, sino de estados simultáneos, muchas veces contradictorios; c) complejo: más que elementos individuales, es la dinámica de sus interacciones lo que hace la diferencia y define su naturaleza; y d) impredecible: ambiguo, volátil e incierto.

Por eso, podemos afirmar sin duda que, para que haya inteligencia, debe haber una biología, que los modelos de IA simplemente no tienen. Haga un experimento doméstico bien simple y lo entenderá al instante: a) pregúntele a su esposa, cuando la vea preocupada: “¿qué te ocurre, mi amor?”; b) la respuesta, con seguridad, será: “Nada…” (y usted, por el tono, entenderá); c) ahora pregúntele a CHATGPT qué significa ese “Nada…”. Sin comentarios. Y ni qué hablar de la sabiduría, para la cual se requiere mucho más que una simple biología. De suerte que la inteligencia artificial no pasará de ser el simulador de vuelo de la inteligencia humana. ¡Buen viaje a los tecnoilusos!

Ramiro Restrepo González

Octubre de 2025


[1]    Puede accederse al Manifiesto Transhumanista ACÁ.

[2]    Puede encontrarse uno de tantísimos referentes ACÁ.

[3]    Díaz, Jesús. Descubren una característica única del ser humano que nos hace superiores a la IA. El Confidencial, España. Junio de 2025. Ver ACÁ.

[4]    Pascual, M. Un informe de la ONU pide una moratoria en la construcción de centros de datos: “Nos hemos embarcado en un suicidio anunciado”. El País, España: octubre 16 de 2025. Ver ACÁ.


[5]    Contera, S. Los Nobel de 2025 celebran la ciencia que no avanza por acumulación, sino por imaginación. El País, España: octubre 9 de 2025. Ver ACÁ.

[6]    Robatsos, M. Los nuevos modelos de IA demuestran que es casi imposible superar la inteligencia humana. El Confidencial, España: agosto 15 de 2025. Ver ACÁ.

[7]    Malekzadeh, M. Add a ‘speculation box’ to research papers. Nature: septiembre 30 de 2025. Ver ACA y ACÁ.

[8]    Pastor, J. Hemos descubierto algo preocupante en los modelos de IA: si el problema es demasiado difícil, se rinden enseguida. Xatata: junio 9 de 2025. Ver ACÁ.

No hay comentarios: