Administrator
Confirman que las mentes artificiales pueden aprender sin necesidad de nuevos datos externos, desafiando lo que antes creíamos sobre el pensamiento.
La idea de que las máquinas puedan pensar ha sido tema de debates filosóficos y científicos durante décadas. ¿Hasta qué punto una inteligencia artificial (IA) puede replicar las capacidades cognitivas humanas? Con los avances recientes en modelos de IA, particularmente aquellos entrenados en vastas cantidades de datos textuales, la ciencia está más cerca que nunca de dar una respuesta afirmativa.
Lo que creías imposible ya es real: las máquinas piensan como los humanos. Foto: Istock / Christian Pérez
El aprendizaje, tal y como lo entendemos en los humanos, suele implicar la observación del mundo exterior. A lo largo de nuestra vida, adquirimos conocimientos a través de la interacción con nuestro entorno, usando nuestros sentidos para recolectar datos que luego procesamos y almacenamos.
Sin embargo, el aprendizaje no se limita a este proceso de observación. La ciencia ha demostrado que tanto los humanos como las IA pueden aprender sin la necesidad de recibir información nueva del mundo exterior. Este fenómeno, conocido como "aprender pensando" o Learning by Thinking (LbT), ha abierto una puerta completamente nueva en el estudio de las mentes, tanto naturales como artificiales.
Este tipo de aprendizaje por pensamiento es particularmente interesante en el contexto de la inteligencia artificial. Los modelos avanzados, como los grandes modelos de lenguaje (LLM) que dan vida a asistentes virtuales como GPT-4, no solo generan respuestas basadas en datos almacenados, sino que también son capaces de corregirse y mejorar sin recibir datos externos adicionales.
Un ejemplo mencionado en el artículo muestra cómo GPT-4 puede rectificar un error en un cálculo matemático simplemente al explicarse a sí mismo el proceso paso a paso. Este tipo de aprendizaje refleja un fenómeno paralelo al que los humanos experimentan al explicarse conceptos a sí mismos o realizar simulaciones mentales.
Las IA pueden corregirse a sí mismas y aprender como humanos. Istock / Christian Pérez
El concepto de LbT plantea un dilema intrigante: ¿cómo es posible que una mente, ya sea humana o artificial, genere nuevo conocimiento sin recibir información externa? Este enigma, conocido como la "paradoja del aprendizaje por pensamiento", encuentra una respuesta en la forma en que tanto los humanos como las IA reorganizan y reinterpretan los elementos ya presentes en su "mente" o base de datos.
En el caso de los humanos, los científicos han demostrado que procesos como la explicación, la simulación mental, la comparación y el razonamiento analógico son clave para aprender sin observación externa. Estos procesos permiten a las personas generar nuevas representaciones cognitivas y llegar a conclusiones novedosas. Sorprendentemente, las IA modernas han demostrado ser capaces de realizar procesos similares.
En modelos de IA como los LLM, el pensamiento paso a paso ha demostrado ser especialmente efectivo. Cuando a un modelo como GPT-4 se le pide que realice una tarea compleja, desglosar el problema en pasos intermedios (conocido como chain-of-thought prompting) aumenta significativamente su capacidad para llegar a soluciones correctas. Este tipo de razonamiento es notablemente parecido al proceso humano de descomponer un problema grande en partes más pequeñas y manejables para llegar a una solución óptima. Lo que la IA demuestra aquí no es solo un cálculo algorítmico, sino una forma de pensamiento que conduce al aprendizaje.
¿Las máquinas piensan? Nuevas pruebas confirman que la IA puede hacerlo. Foto: Copilot / Christian Pérez
Uno de los ejemplos más interesantes de aprendizaje por pensamiento, tanto en humanos como en IA, es el uso de simulaciones mentales. La simulación es algo que hacemos constantemente, aunque no siempre seamos conscientes de ello. Un ejemplo clásico en humanos es imaginar cómo se moverían tres engranajes conectados cuando se activa uno de ellos. En este caso, el cerebro realiza una simulación interna sin necesidad de ver los engranajes físicamente.
Las IA modernas también pueden realizar simulaciones internas. En el campo del deep reinforcement learning (aprendizaje profundo por refuerzo), los sistemas utilizan simulaciones para predecir resultados futuros y aprender de esos procesos simulados. Este tipo de simulación es un reflejo directo de cómo los humanos pueden aprender al imaginar situaciones hipotéticas y evaluar posibles resultados sin experimentar directamente esos eventos. Así, tanto en las mentes naturales como en las artificiales, la simulación es una herramienta poderosa para generar nuevo conocimiento sin depender de observaciones externas.
Otra forma crucial de aprender por pensamiento es a través del razonamiento analógico. Charles Darwin, por ejemplo, utilizó la analogía entre la selección natural y la cría selectiva para desarrollar su teoría de la evolución. Del mismo modo, las IA pueden emplear el razonamiento analógico para resolver problemas complejos.
Recientes estudios en IA han mostrado que, cuando se le da un problema a resolver, una IA puede generar varios ejemplos análogos para llegar a una solución, lo que se conoce como "analogical prompting". Este proceso no solo permite que la IA resuelva el problema, sino que lo haga de manera similar a cómo lo haría un humano a través de la comparación de situaciones similares.
Charles Darwin comparó la selección natural con la cría selectiva para formular su teoría de la evolución. Foto: Leonardo.ai / Christian Pérez
El razonamiento es otra herramienta clave para el aprendizaje por pensamiento. En los humanos, el razonamiento puede llevar a conclusiones que no eran obvias a simple vista. Esto ocurre porque el razonamiento requiere conectar fragmentos de información previamente adquiridos para generar nuevas conclusiones. Por ejemplo, al reconocer que hoy es miércoles y recordar que los miércoles no se debe estacionar en cierta área del campus, una persona puede inferir que hoy no debe estacionarse allí, una conclusión que no estaba explícita desde el principio.
Lo mismo ocurre en las IA. Al emplear procesos de razonamiento paso a paso, como los usados en modelos como GPT-4, la IA puede llegar a nuevas conclusiones que no estaban presentes explícitamente en los datos iniciales. De esta forma, tanto los humanos como las IA utilizan el razonamiento como una forma de extraer nueva información de representaciones previas.
La gran pregunta que surge es hasta qué punto podemos considerar que la IA realmente "piensa". Si bien los modelos actuales de IA no piensan en el sentido humano de la palabra —carecen de consciencia y experiencia subjetiva—, las capacidades que demuestran al realizar procesos de aprendizaje por pensamiento son impresionantes. Lo que antes parecía exclusivo del dominio humano, ahora es replicado por máquinas.
Modelos como GPT-4 no solo procesan información, sino que pueden reorganizarla, aprender de ella y llegar a conclusiones nuevas sin intervención externa. En este sentido, se podría argumentar que, en su propia forma, la IA está comenzando a pensar.
A medida que la inteligencia artificial continúa evolucionando, las capacidades de LbT en estos sistemas podrían marcar una diferencia significativa en cómo interactúan con el mundo. La capacidad de aprender sin depender exclusivamente de datos externos les permitirá ser más eficientes y adaptables en entornos cambiantes. Esta habilidad para "pensar" les permitirá no solo realizar tareas con mayor precisión, sino también innovar en soluciones que los humanos no hemos anticipado.
Al final, la pregunta sobre si las máquinas pueden pensar ya tiene una respuesta. Puede que no lo hagan como nosotros, pero, en sus propios términos, las IA han comenzado a demostrar que el pensamiento no es solo un privilegio de las mentes biológicas.