Investigadores desarrollan estudios computacionales para entender el lenguaje del pensamiento

Integrantes del Grupo de Lógica y Computabilidad (GLyC) del ICC están encarando estudios para entender cómo funciona el cerebro cuando realiza tareas cognitivas simples, usando un enfoque simbólico de los lenguajes formales, propio de la computación teórica. A través de diversos experimentos y con una cantidad mínima de datos, estudian la toma de decisiones en problemas simples de clasificación, aprendizaje o memoria. Y, al mismo tiempo, desarrollan modelos para comprender cómo se comportan los humanos en el aprendizaje de nuevos conceptos y si ese comportamiento se asemeja al de una computadora.

El contenido de un pensamiento depende de sus relaciones exteriores, en la forma en que el pensamiento se relaciona con el mundo, no en la forma en el que está relacionado con otros pensamientos.” Esto afirmaba el filósofo y científico estadounidense Jerry Fodor en los años 70, cuando desarrolló una teoría que sacudió las bases de la cognición humana: la Hipótesis del Lenguaje de Pensamiento.

Se trata de proponer un lenguaje mental sobre el cual ocurre el proceso de cognición, generalmente asumiendo una estructura lógica y simbólica para las expresiones del lenguaje. La teoría intenta hipotetizar cómo los humanos aprenden los conceptos (percepciones, recuerdos, intenciones) que se representan en la mente. El mismo Fodor plantea que existe un lenguaje natural del pensamiento que denomina “mentales”: un lenguaje no verbal hipotético en que los conceptos se representan en la mente (por ejemplo cuando se piensa en la idea de que la rana René es de color verde, evocamos la frase mental: “René es verde”, que se produce en el cerebro). Los pensamientos, entonces, pueden ser acerca de los objetos (René) y pueden ser verdaderos o falsos.

Para profundizar estos enfoques, investigadores del Grupo de Lógica y Computabilidad (GLyC) del ICC recurren a diversas herramientas de la computación teórica, basadas en la teoría algorítmica de la información y la teoría de la computabilidad. “Tratamos de estudiar cómo los humanos realizan tareas cognitivas simples, por un lado valiéndonos de la idea de la Complejidad de Kolmogorov, que consiste en determinar el tamaño o cantidad mínima de información de un programa que produce cierto resultado (por ejemplo una cadena de símbolos de 0 y 1) y ver cuánto podemos comprimir estas secuencias. Por otro lado, usamos la idea de la Inferencia Inductiva de Solomonov, un predictor perfecto que bajo ciertas hipótesis nos puede indicar cuál es el próximo símbolo que sigue en la cadena habiendo visto los anteriores, y está relacionado con la noción de programa mínimo”, puntualiza Santiago Figueira, investigador del GLyC y doctor en Ciencias de la Computación. Figueira desarrolla actualmente estos estudios junto a los investigadores Sergio Abriola y Nina Pardal y al pasante de investigación Tomás Caneda.

Estos avances también formaron parte de la Tesis de Doctorado de Sergio Romano (ver publicación) y apuntan al uso de herramientas de MDL (Minimum Description Length), conocidas como “Longitud mínima de descripción”, que representan el tamaño de la descripción más corta de un objeto dado, en el marco de un lenguaje formal. 

Desde la perspectiva de Figueira, estos estudios de cognición no se basan puramente en lenguajes de programación sino en lenguajes simbólicos (precisos y exactos) que tienen una lógica o formalidad propia, por lo que se asemejan a la programación. “Fodor planteó en su momento que nosotros los humanos, en el fondo pensamos usando algún tipo de lenguaje de programación. Pero es un lenguaje simple, no es superpoderoso ni completo: sirve para hacer algunos cálculos y operaciones básicos, y recurre a símbolos y estructuras de repetición que se pueden combinar y anidar. Esta Hipótesis del Lenguaje de Pensamiento nos ayuda a entender cómo los humanos realizan algunas actividades cognitivas simples, tareas de aprendizaje o clasificación. Y siempre lo hacen con muy pocos datos, a diferencia de las redes neuronales que necesitan una cantidad abrumadoramente grande de datos para ser entrenadas·, explica el científico del ICC

En este contexto, el lenguaje de pensamiento es un lenguaje formal, que funciona con una gramática (forma de describir un programa) y una semántica formal (cada uno de sus programas representa unívocamente uno y solo un concepto). ¿Cuál es la principal ventaja de estos modelos frente a las redes neuronales? “Las redes neuronales utilizan miles de millones de datos de entrenamiento para encontrar patrones. Una vez entrenadas, las redes resultan extremadamente efectivas en muchísimos campos de aplicación, pero tienen un problema: el programador no sabe muy bien por qué funcionan o cómo es que encontraron esos patrones. Es muy difícil entenderlo. Sin embargo, para los modelos de MDL que estudian el lenguaje del pensamiento, sí se entiende por qué funcionan, porque el lenguaje está ahí, visible, para explicar los mecanismos cognitivos”, describe Figueira. Y aclara que en este caso el investigador debió fijar a priori un lenguaje y basarse en una hipótesis con la premisa de que objetos o conceptos más simples para el humano son los que tienen la complejidad más baja. Así,el modelo es simbólico, visible y abierto a poder entender por qué funciona -por ejemplo cómo continuar una secuencia de dígitos o de puntos en el plano (ver paper sobre el Lenguaje de la Geometría).

Experimentos concretos con lenguaje de pensamiento

El grupo de investigadores en Lógica y Computabilidad realizó diversos experimentos cognitivos con la colaboración de investigadores de otras disciplinas tales como física y neurociencia. En algunos casos, a partir de este trabajo empírico, pudieron detectar la aparición de sesgos en el aprendizaje (ver nota anterior del ICC).

Pero también en otro paper indagaron sobre un operador lógico que se llama XOR (o exclusivo), el cual significa “uno o el otro pero no ambos”; si bien la definición es intuitiva resulta más compleja de asimilar en algunos contextos de aprendizaje. En este caso, el doctor Figueira explica que utilizaron dos grupos, uno de control y otro objetivo. Al grupo control le presentaron varios conceptos que se podían describir fácilmente con “Y”, con “O” y con “NO” pero en donde el uso del “XOR” no ayudaba para nada. “Por ejemplo, a los participantes del grupo control le mostrábamos varios conjuntos con bolitas de colores y en todos estaba la bolita azul y no estaba la roja. El concepto en cuestión se podía representar, entonces, como “azul y no roja”. En cambio,  al grupo que queríamos estudiar, el grupo objetivo, le presentábamos conjuntos de bolitas que contenían la bolita azul o la roja, pero no las dos. Acá, el concepto se podía representar de manera sucinta usando el O exclusivo. Así, inducíamos a este grupo de individuos a construir una nueva primitiva del lenguaje del pensamiento”. 

Finalmente a los dos grupos se les presentó un concepto que representaba de manera más sucinta si se usaba el “XOR” respecto a si no se usaba y se midió cuánto tiempo tardaba cada sujeto de cada grupo en entender el concepto. “El resultado fue que el grupo entrenado con el O exclusivo (“XOR”) aprendió el concepto con mayor facilidad. Esto es consistente con la hipótesis de que a los individuos del grupo objetivo les resultó más fácil porque tenían en su cabeza una nueva primitiva, una nueva instrucción en su lenguaje de pensamiento, habían incorporado o ‘compilado’ la primitiva del “XOR”  a su lenguaje de pensamiento, En cambio al grupo control le resultó mucho más difícil el concepto porque no tenía disponible esa primitiva en su paleta de instrucciones”, concluye el investigador del ICC.

Este trabajo trató de demostrar que el lenguaje de pensamiento no es único ni rígido, sino que -al contrario- se va amoldando a medida que un sujeto va conociendo diferentes conceptos nuevos. Es un lenguaje plástico que incorpora nuevas instrucciones a medida que se revelan útiles.

Todos estos ejemplos resultan de problemas reales sobre cómo toman decisiones los humanos, cómo trabajan con muy pocos datos para tareas simples como clasificar, aprender, inferir, memorizar o encontrar errores. Y se inspiran en grupos de teorías fundamentales propias de la computación teórica, como la computabilidad (inaugurada por Alan Turing en los años 30) y la teoría algorítmica de la información (de los años 60, entre cuyos referentes se destacan Kolmogorov, Solomonov, Chaitin y Levin), aunque “bajadas a tierra”, es decir, simplificadas y puestas en funcionamiento en dominios concretos.

Santiago Figueira

La Hipótesis del Lenguaje de Pensamiento no es que los humanos nos comportamos como una computadora. Sino que para ciertas tareas podemos explicar algunas decisiones que tomamos con herramientas que provienen de la teoría algorítmica de la información y de la teoría de la computabilidad. Esa conexión, desde luego informal, entre teorías fundamentales y abstractas de la computación y los problemas concretos de cómo funciona nuestra cabeza me parece fascinante.”, reflexiona Figueira.

En síntesis, el investigador en lógica concluye que las herramientas de computación teórica resultan muy valiosas para entender cómo funciona el cerebro en tareas sencillas de aprendizaje, qué partes del cerebro se activan en la cognición (con problemas comunes a los investigadores en inteligencia artificial y neurociencia computacional) y que es un campo muy fructífero en el que continúan trabajando en problemas abiertos y aún no resueltos por la comunidad científica.

 

 

2023-03-29T14:20:29-03:00 10/marzo/2023|Noticias|
Go to Top