Una mirada a la Neurociencia Computacional

Juan Kamienkowski es licenciado y doctor en física de la Universidad de Buenos Aires. Se desempeña como docente de Exactas e investigador del ICC, integrante del Laboratorio de Inteligencia Artificial Aplicada. Sus intereses académicos están vinculados al Análisis del comportamiento humano en escenarios naturales -correlatos neurales y modelos computacionales- y al Desarrollo de procesos cerebrales de control cognitivo en contextos de vulnerabilidad social. Cuenta con numerosas publicaciones y dirección de proyectos en el área. Actualmente utiliza técnicas de grafos y aprendizaje automático para mejorar los estudios de neurociencia. En esta entrevista con el ICC, indagamos acerca de los pormenores de sus investigaciones.

¿Cómo fue tu acercamiento a los temas de computación, siendo doctor en física?

En realidad trabajo en temas interdisciplinarios y las preguntas de fondo entre física y computación siempre fueron las mismas. Tanto cuando era estudiante y colaboraba con un laboratorio de biología como cuando comencé el doctorado sobre neurociencia y ciencias cognitivas, siempre mi aporte consistió en brindar un enfoque cuantitativo sobre los experimentos.

Ese enfoque es el que enriquece la neurociencia desde la computación…

Así es, mi ingreso a la computación me permitió introducir nuevas técnicas y modelos de análisis del comportamiento del cerebro humano. Cuando uno trabaja sobre análisis de electroencefalografía, en general hay miles y hasta millones de datos, porque son series continuas de 128 electrodos y hay distintas formas de encarar el análisis. Estos experimentos se hacen comúnmente en ciencias cognitivas y psicología en todo el mundo. Pero un psicólogo o un médico ponen más énfasis en el diseño del experimento sin tanto cuestionamiento de las técnicas implementadas. Nuestro diferencial se centra en explorar diferentes técnicas, cuánto se pueden mejorar y si se puede generar una nueva técnica de análisis.

¿Qué técnicas estás aplicando actualmente?

Para el análisis de actividad cerebral se usan diversas técnicas de redes (grafos), pensando a las distintas regiones del cerebro como nodos que se conectan en función de lo que la persona está haciendo en cada momento y brindan información sobre las propiedades reales de esta actividad.

En cuanto a lo que es aprendizaje automático, se entiende como un método estadístico más fuerte y también como una forma de generar interfaces visuales o software de análisis para el entrenamiento del cerebro y, a partir del aprendizaje de cada persona, poder predecir cierto comportamiento (por ejemplo hemos realizado una interfaz que permite escribir a partir de la actividad cerebral y poder aprender de la respuesta de cada sujeto).

Hablemos ahora de tus investigaciones en particular, ¿en qué proyectos estás trabajando?

Uno de los proyectos consiste en estudiar la conectividad cerebral en chicos de 5 años, en función de distintos tipos de entrenamiento y el desarrollo de distintas capacidades como memoria de trabajo o atención. El objetivo es saber si se puede encontrar un correlato de esas capacidades de desarrollo en las regiones conectadas del cerebro. Trabajamos con chicos que están en situación de vulnerabilidad social. En este proyecto también están involucrados investigadores del DC/ICC, un psicólogo que realiza su doctorado en el Laboratorio y un importante grupo de investigadores en psicología del CEMIC.

A través de diferentes pruebas, podemos medir estas redes en el cerebro y observar si la conectividad entre distintas regiones predice o no esas capacidades cognitivas. Por ejemplo, le proponemos a los chicos un simple test de memorizar una cierta cantidad de dígitos o usar un juego como el Pacman para que respondan o no a ciertos estímulos. Al realizar la prueba al mismo tiempo en que la persona está haciendo la tarea, podemos estudiar si se produce un incremento entre la conectividad entre dos regiones cerebrales y si esto muestra un correlato con alguna de estas capacidades del chico.

Existe toda una discusión atrás que plantea que estas capacidades están moldeadas desde los primeros años de la infancia y no se pueden estimular, una visión que claramente no es rigurosa. Nosotros planteamos todo lo contrario: a estas edades el cerebro es súper plástico y se lo puede entrenar con una tarea o una intervención en una clase.

¿Y existe algún otro proyecto en Neurociencia con técnicas similares?

Sí, el otro proyecto trata de predecir qué es lo que uno persona está mirando, a partir de su actividad cerebral. Hacemos experimentos con decenas de sujetos voluntarios, que generalmente consisten en buscar una cara específica entre una multitud de caras. Nos detenemos en la señal de actividad cerebral cuando el sujeto mira una cara cualquiera e intentamos predecir si es efectivamente el rostro que está buscando o no. Usamos un electroencefalograma (EEG) y detectamos una señal muy fuerte que es la P300 (positividad de 300 milisegundos después de que aparece el estímulo en la región central), la cual generalmente aparece cada vez que uno encuentra algo que estaba buscando previamente o que cumple un objetivo (esta misma señal también emerge con experimentos de audio o de texto). Nuestras imágenes no son estándares y no condicionamos la respuesta. En muchos casos usamos imágenes de tribunas deportivas y de allí el sujeto tiene que mirar los rostros uno por uno hasta encontrar el que busca.

En definitiva, te enfrentás con datos heterogéneos para cada experimento. ¿Cómo se hace para refinarlos y procesarlos?

Existen 3 dimensiones donde mirar la señal: 1) amplitudes en función del tiempo 2) espectro de frecuencias 3) conectividad (grafos aplicados a redes del cerebro), que en este caso se agrupa en 128 series temporales.

Trabajamos con el comportamiento medido en tiempos de respuesta y probabilidad de responder “correcto” o “incorrecto”, con los movimientos oculares que son señales continuas que se toman a partir de imágenes de video y usan un algoritmo para detectar la posición de la pupila y detectar eventos discretos como la fijación de la mirada o el movimiento muy rápido del ojo (sacada). Además utilizamos el EEG, donde aplicamos una serie de filtros para enfocarse en las bandas de frecuencia en que está ocurriendo la actividad cerebral.

Resulta complejo extraer los datos relevantes porque la señal de actividad cerebral suele ser muy pequeña comparada con todo el ruido que aparece en el experimento (desde señales eléctricas del ambiente, hasta movimientos musculares de la persona e incluso señales cardíacas).

Claramente hay todo un trabajo atrás de observar los datos, limpiarlos y luego procesarlos. Considero que la ciencia de datos ayuda en gran medida a estos experimentos particulares, que intentan emular un entorno más natural y dejan más libertad a los estímulos que usamos, porque suelen ser menos controlados por el sujeto experimentador.

Tenemos que lidiar con distintos co-factores que no se pueden balancear por completo. En el caso de los experimentos con texto, intentamos proveer texto lo más natural posible (un cuento por ejemplo) y aplicamos técnicas de procesamiento del lenguaje natural para poder parametrizarlo. Se necesita mirar la historia del sujeto, el comportamiento previo y el recorrido que hizo ante esos estímulos (cómo miró, cómo leyó, cómo habló, etc.) e incluso si el experimento falló en alguna instancia. En el caso de las caras, por ejemplo, no podemos hacer regresión a un único factor (si es la cara que el sujeto estaba buscando o no), sino que debemos mirar en qué posición está la cara, cuánto tiempo pasó desde que se estaba buscando, en qué posición particular de la imagen estaba, etc. Todo ello nos fuerza, en resumen, a complejizar las técnicas.

2019-12-05T11:46:23-03:00 25/noviembre/2019|Noticias|
Go to Top