Ir al contenido

Inicio
ETSIINF en Twitter ETSIINF en Facebook
Inicio > Conócenos > Sala de prensa > Entrevista con Fermin Moscoso

Modelar el cerebro es factible, aunque difícil

Entrevista con el Dr. Fermin Moscoso, antiguo alumno de la Facultad y hoy Investigador Titular del CNRS en la universidad francesa de Provence

Fermín Moscoso Prado12.06.2008. Fermín Moscoso del Prado Martín es un antiguo alumno de la Facultad de Informática de la Universidad Politécnica de Madrid (FIUPM) que ha regresado a sus aulas para impartir un curso sobre modelado computacional de procesos cognitivos. Después de terminar sus estudios en la Facultad, obtuvo un Doctorado (cum laude) en Psicolingüistica en la Universidad holandesa de Nijmegen y en la actualidad es Investigador Titular del CNRS en el Laboratorio de Psicología Cognitiva de la universidad francesa de Provence, en Marsella. En la siguiente entrevista explica que, aunque todavía no se conoce lo suficiente como para poder simularlo, es posible construir simulaciones realistas sobre procesos y áreas completas del cerebro. El objetivo de su trabajo es lograr un modelo computacional que sea capaz de integrar las teorías basadas en datos comportamentales sobre el procesamiento de palabras, a partir de técnicas neurofisiológicas y de imagen neuromagnética.

- ¿Es plausible el cerebro? ¿Se conoce lo suficiente como para poder simularlo?

El cerebro “tiene” que ser plausible, desde el momento en que esta ahí y funciona. Otra cosa, sin embargo, es que sea plausible comprenderlo. Los que trabajamos intentando entender el cerebro partimos de la asunción de que es, en efecto, una empresa factible, aunque difícil.

A la segunda pregunta, la respuesta general es no; conocemos por el momento demasiado poco como para construir un modelo realista del cerebro completo de un animal superior. Sin embargo, si que conocemos cada vez mas sobre algunos aspectos del cerebro como para construir simulaciones relativamente realistas sobre procesos u áreas completas. Un ejemplo de ello es el trabajo de Gustavo Deco (UPF, Barcelona) y Edmund Rolls (Oxford) sobre los cortex visuales. Cuando hablamos de "simular" el cerebro, podemos estar hablando de varias cosas diferentes. Por un lado podemos estar hablando de simulaciones de "bajo nivel", modelando procesos neuroquímicos sobre la carga y descarga de las neuronas individuales y sus conexiones. Por otra parte, podemos estar hablando de un nivel más "sistémico", donde se modelan las interacciones entre grandes redes de neuronas, pero sin mirar el comportamiento individual de cada neurona. Finalmente, podemos referirnos a modelos sobre tareas cognitivas concretas (p.e., leer, hablar, reconocer caras, tener miedo, ...) utilizando mecanismos más o menos plausibles a nivel cerebral, pero sin entrar en gran detalle en la neurofisiología.

En la actualidad estas tres aproximaciones existen, y las tres son necesarias. Por una parte es necesario conocer los detalles físico-químicos de las unidades mínimas del sistema (neuronas y sinapsis). Por otra parte, es necesario comprender como se comportan las grandes redes formadas por este tipo de elementos. Finalmente, hace falta ser capaz de enfocar las funciones cerebrales desde la perspectiva de que es un sistema cuya función principal es el procesado de información.

Otro asunto importante cuando hablamos de modelado es la utilidad del mismo. En principio, la simulación del cerebro no es nuestro objetivo, tanto como la comprensión del cerebro. Nuestro trabajo consiste en la elaboración de teorías sobre los diferentes aspectos del funcionamiento cerebral y cognitivo, su desarrollo, y sus posibles problemas. En este sentido, la función de los modelos es servir de "experimentos virtuales". Dado el alto componente probabilístico y caótico del sistema que consideramos, es a menudo difícil ver qué es lo que realmente predice una teoría determinada. En este sentido, los modelos nos permiten ver las consecuencias de diferentes teorías, que luego pueden ser contrastadas con experimentos reales.

En mi opinión en los últimos 20 años hemos avanzado mucho en todos los niveles de modelado. Cada vez hay mas grupos, conferencias y reuniones trabajando en estos temas, lo cual sin duda resultará en importantes avances en los próximos años.

¿Cómo se puede modelar un proceso cognitivo?

David Marr, uno de los pioneros en el modelado, hablaba de tres niveles de descripción de los procesos cognitivos, y los modelos se encuentran en estos tres niveles:

1. Un nivel computacional, donde se produce una descripción matemática del problema a resolver y la información disponible o necesaria. A este nivel, las técnicas más empleadas actualmente son los llamados modelos de "observardor ideal" basados en la estadística bayesiana.

2. Un nivel algorítmico, que se concentra en explicar la forma de resolver el problema. A este nivel, hoy en día, uno se encuentra una gran cantidad de técnicas diferentes. Los más comunes son modelos de difusión, que explican como la información se va acumulando. También a este nivel uno encuentra trabajos basados en redes de neuronas, que, si bien no son realistas a nivel neurofisiológico, sí que permiten una descripción de los procesos estadísticos involucrados en la cognición.

3. Finalmente está el nivel implementacional, que busca implementar los mecanismos anteriores usando redes de neuronas con plausibilidad biológica. Este es un campo menos desarrollado que los anteriores, pero cada vez hay más estudios a este nivel, así que es donde podemos esperar avances más espectaculares en un futuro próximo.

- En el curso has hablado de movimiento ocular, decisión, certezas e incertidumbres… ¿qué papel desempeñan en la modelación del proceso cognitivo?

Los movimientos oculares, junto con las medidas comportamentales y las técnicas de EEG/MEG y resonancia magnética, son en estos momentos nuestras principales herramientas de trabajo, por decirlo de una manera, casi las únicas ventanas que tenemos para estudiar la mente humana. Son nuestros datos experimentales sobre los que intentamos buscar explicaciones, sacar conclusiones, y hacer predicciones.

Las certezas e incertidumbres son cruciales en nuestra área. El comportamiento de las personas tiene un fuerte componente aleatorio que siempre tenemos que tener en cuenta a la hora de diseñar teorías. Es precisamente esta impredicibilidad lo que, en mi opinión, es la característica principal de la inteligencia.

- ¿Qué es la modelación computacional y qué aplicaciones tiene?

La modelación computacional es la implementación matemática de teorías científicas de complejidad relativamente alta (que serian difícil abarcar de manera analítica o incluso numérica) con el objeto de comprender las predicciones de dichas teorías. Idealmente los modelos debieran dar lugar a nuevas predicciones experimentales que permitan el refinado de las teorías.

-¿En qué puede contribuir la realidad virtual a estas investigaciones?

La realidad virtual se esta utilizando cada vez mas en las ciencias cognitivas. Uno de los problemas que nos encontramos en psicología experimental proviene precisamente de la naturaleza experimental de la disciplina. Hay un debate permanente sobre la "validez ecologica" de nuestros resultados. Es decir, lo que observamos es un proceso natural, o el resultado de una situación experimental completamente antinatural. Esto contrasta con la necesidad de observaciones con situaciones relativamente controladas, que son muy difíciles de obtener mediante grabaciones u observaciones de situaciones reales. En esta dirección, las técnicas de realidad virtual permiten la construcción de escenarios experimentalmente controlados, y sin embargo cada vez más realistas o al menos plausibles. Hay cada vez mas laboratorios que disponen de sistemas muy avanzados de realidad virtual.

- ¿Qué es la psicología experimental? ¿Qué relación tiene con otras disciplinas como la neurofisiología, la lingüística, la medicina y la Inteligencia Artificial?

La psicología experimental es una de la áreas más antiguas de la psicología, pero también una de las menos conocidas socialmente, donde el psicólogo se asocia tradicionalmente al psicoanalista. En la psicología experimental se busca utilizar métodos cuantitativos para estudiar los procesos cognitivos. Esto contrasta con los llamados métodos cualitativos utilizados en las ciencias sociales (y en gran parte de la psicología). La psicología experimental, dadas las limitaciones de lo que conocemos, suele centrarse en explicar procesos relativamente humildes o aparentemente sencillos, pero utilizando un método experimental fuerte, lo que permite un desarrollo lento pero seguro del conocimiento. Esto contrasta con las metodologías, en algunos aspectos literarias, normalmente empleadas en áreas más populares de la psicología, que sin embargo suelen centrarse en problemas "grandes", aunque al menudo débilmente definidos, y con resultados altamente inestables (dado que no existe manera de comparar teorías).

- ¿Qué líneas de investigación se están derivando de esta colaboración interdisciplinar?

Además de las técnicas de modelado, otras áreas donde se están produciendo grandes desarrollos son las bases de datos experimentales, las herramientas software para análisis y modelado de datos, y los métodos de procesamiento de imágenes para el análisis de datos biomédicos.

- ¿Qué cosas pueden hacer juntas la psicología experimental y la Inteligencia Artificial?

Mucho y cada vez más. La mayor parte de los investigadores en psicología experimental/cognitiva tienen una formación matemática y computacional relativamente débil. Sin embargo, las técnicas de modelado y desarrollo teórico son cada vez más sofisticadas, empleando muchas técnicas tradicionales de la inteligencia artificial. Esta relación no es nueva, sino que se remonta al nacimiento mismo de la inteligencia artificial, en la que muchos psicólogos jugaron papeles claves. Una gran parte de los modelos y técnicas utilizados en IA hoy en día, fueron resultado de modelos cognitivos del conocimiento humano.

- ¿En qué campos de investigación concretos estás trabajando en estos momentos?

Actualmente, desde Marsella, he estado poniendo en marcha diferentes proyectos, que comienzan a salir ahora. En general, el objetivo amplio de mi proyecto es lograr un modelo computacional que sea capaz de integrar las teorías basadas en datos comportamentales sobre el procesamiento de palabras, con los resultados de técnicas neurofisiológicas y de imagen neuromagnética (ver documento adjunto).

En esta dirección estoy involucrado en varios proyectos. Los principales son:

1. Creación de un modelo matemático sobre el reconocimiento visual de palabras que permita comparar los modelos actuales existentes (ver el articulo adjunto que presentare en la próxima reunión de la Cognitive Science Society). En esta dirección estoy integrando varias "familias" de modelos actuales: los modelos de decisión basados en procesos de difusión con deriva ("drift difussion models"), los modelos Bayesianos tipo "observador ideal", y los modelos conexionistas (basados en redes de neuronas artificiales). Para ello utilizo una combinación de técnicas de estadística bayesiana y teoría de la información.

2. Muy relacionado con lo anterior, los modelos hacen predicciones bastante concretas sobre procesos de información "top-down" y "bottom-up" con involucrados en el reconocimiento de palabras. Estas predicciones las estamos investigando utilizando experimentos con electro-encefalograma (EEG). Parte del trabajo necesario consiste en aplicar -también al análisis de la señal de EEG - las mismas técnicas de teoría de la información con las que desarrollamos los modelos. El resultado que estamos buscando es la relación entre los diferentes componentes de frecuencia de la señal EEG con las propiedades del modelo teórico que defendemos. Esto puede resumirse en lo siguiente:

- Las palabras están representadas por amplias redes corticales (las denominadas "asambleas de neuronas") fuertemente conectadas entre si, hasta el punto de responder como una unidad. La resonancia de estas redes altamente sincronizadas se refleja en los componentes de alta frecuencia de la señal de EEG (la llamada banda Gamma, entre 30 y 80 Hz. de frecuencia). Por tanto, el nivel de energía de la banda Gamma durante el reconocimiento léxico debe estar relacionado con las propiedades lingüísticas de las palabras.

- Para evitar que demasiadas de estas asambleas se activen al mismo tiempo, son necesarios procesos de inhibición que den lugar a la competición entre muchas asambleas. Esta competición puede implementarse usando diferentes procesos cerebrales, aunque uno de los candidatos más fuertes es el bucle córtico-talámico, una serie de conexiones entre la superficie cerebral (el córtex) con áreas cerebrales más profundas (el tálamo) que puede hacer una función de regulación, en el sentido de sistemas de control, que inhibe la generalidad del córtex. Estamos buscando como la modulación del nivel de competición entre palabras (manipulando por ejemplo el nivel de ambigüedad de una palabra) puede verse reflejada en actividad talámica. Adicionalmente, pensamos que la llamada banda Beta de frecuencias de EEG (aproximadamente entre 15 y 25 Hz. de frecuencia), está relacionada con los procesos de inhibición.

- En colaboración con Boris Burle, del laboratorio de Neurobiología del CNRS, estamos estudiando cómo los procesos de inhibición, que observamos en las señal de EEG, pueden ser implementados en diferentes modelos computacionales.

3. Un aspecto sobre el que estoy trabajando bastante últimamente es la distribución general de tiempos de respuesta humanos. Los tiempos de respuesta son quizás la medida mas utilizada en experimentos comportamentales desde el trabajo de F. C. Donders en el siglo XIX. Sin embargo, los tiempos de respuesta (el tiempo que tarda una persona en decidir pulsar un botón o mover un ojo) tienen propiedades bastante oscuras a nivel estadístico. El gran problema (estudiado en detalle por Duncan Luce, uno de los maestros de la psicología experimental del siglo XX) es que la distribución de tiempos no se ajusta a ninguna de las distribuciones estadísticas habituales, por tanto ha habido todo tipo de propuestas de distribuciones más o menos exóticas diseñadas ad-hoc para modelar los tiempos. Nosotros, sin embargo pensamos que quizás el error está en mirar la distribución de tiempos de respuesta, en lugar de la distribución de velocidades de respuesta. Cuando uno se centra en las velocidades, encuentra que su distribución es asombrosamente normal (en el sentido de distribución normal). Esto tiene implicaciones para los modelos que pueden subyacer a los tiempos de respuesta.

4. En colaboración con Javier Alario (un compañero de laboratorio especializado en producción del lenguaje) estamos intentando mejorar las técnicas estadísticas empleadas en el análisis de experimentos de producción. En el mismo sentido, con un grupo internacional relativamente grande de investigadores de EE.UU., el Reino Unido, Canadá, Serbia, Holanda y Bélgica, estamos desarrollando nuevas técnicas de análisis de experimentos comportamentales empleando estadística y teoría de la información para integrar los resultados experimentales, con las descripciones que producen los lingüistas.

5. En colaboración con Jean-Baptiste Bernard, un estudiante de doctorado en neurociencias, estamos investigado las consecuencias de las lesiones oculares (muy comunes en el envejecimiento) sobre la lectura. Esto involucra el desarrollo de un modelo computacional detallado de los movimientos oculares durante la lectura, tanto en pacientes como en personas sanas. Las implicaciones de este proyecto abarcan tanto aspectos terapéuticos (desarrollo de ayudas a la lectura para este tipo de pacientes) como desarrollos teóricos, ya que nos permite enlazar el procesamiento visual de bajo nivel, con el reconocimiento de palabras (ver documento adjunto, para una conferencia próxima).