concha_bielza2.jpg

-P. Estimada profesora: Ud. es una gran experta en redes bayesianas. Las redes bayesianas (Pearl, 1988; Koller y Friedman, 2009) son una herramienta muy potente para representar la distribución de probabilidad sobre un conjunto de variables discretas. En Bielza, Li y Larrañaga (2011) introdujo un nuevo tipo de clasificador multidimensional bayesiano que reduce la carga computacional a la hora de buscar la explicación más probable. ¿Podría, por favor, explicarnos alguna de esas características que reducen la complejidad computacional y cómo ha evolucionado en Benjumeda, Bielza y Larrañaga (2018)?

-R. En el primer artículo (Bielza, Li, Larrañaga, 2011) propusimos redes bayesianas que resuelven el problema de la clasificación multidimensional, en el que no se quiere predecir una sola variable clase sino muchas a la vez, y donde es esperable que haya relaciones entre estas variables. A estas redes bayesianas con una arquitectura especial las denominamos MBCs (del inglés, multidimensional Bayesian network classifiers). Para resolver estos problemas hay que calcular la probabilidad a posteriori de cada posible combinación de las variables clase condicionada a la observación de todas las variables predictoras y después encontrar la que tiene mayor probabilidad, lo que dará la predicción final, que se denomina "explicación más probable". Se ha demostrado que calcular esta explicación en redes bayesianas es un problema NP-duro (Shimony, 1994). Nosotros aliviamos la carga computacional definiendo ciertas topologías de red descomponibles en subgrafos conexos maximales que rompen el problema original en varios problemas de maximización independientes, sobre espacios de menor dimensión. A estas estructuras más simples las denominamos class-bridge decomposable MBCs o CB-MBCs. También nos ayudamos del código Gray para recorrer el espacio de las combinaciones de las variables clase. Enumeramos así todas estas combinaciones siguiendo un orden específico en el que dos combinaciones consecutivas difieren solo en una componente.

Los desarrollos más recientes, como Benjumeda et al. (2018), acotan la complejidad de los MBCs y los CB-MBCs mientras se aprende la estructura a partir de datos. La estructura tiene ciertas restricciones que limitan la anchura de árbol (treewidth) de una transformación de la red original. Los MBCs resultantes son tratables, donde la explicación más probable se puede calcular en tiempo polinomial.

Un ejemplo en Neurociencia se encuentra en Borchani et al. (2012), donde usamos MBCs para predecir las cinco variables (movilidad, cuidado personal, actividades cotidianas, dolor/malestar y ansiedad/depresión), que definen el índice genérico de calidad de vida relacionada con la salud denominado European Quality of Life-5 Dimensions (EQ-5D). Se predicen a partir de 39 cuestiones sobre calidad de vida en enfermedad de Parkinson (PDQ-39). Fue una colaboración con el neurólogo Pablo Martínez-Martín, del Instituto de Salud Carlos III.

Otro ejemplo, en Neuroanatomía, se describe en Fernández-González et al. (2015), en el que un conjunto de casi doscientas características morfológicas extraídas de neuronas del repositorio NeuroMorpho sirven para predecir la especie a la que pertenece la neurona, el género, el tipo de célula, la etapa de desarrollo y el área de la neocorteza. Los modelos fueron CB-MBCs, pero gausianos, ya que las variables predictoras eran continuas. Es importante señalar que las redes bayesianas son transparentes y explicables, una característica deseable en modelos de machine learning en contraposición a otros como el popular aprendizaje profundo de redes neuronales artificiales.

-P. A raíz de su colaboración con el grupo del profesor Javier DeFelipe en el problema de la clasificación y denominación de las interneuronas GABAérgicas (DeFelipe et al., 2013; Bielza y Larrañaga, 2014, p. 13), se usó Neurolucida y se propuso el diseño de un neuroclasificador que, basado en las categorías propuestas por los expertos, combinase etiquetas probabilísticas conocidas de neuronas con nuevas etiquetas de neuronas como técnica de clasificación neuronal (DeFelipe et al., 2013, p. 215). ¿Querría, por favor, comentarnos brevemente la evolución de este sistema informático y su estado actual de desarrollo?

-R. En DeFelipe et al. (2013) constatamos que los neuroanatomistas no se ponen de acuerdo en cómo categorizar muchas de las interneuronas GABAérgicas corticales, a partir de un experimento donde 42 expertos de todo el mundo clasificaron 320 interneuronas en las categorías estándar: Martinotti, candelabro, neuronas en cesto... Por eso se propusieron categorizaciones basadas en variables más simples, por ejemplo, si el árbol axonal se dispone en una sola capa (intralaminar) o no (translaminar), si se dispone en una sola columna cortical (intracolumnar) o no (transcolumnar), o cuál es la posición relativa de los árboles axonal y dendrítico (centrada versus desplazada). Aquí hubo algo más de consenso entre los expertos. Los dos tipos de categorizaciones, simples y estándar, reflejan diferentes formas de clasificar: la empírica y la científica (como la forma de clasificar plantas que hace un jardinero frente a cómo la hace un botánico) y sus relaciones entre ellas son interesantes. Esto se estudió con una red bayesiana por cada experto, que recogía su forma de clasificar. La red bayesiana permite realizar razonamiento sobre ella, pudiendo preguntar, por ejemplo, "¿cuál es la probabilidad de que si es una célula de tipo Martinotti sea, para cierto experto, translaminar?" y de ahí inferir qué neuroanatomistas razonaban de forma similar o distinta.

El conjunto de datos que generó este experimento entrañaba una dificultad grande desde el punto de vista del machine learning. No es un conjunto con instancias (neuronas donde se miden características morfológicas con Neurolucida Explorer) que poseen una clara etiqueta, ya que para una neurona, las etiquetas dadas por los 42 expertos podían diferir. Así, una interneurona podía ser Martinotti para 39 expertos, large basket para dos y horse tail para uno. Este tipo de etiquetado que no contiene la asignación a una única clase puede estudiarse desde varias perspectivas. Una es considerar la clase más frecuente entre las 42 anotaciones (DeFelipe et al., 2013; Mihaljevic et al., 2015b). Otra es utilizar las clases más confiables, es decir, las que van apoyadas por un determinado número de expertos (Mihaljevic et al., 2015a). Otra vía consiste en trabajar con etiquetas probabilísticas que reflejan esta disparidad en los expertos. Si además añadimos categorizaciones simples y estándar a toda la complejidad del etiquetado, podemos construir para cada neurona una red bayesiana que exprese las relaciones entre estas categorizaciones (Mihaljevic et al., 2014).

Esta clasificación automática debe mejorarse añadiendo nuevas variables morfométricas predictoras y partiendo de neuronas reconstruidas en un mismo laboratorio (como en Mihaljevic et al., 2018). A veces utilizar predictoras morfológicas es suficiente; como en Guerra et al. (2011), donde distinguimos entre neuronas piramidales e interneuronas, en colaboración con Rafael Yuste de la Universidad de Columbia. Pero en datos más complejos como los que estamos mencionando, incluir atributos moleculares y electrofisiológicos aparte de los morfológicos puede aportar perspectivas más ricas, y es algo en lo que estamos trabajando actualmente dentro del proyecto europeo Human Brain Project (FET Flagship de la Comisión Europea).

-P. Siguiendo con el problema de la clasificación neuronal, en López-Cruz, Larrañaga, DeFelipe y Bielza (2014) se diseñó una red bayesiana múltiple que buscaba modelar el consenso entre las clasificaciones aportadas por los expertos. En la parte final del artículo mencionado, comentan la necesidad de encontrar una red bayesiana representativa para cada cluster de distribuciones de probabilidad. ¿Ha habido algún avance relevante al respecto en la combinación de técnicas para obtener la mejor solución posible al problema desde la publicación del artículo?

-R. En este trabajo se agruparon expertos similares en clusters (se encontraron seis) a partir de la similitud entre sus distribuciones de probabilidad sobre las respuestas dadas en el experimento que he mencionado antes. Esas distribuciones de probabilidad provenían de cada red bayesiana aprendida para cada experto. Se construía luego una red bayesiana que representaba al cluster de expertos. Así, por ejemplo, un cluster representaba a neuroanatomistas que seguían un esquema de clasificación de grano muy fino frente a otros que clasificaban de forma mucho más grosera, dando muy alta probabilidad al tipo Common. El modelo global que aunaba las seis redes bayesianas permitía inferir definiciones consensuadas realizando de nuevo razonamiento sobre las redes. Por ejemplo, fijando la interneurona a Martinotti, el resto de caracterizaciones era translaminar (94%), transcolumnar (59%), desplazada (88%), y ascendente (65%). Si bien agrupar a los expertos tiene mucho sentido, las aproximaciones mencionadas en la pregunta anterior aportan soluciones más generales.

 Le agradezco mucho la concesión de esta entrevista y le deseo el mayor éxito en sus proyectos de investigación venideros.

 

Referencias

Benjumeda, M., Bielza, C. y P. Larrañaga. (2018). Tractability of most probable explanations in multidimensional Bayesian networks classifiers. International Journal of Approximate Reasoning, 93, 74-87. Recuperado de http://isiarticles.com/bundles/Article/pre/pdf/113742.pdf.

Bielza, C. y Larrañaga, P. (2014). Bayesian networks in neuroscience: a survey. Frontiers in Computational Neuroscience, 8 (131), 1-23. Recuperado de http://cig.fi.upm.es/articles/2014/Bielza-2014-FrontCompNeur.pdf 

Bielza, C., Li, G. y P. Larrañaga. (2011). Multi-dimensional classification with Bayesian networks. International Journal of Approximate Reasoning, 52, 705-727. Recuperado de https://core.ac.uk/download/pdf/82157691.pdf.

Borchani, H., Bielza, C., Martínez-Martín, P. y P. Larrañaga (2012). Markov blanket-based approach for learning multi-dimensional Bayesian network classifiers: An application to predict the European Quality of Life-5Dimensions (EQ-5D) from the 39-item Parkinson's Disease Questionnaire (PDQ-39), Journal of Biomedical Informatics, 45, 1175-1184.

DeFelipe et al. (2013). New insights into the classification and nomenclature of cortical GABAergic interneurons. Nature Reviews Neuroscience, 14 (3), 1-15. Recuperado de http://cig.fi.upm.es/articles/2013/DeFelipe2013_NRN.pdf.

Fernandez-Gonzalez, P., Bielza, C. y P. Larrañaga (2015). Multidimensional classifiers for neuroanatomical data, ICML Workshop on Statistics, Machine Learning and Neuroscience (Stamlins 2015), Lille, France, ICML.

Guerra, L., McGarry, L., Robles, V., Bielza, C., Larrañaga, P. y R. Yuste (2011). Comparison between supervised and unsupervised classification of neuronal cell types: a case study, Developmental Neurobiology, 71 (1) 71-82.

Koller, D. y Friedman, N. (2009). Probabilistic Graphical Models: Principles and Techniques - Adaptive Computation and Machine Learning, The MIT Press.

López-Cruz, P., Larrañaga, P., DeFelipe. J. y C. Bielza (2014). Bayesian network modeling of the consensus between experts: an application to neuron classification. International Journal of Approximate Reasoning, 55 (1), 3-22. Recuperado de http://oa.upm.es/38813/1/INVE_MEM_2014_171770.

Mihaljevic, B., Benavides-Piccione, R., Bielza, C., DeFelipe, J. y P. Larrañaga (2015a). Bayesian network classifiers for categorizing cortical GABAergic interneurons, Neuroinformatics, 13 (2) 192–208.

Mihaljevic, B., Benavides-Piccione, R., Guerra, L., DeFelipe, J., Larrañaga, P. y C. Bielza (2015b). Classifying GABAergic interneurons with semi-supervised projected model-based clustering, Artificial Intelligence in Medicine, 65 (1) 49-59.

Mihaljevic, B., Bielza, C., Benavides-Piccione, R., DeFelipe, J. y P. Larrañaga (2014). Multi-dimensional classification of GABAergic interneurons with Bayesian network-modeled label uncertainty, Frontiers in Computional Neuroscience, 8, Article 150.

Mihaljevic, B., Larrañaga, P., Benavides-Piccione, R., Hill, S., DeFelipe, J. y C. Bielza (2018). Towards a supervised classification of neocortical interneuron morphologies, BMC Bioinformatics, accepted.

J. Pearl (1988). Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference, Morgan Kaufmann.

Shimony, S.E. (1994). Finding MAPs for belief networks is NP-hard, Artificial Intelligence,  68 (2), 399–410.

Artículos relacionados

Carlos Pelta
Carlos Pelta

Doctor en Psicología por la Universidad Complutense de Madrid, actualmente es investigador asociado al Departamento de Psicología Experimental, Procesos Cognitivos y Logopedia de dicha Universidad. Interesado en las aplicaciones de la Inteligencia Artificial a los campos de la Psicología y de la Neurociencia y en el desarrollo de algoritmos computacionales para el estudio de los sistemas complejos. Esta es su página en Researchgate y en https://cpelta.academia.edu/research#papers

Sobre este blog

Este blog pretende dar a conocer aquellas investigaciones que se están realizando en torno a la interacción entre los procesos cognitivos del cerebro humano y la ciencia computacional.

Ver todos los artículos (29)