Вы находитесь на странице: 1из 23

Conexionismo

El conexionismo es un conjunto de enfoques en los ámbitos de la inteligencia


artificial, psicología cognitiva, ciencia cognitiva, neurociencia y filosofía de la mente, que
presenta los fenómenos de la mente y del comportamiento como procesos
que emergen de redes formadas por unidades sencillas interconectadas. Hay muchas formas
de conexionismo, pero las formas más comunes son los modelos de redes neuronales.

Índice
[ocultar]

 1Principios básicos
o 1.1Propagación de activación
o 1.2Redes neuronales artificiales
o 1.3Realismo biológico
o 1.4Aprendizaje
 2Historia
o 2.1Procesamiento distribuido en paralelo
o 2.2Primeros trabajos
o 2.3Conexionismo aparte de PDP
 3Debate conexionismo vs. Inteligencia artificial convencional
 4Véase también
 5Referencias
 6Bibliografía
 7Enlaces externos

Principios básicos[editar]
El principio central del conexionismo es que los fenómenos mentales pueden ser descritos por
redes de unidades sencillas y frecuentemente iguales que se interconectan. La forma de las
conexiones y de las unidades varía de un modelo a otro. Por ejemplo, las unidades de la red
podrían representar neuronas y las conexiones podrían representar sinapsis. Otro modelo
podría hacer cada unidad de la red una palabra, y cada conexión una indicación de similitud
semántica.
Propagación de activación[editar]
En la mayoría de los modelos conexionistas las redes cambian con el tiempo. Un aspecto
estrechamente relacionado y muy común de los modelos conexionistas es la activación. En
cualquier momento, una unidad de la red se activa mediante un valor numérico que pretende
representar algún aspecto de la unidad. Por ejemplo, si las unidades del modelo son
neuronas, la activación puede representar a la probabilidad de que la neurona genere un pico
en su potencial de acción. Si se trata de un modelo de propagación de activación, entonces
con el tiempo la activación de una unidad se extenderá a todas las demás unidades
conectadas a ella. La propagación de activación es siempre una característica de los modelos
de redes neuronales, y es muy común en los modelos conexionistas utilizados en psicología
cognitiva.
Redes neuronales artificiales[editar]
Artículo principal: Red neuronal artificial

Las redes neuronales son los modelos conexionistas más utilizados hoy en día. Muchas
investigaciones en las que se utilizan redes neuronales son denominadas con el nombre más
genérico de "conexionistas". Aunque hay gran variedad de modelos de redes neuronales, casi
siempre siguen dos principios básicos relativos a la mente:

1. Cualquier estado mental puede ser descrito como un vector (N)-dimensional de los
valores numéricos de activación en las unidades neurales de una red.
2. La memoria se crea cuando se modifican los valores que representan la fuerza de las
conexiones entre las unidades neurales. La fuerza de las conexiones, o "pesos", son
generalmente representados como una matriz de (N × N) dimensiones.
La mayoría de los distintos modelos de redes neuronales aparecen por:

 La Interpretación de sus unidades: Se pueden interpretar como neuronas individuales o


como grupos de estas.
 La Definición de la activación: Hay multitud de formas de definir la activación. Por ejemplo,
en una máquina de Boltzmannla activación se interpreta como la probabilidad de generar
un pico de potencial de acción, y se determina a través de una función logística sobre la
base de la suma de las entradas de cada unidad.
 El algoritmo de aprendizaje: Cada tipo de red modifica sus conexiones de distinta forma.
Por lo general, cualquier cambio matemáticamente definido que se dé en los pesos de las
conexiones a lo largo del tiempo será definido como un "algoritmo de aprendizaje".
Los conexionistas están de acuerdo en que las redes neuronales recurrentes (en las cuales
las conexiones de la red pueden formar un ciclo dirigido) son un modelo del cerebro mejor que
las redes neuronales feedforward (redes sin ciclos dirigidos). Muchos modelos recurrentes
conexionistas también incorporan la teoría de los sistemas dinámicos. Muchos investigadores,
como Paul Smolensky, han argumentado que los modelos conexionistas evolucionarán
hacia sistemas dinámicos no linealescon un enfoque plenamente continuo y de múltiples
dimensiones.
Realismo biológico[editar]
La rama de las redes neuronales del conexionismo sugiere que el estudio de la actividad
mental es en realidad el estudio de los sistemas neurales. Esto enlaza el conexionismo con la
neurociencia, con modelos que implican diferentes grados de realismo biológico. Los trabajos
conexionistas por lo general no necesitan ser biológicamente realistas, pero algunos
investigadores de redes neuronales, los neurocientíficos computacionales, intentan modelar
los aspectos biológicos de los sistemas naturales neuronales muy cerca de las denominadas
"redes neuromórficas". A muchos autores les atrae del conexionismo la clara relación que se
puede encontrar entre la actividad neuronal y la cognición. Esto ha sido criticado1 por ser
excesivamente reduccionista.
Aprendizaje[editar]
Diversos estudios han estado enfocados en diseñar métodos de enseñanza-aprendizaje a
partir del conexionismo.2Los conexionistas por lo general subrayan la importancia del
aprendizaje en sus modelos. Así han creado muchos procedimientos sofisticados de
aprendizaje para redes neuronales. El aprendizaje siempre implica la modificación de los
pesos de conexión. Esto generalmente conlleva el uso de fórmulas matemáticas para
determinar el cambio de los pesos cuando se tienen un conjunto de datos consistente en
vectores de activación para un subconjunto de unidades neuronales.
Para formalizar el aprendizaje de esta manera los conexionistas tienen muchas herramientas.
Una estrategia muy común de los métodos conexionista de aprendizaje es la incorporación
del descenso de gradiente sobre una superficie de error en un espacio definido por la matriz
de pesos. Todo el aprendizaje por descenso de gradiente en los modelos conexionistas
implica el cambio de cada peso mediante la derivada parcial de la superficie de error con
respecto al peso. El algoritmo de retropropagación se hizo popular en la década de 1980 y es
probablemente el algoritmo conexionista de descenso de gradiente más conocido en la
actualidad.

Historia[editar]
Las bases de las ideas conexionistas se pueden remontar a finales del siglo XIX,
cuando Santiago Ramón y Cajal estableció las bases para los estudios de redes neuronales,
cuando describió la estructura de las neuronas y su forma de interconexión.3 Más tarde, en
1949, Donald Hebb propuso su postulado de aprendizaje según el cual la conexión entre dos
neuronas se hará más fuerte si se disparan al mismo tiempo. Pero no fue hasta la década de
1980 cuando el conexionismo se convirtió en un punto de vista popular entre los científicos.
Procesamiento distribuido en paralelo[editar]
El enfoque conexionista que prevalece hoy en día fue originalmente conocido como
procesamiento distribuido en paralelo (PDP). Era un enfoque de red neuronal que destacó el
carácter paralelo del procesamiento neuronal, y la naturaleza distribuida de las
representaciones neuronales. Dicho enfoque proporciona a los investigadores un marco
matemático general en el que operar. Dicho marco implica ocho aspectos principales:

 Un conjunto de unidades de procesamiento, representadas por un conjunto de números


enteros.
 Una activación para cada unidad, representada por un vector de funciones dependientes
del tiempo.
 Una función de activación para cada unidad, representada por un vector de funciones de
activación.
 Un patrón de conectividad entre las unidades, representada por una matriz de números
reales que indican la fuerza de conexión.
 Una regla de propagación que extienda las activaciones a través de las conexiones,
representada por una función de salida de las unidades.
 Una regla de activación para combinar las entradas a una unidad y determinar su nueva
activación, representada por una función de activación actual y de propagación.
 Una regla de aprendizaje para modificar las conexiones, basada en la experiencia,
representada por un cambio en los pesos sobre la base de cualquier número de variables.
 Un entorno que provee al sistema de la experiencia, representada por conjuntos de
vectores de activación para algunos subconjuntos de unidades.
Estos aspectos son ahora la base para casi todos los modelos conexionistas. Una limitación
del PDP es que es reduccionista. Es decir, todos los procesos cognitivos pueden ser
explicados en términos de activación neuronal y comunicación.
Mucha de la investigación que condujo al desarrollo del PDP se hizo en la década de 1970,
pero el PDP se hizo popular en la década de 1980 con el lanzamiento de los libros Parallel
Distributed Processing: Explorations in the Microstructure of Cognition - Volume 1
(foundations) y Volume 2 (Psychological and Biological Models), por James L.
McClelland, David E. Rumelhart y el Grupo de Investigación de los PDP. Estos libros son
considerados obras básicas para el conexionismo, y actualmente es común equiparar
plenamente PDP y conexionismo, aunque el término "conexionismo" no se utiliza en ellos.
Primeros trabajos[editar]
Raíces directas del PDP fueron las teorías del perceptrón de investigadores como Frank
Rosenblatt en la década de 1950 y 1960. Pero los modelos perceptrón se hicieron muy
impopulares a raíz del libro Perceptrons: An Introduction to Computational
Geometry de Marvin Minsky y Seymour Papert, publicado en 1969. Este libro mostraba los
límites de la clase de funciones que los perceptrones pueden calcular, demostrando que
incluso las funciones simples, como el O exclusivo no pueden ser manejadas correctamente.
Los libros sobre PDP superaron esta limitación, al mostrar que las redes neuronales multi-
capa y no lineales son mucho más robustas y pueden utilizarse para una amplia gama de
funciones.
Muchos de los primeros investigadores abogaron por modelos de estilo conexionista, por
ejemplo, en los las décadas de 1940 y 1950, Warren McCulloch, Walter Pitts, Donald Olding
Hebb, y Karl Lashley. McCulloch y Pitts mostraron cómo los sistemas neurales podrían
implementar la lógica de primer orden en un artículo clásico "A Logical Calculus of Ideas
Immanent in Nervous Activity" (1943). Los autores de este artículo fueron influenciados por la
importante labor de Nicolas Rashevsky en la década de 1930. Hebb hizo una gran
contribución con sus ideas sobre el funcionamiento neural, y propuso un principio de
aprendizaje, llamado aprendizaje hebbiano, que se sigue utilizando hoy en día. Lashley
argumentó que las representaciones distribuidas son consecuencia de su fracaso en encontrar
algo parecido a un engrama en años de experimentos con lesiones.
Conexionismo aparte de PDP[editar]
Aunque el PDP es la forma dominante de conexionismo, hay otro tipo de trabajos teóricos que
también deben ser englobados dentro del conexionismo.
En 1888 Santiago Ramón y Cajal describió la estructura de las neuronas y su forma de
interconexión estableciendo de esta manera las bases para los estudios de redes neuronales.
Pero muchos principios conexionistas se remontan trabajos tempranos en el campo de
la psicología, como los de William James. Las teorías psicológicas basadas en el
conocimiento del cerebro humano estaban de moda en el siglo XIX. Ya en 1869, el
neurólogo John Hughlings Jackson abogó por sistemas distribuidos en varios niveles.
Partiendo de esta base las publicaciones de Herbert Spencer Principles of Psychology,
3aedición (1872), y de Sigmund Freud Project for a Scientific Psychology (1895) proponían
teorías conexionistas o proto-conexionistas. Estas tendían a ser teorías especulativas. Pero a
principios del siglo XX, Edward Thorndike estaba experimentando con formas de aprendizaje
que postulaban las redes de tipo conexionista.
En la década de 1950, Friedrich Hayek propuso que el orden espontáneo en el cerebro era
consecuencia de redes descentralizadas formadas por unidades sencillas. El trabajo de Hayek
era raramente citado en la literatura sobre PDP hasta hace poco.
Otra forma de modelo conexionista fue la llamada Gramática estratificacional desarrollada por
el lingüista Sydney Lamb en la década de 1960. La gramática estratificacional sólo ha sido
utilizada por los lingüistas, y nunca fue unificada bajo el enfoque de los PDP. Como resultado
pocos son los investigadores que ahora la utilizan.
Hay también modelos conexionistas híbridos, la mayoría mezcla de representaciones
simbólicas con modelos de redes neuronales. El enfoque híbrido ha sido defendido por
algunos investigadores como Ron Sun.

Debate conexionismo vs. Inteligencia artificial


convencional[editar]
Mientras el conexionismo se hacía cada vez más popular en la década de 1980, hubo una
reacción contraria por parte de algunos investigadores, incluyendo a Jerry Fodor, Steven
Pinker y otros. Argumentaban que el conexionismo tal y como se estaba desarrollando corría
el peligro de olvidar lo que ellos veían como los progresos realizados por el enfoque clásico de
la inteligencia artificial en los campos de la ciencia cognitiva y la psicología. La inteligencia
artificial convencional argumenta que la mente opera mediante la realización de operaciones
simbólicas puramente formales, como una máquina de Turing. Algunos investigadores
señalaron que la tendencia hacia el conexionismo era un error, ya que significaba una
reversión hacia el asociacionismo y el abandono de la idea de un lenguaje del pensamiento.
Por el contrario estas tendencias hicieron que otros investigadores fueran atraídos hacia el
conexionismo.
El Conexionismo y la IA convencional no tienen porqué ser excluyentes, pero el debate a
finales de la década de 1980 y principios de la de 1990 condujo a la oposición entre los dos
enfoques. Durante el debate, algunos investigadores han argumentado que el conexionismo y
la IA convencional son totalmente compatibles, aunque no se ha alcanzado un consenso pleno
sobre esta cuestión. Las diferencias entre los dos enfoques más citados son los siguientes:

 En IA convencional se plantean modelos simbólicos que no se asemejan en nada a la


estructura cerebral subyacente, mientras que en conexionismo se aborda un modelado de
"bajo nivel", tratando de asegurar que los modelos se asemejen a estructuras
neurológicas.
 La IA convencional se centra generalmente en la estructura de símbolos explícitos
(modelos mentales) y reglas sintácticaspara su manipulación a nivel interno, mientras que
los conexionistas se centran en el aprendizaje mediante estímulos procedentes del medio
y en el almacenamiento de esta información en forma de conexiones entre neuronas.
 Los partidarios de la IA convencional creen que la actividad mental interna consiste en la
manipulación de símbolos explícitos, mientras que los conexionistas creen que la
manipulación de símbolos explícitos es una representación muy pobre de la actividad
mental.
 Los partidarios de la IA convencional a menudo plantean subsistemas simbólicos
de dominio específico diseñados para apoyar el aprendizaje en áreas específicas del
conocimiento (por ejemplo, lenguaje, intencionalidad, números), mientras que los
conexionistas postulan uno o un pequeño conjunto de mecanismos de aprendizaje muy
generales.
A pesar de estas diferencias, algunos teóricos han propuesto que la arquitectura conexionista
es simplemente la forma en que el sistema de manipulación de símbolos es implementado en
el cerebro orgánico. Esto es lógico ya que se sabe que los modelos conexionistas pueden
implementar sistemas de manipulación de símbolos del tipo de los utilizados en los modelos
de IA convencional. De hecho, esto debe de ser así al ser uno de los propósitos de los
sistemas conexionistas el explicar la capacidad humana para realizar tareas de manipulación
de símbolos. La cuestión reside en si esta manipulación de símbolos es la base de la
cognición en general. Sin embargo, las descripciones computacionales pueden ser útiles
descripciones de la cognición de alto nivel, por ejemplo de la lógica.
El debate sobre si las redes conexionistas eran capaces de producir la estructura sintáctica
observada en razonamientos de tipo lógico fue tardío y el hecho de que los procedimientos
utilizados eran muy improbables en el cerebro hizo que la controversia persistiera. Hoy en día
los avances de la neurofisiología y de la comprensión de las redes neuronales han llevado a la
elaboración de modelos que han tenido éxito en la superación de gran número de aquellos
primeros problemas. Para los neurocientíficos la cuestión fundamental sobre el conocimiento
se ha inclinado a favor del conexionismo. Sin embargo, este desarrollo relativamente reciente
aún no han alcanzado un consenso aceptable entre aquellos que trabajan en otros campos,
tales como la psicología o la filosofía de la mente.
Parte del atractivo de las descripciones de la IA convencional se debe a que son relativamente
fáciles de interpretar, y por lo tanto pueden ser vistas como una contribución a nuestra
comprensión de determinados procesos mentales, mientras que los modelos conexionistas
son por lo general más oscuros, en la medida de que sólo se pueden describir en términos
muy generales (especificando algoritmo de aprendizaje, número de unidades, etc.), o en
términos de bajo nivel que dificultan la comprensión de los procesos cognitivos. En este
sentido, los modelos conexionistas pueden aportar datos para una teoría general del
conocimiento (es decir, el conexionismo), sin que ello represente una teoría útil del proceso
particular que esté siendo modelado. El debate podría considerarse en cierta medida un mero
reflejo de las diferencias en el nivel de análisis en el que se enmarcan las teorías particulares.
La reciente popularidad de los sistemas dinámicos en la filosofía de la mente (debido a las
obras de autores como Tim van Gelder) ha añadido una nueva perspectiva al debate, algunos
autores argumentan ahora que cualquier división entre el conexionismo y la IA convencional
queda mejor caracterizada como una división entre la IA convencional y los sistemas
dinámicos

Análisis del cerebro: Innovación


tecnológica y estrategia interdisciplinar”
por Javier de Felipe
 Por César Tomé
 5JUL2014

Este texto de Javier de Felipe apareció originalmente en el número 14 (2013) de


la revista CIC Network y lo reproducimos en su integridad por su interés.

La información procedente del mundo que nos rodea es conducida hacia el cerebro
a través de un complicado sistema sensorial consistente en receptores de diversas
clases que actúan como transductores; estos transforman los estímulos físicos y
químicos del ambiente en impulsos nerviosos que el cerebro puede interpretar y
darles un significado. Existe una gran variedad de cerebros en el reino animal, pero
como además el sistema sensorial es muy distinto entre las diferentes especies, la
interpretación, necesariamente, no puede ser la misma; es decir, la interpretación
del mundo externo es característica de cada especie.

Asimismo, la inteligencia, creatividad, comunicación y relación entre los seres vivos


ha alcanzado su máxima capacidad y refinamiento en el ser humano, y esto se debe,
principalmente, al notable desarrollo y evolución del cerebro. Aunque el cerebro
funciona de forma modular -en el sentido de que está organizado en bloques o
sistemas anatómicos y funcionales (como el sistema visual, el auditivo, etc.)-, estos
módulos interactúan entre sí para integrar la información que se procesa por
separado. No obstante, el estudio de la corteza cerebral es el tema preferido de
muchos científicos teóricos y experimentalistas por su implicación directa en
diversos aspectos del comportamiento de los mamíferos y porque es la estructura
más ‘humana’ del sistema nervioso del ser humano.
Es decir, la actividad de la corteza cerebral está relacionada con las capacidades que
diferencian al ser humano de otros mamíferos, como por ejemplo, el lenguaje, la
imaginación y la capacidad de abstracción, permitiéndonos realizar tareas tan
extraordinarias y sumamente complicadas y humanas como escribir una poesía o
inventar el avión. Sin embargo, el principal obstáculo para estudiar el cerebro es la
extrema complejidad de los circuitos neuronales A modo de ejemplo en relación con
esta complejidad, se ha calculado que 1 mm3 de corteza cerebral humana contiene
en torno a 27.000 neuronas y 1.000 millones de conexiones sinápticas (Alonso-
Nanclares et al., 2008). En general, la corteza cerebral contiene un conjunto similar
de elementos al de cualquier otra región del sistema nervioso central.

Del mismo modo, las propiedades fisiológicas, los neurotransmisores, receptores y


otras moléculas que normalmente se encuentran en las neuronas corticales, no son
características exclusivas de la corteza, sino que se encuentran también en diversas
regiones del cerebro humano y en el de otras especies. De este modo, dos de las metas
principales de la neurociencia son, por un lado, establecer cuál es el substrato neural
que hace al hombre ser humano, y por otro, conocer el diseño estructural de los
circuitos neuronales y cómo estos contribuyen a la organización funcional del
cerebro. La neurociencia ha avanzado de un modo extraordinario en las últimas
décadas, permitiendo el estudio del cerebro desde múltiples ángulos -genético,
molecular, morfológico y fisiológico-, pero el salto de una disciplina a otra es
gigantesco y está poco explorado. Por estos motivos han surgido recientemente
ambiciosos proyectos a nivel mundial con objeto de aplicar nuevas tecnologías y
aunar esfuerzos para abordar el estudio del cerebro de forma interdisciplinar. A
continuación se debate el tema de las maquinas ‘pensantes’ y los proyectos Blue
Brain, Cajal Blue Brain y Human Brain Project, como ejemplos de las grandes
iniciativas internacionales para investigar el cerebro.

Máquinas ‘pensantes’

A lo largo de los años hemos inventado máquinas cuyas capacidades parecían estar
limitadas porque pensábamos que algunas facultades eran exclusivas del ser
humano, como por ejemplo, jugar al ajedrez al nivel de un gran maestro. Esto tiene
relación con uno de los temas recurrentes desde los tiempos de René Descartes
(1596-1650), el de las maquinas pensantes. ¿Podría formular una máquina el célebre
principio de Descartes cogito ergo sum (pienso luego existo)? Alan Turing (1912-
1954), considerado uno de los padres de la ciencia de la computación y precursor de
la informática moderna, comienza su clásico artículo Computing Machinery and
Intelligence (Turing, 1950) con el siguiente planteamiento: “Propongo considerar la
siguiente cuestión: ¿pueden pensar las máquinas?”. Al final de su ensayo afirma: “Es
de suponer que con el tiempo las máquinas podrán competir con los seres humanos
en todos los campos puramente intelectuales. ¿Pero por dónde empezar? Incluso
esto es una decisión difícil. Muchas personas creen que lo mejor sería comenzar con
una actividad muy abstracta, como el juego de ajedrez.” Cuarenta y seis años
después, la sugerencia planteada por Turing se hizo realidad, y el superordenador
Deep Blue de IBM y el campeón del mundo de ajedrez Gary Kasparov disputaron dos
torneos de ajedrez de 6 partidas cada uno.
El primer torneo se jugó en 1996 y Kasparov ganó 3 partidas, empató 2 y perdió una.
Al año siguiente, después de que los programadores introdujesen mejoras en el
superordenador, se celebró el segundo torneo y Deep Blue ganó 2 partidas, empató
3 y perdió una. Esta victoria de la máquina sobre el ser humano supuso un antes y
un después que levantó un gran revuelo en todos los ámbitos académicos: ¿Es Deep
Blue una máquina pensante? ¿Significa esta victoria el comienzo de la superioridad
de las máquinas y la pérdida del control sobre las máquinas que construimos? ¿Por
qué la idea de la inteligencia artificial provoca una reacción emocional negativa en
muchos filósofos y neurocientíficos? ¿Dónde está la frontera que delimita el terreno
humano y el de la máquina?

La neurociencia computacional está adquiriendo cada vez mayor preponderancia.


Parece evidente que para crear un cerebro artificial no es suficiente con replicar cada
una de sus partes o sistemas modulares con sus conexiones y organización, sino que
es necesario conocer cómo funcionan cada una de estas partes (tareas
computacionales) por separado para aprender cómo se generan comportamientos
complejos y cómo estos sistemas se integran en una unidad, que es el cerebro. De
este modo, se han creado modelos para estudiar cómo se implementan las tareas
computacionales a nivel de redes neuronales y cómo estas redes pueden generar
comportamientos complejos. Recientemente se ha creado un modelo altamente
sofisticado denominado Spaun (acrónimo de Semantic Pointer Architecture Unified
Network) que demuestra que diversas tareas, tanto cognitivas como no cognitivas,
se pueden integrar en un solo modelo a gran escala (Eliasmith et al., 2012). Spaun
está diseñado para responder a secuencias de imágenes visuales (tiene un ‘ojo’ para
la entrada de datos) y se comunica con el experimentador a través del movimiento
de un modelo físico de ‘brazo’ que escribe sus respuestas (salida). El modelo incluye
muchos aspectos de la neuroanatomía, neurofisiología y conducta psicológica, y está
basado en la simulación de unos 2,5 millones de neuronas que se organizan en
subsistemas que se asemejan a diferentes regiones del cerebro.

Estos subsistemas están conectados mediante un cableado que proporciona la


funcionalidad e integración de dichos subsistemas, y se basa en la simulación de las
conexiones anatómicas generales de las regiones del cerebro -incluyendo diversas
áreas corticales (como la corteza visual, corteza motora primaria y corteza
prefrontal) y centros subcorticales, así como diversas regiones de los ganglios basales
y el tálamo-. Además, Spaun no solamente integra percepción, cognición y acción a
través de varias tareas diferentes, sino que también puede cambiar de tarea y
responder sin necesidad de que el experimentador modifique manualmente los
parámetros.

Un aspecto interesante es que la arquitectura anatómica y funcional que utiliza


Spaun y otros modelos similares está basada en el cableado general entre regiones
del cerebro tratadas a modo de ‘cajas negras’ (por ejemplo, el tálamo [caja A] conecta
con la corteza visual [caja B]; o un área cortical X está más conectada con un área Z
que el área Y). Es decir, únicamente considerando la relación entre las entradas y las
salidas de dichas regiones, prescindiendo total o casi totalmente de su estructura
interna. Este tipo de arquitectura se puede denominar black brain
architecture (arquitectura cerebral negra), y lo interesante es que, como se ha
demostrado, es un modelo excelente para simular ciertas funciones del cerebro que
hasta ahora era difícil de creer que pudieran ser realizadas con un ordenador.

Esto nos lleva a la cuestión de hasta qué punto es necesario conocer el más mínimo
detalle de la estructura del cerebro para descifrar su funcionamiento. Quizás la
contestación más satisfactoria es que depende de la complejidad de la tarea y de la
respuesta. Así, la acción de caminar no requiere una corteza cerebral motora, ya que
la mayoría de los seres que caminan no tienen corteza cerebral, como por ejemplo
las hormigas, pero caminar jugando al futbol sí requiere un cerebro humano. En
otras palabras, podemos simular y entender cómo nos movemos con tanta exactitud
como para construir un robot que nos imite, pero realizar las múltiples tareas
complejas típicas del ser humano requiere otro nivel o niveles de conocimiento. En
mi opinión, Deep Blue, Spaun y otros modelos son útiles para estudiar ciertos
aspectos del funcionamiento del cerebro, pero hasta que no conozcamos
completamente el contenido de estas cajas negras y pasemos de la ‘arquitectura
cerebral negra’ a una ‘arquitectura cerebral detallada’, en donde además de conocer
todos los elementos que componen el cerebro y el mapa de conexiones sinápticas o
sinaptoma podamos distinguir la redundancia de los elementos constituyentes, no
podremos entender completamente el funcionamiento de cerebro.

Otra característica importante es que el cerebro no puede interaccionar con el medio


externo de forma determinista, ya que la información disponible es incompleta y
variable. Por el contrario, el cerebro tiene que realizar un cálculo probabilístico del
estado del mundo y de los posibles resultados de sus respuestas de forma muy
rápida, en cuestión de milisegundos, como por ejemplo reconocer un cambio
inesperado del entorno, detectar un peligro y decidir una acción. De este modo, el
cerebro se podría definir como un instrumento matemático que utiliza algoritmos
sumamente eficaces para interaccionar con el mundo externo y resolver problemas.
Si descifráramos dichos algoritmos o trucos matemáticos y el sustrato biológico, ello
tendría una aplicación inmediata en las ciencias computacionales, permitiendo la
creación de una nueva generación de ordenadores y de programas informáticos
basados en el diseño biológico del cerebro. Puesto que cada vez son menores las
limitaciones tecnológicas y los científicos estamos mejor organizados para abordar
el análisis del cerebro, ¿por qué no podría ser posible construir una corteza
cerebral in silico (siliconcortex), es decir, una máquina computarizada basada en un
modelo realista del diseño anatómico, fisiológico y molecular del circuito cortical?
(de Felipe, 2010). Por estos y otros motivos han surgido a lo largo de los últimos años
diversos proyectos a escala mundial, entre los que se incluyen Blue Brain, Cajal Blue
Brain y Human Brain Project.

Proyectos Blue Brain, Cajal Blue Brain y Human Brain Project

Los orígenes del proyecto Blue Brain se remontan al año 2005, cuando L’École
Polytechnique Fédérale de Lausanne (Suiza) y la compañía IBM anunciaron
conjuntamente el ambicioso proyecto de crear un modelo funcional del cerebro
utilizando el superordenador Blue Gene, de IBM.
Es importante destacar que este proyecto, dirigido por Henry Markram, tiene por
objetivo la ingeniería inversa del cerebro, a fin de explorar su funcionamiento y servir
de herramienta para futuras investigaciones en neurociencia y biomedicina. El
proyecto no pretende fabricar un cerebro artificial, sino una representación del
sistema biológico cerebral, que nada tiene que ver con la creación de inteligencia
consciente. A finales de 2006, el proyecto Blue Brain había creado un modelo de la
unidad funcional básica del cerebro, la columna cortical (Markram, 2006). Sin
embargo, las metas propuestas por el proyecto, que se marca un plazo de 10 años,
imponían su conversión en una iniciativa internacional. En este contexto surge en
enero de 2009 el proyecto Cajal Blue Brain, donde se materializa la participación
española en el proyecto, dirigido por el autor de este artículo en el Laboratorio Cajal
de Circuitos Corticales (laboratorio conjunto Universidad Politécnica de
Madrid/Consejo Superior de Investigaciones Científicas, localizado en el Centro de
Tecnología Biomédica de dicha universidad).

El proyecto Cajal Blue Brain ha permitido disponer de un equipo interdisciplinar de


más de 40 investigadores. En términos generales, este proyecto se fundamenta en la
idea que sostienen algunos científicos de que para comprender el funcionamiento
del cerebro es necesario obtener primero un mapa detallado de las conexiones
sinápticas. Esta reconstrucción a gran escala de los circuitos neuronales pronto será
posible gracias a los recientes avances tecnológicos para la adquisición y
procesamiento de datos experimentales. Aunque la comunidad científica está
dividida en lo relativo a la viabilidad y validez de la hipótesis de partida, es
importante hacer notar que ya surgieron objeciones similares cuando se propuso por
primera vez el proyecto Genoma Humano, que ahora es considerado sin reservas
como un logro científico de gran magnitud.

Para el desarrollo del proyecto se cuenta con diversas herramientas y nuevos


métodos computacionales que suponen un importante aporte tecnológico. Entre
estas herramientas y métodos destacan el desarrollo de técnicas de inyección
intracelular e integración y explotación de datos microanatómicos, la utilización del
superordenador Magerit (Centro de Supercomputación y Visualización de Madrid,
Universidad Politécnica de Madrid) y la nueva tecnología FIB/SEM (microscopio
electrónico de doble haz), que permite estudiar a nivel ultraestructural grandes
volúmenes de tejido de forma semiautomática, una tecnología esencial para descifrar
el sinaptoma (Figura 1).

El proyecto Blue Brain ha servido de base para proponer el proyecto denominado


Human Brain Project (HBP; fecha de comienzo, octubre 2013), que es mucho más
ambicioso y cuenta con la participación de un número mayor de laboratorios e
instituciones de todo el mundo (Markram et al., 2011). El principal objetivo de HBP
es obtener simulaciones detalladas, desde el punto de vista biológico, del cerebro
humano, así como desarrollar tecnologías de supercomputación, modelización e
informáticas para llevar a cabo dicha simulación. Estas simulaciones servirán de
base para crear nuevas herramientas para el diagnóstico y tratamiento de
enfermedades del cerebro, desarrollo de nuevas prótesis para personas con
discapacidad, tecnologías informáticas de baja energía con una capacidad de
‘inteligencia’ similar a la del cerebro con el fin de crear, finalmente, una nueva
generación de robots inteligentes.

Los beneficios para la sociedad derivados de HBP serán enormes. Incluso antes de
que el proyecto logre sus objetivos finales, los modelos del cerebro de HBP
revolucionarán la tecnología de la información, haciendo posible el diseño de
ordenadores, robots, sensores y otros dispositivos mucho más eficaces, más
inteligentes y de mayor eficiencia energética que los actuales. Aunque el cerebro
consume aproximadamente el 20% de la energía de nuestro cuerpo, su eficiencia
energética es extraordinaria, ya que gasta más o menos la misma energía que una
bombilla de bajo consumo de 20 W (unas 17 kilocalorías/hora), mientras que, por
ejemplo, el superordenador Magerit cuya capacidad es equivalente a unos 4.000
ordenadores de sobremesa normales, es de 154 KW (unas 132.446 kilocalorías/
hora). Los modelos del cerebro nos ayudarán a entender las causas de las
enfermedades del cerebro en su diagnóstico temprano, cuando todavía se puede
tratar. Será más fácil el desarrollo de nuevas curas para las enfermedades del
cerebro, reduciendo nuestra dependencia de los ensayos con animales. Dichos
modelos nos ayudarán a comprender cómo envejece el cerebro, cómo ralentizar estos
cambios y cómo mejorar nuestras capacidades cognitivas y también para alcanzar el
máximo de la potencialidad del cerebro de las generaciones futuras. En resumen, los
grandes proyectos que ya están en marcha, como el Blue Brain y el liderado por Allen
Institute y los que están a punto de comenzar como HBP y Brain Activity Map
(Kandel et al., 2013) son ejemplos de cómo las nuevas tecnologías y las estrategias
interdisciplinares están dando lugar a avances tecnológicos espectaculares y que sin
duda se acelerarán de forma notable con el inicio de las nuevas grandes iniciativas.
No cabe duda de que gracias a este nuevo impulso de la neurociencia a escala
mundial será posible comprender mejor cómo funciona el cerebro normal y cómo se
altera ante diversas enfermedades, con el fin de poder modelar nuevas terapias para
el tratamiento de dichas dolencias.

Javier de Felipe (Madrid, 1953), es profesor de investigación en el Instituto Cajal


(CSIC), especializado en el estudio micro-anatómico del cerebro; doctor en Biología
(Universidad Complutense). Dirige el Proyecto Cajal Blue Brain desde 2009 en el
Centro de Tecnología Biomédica de la Universidad Politécnica de Madrid; y es co-
director de la división Molecular and Cellular Neuroscience del Human Brain
Project. Ha sido nombrado Honorary Member de la American Association of
Anatomists.
Análisis del cerebro: Innovación tecnológica y estrategia
interdisciplinar” por Javier de Felipe
 Por César Tomé
 5JUL2014

Este texto de Javier de Felipe apareció originalmente en el número 14 (2013) de


la revista CIC Network y lo reproducimos en su integridad por su interés.

La información procedente del mundo que nos rodea es conducida hacia el cerebro
a través de un complicado sistema sensorial consistente en receptores de diversas
clases que actúan como transductores; estos transforman los estímulos físicos y
químicos del ambiente en impulsos nerviosos que el cerebro puede interpretar y
darles un significado. Existe una gran variedad de cerebros en el reino animal, pero
como además el sistema sensorial es muy distinto entre las diferentes especies, la
interpretación, necesariamente, no puede ser la misma; es decir, la interpretación
del mundo externo es característica de cada especie.

Asimismo, la inteligencia, creatividad, comunicación y relación entre los seres vivos


ha alcanzado su máxima capacidad y refinamiento en el ser humano, y esto se debe,
principalmente, al notable desarrollo y evolución del cerebro. Aunque el cerebro
funciona de forma modular -en el sentido de que está organizado en bloques o
sistemas anatómicos y funcionales (como el sistema visual, el auditivo, etc.)-, estos
módulos interactúan entre sí para integrar la información que se procesa por
separado. No obstante, el estudio de la corteza cerebral es el tema preferido de
muchos científicos teóricos y experimentalistas por su implicación directa en
diversos aspectos del comportamiento de los mamíferos y porque es la estructura
más ‘humana’ del sistema nervioso del ser humano.

Es decir, la actividad de la corteza cerebral está relacionada con las capacidades que
diferencian al ser humano de otros mamíferos, como por ejemplo, el lenguaje, la
imaginación y la capacidad de abstracción, permitiéndonos realizar tareas tan
extraordinarias y sumamente complicadas y humanas como escribir una poesía o
inventar el avión. Sin embargo, el principal obstáculo para estudiar el cerebro es la
extrema complejidad de los circuitos neuronales A modo de ejemplo en relación con
esta complejidad, se ha calculado que 1 mm3 de corteza cerebral humana contiene
en torno a 27.000 neuronas y 1.000 millones de conexiones sinápticas (Alonso-
Nanclares et al., 2008). En general, la corteza cerebral contiene un conjunto similar
de elementos al de cualquier otra región del sistema nervioso central.

Del mismo modo, las propiedades fisiológicas, los neurotransmisores, receptores y


otras moléculas que normalmente se encuentran en las neuronas corticales, no son
características exclusivas de la corteza, sino que se encuentran también en diversas
regiones del cerebro humano y en el de otras especies. De este modo, dos de las metas
principales de la neurociencia son, por un lado, establecer cuál es el substrato neural
que hace al hombre ser humano, y por otro, conocer el diseño estructural de los
circuitos neuronales y cómo estos contribuyen a la organización funcional del
cerebro. La neurociencia ha avanzado de un modo extraordinario en las últimas
décadas, permitiendo el estudio del cerebro desde múltiples ángulos -genético,
molecular, morfológico y fisiológico-, pero el salto de una disciplina a otra es
gigantesco y está poco explorado. Por estos motivos han surgido recientemente
ambiciosos proyectos a nivel mundial con objeto de aplicar nuevas tecnologías y
aunar esfuerzos para abordar el estudio del cerebro de forma interdisciplinar. A
continuación se debate el tema de las maquinas ‘pensantes’ y los proyectos Blue
Brain, Cajal Blue Brain y Human Brain Project, como ejemplos de las grandes
iniciativas internacionales para investigar el cerebro.

Máquinas ‘pensantes’

A lo largo de los años hemos inventado máquinas cuyas capacidades parecían estar
limitadas porque pensábamos que algunas facultades eran exclusivas del ser
humano, como por ejemplo, jugar al ajedrez al nivel de un gran maestro. Esto tiene
relación con uno de los temas recurrentes desde los tiempos de René Descartes
(1596-1650), el de las maquinas pensantes. ¿Podría formular una máquina el célebre
principio de Descartes cogito ergo sum (pienso luego existo)? Alan Turing (1912-
1954), considerado uno de los padres de la ciencia de la computación y precursor de
la informática moderna, comienza su clásico artículo Computing Machinery and
Intelligence (Turing, 1950) con el siguiente planteamiento: “Propongo considerar la
siguiente cuestión: ¿pueden pensar las máquinas?”. Al final de su ensayo afirma: “Es
de suponer que con el tiempo las máquinas podrán competir con los seres humanos
en todos los campos puramente intelectuales. ¿Pero por dónde empezar? Incluso
esto es una decisión difícil. Muchas personas creen que lo mejor sería comenzar con
una actividad muy abstracta, como el juego de ajedrez.” Cuarenta y seis años
después, la sugerencia planteada por Turing se hizo realidad, y el superordenador
Deep Blue de IBM y el campeón del mundo de ajedrez Gary Kasparov disputaron dos
torneos de ajedrez de 6 partidas cada uno.

El primer torneo se jugó en 1996 y Kasparov ganó 3 partidas, empató 2 y perdió una.
Al año siguiente, después de que los programadores introdujesen mejoras en el
superordenador, se celebró el segundo torneo y Deep Blue ganó 2 partidas, empató
3 y perdió una. Esta victoria de la máquina sobre el ser humano supuso un antes y
un después que levantó un gran revuelo en todos los ámbitos académicos: ¿Es Deep
Blue una máquina pensante? ¿Significa esta victoria el comienzo de la superioridad
de las máquinas y la pérdida del control sobre las máquinas que construimos? ¿Por
qué la idea de la inteligencia artificial provoca una reacción emocional negativa en
muchos filósofos y neurocientíficos? ¿Dónde está la frontera que delimita el terreno
humano y el de la máquina?

La neurociencia computacional está adquiriendo cada vez mayor preponderancia.


Parece evidente que para crear un cerebro artificial no es suficiente con replicar cada
una de sus partes o sistemas modulares con sus conexiones y organización, sino que
es necesario conocer cómo funcionan cada una de estas partes (tareas
computacionales) por separado para aprender cómo se generan comportamientos
complejos y cómo estos sistemas se integran en una unidad, que es el cerebro. De
este modo, se han creado modelos para estudiar cómo se implementan las tareas
computacionales a nivel de redes neuronales y cómo estas redes pueden generar
comportamientos complejos. Recientemente se ha creado un modelo altamente
sofisticado denominado Spaun (acrónimo de Semantic Pointer Architecture Unified
Network) que demuestra que diversas tareas, tanto cognitivas como no cognitivas,
se pueden integrar en un solo modelo a gran escala (Eliasmith et al., 2012). Spaun
está diseñado para responder a secuencias de imágenes visuales (tiene un ‘ojo’ para
la entrada de datos) y se comunica con el experimentador a través del movimiento
de un modelo físico de ‘brazo’ que escribe sus respuestas (salida). El modelo incluye
muchos aspectos de la neuroanatomía, neurofisiología y conducta psicológica, y está
basado en la simulación de unos 2,5 millones de neuronas que se organizan en
subsistemas que se asemejan a diferentes regiones del cerebro.

Estos subsistemas están conectados mediante un cableado que proporciona la


funcionalidad e integración de dichos subsistemas, y se basa en la simulación de las
conexiones anatómicas generales de las regiones del cerebro -incluyendo diversas
áreas corticales (como la corteza visual, corteza motora primaria y corteza
prefrontal) y centros subcorticales, así como diversas regiones de los ganglios basales
y el tálamo-. Además, Spaun no solamente integra percepción, cognición y acción a
través de varias tareas diferentes, sino que también puede cambiar de tarea y
responder sin necesidad de que el experimentador modifique manualmente los
parámetros.

Un aspecto interesante es que la arquitectura anatómica y funcional que utiliza


Spaun y otros modelos similares está basada en el cableado general entre regiones
del cerebro tratadas a modo de ‘cajas negras’ (por ejemplo, el tálamo [caja A] conecta
con la corteza visual [caja B]; o un área cortical X está más conectada con un área Z
que el área Y). Es decir, únicamente considerando la relación entre las entradas y las
salidas de dichas regiones, prescindiendo total o casi totalmente de su estructura
interna. Este tipo de arquitectura se puede denominar black brain
architecture (arquitectura cerebral negra), y lo interesante es que, como se ha
demostrado, es un modelo excelente para simular ciertas funciones del cerebro que
hasta ahora era difícil de creer que pudieran ser realizadas con un ordenador.

Esto nos lleva a la cuestión de hasta qué punto es necesario conocer el más mínimo
detalle de la estructura del cerebro para descifrar su funcionamiento. Quizás la
contestación más satisfactoria es que depende de la complejidad de la tarea y de la
respuesta. Así, la acción de caminar no requiere una corteza cerebral motora, ya que
la mayoría de los seres que caminan no tienen corteza cerebral, como por ejemplo
las hormigas, pero caminar jugando al futbol sí requiere un cerebro humano. En
otras palabras, podemos simular y entender cómo nos movemos con tanta exactitud
como para construir un robot que nos imite, pero realizar las múltiples tareas
complejas típicas del ser humano requiere otro nivel o niveles de conocimiento. En
mi opinión, Deep Blue, Spaun y otros modelos son útiles para estudiar ciertos
aspectos del funcionamiento del cerebro, pero hasta que no conozcamos
completamente el contenido de estas cajas negras y pasemos de la ‘arquitectura
cerebral negra’ a una ‘arquitectura cerebral detallada’, en donde además de conocer
todos los elementos que componen el cerebro y el mapa de conexiones sinápticas o
sinaptoma podamos distinguir la redundancia de los elementos constituyentes, no
podremos entender completamente el funcionamiento de cerebro.

Otra característica importante es que el cerebro no puede interaccionar con el medio


externo de forma determinista, ya que la información disponible es incompleta y
variable. Por el contrario, el cerebro tiene que realizar un cálculo probabilístico del
estado del mundo y de los posibles resultados de sus respuestas de forma muy
rápida, en cuestión de milisegundos, como por ejemplo reconocer un cambio
inesperado del entorno, detectar un peligro y decidir una acción. De este modo, el
cerebro se podría definir como un instrumento matemático que utiliza algoritmos
sumamente eficaces para interaccionar con el mundo externo y resolver problemas.
Si descifráramos dichos algoritmos o trucos matemáticos y el sustrato biológico, ello
tendría una aplicación inmediata en las ciencias computacionales, permitiendo la
creación de una nueva generación de ordenadores y de programas informáticos
basados en el diseño biológico del cerebro. Puesto que cada vez son menores las
limitaciones tecnológicas y los científicos estamos mejor organizados para abordar
el análisis del cerebro, ¿por qué no podría ser posible construir una corteza
cerebral in silico (siliconcortex), es decir, una máquina computarizada basada en un
modelo realista del diseño anatómico, fisiológico y molecular del circuito cortical?
(de Felipe, 2010). Por estos y otros motivos han surgido a lo largo de los últimos años
diversos proyectos a escala mundial, entre los que se incluyen Blue Brain, Cajal Blue
Brain y Human Brain Project.

Proyectos Blue Brain, Cajal Blue Brain y Human Brain Project

Los orígenes del proyecto Blue Brain se remontan al año 2005, cuando L’École
Polytechnique Fédérale de Lausanne (Suiza) y la compañía IBM anunciaron
conjuntamente el ambicioso proyecto de crear un modelo funcional del cerebro
utilizando el superordenador Blue Gene, de IBM.

Es importante destacar que este proyecto, dirigido por Henry Markram, tiene por
objetivo la ingeniería inversa del cerebro, a fin de explorar su funcionamiento y servir
de herramienta para futuras investigaciones en neurociencia y biomedicina. El
proyecto no pretende fabricar un cerebro artificial, sino una representación del
sistema biológico cerebral, que nada tiene que ver con la creación de inteligencia
consciente. A finales de 2006, el proyecto Blue Brain había creado un modelo de la
unidad funcional básica del cerebro, la columna cortical (Markram, 2006). Sin
embargo, las metas propuestas por el proyecto, que se marca un plazo de 10 años,
imponían su conversión en una iniciativa internacional. En este contexto surge en
enero de 2009 el proyecto Cajal Blue Brain, donde se materializa la participación
española en el proyecto, dirigido por el autor de este artículo en el Laboratorio Cajal
de Circuitos Corticales (laboratorio conjunto Universidad Politécnica de
Madrid/Consejo Superior de Investigaciones Científicas, localizado en el Centro de
Tecnología Biomédica de dicha universidad).

El proyecto Cajal Blue Brain ha permitido disponer de un equipo interdisciplinar de


más de 40 investigadores. En términos generales, este proyecto se fundamenta en la
idea que sostienen algunos científicos de que para comprender el funcionamiento
del cerebro es necesario obtener primero un mapa detallado de las conexiones
sinápticas. Esta reconstrucción a gran escala de los circuitos neuronales pronto será
posible gracias a los recientes avances tecnológicos para la adquisición y
procesamiento de datos experimentales. Aunque la comunidad científica está
dividida en lo relativo a la viabilidad y validez de la hipótesis de partida, es
importante hacer notar que ya surgieron objeciones similares cuando se propuso por
primera vez el proyecto Genoma Humano, que ahora es considerado sin reservas
como un logro científico de gran magnitud.

Para el desarrollo del proyecto se cuenta con diversas herramientas y nuevos


métodos computacionales que suponen un importante aporte tecnológico. Entre
estas herramientas y métodos destacan el desarrollo de técnicas de inyección
intracelular e integración y explotación de datos microanatómicos, la utilización del
superordenador Magerit (Centro de Supercomputación y Visualización de Madrid,
Universidad Politécnica de Madrid) y la nueva tecnología FIB/SEM (microscopio
electrónico de doble haz), que permite estudiar a nivel ultraestructural grandes
volúmenes de tejido de forma semiautomática, una tecnología esencial para descifrar
el sinaptoma (Figura 1).

El proyecto Blue Brain ha servido de base para proponer el proyecto denominado


Human Brain Project (HBP; fecha de comienzo, octubre 2013), que es mucho más
ambicioso y cuenta con la participación de un número mayor de laboratorios e
instituciones de todo el mundo (Markram et al., 2011). El principal objetivo de HBP
es obtener simulaciones detalladas, desde el punto de vista biológico, del cerebro
humano, así como desarrollar tecnologías de supercomputación, modelización e
informáticas para llevar a cabo dicha simulación. Estas simulaciones servirán de
base para crear nuevas herramientas para el diagnóstico y tratamiento de
enfermedades del cerebro, desarrollo de nuevas prótesis para personas con
discapacidad, tecnologías informáticas de baja energía con una capacidad de
‘inteligencia’ similar a la del cerebro con el fin de crear, finalmente, una nueva
generación de robots inteligentes.

Los beneficios para la sociedad derivados de HBP serán enormes. Incluso antes de
que el proyecto logre sus objetivos finales, los modelos del cerebro de HBP
revolucionarán la tecnología de la información, haciendo posible el diseño de
ordenadores, robots, sensores y otros dispositivos mucho más eficaces, más
inteligentes y de mayor eficiencia energética que los actuales. Aunque el cerebro
consume aproximadamente el 20% de la energía de nuestro cuerpo, su eficiencia
energética es extraordinaria, ya que gasta más o menos la misma energía que una
bombilla de bajo consumo de 20 W (unas 17 kilocalorías/hora), mientras que, por
ejemplo, el superordenador Magerit cuya capacidad es equivalente a unos 4.000
ordenadores de sobremesa normales, es de 154 KW (unas 132.446 kilocalorías/
hora). Los modelos del cerebro nos ayudarán a entender las causas de las
enfermedades del cerebro en su diagnóstico temprano, cuando todavía se puede
tratar. Será más fácil el desarrollo de nuevas curas para las enfermedades del
cerebro, reduciendo nuestra dependencia de los ensayos con animales. Dichos
modelos nos ayudarán a comprender cómo envejece el cerebro, cómo ralentizar estos
cambios y cómo mejorar nuestras capacidades cognitivas y también para alcanzar el
máximo de la potencialidad del cerebro de las generaciones futuras. En resumen, los
grandes proyectos que ya están en marcha, como el Blue Brain y el liderado por Allen
Institute y los que están a punto de comenzar como HBP y Brain Activity Map
(Kandel et al., 2013) son ejemplos de cómo las nuevas tecnologías y las estrategias
interdisciplinares están dando lugar a avances tecnológicos espectaculares y que sin
duda se acelerarán de forma notable con el inicio de las nuevas grandes iniciativas.
No cabe duda de que gracias a este nuevo impulso de la neurociencia a escala
mundial será posible comprender mejor cómo funciona el cerebro normal y cómo se
altera ante diversas enfermedades, con el fin de poder modelar nuevas terapias para
el tratamiento de dichas dolencias.

Javier de Felipe (Madrid, 1953), es profesor de investigación en el Instituto Cajal


(CSIC), especializado en el estudio micro-anatómico del cerebro; doctor en Biología
(Universidad Complutense). Dirige el Proyecto Cajal Blue Brain desde 2009 en el
Centro de Tecnología Biomédica de la Universidad Politécnica de Madrid; y es co-
director de la división Molecular and Cellular Neuroscience del Human Brain
Project. Ha sido nombrado Honorary Member de la American Association of
Anatomists.

Análisis del cerebro: Innovación tecnológica y


estrategia interdisciplinar” por Javier de Felipe
 Por César Tomé
 5JUL2014
Este texto de Javier de Felipe apareció originalmente en el número 14 (2013) de
la revista CIC Network y lo reproducimos en su integridad por su interés.

La información procedente del mundo que nos rodea es conducida hacia el cerebro
a través de un complicado sistema sensorial consistente en receptores de diversas
clases que actúan como transductores; estos transforman los estímulos físicos y
químicos del ambiente en impulsos nerviosos que el cerebro puede interpretar y
darles un significado. Existe una gran variedad de cerebros en el reino animal, pero
como además el sistema sensorial es muy distinto entre las diferentes especies, la
interpretación, necesariamente, no puede ser la misma; es decir, la interpretación
del mundo externo es característica de cada especie.

Asimismo, la inteligencia, creatividad, comunicación y relación entre los seres vivos


ha alcanzado su máxima capacidad y refinamiento en el ser humano, y esto se debe,
principalmente, al notable desarrollo y evolución del cerebro. Aunque el cerebro
funciona de forma modular -en el sentido de que está organizado en bloques o
sistemas anatómicos y funcionales (como el sistema visual, el auditivo, etc.)-, estos
módulos interactúan entre sí para integrar la información que se procesa por
separado. No obstante, el estudio de la corteza cerebral es el tema preferido de
muchos científicos teóricos y experimentalistas por su implicación directa en
diversos aspectos del comportamiento de los mamíferos y porque es la estructura
más ‘humana’ del sistema nervioso del ser humano.

Es decir, la actividad de la corteza cerebral está relacionada con las capacidades que
diferencian al ser humano de otros mamíferos, como por ejemplo, el lenguaje, la
imaginación y la capacidad de abstracción, permitiéndonos realizar tareas tan
extraordinarias y sumamente complicadas y humanas como escribir una poesía o
inventar el avión. Sin embargo, el principal obstáculo para estudiar el cerebro es la
extrema complejidad de los circuitos neuronales A modo de ejemplo en relación con
esta complejidad, se ha calculado que 1 mm3 de corteza cerebral humana contiene
en torno a 27.000 neuronas y 1.000 millones de conexiones sinápticas (Alonso-
Nanclares et al., 2008). En general, la corteza cerebral contiene un conjunto similar
de elementos al de cualquier otra región del sistema nervioso central.

Del mismo modo, las propiedades fisiológicas, los neurotransmisores, receptores y


otras moléculas que normalmente se encuentran en las neuronas corticales, no son
características exclusivas de la corteza, sino que se encuentran también en diversas
regiones del cerebro humano y en el de otras especies. De este modo, dos de las metas
principales de la neurociencia son, por un lado, establecer cuál es el substrato neural
que hace al hombre ser humano, y por otro, conocer el diseño estructural de los
circuitos neuronales y cómo estos contribuyen a la organización funcional del
cerebro. La neurociencia ha avanzado de un modo extraordinario en las últimas
décadas, permitiendo el estudio del cerebro desde múltiples ángulos -genético,
molecular, morfológico y fisiológico-, pero el salto de una disciplina a otra es
gigantesco y está poco explorado. Por estos motivos han surgido recientemente
ambiciosos proyectos a nivel mundial con objeto de aplicar nuevas tecnologías y
aunar esfuerzos para abordar el estudio del cerebro de forma interdisciplinar. A
continuación se debate el tema de las maquinas ‘pensantes’ y los proyectos Blue
Brain, Cajal Blue Brain y Human Brain Project, como ejemplos de las grandes
iniciativas internacionales para investigar el cerebro.

Máquinas ‘pensantes’

A lo largo de los años hemos inventado máquinas cuyas capacidades parecían estar
limitadas porque pensábamos que algunas facultades eran exclusivas del ser
humano, como por ejemplo, jugar al ajedrez al nivel de un gran maestro. Esto tiene
relación con uno de los temas recurrentes desde los tiempos de René Descartes
(1596-1650), el de las maquinas pensantes. ¿Podría formular una máquina el célebre
principio de Descartes cogito ergo sum (pienso luego existo)? Alan Turing (1912-
1954), considerado uno de los padres de la ciencia de la computación y precursor de
la informática moderna, comienza su clásico artículo Computing Machinery and
Intelligence (Turing, 1950) con el siguiente planteamiento: “Propongo considerar la
siguiente cuestión: ¿pueden pensar las máquinas?”. Al final de su ensayo afirma: “Es
de suponer que con el tiempo las máquinas podrán competir con los seres humanos
en todos los campos puramente intelectuales. ¿Pero por dónde empezar? Incluso
esto es una decisión difícil. Muchas personas creen que lo mejor sería comenzar con
una actividad muy abstracta, como el juego de ajedrez.” Cuarenta y seis años
después, la sugerencia planteada por Turing se hizo realidad, y el superordenador
Deep Blue de IBM y el campeón del mundo de ajedrez Gary Kasparov disputaron dos
torneos de ajedrez de 6 partidas cada uno.

El primer torneo se jugó en 1996 y Kasparov ganó 3 partidas, empató 2 y perdió una.
Al año siguiente, después de que los programadores introdujesen mejoras en el
superordenador, se celebró el segundo torneo y Deep Blue ganó 2 partidas, empató
3 y perdió una. Esta victoria de la máquina sobre el ser humano supuso un antes y
un después que levantó un gran revuelo en todos los ámbitos académicos: ¿Es Deep
Blue una máquina pensante? ¿Significa esta victoria el comienzo de la superioridad
de las máquinas y la pérdida del control sobre las máquinas que construimos? ¿Por
qué la idea de la inteligencia artificial provoca una reacción emocional negativa en
muchos filósofos y neurocientíficos? ¿Dónde está la frontera que delimita el terreno
humano y el de la máquina?

La neurociencia computacional está adquiriendo cada vez mayor preponderancia.


Parece evidente que para crear un cerebro artificial no es suficiente con replicar cada
una de sus partes o sistemas modulares con sus conexiones y organización, sino que
es necesario conocer cómo funcionan cada una de estas partes (tareas
computacionales) por separado para aprender cómo se generan comportamientos
complejos y cómo estos sistemas se integran en una unidad, que es el cerebro. De
este modo, se han creado modelos para estudiar cómo se implementan las tareas
computacionales a nivel de redes neuronales y cómo estas redes pueden generar
comportamientos complejos. Recientemente se ha creado un modelo altamente
sofisticado denominado Spaun (acrónimo de Semantic Pointer Architecture Unified
Network) que demuestra que diversas tareas, tanto cognitivas como no cognitivas,
se pueden integrar en un solo modelo a gran escala (Eliasmith et al., 2012). Spaun
está diseñado para responder a secuencias de imágenes visuales (tiene un ‘ojo’ para
la entrada de datos) y se comunica con el experimentador a través del movimiento
de un modelo físico de ‘brazo’ que escribe sus respuestas (salida). El modelo incluye
muchos aspectos de la neuroanatomía, neurofisiología y conducta psicológica, y está
basado en la simulación de unos 2,5 millones de neuronas que se organizan en
subsistemas que se asemejan a diferentes regiones del cerebro.

Estos subsistemas están conectados mediante un cableado que proporciona la


funcionalidad e integración de dichos subsistemas, y se basa en la simulación de las
conexiones anatómicas generales de las regiones del cerebro -incluyendo diversas
áreas corticales (como la corteza visual, corteza motora primaria y corteza
prefrontal) y centros subcorticales, así como diversas regiones de los ganglios basales
y el tálamo-. Además, Spaun no solamente integra percepción, cognición y acción a
través de varias tareas diferentes, sino que también puede cambiar de tarea y
responder sin necesidad de que el experimentador modifique manualmente los
parámetros.

Un aspecto interesante es que la arquitectura anatómica y funcional que utiliza


Spaun y otros modelos similares está basada en el cableado general entre regiones
del cerebro tratadas a modo de ‘cajas negras’ (por ejemplo, el tálamo [caja A] conecta
con la corteza visual [caja B]; o un área cortical X está más conectada con un área Z
que el área Y). Es decir, únicamente considerando la relación entre las entradas y las
salidas de dichas regiones, prescindiendo total o casi totalmente de su estructura
interna. Este tipo de arquitectura se puede denominar black brain
architecture (arquitectura cerebral negra), y lo interesante es que, como se ha
demostrado, es un modelo excelente para simular ciertas funciones del cerebro que
hasta ahora era difícil de creer que pudieran ser realizadas con un ordenador.

Esto nos lleva a la cuestión de hasta qué punto es necesario conocer el más mínimo
detalle de la estructura del cerebro para descifrar su funcionamiento. Quizás la
contestación más satisfactoria es que depende de la complejidad de la tarea y de la
respuesta. Así, la acción de caminar no requiere una corteza cerebral motora, ya que
la mayoría de los seres que caminan no tienen corteza cerebral, como por ejemplo
las hormigas, pero caminar jugando al futbol sí requiere un cerebro humano. En
otras palabras, podemos simular y entender cómo nos movemos con tanta exactitud
como para construir un robot que nos imite, pero realizar las múltiples tareas
complejas típicas del ser humano requiere otro nivel o niveles de conocimiento. En
mi opinión, Deep Blue, Spaun y otros modelos son útiles para estudiar ciertos
aspectos del funcionamiento del cerebro, pero hasta que no conozcamos
completamente el contenido de estas cajas negras y pasemos de la ‘arquitectura
cerebral negra’ a una ‘arquitectura cerebral detallada’, en donde además de conocer
todos los elementos que componen el cerebro y el mapa de conexiones sinápticas o
sinaptoma podamos distinguir la redundancia de los elementos constituyentes, no
podremos entender completamente el funcionamiento de cerebro.

Otra característica importante es que el cerebro no puede interaccionar con el medio


externo de forma determinista, ya que la información disponible es incompleta y
variable. Por el contrario, el cerebro tiene que realizar un cálculo probabilístico del
estado del mundo y de los posibles resultados de sus respuestas de forma muy
rápida, en cuestión de milisegundos, como por ejemplo reconocer un cambio
inesperado del entorno, detectar un peligro y decidir una acción. De este modo, el
cerebro se podría definir como un instrumento matemático que utiliza algoritmos
sumamente eficaces para interaccionar con el mundo externo y resolver problemas.
Si descifráramos dichos algoritmos o trucos matemáticos y el sustrato biológico, ello
tendría una aplicación inmediata en las ciencias computacionales, permitiendo la
creación de una nueva generación de ordenadores y de programas informáticos
basados en el diseño biológico del cerebro. Puesto que cada vez son menores las
limitaciones tecnológicas y los científicos estamos mejor organizados para abordar
el análisis del cerebro, ¿por qué no podría ser posible construir una corteza
cerebral in silico (siliconcortex), es decir, una máquina computarizada basada en un
modelo realista del diseño anatómico, fisiológico y molecular del circuito cortical?
(de Felipe, 2010). Por estos y otros motivos han surgido a lo largo de los últimos años
diversos proyectos a escala mundial, entre los que se incluyen Blue Brain, Cajal Blue
Brain y Human Brain Project.

Proyectos Blue Brain, Cajal Blue Brain y Human Brain Project

Los orígenes del proyecto Blue Brain se remontan al año 2005, cuando L’École
Polytechnique Fédérale de Lausanne (Suiza) y la compañía IBM anunciaron
conjuntamente el ambicioso proyecto de crear un modelo funcional del cerebro
utilizando el superordenador Blue Gene, de IBM.

Es importante destacar que este proyecto, dirigido por Henry Markram, tiene por
objetivo la ingeniería inversa del cerebro, a fin de explorar su funcionamiento y servir
de herramienta para futuras investigaciones en neurociencia y biomedicina. El
proyecto no pretende fabricar un cerebro artificial, sino una representación del
sistema biológico cerebral, que nada tiene que ver con la creación de inteligencia
consciente. A finales de 2006, el proyecto Blue Brain había creado un modelo de la
unidad funcional básica del cerebro, la columna cortical (Markram, 2006). Sin
embargo, las metas propuestas por el proyecto, que se marca un plazo de 10 años,
imponían su conversión en una iniciativa internacional. En este contexto surge en
enero de 2009 el proyecto Cajal Blue Brain, donde se materializa la participación
española en el proyecto, dirigido por el autor de este artículo en el Laboratorio Cajal
de Circuitos Corticales (laboratorio conjunto Universidad Politécnica de
Madrid/Consejo Superior de Investigaciones Científicas, localizado en el Centro de
Tecnología Biomédica de dicha universidad).

El proyecto Cajal Blue Brain ha permitido disponer de un equipo interdisciplinar de


más de 40 investigadores. En términos generales, este proyecto se fundamenta en la
idea que sostienen algunos científicos de que para comprender el funcionamiento
del cerebro es necesario obtener primero un mapa detallado de las conexiones
sinápticas. Esta reconstrucción a gran escala de los circuitos neuronales pronto será
posible gracias a los recientes avances tecnológicos para la adquisición y
procesamiento de datos experimentales. Aunque la comunidad científica está
dividida en lo relativo a la viabilidad y validez de la hipótesis de partida, es
importante hacer notar que ya surgieron objeciones similares cuando se propuso por
primera vez el proyecto Genoma Humano, que ahora es considerado sin reservas
como un logro científico de gran magnitud.

Para el desarrollo del proyecto se cuenta con diversas herramientas y nuevos


métodos computacionales que suponen un importante aporte tecnológico. Entre
estas herramientas y métodos destacan el desarrollo de técnicas de inyección
intracelular e integración y explotación de datos microanatómicos, la utilización del
superordenador Magerit (Centro de Supercomputación y Visualización de Madrid,
Universidad Politécnica de Madrid) y la nueva tecnología FIB/SEM (microscopio
electrónico de doble haz), que permite estudiar a nivel ultraestructural grandes
volúmenes de tejido de forma semiautomática, una tecnología esencial para descifrar
el sinaptoma (Figura 1).

El proyecto Blue Brain ha servido de base para proponer el proyecto denominado


Human Brain Project (HBP; fecha de comienzo, octubre 2013), que es mucho más
ambicioso y cuenta con la participación de un número mayor de laboratorios e
instituciones de todo el mundo (Markram et al., 2011). El principal objetivo de HBP
es obtener simulaciones detalladas, desde el punto de vista biológico, del cerebro
humano, así como desarrollar tecnologías de supercomputación, modelización e
informáticas para llevar a cabo dicha simulación. Estas simulaciones servirán de
base para crear nuevas herramientas para el diagnóstico y tratamiento de
enfermedades del cerebro, desarrollo de nuevas prótesis para personas con
discapacidad, tecnologías informáticas de baja energía con una capacidad de
‘inteligencia’ similar a la del cerebro con el fin de crear, finalmente, una nueva
generación de robots inteligentes.

Los beneficios para la sociedad derivados de HBP serán enormes. Incluso antes de
que el proyecto logre sus objetivos finales, los modelos del cerebro de HBP
revolucionarán la tecnología de la información, haciendo posible el diseño de
ordenadores, robots, sensores y otros dispositivos mucho más eficaces, más
inteligentes y de mayor eficiencia energética que los actuales. Aunque el cerebro
consume aproximadamente el 20% de la energía de nuestro cuerpo, su eficiencia
energética es extraordinaria, ya que gasta más o menos la misma energía que una
bombilla de bajo consumo de 20 W (unas 17 kilocalorías/hora), mientras que, por
ejemplo, el superordenador Magerit cuya capacidad es equivalente a unos 4.000
ordenadores de sobremesa normales, es de 154 KW (unas 132.446 kilocalorías/
hora). Los modelos del cerebro nos ayudarán a entender las causas de las
enfermedades del cerebro en su diagnóstico temprano, cuando todavía se puede
tratar. Será más fácil el desarrollo de nuevas curas para las enfermedades del
cerebro, reduciendo nuestra dependencia de los ensayos con animales. Dichos
modelos nos ayudarán a comprender cómo envejece el cerebro, cómo ralentizar estos
cambios y cómo mejorar nuestras capacidades cognitivas y también para alcanzar el
máximo de la potencialidad del cerebro de las generaciones futuras. En resumen, los
grandes proyectos que ya están en marcha, como el Blue Brain y el liderado por Allen
Institute y los que están a punto de comenzar como HBP y Brain Activity Map
(Kandel et al., 2013) son ejemplos de cómo las nuevas tecnologías y las estrategias
interdisciplinares están dando lugar a avances tecnológicos espectaculares y que sin
duda se acelerarán de forma notable con el inicio de las nuevas grandes iniciativas.
No cabe duda de que gracias a este nuevo impulso de la neurociencia a escala
mundial será posible comprender mejor cómo funciona el cerebro normal y cómo se
altera ante diversas enfermedades, con el fin de poder modelar nuevas terapias para
el tratamiento de dichas dolencias.

Javier de Felipe (Madrid, 1953), es profesor de investigación en el Instituto Cajal


(CSIC), especializado en el estudio micro-anatómico del cerebro; doctor en Biología
(Universidad Complutense). Dirige el Proyecto Cajal Blue Brain desde 2009 en el
Centro de Tecnología Biomédica de la Universidad Politécnica de Madrid; y es co-
director de la división Molecular and Cellular Neuroscience del Human Brain
Project. Ha sido nombrado Honorary Member de la American Association of
Anatomists.

Вам также может понравиться