El Cerebro Vacío, un Ensayo

Esta semana me he cruzado con un extenso (en absoluto denso), pero muy interesante artículo (más que artículo se trata de un ensayo) de Robert Epstein, psicólogo de investigación en el Instituto de investigación del Comportamiento y de la Tecnología de California. Autor de 15 libros, y antiguo editor jefe de la revista: Psychology Today.

Robert Epstein

Robert Epstein

Lo que atrajo mi atención fue el título del artículo “The Empty Brain” (El cerebro vacío), pero aún más prometedor resultó ser el subtítulo: “Your brain does not process information, retrieve knowledge or store memories. In short: your brain is not a computer” (Tu cerebro no procesa información, recupera conocimiento o almacena recuerdos. En pocas palabras: tu cerebro no es un ordenador).

Os propongo que hoy aprendamos el quid de esta cuestión. No os lo perdáis, es genial!

No importa en cuán de grande sea el empeño de l@s científic@s del cerebro y de l@s psicólog@s cognitiv@s, nunca van a encontrar una copia de la 5ª Sinfonía de Beethoven en el cerebro, así como tampoco encontraran copias de palabras, imágenes, reglas gramaticales o cualquier otro tipo de estímulo del entorno. Por supuesto que el cerebro humano no está vacío. Pero no contiene todas esas cosas que la gente piensa, no cosas tan simples y llanas cómo ‘recuerdos’.

Nuestro lamentable pensamiento sobre el cerebro tiene profundas raíces históricas, pero la invención de las computadoras en los años 40 del siglo XX nos confundieron especialmente. Desde hace más de 50 años, psicólog@s, lingüistas, neurocientífic@s y otr@s espert@s del comportamiento humano han estado afirmando que el cerebro humano funciona como una computadora.

Para muestra de la vacuidad de esta idea, pensemos en los cerebros de los bebés. Gracias a la evolución, l@s neonat@s human@s, como los neonatos de todas las otras especies de mamíferos, llegan al mundo preparad@s para interactuar con él de modo efectivo. La visión de un bebé es borrosa, pero presta especial atención a las caras y es capaz de identificar rápidamente la de su madre. Prefieren el sonido de las voces más que los sonidos que no provengan del habla, y pueden distinguir un sonido del habla de otro. Estamos, sin duda, construidos para llevar a cabo conexiones sociales.

Un@ neonat@ sano también está equipad@ con más de una docena de reflejos, reacciones prefabricadas hacia ciertos estímulos que son importantes para su supervivencia:

  • Gira su cabeza en dirección a algo que está rozando su mejilla.
  • Chupa cualquier cosa que entra en su boca.
  • Mantiene la respiración cuando se sumerge en el agua.
  • Agarra fuertemente las cosas que se le colocan en las manos, lo hace tan fuerte, que casi sería capaz de aguantar su propio peso.

Y, probablemente, más importante l@s recién nacid@s vienen equipad@s con potentes mecanismos de aprendizaje que les permiten cambiar rápidamente de modo que puedan interactuar de un modo eficiente e incremental con el mundo que les rodea, incluso cuando ese mundo no se parezca en nada al mundo de sus antecesores.

Cerebro de un Recién Nacido

Cerebro de un Recién Nacido

Los sentidos, los reflejos y los mecanismos de aprendizaje son los elementos con los que empezamos y son bastantes si nos paramos a pensar sobre el tema. Si tuviésemos una falta de cualquiera de estas capacidades al nacer, probablemente tendríamos problemas para sobrevivir.

Por otro lado, estos son los elementos con los que NO nacemos:

  • Información
  • Datos
  • Reglas
  • Programas
  • Conocimiento
  • Diccionarios
  • Representaciones
  • Algoritmos
  • Modelos
  • Recuerdos
  • Imágenes
  • Procesadores
  • Subrutinas
  • Codificadores
  • Descodificadores
  • Símbolos
  • Búffers

En resumen, elementos de diseño que permiten a las computadoras digitales comportarse como si tuviesen inteligencia. Y, no es que no nazcamos con esas cosas; es que además nunca las desarrollamos.

No almacenamos palabras ni las reglas que nos dicen cómo manipularlas. No creamos representaciones de los estímulos visuales y los dejamos en un buffer de memoria a corto plazo para luego transferirlas a un dispositivo de memoria a largo plazo. No recuperamos información o imágenes o palabras de nuestros registros de memoria. Las computadoras hacen todas esas cosas, pero no los organismos vivos.

En pocas palabras, las computadoras procesan literalmente la información (números, letras, palabras, fórmulas, imágenes).

En primer lugar la información tiene que ser codificada en un formato en que los ordenadores sean capaces de usar, lo que significa patrones de unos y ceros (‘bits’) organizados en grupos (‘bytes’). Cada byte contiene 8 bits y un patrón concreto de esos bits significa la letra ‘p’, otro la letra ‘e’, otro la letra ‘r’ y otro la letra ‘o’. Si ponemos esos bytes juntos formamos la palabra perro. Una sola imagen (por ejemplo la de la cena del otro día) se representa por un patrón específico de un millón de estos bytes (‘un megabyte’), rodeado de caracteres especiales que indican al ordenador que eso es una imagen y no una palabra.

Esta es la representación de la palabra perro: ‘p’ = 01110000; ‘e’= 01100101; ‘r’ = 01110010; ‘r’= 01110010; ‘o’= 01101111.

Perro: 01110000 01100101 01110010 01110010 01101111

Los ordenadores, literalmente, mueven estos patrones de un lado a otro en las áreas de almacenamiento físicas de los componentes electrónicos. A veces también copian los patrones y los transforman de diferentes modos; como por ejemplo cuando corregimos los errores de un manuscrito o cuando retocamos una fotografía. Las reglas que los ordenadores siguen para mover, copiar y operar con estas cadenas de datos también se encuentran almacenadas en el ordenador.

Si juntamos todas estas reglas tendremos lo que se denomina ‘programa’ o ‘algoritmo’. Un grupo de algoritmos es lo que nos ayuda a hacer algo (comprar acciones o encontrar una cita online) y se denomina ‘aplicación’, lo que ahora llamamos ‘app’.

Ya me disculparéis por toda esta introducción a la computación, pero debemos ser claros: los ordenadores operan sobre representaciones simbólicas del mundo. Realmente almacenan y devuelven. Realmente procesan. Realmente tienen memorias físicas. Realmente están guiados en cualquier cosa que hacen, sin excepción alguna por los algoritmos.

p025jxnb

Por otro lado, los humanos nunca lo han hecho y nunca lo harán. Dada esta realidad,

¿Por qué tantos científicos hablan de nuestra vida mental cómo si fuésemos ordenadores?

En su libro de 2015, In Our Own Image (A nuestra imagen), el experto en inteligencia artificial George Zarkadakis describe 6 metáforas diferentes que las personas hemos usado durante los últimos 2000 años para explicar la inteligencia humana.

En la más temprana, apareciendo en la Biblia, los humanos se formaron a partir del barro o de la tierra, a los que posteriormente un Dios inteligente les infundió con su espíritu. Es éste espíritu el que ‘explicaría’ nuestra inteligencia (al menos gramaticalmente).

La invención de la ingeniería hidráulica en el Siglo III a.C. condujo a la popularización del modelo hidráulico de la inteligencia humana, la idea que el flujo de diferentes fluidos en el cuerpo (los humores) daban la explicación del funcionamiento físico y mental. La metáfora hidráulica persistió más de 1600 años a la par que impedía la correcta práctica médica.

Los 4 humores:

Los 4 humores: Sangre, Bilis amarilla, Bilis Negra, Flema

Allá por los 1500s, empezaron a aparecer los autómatas propulsados por muelles y engranajes; este hecho inspiró a pensadores como René Descartes a afirmar que los humanos somos máquina complejas.

En los 1600s, el filósofo Británico Thomas Hobbes sugirió que el pensamiento provenía de pequeños movimientos mecánicos en el cerebro.

En los 1700s, los descubrimientos sobre la electricidad y la la química condujeron a nuevas teorías sobre la inteligencia humana que de nuevo consistían en grandes metáforas.

A mediados de los 1800s, inspirado por los recientes avances en las comunicaciones, el físico Alemán Hermann von Helmholtz comparó el cerebro con un telégrafo.

Cada una de las metáforas reflejaba los pensamientos más avanzados de la era en que se encontraba. Como era predecible, justo pocos años después del amanecer de la tecnología de computación en los 1940, fue cuando se afirmó que el cerebro operaba cómo una computadora; dónde el cerebro en sí mismo era el hardware físico y nuestros pensamientos el software.

El punto de partida de lo que hoy conocemos como ‘ciencia cognitiva’ fue la publicación en 1951 de ‘Language and Communication‘ (Lenguaje y Comunicación)  del psicólogo George Miller. Miller proponía que el mundo mental podía ser estudiado de modo riguroso usando conceptos de la teoría de la información, de la computación y de la lengua.

Portada de 'Language and Communication' de George Miller. 1951.

Portada de ‘Language and Communication’ de George Miller. 1951.

Este tipo de pensamiento se elevó a su máximo exponente en el libro corto ‘The Computer and the Brain‘ (El Ordenador y El Cerebro) de 1958, en el que el matemático John von Neumann afirmó rotundamente que la función del sistema nervioso humano era ‘prima facie digital; haciendo equivalencias 1:1 entre los componentes de las máquinas de computación del momento y los componentes del cerebro humano y, eso sí, reconociendo que aún se sabía poco sobre el rol del cerebro en el razonamiento humano y en la memoria.

John von Neumann

John von Neumann

Propulsado por los subsiguientes avances en la tecnología de la computación y en la investigación del cerebro, se empezó a desarrollar gradualmente un esfuerzo ambicioso y multidisciplinar para entender la inteligencia humana; esfuerzo radicado firmemente en la idea que las personas somos cómo ordenadores, procesadores de la información. Es esfuerzo ahora involucra miles de investigador@s, consume billones de dólares y de euros en subvenciones y ha generado una vasta literatura consistente en artículos y libros tanto técnicos cómo para el público en general.

Un ejemplo de esta perspectiva lo encontramos en el libro de Ray Kurzweil, ‘How to Create a Mind: The Secret of Human Thought Revealed‘ (Cómo Crear una mente: El Secreto del Pensamiento Humano Revelado) de 2013. En él, se especula sobre los ‘algoritmos’ del cerebro, cómo el cerebro ‘procesa los datos’ y cómo se reasambla superficialmente para integrarlos en su estructura.

La metáfora de el procesado de la información (PI) de la inteligencia humana es los que hoy domina el pensamiento humano, tanto en las calles como en las ciencias. No hay prácticamente modo alguno de discurso sobre el comportamiento humano que no utilice esta metáfora, como  tampoco hay modo alguno de discurso sobre el comportamiento inteligente humano que pueda estructurarse en ciertas áreas y culturas sin una referencia a alguna Deídad. La validez de la metáfora del PI en nuestro mundo de hoy en día, se asume sin ser siquiera cuestionada.

Pero, al fin y al cabo, la metáfora sobre el PI tan sólo es eso, otra metáfora; una historia que nos contamos para dar sentido a una cosa que no entendemos. Y cómo cualquiera de las metáforas que la precedieron, en algún momento la dejaremos de lado; ya sea porque la reemplazaremos por otra metáfora o porque finalmente ya tengamos el conocimiento real.

Modelo del Procesado de la Información (PI)

Modelo del Procesado de la Información (PI)

Epstein escribe que, ahora hace un año, en una visita a uno de los más prestigiosos institutos de investigación, retó a l@s investigador@s a dar una explicación sobre el comportamiento inteligente humano que no incluyese referencia alguna a la metáfora del PI. No lo pudieron hacer, y cuando sacó a colación el tema en las siguientes comunicaciones por correo meses después, aún eran incapaces de hacerlo. Vieron el problema. No obviaron el reto y lo dejaron como trivial. Pero no pudieron ofrecer alternativa alguna.

En otras palabras, la metáfora del PI es ‘pegadiza’. Abruma nuestro pensamiento con lenguaje e ideas que son tan potentes como para causarnos serios problemas al buscarles una alternativa.

El defecto que hay en la metáfora del PI es lo suficientemente fácil como para afirmarlo. Se basa en un silogismo erróneo, uno con dos premisas razonables y una conclusión errónea:

  • Premisa Razonable #1: todos los ordenadores son capaces de comportarse de modo inteligente.
  • Premisa Razonable #2: todos los ordenadores son procesadores de la información.
  • Conclusión Errónea: todas las entidades capaces de comportarse con inteligencia son procesadores de información.

Dejando de lado el lenguaje formal; la idea que l@s human@s tengamos que ser procesadores de la información tan sólo porque las computadoras sean procesadores de la información es simplemente absurda, y cuando, algún día, se abandone la metáfora del PI, la percibiremos del mismo modo en que hoy en día percibimos las metáforas hidráulicas y mecánicas también como absurdas.

Pero si la metáfora del PI es tan absurda, ¿Por qué es tan pegadiza? ¿Qué es lo que nos previene de dejarla a un lado, del mismo modo que apartamos un tronco que se interpone en nuestro camino? ¿Hay algún modo de entender la inteligencia humana sin tender a apoyarnos sobre unas delicadas muletas intelectuales? Y, ¿qué precio hemos pagado para apoyarnos en esta creencia durante tanto tiempo? Al fin y al cabo, la metáfora del PI ha guiado los escritos y los pensamientos de un gran número de investigador@s de múltiples campos durante décadas. ¿A qué precio?

Robert, en un ejercicio de clase que ha practicado durante años, le pide a un estudiante que haga un dibujo detallado de un billete de un dólar en la pizarra (lo más detallado posible). Cuando el estudiante acaba de dibujarlo, Robert cubre el dibujo con una hoja de papel, saca un billete de dólar de su cartera, lo pega a la pizarra y le pide al estudiante la repetición de la tarea. Cuando ést@ ha terminado, destapa el primer dibujo y la clase comenta las diferencias.

Ya que posiblemente nunca hayamos visto una demostración cómo esta, o porque a lo mejor nos cueste imaginarlo, e aquí los ejemplos de una participante en concreto (Jinny Hyun). Este es su dibujo ‘de memoria’ (prestad atención a la metáfora):

 

Dibujo de Memoria

Dibujo de Memoria

Y este es el dibujo hecho con el ejemplo del billete en mano:

Ejemplo con el Billete a la Vista

Ejemplo con el Billete a la Vista

Para poder comparar, éste es el billete de un dólar:

Billete de un dólar

Billete de un dólar

Jinny se sorprendió tanto como probablemente nos ha ocurrido a nosotr@s, pero es normal. Como podemos observar, el dibujo hecho en ausencia del original es horrible en comparación con el realizado mientras se tenía el original como modelo, teniendo en cuenta que Jinny ha visto miles de veces el billete de un dólar.

¿Cuál es el problema? ¿No teníamos una ‘representación’ del billete de dólar ‘almacenada’ en el ‘registro de memoria’ en nuestros cerebros? ¿No nos podemos limitar a ‘recuperarlo’ y usarlo para hacer nuestro dibujo?

Es obvio que no, y mil años de neurociencia no van a localizar nunca una representación del billete de dólar en el cerebro humano por la simple razón que ésta no está allí para ser encontrada.

Un montón de estudios sobre el cerebro nos indican, de hecho, que múltiples y, a veces, grandes áreas del cerebro están involucradas en las tareas más mundanas relacionadas con la memoria. Cuanto más fuertes sean las emociones involucradas, millones de neuronas se activan más y más.

f1-large

En un estudio de 2016 de los supervivientes de un accidente aéreo, llevado a cabo por el neuropsicólogo de la Universidad de Toronto Brian Levine, se demostró que recordar el accidente aumentaba la actividad neural en las siguientes partes del cerebro de los pasajeros:

  • Amígdala
  • El lóbulo temporal medio
  • La línea central anterior y posterior
  • El Córtex Visual

10-1177_2167702615589308-fig1

 

La idea, anticipada por diversos cintífic@s, que los recuerdos específicos son algo almacenado en neuronas individuales es absurda; si acaso, esa afirmación tan sólo lleva el problema de la memoria a un nivel más desafiante: ¿dónde y cómo, al fin y al cabo, se almacena la memoria en la célula?

Entonces, ¿qué ocurre cuando Jinny dibuja el billete de dólar sin un modelo? Si Jinny nuca hubiese visto antes un billete de dólar, su primer dibujo no hubiese tenido relación alguna con el segundo. El hecho de haber visto un billete de dólar con anterioridad, de algún modo le ha cambiado. Específicamente, su cerebro cambió de modo que se le permitía visualizar el billete, eso es; re-experimentar el billete; al menos un esquema.

La diferencia entre los dos diagramas nos recuerda que el hecho de visualizar algo (ver algo en su ausencia) es mucho menos preciso que verlo en su presencia. Esta es la razón por la que somos mejores a la hora de reconocer que a la hora de recordar. Cuando recordamos algo, tenemos que intentar revivir una experiencia; pero cuando reconocemos algo, tan sólo tenemos que ser conscientes del hecho que tuvimos esa experiencia perceptual antes.

Quizás tengas alguna objeción a esta demostración. Jinny había visto un billete de dólar con anterioridad, pero no había hecho el esfuerzo de ‘memorizar’ esos detalles. Si lo hubiese hecho, podríamos decir, presumiblemente hubiese dibujado la segunda imagen sin tener el billete presente. Incluso en este caso, ninguna imagen del billete de dólar habría sido almacenada en el cerebro de Jinny. Simplemente hubiese estado mejor preparada para dibujarlo con precisión, como a través de la práctica un@ pianista adquiere la habilidad de tocar la pieza sin tener presente la partitura.

A partir de este simple ejercicio, podemos empezar a construir el marco de trabajo para una teoría libre de metáforas del comportamiento inteligente humano; una en la que el cerebro no está completamente vacío, pero al menos vacío del equipaje de la metáfora del PI.

A medida que navegamos por el mundo, nos vemos cambiad@s por una variedad de experiencias. Experiencias que podemos clasificar en 3 categorías:

  • Observamos qué sucede a nuestro alrededor (el comportamiento de otras personas, los sonidos de la música, instrucciones dirigidas a nosotr@s, palabras en las páginas, imágenes en las pantallas)
  • Estamos expuest@s a emparejar estímulos de poca importancia (como una sirena) con un estímulo con más importancia (la aparición de un coche de policía)
  • Se nos castiga o se nos premia en función de cómo nos comportemos.

Somos más efectiv@s en nuestras vidas si cambiamos en modos que sean consistentes con estas tres experiencias (si ahora somos capaces de recitar un poema o cantar una canción, si somos capaces de seguir las instrucciones que nos dan, si corregimos los comportamientos en los que se nos ha castigado y nos comportamos más a menudo del modo en que se nos ha premiado).

No obstante el titular engañoso es que, nadie tiene la más mínima idea en cómo ha cambiado nuestro cerebro después de haber aprendido una canción o a recitar un poema. Pero ni la canción ni el poema han quedado ‘almacenados’ en él. El cerebro simplemente ha cambiado de un modo que nos permite cantar la canción o recitar el poema bajo ciertas condiciones.

Cuando se nos pide que lo representemos, no los ‘recuperamos’ en ningún sentido de ningún lugar de nuestro cerebro. Tan sólo cantamos o recitamos, no es necesaria esa ‘recuperación’.

Años atrás, Epstein, le pidió al neurocientífico Eric Kandel de la Universidad de Columbia y ganador del premio Nobel por la identificación de los cambios químicos que se producen en las sinapsis neuronales de la Aplysia (un caracol marino -lo aprendimos en el Brain Feeling: ¿Dónde se almacenan los recuerdos?) después de que aprendiese algo; ¿Cuánto tiempo pensaba que nos va a llevar comprender cómo funciona la memoria humana?. Eric respondió rápidamente: ‘100 Años‘. Robert Epstein afirma que no se le ocurrió preguntar a Eric sobre su opinión respecto a que la metáfora del PI está ralentizando la neurociencia; aunque algunos nuerocientíficos ya empiezan a pensar lo impensable: la metáfora no es indispensable.

Eric Kandel

Eric Kandel

Algunos científicos de la cognición (Anthony Chemero de la Universidad de Cincinnati) rechaza completamente la visión que el cerebro humano trabaja cómo una computadora. La corriente principal es que nosotros, como los ordenadores, damos sentido al mundo mediante computaciones de representaciones mentales del mismo, pero Chemero y otr@s describen otro modo de entender el comportamiento inteligente; como una interacción directa entre los organismos y su mundo.

Un claro ejemplo de la dramática diferencia entre la perspectiva del PI y lo que algun@s ya llaman la ‘anti-representacional’ vista del funcionamiento humano incluye dos modos diferentes en que un jugador de baseball se las arregla para coger una pelota. Ejemplo, por cierto, explicado de modo muy bello por Michael McBeath, ahora en la Universidad de Arizona en un paper de 1995 en Science.

La perspectiva del PI requiere que:

  1. El jugador formule una estimación de sobre varias condiciones iniciales del vuelo de la pelota (la fuerza del impacto, el ángulo de la trayectoria, ese tipo de cosas).
  2. Luego crea y analiza un modelo interno del camino más probable que va a seguir la pelota.
  3. Finalmente, usa ese modelo para guiar y ajustar sus movimientos motores continuamente para interceptar el esférico.

hand in baseball glove and ready to catching the ball

Esto estaría bien si funcionásemos cómo ordenadores, pero McBeath y sus colegas dieron una explicación más sencilla: para coger la pelota, el jugador tan sólo debe continuar moviéndose de modo que mantenga constantemente la pelota en una relación visual constante entre la base y el entorno (técnicamente en una ‘trayectoria óptica lineal’). Puede sonar complicado, per es increíblemente simple, y libre de computaciones, representaciones y algoritmos.

Dos profesores de la Universidad de Leeds Beckett en el Reino Unido (Andrew Wilson y Sabrina Golonka) incluyen el ejemplo del baseball junto con otros que podemos entender sin necesidad de la metáfora del PI. En su blog han estado escribiendo durante años sobre lo que llaman una ‘aproximación más coherente y naturalizada al estudio del comportamiento humano…en contra de la aproximación dominante de la neurociencia‘. Esto es más que un movimiento, pero el mainstream de las ciencias cognitivas continua regodeándose en la metáfora del PI, en que algunas de las mentes pensantes más influyentes han hecho grandes predicciones sobre que el futuro de la humanidad depende de la validez de esta metáfora.

Una de las predicciones; formulada por el futurista Kurzweil, el físico Stephen Hawkin y el neurocientífico Randal Koene, entre otr@s; afirma que dado que la consciencia humana se supone un software de ordenador, en breve, seremos capaces de descargar las mentes humanas en computadoras, en circuitos que serán inmensamente poderosos intelectualmente y, posiblemente inmortales.

Si os suena es debido a que este concepto fue el que dirigió la trama de la distópica película Trascendece (2014) con Johnny Deep en el papel de un científico del estilo de Kurzweil y que cuya mente se descarga en internet, con desastrosos resultados para la humanidad.

Cartel de Trascendece (2014)

Cartel de Trascendece (2014)

Afortunadamente, dado que la metáfora del PI no es válida, no vamos a tener porqué preocuparnos por una mente humana que acapare todo el ciberespacio y tampoco por obtener la inmortalidad al descargarnos en un ordenador. Y esto no es debido a la ausencia de software consciente en el cerebro; el problema aquí es más profundo, llamemósle ‘el problema de la singularidad‘ que inspira a la par que deprime.

Dado que no existen en el cerebro ni ‘bancos de memoria’ ni ‘representaciones’ de los estímulos y porque necesitamos de todo ello para para funcionar en el mundo, para que el cerebro cambie ordenadamente como resultado de nuestras experiencias, no hay razón alguna para creer que alguno de estos dos factores nuestros se vean cambiados del mismo modo por la experiencia. Si tu y yo vamos al mismo concierto, los cambios que ocurrirán en mi cerebro al escuchar la 5ª de Beethoven serán completamente diferentes de los que ocurrirán en el tuyo. Esos cambios, sean lo que sean, se construyen sobre una estructura neuronal única que ya existe, una estructura creada a lo largo de la vida y formada por experiencias únicas.

La 5ª Sinfonía de Beethoven

La 5ª Sinfonía de Beethoven

Esto se debe a, cómo demostró Sir Frederic Bartlett en su libro de 1932 ‘Remembering’ (Recordando); nunca ocurrirá que dos personas repitan la misma historia que han escuchado del mismo modo y, cuanto más tiempo pase, más diferentes van a ser las versiones. Nunca se ha hecho una ‘copia’ de la historia, sino que cada individuo, al oírla, la ha cambiado a una especie de resumen; lo suficiente para que cuando se la piden más adelante (días, meses, años), puedan re-experimentar el escuchar la historia.

Esto es inspirador, porque significa que cada un@ de nosotr@s es realmente únic@, no tan sólo a nivel genético, incluso en el modo en que nuestros cerebros cambian durante el tiempo. También es deprimente porque hace que la tarea del neurocientífico sea desalentadora más allá de donde alcance nuestra imaginación.

Para cualquier experiencia dada, pueden cambiar miles o millones de neuronas en todo el cerebro, presentando patrones de cambio diferentes en todos los cerebros.

Peor aún, incluso si hubiésemos tenido la capacidad de tomar una foto de esos 86 billones de neuronas y luego simular el estado de ellas en una computadora,  el gran patrón no significaría nada fuera del cuerpo que lo ha producido. Este es, quizás, el modo más atroz en que la metáfora del PI ha distorsionado nuestra concepción sobre el pensamiento humano.

Representación de las Neuronas, Santiago Ramón y Cajal.

Representación de las Neuronas, Santiago Ramón y Cajal.

Mientras los ordenadores almacenan copias exactas de datos (que pueden persistir inmutables durante largos periodos de tiempo, incluso cuando no hay energía) nuestro cerebro mantiene nuestro intelecto solamente mientras permanece vivo. No hay un interruptor. O funciona el cerebro o desaparecemos.

Aún más, como menciona el neurobiólogo Steven Rose en ‘The Future of the Brain‘ (2005) (El Futuro del cerebro), una foto del estado actual del cerebro sería inútil a no ser que conociéramos la vida entera del propietario de ese cerebro (como mínimo el contexto social en que él o ella creció).

Pensad en lo difícil que es el problema. Para entender tan sólo la base de cómo el cerebro mantiene el intelecto humano, necesitaríamos conocer no sólo el estado actual de los 86 billones de neuronas y sus 100 trillones de interconexiones, y las variedades de intensidades con las que están conectadas y el estado de las más de 1000 proteínas que existen en cada punto de conexión; sino que también necesitaríamos conocer el momento a momento de la actividad cerebral que contribuye a la integridad del sistema. Añadamos a esto, la unicidad de cada cerebro debida en parte por la unicidad de la vida de cada persona y veréis como la predicción de Kandel (de los 100 años) suena optimista. (Cabe destacar que en un artículo reciente del The New York Times, el neurocientífico Kenneth Miller sugiere que necesitaremos ‘siglos’ tan sólo para entender la conectividad neuronal básica).

11miller-master768-v2

Mientras tanto, vastas sumas de dinero se dedican a la investigación del cerebro, basadas en algunos casos en ideas incorrectas y promesas que no se pueden cumplir.

El ejemplo más obvio del desvío de la neurociencia documentado en un informe de Scientific American, apunta al Proyecto ‘Human Brain Project’ de 1.3 billones de dólares promocionado por la Unión Europea en 2013. Convencidos por el carismático Henry Markram sobre la creación de una simulación completa por ordenador del cerebro humano en 2013 y sobre cómo ese modelo revolucionaría el tratamiento del Alzheimer y otras enfermedades, los oficiales de la UE financiaron el proyecto casi sin restricción alguna. Después de dos años, el proyecto se convirtió en una ‘chatarra’ y se le pidió a Markram que lo dejase.

Somos organismos, no ordenadores. Hagámonos a la idea. Sigamos con la tarea de intentar entendernos a nostr@s mism@s, pero sin tener que acarrear con equipaje intelectual innecesario. La metáfora del PI lleva medio siglo corriendo, generando pocos, si alguno, conocimientos. Ha llegado el momento de presionar la tecla DELETE.

Buen Domingo!! 🙂


Artículo Original: “The Empty Brain” en aeon.co