¿Dónde Pertenecen Nuestras Mentes?, un ensayo

Hoy más que un Brain Feeling, aprenderemos un ensayo. Aprenderemos muchas cosas. Cosas que reafirman la idea que el cerebro humano es la máquina más compleja jamás concebida (como lo demuestra la incapacidad y las limitaciones de recrearlo), cosas que demostrarían que la inteligencia, en cualquier civililización terrestre o extraterrestre, se habría movido de lo biológico a lo mecánico y de lo mecánico a lo biológico y así sin cesar.

Os invito a aprender este ensayo de Caleb Scharf, director de astrobiología de la Universidad de Columbia en Nueva York y autor de Extrasolar Planets and Astrobiology (2009), con el que ganó el premio Astronómico Chambliss de escritura.

Como especie, los seres humanos estamos locamente obsesionados con el futuro. Nos encanta especular sobre dónde nos está llevando la evolución. Intentamos imaginar cómo será nuestra tecnología en décadas o en siglos. Fantaseamos con encontrar extraterrestres inteligentes; generalmente aquellos que están mucho más avanzados de lo que lo estamos nosotros. Últimamente estas dos corrientes han empezado a juntarse. Desde el punto de vista de la evolución, un gran número de futuristas están prediciendo la singularidad: el momento en que los ordenadores serán lo suficientemente poderosos para simular la consciencia humana, o para absorberla totalmente. En paralelo, algunos visionarios proponen que cualquier tipo de vida inteligente que encontremos en el Universo sea, lo más posible, basada en máquinas más que sacos de carne humanoide como somos nosotros mismos.

Estas reflexiones ofrecen una solución potencial a la, largamente debatida Paradoja de Fermi: la aparente ausencia de vida alienígena inteligente alrededor nuestro, a pesar que el hecho de que ese tipo de vida parezca posible. Si la inteligencia de las máquinas es el inevitable punto final tanto de la tecnología cómo de la biología, entonces los aliens son unas máquinas tan hiper desarrolladas fuera del alcance de nuestras predicciones y están tan lejos de las formas biológicas de vida que nos son familiares que no los reconoceríamos si los viésemos. Del mismo modo podemos imaginar que la comunicación interestelar entre máquinas estaría tan optimizada y tan bien encriptada que sería indistinguible del ruido. Desde esta perspectiva, la aparente ausencia de vida inteligente en el cosmos sería una ilusión creada por nuestra propia incompetencia.

La Paradoja De Fermi

Existe también un mensaje más profundo que reside tras nuestras proyecciones futuristas. Nuestras nociones de la emergencia de las máquinas inteligentes exponen nuestras fantasías (a veces silenciosas) sobre qué es la perfección: no es blanda y biológica, como nosotros ahora; sino dura, digital y casi inconceptiblemente poderosa. Para algunas personas un futuro como ese es uno de esperanza y de elevación. Para otras, es uno de miedo y subyugación. Pero los dos modos asumen que las máquinas se sitúan en el pináculo de la evolución de la consciencia.

De modo superficial, la lógica tras las conjeturas sobre la inteligencia de las máquinas cósmica parece ser bastante sólida. Extrapolar la trayectoria de nuestra actual evolución tecnológica sugiere que con la sofisticación computacional suficiente en mano, la capacidad y el potencial de nuestras mentes y cuerpos biológicos se puede hacer cada vez menos atractiva. En cierto momento querremos saltar dentro de nuevos receptáculos, creados a medida en base a nuestros deseos. De modo similar, ese arco tecnológico nos puede llevar a un lugar donde crearemos inteligencias artificiales que nos serán indiferentes, o que nos poseerán, incorporarán o simplemente nos estrujarán.

Evolución Tecnológica

Siguiendo este discurso, la biología no se puede hacer cargo de mantener civilizaciones interestelares o la propia civilización humana en un futuro lejano. Los retos de la exploración espacial, tanto temporales como los ambientales son grandiosos. Cualquier ímpetu realista de convertirnos en una especie interestelar exigirá máquinas robustas, no delicados complejos de proteínas con unas fechas de caducidad patéticas. Una máquina vivirá para siempre y será capaz de replicarse a sí misma perfectamente, libre de la flexibilidad de la purga de errores de la evolución natural. Las formas de vida auto diseñadas también se harán a medida de entornos muy específicos. En una única generación se podrán adaptar a los grandes abismos del espacio y del tiempo entre las estrellas, o a los entornos de mundos alienígenas.

Si juntamos todas estas piezas veremos que la marca humana es una fase totalmente pasajera. La gente nos lo tomamos en serio, tanto como para figuras como Elon Musk y Stephen Hawking hayan advertido públicamente sobre los peligros de consumir inteligencia artificial. Al mismo tiempo, el informático Ray Kurzweil ha creado una gran obra de libros y conferencias que prevé una singularidad inminente.

Pero, ¿están las cosas vivas forzadas a convertirse en algo más inteligente y robusto? y, ¿es la inteligencia biológica una camino sin salida, destinado a dar paso a la supremacía de las máquinas?

Probablemente no. Hay un poco más que contar sobre la historia.

Las descripciones que están de moda sobre el inevitable triunfo de la inteligencia de las máquinas contiene muchos sesgos críticos que pueden evitar que se haga realidad. Está claro que la actual tecnología computacional nos está conduciendo hacia la singularidad, o hacia algún momento grandioso de trascendencia exponencial como especie. Sea como sea, el futuro aún es fascinante.

Algunas de estas ideas extravagantes se pueden encontrar ya en las sorprendentes conjeturas de John von Neuman sobre el autómata que se auto-replica, que fueron recopiladas en su libro póstumo Theory of Self-Reproducing Automata (1966). Ese trabajo ayudó a cimentar el concepto en el que máquinas que construyen otras máquinas, en una explosión exponencial y probablemente descontrolada, simplemente pueden barrer otras formas de vida que se encuentren por el camino. Von Neuman también consideró cómo esas máquinas podrían simular algunas de las funciones y acciones de las neuronas humanas.

John Von Neuman

Desde los años de Neuman, la conectividad electrónica ha tenido un gran impacto en el modo en que muchos humanos van pos sus vidas diarias, y en el modo en que solucionamos un problema y pensamos en alguna pregunta nueva o en algún nuevo reto. ¿Quién de nosotr@s conectad@s al mundo moderno no ha buscado en Google una respuesta antes de ni siquiera trabajar un poco la respuesta o preguntárselo a otro ser humano? Parte de nuestra sabiduría colectiva ahora está subida, colocada en una nube de datos omnipresente. La importancia relativa del abanico individual de conocimiento está en declive. También sería el caso que la importancia de la experiencia individual (la especialización) también se está perdiendo en el proceso.

Sea como sea, el dónde nos está llevando no es obvio. Si acaso, podríamos estar llegando a un estado de mente colmena, un organismo colectivo más cercano a una colonia de termitas a un conjunto de topos. Más que incrementar nuestra inteligencia, estamos ahogando los inputs, entrenándonos a nosotr@s mism@s a ser pasivos de modo incremental. Un pesimista vería cómo nuestras mentes se están parando, se están convirtiendo en parte de un enjambre auto referenciador más que en un conjunto de genios que mejoran exponencialmente.

Fotograma del «El Pueblo De Los Malditos» en mención de la mente colmena.

La historia también nos enseña que es prácticamente imposible prever los impactos a largo plazo de las tecnologías disruptivas. Como ejemplo, la invención de la máquina de vapor en los 1700s cambió el panorama humano. No se había predicho. Nadie predijo que la combustión interna y la electricidad harían que esas máquinas de vapor quedasen obsoletas 150 años más tare. Tampoco nadie fue capaz de ver que toda esta combustión de hidrocarburos dañaría seriamente a nuestra especie alterando la composición de la atmósfera terrestre.

Tampoco hay prueba alguna que sugiera que nuestra propia marca de inteligencia es más que un resultado de billones de años de evolución, algo óptimo dentro del panorama cósmico. A ver, tampoco hay evidencia de lo contrario. La conclusión es que extrapolar nuestra experiencia de la consciencia y de la inteligencia para proponer cualquier afirmación del estado de la inteligencia alienígena y sus motivaciones, es una cosa muy difícil de hacer.

Esta línea argumental suena como el deprimente definitivo: nos estamos haciendo más estúpid@s, no podemos predecir nuestro camino futuro, y no tenemos ni idea de qué tipos de seres inteligentes (si es que hay) existen en el cosmos. Pero hay un resquicio de esperanza, ya que este propio acto de auto examinación nos fuerza a enfrentarnos con duras, pero fascinantes, realidades de nuestra cultura y nuestra tecnología.

Una de las realidades es el tema de la energía, discutido ya por Von Neumann, pero ignorado, a menudo, en las conversaciones futuristas. En el diseño de ordenadores, un factor clave es la capacidad computacional en relación al uso de la energía, a veces mencionada como «computaciones por julio». A medida que los microprocesadores se hacen más complejos y las arquitecturas basadas en silicio se hacen más y más pequeñas (en nuestros días, a escalas de unas decenas de nanómentros), la eficiencia aún mejora. Como resultado, el ratio de computaciones por julio ha ido mejorando cada año que pasaba.

De hecho, algun@s investigador@s han afirmado que habrá una ‘pared’ de eficiencia energética para las arquitecturas de procesado convencionales, algo alrededor de los 10 gigas de computaciones por julio para operaciones como una multiplicación básica.

Esto es una gran barrera potencial para cualquier azaña hacia la auténtica inteligencia artificial o hacia la maquinaria de ‘cargar cerebros’. Las estimaciones de lo que se necesita, en términos de poder de computación, para aproximarnos al brío del cerebro humano (medido por la velocidad y la complejidad de las operaciones) viene con una eficiencia energética requerida que tiene que ser sobre un billón de veces mejor que esa pared.

Para ponerlo en un contexto diferente, nuestro cerebros utilizan una energía de unos 20 watios. Si quisieras ‘subirte’ a ti mism@ intanct@ a una máquina, utilizando la tecnología de computación actual, necesitarías una energía que equivaldría a la que genera la planta hidroeléctrica más grande del mundo, la Three Gorges Dam en China.

Three Gorges Dam

Para toda la especie, los 7.3 billones de mentes, el hecho de pasarlas a una forma de máquina necesitaría un flujo de energía de unos 140.000 petawatios. Más o menos 800 veces el poder solar que impacta sobre la atmósfera terrestre. Claramente la trascendencia humana está un poco lejos.

Una solución posible sería ir hacia las arquitecturas neuromórficas, diseños de silicio que mimetizan aspectos de las neuronas reales y su conectividad. Investgador@s como Jennifer Hasler del Instituto de Tecnología de Georgia han sugerido que, si se hace bien, un sistema neuromórfico puede reducir los requisitos de energía de un sistema cerebral artificial al menos 4 órdenes de magnitud. Desafortunadamente, ese gran cambio aún deja un gran espacio en la eficiencia de un factor de 100.000 antes de llegar al nivel del cerebro humano.

Por supuesto que la historia de la tecnología de los ordenadores está repleta de supuestas barreras impenetrables que se superan año tras año, de modo que no dejemos el optimismo atrás. Para capturar la complejidad, la densidad y la extraordinaria eficiencia de un cerebro humano moderno, el silicio y sus primos simplemente no son la respuesta, no importa cómo los modelemos ni cómo los conectemos.

Aja! Lo sabía 🙂 . Una alternativa favorita de los tecno – optimistas es invocar la posibilidad de la computación cuántica, que explota los estados cuánticos superpuestos de los átomos y de los sistemas en lugar de los transistores convencionales. Los favorables a esta opción sugieren que la capacidad computacional que este estado de superposición nos brindaría, solucionaría los problemas de velocidad y de energía, colocándonos en el camino de construir super – mentes.

Al menos, sobre el papel, un ordenador cuántico ‘universal’ o de Turing podría existir ofreciendo de modo efectivo una capacidad computacional sin barreras. El físico británico David Deutsch articuló esta idea de un modo brillante en su paper de 1985:  ‘Quantum Theory, the Church-Turing Principle and the Universal Quantum Computer’.

Un ordenador cuántico genuinamente universal podría, en teoría, simular cualquier precisión deseada, cualquier sistema físico finito, incluyendo una mente, u otros ordenadores cuánticos. Pasarnos a la cuántica nos permitiría simular masivamente en paralelo, y hacer tests de probabilidad increíblemente rápidos. A pesar de los enormes avances teóricos y en los laboratorios de los últimos años, la realización práctica de tales conceptos aún es un reto muy complicado. Anque hay aspectos de la aplicación de la computación cuántica propuesta como la búsqueda contextualizada, que encajaría perfectamente con ‘la computación cognitiva’; aún están muy lejos de una inteligencia artificial realmente inteligente.

El problema de eficiencia energética también aparece aquí. Manipular la moneda central de la computación, el qubit (ya sea un frío átomo u otro objeto cuántico) requiere muy poca energía. Pero mantener los componentes de un ordenador cuántico en un estado de coherencia (preservando delicadamente todo esos estados cuánticos) es enormemente caro, y siempre reside en sistemas de soporte que van a necesitar muchísima energía.

Otros factores son igual de preocupantes. Un ordenador cuántico de ‘n’ qbits puede llevar a cabo 2^n computaciones en un ciclo, pero el configurar esas computaciones puede ser una enorme tarea de flujo de datos. Simular nuestro universo entero de unas 10^89 partículas y fotones necesitaría tan sólo de 296 qubits, según algunos cálculos. Pero, ¿cómo diablos introduces las 10^89 condiciones iniciales?, aún peor, ¿cómo escoges las soluciones correctas de la simulación cuántica?

El hecho de simular un cerebro humano sería un poco más fácil, pero aún tienes que cuantificar e iniciar al menos 10^14 conexiones neuronales (más o menos las que tod@s tenemos en la cabeza, algun@s muchas menos, algun@s muchas más) para configurar la computación. También querríamos que el cerebro cuántico tuviese un rendimiento alto, una interfície sensorial de alta fidelidad con el mundo que lo rodea. Este es otro de los retos desconocidos.

Tenemos que admitir que aunque fuese posible construir la maquinaria que sostuviese o sobrepasase la inteligencia humana, no nos daría el tipo de crecimiento computacional exponencial que a menudo se propone.

En otras palabras, las matemáticas de la inteligencia de las máquinas que mejora exponencialmente podrían estar en buen estado, pero las barreras prácticas demostrarían un camino muy muy muy empinado.

Para ver dónde deja esto las cosas, extrapolemos alguna hoja de un libro futurista. Exploremos qué pasa al mezclar la idea del lento crecimiento de la inteligencia de las máquinas con las Paradoja de Fermi. Será divertido.

Supongamos que una forma avanzada de inteligencia cósmica tiene éxito al convertirse a sí misma en forma de máquina. ¿Qué es lo siguiente que pasa?

Dado que las máquinas están cercadas de límites de eficiencia, hay una posibilidad que acaben mirando a su pasado para encontrar trucos para progresar. Una cosa que sabrían (como sabemos nosotr@s ahora) es que la biología funciona, y funciona extremadamente bien. Algun@s investigadores estiman que el cerebro humano moderno está al límite de su capacidad computacional, pero que requerirá de una máquina sólo un poco más lista para reinventarse como órgano complejo. En otras palabras, podría haber una trayectoria más óptima que nos aleje de las máquinas y nos vuelva a acercar a la biología, con su remarcable eficiencia energética.

Tampoco hay ninguna garantía que las inteligencias de máquina serán, o puedan ser, perfectamente racionales. Ahora mismo, especulamos rutinariamente que el futuro de nuestra inteligencia yace en otra forma, probablemente en silicio o de forma cuántica, que creemos que es superior a la carne. Probablemente la misma representación ocurre para cualquier inteligencia. La máquinas querrán ser biológicas de nuevo por razones prácticas de energía, o por otras razones que no podemos ni imaginar ni comprender.

Si la vida es común, y regularmente conduce a formas inteligentes, entonces probablemente vivimos en el universo del futuro de las inteligencias pasadas.

El Universo tiene 13.8 billones de años y nuestra galaxia casi igual; las estrellas y los planetas se han estado formando durante gran parte del pasado de estos 13 billones de años. No hay ninguna razón por la que pensar que el cosmos no hizo nada interesante en los 8 billones de años anteriores al nacimiento de nuestro sistema solar. Algún día decidiremos que el futuro de la inteligencia en la Tierra requiere biología, no computación. Muchas de las inteligencias desde hace billones de años hayan hecho probablemente ya esta transición.

Esas inteligencias tempranas puede que hace tiempo hayan alacanzado el punto donde han decidido ir de las máquinas a la biología. Si fuese así, la paradoja de Fermi vuelve al ataque: ¿Dónde están esos aliens ahora? Una respuesta simple sería que estarían enjaulados en la extrema dificultad del tránsito interestelar, especialmente para los seres físicos y biológicos. Probablemente las mentes antiguas estén allí fuera, pero el coste de retornar a la biología fue también un retorno al aislamiento.

Esas mentes tempranas habrían construido alguna vez mega – estructuras y habrían desplegado ingeniería cósmica a través de las estrellas. A lo mejor, algunas de esas piezas aún están allí fuera y estamos a punto de detectarlas. La reciente excitación sobre KIC 8462852, una estrella cuyo brillo varía de un modo que no puede ser explicado con mecanismos naturales, se basa en el reconocimiento que nuestros instrumentos ya son lo suficientemente sensibles para investigar esas posibilidades.

KIC 8462852

Probablemente las civilizaciones alienígenas se hayan retirado a una existencia biológica, dejando sus reliquias de su era mecánica flotando por allí.

Nuestra existencia actual podría asentarse en un pequeño gap cósmico entre esa primera generación de inteligencia de máquina y la siguiente. Cualquier inteligencia de máquina o trascendencia en cualquier otro sitio de la galaxia se habrá vivido como una fuerza interestelar; la última ya se habría apagado y la siguiente aún no habría salido a la luz. A lo mejor no han tenido tiempo de visitarnos mientras los humanos modernos hemos estado aquí. A lo mejor están soñando en volver a ser biológicos. Así es como pinta nuestro propio futuro tecnológico: volver de las fantasías de las máquinas a una existencia más silenciosa pero más eficiente; la existencia orgánica.

No hay vergüenza alguna en admitir la gran naturaleza especulativa de estas ideas, y hay algo especial sobre las preguntas que hacen aparecer. Estamos examinando futuros para nosotr@s mism@s. Es concebible que el Universo nos esté diciendo cuáles son realmente estas opciones.

Bonus Track: KIC 8462852

Algo masivo, aproximadamente 1000 veces la superficie de la Tierra, es el bloqueo de la luz proveniente de una estrella distante conocida como KIC 8462852, y nadie está seguro qué es. Como astrónoma Tabetha Boyajian investigó qué podría ser este objeto enorme, irregular. Un colega sugirió algo inusual: ¿Podría ser una megaestructura masiva de construcción alienígena? Una idea tan extraordinaria requeriría evidencias extraordinarias. En esta charla Boyajian nos adentra en cómo los científicos buscan y prueban hipótesis cuando se enfrentan a lo desconocido.

 

Buen Domingo!! 🙂


Artículos Originales:

Los comentarios están cerrados.

Crea un sitio web o blog en WordPress.com

Subir ↑

A %d blogueros les gusta esto: