La Humildad Intelectual, Un Superpoder

Hemos aprendido algunas cosas sobre la humildad y todo lo que nos puede aportar en Brain Feelings anteriores como: Curas de Humildad o “Me He Equivocado”: Las 3 Palabras que nos hacen más Creíbles.

Todo lo aprendido en estos Brain Feelings apunta sileciosamente hacia el hecho del superpoder de la humildad. Hoy me gustaría aprender un punto más sobre la humildad. Un caso especial de ésta: la humildad intelectual.

Supuestamente, en algún momento de los años 1990s el magnate de la comunicación Ted Turner en un momento de exuberancia narcisista dijo: “Si sólo tuviese un poco de humildad, sería perfecto“. Mientras que, en caso de Turner ha demostrado haber ganado en humildad, tod@s l@s emprendedores del mundo tecnológico de hoy, parecen mostrar una arrogancia parecida.

Arrogancia

¿Por qué ser humilde? Al fin y al cabo, Aristóteles dijo:

El Hombre, por naturaleza, desea saber

La humildad intelectual es un ejemplo muy particular de la humildad, aunque puedas tener los pies en suelo sobre la mayoría de cosas, aún puedes ignorar tus limitaciones mentales. La humildad intelectual significa reconocer que no lo sabemos todo y que lo que sabemos no debemos usarlo para nuestro propio beneficio. Debemos admitir que tenemos un sesgo en nuestras creencias de cuánto es lo que entendemos y buscar las fuentes del conocimiento del que carecemos.

Internet y los medios digitales nos han creado la impresión de que tenemos el conocimiento infinito al alcance de nuestros dedos. Pero, haciéndonos más vag@s, los medios han abierto un gran espacio que la ignorancia puede llenar.

Tania Lombrozo, psicóloga de la Universidad de California, explicó en Edge cómo la tecnología incrementa nuestra ilusión del conocimiento. Ella argumenta que el modo con el que accedemos a la información sobre un tema en concreto es crítico para nuestro entendimiento y que cuanto más fácil podamos recordar una imagen, una palabra o afirmación, mayor va a ser la impresión de que lo hemos aprendido con éxito; absteniéndonos así de de nuestro esfuerzo del procesamiento cognitivo.

Los puzzles lógicos presentados en un tipo de letra un tanto feo, por ejemplo, pueden animar a alguien a hacer un esfuerzo extra para solucionarlos. Sí, efectivamente, esta aproximación va en contra de todos los principios del diseño de las aplicaciones y webs que pueblan las pantallas de nuestros Smartphones; en las que nuestro cerebro procesa la información de un modo calmado.

¿Qué hay sobre todos los comentarios y conversaciones que ocurren en el mundo online? Bien, nuestra capacidad de aprender de ellos depende de nuestras actitudes hacia los demás. El humilde intelectual no reprime, esconde o ignora sus vulnerabilidades, como lo hacen muchos trollsDe hecho, conciben sus debilidades como fuentes de desarrollo personal, y usan esas conversaciones como una oportunidad para refinar sus puntos de vista. Las personas que son humildes por naturaleza tienden a ser más abiert@s de miras y a ser más rápid@s a la hora de resolver disputas, dado que reconocen que sus opiniones pueden ser inválidas.

La psicóloga Carol Dweck, de la Universidad de Stanford en California, ha demostrado que si tú crees que la inteligencia se puede desarrollar a través de la experiencia y del trabajo duro, serás más proclive a esforzarte más a la hora de solucionar problemas difíciles, en comparación con aquell@s que piensan que la inteligencia es hereditaria e inmutable.

La humildad intelectual reside en la habilidad de preferir la verdad por encima del estatus social. Se caracteriza por un compromiso en buscar respuestas y por un deseo de aceptar nuevas ideas, incluso cuando éstas contradicen nuestros puntos de vista. Al escuchar a l@s demás, corremos el riesgo de descubrir que saben más que nosotr@s. Pero las personas humildes ven el crecimiento personal cómo una meta en sí mismo, mas que percibirlo como una herramienta para trepar por la escalera social. Perdemos mucha de la información disponible, si tan sólo nos concentramos en nosotr@s mism@s y en nuestro lugar en el mundo.

Justo en el lado opuesto reside la arrogancia intelectual, el gemelo malvado del exceso de confianza en un@ mism@. Este tipo de arrogancia emerge del sesgo egocéntrico, es decir, la tendencia de sobreestimar nuestra propia virtud o importancia, ignorando el rol del cambio o la influencia de las acciones de otras personas en nuestras propias vidas. Esto es lo que hace que nos atribuyamos los éxitos a nosotr@s mism@s y que atribuyamos los fallos a las circumstancias.

El sesgo egocéntrico tiene todo el sentido del mundo, ya que lo que mejor entendemos es nuestra propia experiencia personal. Se convierte en un problema cuando esa experiencia es demasiado frágil para formar una opinión seria, aunque la formemos igualmente. Los estudios han demostrado que las personas tienen serias dificultades a la hora de darse cuenta de sus propios puntos ciegos, incluso cuando pueden identificarlos fácilmente en l@s demás.

Desde un prisma evolutivo, la arrogancia intelectual puede ser vista como un modo de alcanzar la dominancia imponiendo los puntos de vistas de un@ mism@ sobre los de los demás. Mientras que, la humildad intelectual invierte los recursos mentales en la conversación y en el trabajo hacia un consenso del grupo.

El Centro De Desarrollo Para El Desarrollo Humano de California cuya misión es ayudar a l@s jóvenes a convertirse en adultos con éxito, está financiando una serie de grandes estudios sobre la humildad intelectual. Su hipótesis es que la humildad, la curiosidad y la apertura de mente son las claves para una vida plena. En uno de sus papers proponen una escala para medir la humildad mediante preguntas del tipo: si la humildad de las personas es inherente a ellas o depende las circunstancias. Admitir que nuestras opiniones (y las de los demás) varían en función de las circunstancias es, en sí mismo, un paso muy importante hacia la reducción de nuestra confianza exagerada de que estamos en lo correcto.

En el reino de la ciencia, si la necesidad es la madre de la invención, entonces la humildad es el padre. L@s científic@s deben desear abandonar sus viejas teorías en favor de las nuevas, y más detalladas explicaciones para mantener la innovación constante.

Much@s científic@s que han llevado a cabo descubrimientos temprano en su carrera se han visto autobloqueados por el ego a la hora de llevar a cabo nuevos avances. El filósofo W Jay Wood menciona en su fascinante blog que l@s científic@s intelectualmente humildes son más proclives a adquirir nuevo conocimiento y visión que aquellos que muestran una falta de esa virtud. Menciona que, la humildad intelectual cambia a l@s mism@s científicos de modos que les permite dirigir sus habilidades y prácticas de modos más efectivos

Albert Einstein lo sabía cuando dijo que la información no es conocimiento. Laszlo Bock, el jefe de personal de Google, está de acuerdo con ello. En una entrevista en The New York Times, afirmó que la humildad es uno de los atributos que busca en l@s candidat@s, pero que puede ser difícil de detectar en las personas de éxito ya que raramente experimentan el fallo. Sin humildad eres incapaz de aprender, denota. Suena un poco irónico, dicho por una compañía que lo ha hecho casi todo para hacer que la información parezca instantánea, constante y para picar. A lo mejor la humildad es el tipo de cosa que sólo podemos tener cuando no estamos al tanto de ella.

Buen Domingo!! 🙂


Artículo Original: “Overvaluing confidence, we’ve forgotten the power of humility” en Aeon

Cómo Aristóteles Creó El Ordenador

A menudo se cuenta la historia de los ordenadores como una historia de objetos, desde el ábaco hasta la Máquina Diferencial, pasando por las máquinas descodificadoras de la Segunda Guerra Mundial.

De hecho, se puede entender mejor como una historia sobre las ideas, principalmente ideas que emergieron de la lógica matemática, una disciplina oscura y de culto que se desarrolló por primera vez en el siglo XIX. La lógica matemática se empezó por los filósofos –  matemáticos. Los más destacables fueron George Boole y Gottlob Frege quienes, a la vez, estaban inspirados por el sueño de Leibniz de un “lenguaje conceptual” universal y por el antiguo sistema lógico de Aristóteles.

Trabajos De Leibniz

Trabajos De Leibniz

Inicialmente se consideró a la lógica matemática como una materia abstracta, sin esperanza que no tenía aplicaciones concebibles. Como un Ingeniero Informático comentaSi, en 1901, se hubiese hecho una encuesta para saber qué ciencia y que rama sería la menos fructífera durante el siglo que se estaba empezando, la elección mayoritaria hubiese sido la lógica matemática“. Cuando lo que pasó realmente, fue que se pusieron sobre la mesa los fundamentos para un campo que tendría mucho más impacto en el mundo moderno que cualquier otro.

La evolución de la informática desde la lógica matemática culminó en los años 1930 con dos papers emblemáticos:

  1. A Symbolic Analysis of Switching and Relay Circuits” de Claude Shannon
  2. On Computable Numbers, With an Application to the Entscheidungsproblem.” de Alan Turing

Shannon y Turing son dos figuras fundamentales en la historia de la informática, eso es obvio, demostrable e irrebatible. Pero lo que solemos obviar es la importancia que los filósofos y lógicos que los precedieron, aportaron a esta ciencia.

Claude Shannon

Alan Turing

Una buena historia de la informática describe el paper de Shannon como “posiblemente la más importante y notoria tesis del siglo“. Shannon lo escribió cuando era estudiante de Ingeniería Eléctrica en el MIT. Su tutor, Vannevar Bush, construyó un prototipo de ordenador llamado el Analizador Diferencial que era capaz de calcular rápidamente ecuaciones diferenciales.

Vannevar Bush y el Analizador Diferencial

El dispositivo era mayormente mecánico, con subsistemas controlados por relés eléctricos, que se organizaban en base a las necesidades del momento ya que no había aún ninguna teoría sobre el diseño de circuitos. De hecho, el tema de la tesis de Shannon nació en el momento en que Bush le recomendó probar de descubrir una teoría como esa.

El paper de Shannon es en muchos modos es el típico paper de Ingeniería Eléctrica, lleno de ecuaciones y de diagramas de circuitos eléctricos. Lo que ya no es tan usual es que la referencia principal fue un trabajo de 90 años atrás sobre filosofía matemática, Las Leyes del Pensamiento de George Boole.

Las Leyes Del Pensamiento, de George Boole

Hoy en día, el nombre de Boole es bien conocido por tod@s l@s Ingenier@s Informátic@s (muchos de los lenguajes de programación tienen un tipo de datos básico -primitivo- llamado Booleano); pero en 1938 raramente se leía su obra fuera de los departamentos de filosofía. El mismo Shannon se encontró con el trabajo de Boole en una clase de filosofía. Más tarde comentóTan sólo ocurrió que nadie era familiar con los dos campos a la vez“.

Normalmente se describe a Boole como matemático, pero él se veía a sí mismo como un filósofo, siguiendo los pasos de Aristóteles. Las Leyes Del Pensamiento” empieza con una descripción de sus metas, para investigar las leyes fundamentales del funcionamiento de la menta humana:

El diseño del tratado que sigue es investigar las leyes fundamentales de aquellas operaciones de la mente mediante las cuales se lleva a cabo el razonamiento; darles expresión en el lenguaje simbólico del Cálculo, y establecer la ciencia de la Lógica… y, finalmente, recolectar… algunos de los indicios sobre la naturaleza y la  constitución de la mente humana

Luego rinde tributo a Aristóteles, el inventor de la lógica y la influencia principal de su propio trabajo:

De un modo antiguo y académico, la materia de la Lógica se debe casi única y exclusivamente a Aristóteles. Se presentó en la antigua Grecia durante las disquisiciones del Organon, en parte técnicas y en parte metafísicas; que han seguido hasta nuestros días

El Organon

Intentar mejorar el trabajo lógico de Aristóteles era un movimiento intelectual temerario. La Lógica Aristotétila se presentó el El Organoncomentó, un libro de 6 partes, que ocupó el centro del canon de la educación durante más de 2000 años. Existía la férrea convicción que todo lo que había escrito Aristóteles era todo lo que se podía decir sobre el tema. El filósofo Immanuel Kant afirmó que, desde Aristóteles, la lógica había sido “incapaz de dar un sólo paso adelante, por lo que, en apariencia, estaba acaba y completa“.

La observación central de Aristóteles era que los argumentos eran válidos o no en base a su estructura lógica, independientemente de las palabras no – lógicas que pudiesen incluir. El esquema más famoso que discutió fue el silogismo:

  • Todos los hombres son mortales.
  • Sócrates es un hombre.
  • Entonces, Sócrates es mortal.

Puedes reemplazar “Sócrates” con cualquier otro sujeto, y “mortal” con cualquier otro predicado y el argumento continúa siendo válido. La validez del argumento viene determinada solamente por la estructura lógica. Las palabras lógicas: ‘todo’, ‘es’, ‘son’ y ‘entonces’; hacen todo el trabajo.

Aristóteles también definió un conjunto de axiomas básicos que derivaron en el resto de su sistema lógico:

  • Un objeto es lo que es (Ley de la Identidad)
  • Ninguna afirmación puede ser cierta y falsa a la vez (Ley de la No Contradicción)
  • Cada afirmación es o cierta o falsa (Ley de la Exclusión)

Estos axiomas no intentaban describir cómo piensa la gente (eso es del reino de la psicología) pero sí como debería pensar una persona ideal y perfectamente racional.

El método axiomático de Aristóteles influenció un libro aún más famoso, “Los Elementosde Euclides, del que se estima que es el segundo (siguiendo a la Biblia) en ediciones impresas.

Un Fragmento de Los Elementos de Euclides

Ostentiblemente sobre geometría, Los Elementos se convirtió en un libro de texto estándar para la enseñanza del razonamiento deductivo riguroso. (Abraham Lincoln dijo una vez que aprendió a argumentar legalmente estudiando a Euclides). El el sistema euclídeo, las ideas geométricas se representaban como diagramas espaciales.

Edición de Oliver Byrnes de 1847 de los Elementos de Euclides.

La práctica de la geometría continuó siendo así hasta René Descartes, en los 1630s, cuando demostró que la geometría se podía expresar mediante fórmulas. Su Discurso del Método fue el primer texto matemático de occidente que popularizó lo que ahora denominamos como notación algebraica: “x, y, z para variables; a, b, c para valores conocidos, etc..”

El álgebra de Descartes permitió a los matemáticos ir más allá de las intuiciones espaciales para manipular símbolos usando reglas de fórmulas definidas de un modo muy preciso. Esto cambió el modo dominante de las matemáticas; de los diagramas a las fórmulas, conduciendo, entre otras cosas, el desarrollo del cálculo, inventado más o menos 30 años antes de Descartes por Isaac Newton y Gottfried Leibniz.

La meta de Boole en respecto a la lógica Aristotélica era lo que Descartes había hecho para la geometría Euclídea: liberarla de los límites de la intuición humana dándole un notación algebraica precisa. Para poner un ejemplo simple, cuando Aristóteles escribió:

  • Todos los hombres son mortales

Boole reemplazó ‘hombres’ y ‘mortales’ con variables y las palabras logicas ‘todos’ y ‘son’ con operadores aritméticos:

  • x = x * y

Lo que se puede interpretar como: “Todo lo que hay en el conjunto x también está en el conjunto y

Las Leyes del Pensamiento crearon un nuevo campo de educación (la lógica matemática) que en los años venideros se convertiría en una de las áreas de investigación más activas para matemátic@s y filósof@s. Bertrand Russell describió a Las Leyes del Pensamiento como “el trabajo en que se descubrieron las matemáticas puras

La visión de Shannon fue que el sistema de Boole se podía mapear directamente en los circuitos eléctricos. En esos tiempos, los circuitos eléctricos no tenían ninguna teoría sistemática que gobernase su diseño. Shannon se dio cuenta que la teoría correcta seria exactamente análoga al cálculo de proposiciones usado en el estudio simbólico de la lógica“. Demostró la correspondencia entre los circuitos eléctricos y los operadores Booleanos en un simple gráfico:
Esta correspondencia permitió a l@s Ingenier@s Informátic@s importar décadas de trabajo en lógica y matemáticas y sus subsiguientes lógicos. En la segunda parte de su paper, Shannon demostró cómo la lógica Booleana se podía usar para un circuito que sumase dos dígitos binarios:

El ‘Sumador’ de Shannon

Poniendo en serie estos circuitos, se podían construir operaciones aritméticas complejas. Fueron los bloques básicos de lo que ahora conocemos como Unidades Aritméticas Lógicas (ALUs), un componente clave de las computadoras modernas y de los procesadores.

ALU

Otro modo de caracterizar el logro de Shannon es que fue el primero en distinguir entre la capa lógica y la capa física de los ordenadores. Esta distinción es tan fundamental en la informática que puede parecer sorprendente a los lectores modernos cómo de innovadora fue en su momento. Un recordatorio a la máxima: “la filosofía de un siglo es el sentido común del siguiente

Desde la aparición del paper de Shannon, un gran número de progresos se ha hecho en la capa física de los ordenadores, incluyendo la invención del transistor en 1947, por William Shockley y sus colegas en Bell Labs. Los transistores son versiones hormonadas de los relés de Shannon (el mejor modo de codificar las operaciones Booleanas).

El Transistor de 1947

En los siguientes 70 años, la industria de los semiconductores fue reduciendo los transistores a piezas cada vez. más pequeñas. Para hacernos un poco a la idea, un iPhone de 2016 tiene unos 3.3 Billones de transistores, cada uno de ellos, cambia igual que los diagramas de Shannon.

Mientras que Shannon demostraba cómo mapear la lógica en el mundo físico, Turing demostró como diseñar ordenadores en el lenguaje de la lógica matemática. Cuando en 1936, Turing escribió en su paper, estaba intentando solucionar “el problema de decisión” identificado en primer término por el matemático David Hilbert, quien preguntó si podía haber un algoritmo que fuese capaz de determinar si una afirmación matemática arbitraria era cierta o falsa.

En contraste con el paper de Shannon, el de Turing era muy técnico. Su relevancia histórica no reside en su respuesta al problema de decisión, sino en la plantilla para el diseño de los ordenadores. Turing trabajaba a la usanza de Leibniz, el gigante filosófico que desarrolló el cálculo en paralelo y a la vez que Newton, sin conocerse entre ellos. Entre todas las grandes contribuciones de Leibniz al pensamiento moderno, una de las más intrigantes era la idea de un nuevo lenguaje llamado la “característica universal“, que imaginaba, podía representar todo el conocimiento matemático y científico. Inspirado por el filósofo religioso del siglo XIII, Ramon Llull, Leibniz postuló que el lenguaje podría ser ideográfico cómo los jeroglíficos Egipicios, excepto algunos caracteres que podrían corresponder a conceptos “atómicos” de las matemáticas y de las ciencias. Argumentó que este lenguaje podía ofrecer a la humanidad un instrumento que podría incrementar la razón humana “más allá de los instrumento ópticos” cómo el microscopio y el telescopio.

Ramon Llull

Ramon Llull

Leibniz también imaginó una máquina que podía procesar el lenguaje:
Si tienen que aflorar controversias, no habrá ya más disputas entre dos filósofos que las que hay entre dos contables. Será suficiente con que cada uno coja su lápiz y diga: Calculemos“. Leibniz no tuvo la oportunidad de desarrollar su lenguaje universal o su máquina (aunque sí que inventó una calculadora simple, la máquina de Leibniz o Stepped Recknoner).

Stepped Recknoner

Stepped Recknoner

El primer intento creíble de hacer una realidad el sueño de Leibniz fue en 1879, cuando el filósofo alemán Gottlob Frege; publicó su tratado lógico BegriffsschriftInspirado por el intento de Boole de mejorar la lógica Aristotélica, Frege desarrolló un sistema lógico mucho más avanzado. La lógica que se enseña hoy en día en las clases de filosofía y de informática (lógica de primer orden o lógica de predicado) es tan sólo una pequeña modificación del sistema de Frege.

Se considera a Frege como uno de los filósofos más importantes del siglo XIX. Entre otras cosas, se le atribuye la catalización de lo que Richard Rorty (filósofo) llamó “el cambio lingüístico” en filosofía. La filosofía estaba obsesionada sobre las cuestiones del conocimiento, la filosofía después de Frege se obsesionó con cuestiones del lenguaje. Sus discípulos incluían a dos de los filósofos más importantes del siglo XX: Bertrand RussellLudwig Wittgenstein.

La mayor innovación de la lógica de Frege es que se representa de modo más preciso con la estructura del lenguaje ordinario. Entre otras cosas, Frege fue el primero en usar cuantificadores (“para todo”, “existe”) y a separar los sujetos de los predicados. También fue el primero en desarrollar lo que hoy son conceptos fundamentales de la informática como las funciones recursivas y las variables con ámbito. El lenguaje formal de Frege (lo que él llamo su “concept-script”) está hecho de símbolos sin significados que se manipulan mediante reglas bien definidas. El lenguaje tan sólo tiene significado mediante la interpretación, que se especifica de un modo separado (esta distinción acabaría siendo sintaxis contra semántica). Esto convirtió a la lógica en lo que los eminentes informáticos Allan Newell y Herbert Simon han llamado “el juego del símbolo”, “jugado con trozos sin significado de acuerdo con reglas puramente sintácticas”.

Frege

Como Bertrand Russell dijo: Las matemáticas se definirían como la materia en que nunca sabemos de lo que estamos hablando, o si lo que decimos es cierto“.
Una consecuencia inesperada del trabajo de Frege fue el descubrimiento de las debilidades de los fundamentos de las matemáticas. Por ejemplo, Los Elementos de Euclides (considerado el patrón oro del rigor lógico durante miles de años) demostró estar plagado de errores lógicos. Dado que Eúclides utilizaba palabras ordinarias como ‘línea’ y ‘punto’; él (y siglos de lectores) se engañaron a sí mismos haciendo asunciones sobre frases que contenían esas palabras. Para dar un ejemplo fácil, en su uso ordinario, la palabra ‘línea’ implica que dados tres puntos que pertenecen a una línea, uno de los 3, DEBE estar necesariamente entre los otros dos. Pero cuando definimos ‘línea’ mediante lógica formal, nos damos cuenta que ‘el estar en el medio’ también debe ser definido; una cosa que Euclides obvió. La lógica formal hace que huecos así sean fáciles de ver.

Esta noticia creó una crisis en el fundamento de las matemáticas. Si Los Elemetos (la Biblia de las matemáticas) contenía errores lógicos, ¿Qué otros campos de las matemáticas también presentaban errores? ¿Qué pasaba con aquellas ciencias construidas sobre las matemáticas, cómo la física? Las buenas noticias fueron que los mismos métodos que se usaron para descubrir estos errores, fueron los que se usaron para corregirlos. Los matemáticos empezaron a reconstruir los fundamentos de las matemáticas de abajo a arriba.

En 1889, Giuseppe Peano desarrolló axiomas para la aritmética y, en 1899, David Hilbert hizo lo propio con la geometría. Hilbert también destacó un programa para formalizar el resto de las matemáticas, con requerimientos específicos que siempre deberían verse satisfechos:

  • Complitud: debe haber una prueba que todas las afirmaciones matemáticas ciertas se puedan demostrar mediante el sistema formal.
  • Decidibilidad: Tiene que existir un algoritmo para decidir la certeza o falsedad de cualquier afirmación matemática. Este es el problema de decisión o Entscheidungsproblem referenciado en el trabajo de Turing.

David Hilbert

Reconstruir las matemáticas de modo que satisfacieran estos requerimientos se conoció como el programa de Hilbert. Hasta los 1930s fue el foco de un grupo de lógicos que incluía al mismo Hilbert, Russell, Kurt Gödel, John Von Neumann, Alonzo Church y, por supuesto a Alan Turing.

El programa de Hilbert atacaba 2 frentes.

En el primero, los lógicos creaban sistemas lógicos que intentaban demostrar si los requerimientos de Hilbert eran satisfacibles o no.

En el segundo frente, los matemáticos utilizaban los conceptos lógicos para reconstruir las matemáticas clásicas. Por ejemplo, el sistema de Peano para la aritmética empieza con una función simple llamada la función sucesor que incrementa el número dado en uno. Utiliza la función sucesor de modo recursivo para definir la suma, utiliza la suma recursivamente para definir la multiplicación, y sigue, hasta que todas las operaciones de la teoría de números se ha definido. Luego usa estas definiciones, con la lógica formal, para demostrar teoremas sobre la aritmética.

La Música de Los Axiomas de Peano

El historiador Thomas Kuhn observó que en ciencia, la novedad tan sólo emerge con la dificultad“. La lógica en la era del programa de Hilbert era un proceso tumultuoso de creación y de destrucción. Un lógico podía construir y elaborar un sistema y otro echarlo al suelo. El arma predilecta de destrucción era la construcción de autoreferencias, afirmaciones paradójicas que demostraban que los axiomas de los que se derivaban eran inconsistentes. Una forma simple de “la paradoja del mentiroso” es la frase: Esta Frase Es Falsa. Si es cierta entonces es falsa y, si es falsa entonces es cierta; conduciéndonos así a un torbellino infinito de auto contradicción.

Russell hizo el primer uso notable de la paradoja del mentiroso en la lógica matemática. Demostró que el sistema de Frege permitía derivar conjuntos que se auto contradecían:

Sea R el conjunto de conjuntos que no son miembros de sí mismos. Si R no es miembro de sí mismo, entonces su definición indica que debe contenerse a sí mismo, y si R se contiene a sí mismo entonces contradice su propia definición cómo conjunto de todos los conjuntos que no pertenecen a sí mismos

Esto se convirtió en la paradoja de Russell y fue un serio golpe en los logros de Frege. Frege, en shock por este descubrimiento contestó a Russell: Su descubrimiento de la contradicción me ha causado una gran sorpresa y, casi diría, consternación ya que ha hecho temblar la base sobre la que intentaba construir mi aritmética

Bertrand Russell

Russell y su colega Alfred North Whitehead pusieron el intento más abicioso de completar el programa de Hilbert con la publicación en 3 volúmenes de Principia Matemática entre 1910 y 1913. El método de Principia era tan detallado que necesitó de más de 300 páginas para demostrar que 1+1=2. Russell y Whitehead intentaron resolver la paradoja de Frege introduciendo lo que llamaron la teoría de tipos. La idea residía en partir los lenguajes lógicos en múltiples niveles o tipos. Cada nivel podía hacer referencia a los niveles inferiores, pero no a los niveles superiores. Esto resolvía paradojas auto referenciales, prohibiendo la auto referencia. No fue una solución muy popular entre los lógicos, pero influenció a la informática, la mayoría de los lenguajes modernos tienen características inspiradas por la teoría de tipos.

La primera explosión fue en 1931, cuando Gödel publicó su, ahora famoso, teorema de la incomplitud, que demostraba que cualquier sistema lógico consistente lo suficientemente poderoso para acompañar a la aritmética debía contener afirmaciones que son ciertas pero que no puede demostrarse que lo son.

El último toque apareció cuando Turing y Alonzo Church probaron independientemente que no podía existir algoritmo alguno que fuese capaz de determinar si una afirmación era cierta o falsa. Church lo hizo inventando un sistema totalmente independiente llamado cálculo lambda, que más tarde inspiró lenguajes de programación como LISP. La respuesta al problema de la decisión era negativa.

La visión clave de Turing apareció en la primera sección de su famoso paper de 1936: “On Computable Numbers, With an Application to the Entscheidungsproblem“. Para poder formular de modo riguroso el problema de decisión (Entscheidungsproblem), Turing creó un modelo matemático de lo que significa ser un ordenador (hoy en día, las máquinas que encajan en este modelo se les llama “máquinas universales de Turing“).

Máquina Universal de Turing

Como lo describe el lógico Martin DavisTuring sabía que un algoritmo se describe típicamente por una lista de reglas que una persona puede seguir de modo preciso y mecánico, como una receta de libro de cocina. Era capaz de demostrar que esa persona podía estar limitada a unas pocas y extremadamente básicas acciones sin cambiar el resultado final de la computación. […] Luego, demostrando que ninguna máquina que llevase a cabo tan sólo esas acciones básicas podía determinar si o no, una conclusión que sigue las premisas de Frege, fue capaz de concluir que no existía algoritmo alguno para el problema de la decisión. […] Como subproducto, encontró un modelo matemático para una máquina de computación multiuso

Lo siguiente que hizo Turing fue demostrar cómo un programa podía almacenarse dentro de un ordenador junto con los datos con los que opera. En el vocabulario de hoy en día, diríamos que inventó la arquitectura de los programas almacenados que residen bajo la mayoría de los ordenadores modernos:

Antes de Turing, la suposición general era que el lidiar con esas máquinas de 3 categorías (máquina, programa y datos) pasaba por separarlas enteramente en 3 entidades. La máquina era el objeto físico; hoy es el hardware. El programa era el plan para llevar a cabo una computación, ya sean tarjetas perforadas o cables en enchufes. Finalmente los datos eran inputs numéricos. La máquina universal de Turing demostró que la distinción de esas 3 identidades era pura ilusión

Máquina de Turing Física

Fue la primera demostración rigurosa que cualquier lógica computacional que pudiese ser codificada en hardware también se podía codificar en software. La arquitectura que describió Turing, más tarde se llamó “La Arquitectura de Von Neumann“; aunque muchos historiadores modernos están de acuerdo con que era de Turing, del mismo modo que lo reconoció el mismo Von Neumann.

Aunque, a un nivel técnico, el programa de Hilbert fue un fallo, los esfuerzos que se hicieron durante su desarrollo demostraron que grandes porciones de las matemáticas podían construirse a partir de la lógica. Y después de las visiones de Shannon y Turing (demostrando las conexiones entre la electrónica, la lógica y la computación) fue posible exportar esa nueva maquinaria conceptual al diseño de ordenadores. Durante la Segunda Guerra Mundial, todo este trabajo teórico se puso en práctica, cuando los laboratorios de los gobiernos reclutaron un gran número de lógicos de élite.

Von Neumann se unió al proyecto de la bomba atómica en Los Alamos, donde trabajó en el diseño de ordenadores dando soporte a la investigación de l@s físic@s. En 1945 escribió la especificación del EDVAC -Electronic Discrete Variable Automatic Computer- (el primer programa almacenado y basado en lógica), lo que se considera el origen definitivo de la guía para el desarrollo del diseño de ordenadores.

EDVAC (a la derecha), Von Neumann (a la izquierda) 🙂

Turing se unió a una unidad secreta en Betchey Park, al noroeste de Londres, donde ayudó a diseñar computadoras especializadas en romper los códigos Alemanes. Su mayor contribución al diseño práctico de ordenadores fue la especificación del ACE (Automatic Computing Engine)

Turing y ACE

Al ser las primeras computadoras basadas en lógica booleana y en arquitecturas de programas almacenados, el ACE y el EDVAC eran similares de muchos sentidos. Pero también presentaban diferencias interesantes, algunas de las cuales han avivado muchos de los debates modernos en el diseño de computadores.

Von Neuman pensaba que la programación de las computadoras sería un trabajo tedioso, clerical. Turing, en contraste, afirmó que la programación de ordenadores “Sería muy fascinante. No hay peligro alguno de convertirse en esclavos para muchos procesos que son mecánicos y que los puede hacer una máquina“.

Desde los años 1940s, la programación de ordenadores se ha ido sofisticando más y más. Una cosa que no ha cambiado es que aún es, básicamente (con algunas excepciones) que l@s programdor@s especifiquen las reglas que los ordenadores deben seguir. En términos filosóficos, diríamos que la programación de ordenadores ha seguido la tradición de la lógica deductiva, la rama de la lógica que hemos aprendido en este Brain Feeling, que lidia con la manipulación de los símbolos siguiendo reglas formales.

En la última década, la programación ha empezado a cambiar con la creciente popularidad del machine learning, que incluye la creación de entornos de trabajo donde las máquinas puedan aprender a partir de inferencia estadística. Esto ha llevado a la programación más cerca de otra de las ramas de la lógica, la lógica inductiva, que lidia con reglas de inferencia de instancias específicas.

Hoy en día la técnica más prometedora de machine learning es el uso de redes neuronales, se se inventaron en los 1940s por Warren McCullochWalter Pitts, cuya idea era desarrollar un cálculo para las neuronas que pudiese, cómo la lógica Booleana, ser usado para la construcción de circuitos de ordenadores. Las redes neuronales permanecieron esotéricas hasta que décadas después se combinaron con técnicas estadísticas, que les permitió mejorar a medida que se les alimentaba con más datos.

Redes Neuronales

Recientemente, dado que los ordenadores tienen grande aceptación y sostienen conjuntos de datos cada vez más grandes, estas técnicas han demostrado unos resultados recalcables.

La programación en el futuro será como exponer las redes neuronales al mundo y dejar que aprendan. Esto será en segundo acto de la historia de los ordenadores.

La lógica empezó como un modo de entender las leyes del pensamiento. Luego ayudó a crear máquinas que podían razonar de acuerdo con las reglas de la lógica deductiva. Hoy, la lógica deductiva e inductiva se combinan para crear máquinas que razonen y aprendan. Lo que empezó, en palabras de Boole, con una investigación “consistente en la naturaleza y la constitución de la mente humana puede resultar en la creación de nuevas mentes (mentes artificiales) que algún día podrán ser como las nuestras o incluso superarlas.

Buen Domingo!! 🙂


Artículo Original: “How Aristotle Created the Computer” en The Atlantic

Más Allá Del Infinito, un ensayo

En este Brain Feeling de Domingo, me gustaría aprender más sobre las matemáticas. En el artículo de hoy, aprenderemos sobre el infinito y sobre cómo es que existen infinitos más grandes que otros.

En 1883, el brillante matemático alemán Georg Cantor produjo la primera teoría rigurosa, sistemática y matemática del infinito. Fue un trabajo de genio, como no se había visto antes. También tuvo algunas consecuencias recalcables. Cantor demostró que que algunos infinitos son más grandes que otros; que podemos idear herramientas matemáticas precisas para medir esos tamaños diferentes de infinitos; y que podemos llevar a cabo cálculos con ellos.

Georg Cantor

Esto se vio como un asalto no sólo a la intuición, sino a todo el conocimiento matemático. En este Brain Feeling aprenderemos algunas de las características más importantes del trabajo de Cantor, incluyendo su resultado más importante, comúnmente conocido como el ‘Teorema de Cantor‘.

Pero antes de eso echemos un vistazo histórico a por qué su trabajo se percibió como tan iconoclasta. Finalmente, aprenderemos que esta percepción era, de hecho equivocada. Lejos de ser un ataque al conocimiento matemático, el trabajo de Cantor sirvió para corroborarlo.

La concepción estándar del infinito es que no tiene fin, que es ilimitado, inmedible e ilocalizable. Desde que las personas han sido capaces de reflexionar, han tratado al infinito con un combinación de perplejidad, desconfianza, fascinación y respeto. Por un lado, han imaginado si podemos dar sentido al infinito: No deberíamos poder, dado que su naturaleza, se escapa de nuestro alcance finito. Pero por el otro, hemos sido reacios, de hecho, incapaces de ignorarlo.

En el siglo IV a.C. Aristóteles respondió a este dilema dibujando una distinción. Él creía que hay un tipo de infinito del que no podemos tener sentido y otro que es un infinito familiar y fundamental de la realidad.

Aristóteles

Al primero le dio la etiqueta de ‘real‘. Al segundo le dio la etiqueta de ‘potencial‘. Un infinito ‘real’ es aquel que se localiza en algún momento del tiempo. Un infinito ‘potencial’ es aquel que se esparce por encima del tiempo. Si existiese un objeto físico tan grande que fuese infinito, seria un ejemplo de infinito ‘real’. Toda su infinitud estaría allí de una vez. Un reloj que hace tic-tac infinitamente, por otro lado, sería un ejemplo de infinito ‘potencial’. El tic-tac siempre estaría incompleto: no importa cuanto tiempo lleve el reloj haciendo tic-tac, siempre habrá más tics-tacs por venir.

Aristóteles pensaba que había algo inmensamente problemático, cuando no incoherente, en un infinito ‘real’. Pero también pensó que los infinitos ‘potenciales’ debían de aceptarse en cualquier proceso que nunca acabara, como el proceso de contar, el de dividir un objeto en partes más y más pequeñas o el paso del tiempo en sí mismo.

El Infinito ‘Real’

La distinción de Aristóteles fue de gran influencia. Se hace difícil exagerar su importancia en los subsiguientes estudios del infinito. Durante más de 2.000 años, tuvo más o menos el estatus de ortodoxa. Pero pensadores más tardíos, interpretaron las referencias al tiempo de la distinción ‘real/potencial’ como una metáfora de algo más abstracto. Tener una localización ‘en el tiempo’ o estar allí ‘todo a la vez’ adquirieron significados más amplios de los que tenían con Aristóteles. Finalmente, la excepción al infinito ‘real’ se convirtió en la excepción de la idea en que el infinito podría ser un objeto de estudio legítimo en las matemáticas por sí mismo. Una pista: Cantor.

Precisamente lo que Cantor hizo fue demostrar, con rigor intachable, que el infinito puede ser un objeto legítimo de estudio matemático por sí mismo. En particular, Cantor demostró que podemos acordar infinitos conjuntos grandes (cómo los números: 1, 2, 3, 4, 5, 6 etc.) e investigar las propiedades matemáticas de estos conjuntos. Al extender esto implica considerar que los miembros de esos conjuntos todos juntos, su infinito se puede concebir como estar ahí ‘todos a la vez’.

El centro del trabajo de Cantor es la idea de comparar los conjuntos unos con otros en tamaño. Ahora, podemos decir que dos conjuntos tienen el mismo tamaño si contamos sus miembros. Por ejemplo supón que estás en una reunión, y supón que que cuentas cuántos hombres hay en la habitación, luego cuentas el número de mujeres que hay en la habitación y te sale que hay 12 de cada. Luego sabes que el conjunto de hombres en la habitación tiene el mismo tamaño que el conjunto de mujeres. Pero también puedes, a veces, indicar que dos conjuntos tienen el mismo tamaño sin contar. Supón que estás en una reunión en que no sabes cuánta gente está presente, pero te das cuenta que la gente se sienta alrededor de la mesa alternando hombres con mujeres. Entonces podrás afirmar que el conjunto de hombres en la habitación tiene el mismo tamaño que el conjunto de mujeres, incluso cuando no tienes ni idea de cuántos hay de cada uno.

Hay muchos casos en los que puedes afirmar que dos conjuntos son del mismo tamaño sin estar en la posición de contar. Sabes que el conjunto de gemelos mayores que han nacido en toda la historia es del mismo tamaño que el de gemelos menores. El principio básico aquí es que, siempre que sea posible emparejar todos los miembros de un conjunto con los de otro, como el de hombres y mujeres o el de los gemelos, entonces podrás afirmar que los dos conjuntos tienen el mismo tamaño.

¿Se extiende este principio a los conjuntos infinitos? Cantor no vio ninguna razón por la que no tuviese que ocurrir. Pero aquí es cuando las cosas se ponen un poco raras.

Reconsidera el conjunto de números 1, 2, 3, 4, 5, 6, etc. Los miembros de este conjunto se pueden emparejar claramente con los miembros del conjunto de números pares: 2, 4, 6, 8, 10, 12, etc. El 1 puede emparejarse con el 2, el 2 con el 4, el 3 con el 6; y sigue. De modo que si extendemos el principio anterior a los conjuntos infinitos, entonces estaremos forzados a concluir que el conjunto de todos los números tiene el mismo tamaño que el conjunto de los números pares, incluso cuando el primero conjunto contiene todos los elementos del segundo además de los número impares.

Algunas personas reaccionan diciendo que no tiene sentido invocar comparaciones donde conjuntos infinitos están involucrados. Pero esa no fue la reacción de Cantor. Cogió esas anomalías en su seno. Aceptó que los conjuntos en cuestión (el conjunto de números y el conjunto de números pares) tenían, de hecho, el mismo tamaño. Y, eso no es tan solo curioso sino que es ultra curioso. Al fin y al cabo, a lo mejor, podemos demostrar que todos los conjuntos infinitos tienen el mismo tamaño. Si pudiésemos, no sería tan contra intuitivo: los conjuntos serían finitos, en cuyo caso la cuestión sería determinar exactamente cuánto de grandes son, o serían infinitos, en cuyo caso no haría falta contar nada. ¡Pero No! el remarcable descubrimiento de Cantor (y aquí es dónde se hace ultra curioso) es que se pueden encontrar distinciones en el caso de los infinitos. Algunos conjuntos infinitos son más grandes que otros. Un emparejamiento de la clase que hemos visto no siempre se puede hacer, incluso cundo los dos conjuntos involucrados son infinitos.

Para ver por qué no, centrémonos de nuevo en los números. No tan sólo hay infinitos números, sino que hay infinitos conjuntos de ellos. Estos son algunos ejemplos:

  • El conjunto de los números pares, que hemos estado viendo.
  • El conjunto de cuadrados.
  • El conjunto de números menores de 100.
  • El conjunto de números mayores de 100.
  • El conjunto de números divisibles por 13.
  • El conjunto de números cuyos 3 únicos factores son el 6, el 17 y el 243.

Pero es imposible emparejar todos estos conjuntos de números con los números individuales. Cantor tuvo un argumento muy ingenioso para demostrar que, siempre que se emparejan conjuntos de números con números individuales, al menos uno quedará fuera: de modo que hay más conjuntos de números que número de números individuales. El Argumento de Cantor se aprovecha del hecho en que, dado ese emparejamiento, algunos números van a pertenecer a lo que se les ha emparejado y algunos no. Imagínate, por ejemplo, que hay un emparejamiento en el que los 6 conjuntos de arriba se emparejan con los 6 primeros números:

  • 1 – El Conjunto de números pares.
  • 2 – El Conjunto de cuadrados.
  • 3 – El Conjunto de números menores de 100.
  • 4 – El Conjunto de números mayores de 100.
  • 5 – El Conjunto de números divisibles por 13.
  • 6 – El Conjunto de números cuyos factores son el 6, el 17 y el 243.

Entonces el 1 no pertenece al conjunto con el que se ha emparejado ya que no es par. Por contraste, el 3 sí que pertenece al conjunto con el que se ha emparejado, ya que es menor que 100. El 6, también pertenece al conjunto con el que se ha emparejado.

Llamemos a los números que no pertenecen al conjunto con que se han emparejado como ‘excluidos‘ y a aquellos que sí que pertenecen al conjunto con que se ha emparejado como ‘incluidos‘. De modo que 1, 2, 4 y 5 son ‘excluidos’ y 3 y 6 son ‘incluidos’. Ahora los ‘excluidos’ son un conjunto en sí mismos. Y este es el conjunto que no puede emparejarse con ningún número, éste es el conjunto que debemos dejar fuera. ¿Por qué? Bien, supón que se ha emparejado con algún número, por ejemplo el 821. En otras palabras, supón que a medida que continuamos la lista que hemos empezado arriba encontramos lo siguiente:

  • 821 – el conjunto de número excluidos.

Entonces aparece una contradicción en verso a si el 821 está excluido o no. Si lo está, entonces pertenece al conjunto de números con el que se ha emparejado (el conjunto de los números excluidos), de modo que, al pertenecer al conjunto, está ‘incluido’. Si está incluido, por otro lado, no pertenece al conjunto con el que se le ha emparejado (el conjunto de números excluidos), de modo que está ‘excluido’. No existe una respuesta satisfactoria a la pregunta de si el 821 está ‘incluido’ o ‘excluido’.

Con lo que debemos aceptar que hay más conjuntos de números que números individuales. Y de hecho, con una certificación crucial a la que volveremos, este argumento se puede aplicar a cualquier cosa que exista: hay más conjuntos de plátanos que plátanos, hay más conjuntos de estrellas que estrellas, y más conjuntos de puntos en el espacio que puntos en el espacio, más conjuntos de conjuntos de plátanos que conjuntos de plátanos, y sigue y sigue. En general (sujetos a la certificación crucial que mencionábamos) siempre hay más conjuntos de cosas de cualquier clase que cosas individuales de esa clase. Este es el teorema de Cantor.

El Teorema de Cantor

Pero, ¿qué hay sobre los conjuntos de conjuntos? ¿Hay más de estos que conjuntos? Ciertamente esto es imposible. ¿Cómo puede haber más conjuntos de algo que todos los conjuntos juntos?

Esto es una paradoja. Íntimamente relacionada con la paradoja de Russell, que toma el nombre del filósofo y matemático Bertrand Russell quien la descubrió a principios del siglo XX.

Bertrand Russell

La paradoja de Russell se basa en el hecho que, aunque un conjunto no pertenezca típicamente a sí mismo, algunos conjuntos sí que parecen hacerlo. El conjunto de plátanos, por ejemplo, no lo hace: es un conjunto, no un plátano. Pero el conjunto de cosas mencionadas en este Brain Feeling, si pueden aparecer, lo harán. La paradoja de Russell incluye el conjunto de conjuntos del concepto temprano: el conjunto de conjuntos que no pertenecen a sí mismos. ¿Pertenece éste a sí mismo? Como pasaba con la pregunta sobre el 821, no hay una respuesta satisfactoria.

Cantor estaba al corriente de estas paradojas. Pero de nuevo estaba impertérrito. Desarrolló una concepción de los conjuntos robusta y relativamente intuitiva en el que las paradojas no afloraban. En esta concepción, los miembros de un conjunto deben existir ‘antes’ que el conjunto en sí mismo: la existencia del conjunto se basa en ello. De modo que primero hay plátanos, luego hay el conjunto de plátanos. Primero hay un conjunto de plátanos, luego un conjunto de conjuntos de plátanos. Generalizando, primero están las cosas que no son conjuntos (plátanos, estrellas, etc.); y luego están los conjuntos de esas cosas (que se convierte en cosas); luego conjuntos de estas nuevas cosas; y sigue y sigue sin fin. En esta concepción, entonces, ningún conjunto pertenece a sí mismo. Un conjunto no puede existir antes que sí mismo.

Además, cada conjunto, se sucede de nuevos conjuntos a los que él mismo pertenece, conjuntos que no existían antes que él existiese. De modo que no existe un conjunto de todos los conjuntos.

Esto sortea la paradoja de Russell, ya que el conjunto de conjuntos que no pertenecen a sí mismos, si hubiese tal cosa, sería el conjunto de todos los conjuntos (ya que ningún conjunto pertenece a sí mismo). No hay nada bajo esta concepción. De modo que la pregunta de si un conjunto pertenece a sí mismo o no nunca puede aparecer.

La paradoja de la que hay más conjuntos de conjuntos que elementos individuales también queda sorteada. El teorema de Cantor tan sólo aplica cuando los conjuntos se están comparando en tamaño: esta es la certificación crucial a la que nos referíamos anteriormente. Esto hace que podamos decir que hay más conjuntos de plátanos que plátanos, ya que el conjunto de conjuntos de plátanos es más grande que el conjunto de plátanos. En contraste, no podemos afirmar que haya más conjuntos de conjuntos que conjuntos. Eso significaría que el conjunto de conjuntos es más grande que el conjunto de conjuntos. Pero no tiene sentido bajo la concepción de Cantor. Ni el conjunto de conjuntos de conjuntos o el conjunto de conjuntos existe. De modo que la pregunta a sí uno de estos conjuntos es más grande que el otro nunca va a aflorar.

Un Conjunto de Conjuntos de Plátanos

La concepción de los conjuntos involucrada aquí, es relativamente intuitiva. Pero, ¿no es también sorprendentemente Aristotélica? Hay una metáfora temporal que la sustenta. Los conjuntos se describen como empezar a existir ‘después’ de sus miembros, de modo que siempre hay nuevos por venir. Su infinito colectivo, en contraposición a cualquiera de ellos, es ‘potencial’, no ‘real’: su existencia se extiende ‘sobre el tiempo’ más que estar localizada en un punto ‘del tiempo’. Aún más, es este infinito colectivo el que tiene más derecho a reclamar el título.

Si recordamos las características del infinito que hemos visto antes sobre la concepción estándar del infinito: sin fin, sin límites, indivisable, inmesurable. Estos conceptos aplican más bien a todo el rango de conjuntos que a cualquiera de ellos. Esto se debe al gran éxito que Cantor colectó al exponer a los conjuntos individuales a un escrutinio matemático riguroso. Demostró, por ejemplo, que el conjunto de los números es limitado en tamaño. Ya que no tiene tantos miembros como el conjunto de conjuntos de números. También demostró (aunque no entró en detalles) que a esta medida se le puede dar una mesura matemática precisa. ¿No tiene sentido, entonces, en el que él estableció que el conjunto de números es ‘realmente’ finito que lo que lo que es ‘realmente’ infinito es totalmente diferente? ¿No sirvió su trabajo, al fin y al cabo, para corroborar la ortodoxia Aristotélica en el que el infinito ‘real’ no puede ser nunca presente, sino que siempre tiene que ser ‘potencial’?

Podrás objetar en base a los siguientes enunciados: para poder decir que el conjunto de numeros es infinito ‘real’ no será la variación en términos matemáticos estándares, sino también la variación, de lo que la mayoría de gente puede decir. Si a la gente le gusta hablar en estos términos, se puede decir que el conjunto de números es infinito. Pero, otra vez, la mayoría de las personas no son conscientes del trabajo de Cantor.

Tampoco dudarán en decir que es imposible que un infinito sea más grande que otro. Trata sobre cómo entienden lo que quieren decir y cómo este entendimiento, para un propósito dado, puede absorber el shock de los resultados de Cantor.

Ciertamente podemos decir que algunos infinitos son más grandes que otros, como lo hace la matemática rutinariamente hoy en día. Pero también podemos decir que el conjunto de números es finito solamente si hay alguna razón para hacerlo. Para ello, podemos ir directos a la pizarra y demostrar que, en primer lugar, no existe tal cosa como el conjunto de números, basándonos en que el coleccionar infinitamente muchas cosas en un conjunto único es una gran concesión a la concepción actual del infinito. Tarde o temprano, basándonos en la concepción de Cantor, diremos cosas en ésta línea: como mínimo deberemos admitir que no existe algo como el conjunto de conjuntos. ¿Por qué no ser preventivos?

Buen Domingo y Día del Padre!! 🙂


Artículo Original: “Infinity and Beyond” en Aeon