mdC
|
pequeño (250x250 max)
mediano (500x500 max)
grande
Extra Large
grande ( > 500x500)
Alta resolución
|
|
Rev. Acad. Canar. Cienc., XVIII (Núms. 1-2), 135-164 (2006) (publicado en agosto de 2007) Abstract CERTEZA E INCERTIDUMBRE EN ALGUNOS PERIODOS HISTÓRICOS DE LA MATEMÁTICA Nácere Hayek Universidad de La Laguna (Spain) e-mail: nhayek@ull.es Para prever el futuro de las matemáticas, el verdadero método consiste en estudiar su historia y su situación actual. HENRJ POINCARÉ In this paper sorne aspects conceming the reality and uncertainties which appear in mathematics are considered. In this respect, sorne specific historical periods are analyzed. Resumen En este artículo se reflexiona sobre la certeza e incertidumbres que se refieren a la realidad de las teorías matemáticas. A este respecto, algunos períodos históricos importantes son analizados. l. Preliminares. Es curioso que la gente se encuentre generalmente convencida de la existencia de una supuesta unanimidad entre los matemáticos en lo que se refiere al multivariado y complicado campo de su ciencia. "Nada es tan sorprendente para el lego como enterarse de que entre los matemáticos hay diferencias de opinión respecto de los principios básicos de la matemática, esto es, respecto de su significación, su aplicación y su contenido. Si además y como así ha sido, algunos eminentes matemáticos contemporáneos declaran que las habituales incertidumbres no se refieren simplemente a cuestiones limítrofes del conocimiento matemático, sino que afectan directamente a su núcleo, entonces es natural que se resquebraje completamente la general e ingenua fe en la más "absoluta" de todas las ciencias" (R. von Mises (1883-1953) 1). Por otra parte, si se trata de un entendido quien examina con atención algunas de sus áreas, le surgirán no pocas sorpresas. Se percataría, por ejemplo, de que si la geometría de Euclides resistió poco menos que Los postulados matemáticos y el entendimiento humano, SIGMA (El mundo de las matemáticas), Edit. Grijalbo, Barcelona-México, 1969, vol. 5 (p. 132). 135 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 impertérrita el transcurso de unos dos mil años, fue debido a que se fundamentara en los pilares de un poderoso método como el axiomático, en el que se excluían deliberadamente los conceptos de infinito y de infinitesimal. Desde la antigüedad el infinito ha sido considerado como una noción de la que se tenía que huir, incluso algo herética. Y sin duda es cierto, que muchos escritos han revisado el modo en que los griegos indagaron problemas cruciales que entrañaba al infinito y a los desarrollos de algunas técnicas infinitesimales, pero sería sólo al final del siglo XVII, cuando se diseñaron mecanismos precisos para abordar esa cuestión, la más espinosa tal vez, de la historia entera de las matemáticas. Debe tenerse presente que para los más grandes pensadores de la historia, desde Pitágoras (585-500 a. C.) que atribuye a los números el gobierno del universo2 y Platón (427-347 a. C.) que niega la entrada en su escuela a quien no conozca la geometría, hasta Kant (1724-1804) el gran filósofo alemán de Konisberg 3, las matemáticas siempre fueron consideradas como la rama del saber que ha ofrecido las verdades más puras e irrefutables que a los humanos les está permitido conocer; y que al unísono otorgan a la matemática una preeminencia y una excepcional solidez, que incluso los propios matemáticos acaso no se atreverían a suscribir. Ahora bien, lo que ocurriría durante los siglos transcurridos desde el primero hasta el del último de los filósofos mencionados, fue que la panorámica del mundo científico cambió notablemente, por lo que las matemáticas en particular, tuvieron que afrontar diatribas y controversias en todas sus ramas, debido a las posiciones contrapuestas que irían surgiendo entre sus cultivadores en diversas etapas cruciales de su desarrollo histórico. De hecho, y si bien los resultados de las leyes matemáticas se habían tomado persistentemente como verdaderos, muchos de los conceptos y teorías matemáticas acusaron serios rechazos, varias nociones ya descartadas en años anteriores se reincorporaron de nuevo, e incluso algunas de ellas tildadas en su momento por algunos como absurdas, llegaron a ser consideradas luego paradójicamente, base de teorías provechosas. Y lo más sorprendente y mucho más incomprensible, se produjo cuando lo que había sido constatado como no riguroso y Y quien además proclamó: "Debéis cultivar la ciencia de los números, porque todos nuestros pecados son errores de los cálculos". 3 La filosofía clásica culmina con Kant, quien ejerce una gran influencia en la filosofía matemática hasta el siglo XX. Su metafísica es continuación de la herencia platónica. El dogma principal kantiano era el del conocimiento "a priori", como por ejemplo, en el del tiempo que se basa en la intuición de sucesión, y en el del espacio que se sustenta en la geometría. En su Critica de la razón pura, Kant declara a la matemática modelo perfecto de toda ciencia racional. 136 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 contradictorio, jugara después un importante papel en la historia de nuestra área científica. Al no ser posible en este punto, dar siquiera cuenta de una visión global de todas las situaciones conflictivas que acaecieron, ya que extrapolarían sin duda los límites de estos preliminares del presente trabajo, nos vamos a ceñir a continuación solo a describir concisamente algunas partes seleccionadas de aquellas. Las iniciamos con la que consideramos más significativa e importante: la que señala el período que abriría una brecha muy profunda en los cimientos de las matemáticas, y que hizo temer por el derrumbamiento de sus partes más clásicas. Nos referimos a la controvertida etapa caracterizada por el célebre quebrantamiento que se gestó en sus fundamentos básicos, y que se conocería más tarde como crisis de fundamentos de las matemáticas. Queremos hacer hincapié en que estos acontecimientos tuvieron mucho que ver con el intento de resolución definitiva de una ardua problemática de inacabada discusión, que aún sigue requiriendo la necesidad de conocer qué clase de conceptos y métodos de demostración deberían ser aceptados por sus adeptos, ante los avances de la ciencia: la naturaleza de la verdad matemática. ¿Cómo debe ser un teorema matemático y cuál debería ser el proceso de demostración a seguir? Algunas consideraciones al respecto, son añadidas más adelante. Confiamos, de todos modos, en que las acotaciones históricas que se exponen, baste a muchos lectores para rechazar el ilusorio beneplácito de unanimidad que, según hemos advertido, tienen de los matemáticos respecto al inquebrantable campo de su ciencia. 2. La crisis de fundamentos y otros temas. Debates y planteamientos. Desde el mismísimo nacimiento de las matemáticas como cuerpo independiente de conocimiento atribuido a los griegos clásicos a lo largo de un período de más de dos mil años, los matemáticos persiguieron afanosamente la verdad y solo consiguieron el simulacro de un panorama ilimitado de certeza. Para lograr sus convincentes resultados, los matemáticos recurrieron a un método especial, que fue el de la demostración deductiva a partir de principios evidentes llamados axiomas 4 • El razonamiento deductivo al parecer, garantizaba por su propia naturaleza, que lo que deducimos es necesariamente verdad, si los axiomas constituyen 4 En la definición de clases de supuestos fundamentales, un axioma se presenta como una verdad "autosuficiente'', y un "postulado" significa un hecho tan simple y obvio que presupone su validez. 137 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 la verdad. Una lógica aparentemente impecable, con conclusiones irrefutables a primera vista 5• Sin embargo, el uso de su intuición predispuso a los matemáticos a una visión retrospectiva de su ciencia. Y la creación de extrañas geometrías y no menos extrañas álgebras, a comienzos del siglo XIX, les infundieron a duras penas, que las matemáticas propiamente dichas y las leyes matemáticas de la ciencia, no eran verdades. Quedó así al descubierto la primera de las diversas calamidades que tuvieron que sufrir las matemáticas, tras haberse reconocido que su lógica se encontraba en un estado lamentable de tristeza: insuficiente incomprensión para sus conceptos e insuficiente rigor en sus demostraciones, debido a que la intuición tuvo que reemplazar a los argumentos lógicos. La actividad más destacada en la segunda mitad del XIX consistió entonces en un movimiento indispensable hacia una rigorización de las matemáticas; y si bien en 1900 los matemáticos creyeron haber alcanzado su meta, se descubrieron, antes de celebrar su presunto éxito, unas anomalías en las matemáticas reconstruidas que viciarían de modo alarmante la lógica de estas últimas6. Sucedió, en efecto, que a finales del siglo XIX, los principios lógicos implícitos en el razonamiento matemático usual, involucraban dificultades lógicas hasta entonces inadvertidas (a las que eufemísticamente se denominó paradojas, pero que propiamente se debieron llamar contradicciones), y que se pusieron nítidamente de manifiesto, a causa de un cierto tipo (sin duda, el más importante) de ellas, el de las conocidas como "paradojas lógicas"7 , que aparecen en conexión con la teoría de conjuntos 8, llevada a un elevado grado de desarrollo por el matemático ruso G. Cantor (1845-1918) 9. La lógica deductiva proviene de lo que Aristóteles (384-322 a. C.) llamó "razonamiento silogístico". Este gran filósofo incluía, entre otras leyes del razonamiento deductivo, la "ley de contradicción" (una proposición no puede ser verdadera y falsa al mismo tiempo) y la "ley del tercio excluso" (una proposición debe ser, o bien verdadera o bien falsa"). Morris KJine, La pérdida de la certidumbre, Ed. Siglo XXI, Madrid, 1985, p. 22. 6 Para más detalles de los últimos párrafos, véase Morris Kline, ibid, cap. 1, 8-33. En matemáticas existen paradojas de tres tipos: las nacidas de proposiciones contradictorias procedentes de razonamientos falsos; las que resultan de teoremas extrafios, irreprochables desde el punto de vista lógico, mas ininteligibles para nuestra intuición e imaginación, y las paradojas lógicas que son contradicciones de la teoría de conjuntos, no resueltas a satisfacción de todos los matemáticos (E. Kasner y J.R. Newman, Paradoja perdida y paradoja recuperada, SIGMA (El mundo de las matemáticas), ibid, p. 323). 8 Las raíces de esta teoría se encuentran en antiguos documentos de Zenón y de investigaciones de Galileo, Leibniz y Bolzano. La teoría está basada en una noción primitiva de "conjunto"(que denota una colección de objetos de cualquier especie, en número finito o infinito), que imposibilita dar una definición básica precisa en términos de otras nociones más básicas. El concepto que dio Cantor (1897) de conjunto, subyacente en nuestra intuición (y en la experiencia), no tardó en asumir el papel del número natural como primera expresión de las abstracciones en la fundamentación del edificio matemático. 138 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 Lógicos y matemáticos se enfrascaron a la sazón, en un período de confusión y consternación. La lógica deductiva se había convertido en motivo de discordia. Tres grandes escuelas de pensamiento fueron creadas para tratar de resolver las contradicciones, con el fin de dejar establecida la consistencia de las matemáticas: la logicista, que establecía una tesis que equiparaba la matemática con una rama de la lógica, sosteniendo la definición de los conceptos matemáticos en términos de nociones lógicas, y la prueba de sus proposiciones como teoremas de lógica; y en la cual la construcción de la misma se canalizaba a través de un simbolismo lógico desarrollado en la monumental obra en tres volúmenes, "Principia Mathematica" (1910-1913), debida a los grandes artífices ingleses de dicha escuela, Bertrand Russell (1872-1970) y A. Whitehead (1861-194 7); la formalista, propulsada por el alemán David Hilbert (1862-1943) profooniendo que la matemática fuera formulada como una teoría axiomática 0 formal (en la que figuran los signos lógicos), escuela sustentada en el hecho de que todo el contenido de la matemática puede transformarse en principio, en un sistema formal de fórmulas simbólicas, al que se agregaría un dominio separado llamado metamatemática para justificar el sistema de fórmulas 11 ; y la intuicionista, fundada por el holandés E.L.J. Brouwer Sin embargo, la definición dada sufriría más tarde algunas matizaciones al ser mezclada con las de número y magnitud, al tratarse con conjuntos infinitos. 9 Resultó ser muy curioso que nadie, en las postrimerías del siglo XIX, cayera en la cuenta de que dicha teoría fundamentada en conceptos lógicos, planteara problemas de antinomias que cuestionaban la naturaleza de la matemática y de la lógica (hasta el extremo de que ¡ciertos conjuntos incluso finitos eran contradictorios!). Cantor partió de la aceptación franca del infinito, negado hasta entonces por los mayores analistas, y llegaría a resultados sorprendentes. Demostró, por ejemplo, la posibilidad de distinguir en el infinito matemático diversos órdenes de potencias vinculadas entre sí mediante relaciones rigurosas. Se concentró especialmente en el llamado "infinito actual o "transfinito", una clase de infinito lógico, que fue piedra angular de la creación de numerosas paradojas. Cantor también escribió sobre las implicaciones teológicas de su trabajo matemático, llegando a identificar el infinito absoluto con Dios. 10 Se admitía que cualquier disciplina matemática, como toda ciencia racional deductiva, tiene que reducirse a unos primeros conceptos que no se definen y a unas primeras proposiciones que no se demuestran. Ese esqueleto base es su axiomática. Históricamente, los orígenes de la axiomática se remontan a Aristóteles, quien había afirmado que "toda ciencia demostrativa tiene que partir de principios indemostrables; de otro modo, los pasos de la demostración serían infinitos" (véase N. Hayek, Los orígenes de la matemática moderna, Serv. Publicac. Universidad de La Laguna, 1979, para más detalles). 11 La metamatemática hilbertiana pretendía acabar del todo con el escepticismo (F.P. Ramsey, Mathematical Logic, Mathematical Gazette, 13, 185-19'4, 1926). Su objetivo era pues, idéntico al de los logicistas (Imre Lakatos, Matemática, ciencia y epistemología, Ed. Alianza Universidad, Madrid, 1981, p.36). Lakatos en la introducción de su obra Pruebas y refutaciones (Ed. Alianza Universidad, Madrid, 1976) ataca al formalismo definiéndolo 139 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 (1881-1966), una doctrina que considera matemática genuina sólo la dada por nuestra intuición y que puede ser obtenida por una construcción finita a partir de ciertos objetos primitivos (escuela que, en unión de otros matemáticos con puntos de vista próximos, constituyeron el grupo de Jos "constructivistas"). Cada una de estas corrientes filosóficas de controversia de los primeros años del siglo XX, logicismo, formalismo e intuicionismo, logró estampar su huella en forma de determinado programa de investigación matemática, legando su propia contribución al cuerpo de Ja matemática misma. Tras su análisis sobre las precedentes escuelas de pensamiento, R. von Mises 12 concluiría que "ninguna de las tres formas de fundamentación de la matemática fue capaz de racionalizar completamente la relación entre los sistemas tautológicos y las experiencias ( extramatemáticas ), esto es, ninguna estaba capacitada para hacer de esa relación una parte del sistema matemático mismo". Después de disputar enconadamente unas con otras durante unos treinta años, configuraron una historia que culminaría en la década de los 1930 con la definitiva destrucción del sueño de Fausto de todo matemático: probar que su ciencia se encuentra libre de contradicciones. Sería en 1931, cuando un joven matemático de escasamente 25 años llamado Kurt Godel (1906-1978), quizás el lógico más grande de la historia, destruyera la inexpugnabilidad de la verdad matemática con un teorema de incompletitud que mostraba la "imposible codificación de la matemática'', es decir, que rompiera el espejismo de la verdad matemática 13 . Mediante su teorema, Godel estableció que existen verdades matemáticas imposibles de demostrar en el marco axiomático en que se sitúan 14• Además, las discrepancias habidas, como escuela que tiende a identificar Ja matemática con su abstracción formal abstracta, y a la filosofia de la matemática con la metamatemática. R. Camap en su The logical sintax of language (New York y Londres, 1937; traducción Springer, 1934) dio una enunciación más clara de la posición formalista requiriendo que Ja filosofia se sustituyera por Ja lógica de Ja ciencia, que no es otra cosa que la sintaxis lógica del lenguaje científico. Muchos lógicos después de Camap, opinaron que la lógica se ha de ocupar de la transmisión de la verdad y no de cadena de símbolos. 12 SIGMA, 5, ibid, p. 142. 13 Hilbert ni siquiera logró sospechar que Godel con su famoso resultado de " indecibilidad" devastaría Ja proclamación de fe de aquel, en cuanto a que en matemáticas no podía haber un ignorábimus. Lo que había hecho Hilbert a partir de 1904, fue propulsar y desarrollar un nuevo método para abordar las cuestiones de no contradicción y más generalmente, examinar "a priori" el alcance que podían tener las demostraciones matemáticas (iniciando así la metamatemática o "teoría de la demostración"). Y lo que hizo Godel, empleando el mismo lenguaje de Hilbert, fue demostrar que en matemáticas siempre habrá un ignorábimus. 14 El terrible trallazo que asestó el teorema de Godel a la esperanza de Hilbert, arrojaba la conclusión de que las matemáticas no podían ser encadenadas por la lógica, dejando 140 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 previo a los avances de la lógica, conllevaron también consecuencias notables en torno a varios conceptos, entre ellos el de conjunto 15• Hay que agregar de todos modos, que el análisis de Godel dio lugar a otras axiomatizaciones de la teoría de conjuntos, que no excluía Ja existencia de una demostración matemática de la consistencia de la aritmética16 • Sobresaldría la creación de una cuarta escuela emprendida por E. Zermelo (1871-1953) a raíz de un trabajo suyo de 1908, compuesta por los conjuntistas que siguieron a Cantor, quienes pensaron que con la incorporación de unos fundamentos axiomáticos eliminarían las paradojas de sus teorías 17. Una teoría que se llamó usualmente de Zermelo-Fraenkel, tras ser perfeccionada por A. Fraenkel (1891-1965) algunos años más tarde ( 1922). Se debe destacar, por último, la axiomatización de P. Bernays (1888-1977), que contenía dos modificaciones: la inclusión de un formalismo-clase en el sistema y la fusión de los axiomas conjuntistas con los de un cálculo lógico. Esos cambios produjeron un nuevo sistema que prevaleció por su mejor elaboración y que fue denominado de Bemays-sentado que la aritmética y, a fortiori, la ciencia matemática es una teoría incompleta. Esto venía a significar nada menos que lo siguiente: Dado un conjunto cualquiera de axiomas, que incluya los axiomas de la aritmética, no existe ningún proceso de demostración con fuerza bastante que nos permita probar que tal conjunto sea simultáneamente consistente y completo. Es decir, si fuese completo, tendrá que ser autocontradictorio, y si no contiene contradicciones, existirán siempre enunciados matemáticos verdaderos que no pueden derivarse de dicho conjunto. 15 Los debates en torno a la definición de conjunto (un concepto que se reveló como fundamental para toda la ciencia matemática) suscitaron, tanto entre los filósofos como entre los científicos, sutilísimas observaciones cuyo desarrollo fue indispensable para una revisión general de la lógica formal. 16 Pruebas matemáticas de este tipo fueron construidas principalmente en 1936 por G. Gentzen, miembro de la escuela de Hilbert, haciendo un intuitivo uso de la inducción transfinita hasta un cierto ordinal numerable. En términos groseros, téngase en cuenta que en la aritmética de los conjuntos infinitos (o aritmética transfinita), las nociones de número cardinal y ordinal se separan la una de la otra en lo infinito y en ese dominio, la parte puede ser igual a un todo. En base a lo hecho por Cantor, hay infinitos mayores que el infinito del conjunto N de los números naturales (por ejemplo, el del conjunto R). Esto dio lugar precisamente, al famoso problema de Hilbert de la hipótesis del continuo, sobre la imposibilidad de hallar ningún conjunto con más elementos que N y con menos que R. 17 Esta axiomatización de la teoría de conjuntos tuvo como base principal el conocido como "axioma de elección". El axioma afirma que "en una colección arbitraria de conjuntos, finita o infinita, es posible elegir un elemento de cada uno de ellos. Para el caso finito, es trivial; pero para una colección infinita, la elección de un elemento de cada uno empieza por ser fisicamente imposible; aunque desde el punto de vista intelectual, a veces parece razonable y en otras, no (obsérvese que el axioma habla de que es posible elegir un elemento, pero se abstiene de decirnos cómo, o sea, la manera de efectuar la operación). 141 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 Godel 18 • El tratamiento de Bemays-Godel presentaba toda la matemática pura como una extensión de la teoría de conjuntos y fue usado como base de estudio de estructuras cada una de ellas caracterizada por un conjunto de axiomas. Ha sido desde entonces tan importante para las matemáticas mismas como para la filosofia matemática. Decididamente, alrededor de 1975, la actitud filosófica predominante llegó a ser el formalismo de Hilbert, quien había dejado definida a la matemática como la ciencia de la prueba rigurosa, y a los matemáticos convencidos de que todas las verdades matemáticas se podían demostrar por deducción 19• Es preciso añadir que en ese marco diseñado por el creador del formalismo, los lógicos contemporáneos lograron deducir una serie de resultados inesperados (sobre todo para una nueva idea de conjunto), si bien no respondían del todo al optimismo exagerado de aquel 20. El modo de "hacer matemáticas", propuesto por Hilbert, se asemejaba mucho a un juego (lógico), que lo único que exigía era que no condujese a contradicción (o sea que no se pueda probar a la vez, a partir de axiomas, un teorema y su negación) . Por ello, "muchos matemáticos reaccionaron al no quedar satisfechos con un punto de vista que les prohibía hablar de la "verdad", si se atenían estrictamente a la noción de "demostrable" a partir de un sistema de axiomas 21 ". Como consecuencia, el razonamiento evidenció sus limitaciones e hizo olvidar definitivamente el sueño de unas matemáticas totalmente deducibles de la veracidad de sus primeros principios. La teoría de Bemays-Godel sería a la postre utilizada, en la segunda mitad del siglo XX por algunos matemáticos como fundamento base sobre el que construir todas las matemáticas, en una teoría más general y eficaz para la 18 Esta teoría de Bemays-GOdel puede verse en la obra Axiomatic set theory (P. BemaysA. A. Fraenkel, Ámsterdam, 1958). 19 Una razón del dominio del formalismo procede de su conexión, durante los decenios 1940 y 1950, con la corriente filosófica del "positivismo" (lógico) del que formaría parte L. Wittgenstein (1889-1951), H. Hans (1879-1934) y también GOdel, para quien la premisa principal de aquella corriente era, que lo que no es verificable empíricamente no tiene sentido. La llamada "escuela de Viena" de positivistas lógicos abogaba por una ciencia unificada, codificada en un cálculo lógico formal y con un único método deductivo. (P. Davis y R. Hersh, The Mathematical Experience, Birkhauser Boston, 1981 , p. 342). 20 En una fuerte reacción contra la posición radical de los intuicionistas (quienes propusieron el sacrificio de toda una parte del análisis matemático clásico), Hilbert se propuso dar unas indiscutibles bases para establecer rigurosamente la imposibilidad de que un razonamiento sustentado sobre las mismas, jamás pudiese conducir a una contradicción: la de unos fundamentos lógicos de todas las teorías- en particular, de la aritmética- y las de no-contradicción de estas teorías. Una intuición que arrastró a Hilbert a unas esperanzas que fueron tildadas de exageradas (J. Dieudonné, En honor del espíritu humano, (Hachette, 1985, Alianza Edit., Madrid, 1987, Cap. 6, D). 21 J. Dieudonné, ibid. 142 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 edificación del análisis y la geometría. La exposición matemática formalista que ejerció mayor influencia fue la del grupo Bourbaki de matemáticos franceses, en las décadas 1950, 1960 y 1970 con su extraordinaria obra de varios volúmenes Eléments de Mathématiques, (París; el primero de ellos publicado en 1939), una serie de temas básicos de teoría de conjuntos, álgebra y análisis. En la obra se incorporaron el axioma de elección y la ley del tercio excluso, si bien obtenidos mediante la técnica de Hilbert (renunciando a Frege, Russell y Brouwer). La obra tuvo una tremenda repercusión en el mundo matemático de la época, en la que el estilo formalista se convirtió en la actitud filosófica predominante en libros de texto y demás obras matemáticas; llegando a calar en la enseñanza de los primeros ciclos universitarios y finalmente, invadiendo con el papel de matemática moderna hasta en la enseñanza escolar. "La acusada sumisión de los Eléments al método axiomático, permitió a Bourbaki adoptar una actitud "realista" para los fundamentos de la matemática que le ayudaría a enfrentarse con seguridad con las contradicciones que pudiesen ocurrir en el futuro, al igual que con las que comparecieron en el pasado" 22. Para atenemos a una mejor interpretación del precedente período de confusión, es necesario añadir algunos de los antecedentes que influyeron sobre las tres corrientes filosóficas de controversia que acabamos de describir; además de realizar, por otra parte, un examen algo más atento de estas últimas 23• Digamos ante todo que el grupo que tuvo mayor influencia desde hace siglos en esas corrientes, fue el del platonismo encabezado por Platón, cuya posición filosófica subraya la intuición, convirtiéndola en una facultad indispensable (aun a sabiendas de que le imposibilitara analizar la intuición matemática), y en el que las ideas matemáticas más sencillas se encuentran ya implícitas en el pensamiento corriente de la vida cotidiana. Como señalan P. Davis y R. Hersh 24 , "a priori, Ja propia palabra intuición comporta misterio y ambigüedad ( ... ) y a veces, representa una noción escurridiza que simula ser una sustituta ilegítima y aventurada de la 22 Véase G.T. Kneebone, Mathematical Logic and thefoundations of mathematics", Van Nostrand Co. Ltd. (London, 1965). 23 Las raíces de la filosofía de las matemáticas y de las matemáticas mismas, se encuentran inmersas en la Grecia clásica. Para los griegos, la matemática significaba geometría y la filosofía de las matemáticas que podemos encontrar en Platón y Aristóteles es la filosofía de la geometría. La idea que Platón tenía de la geometría desempeñó un papel clave en su concepción del mundo. Desde una perspectiva científica actual, Ja prevalencia de un platonismo generado tácitamente como posición filosófica informal significó, no obstante, una notable anomalía. 24 The Mathematical Experience, ibid, cap. 8. 143 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 demostración rigurosa". Dichos autores mantienen, por otra parte, que todas las concepciones filosóficas habituales se basan fundamentalmente en una cierta noción de intuición, aunque ninguna de ellas intenta explicar la naturaleza y significado de la intuición que postulan. Y añaden que si bien el examen de la intuición en la realidad conduce a un concepto dificil y complejo, aquella no es inexplicable ni mucho menos no analizable. Por ello y como conclusión, resumieron que en toda exposición histórica de fundamentos de las matemáticas, estos últimos asertos se interpretaron generalmente como dogmas de concepciones filosóficas del que se llamó platonismo (o realismo), del formalismo y del constructivismo25 • Según la concepción platónica, los objetos matemáticos son reales y no entes construidos por nosotros mismos. Su existencia es un hecho objetivo absolutamente independiente del conocimiento que de ellos tengamos26. Los principales oponentes a la tesis intuicionista, desde la aparición de esta escuela, fueron los de la escuela formalista de Hilbert y sus seguidores, para quienes la interpretación platónica no tiene sentido alguno 27. En el formalismo no existen objetos matemáticos. Lo único que cuenta son las reglas del juego, o sea, inferencias mediante las cuales son transformadas unas fórmulas en otras (fórmulas que no se refieren a nada y que no son más que cadenas de símbolos). Su matemática consiste estrictamente en axiomas, definiciones y teoremas. El formalismo contemporáneo es descendiente del hilbertiano, si bien no es justamente lo mismo. Hilbert creía en la realidad de las matemáticas finitas y en su metamatemática para justificar las matemáticas de lo infinito. Para el formalista la matemática se concibe como la ciencia de la demostración rigurosa. Para él, o se tiene demostración o no se tiene nada. Además de los intuicionistas y formalistas, 25 Es de interés advertir, que dichas concepciones obviaron las diferencias de las posibles versiones distintas que hubieron de las mismas. Véase P. Davis y R. Hersh, ibid, caps. 7 y 8, para más detalles. 26 El llamado mundo de la experiencia (según Platón), nada tiene de real. Somos como moradores de una cueva, que perciben las sombras del mundo exterior y confunden las sombras con los objetos reales (La República). Los matemáticos platónicos son auténticos empiristas ("salvo el conocimiento matemático, todo conocimiento es fruto de la observación"), quienes no solían ocuparse de explicar de donde procede el conocimiento matemático. Objetos matemáticos como los conjuntos infinitos, curvas que llenan todo el espacio, ... , se hallan fuera del espacio y del tiempo, no son ni físicos ni materiales. En el platonismo, nada se puede inventar, todo está ya presente y todo cuanto pueden hacer es descubrir. 27 La diferencia esencial entre forma listas y platónicos se encuentra en las cuestiones de existencia y realidad, que se evidencia, por ejemplo, claramente en la hipótesis del continuo de Cantor. 144 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 se suele citar también a los logicistas28 como la otra escuela importante en la controversia de los fundamentos de la matemática. Finalmente, los constructivistas (descendientes del credo idealista platónico), se opusieron a ambas corrientes. Siguiendo a Brouwer, el constructivista considera que los números naturales nos son dados por una intuición fundamental como punto de arranque de todas las matemáticas. Sus matemáticas están fundadas constructivamente sobre los números naturales, a los cuales no es necesario reducirlos a otra noción más básica. Tras las fuertes disputas y controversias habidas con las otras dos corrientes, y una vez que quedaron, en la segunda mitad del siglo XX, abandonados el logicismo de Whitehead y Russell y derrocado el formalismo de Hilbert por el teorema de Godel, el promotor Brouwer del constructivismo, permaneció aislado en Ámsterdam predicando su dogma e ignorado mayormente por el mundo matemático. Su constructivismo quedaría entonces reducido poco menos que a una herejía, a la que sólo se adhirieron algunos proselitistas, sin encontrar demasiado eco en la comunidad matemática. De cualquier manera, no se puede obviar el hecho de que matemáticos eminentes formaran parte de a~uellas escuelas (o sólo de algunas de ellas) en el período de la controversia 9.Y en definitiva, 28 Los primeros logicistas, Frege y Russell, que creían que la lógica era un conjunto inexorable de verdades, tuvieron a la larga que retroceder de su posición, ante las muchas críticas sobre su programa. En 1937 Russell ya no estaba convencido de que los principios de la lógica constituyeran verdades a priori confiando en una lógica más bien refinada para asegurar los fundamentos; y la escuela intuicionista consiguió sobre todo que no se sostuviera su pretensión de que las matemáticas no eran sino lógica, porque ello no significaba otra cosa que una inmensa tautología. (Morris Kline, La pérdida de la certidumbre, ibid, cap. 1 O). 29 Por ejemplo, matemáticos enteramente platónicos lo han sido René Thom ( 1923-2003 ), y Kurt Godel (un verdadero convencido de que, además del mundo de los objetos, existe el de los conceptos al que los humanos acceden por intuición). Situado en un mundo geométrico de ideas, el primero escribe en 197 l (Modern mathematics: An educational and philosophical error?, Amer. Sci., 59) "los objetos matemáticos son reales( ... ) y las formas matemáticas tienen existencia independiente de la mente que las contempla", y Godel sumido en el universo de la teoría de conjuntos, afirma "no veo razón alguna en confiar menos en la intuición matemática que en la percepción de los objetos a través de los sentidos" (What is Cantor's continuum problem"?, Philosophy of Mathematics, PrenticeHall, N.J., 1964). Formalista lo fue H. Poincaré (1854-1912), cuando expresaba que"( ... ) admito que las matemáticas constituyen una ciencia deductiva que simplemente deduce las implicaciones de los axiomas( ... ) se construyen geometrías euclídeas o no euclídeas, cuyos axiomas y teoremas no son verdades empíricas ni a priori ( ... ). No son ni verdaderas ni falsas( ... ) utilizamos la geometría que resulta más cómoda" (Véase M.Kline, La pérdida de la certidumbre, ibid, cap. 1 O). La postura intuicionista sobre la lógica sería drástica. H. Weyl (1855-1955), discípulo de Brouwer (y alumno más dotado de Hilbert), decía en una crítica a los logicistas, "de nada, nada se sigue"; y también en un análisis sobre los transfinitos de Cantor los describía "como una casa construida en la arena"( ... ) "y sólo se 145 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 quienes defendían las tesis de sus concepciones filosóficas dejaron a muchos más bien desconcertados y sumergidos en un mar de dudas30. Ello impulsa a preguntarnos, de una vez por todas, ¿qué requirieron o han requerido en realidad, de la intuición, aquellas tres actividades filosóficas? Ya hemos dicho que la intuición provocó nada menos que la dificultad de exigir que las matemáticas fueran infalibles, exigencia que fue afrontada por las dos filosofias, la del formalismo y la del platonismo. También hemos de ponderar que, ya desde el siglo XVII, una buena parte de grandes matemáticos tuvieron una gran fe en la intuición y bajo una concepción amplia del término defendieron el intuicionismo. Asimismo y por último, el constructivista Brouwer (que también fue un consciente seguidor de Kant y de la filosofía idealista en general), sabía igualmente hasta qué medida podía confiar en la intuición, hasta tal punto que creó disensiones entre sus seguidores y al final alegó fundarse sólo en una intuición universal e inconfundible (P. Davis y R. Hersh, ibid, caps. 7 y 8)31 • "¿Porqué debemos puede estar seguro de lo que se establece con métodos intuicionistas" (Vease R. Hersh, Sorne proposals for reviving the philosophy of mathematics, Advances in Mathem., 31, 31- 50 ( 1979) ). Por otro lado, A. Robinson, del que nos ocuparemos seguidamente, no es partidario de esa filosofia y declara que "no puede imaginarse el credo platónico ( ... ) viendo extenderse ante sí el mundo del infinito actual, convencido de poder comprender lo incomprensible". 30 En su mayoría los que han escrito sobre el tema, opinan que el matemático en activo es platónico entre semana y formalista los domingos (una irónica expresión que quiere expresar que el matemático típico es simultáneamente platónico y formalista, un platónico que en secreto se pone la máscara formalista, cuando la ocasión lo requiere; mientras los constructivistas representan una especie rara" (P.Davis y R.Hersh, ibid, p. 322). "En lo tocante a los fundamentos, estamos convencidos de la realidad de las matemáticas, salvo claro está, que cuando los filósofos nos atacan con sus paradojas, nos parapetamos tras el formalismo" (J. Dieudonné (1906-1992), The work of Nicho/as Bourbaki, Amer. Math. Monthly, 77 (1970), p. 145). "Para el matemático medio que sólo pretende estar seguro de que su trabajo tiene fundamentos precisos, la elección más atractiva es evitar dificultades recurriendo al programa de Hilbert" (P.J.Cohen (1963), Axiomatic set theory, Amer. Math. Soc., D. Scott Ed. (1971). 31 En una concepción amplia del término, el intuicionismo fue defendido por Descartes y Pascal. R. Descartes (1596-1650) en sus Reglas para la dirección de la mente, entendía la intuición como "lo que una mente atenta concibe( ... ) de modo evidente a la luz de la sola razón, por ser más simple que la deducción misma ( ... ) pero los propios principios primarios, sólo se pueden conocer por intuición, y las consecuencias remotas sólo por deducción". Y también B. Pascal (1623-1662) en la última etapa de su vida, se inclinó por la intuición como la fuente de todas las verdades. Suya fue la famosa declaración "el corazón tiene razones que la razón no conoce". Asimismo L. Kronecker, un precursor del intuicionismo moderno, rechazaba los conjuntos infinitos y los números transfinitos, ya que sólo aceptaba el infinito potencial (así, el conjunto N de números positivos es potencialmente infinito, y el conjunto R de reales visto como una totalidad existente, es un infinito actual). Otro matemático intuicionista H. Lebesgue (1875-1945) decía en 1928: "La 146 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 presuponer un ente ideal de entes matemáticos existentes en sí?'', preguntan los constructivistas, "para nosotros existen solamente estas figuras, en cuanto constituyen el claro resultado de construcciones (espirituales) que efectúa el hombre". En definitiva, nos hemos quedado sin saber qué línea de pensamiento ha de conllevar la verdad. ¿Se crearán nuevos conceptos o se hallan aún ocultos? Otro importante episodio de debates a destacar, corresponde al transcurrido un par de siglos antes, desde el descubrimiento del cálculo infinitesimal por I. Newton (1642-1727) y G.W. Leibniz (1646-1716). En pleno auge de dicho cálculo, los planteamientos lógicos del obispo y matemático G. Berkeley expuestos en The Analyst (1974) constituyeron una brillante y a la par, devastadora crítica del método infinitesimal que no pudieron ser debidamente contestados32 . En un principio, los incruentos ataques de Berkeley contra los infinitésimos (números infinitamente pequeños y, sin embargo, mayores que cero), no fueron tomados en consideración. Las dificultades que se presentaron pudieron ser aparentemente sorteadas, formulando una reconstrucción del cálculo infinitesimal sobre la base de una noción de "límite'', cuya definición (concretada en épsilon-delta) equivalía a la reducción del cálculo a la aritmética de los números reales. Una dificil situación paradójica se originó a la sazón, aunque no consiguió impedir a matemáticos, físicos e ingenieros, que siguieran practicando el uso de infinitesimales decenas de años más tarde, incuestionablemente con gran éxito. Lo ocurrido en realidad fue que la noción de límite no había quedado plenamente asegurada con la definición dada por A. Cauchy (1789- 1857)33 y tuvo que reemplazarse por otra mejor precisada y reformulada por K. Weierstrass (1815-1897), y que ponía en evidencia que se podría prescindir absolutamente de lo infinitesimal. Una serie de trabajos de diversos matemáticos culminaron al respecto, ya en el siglo XX, una innovadora teoría que resucitaba y legitimaba a los infinitésimos, un concepto aparentemente expulsado del ámbito matemático en el siglo XIX. lógica puede hacernos rechazar algunas demostraciones, pero no puede hacernos creer en ninguna" (véase M. Kline, ibid, cap. 1 O y 14, para más detalles). 32 La lógica de Berkeley no admitía réplica. Decía Berkeley: "¿qué son estas fluxiones? Velocidades de incrementos que desaparecen. Y ¿qué son estos incrementos que desaparecen? Ni cantidades finitas, ni infinitamente pequeñas, ni nada. ¿No sería mejor llamarlas fantasmas de cantidades difuntas?". Newton no respondería a las críticas, si bien Leibniz sí lo hizo en un artículo que comenzaba afirmando que los "infinitésimos no son números reales", sino ficticios, que están gobernados por las mismas leyes que los números ordinarios (véase M. Kline, ibid, cap. 6). 33 Las definiciones de Cauchy de límite y continuidad fueron correctas en lo esencial, pero el lenguaje que utilizó era, no obstante, vago e impreciso. 147 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 El más importante de los que contribuyeron a reavivar la noc10n de infinitesimal fue el lógico matemático Abraham Robinson34 (1918-1974), quien en la década de los 1960 introdujo un nuevo sistema llamado análisis "no estándar", interesante proceso que se afianzaría positivamente en la ya secular contienda inacabada entre lo finito y lo infinito, entre el continuo y lo discontinuo. Este análisis desarrollaba una teoría consistente (usando infinitésimos), que con la introducción de unos llamados números hiperreales y mediante un método axiomático, permitió a Robinson definir con rigor un conjunto R *, que incluyera al conjunto R de los viejos números reales y a los infinitésimos. Los infinitésimos35 , en este caso, representan números fijos, no variables en el sentido de Leibniz ni variables que se aproximan a cero, que es el sentido con el que Cauchy utilizaba el término36. En el análisis no estándar se introducen nuevos números infinitos, que son los recíprocos de los infinitésimos, pero no los números transfinitos de Cantor. Además, todo número hiperreal finito r es de la forma x+r¡, en donde x es un número real ordinario y r¡ es un infinitésimo. Un infinitésimo "positivo" es menor que cualquier número real ordinario positivo, pero mayor que cero; análogamente, un infinitésimo "negativo" es mayor que cualquier número real negativo, pero menor que cero. "El análisis no estándar facilitó una alternativa del análisis clásico que pudo, no obstante, conducir a enfoques divergentes e incluso contrapuestos. De cualquier modo, lo que fuera considerado ilógico y desterrable, sería luego aceptado por algunas escuelas corno lógicamente sólido" 37 . El análisis no estándar puso de manifiesto muchas y sorprendentes aplicaciones, en especial de la lógica matemática en intrincados problemas del análisis, así como en la teoría de procesos estocásticos, en la teoría de grupos, en técnicas sintácticas (en particular, la aplicación del método ITS de E. Nelson, para una extensión de la teoría de conjuntos de ZermeloFraenkel), .... Fue notorio e instructivo por otra parte que, además de los números hiperreales de Robinson, el campo de las matemáticas se viera enriquecido 34 Véase Non Standard Analysis, Ámsterdam, North-Holland Pub!. Co.;Elsevier,N. York, 1974, ed. rev. 35 En el análisis no estándar, cuando se habla de la existencia de los infinitésimos no es en el sentido que Berkeley hubiera dado a dicha noción. 36 En realidad, fue la noción de lenguaje formal la que facilitó a Robinson enunciar con rigor lo que, según Leibniz, se podía razonar sin error, como si los infinitésimos no existiesen. El planteamiento de Robinson consiguió eludir con éxito, la cuestión que tanto encendió a Berkeley y a otros polemistas del siglo pasado, a saber, si las magnitudes infinitesimales existían de verdad en algún sentido positivo. Véase Davis y Hersh, The Mathematical Experience, ibid, cap. 5, p. 254. 37 M. Kline, La pérdida de la certidumbre, ibid, p.334. 148 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 en la segunda mitad del siglo XX, con un buen número de ideas y aportaciones nuevas, ciertamente interesantes. Entre las nociones que se introdujeron, figuran conceptos tan extraños como los números surreales de J. Conway38 y los monstruos de Fisher39, entre otros. Esas innovaciones se incorporaron a la ya multisecular disyuntiva histórica: ¿Existían esas nociones antes de que el investigador las descubriera o fue él mismo quien realmente las había creado? Otra importante discordia en la evolución de las matemáticas, se planteó en uno de los más arduos problemas pendientes que se había originado en Ja teoría de grupos de su rama del álgebra. Fue tal el grado de desarrollo en las postrimerías del siglo XIX de la teoría de grupos finitos, que la meta esencial en esa área llegó a ser el afán de lograr una "clasificación completa de los grupos finitos simples". Para hacerse una idea clara y comprensiva de ese problema 40, a un científico no especializado se le requeriría tener cierta base matemática; y sobre todo saber de antemano, que la clave fundamental para comprender todas las clases de grupos, sería la de asimilar bien el concepto de grupos simples, un calificativo bastante desafortunado que induce a pensar que significa fácil, cuando sucede todo lo contrario. Recordemos brevemente algunos conceptos. La noción de "grupo" matemático fue introducida por E. Galois ( 1811- 1932) y constituye una de las más sencillas estructuras matemáticas abstractas. Un grupo G se define formalmente como un conjunto de elementos que, junto con una operación, permite combinarlos. Muchos grupos constan de un número infinito de elementos; como el conjunto formado por los números enteros, provisto de una operación, la adición, por ejemplo, que constituye un grupo que combina dos elementos y produce un tercero. La operación (o regla de composición), en este caso Ja adición, puede adquirir una forma más general. Con más precisión, por grupo se entiende un conjunto arbitrario no vacío, con una operación binaria que 38 J.H. Conway (1976) no sólo obtiene con sus números surrealistas una definición del número oo como infinito potencial, sino que deduce la fantástica ecuación oo = ~ que enlaza mágicamente al infinito potencial oo, al más simple infinito actual w y al infinito absoluto n. 39 El descubrimiento por Z. Janko (1965) de un extraño grupo con 175.560 elementos, que promovió la teoría moderna de grupos esporádicos, del que forma parte el conocido como "monstruo" de Fisher (de orden aprox. 8 x 1053) , tuvo la virtud de impregnar de un halo de misterio a la naturaleza de los grupos simples, de los que hablaremos más adelante. 40 Para más detalles sobre el problema, véase N. Hayek, El monstruo algebraico, Rev. Acad. Canar. Cienc., XV (Núms. 1-2), 131-146 (2003). 149 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 satisface un sistema de axiomas 41 • Esa regla de composición de elementos en un grupo, es también satisfecha por muchos sistemas de tamaño finito. Tales sistemas se denominan grupos finitos. Cualquiera de ellos tiene sólo un número finito de elementos, número que representa su orden. Un subgrupo K de un grupo G, es un subconjunto de G que hereda la estructura de grupo de la operación en G. Un estudio sistemático se hizo de toda la teoría de los grupos, tanto finitos como infinitos, y de sus posibles generalizaciones y aplicaciones. Una primera conclusión que se reveló como indispensable para la posterior clasificación, fue la de que un grupo finito G puede descomponerse en grupos "simples", básicos para comprender su estructura e imposibles de descomponer en unidades menores de la misma naturaleza 42. De este modo, en el contexto de los grupos finitos, el objetivo fundamental consistió entonces en la determinación de grupos finitos simples 43 , que se refieren a muchos de los grupos clásicos de matrices sobre campos finitos. Por otra parte, en la clasificación se incluirían también más tarde, otros grupos finitos llamados "esporádicos", debido a que fueron descubiertos con métodos específicos que conllevaban ideas que no se prestaban a generalización. Todo grupo finito posee una representación especial llamada "regular". Cuando se habla de clasificación de los grupos finitos simples, no es para describirlos uno por uno, sino para estudiar su distribución en familias de grupos simples, e indagar un medio que permita decidir si uno de esos grupos pertenece o no a alguna de esas familias. En 1963 se logró un avance espectacular, al demostrar44 Walter Feit y John Thompson de la Universidad de Chicago que todo grupo finito simple, o bien es cíclico, o bien de orden par. Una conjetura que fue formulada por William Bumside (1852-1927), muchos años antes (a principios del siglo XX) y en la que se afanaron una oleada de matemáticos. Inicialmente, los 41 La definición abstracta de grupo que actualmente se utiliza, es la que se refiere a una colección de elementos, en cantidad finita o infinita, con una operación * que aplicada a dos elementos de la colección, produce otro de la misma colección (criterio de cierre). La operación es asociativa, hay un elemento identidad e tal para cualquier a del grupo se tiene a*e = e*a = a. Además, para cada elemento a existe un elemento inverso a·1 , tal que a*a·1 = a·1 *a= e. Esencialmente, un grupo representa una forma matemática de expresar la noción de simetría. 42 Este hecho está subordinado a la existencia de ciertos subgrupos especiales H; de G llamados subgrupos "autoconjugados" (y también invariantes o normales), en los que se cumple g H¡ = H¡ g, para todo elemento g de G. 43 Un grupo "simple" es un grupo sin ningún subgrupo autoconjugado. 44 Una demostración bastante complicada de unas 250 páginas que ocupó un número entero del Pacific Journal of Mathematics. 150 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 grupos "cíclicos" fueron los más fáciles de hallar. Se trata de grupos que no tienen subgrupos de ninguna clase. Están constituidos por los conjuntos de números enteros módulo un número primo en los que se define la adición, y representan además los únicos grupos simples conmutativos 45 . La segunda familia fue la de los grupos alternados de permutaciones de n letras (n>4), los cuales son no conmutativos 46. Existen además otras familias cuya descripción es bastante más complicada y las mismas representan familias infinitas que proceden de la teoría de Líe. Todas ellas admiten representaciones en forma de grupos de matrices cuadradas. Una de las interesantes direcciones de investigación consistió en la determinación de grupos resolubles (Frobenius, 1897). En definitiva y como consecuencia de las investigaciones que se realizaron, en total se pudo hallar 18 familias infinitas de grupos (finitos) simples, que serían bautizadas con los nombres de grupos de C. Chevalley (lineales, · simplécticos, ortogonales y excepcionales), grupos de R. Steinberg, de M. Susuki y de R. Ree. Se encontraron también, por otra parte, otros grupos muy irregulares a los que anteriormente nos hemos referido, que fueron básicamente definidos por lo que ellos justamente no eran, esto es, como grupos simples que no pudieron ser encajados en ninguna de las mencionadas 18 familias regulares, y que tendieron a ser reconocidos por el matemático que los descubrió. Los cinco primeros de esos grupos irregulares fueron hallados por E. Mathieu en 1861 y 1873, los cuales estaban asociados con geometrías finitas (el menor de ellos contenía 7920 elementos). Cien años después (1965) Z. Janko descubrió un sexto grupo esporádico de 175.560 elementos, así como más tarde otros tres, hasta que finalmente se completó Uunto a otros matemáticos asociados a este proceso de descubrimiento, entre ellos, Hall, Fisher, Conway, Thompson, Griess, ... ) un total de veintiséis grupos esporádicos 47• 45 Un tipo notable de grupo cíclico, es el grupo finito no numérico de permutaciones de objetos cualesquiera (por ejemplo, el de simetrías rotacionales del cubo), cuya ley de composición permite trasladar sucesivamente los elementos u objetos un puesto a la izquierda e insertar por la derecha el sobrante. 46 El ejemplo más pequeño de grupo simple no conmutativo tiene orden 60, siendo ese el grupo que Galois descubrió cuando realizaba su trabajo sobre la ecuación algebraica de quinto grado. Una noción crucial, la de grupo resoluble, ideada por Galois, estuvo vinculada a este problema. 47 En la mayoría de los congresos importantes de matemáticos, desde 1960 hasta bien entrados los 80, era muy raro que no se hablase de grupos simples, de algún resultado nuevo, de rumores sobre posibles errores acerca de su clasificación, . . . Gracias a un programa de investigación organizado por D. Gorenstein de la Universidad de Rutgers, se había probado que la lista de 26 grupos esporádicos era exhaustiva. En cierto sentido, ese descubrimiento conlleva que los componentes, los bloques constructivos, de cualquier grupo con un número finito de elementos, queden definitivamente clasificados. En realidad, 151 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 Forma también parte de ellos, el actualmente conocido como el monstruo, cuya existencia fue vaticinada por B. Fisher en la década de los 1970. La denominación procede de su tamaño, ya que el número de elementos de este grupo es, aproximadamente, de 8 x 1053 , esto es, un 8 seguido de 53 ceros. El monstruo puede ser interpretado como un grupo de rotaciones en un espacio de dimensión 196883 Durante un período de unos treinta años que se inició a mediados del siglo XX, muchos investigadores de primera fila contribuyeron de manera directa al establecimiento de la prueba de la clasificación de los grupos finitos simples, una prueba que fue anunciada por D. Gorenstein48 en una reunión de la American Mathematical Society (enero 1981 ). El teorema de clasificación de grupos finitos simples, afirma 49 : "El conjunto de los grupos finitos simples está compuesto por 18 familias de grupos regulares e infinitas, más los 26 grupos esporádicos"; un fundamental resultado que expresado más explícitamente indica que, "si se tiene un grupo finito simple, o se trata de un grupo cíclico de orden primo p, o bien de un grupo alternado A11 (n25), o bien pertenece a una de las dieciséis familias de grupos simples tipo Líe, o bien es uno de los 26 grupos esporádicos". La demostración del teorema exigió probar que un grupo simple cualquiera, cuya estructura de subgrupos es desconocida y quizás arbitrariamente compleja, posee una estructura de subgrupo equivalente a la de uno de los grupos finitos simples conocidos que componen las 18 familias infinitas de la lista del enunciado (método que había sido también fructífero para encontrar varios de los grupos simples esporádicos). Téngase en cuenta que la demostración completa del teorema había consistido en reunir cientos de artículos escritos (alrededor de 500) por aquellos matemáticos, y sus resultados se encuentran condensados en unas 15.000 páginas. La longitud de esa demostración, no sólo fue insólita en los anales de la matemática, sino incluso también la desconcertante naturaleza de la solución. Fue obvio que el resultado de la prueba resultara discutible, porque difería de la de los textos clásicos. Entre las demostraciones tradicionales, el record actual de extensión lo ostenta dicho teorema de clasificación de grupos finitos simples. Algunos creen que tal vez la hubo de combinarse pacientemente una vasta literatura de teoremas, la mayor parte de ellos publicados entre 1955 y 1983, para proporcionar el resultado fundamental que se conoce como "teorema de clasificación de los grupos finitos". La clasificación completa se logró en 1985, antes incluso de lo esperado y no sin enorme esfuerzo (véase D. Gorenstein, Classifying the finite simple groups, Bull.Amer.Math.Soc.,14, 1-98,(1986) 48 R. Solomon, On finite simple groups and their classification, Notices of the Am. Math. Soc, 42, 1, 1-98 (1986), p. 18. 49 R. Solomon, ibid, 42, 231-239 (1995). 152 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 extremadamente extensa prueba del teorema, pueda ser reducida en el transcurso de unos pocos años a unas 4000 páginas, con la estrategia (en apariencia sencilla) de proceder por reducción al absurdo, suponiendo que el teorema es falso y reducir la prueba al hallazgo de una contradicción. Si bien en los medios matemáticos se le conoce como un teorema, lo cierto es que es la prueba y no el teorema, el que merece el calificativo. Y aunque en la actualidad, la determinación de todos estos grupos se encuentra poco menos que virtualmente completa, el teorema definitivo que ha sido establecido para la clasificación de grupos simples, es poco parecido a cualquier otro de la historia de las matemáticas. Hay que agregar que, el teorema probado por Gorenstein, había partido de una primera aproximación cercana a una estrategia de clasificación que propuso R. Brauer en 1954, el cual produjo después algunas situaciones de perplejidad. Durante años se procedió a revisar más a fondo la clasificación de los grupos simples, con un laborioso trabajo de revisión (conocido como GLS), que emprendió Gorenstein junto con R. Lyons y R. Solomon en 1982, y que dio lugar a unos doce volúmenes (de cinco partes) publicados por la American Mathematical Society. Se produjeron también desavenencias y opmtones diversas a raíz de la resolución de algunos célebres problemas matemáticos clásicos que estaban pendientes, como el conocido como "problema de los cuatro colores'', cuyo enunciado era el siguiente: ¿Cuántos colores son necesarios para colorear un mapa trazado sobre una superficie plana (o sobre una superficie esférica), sin que dos países que tengan líneas fronterizas comunes estén coloreadas del mismo modo? 50. Los países pueden tener la forma que se quiera, pero cada uno de ellos debe constituir una sola región conexa. Que cuatro colores bastaban para estudiar el problema, se había considerado desde hacía tiempo 51 • El primero en presentar este hecho de que se 50 En el caso de que dos países cualesquiera "adyacentes" (o sea, con frontera común) se intersecten sólo en un punto (o incluso un número finito de puntos), deben ser coloreados del mismo tono. 51 Se partió de la base de que cualesquiera dos países que linden en un solo punto no se consideraban adyacentes, al existir casos en que un mapa con cuatro países y en donde cada país fuese adyacente (es decir, lindase en una línea fronteriza) con los otros tres, requiere cuatro colores, lo cual significaba que una conjetura de tres colores sería falsa, al no ser suficientes tres colores para colorear todos los mapas. Por otra parte, para todo mapa pentacromático (o de cinco colores) existen casos en que cinco países no pueden jamás posicionarse, de tal modo que cada uno de ellos fuese adyacente a cada uno de los cuatro restantes (o sea, el mapa pentacromático tendría que tener menos de 5 regiones). Todo ello condujo a que el número de colores del problema habría de ser cuatro. 153 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 requerían cuatro colores, como conjetura matemática, fue Francis Guthrie (1852). En realidad, el enunciado de la "conjetura de cuatro colores" encandiló sobremanera durante más de un siglo a los matemáticos, sobre todo por su simplicidad, que contrastaba de manera desconcertante con la enorme dificultad que conllevó luego su resolución. Hubo numerosos intentos que no dieron resultado y la conjetura de los cuatro colores señaló un hito en la historia de los más sobresalientes problemas pendientes desde mediados del siglo XIX hasta años postreros del XX. Hasta incluso ilustres matemáticos se implicaron sin éxito en la conjetura . El primero en contribuir fue Augustus de Morgan (1806-1877), quien mostró en principio, que no podían haber cinco regiones de cualquier mapa que fuesen mutuamente adyacentes, si bien más tarde se descubrió una contradicción que invalidaría su argumento. Para mayor desilusión, ni de Morgan, ni otro de los grandes matemáticos de su tiempo, Arthur Cayley (1821-1895) pudieron encontrar un método para demostrar la verdad o falsedad de la conjetura. En 1878, este último propuso el problema a la London Mathematical Society. En 1879, A.B. Kempe (1849-1922), que era miembro de esa Sociedad, publicó un artículo que proclamaba haber demostrado la conjetura52. Desgraciadamente, el razonamiento de Kempe que se basó 52 La "prueba" de Kempe no resultó ser completa, si bien contenía una gran parte de ideas básicas que apuntaron eventualmente a la prueba correcta que se consiguió un siglo más tarde. Desde que Kempe introdujera la importante idea de "reducibilidad", se desarrollaron métodos para examinar configuraciones reducibles. Otro destacado matemático de la época, G.K. Birkhoff(l884-1944) de Harvard, y también en especial, P. Franklin ( 1898-1965) con un notable resultado al respecto, constataron la existencia de muchas configuraciones que eran reducibles, así como G. Heesch cuyo trabajo iniciado en 1936 sería crucial en la teoría de dichas configuraciones. Para explicar su razonamiento, Kempe consideró suficiente trabajar solamente con mapas "normales" (nominados así los mapas en los que nunca se encuentran en un punto más de tres regiones, y donde asimismo ninguna región del mapa rodea completamente a las demás). Él sabía que a cada mapa puede asociársele un mapa normal que exige al menos tantos colores como él, por lo que le bastaba demostrar la conjetura para mapas normales; y en principio, demostró que en todo mapa normal existe al menos, una región que contiene como máximo cinco vecinas, lo que significa que en cualquier mapa normal ha de aparecer uno de cuatro determinados tipos específicos de configuraciones que representan los cuatro casos posibles de región con 2, 3, 4, o 5 vecinas. El hecho de que forzosamente tenga que darse al menos uno de esos cuatro, se describe diciendo que dicho conjunto de configuraciones es inevitable. Estaba claro que la intención de Kempe consistía esencialmente en encontrar un conjunto inevitable de configuraciones reducibles, para conseguir la prueba de la conjetura. Por ello, trató ante todo de mostrar de qué forma se podría construir en cualquier caso de mapa forzosamente pentacromático, un mapa de menor número de países que siguiera siendo pentacromático (con lo que una tal construcción haría que Ja configuración fuera reducible). De lograrlo, mediante el proceso clásico de reducción al absurdo, la demostración sería inmediata. Fue lo que hizo: partir de un mapa pentacromático cualquiera, mostrar que se puede construir 154 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 sobre la idea de reducibilidad era incorrecto en el caso de una región con cinco vecinas. El error fue señalado en 1890 por P .J. Heawood (1861-1955) y no fue fácil de reparar53. Cerca de un siglo más tarde, en 1976, tuvo lugar un inesperado acontecimiento: el anuncio de la demostración definitiva de "la conjetura de los cuatro colores", conseguida por los profesores K. Appel y W. Haken de la Universidad de Illinois. Ahora bien, esta vez una parte esencial de la demostración se basaba en cálculos de ordenador, y esto ocasionó una situación que llegó a poner en tela de juicio el concepto clásico de demostración. Se tenía constancia de que el ordenador en algunos problemas de la matemática aplicada, había servido para calcular soluciones aproximadas cuando la teoría no era capaz de dar una solución exacta; de igual forma que para otros campos, por ejemplo en la teoría de números primos, con el ordenador se facilitaron en ocasiones, datos para la formulación de conjeturas de algunos de sus teoremas. En ambos casos, se estimó que la asistencia del ordenador no afectaba a lo que se demuestra, es decir, que la matemática rigurosa de la demostración permanece incontaminada por la máquina. No obstante, tenemos que enfatizar en que la anterior situación acaecida, es muy diferente a la que produjo el teorema de Appel-Haken, porque sus autores presentaron su trabajo como una demostración completa, definitiva y rigurosa. En cierta ocasión, el profesor Haken niega específicamente que la noción de demostración matemática haya sufrido el más mínimo cambio por haber utilizado Appel y él un ordenador. Decía Haken: "No se altera la noción. Lo que cambia no es la teoría, sino el ejercicio de la matemática". En último extremo, en la demostración definitiva de la conjetura por K. Appel y W. Haken se volvió a utilizar la idea de exhibir un conjunto inevitable de configuraciones reducibles. Sin embargo, en lugar de las cuatro sencillas configuraciones que comparecían en la demostración de Kempe, el conjunto inevitable contenía millares de ellas, la mayor parte de tal complicación, que la única forma de poder demostrar su reducibilidad tuvo necesariamente que contar con ayuda de un ordenador de alta velocidad. No obstante, la demostración de Appel y Haken consistía en una serie de pasos lógicos y analizables uno por uno, que llevaran hasta la otro pentacromático con menor número de regiones; tras un número finito de pasos, pudo obtener un mapa pentacromático con menos de cinco regiones, hecho, que a todas luces, era ciertamente absurdo. Y esto le hizo creer haber demostrado la conjetura. 53 La exposición del problema de los cuatro colores que nos ocupa, salvo varios párrafos que hemos añadido, ha sido recogida de P. Davis y R., Hersh, The Mathematica/ Experience, ibid, cap. 8, 385-387; véase también, Mathematics Today (Edit. Arthur Steen), Springer Verlag, N. York-Berlin, 1979 (K. Appe/ y W Haken, The Four Color Prob/em, pp.153-180), para más detalles. 155 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 conclusión, y esa conclusión fue que la conjetura quedó reducida a una predicción que involucraba el comportamiento de más de dos mil mapas diferentes. Tras unas mil horas de cómputo, la máquina concluyó que dicho mapas se comportaban en la forma prevista, por lo cual la conjetura de los cuatro colores se consideró como verdadera. "Se sabe en la actualidad, cómo ha sido posible hallar la prueba del problema de los cuatro colores. Lo que no podemos saber (ni tal vez nunca) es si existe alguna prueba que sea elegante, concisa y completamente comprobable por alguna mente matemática (humana)", han señalado Appel y Haken 54 En resumidas cuentas, ¿qué es lo que debe pensarse acerca de todas estas dudas y controversias sobre la realidad matemática? ¿Cómo y cuales han sido sus consecuencias? Si nos ajustamos a los cánones del rigor moderno, ¿qué se puede decir de verdad, acerca de lo que es o debiera ser un teorema matemático? Dicho de otra manera, ¿qué se ha de aceptar y entender en la actualidad como prueba matemática? ¿Puede reconocerse como demostración matemática la que se obtiene con los insoslayables recursos de un ordenador? Para precisar las respuestas a estos interrogantes y centrar mejor las ideas, nos parece necesario acompañar un resumido análisis puntual y retrospectivo del conjunto de las situaciones conflictivas de los cuatro períodos expuestos, en cuyo análisis se incluye al propio tiempo y en lugar oportuno, un extracto de lo que dio lugar al nacimiento y desarrollo del ordenador electrónico. 3. Certeza, incertidumbres y el advenimiento del ordenador electrónico: Una visión de conjunto. Durante siglos los fundamentos de las matemáticas se apoyaron sobre los estamentos básicos de la lógica. Los matemáticos se encontraban realmente convencidos de que el razonamiento deductivo no podía jamás reconducir a resultados inconsistentes, y calibraban los avances de su ciencia por los teoremas que habían sido demostrados (un juicio convencional que se convirtió en un rosario de serias dudas que duraría muchísimo tiempo hasta la aparición de las paradojas lógicas al comenzar el siglo XX). 54 Es innegable, advierten P. Davis y R. Hersh, que "la aceptación del teorema de AppelHaken involucra un acto de fe, que se traduce mayormente en la creencia de que los computadores hacen lo que se supone deben hacer, degradando así el nivel de certeza matemática al del conocimiento común, irremediablemente ligado a posibles escepticismos" 156 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 A finales del siglo XVII las matemáticas se encontraban en una situación de incertidumbre, que perduraría hasta que una gran mayoría de matemáticos del XVIII señalara la inexistencia de una fundamentación de su disciplina que fuera correcta, lo que promovió que a lo largo del mismo se tuviera que luchar frente al concepto de infinitesimal, que venía siendo usado con unas reglas arbitrarias. Ese siglo XVIII acabó, no obstante, con una lógica del cálculo (y de varias ramas del análisis construidas sobre el mismo) en un estado de auténtico confusionismo que se dilató hasta las postrimerías del siglo XIX. Cuando se abandonó el intento de conseguir la verdad matemática apoyada en la lógica, los desarrollos que hubieron a partir de 1900 de los fundamentos de las matemáticas, fueron desconcertantes. El análisis no estándar representaría principalmente, entre otras alternativas, una reconstrucción racional consistente de la desacreditada teoría infinitesimal. En los primeros años del siglo XX se inició una batalla por encontrar nuevos enfoques en los fundamentos, creándose varias escuelas de pensamiento. Como hemos señalado con anterioridad, la primera de ellas (la logicista), se sustentó en una tesis que, brevemente enunciada, afirma que todas las matemáticas son derivadas de la lógica, creyendo que esta última representaba un conjunto intocable de verdades; y otras se apartaron de la lógica e incluso la abandonaron. La segunda de las grandes escuelas (la constructivista), originada en 1908 y con frecuencia conocida como intuicionista, sostenía que los números naturales nos son dados por una intuición fundamental, que es el punto de arranque de todas las matemáticas (que como toda actividad humana es, se origina y tiene lugar en la mente). La tercera escuela importante (la formalista), creada por Hilbert, mantuvo que ni el logicismo ni el intuicionismo probaban la consistencia de las matemáticas. Para los formalistas, las matemáticas constituyen una colección de sistemas formales, cada uno de los cuales construye su propia lógica y tiene sus propios conceptos. En 1915 Hilbert emprendió un programa de restauración de las matemáticas, y durante la década de los 1920 formuló su propia aproximación de los fundamentos con unas bases axiomáticas para la lógica, con un método (la metamatemática) para probar la consistencia de cualquier sistema formal. La verdad matemática quedaría empañada por el conflicto que se desencadenó entre las escuelas de fundamentos 55 . 55 Ya hemos anotado anteriormente, que el programa de Hilbert causó un gran impacto entre los matemáticos de la segunda mitad del siglo XX. El estilo formalista fue el que predominó, calando en obras matemáticas y en libros de enseñanza con el papel de matemática moderna.(Véase G.T. Kneebone, ibid.). 157 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 En 1927 John von Neurnann (1903-1957) publicó un famoso artículo conjeturando que debía probarse cuanto antes que Ja lógica se encontraba liberada de contradicciones. Sin embargo, nadie sospechó que unos años más tarde (1931), el teorema de incornpletitud de Godel ocasionaría una tremenda sacudida en la concepción clásica del proceso de demostración, poniendo en tela de juicio la propia naturaleza de la verdad matemática. Se había llegado hasta el extremo de que existieran proposiciones que habían sido consideradas corno verdaderas por intuición y que fueron repetidamente falsas por lógica. A raíz de esto, se generaron grandes consecuencias, que crearon nuevas ramas de estudio de lógica matemática, reivindicando una reconsideración de la filosofia matemática, y más aún, de las filosofias del conocimiento en general. Entre otros, Hans Hahn (uno de los más brillantes lógicos del Círculo de Viena, maestro de Godel y alumno de Hilbert), argumentó contra la intuición en un célebre ensayo 56 , en el que aseguraba que "la intuición es engañosa en muchos casos y ejemplos, lo que hacía que la mayoría de matemáticos se mostrara cada vez más escéptica acerca de la validez de aquella". Así, se produjeron discrepancias que involucraron principalmente a los filósofos de la ciencia, con el planteamiento de fuertes debates que afectó de lleno al teorema, pilar primordial de la arquitectura matemática 57 . La demanda de expulsión de la intuición por parte de muchos sectores, no se hizo esperar, clamándose al propio tiempo, por la formalización completa de las matemáticas 58, aunque hay que advertir también que algunos grandes filósofos como L. Wittgenstein 59 estimaron después que la lógica matemática deformaría por completo el pensamiento de matemáticos y filósofos. Esas discrepancias se mantuvieron durante años y perseveraron hasta tiempos recientes. Entre otros, M. Kline da cuenta 60 de haberse refutado el mito de que muchos ilustrados siguieran creyendo que la matemática fuese un conjunto de verdades inquebrantables sobre el mundo fisico y que el razonamiento matemático era exacto e infalible. Los matemáticos rehusaron 56 La crisis de la intuición, Sigma, El mundo de las matemáticas 5, 342-362, Edit. Grijalbo, Barcelona (1969). El objetivo principal de Hahn era la visión kantiana del espacio como una de las formas de intuición pura. 57 Una gran parte de matemáticos decidió que era arriesgado aceptar una proposición matemática, y mucho menos basar, cualquiera de las áreas de su disciplina, sobre convicciones intuitivas. Véase S. Fefferman, Mathematical intuition vs. Mathematical monsters, Twentieth World Congress of Philosophy, Boston MA, Agosto (1998). 58 La tarea de formalizar toda la matemática, para reducirla enteramente a la lógica, resultó ardua y dificil, ya que significaba nada menos que una reforma íntegra de todas y cada una de sus partes. 59 Remarks on the Foundations of Mathematics, Oxford, 1966. 60 M. Kline, ibid. 158 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 aceptar la opm1on de muchos científicos y filósofos de que sus asertos fueran, a lo sumo, provisionalmente ciertos, esto es, verdaderos, mientras no se demostrara que eran falsos. Una incertidumbre que fue evidentemente fruto de la creciente complejidad que hubo de padecer la matemática. En otro orden de cosas, los matemáticos sabían que sus áreas más abstractas mantenían profundas conexiones con el mundo real, pero que a menudo se originan de otras maneras61 • Las verdaderas matemáticas son descubiertas y no inventadas 62. No obstante, la relación de la matemática con la realidad, ha sido despreciada con demasiada frecuencia, una cuestión que se encuentra muy bien precisada en una interesante obra de F. Gonseth 63. Aún más. Todo el mundo científico tenía asimilado con envidia la supuesta unanimidad de los matemáticos, pero de hecho existía una controversia considerablemente amplia en su disciplina y de tal envergadura, que los matemáticos puros negaban las pruebas de los matemáticos aplicados, mientras los lógicos a su vez, repudiaban las de los matemáticos puros. De hecho, defensores críticos de unos y de otros, no están de acuerdo. Los matemáticos puros reivindican el valor de su trabajo y el desafio intelectual. Para los aplicados, el objetivo principal de las matemáticas no es otro que el de la utilidad pública y la explicación de los fenómenos naturales. Los matemáticos aplicados no muestran en general, síntoma alguno de preocupac10n por las demostraciones rigurosas. En cambio, los puros objetan que los aplicados, en diversas ocasiones, utilizan técnicas injustificadas. Observaciones llenas de ironía incluso, no faltan 64• La controversia entre los matemáticos puros y los aplicados continúa aún en nuestros tiempos. Esto no significa obstáculo alguno para el desarrollo adecuado que sigue teniendo la matemática, según se estima generalmente. Retomemos a la década de los 1930. Una vez que K. Godel pusiera en evidencia la imposibilidad de probar la consistencia lógica de las matemáticas, sucedió otro acontecimiento sorprendente cuando Alan Turing (1912-1954) mostró la existencia (1936) de un "autómata universal", al indagar sobre las clases de sucesiones de unos y de ceros que pudieran ser 61 Por ejemplo, la geometría de Euclides, las ecuaciones en derivadas parciales y la teoría de grupos, son tres ramas de la matemática tan apartadas una de otra que parecen pertenecer a universos matemáticos diferentes. Y con todo, las tres resultan estar implicadas con nuestro universo fisico. 62 El filósofo T.S. Kuhn, The structure of Scientific Revolution, Univ. of Chicago Press, 1970, sostenía que las teorías científicas son aceptadas, no por que sean "verdaderas" en un sentido objetivo, sino por razones sociales. 63 Les Mathématiques et la Réalité, Essai sur la Méthode Axiomatique, Paris (1936). 64 Estas diferencias son plasmadas en muchas obras (por ej ., M. Kline, ibid, cap. 13). 159 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 reconocidos por una máquina abstracta por medio de un número finito de instrucciones. Esto había de traducirse nada menos que en el nacimiento del computador electrónico, cuyo desarrollo constituiría la aplicación más importante del siglo XX y que en particular produjo un gran impacto en la matemática pura. Sin embargo, habría de ser el gran matemático John von Neumann (1903-1957) quien de hecho implementara (1944) el autómata universal como un computador electrónico con instrucciones almacenadas, a través de un "programa" que la propia máquina podía alterar en el transcurso del cálculo. Años más tarde, los lenguajes de programación de otros mejores computadores representaron un nuevo formalismo matemático que sustituyó a otros antiguos de las matemáticas aplicadas (derivados del análisis, matemáticas discretas, topología y lógica), en cuanto a la formación de innovadoras e interesantes teorías. La mayor parte de las pruebas asistidas con ayuda del computador, representarían luego implementaciones de pruebas de algunos teoremas matemáticos. Los ordenadores transformaron el panorama del descubrimiento, la demostración y la interconexión de ideas matemáticas. En varias ocasiones, en que las demostraciones habían sido muy largas y complicadas y resultaba de gran dificultad evaluarlas, el ordenador representó un elemento indispensable. Las pruebas obtenidas con ayuda del computador (o "demostraciones computerizadas"), comenzó sembrando controversias en el mundo matemático65 . Demostraciones recientes de célebres problemas requirieron cómputos enormes realizados por computadores, y fueron aceptados a duras penas como válidos, al considerarse que ningún humano (al menos hasta ahora) hubiera podido comprobar esas demostraciones "computerizadas". La popularidad de las matemáticas basadas en el mecanismo informático (de experimentos numéricos o gráficos), desató en esos años reacciones a favor y otras contrarias. 66 65 Algunos matemáticos creyeron que las pruebas extremadamente extensas y realizadas con ayuda de computador, no eran en cierto sentido, pruebas matemáticas reales, a causa de implicar tantos pasos lógicos que no podían ser prácticamente verificables por seres humanos, cuestionando de ese modo a aquellos matemáticos por exhibir su verdad en una programación de computador. 66 Hay dos grupos discordantes, y en ambos existen algunos matemáticos que se pronuncian con reservas. En una de las agrupaciones, D. Mumford escribió al respecto, que "la comunidad de la matemática pura considera a los ordenadores, como invasores que profanan el campo sagrado'', sosteniendo que para establecer la verdad, los experimentos con ordenadores y la concordancia con los fenómenos naturales, no podrían jamás reemplazar a las demostraciones. Igual opinión compartían, entre otros, A.M. Jaffe, D. Ruelle, R. Penrose, F.S. Quinn, P. Deligne (no creo en la demostración por ordenador, sólo si la entiendo y es clara). Entre los del grupo que discrepaban, una buena parte incluso 160 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 Por otra parte, la aceptación de algunos razonamientos como teoremas matemáticos, condujo también a serias objeciones y controversias entre filósofos y matemáticos; y la noción de lo que se ha dado en llamar "demostración rigurosa" fue contemplada por unos y por otros con una visión distinta y controvertida, desde el momento en que para los primeros el uso del ordenador figurara como parte fundamental de la misma, porque así se ocasionaba un debilitamiento sensible de las normas de la demostración matemática.67 Para el filósofo existía una diferencia absoluta entre una demostración que depende de la fiabilidad de una máquina y una demostración que exclusivamente es dependiente de la razón humana. Para el matemático, en cambio, la fiabilidad de la razón da al ordenador la bienvenida, al considerarlo un calculista más fiable de lo que él propiamente lograra llegar a ser.68 4. Conclusión: Una síntesis final. En este último apartado son expuestas unas puntualizaciones finales que complementan toda la temática tratada en los párrafos anteriores. pronosticaría una muerte de la demostración tradicional, para defender las demostraciones "computerizadas". S. Wolfram, creador del programa Mathematica, mostró un absoluto desdén por las demostraciones; W.P. Thurston afirmaría que "en relación con algunas teorías, la fundamentación de la matemática, en cierto sentido respira un aire de irrealidad" (Bull. AMS 30, 161-177, 1944); así como P.A. Griffiths, y muchos más. S. Smale se esmeró en fundar Ja computación sobre bases más firmes y M. Atiyah instó a los matemáticos que se implicaran más en Ja computación, para que se mezclaran con el mundo real. Véase el excelente y ameno artículo de J. Horgan, La muerte de la demostración, Investigación y Ciencia, diciembre (1993). 67 Algunos filósofos, entre ellos S. Tymoczko, Journal of Philosophy, 76, 57-83 (1979). abogaron por cambiar el sentido de Ja "noción" de demostración (o más concisamente, cambiar el sentido subyacente de prueba), ya que involucraba sin duda un deterioro de la certeza que infringe la naturaleza de las matemáticas, aunque desde el punto de vista matemático, la objeción filosófica sería considerada idealista e ingenua. 68 En un artículo publicado en Acta Mathematica (1971), H.P.F. Swinnerton-Dyer comentaba por otro lado: "Cuando un teorema ha sido probado con ayuda de un ordenador, es imposible dar una exposición de Ja demostración que obedezca al criterio tradicional ( ... ).En toda computadora moderna es muy raro que se provoquen errores( ... ), si bien son susceptibles algunos fallos transitorios durante el proceso de cómputo ( ... ). Esto no significa que sea necesario rechazar los resultados del cómputo". Su conclusión fue que "la única forma de verificar estos resultados (si se considera que vale la pena) es volver a atacar el problema de forma totalmente independiente, usando una máquina diferente. Esta actitud se corresponde exactamente con la de la mayor parte de las ciencias experimentales". 161 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 En el primero de los períodos históricos considerados (la tan debatida crisis de fundamentos) se hizo hincapié en las imperfecciones plasmadas relativas a las tres interpretaciones principales de las matemáticas, evidenciándose la existencia de discrepancias que sumergió a los filósofos de la ciencia en un debate que llegó a afectar los cimientos básicos de la matemática misma. Los logicistas despreciaron las pruebas de los formalistas y algunos intuicionistas rechazaron con desdén las pruebas de logicistas y formalistas. Al propio tiempo, los formalistas no aceptaron las restricciones de los constructivistas ni la teología de los platónicos 69. El distinguido matemático y destacado representante de la filosofia positivista R. von Mises70, reflejó correctamente la situación y las expectativas creadas, al señalar que "la matemática, como cualquier otra ciencia, tiene una parte tautológica y un aspecto empírico; y difiere de las demás ciencias en que su aspecto formal es mucho más esencial y decisivo que en cualquier otra. Resulta, por ende, comprensible que la matemática frecuentemente se haya identificado con su parte tautológica". Acaba su trabajo diciendo: "Ninguna de las tres formas de la fundamentación de la matemática- la intuicionista, la formalista y la logicista - ha sido capaz de racionalizar completamente la relación entre los sistemas tautológicos y las experiencias (extramatemáticas), que es su verdadero objeto. Ninguna de ellas fue capaz de hacer de esa relación una parte del sistema matemático mismo". El segundo de los períodos, enclavado en los siglos XVII y XVIII, puede condensarse del modo siguiente: Ante todo, dicho período estuvo caracterizado por la construcción del análisis por los matemáticos sobre inexistentes fundamentos lógicos de la aritmética y el álgebra y con una base algo insegura de la geometría euclídea. Es bien conocido que el núcleo fundamental del análisis fue el cálculo, el cual hace uso del concepto de función. Los que más contribuyeron a la creación de aquel, fueron Newton y Leibniz. La introducción de dos conceptos nuevos y más complejos, el de derivada y el de integral definida, requirió necesariamente de una fundamentación lógica que situaron a los matemáticos del siglo XVII en un gran atolladero, que si bien habían vislumbrado, no lo comprendieron del todo. Pondérese que en aquella época, las matemáticas se encontraban en una situación paradójica y curiosa a la vez. Sus éxitos en la representación y predicción de los fenómenos fisicos estaban más allá de toda duda; sin embargo, la pesada estructura no tenía fundamentación lógica y, por tanto, no existía la seguridad de que las 69 70 I. Lakatos, Matemáticas, Ciencia y Epistemología, ibid., p. 91 . Los postulados matemáticos y el entendimiento humano, ibid, cap. l. 162 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 matemáticas fueran correctas 71 • A pesar de la confusión, principalmente Euler, y luego Lagrange y otros, extendieron el cálculo e intentaron la rigorización, dando una fundamentación lógica, aunque incorrecta. El siglo XVIII finalizó con la lógica del cálculo y las ramas del análisis construidas sobre el mismo, en un estado de absoluto confusionismo. Muchos intentaron después mejorar la situación con aportaciones interesantes, siendo Abraham Robinson uno de los más importantes que contribuyeron muy en especial, a la creación de un nuevo capítulo que constituyó, como anteriormente se dijo, una reconstrucción consistente de la desacreditada teoría infinitesimal. En cuanto a los dos últimos períodos, hay que agregar ante todo que las facultades lógicas del ordenador relegaron a un segundo plano sus habilidades matemáticas que, en ocasiones, supuso una ayuda sustancial para zanjar algunos problemas matemáticos clásicos pendientes de resolución. En particular, nos hemos referido estrictamente a dos de los más célebres de ellos: el problema de clasificación de grupos simples y el problema de los cuatro colores. A raíz de que el teorema de clasificación del primero de ellos (pendiente de resolución desde las postrimerías del siglo XIX) fuera considerado como resuelto, se estimó excepcional por la longitud de su prueba y ostenta el record actual de extensión de los teoremas tradicionales. En 1979, D. Gorenstein, uno de los más ilustrados sobre el tema, aseguraba que "tiene más sentido contemplar la clasificación citada, más bien como un campo completo de las matemáticas, que como el intento de demostrar un único teorema". Y como además no sólo era excepcional la desmesurada extensión de la prueba, sino que también entraba en juego Ja seguridad de la misma, Gorenstein aludía al propio tiempo irónicamente a teoremas casi probados, añadiendo que "parece ir más allá de la capacidad humana presentar un argumento de varios cientos de páginas estrechamente razonado con absoluta seguridad". Resumiendo, con una cadena de razonamientos sumamente larga y complicada, no es raro que Ja prueba rigurosa pueda infundir en el lector que quisiera constatarla, severas dudas y hasta aprensión, cabiendo incluso que resultara menos convincente que un argumento puramente intuitivo. En el teorema de los cuatro colores ya descrito con anterioridad (que fue el primer teorema importante que hubo de ser probado con el uso de un computador), la excepcionalidad en cambio, sería reconocida a causa del uso de computadores. Como ya dijo el gran analista J. Dieudonné, el 71 Para más detalles, véase M. Kline, ibid, cap. 6. 163 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 problema de los cuatro colores deslumbró significativamente a los matemáticos por la simplicidad de su enunciado y la dificultad de su solución. Con el ordenador, el problema se podía afrontar de modo algebraico, analítico o con el recurso a la combinatoria, si bien la última posibilidad permitía comprobar un número finito de casos. Considerándolo · como un problema de combinatoria, hay que estudiar todas las posiciones de N países entre sí, para cada valor de N, y ya habían sido analizadas en particular, posiciones típicas que podían usarse para reducir el problema de N países a un problema de un número menor de ellos. En 1977, Appel y Haken consiguieron demostrar que bastaba considerar un número finito de configuraciones específicas para tener la seguridad de que con cuatro colores era posible colorear cualquier configuración. Sin embargo, ante el hecho de que con un número de configuraciones superior a 2000, era imposible estudiar todos los casos uno a uno, se tuvo que recurrir a un ordenador adecuado que ocasionó un trabajo gigantesco, que no parece guardar proporción con el trabajo final. Se acabó por confiar en que quizás más adelante se descubra otro método que permitiera hacer una demostración de amplitud más razonable 72 . Quizás se infrinja la noción de verdad matemática pero "no es posible trazar una línea que permita separar tajantemente estos dos famosos ejemplos de los teoremas y demostraciones típicas que se vienen publicando en las revistas matemáticas 73 . Una última reflexión: Hasta los tiempos actuales, el futuro de las matemáticas nunca ha sido tan prometedor. La historia nos ha enseñado que surgirán nuevas crisis, pero sin lugar a dudas, los matemáticos seguirán luchando, cualesquiera que sean las dificultades, los problemas y las divergencias que entre ellos se presenten, con el firme objetivo de superarlas. Ya dejó dicho Descartes: Perseveraré hasta encontrar algo que sea cierto, o al menos hasta que tenga por cierto que nada es cierto. 72 73 J. Dieudonné, ibid. P. Davis y R. Hersh, ibid, p. 390. 164 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017
Click tabs to swap between content that is broken into logical sections.
Calificación | |
ISSN | 11304723 |
Título y subtítulo | Certeza e incertidumbre en algunos periodos históricos de la matemática |
Autor principal | Hayek Calil, Nacere |
Entidad | Academia canaria de Ciencias |
Publicación fuente | Revista de la Academia canaria de Ciencias = Folia Canariensis Academiae Scientiarum |
Numeración | Volumen 18 (Número 1-2) |
Sección | Divulgación científica |
Tipo de documento | Artículo |
Lugar de publicación | San Cristóbal de La Laguna |
Editorial | Academia canaria de Ciencias |
Fecha | 2006 |
Páginas | pp. 135-164 |
Materias | Ciencias ; Canarias ; Biología ; Matemáticas ; Física ; Química |
Digitalizador | ULPGC. Biblioteca Universitaria |
Copyright | http://biblioteca.ulpgc.es/avisomdc |
Formato máster |
300 ppp., TIFF sin compresión EPSON GT 2500 |
Formato digital | |
Tamaño de archivo | 27453150 Bytes |
Texto | Rev. Acad. Canar. Cienc., XVIII (Núms. 1-2), 135-164 (2006) (publicado en agosto de 2007) Abstract CERTEZA E INCERTIDUMBRE EN ALGUNOS PERIODOS HISTÓRICOS DE LA MATEMÁTICA Nácere Hayek Universidad de La Laguna (Spain) e-mail: nhayek@ull.es Para prever el futuro de las matemáticas, el verdadero método consiste en estudiar su historia y su situación actual. HENRJ POINCARÉ In this paper sorne aspects conceming the reality and uncertainties which appear in mathematics are considered. In this respect, sorne specific historical periods are analyzed. Resumen En este artículo se reflexiona sobre la certeza e incertidumbres que se refieren a la realidad de las teorías matemáticas. A este respecto, algunos períodos históricos importantes son analizados. l. Preliminares. Es curioso que la gente se encuentre generalmente convencida de la existencia de una supuesta unanimidad entre los matemáticos en lo que se refiere al multivariado y complicado campo de su ciencia. "Nada es tan sorprendente para el lego como enterarse de que entre los matemáticos hay diferencias de opinión respecto de los principios básicos de la matemática, esto es, respecto de su significación, su aplicación y su contenido. Si además y como así ha sido, algunos eminentes matemáticos contemporáneos declaran que las habituales incertidumbres no se refieren simplemente a cuestiones limítrofes del conocimiento matemático, sino que afectan directamente a su núcleo, entonces es natural que se resquebraje completamente la general e ingenua fe en la más "absoluta" de todas las ciencias" (R. von Mises (1883-1953) 1). Por otra parte, si se trata de un entendido quien examina con atención algunas de sus áreas, le surgirán no pocas sorpresas. Se percataría, por ejemplo, de que si la geometría de Euclides resistió poco menos que Los postulados matemáticos y el entendimiento humano, SIGMA (El mundo de las matemáticas), Edit. Grijalbo, Barcelona-México, 1969, vol. 5 (p. 132). 135 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 impertérrita el transcurso de unos dos mil años, fue debido a que se fundamentara en los pilares de un poderoso método como el axiomático, en el que se excluían deliberadamente los conceptos de infinito y de infinitesimal. Desde la antigüedad el infinito ha sido considerado como una noción de la que se tenía que huir, incluso algo herética. Y sin duda es cierto, que muchos escritos han revisado el modo en que los griegos indagaron problemas cruciales que entrañaba al infinito y a los desarrollos de algunas técnicas infinitesimales, pero sería sólo al final del siglo XVII, cuando se diseñaron mecanismos precisos para abordar esa cuestión, la más espinosa tal vez, de la historia entera de las matemáticas. Debe tenerse presente que para los más grandes pensadores de la historia, desde Pitágoras (585-500 a. C.) que atribuye a los números el gobierno del universo2 y Platón (427-347 a. C.) que niega la entrada en su escuela a quien no conozca la geometría, hasta Kant (1724-1804) el gran filósofo alemán de Konisberg 3, las matemáticas siempre fueron consideradas como la rama del saber que ha ofrecido las verdades más puras e irrefutables que a los humanos les está permitido conocer; y que al unísono otorgan a la matemática una preeminencia y una excepcional solidez, que incluso los propios matemáticos acaso no se atreverían a suscribir. Ahora bien, lo que ocurriría durante los siglos transcurridos desde el primero hasta el del último de los filósofos mencionados, fue que la panorámica del mundo científico cambió notablemente, por lo que las matemáticas en particular, tuvieron que afrontar diatribas y controversias en todas sus ramas, debido a las posiciones contrapuestas que irían surgiendo entre sus cultivadores en diversas etapas cruciales de su desarrollo histórico. De hecho, y si bien los resultados de las leyes matemáticas se habían tomado persistentemente como verdaderos, muchos de los conceptos y teorías matemáticas acusaron serios rechazos, varias nociones ya descartadas en años anteriores se reincorporaron de nuevo, e incluso algunas de ellas tildadas en su momento por algunos como absurdas, llegaron a ser consideradas luego paradójicamente, base de teorías provechosas. Y lo más sorprendente y mucho más incomprensible, se produjo cuando lo que había sido constatado como no riguroso y Y quien además proclamó: "Debéis cultivar la ciencia de los números, porque todos nuestros pecados son errores de los cálculos". 3 La filosofía clásica culmina con Kant, quien ejerce una gran influencia en la filosofía matemática hasta el siglo XX. Su metafísica es continuación de la herencia platónica. El dogma principal kantiano era el del conocimiento "a priori", como por ejemplo, en el del tiempo que se basa en la intuición de sucesión, y en el del espacio que se sustenta en la geometría. En su Critica de la razón pura, Kant declara a la matemática modelo perfecto de toda ciencia racional. 136 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 contradictorio, jugara después un importante papel en la historia de nuestra área científica. Al no ser posible en este punto, dar siquiera cuenta de una visión global de todas las situaciones conflictivas que acaecieron, ya que extrapolarían sin duda los límites de estos preliminares del presente trabajo, nos vamos a ceñir a continuación solo a describir concisamente algunas partes seleccionadas de aquellas. Las iniciamos con la que consideramos más significativa e importante: la que señala el período que abriría una brecha muy profunda en los cimientos de las matemáticas, y que hizo temer por el derrumbamiento de sus partes más clásicas. Nos referimos a la controvertida etapa caracterizada por el célebre quebrantamiento que se gestó en sus fundamentos básicos, y que se conocería más tarde como crisis de fundamentos de las matemáticas. Queremos hacer hincapié en que estos acontecimientos tuvieron mucho que ver con el intento de resolución definitiva de una ardua problemática de inacabada discusión, que aún sigue requiriendo la necesidad de conocer qué clase de conceptos y métodos de demostración deberían ser aceptados por sus adeptos, ante los avances de la ciencia: la naturaleza de la verdad matemática. ¿Cómo debe ser un teorema matemático y cuál debería ser el proceso de demostración a seguir? Algunas consideraciones al respecto, son añadidas más adelante. Confiamos, de todos modos, en que las acotaciones históricas que se exponen, baste a muchos lectores para rechazar el ilusorio beneplácito de unanimidad que, según hemos advertido, tienen de los matemáticos respecto al inquebrantable campo de su ciencia. 2. La crisis de fundamentos y otros temas. Debates y planteamientos. Desde el mismísimo nacimiento de las matemáticas como cuerpo independiente de conocimiento atribuido a los griegos clásicos a lo largo de un período de más de dos mil años, los matemáticos persiguieron afanosamente la verdad y solo consiguieron el simulacro de un panorama ilimitado de certeza. Para lograr sus convincentes resultados, los matemáticos recurrieron a un método especial, que fue el de la demostración deductiva a partir de principios evidentes llamados axiomas 4 • El razonamiento deductivo al parecer, garantizaba por su propia naturaleza, que lo que deducimos es necesariamente verdad, si los axiomas constituyen 4 En la definición de clases de supuestos fundamentales, un axioma se presenta como una verdad "autosuficiente'', y un "postulado" significa un hecho tan simple y obvio que presupone su validez. 137 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 la verdad. Una lógica aparentemente impecable, con conclusiones irrefutables a primera vista 5• Sin embargo, el uso de su intuición predispuso a los matemáticos a una visión retrospectiva de su ciencia. Y la creación de extrañas geometrías y no menos extrañas álgebras, a comienzos del siglo XIX, les infundieron a duras penas, que las matemáticas propiamente dichas y las leyes matemáticas de la ciencia, no eran verdades. Quedó así al descubierto la primera de las diversas calamidades que tuvieron que sufrir las matemáticas, tras haberse reconocido que su lógica se encontraba en un estado lamentable de tristeza: insuficiente incomprensión para sus conceptos e insuficiente rigor en sus demostraciones, debido a que la intuición tuvo que reemplazar a los argumentos lógicos. La actividad más destacada en la segunda mitad del XIX consistió entonces en un movimiento indispensable hacia una rigorización de las matemáticas; y si bien en 1900 los matemáticos creyeron haber alcanzado su meta, se descubrieron, antes de celebrar su presunto éxito, unas anomalías en las matemáticas reconstruidas que viciarían de modo alarmante la lógica de estas últimas6. Sucedió, en efecto, que a finales del siglo XIX, los principios lógicos implícitos en el razonamiento matemático usual, involucraban dificultades lógicas hasta entonces inadvertidas (a las que eufemísticamente se denominó paradojas, pero que propiamente se debieron llamar contradicciones), y que se pusieron nítidamente de manifiesto, a causa de un cierto tipo (sin duda, el más importante) de ellas, el de las conocidas como "paradojas lógicas"7 , que aparecen en conexión con la teoría de conjuntos 8, llevada a un elevado grado de desarrollo por el matemático ruso G. Cantor (1845-1918) 9. La lógica deductiva proviene de lo que Aristóteles (384-322 a. C.) llamó "razonamiento silogístico". Este gran filósofo incluía, entre otras leyes del razonamiento deductivo, la "ley de contradicción" (una proposición no puede ser verdadera y falsa al mismo tiempo) y la "ley del tercio excluso" (una proposición debe ser, o bien verdadera o bien falsa"). Morris KJine, La pérdida de la certidumbre, Ed. Siglo XXI, Madrid, 1985, p. 22. 6 Para más detalles de los últimos párrafos, véase Morris Kline, ibid, cap. 1, 8-33. En matemáticas existen paradojas de tres tipos: las nacidas de proposiciones contradictorias procedentes de razonamientos falsos; las que resultan de teoremas extrafios, irreprochables desde el punto de vista lógico, mas ininteligibles para nuestra intuición e imaginación, y las paradojas lógicas que son contradicciones de la teoría de conjuntos, no resueltas a satisfacción de todos los matemáticos (E. Kasner y J.R. Newman, Paradoja perdida y paradoja recuperada, SIGMA (El mundo de las matemáticas), ibid, p. 323). 8 Las raíces de esta teoría se encuentran en antiguos documentos de Zenón y de investigaciones de Galileo, Leibniz y Bolzano. La teoría está basada en una noción primitiva de "conjunto"(que denota una colección de objetos de cualquier especie, en número finito o infinito), que imposibilita dar una definición básica precisa en términos de otras nociones más básicas. El concepto que dio Cantor (1897) de conjunto, subyacente en nuestra intuición (y en la experiencia), no tardó en asumir el papel del número natural como primera expresión de las abstracciones en la fundamentación del edificio matemático. 138 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 Lógicos y matemáticos se enfrascaron a la sazón, en un período de confusión y consternación. La lógica deductiva se había convertido en motivo de discordia. Tres grandes escuelas de pensamiento fueron creadas para tratar de resolver las contradicciones, con el fin de dejar establecida la consistencia de las matemáticas: la logicista, que establecía una tesis que equiparaba la matemática con una rama de la lógica, sosteniendo la definición de los conceptos matemáticos en términos de nociones lógicas, y la prueba de sus proposiciones como teoremas de lógica; y en la cual la construcción de la misma se canalizaba a través de un simbolismo lógico desarrollado en la monumental obra en tres volúmenes, "Principia Mathematica" (1910-1913), debida a los grandes artífices ingleses de dicha escuela, Bertrand Russell (1872-1970) y A. Whitehead (1861-194 7); la formalista, propulsada por el alemán David Hilbert (1862-1943) profooniendo que la matemática fuera formulada como una teoría axiomática 0 formal (en la que figuran los signos lógicos), escuela sustentada en el hecho de que todo el contenido de la matemática puede transformarse en principio, en un sistema formal de fórmulas simbólicas, al que se agregaría un dominio separado llamado metamatemática para justificar el sistema de fórmulas 11 ; y la intuicionista, fundada por el holandés E.L.J. Brouwer Sin embargo, la definición dada sufriría más tarde algunas matizaciones al ser mezclada con las de número y magnitud, al tratarse con conjuntos infinitos. 9 Resultó ser muy curioso que nadie, en las postrimerías del siglo XIX, cayera en la cuenta de que dicha teoría fundamentada en conceptos lógicos, planteara problemas de antinomias que cuestionaban la naturaleza de la matemática y de la lógica (hasta el extremo de que ¡ciertos conjuntos incluso finitos eran contradictorios!). Cantor partió de la aceptación franca del infinito, negado hasta entonces por los mayores analistas, y llegaría a resultados sorprendentes. Demostró, por ejemplo, la posibilidad de distinguir en el infinito matemático diversos órdenes de potencias vinculadas entre sí mediante relaciones rigurosas. Se concentró especialmente en el llamado "infinito actual o "transfinito", una clase de infinito lógico, que fue piedra angular de la creación de numerosas paradojas. Cantor también escribió sobre las implicaciones teológicas de su trabajo matemático, llegando a identificar el infinito absoluto con Dios. 10 Se admitía que cualquier disciplina matemática, como toda ciencia racional deductiva, tiene que reducirse a unos primeros conceptos que no se definen y a unas primeras proposiciones que no se demuestran. Ese esqueleto base es su axiomática. Históricamente, los orígenes de la axiomática se remontan a Aristóteles, quien había afirmado que "toda ciencia demostrativa tiene que partir de principios indemostrables; de otro modo, los pasos de la demostración serían infinitos" (véase N. Hayek, Los orígenes de la matemática moderna, Serv. Publicac. Universidad de La Laguna, 1979, para más detalles). 11 La metamatemática hilbertiana pretendía acabar del todo con el escepticismo (F.P. Ramsey, Mathematical Logic, Mathematical Gazette, 13, 185-19'4, 1926). Su objetivo era pues, idéntico al de los logicistas (Imre Lakatos, Matemática, ciencia y epistemología, Ed. Alianza Universidad, Madrid, 1981, p.36). Lakatos en la introducción de su obra Pruebas y refutaciones (Ed. Alianza Universidad, Madrid, 1976) ataca al formalismo definiéndolo 139 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 (1881-1966), una doctrina que considera matemática genuina sólo la dada por nuestra intuición y que puede ser obtenida por una construcción finita a partir de ciertos objetos primitivos (escuela que, en unión de otros matemáticos con puntos de vista próximos, constituyeron el grupo de Jos "constructivistas"). Cada una de estas corrientes filosóficas de controversia de los primeros años del siglo XX, logicismo, formalismo e intuicionismo, logró estampar su huella en forma de determinado programa de investigación matemática, legando su propia contribución al cuerpo de Ja matemática misma. Tras su análisis sobre las precedentes escuelas de pensamiento, R. von Mises 12 concluiría que "ninguna de las tres formas de fundamentación de la matemática fue capaz de racionalizar completamente la relación entre los sistemas tautológicos y las experiencias ( extramatemáticas ), esto es, ninguna estaba capacitada para hacer de esa relación una parte del sistema matemático mismo". Después de disputar enconadamente unas con otras durante unos treinta años, configuraron una historia que culminaría en la década de los 1930 con la definitiva destrucción del sueño de Fausto de todo matemático: probar que su ciencia se encuentra libre de contradicciones. Sería en 1931, cuando un joven matemático de escasamente 25 años llamado Kurt Godel (1906-1978), quizás el lógico más grande de la historia, destruyera la inexpugnabilidad de la verdad matemática con un teorema de incompletitud que mostraba la "imposible codificación de la matemática'', es decir, que rompiera el espejismo de la verdad matemática 13 . Mediante su teorema, Godel estableció que existen verdades matemáticas imposibles de demostrar en el marco axiomático en que se sitúan 14• Además, las discrepancias habidas, como escuela que tiende a identificar Ja matemática con su abstracción formal abstracta, y a la filosofia de la matemática con la metamatemática. R. Camap en su The logical sintax of language (New York y Londres, 1937; traducción Springer, 1934) dio una enunciación más clara de la posición formalista requiriendo que Ja filosofia se sustituyera por Ja lógica de Ja ciencia, que no es otra cosa que la sintaxis lógica del lenguaje científico. Muchos lógicos después de Camap, opinaron que la lógica se ha de ocupar de la transmisión de la verdad y no de cadena de símbolos. 12 SIGMA, 5, ibid, p. 142. 13 Hilbert ni siquiera logró sospechar que Godel con su famoso resultado de " indecibilidad" devastaría Ja proclamación de fe de aquel, en cuanto a que en matemáticas no podía haber un ignorábimus. Lo que había hecho Hilbert a partir de 1904, fue propulsar y desarrollar un nuevo método para abordar las cuestiones de no contradicción y más generalmente, examinar "a priori" el alcance que podían tener las demostraciones matemáticas (iniciando así la metamatemática o "teoría de la demostración"). Y lo que hizo Godel, empleando el mismo lenguaje de Hilbert, fue demostrar que en matemáticas siempre habrá un ignorábimus. 14 El terrible trallazo que asestó el teorema de Godel a la esperanza de Hilbert, arrojaba la conclusión de que las matemáticas no podían ser encadenadas por la lógica, dejando 140 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 previo a los avances de la lógica, conllevaron también consecuencias notables en torno a varios conceptos, entre ellos el de conjunto 15• Hay que agregar de todos modos, que el análisis de Godel dio lugar a otras axiomatizaciones de la teoría de conjuntos, que no excluía Ja existencia de una demostración matemática de la consistencia de la aritmética16 • Sobresaldría la creación de una cuarta escuela emprendida por E. Zermelo (1871-1953) a raíz de un trabajo suyo de 1908, compuesta por los conjuntistas que siguieron a Cantor, quienes pensaron que con la incorporación de unos fundamentos axiomáticos eliminarían las paradojas de sus teorías 17. Una teoría que se llamó usualmente de Zermelo-Fraenkel, tras ser perfeccionada por A. Fraenkel (1891-1965) algunos años más tarde ( 1922). Se debe destacar, por último, la axiomatización de P. Bernays (1888-1977), que contenía dos modificaciones: la inclusión de un formalismo-clase en el sistema y la fusión de los axiomas conjuntistas con los de un cálculo lógico. Esos cambios produjeron un nuevo sistema que prevaleció por su mejor elaboración y que fue denominado de Bemays-sentado que la aritmética y, a fortiori, la ciencia matemática es una teoría incompleta. Esto venía a significar nada menos que lo siguiente: Dado un conjunto cualquiera de axiomas, que incluya los axiomas de la aritmética, no existe ningún proceso de demostración con fuerza bastante que nos permita probar que tal conjunto sea simultáneamente consistente y completo. Es decir, si fuese completo, tendrá que ser autocontradictorio, y si no contiene contradicciones, existirán siempre enunciados matemáticos verdaderos que no pueden derivarse de dicho conjunto. 15 Los debates en torno a la definición de conjunto (un concepto que se reveló como fundamental para toda la ciencia matemática) suscitaron, tanto entre los filósofos como entre los científicos, sutilísimas observaciones cuyo desarrollo fue indispensable para una revisión general de la lógica formal. 16 Pruebas matemáticas de este tipo fueron construidas principalmente en 1936 por G. Gentzen, miembro de la escuela de Hilbert, haciendo un intuitivo uso de la inducción transfinita hasta un cierto ordinal numerable. En términos groseros, téngase en cuenta que en la aritmética de los conjuntos infinitos (o aritmética transfinita), las nociones de número cardinal y ordinal se separan la una de la otra en lo infinito y en ese dominio, la parte puede ser igual a un todo. En base a lo hecho por Cantor, hay infinitos mayores que el infinito del conjunto N de los números naturales (por ejemplo, el del conjunto R). Esto dio lugar precisamente, al famoso problema de Hilbert de la hipótesis del continuo, sobre la imposibilidad de hallar ningún conjunto con más elementos que N y con menos que R. 17 Esta axiomatización de la teoría de conjuntos tuvo como base principal el conocido como "axioma de elección". El axioma afirma que "en una colección arbitraria de conjuntos, finita o infinita, es posible elegir un elemento de cada uno de ellos. Para el caso finito, es trivial; pero para una colección infinita, la elección de un elemento de cada uno empieza por ser fisicamente imposible; aunque desde el punto de vista intelectual, a veces parece razonable y en otras, no (obsérvese que el axioma habla de que es posible elegir un elemento, pero se abstiene de decirnos cómo, o sea, la manera de efectuar la operación). 141 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 Godel 18 • El tratamiento de Bemays-Godel presentaba toda la matemática pura como una extensión de la teoría de conjuntos y fue usado como base de estudio de estructuras cada una de ellas caracterizada por un conjunto de axiomas. Ha sido desde entonces tan importante para las matemáticas mismas como para la filosofia matemática. Decididamente, alrededor de 1975, la actitud filosófica predominante llegó a ser el formalismo de Hilbert, quien había dejado definida a la matemática como la ciencia de la prueba rigurosa, y a los matemáticos convencidos de que todas las verdades matemáticas se podían demostrar por deducción 19• Es preciso añadir que en ese marco diseñado por el creador del formalismo, los lógicos contemporáneos lograron deducir una serie de resultados inesperados (sobre todo para una nueva idea de conjunto), si bien no respondían del todo al optimismo exagerado de aquel 20. El modo de "hacer matemáticas", propuesto por Hilbert, se asemejaba mucho a un juego (lógico), que lo único que exigía era que no condujese a contradicción (o sea que no se pueda probar a la vez, a partir de axiomas, un teorema y su negación) . Por ello, "muchos matemáticos reaccionaron al no quedar satisfechos con un punto de vista que les prohibía hablar de la "verdad", si se atenían estrictamente a la noción de "demostrable" a partir de un sistema de axiomas 21 ". Como consecuencia, el razonamiento evidenció sus limitaciones e hizo olvidar definitivamente el sueño de unas matemáticas totalmente deducibles de la veracidad de sus primeros principios. La teoría de Bemays-Godel sería a la postre utilizada, en la segunda mitad del siglo XX por algunos matemáticos como fundamento base sobre el que construir todas las matemáticas, en una teoría más general y eficaz para la 18 Esta teoría de Bemays-GOdel puede verse en la obra Axiomatic set theory (P. BemaysA. A. Fraenkel, Ámsterdam, 1958). 19 Una razón del dominio del formalismo procede de su conexión, durante los decenios 1940 y 1950, con la corriente filosófica del "positivismo" (lógico) del que formaría parte L. Wittgenstein (1889-1951), H. Hans (1879-1934) y también GOdel, para quien la premisa principal de aquella corriente era, que lo que no es verificable empíricamente no tiene sentido. La llamada "escuela de Viena" de positivistas lógicos abogaba por una ciencia unificada, codificada en un cálculo lógico formal y con un único método deductivo. (P. Davis y R. Hersh, The Mathematical Experience, Birkhauser Boston, 1981 , p. 342). 20 En una fuerte reacción contra la posición radical de los intuicionistas (quienes propusieron el sacrificio de toda una parte del análisis matemático clásico), Hilbert se propuso dar unas indiscutibles bases para establecer rigurosamente la imposibilidad de que un razonamiento sustentado sobre las mismas, jamás pudiese conducir a una contradicción: la de unos fundamentos lógicos de todas las teorías- en particular, de la aritmética- y las de no-contradicción de estas teorías. Una intuición que arrastró a Hilbert a unas esperanzas que fueron tildadas de exageradas (J. Dieudonné, En honor del espíritu humano, (Hachette, 1985, Alianza Edit., Madrid, 1987, Cap. 6, D). 21 J. Dieudonné, ibid. 142 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 edificación del análisis y la geometría. La exposición matemática formalista que ejerció mayor influencia fue la del grupo Bourbaki de matemáticos franceses, en las décadas 1950, 1960 y 1970 con su extraordinaria obra de varios volúmenes Eléments de Mathématiques, (París; el primero de ellos publicado en 1939), una serie de temas básicos de teoría de conjuntos, álgebra y análisis. En la obra se incorporaron el axioma de elección y la ley del tercio excluso, si bien obtenidos mediante la técnica de Hilbert (renunciando a Frege, Russell y Brouwer). La obra tuvo una tremenda repercusión en el mundo matemático de la época, en la que el estilo formalista se convirtió en la actitud filosófica predominante en libros de texto y demás obras matemáticas; llegando a calar en la enseñanza de los primeros ciclos universitarios y finalmente, invadiendo con el papel de matemática moderna hasta en la enseñanza escolar. "La acusada sumisión de los Eléments al método axiomático, permitió a Bourbaki adoptar una actitud "realista" para los fundamentos de la matemática que le ayudaría a enfrentarse con seguridad con las contradicciones que pudiesen ocurrir en el futuro, al igual que con las que comparecieron en el pasado" 22. Para atenemos a una mejor interpretación del precedente período de confusión, es necesario añadir algunos de los antecedentes que influyeron sobre las tres corrientes filosóficas de controversia que acabamos de describir; además de realizar, por otra parte, un examen algo más atento de estas últimas 23• Digamos ante todo que el grupo que tuvo mayor influencia desde hace siglos en esas corrientes, fue el del platonismo encabezado por Platón, cuya posición filosófica subraya la intuición, convirtiéndola en una facultad indispensable (aun a sabiendas de que le imposibilitara analizar la intuición matemática), y en el que las ideas matemáticas más sencillas se encuentran ya implícitas en el pensamiento corriente de la vida cotidiana. Como señalan P. Davis y R. Hersh 24 , "a priori, Ja propia palabra intuición comporta misterio y ambigüedad ( ... ) y a veces, representa una noción escurridiza que simula ser una sustituta ilegítima y aventurada de la 22 Véase G.T. Kneebone, Mathematical Logic and thefoundations of mathematics", Van Nostrand Co. Ltd. (London, 1965). 23 Las raíces de la filosofía de las matemáticas y de las matemáticas mismas, se encuentran inmersas en la Grecia clásica. Para los griegos, la matemática significaba geometría y la filosofía de las matemáticas que podemos encontrar en Platón y Aristóteles es la filosofía de la geometría. La idea que Platón tenía de la geometría desempeñó un papel clave en su concepción del mundo. Desde una perspectiva científica actual, Ja prevalencia de un platonismo generado tácitamente como posición filosófica informal significó, no obstante, una notable anomalía. 24 The Mathematical Experience, ibid, cap. 8. 143 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 demostración rigurosa". Dichos autores mantienen, por otra parte, que todas las concepciones filosóficas habituales se basan fundamentalmente en una cierta noción de intuición, aunque ninguna de ellas intenta explicar la naturaleza y significado de la intuición que postulan. Y añaden que si bien el examen de la intuición en la realidad conduce a un concepto dificil y complejo, aquella no es inexplicable ni mucho menos no analizable. Por ello y como conclusión, resumieron que en toda exposición histórica de fundamentos de las matemáticas, estos últimos asertos se interpretaron generalmente como dogmas de concepciones filosóficas del que se llamó platonismo (o realismo), del formalismo y del constructivismo25 • Según la concepción platónica, los objetos matemáticos son reales y no entes construidos por nosotros mismos. Su existencia es un hecho objetivo absolutamente independiente del conocimiento que de ellos tengamos26. Los principales oponentes a la tesis intuicionista, desde la aparición de esta escuela, fueron los de la escuela formalista de Hilbert y sus seguidores, para quienes la interpretación platónica no tiene sentido alguno 27. En el formalismo no existen objetos matemáticos. Lo único que cuenta son las reglas del juego, o sea, inferencias mediante las cuales son transformadas unas fórmulas en otras (fórmulas que no se refieren a nada y que no son más que cadenas de símbolos). Su matemática consiste estrictamente en axiomas, definiciones y teoremas. El formalismo contemporáneo es descendiente del hilbertiano, si bien no es justamente lo mismo. Hilbert creía en la realidad de las matemáticas finitas y en su metamatemática para justificar las matemáticas de lo infinito. Para el formalista la matemática se concibe como la ciencia de la demostración rigurosa. Para él, o se tiene demostración o no se tiene nada. Además de los intuicionistas y formalistas, 25 Es de interés advertir, que dichas concepciones obviaron las diferencias de las posibles versiones distintas que hubieron de las mismas. Véase P. Davis y R. Hersh, ibid, caps. 7 y 8, para más detalles. 26 El llamado mundo de la experiencia (según Platón), nada tiene de real. Somos como moradores de una cueva, que perciben las sombras del mundo exterior y confunden las sombras con los objetos reales (La República). Los matemáticos platónicos son auténticos empiristas ("salvo el conocimiento matemático, todo conocimiento es fruto de la observación"), quienes no solían ocuparse de explicar de donde procede el conocimiento matemático. Objetos matemáticos como los conjuntos infinitos, curvas que llenan todo el espacio, ... , se hallan fuera del espacio y del tiempo, no son ni físicos ni materiales. En el platonismo, nada se puede inventar, todo está ya presente y todo cuanto pueden hacer es descubrir. 27 La diferencia esencial entre forma listas y platónicos se encuentra en las cuestiones de existencia y realidad, que se evidencia, por ejemplo, claramente en la hipótesis del continuo de Cantor. 144 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 se suele citar también a los logicistas28 como la otra escuela importante en la controversia de los fundamentos de la matemática. Finalmente, los constructivistas (descendientes del credo idealista platónico), se opusieron a ambas corrientes. Siguiendo a Brouwer, el constructivista considera que los números naturales nos son dados por una intuición fundamental como punto de arranque de todas las matemáticas. Sus matemáticas están fundadas constructivamente sobre los números naturales, a los cuales no es necesario reducirlos a otra noción más básica. Tras las fuertes disputas y controversias habidas con las otras dos corrientes, y una vez que quedaron, en la segunda mitad del siglo XX, abandonados el logicismo de Whitehead y Russell y derrocado el formalismo de Hilbert por el teorema de Godel, el promotor Brouwer del constructivismo, permaneció aislado en Ámsterdam predicando su dogma e ignorado mayormente por el mundo matemático. Su constructivismo quedaría entonces reducido poco menos que a una herejía, a la que sólo se adhirieron algunos proselitistas, sin encontrar demasiado eco en la comunidad matemática. De cualquier manera, no se puede obviar el hecho de que matemáticos eminentes formaran parte de a~uellas escuelas (o sólo de algunas de ellas) en el período de la controversia 9.Y en definitiva, 28 Los primeros logicistas, Frege y Russell, que creían que la lógica era un conjunto inexorable de verdades, tuvieron a la larga que retroceder de su posición, ante las muchas críticas sobre su programa. En 1937 Russell ya no estaba convencido de que los principios de la lógica constituyeran verdades a priori confiando en una lógica más bien refinada para asegurar los fundamentos; y la escuela intuicionista consiguió sobre todo que no se sostuviera su pretensión de que las matemáticas no eran sino lógica, porque ello no significaba otra cosa que una inmensa tautología. (Morris Kline, La pérdida de la certidumbre, ibid, cap. 1 O). 29 Por ejemplo, matemáticos enteramente platónicos lo han sido René Thom ( 1923-2003 ), y Kurt Godel (un verdadero convencido de que, además del mundo de los objetos, existe el de los conceptos al que los humanos acceden por intuición). Situado en un mundo geométrico de ideas, el primero escribe en 197 l (Modern mathematics: An educational and philosophical error?, Amer. Sci., 59) "los objetos matemáticos son reales( ... ) y las formas matemáticas tienen existencia independiente de la mente que las contempla", y Godel sumido en el universo de la teoría de conjuntos, afirma "no veo razón alguna en confiar menos en la intuición matemática que en la percepción de los objetos a través de los sentidos" (What is Cantor's continuum problem"?, Philosophy of Mathematics, PrenticeHall, N.J., 1964). Formalista lo fue H. Poincaré (1854-1912), cuando expresaba que"( ... ) admito que las matemáticas constituyen una ciencia deductiva que simplemente deduce las implicaciones de los axiomas( ... ) se construyen geometrías euclídeas o no euclídeas, cuyos axiomas y teoremas no son verdades empíricas ni a priori ( ... ). No son ni verdaderas ni falsas( ... ) utilizamos la geometría que resulta más cómoda" (Véase M.Kline, La pérdida de la certidumbre, ibid, cap. 1 O). La postura intuicionista sobre la lógica sería drástica. H. Weyl (1855-1955), discípulo de Brouwer (y alumno más dotado de Hilbert), decía en una crítica a los logicistas, "de nada, nada se sigue"; y también en un análisis sobre los transfinitos de Cantor los describía "como una casa construida en la arena"( ... ) "y sólo se 145 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 quienes defendían las tesis de sus concepciones filosóficas dejaron a muchos más bien desconcertados y sumergidos en un mar de dudas30. Ello impulsa a preguntarnos, de una vez por todas, ¿qué requirieron o han requerido en realidad, de la intuición, aquellas tres actividades filosóficas? Ya hemos dicho que la intuición provocó nada menos que la dificultad de exigir que las matemáticas fueran infalibles, exigencia que fue afrontada por las dos filosofias, la del formalismo y la del platonismo. También hemos de ponderar que, ya desde el siglo XVII, una buena parte de grandes matemáticos tuvieron una gran fe en la intuición y bajo una concepción amplia del término defendieron el intuicionismo. Asimismo y por último, el constructivista Brouwer (que también fue un consciente seguidor de Kant y de la filosofía idealista en general), sabía igualmente hasta qué medida podía confiar en la intuición, hasta tal punto que creó disensiones entre sus seguidores y al final alegó fundarse sólo en una intuición universal e inconfundible (P. Davis y R. Hersh, ibid, caps. 7 y 8)31 • "¿Porqué debemos puede estar seguro de lo que se establece con métodos intuicionistas" (Vease R. Hersh, Sorne proposals for reviving the philosophy of mathematics, Advances in Mathem., 31, 31- 50 ( 1979) ). Por otro lado, A. Robinson, del que nos ocuparemos seguidamente, no es partidario de esa filosofia y declara que "no puede imaginarse el credo platónico ( ... ) viendo extenderse ante sí el mundo del infinito actual, convencido de poder comprender lo incomprensible". 30 En su mayoría los que han escrito sobre el tema, opinan que el matemático en activo es platónico entre semana y formalista los domingos (una irónica expresión que quiere expresar que el matemático típico es simultáneamente platónico y formalista, un platónico que en secreto se pone la máscara formalista, cuando la ocasión lo requiere; mientras los constructivistas representan una especie rara" (P.Davis y R.Hersh, ibid, p. 322). "En lo tocante a los fundamentos, estamos convencidos de la realidad de las matemáticas, salvo claro está, que cuando los filósofos nos atacan con sus paradojas, nos parapetamos tras el formalismo" (J. Dieudonné (1906-1992), The work of Nicho/as Bourbaki, Amer. Math. Monthly, 77 (1970), p. 145). "Para el matemático medio que sólo pretende estar seguro de que su trabajo tiene fundamentos precisos, la elección más atractiva es evitar dificultades recurriendo al programa de Hilbert" (P.J.Cohen (1963), Axiomatic set theory, Amer. Math. Soc., D. Scott Ed. (1971). 31 En una concepción amplia del término, el intuicionismo fue defendido por Descartes y Pascal. R. Descartes (1596-1650) en sus Reglas para la dirección de la mente, entendía la intuición como "lo que una mente atenta concibe( ... ) de modo evidente a la luz de la sola razón, por ser más simple que la deducción misma ( ... ) pero los propios principios primarios, sólo se pueden conocer por intuición, y las consecuencias remotas sólo por deducción". Y también B. Pascal (1623-1662) en la última etapa de su vida, se inclinó por la intuición como la fuente de todas las verdades. Suya fue la famosa declaración "el corazón tiene razones que la razón no conoce". Asimismo L. Kronecker, un precursor del intuicionismo moderno, rechazaba los conjuntos infinitos y los números transfinitos, ya que sólo aceptaba el infinito potencial (así, el conjunto N de números positivos es potencialmente infinito, y el conjunto R de reales visto como una totalidad existente, es un infinito actual). Otro matemático intuicionista H. Lebesgue (1875-1945) decía en 1928: "La 146 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 presuponer un ente ideal de entes matemáticos existentes en sí?'', preguntan los constructivistas, "para nosotros existen solamente estas figuras, en cuanto constituyen el claro resultado de construcciones (espirituales) que efectúa el hombre". En definitiva, nos hemos quedado sin saber qué línea de pensamiento ha de conllevar la verdad. ¿Se crearán nuevos conceptos o se hallan aún ocultos? Otro importante episodio de debates a destacar, corresponde al transcurrido un par de siglos antes, desde el descubrimiento del cálculo infinitesimal por I. Newton (1642-1727) y G.W. Leibniz (1646-1716). En pleno auge de dicho cálculo, los planteamientos lógicos del obispo y matemático G. Berkeley expuestos en The Analyst (1974) constituyeron una brillante y a la par, devastadora crítica del método infinitesimal que no pudieron ser debidamente contestados32 . En un principio, los incruentos ataques de Berkeley contra los infinitésimos (números infinitamente pequeños y, sin embargo, mayores que cero), no fueron tomados en consideración. Las dificultades que se presentaron pudieron ser aparentemente sorteadas, formulando una reconstrucción del cálculo infinitesimal sobre la base de una noción de "límite'', cuya definición (concretada en épsilon-delta) equivalía a la reducción del cálculo a la aritmética de los números reales. Una dificil situación paradójica se originó a la sazón, aunque no consiguió impedir a matemáticos, físicos e ingenieros, que siguieran practicando el uso de infinitesimales decenas de años más tarde, incuestionablemente con gran éxito. Lo ocurrido en realidad fue que la noción de límite no había quedado plenamente asegurada con la definición dada por A. Cauchy (1789- 1857)33 y tuvo que reemplazarse por otra mejor precisada y reformulada por K. Weierstrass (1815-1897), y que ponía en evidencia que se podría prescindir absolutamente de lo infinitesimal. Una serie de trabajos de diversos matemáticos culminaron al respecto, ya en el siglo XX, una innovadora teoría que resucitaba y legitimaba a los infinitésimos, un concepto aparentemente expulsado del ámbito matemático en el siglo XIX. lógica puede hacernos rechazar algunas demostraciones, pero no puede hacernos creer en ninguna" (véase M. Kline, ibid, cap. 1 O y 14, para más detalles). 32 La lógica de Berkeley no admitía réplica. Decía Berkeley: "¿qué son estas fluxiones? Velocidades de incrementos que desaparecen. Y ¿qué son estos incrementos que desaparecen? Ni cantidades finitas, ni infinitamente pequeñas, ni nada. ¿No sería mejor llamarlas fantasmas de cantidades difuntas?". Newton no respondería a las críticas, si bien Leibniz sí lo hizo en un artículo que comenzaba afirmando que los "infinitésimos no son números reales", sino ficticios, que están gobernados por las mismas leyes que los números ordinarios (véase M. Kline, ibid, cap. 6). 33 Las definiciones de Cauchy de límite y continuidad fueron correctas en lo esencial, pero el lenguaje que utilizó era, no obstante, vago e impreciso. 147 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 El más importante de los que contribuyeron a reavivar la noc10n de infinitesimal fue el lógico matemático Abraham Robinson34 (1918-1974), quien en la década de los 1960 introdujo un nuevo sistema llamado análisis "no estándar", interesante proceso que se afianzaría positivamente en la ya secular contienda inacabada entre lo finito y lo infinito, entre el continuo y lo discontinuo. Este análisis desarrollaba una teoría consistente (usando infinitésimos), que con la introducción de unos llamados números hiperreales y mediante un método axiomático, permitió a Robinson definir con rigor un conjunto R *, que incluyera al conjunto R de los viejos números reales y a los infinitésimos. Los infinitésimos35 , en este caso, representan números fijos, no variables en el sentido de Leibniz ni variables que se aproximan a cero, que es el sentido con el que Cauchy utilizaba el término36. En el análisis no estándar se introducen nuevos números infinitos, que son los recíprocos de los infinitésimos, pero no los números transfinitos de Cantor. Además, todo número hiperreal finito r es de la forma x+r¡, en donde x es un número real ordinario y r¡ es un infinitésimo. Un infinitésimo "positivo" es menor que cualquier número real ordinario positivo, pero mayor que cero; análogamente, un infinitésimo "negativo" es mayor que cualquier número real negativo, pero menor que cero. "El análisis no estándar facilitó una alternativa del análisis clásico que pudo, no obstante, conducir a enfoques divergentes e incluso contrapuestos. De cualquier modo, lo que fuera considerado ilógico y desterrable, sería luego aceptado por algunas escuelas corno lógicamente sólido" 37 . El análisis no estándar puso de manifiesto muchas y sorprendentes aplicaciones, en especial de la lógica matemática en intrincados problemas del análisis, así como en la teoría de procesos estocásticos, en la teoría de grupos, en técnicas sintácticas (en particular, la aplicación del método ITS de E. Nelson, para una extensión de la teoría de conjuntos de ZermeloFraenkel), .... Fue notorio e instructivo por otra parte que, además de los números hiperreales de Robinson, el campo de las matemáticas se viera enriquecido 34 Véase Non Standard Analysis, Ámsterdam, North-Holland Pub!. Co.;Elsevier,N. York, 1974, ed. rev. 35 En el análisis no estándar, cuando se habla de la existencia de los infinitésimos no es en el sentido que Berkeley hubiera dado a dicha noción. 36 En realidad, fue la noción de lenguaje formal la que facilitó a Robinson enunciar con rigor lo que, según Leibniz, se podía razonar sin error, como si los infinitésimos no existiesen. El planteamiento de Robinson consiguió eludir con éxito, la cuestión que tanto encendió a Berkeley y a otros polemistas del siglo pasado, a saber, si las magnitudes infinitesimales existían de verdad en algún sentido positivo. Véase Davis y Hersh, The Mathematical Experience, ibid, cap. 5, p. 254. 37 M. Kline, La pérdida de la certidumbre, ibid, p.334. 148 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 en la segunda mitad del siglo XX, con un buen número de ideas y aportaciones nuevas, ciertamente interesantes. Entre las nociones que se introdujeron, figuran conceptos tan extraños como los números surreales de J. Conway38 y los monstruos de Fisher39, entre otros. Esas innovaciones se incorporaron a la ya multisecular disyuntiva histórica: ¿Existían esas nociones antes de que el investigador las descubriera o fue él mismo quien realmente las había creado? Otra importante discordia en la evolución de las matemáticas, se planteó en uno de los más arduos problemas pendientes que se había originado en Ja teoría de grupos de su rama del álgebra. Fue tal el grado de desarrollo en las postrimerías del siglo XIX de la teoría de grupos finitos, que la meta esencial en esa área llegó a ser el afán de lograr una "clasificación completa de los grupos finitos simples". Para hacerse una idea clara y comprensiva de ese problema 40, a un científico no especializado se le requeriría tener cierta base matemática; y sobre todo saber de antemano, que la clave fundamental para comprender todas las clases de grupos, sería la de asimilar bien el concepto de grupos simples, un calificativo bastante desafortunado que induce a pensar que significa fácil, cuando sucede todo lo contrario. Recordemos brevemente algunos conceptos. La noción de "grupo" matemático fue introducida por E. Galois ( 1811- 1932) y constituye una de las más sencillas estructuras matemáticas abstractas. Un grupo G se define formalmente como un conjunto de elementos que, junto con una operación, permite combinarlos. Muchos grupos constan de un número infinito de elementos; como el conjunto formado por los números enteros, provisto de una operación, la adición, por ejemplo, que constituye un grupo que combina dos elementos y produce un tercero. La operación (o regla de composición), en este caso Ja adición, puede adquirir una forma más general. Con más precisión, por grupo se entiende un conjunto arbitrario no vacío, con una operación binaria que 38 J.H. Conway (1976) no sólo obtiene con sus números surrealistas una definición del número oo como infinito potencial, sino que deduce la fantástica ecuación oo = ~ que enlaza mágicamente al infinito potencial oo, al más simple infinito actual w y al infinito absoluto n. 39 El descubrimiento por Z. Janko (1965) de un extraño grupo con 175.560 elementos, que promovió la teoría moderna de grupos esporádicos, del que forma parte el conocido como "monstruo" de Fisher (de orden aprox. 8 x 1053) , tuvo la virtud de impregnar de un halo de misterio a la naturaleza de los grupos simples, de los que hablaremos más adelante. 40 Para más detalles sobre el problema, véase N. Hayek, El monstruo algebraico, Rev. Acad. Canar. Cienc., XV (Núms. 1-2), 131-146 (2003). 149 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 satisface un sistema de axiomas 41 • Esa regla de composición de elementos en un grupo, es también satisfecha por muchos sistemas de tamaño finito. Tales sistemas se denominan grupos finitos. Cualquiera de ellos tiene sólo un número finito de elementos, número que representa su orden. Un subgrupo K de un grupo G, es un subconjunto de G que hereda la estructura de grupo de la operación en G. Un estudio sistemático se hizo de toda la teoría de los grupos, tanto finitos como infinitos, y de sus posibles generalizaciones y aplicaciones. Una primera conclusión que se reveló como indispensable para la posterior clasificación, fue la de que un grupo finito G puede descomponerse en grupos "simples", básicos para comprender su estructura e imposibles de descomponer en unidades menores de la misma naturaleza 42. De este modo, en el contexto de los grupos finitos, el objetivo fundamental consistió entonces en la determinación de grupos finitos simples 43 , que se refieren a muchos de los grupos clásicos de matrices sobre campos finitos. Por otra parte, en la clasificación se incluirían también más tarde, otros grupos finitos llamados "esporádicos", debido a que fueron descubiertos con métodos específicos que conllevaban ideas que no se prestaban a generalización. Todo grupo finito posee una representación especial llamada "regular". Cuando se habla de clasificación de los grupos finitos simples, no es para describirlos uno por uno, sino para estudiar su distribución en familias de grupos simples, e indagar un medio que permita decidir si uno de esos grupos pertenece o no a alguna de esas familias. En 1963 se logró un avance espectacular, al demostrar44 Walter Feit y John Thompson de la Universidad de Chicago que todo grupo finito simple, o bien es cíclico, o bien de orden par. Una conjetura que fue formulada por William Bumside (1852-1927), muchos años antes (a principios del siglo XX) y en la que se afanaron una oleada de matemáticos. Inicialmente, los 41 La definición abstracta de grupo que actualmente se utiliza, es la que se refiere a una colección de elementos, en cantidad finita o infinita, con una operación * que aplicada a dos elementos de la colección, produce otro de la misma colección (criterio de cierre). La operación es asociativa, hay un elemento identidad e tal para cualquier a del grupo se tiene a*e = e*a = a. Además, para cada elemento a existe un elemento inverso a·1 , tal que a*a·1 = a·1 *a= e. Esencialmente, un grupo representa una forma matemática de expresar la noción de simetría. 42 Este hecho está subordinado a la existencia de ciertos subgrupos especiales H; de G llamados subgrupos "autoconjugados" (y también invariantes o normales), en los que se cumple g H¡ = H¡ g, para todo elemento g de G. 43 Un grupo "simple" es un grupo sin ningún subgrupo autoconjugado. 44 Una demostración bastante complicada de unas 250 páginas que ocupó un número entero del Pacific Journal of Mathematics. 150 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 grupos "cíclicos" fueron los más fáciles de hallar. Se trata de grupos que no tienen subgrupos de ninguna clase. Están constituidos por los conjuntos de números enteros módulo un número primo en los que se define la adición, y representan además los únicos grupos simples conmutativos 45 . La segunda familia fue la de los grupos alternados de permutaciones de n letras (n>4), los cuales son no conmutativos 46. Existen además otras familias cuya descripción es bastante más complicada y las mismas representan familias infinitas que proceden de la teoría de Líe. Todas ellas admiten representaciones en forma de grupos de matrices cuadradas. Una de las interesantes direcciones de investigación consistió en la determinación de grupos resolubles (Frobenius, 1897). En definitiva y como consecuencia de las investigaciones que se realizaron, en total se pudo hallar 18 familias infinitas de grupos (finitos) simples, que serían bautizadas con los nombres de grupos de C. Chevalley (lineales, · simplécticos, ortogonales y excepcionales), grupos de R. Steinberg, de M. Susuki y de R. Ree. Se encontraron también, por otra parte, otros grupos muy irregulares a los que anteriormente nos hemos referido, que fueron básicamente definidos por lo que ellos justamente no eran, esto es, como grupos simples que no pudieron ser encajados en ninguna de las mencionadas 18 familias regulares, y que tendieron a ser reconocidos por el matemático que los descubrió. Los cinco primeros de esos grupos irregulares fueron hallados por E. Mathieu en 1861 y 1873, los cuales estaban asociados con geometrías finitas (el menor de ellos contenía 7920 elementos). Cien años después (1965) Z. Janko descubrió un sexto grupo esporádico de 175.560 elementos, así como más tarde otros tres, hasta que finalmente se completó Uunto a otros matemáticos asociados a este proceso de descubrimiento, entre ellos, Hall, Fisher, Conway, Thompson, Griess, ... ) un total de veintiséis grupos esporádicos 47• 45 Un tipo notable de grupo cíclico, es el grupo finito no numérico de permutaciones de objetos cualesquiera (por ejemplo, el de simetrías rotacionales del cubo), cuya ley de composición permite trasladar sucesivamente los elementos u objetos un puesto a la izquierda e insertar por la derecha el sobrante. 46 El ejemplo más pequeño de grupo simple no conmutativo tiene orden 60, siendo ese el grupo que Galois descubrió cuando realizaba su trabajo sobre la ecuación algebraica de quinto grado. Una noción crucial, la de grupo resoluble, ideada por Galois, estuvo vinculada a este problema. 47 En la mayoría de los congresos importantes de matemáticos, desde 1960 hasta bien entrados los 80, era muy raro que no se hablase de grupos simples, de algún resultado nuevo, de rumores sobre posibles errores acerca de su clasificación, . . . Gracias a un programa de investigación organizado por D. Gorenstein de la Universidad de Rutgers, se había probado que la lista de 26 grupos esporádicos era exhaustiva. En cierto sentido, ese descubrimiento conlleva que los componentes, los bloques constructivos, de cualquier grupo con un número finito de elementos, queden definitivamente clasificados. En realidad, 151 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 Forma también parte de ellos, el actualmente conocido como el monstruo, cuya existencia fue vaticinada por B. Fisher en la década de los 1970. La denominación procede de su tamaño, ya que el número de elementos de este grupo es, aproximadamente, de 8 x 1053 , esto es, un 8 seguido de 53 ceros. El monstruo puede ser interpretado como un grupo de rotaciones en un espacio de dimensión 196883 Durante un período de unos treinta años que se inició a mediados del siglo XX, muchos investigadores de primera fila contribuyeron de manera directa al establecimiento de la prueba de la clasificación de los grupos finitos simples, una prueba que fue anunciada por D. Gorenstein48 en una reunión de la American Mathematical Society (enero 1981 ). El teorema de clasificación de grupos finitos simples, afirma 49 : "El conjunto de los grupos finitos simples está compuesto por 18 familias de grupos regulares e infinitas, más los 26 grupos esporádicos"; un fundamental resultado que expresado más explícitamente indica que, "si se tiene un grupo finito simple, o se trata de un grupo cíclico de orden primo p, o bien de un grupo alternado A11 (n25), o bien pertenece a una de las dieciséis familias de grupos simples tipo Líe, o bien es uno de los 26 grupos esporádicos". La demostración del teorema exigió probar que un grupo simple cualquiera, cuya estructura de subgrupos es desconocida y quizás arbitrariamente compleja, posee una estructura de subgrupo equivalente a la de uno de los grupos finitos simples conocidos que componen las 18 familias infinitas de la lista del enunciado (método que había sido también fructífero para encontrar varios de los grupos simples esporádicos). Téngase en cuenta que la demostración completa del teorema había consistido en reunir cientos de artículos escritos (alrededor de 500) por aquellos matemáticos, y sus resultados se encuentran condensados en unas 15.000 páginas. La longitud de esa demostración, no sólo fue insólita en los anales de la matemática, sino incluso también la desconcertante naturaleza de la solución. Fue obvio que el resultado de la prueba resultara discutible, porque difería de la de los textos clásicos. Entre las demostraciones tradicionales, el record actual de extensión lo ostenta dicho teorema de clasificación de grupos finitos simples. Algunos creen que tal vez la hubo de combinarse pacientemente una vasta literatura de teoremas, la mayor parte de ellos publicados entre 1955 y 1983, para proporcionar el resultado fundamental que se conoce como "teorema de clasificación de los grupos finitos". La clasificación completa se logró en 1985, antes incluso de lo esperado y no sin enorme esfuerzo (véase D. Gorenstein, Classifying the finite simple groups, Bull.Amer.Math.Soc.,14, 1-98,(1986) 48 R. Solomon, On finite simple groups and their classification, Notices of the Am. Math. Soc, 42, 1, 1-98 (1986), p. 18. 49 R. Solomon, ibid, 42, 231-239 (1995). 152 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 extremadamente extensa prueba del teorema, pueda ser reducida en el transcurso de unos pocos años a unas 4000 páginas, con la estrategia (en apariencia sencilla) de proceder por reducción al absurdo, suponiendo que el teorema es falso y reducir la prueba al hallazgo de una contradicción. Si bien en los medios matemáticos se le conoce como un teorema, lo cierto es que es la prueba y no el teorema, el que merece el calificativo. Y aunque en la actualidad, la determinación de todos estos grupos se encuentra poco menos que virtualmente completa, el teorema definitivo que ha sido establecido para la clasificación de grupos simples, es poco parecido a cualquier otro de la historia de las matemáticas. Hay que agregar que, el teorema probado por Gorenstein, había partido de una primera aproximación cercana a una estrategia de clasificación que propuso R. Brauer en 1954, el cual produjo después algunas situaciones de perplejidad. Durante años se procedió a revisar más a fondo la clasificación de los grupos simples, con un laborioso trabajo de revisión (conocido como GLS), que emprendió Gorenstein junto con R. Lyons y R. Solomon en 1982, y que dio lugar a unos doce volúmenes (de cinco partes) publicados por la American Mathematical Society. Se produjeron también desavenencias y opmtones diversas a raíz de la resolución de algunos célebres problemas matemáticos clásicos que estaban pendientes, como el conocido como "problema de los cuatro colores'', cuyo enunciado era el siguiente: ¿Cuántos colores son necesarios para colorear un mapa trazado sobre una superficie plana (o sobre una superficie esférica), sin que dos países que tengan líneas fronterizas comunes estén coloreadas del mismo modo? 50. Los países pueden tener la forma que se quiera, pero cada uno de ellos debe constituir una sola región conexa. Que cuatro colores bastaban para estudiar el problema, se había considerado desde hacía tiempo 51 • El primero en presentar este hecho de que se 50 En el caso de que dos países cualesquiera "adyacentes" (o sea, con frontera común) se intersecten sólo en un punto (o incluso un número finito de puntos), deben ser coloreados del mismo tono. 51 Se partió de la base de que cualesquiera dos países que linden en un solo punto no se consideraban adyacentes, al existir casos en que un mapa con cuatro países y en donde cada país fuese adyacente (es decir, lindase en una línea fronteriza) con los otros tres, requiere cuatro colores, lo cual significaba que una conjetura de tres colores sería falsa, al no ser suficientes tres colores para colorear todos los mapas. Por otra parte, para todo mapa pentacromático (o de cinco colores) existen casos en que cinco países no pueden jamás posicionarse, de tal modo que cada uno de ellos fuese adyacente a cada uno de los cuatro restantes (o sea, el mapa pentacromático tendría que tener menos de 5 regiones). Todo ello condujo a que el número de colores del problema habría de ser cuatro. 153 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 requerían cuatro colores, como conjetura matemática, fue Francis Guthrie (1852). En realidad, el enunciado de la "conjetura de cuatro colores" encandiló sobremanera durante más de un siglo a los matemáticos, sobre todo por su simplicidad, que contrastaba de manera desconcertante con la enorme dificultad que conllevó luego su resolución. Hubo numerosos intentos que no dieron resultado y la conjetura de los cuatro colores señaló un hito en la historia de los más sobresalientes problemas pendientes desde mediados del siglo XIX hasta años postreros del XX. Hasta incluso ilustres matemáticos se implicaron sin éxito en la conjetura . El primero en contribuir fue Augustus de Morgan (1806-1877), quien mostró en principio, que no podían haber cinco regiones de cualquier mapa que fuesen mutuamente adyacentes, si bien más tarde se descubrió una contradicción que invalidaría su argumento. Para mayor desilusión, ni de Morgan, ni otro de los grandes matemáticos de su tiempo, Arthur Cayley (1821-1895) pudieron encontrar un método para demostrar la verdad o falsedad de la conjetura. En 1878, este último propuso el problema a la London Mathematical Society. En 1879, A.B. Kempe (1849-1922), que era miembro de esa Sociedad, publicó un artículo que proclamaba haber demostrado la conjetura52. Desgraciadamente, el razonamiento de Kempe que se basó 52 La "prueba" de Kempe no resultó ser completa, si bien contenía una gran parte de ideas básicas que apuntaron eventualmente a la prueba correcta que se consiguió un siglo más tarde. Desde que Kempe introdujera la importante idea de "reducibilidad", se desarrollaron métodos para examinar configuraciones reducibles. Otro destacado matemático de la época, G.K. Birkhoff(l884-1944) de Harvard, y también en especial, P. Franklin ( 1898-1965) con un notable resultado al respecto, constataron la existencia de muchas configuraciones que eran reducibles, así como G. Heesch cuyo trabajo iniciado en 1936 sería crucial en la teoría de dichas configuraciones. Para explicar su razonamiento, Kempe consideró suficiente trabajar solamente con mapas "normales" (nominados así los mapas en los que nunca se encuentran en un punto más de tres regiones, y donde asimismo ninguna región del mapa rodea completamente a las demás). Él sabía que a cada mapa puede asociársele un mapa normal que exige al menos tantos colores como él, por lo que le bastaba demostrar la conjetura para mapas normales; y en principio, demostró que en todo mapa normal existe al menos, una región que contiene como máximo cinco vecinas, lo que significa que en cualquier mapa normal ha de aparecer uno de cuatro determinados tipos específicos de configuraciones que representan los cuatro casos posibles de región con 2, 3, 4, o 5 vecinas. El hecho de que forzosamente tenga que darse al menos uno de esos cuatro, se describe diciendo que dicho conjunto de configuraciones es inevitable. Estaba claro que la intención de Kempe consistía esencialmente en encontrar un conjunto inevitable de configuraciones reducibles, para conseguir la prueba de la conjetura. Por ello, trató ante todo de mostrar de qué forma se podría construir en cualquier caso de mapa forzosamente pentacromático, un mapa de menor número de países que siguiera siendo pentacromático (con lo que una tal construcción haría que Ja configuración fuera reducible). De lograrlo, mediante el proceso clásico de reducción al absurdo, la demostración sería inmediata. Fue lo que hizo: partir de un mapa pentacromático cualquiera, mostrar que se puede construir 154 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 sobre la idea de reducibilidad era incorrecto en el caso de una región con cinco vecinas. El error fue señalado en 1890 por P .J. Heawood (1861-1955) y no fue fácil de reparar53. Cerca de un siglo más tarde, en 1976, tuvo lugar un inesperado acontecimiento: el anuncio de la demostración definitiva de "la conjetura de los cuatro colores", conseguida por los profesores K. Appel y W. Haken de la Universidad de Illinois. Ahora bien, esta vez una parte esencial de la demostración se basaba en cálculos de ordenador, y esto ocasionó una situación que llegó a poner en tela de juicio el concepto clásico de demostración. Se tenía constancia de que el ordenador en algunos problemas de la matemática aplicada, había servido para calcular soluciones aproximadas cuando la teoría no era capaz de dar una solución exacta; de igual forma que para otros campos, por ejemplo en la teoría de números primos, con el ordenador se facilitaron en ocasiones, datos para la formulación de conjeturas de algunos de sus teoremas. En ambos casos, se estimó que la asistencia del ordenador no afectaba a lo que se demuestra, es decir, que la matemática rigurosa de la demostración permanece incontaminada por la máquina. No obstante, tenemos que enfatizar en que la anterior situación acaecida, es muy diferente a la que produjo el teorema de Appel-Haken, porque sus autores presentaron su trabajo como una demostración completa, definitiva y rigurosa. En cierta ocasión, el profesor Haken niega específicamente que la noción de demostración matemática haya sufrido el más mínimo cambio por haber utilizado Appel y él un ordenador. Decía Haken: "No se altera la noción. Lo que cambia no es la teoría, sino el ejercicio de la matemática". En último extremo, en la demostración definitiva de la conjetura por K. Appel y W. Haken se volvió a utilizar la idea de exhibir un conjunto inevitable de configuraciones reducibles. Sin embargo, en lugar de las cuatro sencillas configuraciones que comparecían en la demostración de Kempe, el conjunto inevitable contenía millares de ellas, la mayor parte de tal complicación, que la única forma de poder demostrar su reducibilidad tuvo necesariamente que contar con ayuda de un ordenador de alta velocidad. No obstante, la demostración de Appel y Haken consistía en una serie de pasos lógicos y analizables uno por uno, que llevaran hasta la otro pentacromático con menor número de regiones; tras un número finito de pasos, pudo obtener un mapa pentacromático con menos de cinco regiones, hecho, que a todas luces, era ciertamente absurdo. Y esto le hizo creer haber demostrado la conjetura. 53 La exposición del problema de los cuatro colores que nos ocupa, salvo varios párrafos que hemos añadido, ha sido recogida de P. Davis y R., Hersh, The Mathematica/ Experience, ibid, cap. 8, 385-387; véase también, Mathematics Today (Edit. Arthur Steen), Springer Verlag, N. York-Berlin, 1979 (K. Appe/ y W Haken, The Four Color Prob/em, pp.153-180), para más detalles. 155 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 conclusión, y esa conclusión fue que la conjetura quedó reducida a una predicción que involucraba el comportamiento de más de dos mil mapas diferentes. Tras unas mil horas de cómputo, la máquina concluyó que dicho mapas se comportaban en la forma prevista, por lo cual la conjetura de los cuatro colores se consideró como verdadera. "Se sabe en la actualidad, cómo ha sido posible hallar la prueba del problema de los cuatro colores. Lo que no podemos saber (ni tal vez nunca) es si existe alguna prueba que sea elegante, concisa y completamente comprobable por alguna mente matemática (humana)", han señalado Appel y Haken 54 En resumidas cuentas, ¿qué es lo que debe pensarse acerca de todas estas dudas y controversias sobre la realidad matemática? ¿Cómo y cuales han sido sus consecuencias? Si nos ajustamos a los cánones del rigor moderno, ¿qué se puede decir de verdad, acerca de lo que es o debiera ser un teorema matemático? Dicho de otra manera, ¿qué se ha de aceptar y entender en la actualidad como prueba matemática? ¿Puede reconocerse como demostración matemática la que se obtiene con los insoslayables recursos de un ordenador? Para precisar las respuestas a estos interrogantes y centrar mejor las ideas, nos parece necesario acompañar un resumido análisis puntual y retrospectivo del conjunto de las situaciones conflictivas de los cuatro períodos expuestos, en cuyo análisis se incluye al propio tiempo y en lugar oportuno, un extracto de lo que dio lugar al nacimiento y desarrollo del ordenador electrónico. 3. Certeza, incertidumbres y el advenimiento del ordenador electrónico: Una visión de conjunto. Durante siglos los fundamentos de las matemáticas se apoyaron sobre los estamentos básicos de la lógica. Los matemáticos se encontraban realmente convencidos de que el razonamiento deductivo no podía jamás reconducir a resultados inconsistentes, y calibraban los avances de su ciencia por los teoremas que habían sido demostrados (un juicio convencional que se convirtió en un rosario de serias dudas que duraría muchísimo tiempo hasta la aparición de las paradojas lógicas al comenzar el siglo XX). 54 Es innegable, advierten P. Davis y R. Hersh, que "la aceptación del teorema de AppelHaken involucra un acto de fe, que se traduce mayormente en la creencia de que los computadores hacen lo que se supone deben hacer, degradando así el nivel de certeza matemática al del conocimiento común, irremediablemente ligado a posibles escepticismos" 156 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 A finales del siglo XVII las matemáticas se encontraban en una situación de incertidumbre, que perduraría hasta que una gran mayoría de matemáticos del XVIII señalara la inexistencia de una fundamentación de su disciplina que fuera correcta, lo que promovió que a lo largo del mismo se tuviera que luchar frente al concepto de infinitesimal, que venía siendo usado con unas reglas arbitrarias. Ese siglo XVIII acabó, no obstante, con una lógica del cálculo (y de varias ramas del análisis construidas sobre el mismo) en un estado de auténtico confusionismo que se dilató hasta las postrimerías del siglo XIX. Cuando se abandonó el intento de conseguir la verdad matemática apoyada en la lógica, los desarrollos que hubieron a partir de 1900 de los fundamentos de las matemáticas, fueron desconcertantes. El análisis no estándar representaría principalmente, entre otras alternativas, una reconstrucción racional consistente de la desacreditada teoría infinitesimal. En los primeros años del siglo XX se inició una batalla por encontrar nuevos enfoques en los fundamentos, creándose varias escuelas de pensamiento. Como hemos señalado con anterioridad, la primera de ellas (la logicista), se sustentó en una tesis que, brevemente enunciada, afirma que todas las matemáticas son derivadas de la lógica, creyendo que esta última representaba un conjunto intocable de verdades; y otras se apartaron de la lógica e incluso la abandonaron. La segunda de las grandes escuelas (la constructivista), originada en 1908 y con frecuencia conocida como intuicionista, sostenía que los números naturales nos son dados por una intuición fundamental, que es el punto de arranque de todas las matemáticas (que como toda actividad humana es, se origina y tiene lugar en la mente). La tercera escuela importante (la formalista), creada por Hilbert, mantuvo que ni el logicismo ni el intuicionismo probaban la consistencia de las matemáticas. Para los formalistas, las matemáticas constituyen una colección de sistemas formales, cada uno de los cuales construye su propia lógica y tiene sus propios conceptos. En 1915 Hilbert emprendió un programa de restauración de las matemáticas, y durante la década de los 1920 formuló su propia aproximación de los fundamentos con unas bases axiomáticas para la lógica, con un método (la metamatemática) para probar la consistencia de cualquier sistema formal. La verdad matemática quedaría empañada por el conflicto que se desencadenó entre las escuelas de fundamentos 55 . 55 Ya hemos anotado anteriormente, que el programa de Hilbert causó un gran impacto entre los matemáticos de la segunda mitad del siglo XX. El estilo formalista fue el que predominó, calando en obras matemáticas y en libros de enseñanza con el papel de matemática moderna.(Véase G.T. Kneebone, ibid.). 157 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 En 1927 John von Neurnann (1903-1957) publicó un famoso artículo conjeturando que debía probarse cuanto antes que Ja lógica se encontraba liberada de contradicciones. Sin embargo, nadie sospechó que unos años más tarde (1931), el teorema de incornpletitud de Godel ocasionaría una tremenda sacudida en la concepción clásica del proceso de demostración, poniendo en tela de juicio la propia naturaleza de la verdad matemática. Se había llegado hasta el extremo de que existieran proposiciones que habían sido consideradas corno verdaderas por intuición y que fueron repetidamente falsas por lógica. A raíz de esto, se generaron grandes consecuencias, que crearon nuevas ramas de estudio de lógica matemática, reivindicando una reconsideración de la filosofia matemática, y más aún, de las filosofias del conocimiento en general. Entre otros, Hans Hahn (uno de los más brillantes lógicos del Círculo de Viena, maestro de Godel y alumno de Hilbert), argumentó contra la intuición en un célebre ensayo 56 , en el que aseguraba que "la intuición es engañosa en muchos casos y ejemplos, lo que hacía que la mayoría de matemáticos se mostrara cada vez más escéptica acerca de la validez de aquella". Así, se produjeron discrepancias que involucraron principalmente a los filósofos de la ciencia, con el planteamiento de fuertes debates que afectó de lleno al teorema, pilar primordial de la arquitectura matemática 57 . La demanda de expulsión de la intuición por parte de muchos sectores, no se hizo esperar, clamándose al propio tiempo, por la formalización completa de las matemáticas 58, aunque hay que advertir también que algunos grandes filósofos como L. Wittgenstein 59 estimaron después que la lógica matemática deformaría por completo el pensamiento de matemáticos y filósofos. Esas discrepancias se mantuvieron durante años y perseveraron hasta tiempos recientes. Entre otros, M. Kline da cuenta 60 de haberse refutado el mito de que muchos ilustrados siguieran creyendo que la matemática fuese un conjunto de verdades inquebrantables sobre el mundo fisico y que el razonamiento matemático era exacto e infalible. Los matemáticos rehusaron 56 La crisis de la intuición, Sigma, El mundo de las matemáticas 5, 342-362, Edit. Grijalbo, Barcelona (1969). El objetivo principal de Hahn era la visión kantiana del espacio como una de las formas de intuición pura. 57 Una gran parte de matemáticos decidió que era arriesgado aceptar una proposición matemática, y mucho menos basar, cualquiera de las áreas de su disciplina, sobre convicciones intuitivas. Véase S. Fefferman, Mathematical intuition vs. Mathematical monsters, Twentieth World Congress of Philosophy, Boston MA, Agosto (1998). 58 La tarea de formalizar toda la matemática, para reducirla enteramente a la lógica, resultó ardua y dificil, ya que significaba nada menos que una reforma íntegra de todas y cada una de sus partes. 59 Remarks on the Foundations of Mathematics, Oxford, 1966. 60 M. Kline, ibid. 158 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 aceptar la opm1on de muchos científicos y filósofos de que sus asertos fueran, a lo sumo, provisionalmente ciertos, esto es, verdaderos, mientras no se demostrara que eran falsos. Una incertidumbre que fue evidentemente fruto de la creciente complejidad que hubo de padecer la matemática. En otro orden de cosas, los matemáticos sabían que sus áreas más abstractas mantenían profundas conexiones con el mundo real, pero que a menudo se originan de otras maneras61 • Las verdaderas matemáticas son descubiertas y no inventadas 62. No obstante, la relación de la matemática con la realidad, ha sido despreciada con demasiada frecuencia, una cuestión que se encuentra muy bien precisada en una interesante obra de F. Gonseth 63. Aún más. Todo el mundo científico tenía asimilado con envidia la supuesta unanimidad de los matemáticos, pero de hecho existía una controversia considerablemente amplia en su disciplina y de tal envergadura, que los matemáticos puros negaban las pruebas de los matemáticos aplicados, mientras los lógicos a su vez, repudiaban las de los matemáticos puros. De hecho, defensores críticos de unos y de otros, no están de acuerdo. Los matemáticos puros reivindican el valor de su trabajo y el desafio intelectual. Para los aplicados, el objetivo principal de las matemáticas no es otro que el de la utilidad pública y la explicación de los fenómenos naturales. Los matemáticos aplicados no muestran en general, síntoma alguno de preocupac10n por las demostraciones rigurosas. En cambio, los puros objetan que los aplicados, en diversas ocasiones, utilizan técnicas injustificadas. Observaciones llenas de ironía incluso, no faltan 64• La controversia entre los matemáticos puros y los aplicados continúa aún en nuestros tiempos. Esto no significa obstáculo alguno para el desarrollo adecuado que sigue teniendo la matemática, según se estima generalmente. Retomemos a la década de los 1930. Una vez que K. Godel pusiera en evidencia la imposibilidad de probar la consistencia lógica de las matemáticas, sucedió otro acontecimiento sorprendente cuando Alan Turing (1912-1954) mostró la existencia (1936) de un "autómata universal", al indagar sobre las clases de sucesiones de unos y de ceros que pudieran ser 61 Por ejemplo, la geometría de Euclides, las ecuaciones en derivadas parciales y la teoría de grupos, son tres ramas de la matemática tan apartadas una de otra que parecen pertenecer a universos matemáticos diferentes. Y con todo, las tres resultan estar implicadas con nuestro universo fisico. 62 El filósofo T.S. Kuhn, The structure of Scientific Revolution, Univ. of Chicago Press, 1970, sostenía que las teorías científicas son aceptadas, no por que sean "verdaderas" en un sentido objetivo, sino por razones sociales. 63 Les Mathématiques et la Réalité, Essai sur la Méthode Axiomatique, Paris (1936). 64 Estas diferencias son plasmadas en muchas obras (por ej ., M. Kline, ibid, cap. 13). 159 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 reconocidos por una máquina abstracta por medio de un número finito de instrucciones. Esto había de traducirse nada menos que en el nacimiento del computador electrónico, cuyo desarrollo constituiría la aplicación más importante del siglo XX y que en particular produjo un gran impacto en la matemática pura. Sin embargo, habría de ser el gran matemático John von Neumann (1903-1957) quien de hecho implementara (1944) el autómata universal como un computador electrónico con instrucciones almacenadas, a través de un "programa" que la propia máquina podía alterar en el transcurso del cálculo. Años más tarde, los lenguajes de programación de otros mejores computadores representaron un nuevo formalismo matemático que sustituyó a otros antiguos de las matemáticas aplicadas (derivados del análisis, matemáticas discretas, topología y lógica), en cuanto a la formación de innovadoras e interesantes teorías. La mayor parte de las pruebas asistidas con ayuda del computador, representarían luego implementaciones de pruebas de algunos teoremas matemáticos. Los ordenadores transformaron el panorama del descubrimiento, la demostración y la interconexión de ideas matemáticas. En varias ocasiones, en que las demostraciones habían sido muy largas y complicadas y resultaba de gran dificultad evaluarlas, el ordenador representó un elemento indispensable. Las pruebas obtenidas con ayuda del computador (o "demostraciones computerizadas"), comenzó sembrando controversias en el mundo matemático65 . Demostraciones recientes de célebres problemas requirieron cómputos enormes realizados por computadores, y fueron aceptados a duras penas como válidos, al considerarse que ningún humano (al menos hasta ahora) hubiera podido comprobar esas demostraciones "computerizadas". La popularidad de las matemáticas basadas en el mecanismo informático (de experimentos numéricos o gráficos), desató en esos años reacciones a favor y otras contrarias. 66 65 Algunos matemáticos creyeron que las pruebas extremadamente extensas y realizadas con ayuda de computador, no eran en cierto sentido, pruebas matemáticas reales, a causa de implicar tantos pasos lógicos que no podían ser prácticamente verificables por seres humanos, cuestionando de ese modo a aquellos matemáticos por exhibir su verdad en una programación de computador. 66 Hay dos grupos discordantes, y en ambos existen algunos matemáticos que se pronuncian con reservas. En una de las agrupaciones, D. Mumford escribió al respecto, que "la comunidad de la matemática pura considera a los ordenadores, como invasores que profanan el campo sagrado'', sosteniendo que para establecer la verdad, los experimentos con ordenadores y la concordancia con los fenómenos naturales, no podrían jamás reemplazar a las demostraciones. Igual opinión compartían, entre otros, A.M. Jaffe, D. Ruelle, R. Penrose, F.S. Quinn, P. Deligne (no creo en la demostración por ordenador, sólo si la entiendo y es clara). Entre los del grupo que discrepaban, una buena parte incluso 160 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 Por otra parte, la aceptación de algunos razonamientos como teoremas matemáticos, condujo también a serias objeciones y controversias entre filósofos y matemáticos; y la noción de lo que se ha dado en llamar "demostración rigurosa" fue contemplada por unos y por otros con una visión distinta y controvertida, desde el momento en que para los primeros el uso del ordenador figurara como parte fundamental de la misma, porque así se ocasionaba un debilitamiento sensible de las normas de la demostración matemática.67 Para el filósofo existía una diferencia absoluta entre una demostración que depende de la fiabilidad de una máquina y una demostración que exclusivamente es dependiente de la razón humana. Para el matemático, en cambio, la fiabilidad de la razón da al ordenador la bienvenida, al considerarlo un calculista más fiable de lo que él propiamente lograra llegar a ser.68 4. Conclusión: Una síntesis final. En este último apartado son expuestas unas puntualizaciones finales que complementan toda la temática tratada en los párrafos anteriores. pronosticaría una muerte de la demostración tradicional, para defender las demostraciones "computerizadas". S. Wolfram, creador del programa Mathematica, mostró un absoluto desdén por las demostraciones; W.P. Thurston afirmaría que "en relación con algunas teorías, la fundamentación de la matemática, en cierto sentido respira un aire de irrealidad" (Bull. AMS 30, 161-177, 1944); así como P.A. Griffiths, y muchos más. S. Smale se esmeró en fundar Ja computación sobre bases más firmes y M. Atiyah instó a los matemáticos que se implicaran más en Ja computación, para que se mezclaran con el mundo real. Véase el excelente y ameno artículo de J. Horgan, La muerte de la demostración, Investigación y Ciencia, diciembre (1993). 67 Algunos filósofos, entre ellos S. Tymoczko, Journal of Philosophy, 76, 57-83 (1979). abogaron por cambiar el sentido de Ja "noción" de demostración (o más concisamente, cambiar el sentido subyacente de prueba), ya que involucraba sin duda un deterioro de la certeza que infringe la naturaleza de las matemáticas, aunque desde el punto de vista matemático, la objeción filosófica sería considerada idealista e ingenua. 68 En un artículo publicado en Acta Mathematica (1971), H.P.F. Swinnerton-Dyer comentaba por otro lado: "Cuando un teorema ha sido probado con ayuda de un ordenador, es imposible dar una exposición de Ja demostración que obedezca al criterio tradicional ( ... ).En toda computadora moderna es muy raro que se provoquen errores( ... ), si bien son susceptibles algunos fallos transitorios durante el proceso de cómputo ( ... ). Esto no significa que sea necesario rechazar los resultados del cómputo". Su conclusión fue que "la única forma de verificar estos resultados (si se considera que vale la pena) es volver a atacar el problema de forma totalmente independiente, usando una máquina diferente. Esta actitud se corresponde exactamente con la de la mayor parte de las ciencias experimentales". 161 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 En el primero de los períodos históricos considerados (la tan debatida crisis de fundamentos) se hizo hincapié en las imperfecciones plasmadas relativas a las tres interpretaciones principales de las matemáticas, evidenciándose la existencia de discrepancias que sumergió a los filósofos de la ciencia en un debate que llegó a afectar los cimientos básicos de la matemática misma. Los logicistas despreciaron las pruebas de los formalistas y algunos intuicionistas rechazaron con desdén las pruebas de logicistas y formalistas. Al propio tiempo, los formalistas no aceptaron las restricciones de los constructivistas ni la teología de los platónicos 69. El distinguido matemático y destacado representante de la filosofia positivista R. von Mises70, reflejó correctamente la situación y las expectativas creadas, al señalar que "la matemática, como cualquier otra ciencia, tiene una parte tautológica y un aspecto empírico; y difiere de las demás ciencias en que su aspecto formal es mucho más esencial y decisivo que en cualquier otra. Resulta, por ende, comprensible que la matemática frecuentemente se haya identificado con su parte tautológica". Acaba su trabajo diciendo: "Ninguna de las tres formas de la fundamentación de la matemática- la intuicionista, la formalista y la logicista - ha sido capaz de racionalizar completamente la relación entre los sistemas tautológicos y las experiencias (extramatemáticas), que es su verdadero objeto. Ninguna de ellas fue capaz de hacer de esa relación una parte del sistema matemático mismo". El segundo de los períodos, enclavado en los siglos XVII y XVIII, puede condensarse del modo siguiente: Ante todo, dicho período estuvo caracterizado por la construcción del análisis por los matemáticos sobre inexistentes fundamentos lógicos de la aritmética y el álgebra y con una base algo insegura de la geometría euclídea. Es bien conocido que el núcleo fundamental del análisis fue el cálculo, el cual hace uso del concepto de función. Los que más contribuyeron a la creación de aquel, fueron Newton y Leibniz. La introducción de dos conceptos nuevos y más complejos, el de derivada y el de integral definida, requirió necesariamente de una fundamentación lógica que situaron a los matemáticos del siglo XVII en un gran atolladero, que si bien habían vislumbrado, no lo comprendieron del todo. Pondérese que en aquella época, las matemáticas se encontraban en una situación paradójica y curiosa a la vez. Sus éxitos en la representación y predicción de los fenómenos fisicos estaban más allá de toda duda; sin embargo, la pesada estructura no tenía fundamentación lógica y, por tanto, no existía la seguridad de que las 69 70 I. Lakatos, Matemáticas, Ciencia y Epistemología, ibid., p. 91 . Los postulados matemáticos y el entendimiento humano, ibid, cap. l. 162 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 matemáticas fueran correctas 71 • A pesar de la confusión, principalmente Euler, y luego Lagrange y otros, extendieron el cálculo e intentaron la rigorización, dando una fundamentación lógica, aunque incorrecta. El siglo XVIII finalizó con la lógica del cálculo y las ramas del análisis construidas sobre el mismo, en un estado de absoluto confusionismo. Muchos intentaron después mejorar la situación con aportaciones interesantes, siendo Abraham Robinson uno de los más importantes que contribuyeron muy en especial, a la creación de un nuevo capítulo que constituyó, como anteriormente se dijo, una reconstrucción consistente de la desacreditada teoría infinitesimal. En cuanto a los dos últimos períodos, hay que agregar ante todo que las facultades lógicas del ordenador relegaron a un segundo plano sus habilidades matemáticas que, en ocasiones, supuso una ayuda sustancial para zanjar algunos problemas matemáticos clásicos pendientes de resolución. En particular, nos hemos referido estrictamente a dos de los más célebres de ellos: el problema de clasificación de grupos simples y el problema de los cuatro colores. A raíz de que el teorema de clasificación del primero de ellos (pendiente de resolución desde las postrimerías del siglo XIX) fuera considerado como resuelto, se estimó excepcional por la longitud de su prueba y ostenta el record actual de extensión de los teoremas tradicionales. En 1979, D. Gorenstein, uno de los más ilustrados sobre el tema, aseguraba que "tiene más sentido contemplar la clasificación citada, más bien como un campo completo de las matemáticas, que como el intento de demostrar un único teorema". Y como además no sólo era excepcional la desmesurada extensión de la prueba, sino que también entraba en juego Ja seguridad de la misma, Gorenstein aludía al propio tiempo irónicamente a teoremas casi probados, añadiendo que "parece ir más allá de la capacidad humana presentar un argumento de varios cientos de páginas estrechamente razonado con absoluta seguridad". Resumiendo, con una cadena de razonamientos sumamente larga y complicada, no es raro que Ja prueba rigurosa pueda infundir en el lector que quisiera constatarla, severas dudas y hasta aprensión, cabiendo incluso que resultara menos convincente que un argumento puramente intuitivo. En el teorema de los cuatro colores ya descrito con anterioridad (que fue el primer teorema importante que hubo de ser probado con el uso de un computador), la excepcionalidad en cambio, sería reconocida a causa del uso de computadores. Como ya dijo el gran analista J. Dieudonné, el 71 Para más detalles, véase M. Kline, ibid, cap. 6. 163 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 problema de los cuatro colores deslumbró significativamente a los matemáticos por la simplicidad de su enunciado y la dificultad de su solución. Con el ordenador, el problema se podía afrontar de modo algebraico, analítico o con el recurso a la combinatoria, si bien la última posibilidad permitía comprobar un número finito de casos. Considerándolo · como un problema de combinatoria, hay que estudiar todas las posiciones de N países entre sí, para cada valor de N, y ya habían sido analizadas en particular, posiciones típicas que podían usarse para reducir el problema de N países a un problema de un número menor de ellos. En 1977, Appel y Haken consiguieron demostrar que bastaba considerar un número finito de configuraciones específicas para tener la seguridad de que con cuatro colores era posible colorear cualquier configuración. Sin embargo, ante el hecho de que con un número de configuraciones superior a 2000, era imposible estudiar todos los casos uno a uno, se tuvo que recurrir a un ordenador adecuado que ocasionó un trabajo gigantesco, que no parece guardar proporción con el trabajo final. Se acabó por confiar en que quizás más adelante se descubra otro método que permitiera hacer una demostración de amplitud más razonable 72 . Quizás se infrinja la noción de verdad matemática pero "no es posible trazar una línea que permita separar tajantemente estos dos famosos ejemplos de los teoremas y demostraciones típicas que se vienen publicando en las revistas matemáticas 73 . Una última reflexión: Hasta los tiempos actuales, el futuro de las matemáticas nunca ha sido tan prometedor. La historia nos ha enseñado que surgirán nuevas crisis, pero sin lugar a dudas, los matemáticos seguirán luchando, cualesquiera que sean las dificultades, los problemas y las divergencias que entre ellos se presenten, con el firme objetivo de superarlas. Ya dejó dicho Descartes: Perseveraré hasta encontrar algo que sea cierto, o al menos hasta que tenga por cierto que nada es cierto. 72 73 J. Dieudonné, ibid. P. Davis y R. Hersh, ibid, p. 390. 164 © Del documento, de los autores. Digitalización realizada por ULPGC. Biblioteca Universitaria, 2017 |
|
|
|
1 |
|
A |
|
B |
|
C |
|
E |
|
F |
|
M |
|
N |
|
P |
|
R |
|
T |
|
V |
|
X |
|
|
|