Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
PIERGIORGIO ODIFREDDI LAMATEMÁTICA DEL SIGLO XX DE LOS CONJUNTOS A LA COMPLEJIDAD II PIERGIORGIO ODIFREDDI (Cuneo, Italia, 1950) Estudió matemática en Italia, Estados Unidos y la ex Unión Soviética. Enseña lógica en las univer- sidades de Turín y de Cornell. En 1988 recibió el premio Galileo de la Unión Matemática Italiana. Ha trabajado sobre problemas de lógica intuicio- nista. Actualmente, su campo de investigación es la teoría de la recursividad. Primera Edición, 2006 Traducido por Idiarte, Cecilia Prólogo de Gian Carlo Rota Título de la edición original: La matematica del Novecento. Dagli insiemi alla complessità Turín, 2000 La Matemática del siglo XX III A Laura que me libera del tiempo y el espacio y me da la alegría y la paz que me han sido negadas por el Número y el Punto. IV Índice general 1. Prólogo de Gian Carlo Rota 1 2. Agradecimientos 7 3. Introducción 9 4. Fundamentos 17 4.1. Década de 1920: Los Conjuntos . . . . . . . . . . . . . . . . . . . 19 4.2. Década de 1940: Las Estructuras . . . . . . . . . . . . . . . . . . . 23 4.3. Década de 1960: Las Categorías . . . . . . . . . . . . . . . . . . . 27 4.4. Década de 1980: El Lambda Cálculo . . . . . . . . . . . . . . . . . 31 5. Matemática Pura 37 5.1. Análisis: La medida de Lebegue (1902) . . . . . . . . . . . . . . . . 41 5.2. Álgebra: La Clasificación de los campos de Steinitz (1910) . . . . . . . . 46 5.3. Topología: El Teorema del Punto Fijo de Brouwer (1910) . . . . . . . . 49 5.4. Teoría de Números: Los Números Trascendentes de Gelfond (1929) . . . . 52 V VI ÍNDICE GENERAL 5.5. Lógica: El Teorema de Incompletitud de Gödel (1931) . . . . . . . . . . 56 5.6. Calculo Variacional: Las superficies minimales de Douglas (1931) . . . . 60 5.7. Análisis: Las distribuciones de Schwartz (1945) . . . . . . . . . . . . 65 5.8. Topología Diferencial: Las estructuras exóticas de Milnor (1956) . . . . . 69 5.9. Teoría de los Modelos: Los Números Hiperreales de Robinson (1961) . . . 73 5.10. Teoría de Conjuntos: El Teorema de Independencia de Cohen (1963) . . . 77 5.11. Teoría de Singularidades: La Clasificación de las Catástrofes de Thom (1964) 80 5.12. Álgebra: La Clasificación de los Grupos Finitos de Gorenstein (1972) . . . 86 5.13. Topología: La Clasificac. de las Superf. Tridimensionales de Thurston (1982) 92 5.14. Teoría de Números: La demost. de Wiles del Últ. Teorema de Fermat (1995) 97 5.15. Geometría Discreta: La solución de Hales al Problema de Kepler (1998) . . 103 6. Matemática Aplicada 109 6.1. Cristalografía: Los Grupos de Simetría de Bieberback (1910) . . . . . . . 115 6.2. Cálculo Tensorial: La relatividad general de Einstein (1915) . . . . . . . 122 6.3. Teoría de Juegos: El Teorema Minimax de Von Neumann (1928) . . . . . 126 6.4. Análisis Funcional: La Axiomat. de la Mec. Cuántica de V. Neumann (1932) 129 6.5. Teoría de la Probabilidad: La Axiomatización de Kolmogorov (1933) . . . 134 6.6. Teoría de la Optimización: El Método del Simplex de Dantzig (1947) . . . 138 6.7. Teoría del Equilibrio Gral.: El Th. de Existencia de Arrow y Debreu (1954) . 141 6.8. Teoría los lenguajes formales: La clasificación de Chomsky (1957) . . . . 144 6.9. Teoría de los Sistemas Dinámicos: El Teorema Kam (1962) . . . . . . . . 148 6.10. Teoría de los Nudos: Los Invariantes de Jones (1984) . . . . . . . . . . 152 La Matemática del siglo XX VII 7. La Matemática y el Ordenador 159 7.1. Teoría de Algoritmos: La Caracterización de Turing (1936) . . . . . . . . 165 7.2. Inteligencia Artificial: El Análisis del Ajedrez de Shannon (1950) . . . . . 169 7.3. Teoría del Caos: El Atractor extraño de Lorenz (1963) . . . . . . . . . . 172 7.4. Demostraciones asistidas: El Th. de los 4 Colores de Appel y Haken (1976) . 175 7.5. Fractales: El conjunto de Mandelbrot (1980) . . . . . . . . . . . . . . 181 8. Problemas irresueltos 187 8.1. Aritmética: El Problema de los Números Perfectos (300 a.C.) . . . . . . . 189 8.2. Análisis complejo: La Hipótesis de Riemann (1859) . . . . . . . . . . . 191 8.3. Topología Algebraica: La Conjetura de Poincaré (1904) . . . . . . . . . 195 8.4. Teoría de la Complejidad: El Problema P = NP (1972) . . . . . . . . . 198 9. Conclusión 205 10. Bibliografía 211 11. Índice de nombres 215 VIII ÍNDICE GENERAL 1 Prólogo A finales del segundo milenio, la vida de la matemática corre se- rios peligros. Entre las múltiples amenazas a su supervivencia, las más inminentes me parecen la crasa ignorancia de sus resultados y la frecuente hostilidad hacia sus exponentes. Ambas se ven favoreci- das por la insistencia de los matemáticos en permanecer en los estre- chos límites de la propia disciplina, y por su ineptitud para traducir su contenido esotérico en eslóganes exotéricos, como debería ser en la era de los medios masivos de comunicación y de las relaciones públicas. Si no se toman inmediatamente drásticas medidas, la ma- temática corre el riesgo de convertirse pronto en una curiosidad, una de las especies intelectuales en vías de extinción -junto a los otros clásicos, desde la poesía hasta la música, o desde la pintura al teatro- que nuestros hijos visitarán en el zoológico. Sin embargo, está claro (y puedo demostrarlo con rigor) que la civilización occidental de la que estamos tan orgullosos sobrevivirá o morirá junto con sumatemática. La matemática es, siempre ha sido y siempre será la cúspide de nuestra civilización, y cualquiera que adhiera a los ideales que se nos transmitieron desde los hebreos y los 1 2 1. Prólogo de Gian Carlo Rota griegos, a través del Renacimiento y la Revolución Científica, debe estar listo para enrolarse entre sus defensores. El campo de batalla es vasto y el plan de lucha debe ser concebi- do por nuestros mejores estrategas. Afortunadamente, contamos con algunos entre los matemáticos, no obstante el desdén esnob con el que los miran la mayoría de sus colegas (los físicos y los químicos, en cambio, aprendieron hace mucho tiempo a comportarse de otra manera, y miman y recompensan inmensamente a sus estrategas). Aprovecho esta oportunidad que me brinda mi amigo Odifreddi para detenerme en una pequeña zona de este campo de batalla. La- mentablemente, no estoy capacitado para ofrecer sugerencias cons- tructivas, pero al menos puedo señalar algunas grotescasmalas inter- pretaciones, que conducen a los falsos defensores de la matemática a tropezar con sus propios pies. Mi consejo es evitar cuidadosamente la repetición de los siguientes desaciertos. • La matemática es divertida Aprender matemática es divertido sólo para quienes la aman, es decir, para una insignificante minoría de las personas ins- truidas. Para la gran mayoría, en cambio, aprender matemá- tica es una actividad pesada, difícil y artificial, que casi todos preferirían evitar. Ciertamente, no se ayuda a la propia causa acuñando un eslogan basado en una patraña tan descarada. • La matemática es maravillosa También aquí, la belleza de la matemática brilla sólo a los ojos de quien la hace. Lamentablemente, la enseñanza de la mate- mática ha caído hoy a niveles de incompetencia francamente impensables para unmundo tecnológico. Poquísimosmaestros saben comunicar la belleza de la matemática a sus estudian- tes, y muchos de los que podrían prefieren, comprensiblemen- La Matemática del siglo XX 3 te, dedicarse a actividades menos frustrantes que la enseñanza. Mejor dejar caer también este eslogan. • La matemática tiene muchas aplicaciones Aunque pueda parecer tonto, los matemáticos generalmente concluyen la discusión de cualquier resultado con la frase: “Y el teorema tiene muchas aplicaciones útiles”, pero nunca espe- cifican cuáles. Querer especificarlo, entonces, sería peor aun. Esforzarse por encontrar aplicaciones a toda costa conduce en efecto a la invención de ejemplos innaturales y poco convin- centes, que se merecen el desalentador y desafiante: “¿Y en- tonces?”. Ciertamente, algunos resultados matemáticos tienen aplicaciones inmediatas, pero también en estoscasos es mejor mantenerse lejos de los detalles, como el secretario florentino aconsejaba al Príncipe. Nunca se puede saber si el público mos- trará interés, ni cuánto, hacia las falsas maravillas tecnológicas que se le propinan. Conviene limitarse a generalidades obvias, que son más adecuadas para impresionar a los desprevenidos. Por ejemplo: “Sin lógica matemática no existirían los ordenado- res” o “Sin el análisis funcional no existiría la bomba atómica”. Si sólo encontráramos una docena de eslóganes de este tipo pa- ra taparle la boca a cierta gente, la matemática podría emular a la química en las relaciones públicas y competir con ella en las subvenciones. • La matemática es un sustituto de los clásicos Pertenezco a la última generación a la que se le hizo creer que saber leer latín y griego era un requisito indispensable para quien quisiera obtener la calificación de gentleman. Prefiero ahorrar las decrépitas banalidades que se esgrimían como justi- ficación para la enseñanza de las lenguas muertas. Las mismas banalidades se reciclan hoy para pedir mayor número de horas 4 1. Prólogo de Gian Carlo Rota semanales de matemática en las escuelas secundarias; proyec- to loable, por cierto, pero difícilmente realizable apelando a los clásicos. Debo confesar que yo mismo he creído en la analogía entre ma- temática y clásicos, y que la he predicado a mis alumnos. Hasta que un día uno de ellos me arrojó demanera irreverente un “¡Al diablo los clásicos!” que me hizo recobrar instantáneamente el sentido. De todos modos hay, obviamente, un toque de verdad en la comparación, y es menester separarlo de las burlas. En la vieja Inglaterra ningún buen estudiante de Oxford o Cam- bridge podía aspirar a servir a Su Majestad, aunque fuera en la colonia más alejada, si no era capaz de recitar al pie de la le- tra miles de versos de Virgilio, o decenas de odas de Píndaro. ¡Los países civilizados se empeñaban en elegir a sus gobernan- tes basándose sólo en su conocimiento de los clásicos! Hoy esta ocurriendo algo parecido con la matemática. Cual- quier que trabaje en áreas tecnológicas sabe que las especu- laciones envejecen precoz y continuamente. Un sólido back- ground de purísima matemática es el mejor seguro contra la obsolescencia. Ni siquiera la matemática “aplicada” basta para este fin, por obvias razones de circularidad. • La matemática es como la música Me gustaría creer esta afirmación. Pero hay que constatar que hay muchos más estudiantes de música que de matemática, aunque la probabilidad de morir de hambre o de ser un de- socupado sea mucho más alta entre los músicos que entre los matemáticos. Por lo tanto, debe haber una diferencia entre las dos profesiones. • La matemática es una profesión tranquila Muchas personas que no se dedican a este trabajo conservan La Matemática del siglo XX 5 una imagen falsa de la vida del matemático, según la cual el profesor de matemática enseña algunas horitas por semana y dedica el resto del tiempo a placenteros pasatiempos, desde la jardinería hasta el ajedrez. Nada podría estar más alejado de la realidad, y lo estará mas aun en el futuro. La competitividad en la investigación matemática está llegando a niveles de olimpia- das, y quien se dedique menos de dieciocho horas al día a la investigación terminará en una pizzería. ¡Pero detrás del mos- trador, no sentado a las mesas! • La matemática es la reina de las ciencias De esto, en cambio, estoy completamente convencido. Por des- gracia, los matrimonios se forman entre dos personas. El eslo- gan sería creíble sólo si los otros científicos estuvieran de acuer- do, algo que a ellos ni se les pasa por la cabeza. Por el contrario, todos intentan acaparar la enseñanza de la matemática, desde los ingenieros hasta los físicos, desde los químicos hasta los bió- logos, y los matemáticos se van de paseo. ¿Cuándo vamos a re- cuperar un poco de respeto, por no hablar de algún puesto de trabajo? Afortunadamente, contra todo pronóstico pesimista, de vez en cuando ocurren cosas buenas. Una de ellas es este libro de Odifre- ddi. Su estrategia es inteligente: simplemente presenta los resultados de la matemática como son, limitando al mínimo el lenguaje técni- co, pero con suficiente información como para permitir al lector que pueda hacerse una buena idea tanto de los problemas importantes, como de sus soluciones. Pocas veces una historia tan completa fue presentada con tal claridad. Aquí no hay esfuerzos por “vender” la matemática. Que un re- 6 1. Prólogo de Gian Carlo Rota sultado sea útil o no, incessu pateti1 el lector terminará por concluir, exultante, al final de alguna espléndida explicación sobre las superfi- cies mínimas o sobre los polinomios de Jones, que tarde o temprano tales resultados encontrarán aplicaciones útiles. Conducido por la hábil retórica del autor, el lector que llegue a esta conclusión auscultará el ritmo cardíaco de la matemática y aprenderá la lección esencial: que los mejores resultados son siem- pre, inevitablemente, los que encuentran aplicaciones revoluciona- rias. Y es justamente a éstas que se debe el progreso, o mejor dicho el Progreso y el mejoramiento de nuestro mundo. Cualquiera que ame la matemática debe estar agradecido a Odi- freddi por haber presentado, con éxito, su lado más fuerte. Gian Carlo Rota Turín, 7 de junio de 1998 1“Se ve en el andar”, en referencia a la sentencia de Virgilio “vera incessu patuit dea”. [N. de la T.] 2 Agradecimientos Agradezco a John Hubbard y Peter Kahn por la inspiración ini- cial, y a Claudio Bartocci, Cinzia Bonotto, Umberto Bottazzini, Lione- llo Cantoni, Alberto Collino, Vittorio De Alfaro, Simonetta Di Sieno, Michele Emmer, Livia Giacardi, Gabriele Lolli, CristinaMataloni, An- drea Moro, Alessandro Panconesi, Tullio Regge y Paolo Valabrega por la ayuda intermedia y la corrección final. 7 8 2. Agradecimientos 3 Introducción El mundo descrito por las ciencias físicas y naturales es concreto y perceptible: en una primera aproximación a través de los sentidos, y en una segunda aproximación a través de varias extensiones de los sentidos provistas por la tecnología. El mundo descripto por la ma- temática, en cambio, es un mundo abstracto, constituido por ideas que pueden percibirse sólo con el ojo de la mente. De todos modos, con la práctica, conceptos abstractos como números y puntos han ad- quirido tal objetividad que incluso el hombre común puede obtener imágenes sustancialmente concretas de ellos, como si pertenecieran a un mundo de objetos tan reales como los físicos. Pero la ciencia moderna ha minado la ingenua visión del mundo exterior; la investigación extendió sus fronteras a las inmensas mag- nitudes del cosmos y a las minúsculas de las partículas, haciendo imposible una percepción sensorial directa, o incluso sólo a través de medios tecnológicos, de los objetos galácticos o atómicos, reducién- dolos efectivamente a imágenes matemáticas. De manera análoga, también la matemática moderna extendió las fronteras de su investi- gación a las raras abstracciones de las estructuras y a los minuciosos 9 10 3. Introducción análisis de los fundamentos, desvinculándose por completo de la vi- sualización. Por lo tanto, la ciencia y la matemática del siglo XX comparten la dificultad de explicar sus conquistas en términos de conceptos clási- cos. Pero dificultad no significa imposibilidad; y son precisamente las abstracciones superficiales y estériles las que generalmente resultan difíciles de justificar, mientras que las profundas y fecundas ahondan sus raíces en problemas e intuiciones concretas. En otras palabras, la buena abstracción no es un fin en sí mismo, un arte por el arte, sino que siempre es una necesidad, un arte por el hombre. Una segunda dificultad cuando se afronta la ciencia y la matemá- tica del siglo XX es la explosión productiva. Los matemáticos, que solían conformar un pequeño grupito que a menudo debía hacer cualquier trabajo para sobrevivir, hoy se han convertido en una le- gión. Se mantienen produciendoinvestigaciones que, generalmente, no tienen ni justificación ni interés, y la estructura universitaria en que la mayoría de ellos trabaja los incita estúpidamente a “publicar o perecer”, según un triste lema estadounidense. El resultado es que hoy están circulando centenares de revistas especializadas, en las que aparecen cada año, literalmente, centenares de miles de teoremas, la mayoría irrelevantes. Una tercera dificultad es provocada por la fragmentación que la matemática sufrió a partir del siglo XVIII, y que se hizo patológica en el siglo XX. Una de las causas es la explosión productiva, pero no es la única; otra, quizás más determinante, es el progreso mismo de la investigación. En efecto, los problemas simples y de fácil resolución son escasos, y una vez que se resuelven, una disciplina puede ser desarrollada sólo afrontando problemas complicados y difíciles, que requieren el desarrollo de técnicas específicas y, por lo tanto, una es- pecialización. El siglo XX ha testimoniado una hiperespecialización La Matemática del siglo XX 11 de la matemática, que terminó por dividirla en subdisciplinas con fronteras cada vez más angostas y delimitadas. Lamayoría de estas subdisciplinas están constituidas por ramitas atrofiadas y resecas, que se desarrollan limitadamente en el tiempo y el espacio, y luego mueren de muerte natural. Pero las ramas sanas y fuertes siguen siendo muchas, y su desarrollo ha provocado una situación inédita en la historia de la matemática: la extinción de la especie del matemático universal, es decir, el individuo de excepcio- nal cultura que podía dominar completamente el panorama entero de la matemática de su tiempo. El último ejemplar parece haber sido John von Neumann, fallecido en 1957. Por todas estas razones, no es físicamente posible, ni es de esperar intelectualmente, brindar un panorama completo de la actividad de una disciplina que claramente ha asumido las características típicas de la sociedad industrial dominante, en la que la superproducción de mercancías de baja factura y a bajo costo generalmente marcha por inercia, segúnmecanismos contaminantes y saturantes, nocivos para el ambiente y para el consumidor. El problema principal de cualquier exposición de la matemática del siglo XX es entonces, como en la parábola del Evangelio, separar el grano bueno de la paja, quemar la paja en gavillas y acumular el grano en graneros. Los criterios que pueden guiar una selección de resultados son múltiples, y no unívocos: el interés histórico del pro- blema, la naturaleza germinal o conclusiva de un resultado, la belleza intrínseca de la formulación o de las técnicas, la novedad o la dificul- tad de la demostración, la fertilidad matemática o la utilidad práctica de las aplicaciones, la pregnancia filosófica de las consecuencias, et- cétera. La decisión que proponemos al lector, naturalmente, no puede no ser subjetiva, tanto en sentido negativo como positivo. Por una parte, 12 3. Introducción se debe dar dentro de un bagaje personal de conocimientos que evi- dentemente y de manera inexorable es limitado desde un punto de vista general. Por otra parte, dentro de este bagaje, realiza una selec- ción inevitablemente regida por preferencias y gustos particulares. De todos modos, los aspectos subjetivos pueden limitarse al mí- nimo, intentando hacer referencia a criterios que de alguna manera resulten objetivos. En este caso, la tarea está facilitada por dos fac- tores complementarios, que marcaron el desarrollo de la matemática en el siglo XX. Ambos están vinculados, como explicaremos, con los Congresos Internacionales de la Matemática; como las olimpiadas, éstos se desarrollan cada cuatro años, y están invitados a presentar sus trabajos aquellos a los que la comunidad de matemáticos consi- dera sus mejores exponentes. El primer Congreso oficial se llevó a cabo en 1897 en Zurich y la apertura estuvo a cargo de Henri Poincaré, que la dedicó a las rela- ciones entre matemática y física. El segundo Congreso se realizó en París en 1900 y en esta oportunidad la apertura fue asignada a David Hilbert. El factor numerológico se impuso a su deseo de responder a distancia al discurso de Poincaré, y Hilbert eligió “indicar probables direcciones de la matemática del nuevo siglo”. En su inspirado discurso brindó, ante todo, implícitas indicacio- nes que nos guiarán en nuestra exposición: los resultados importan- tes son aquellos que manifiestan una continuidad histórica con el pasado, que unifican distintos aspectos de la matemática, que arro- jan luz nueva sobre cosas conocidas, que introducen simplificaciones radicales, que no son manipuladamente complicados, que admiten ejemplificaciones significativas, que están suficientemente madura- dos como para poder ser explicados al hombre de la calle, etcétera. Pero el discurso de Hilbert se hizo famoso principalmente por la explícita indicación de veintitrés problemas abiertos, que él conside- La Matemática del siglo XX 13 raba cruciales para el desarrollo de la matemática del siglo. Confir- mando su lúcida anticipación, muchos de esos problemas resultaron efectivamente fecundos y estimulantes, sobre todo en la primera mi- tad del siglo, y enseguida nos detendremos en algunos. En la segun- da mitad del siglo, el impulso de los problemas de Hilbert se apagó y la matemática incursionó en caminos que a principios de siglo ni siquiera existían. Para orientarse en este período es útil hacer referencia a un pre- mio instituido en 1936, que se concede en los Congresos Internacio- nales a matemáticos menores de cuarenta años que hayan obtenido en los últimos años los resultados más destacados. La restricción eta- ria no es especialmente importante, dado que la mayor parte de los resultados significativos se obtienen a esa edad. Como una vez dijo Godfrey Hardy, en Apología de un matemático: “Ningún matemático puede permitirse olvidar que la matemática, más que cualquier otra arte o ciencia, es una actividad para jóvenes”. El premio, dedicado a la memoria de John Charles Fields -un matemático que había sido su organizador y que había obtenido la financiación- consiste en una medalla que muestra la imagen de Ar- químedes y la frase Transiré suum pectus mundoque potiri [trascender las limitaciones humanas y apoderarse del universo] (Figura 1). Por eso, el premio hoy se llama medalla Fields. Figura 1. La medalla Fields 14 3. Introducción Se lo considera el análogo del premio Nobel que para la matemá- tica no existe. Pero sí existe una leyenda muy conocida según la cual la causa de esta inexistencia habría sido el deseo de Alfred Nobel de evitar la posibilidad de que el matemático sueco GöstaMittag-Leffler lo ganara. En realidad, ellos casi no se conocían, y ciertamente el se- gundo no era el amante de la esposa del primero, como suele sugerir- se, ya que Nobel no era casado. El verdadero motivo es simplemente que los cinco premios originales (física, química, medicina, literatura y paz) estaban dedicados a temas que le habían interesado a Nobel toda su vida, y la matemática no se contaba entre ellos. Hasta ahora se han entregado 42 medallas Fields, dos de ellas en 1936, y las restantes entre 1950 y 1998. Ya que la lista de los ganadores incluye a algunos de los mejores matemáticos de la segunda mitad del siglo y que los resultados premiados constituyen algunas de las cimas alcanzadas por la matemática en aquel período, volveremos a menudo sobre este tema. Complementario de la medalla Fields es el premio Wolf, una espe- cie de Oscar a la carrera, instituido en 1978 por Ricardo Wolf, filán- tropo cubano de origen alemán que fue embajador en Israel desde 1961 hasta 1973. Como los premios Nobel, los premiosWolf no tienen limitaciones de edad, se asignan en varios campos (física, química, medicina, agricultura, matemática y arte), son entregados por el jefe de Estado en la capital (el rey de Suecia en Estocolmo en un caso, el presidente de Israel en Jerusalén en el otro) e incluyen un sustancioso cheque (de 100.000 dólares, contralos 10.000 de la medalla Fields y el millón del premio Nobel). Para evitar malentendidos, cabe aclarar explícitamente que las so- luciones de los problemas de Hilbert y los resultados de las medallas Fields o de los premios Wolf representan sólo puntos de referencia significativos y, obviamente, no agotan el panorama de la matemáti- La Matemática del siglo XX 15 ca del siglo XX. Por eso, también será necesario ir más allá de los pre- mios para intentar dar una descripción lo más amplia posible, con las limitaciones que ya mencionamos, de la variedad y la profundidad de la matemática contemporánea. La decisión de concentrarse en grandes resultados que, por otra parte, constituyen la esencia de la matemática determina automática- mente la naturaleza diacrónica de la exposición, que inevitablemente tomará la forma de un collage. La ventaja es que permite una lectu- ra ampliamente independiente de cada sección; y la desventaja, que resulta confusa. Pero esta desventaja podrá ser superada fácilmente con una segunda lectura, tras la cual se podrá volver a las distintas secciones con una visión global. 16 3. Introducción 4 Fundamentos La matemática puede ser considerada, según la propia predispo- sición filosófica o la propia experiencia personal, como una actividad de descubrimiento o de invención. En el primer caso, los conceptos abstractos de los que trata la matemática se consideran dotados de una auténtica existencia en el mundo de las ideas, que es considerado tan real como el mundo físi- co de los objetos concretos. Por lo tanto, el descubrimiento requiere, literalmente, un sexto sentido, que permita percibir los objetos abs- tractos del mismo modo en que los cinco sentidos permiten percibir los objetos concretos. Y el problema fundamental de esta percepción es, obviamente, su verdad externa, es decir, una adecuada correspon- dencia con la supuesta realidad. En el segundo caso, en cambio, las obras matemáticas se conciben como obras de arte, que tratan de objetos tan imaginarios como los protagonistas de una novela o las representaciones de una pintura. Por lo tanto, la invención requiere un auténtico talento matemático, que permita construir objetos de fantasía como lo hace el talento ar- 17 18 4. Fundamentos tístico. El problema fundamental de las producciones de este talen- to es su consistencia interna, es decir, la concepción de las distintas partes como un todo orgánico (en términos matemáticos: la falta de contradicciones). Pero ya sea descubrimiento o invención, la matemática revela ob- jetos y conceptos que, a primera vista, resultan inusuales o poco fa- miliares. Actualmente, ciertos adjetivos demuestran las reacciones de sorpresa o desagrado que suscitaron algunos números en su prime- ra aparición: irracionales, negativos, sordos, imaginarios, complejos, trascendentes, ideales, surreales, etcétera. Desde los tiempos de los griegos, una actitud típica fue el intento por limitar lo máximo que fuera posible la sorpresa o el desagrado, descargando el peso del edificio de la matemática en fundamentos sólidos. La historia de la matemática testimonió sucesivas fases de construcción y desconstrucción, que invertían las relaciones recípro- cas entre lo que se consideraba fundamental y sustituían cimientos peligrosos o superados por otros que se consideraban más adecua- dos. En el siglo VI a.C. los pitagóricos colocaron la aritmética de los números enteros y racionales en la base de la matemática. La grieta que hizo desmoronar el edificio fue el descubrimiento demagnitudes geométricas que no se pueden expresar como relaciones entre núme- ros enteros, lo que demostró que los números racionales no son una base adecuada para la geometría. En el siglo III a.C. todo el edificio fue reconstruido por Euclides sobre los cimientos de la geometría. Los números enteros y sus opera- ciones perdieron el rol de entidades primitivas y fueron reducidos a las medidas de segmentos y de sus combinaciones: por ejemplo, los productos a la medida del área de un rectángulo. La Matemática del siglo XX 19 En el siglo XVII, Descartes inauguró un nuevo paradigma numé- rico, basado en lo que hoy llamamos análisis, es decir, en los números reales. La geometría se volvió analítica, y puntos y entidades geo- métricas se redujeron a coordenadas y ecuaciones: por ejemplo, las rectas a las ecuaciones de primer grado. En el siglo XIX se cerró el círculo, y el análisis rae reducido a la aritmética. Los números reales fueron definidos como conjuntos de sus aproximaciones racionales, y la novedad esencial que permitió a los modernos esta transformación fue la consideración actual de infinito, que los griegos, en cambio, rechazaban. Retomaremosmás adelante todos estos fundamentos clásicos. Pe- ro el proceso de construcción y desconstrucción no se detuvo aquí. Por el contrario, justamente en el siglo XX surgieron muchas alterna- tivas que han disputado los favores de los matemáticos, y que hoy permiten considerar este siglo como un auténtico período de renova- ción de cimientos. La característica esencial de los nuevos fundamen- tos es que se basan, ya no en los objetos clásicos de la matemática, es decir en entes numéricos o geométricos, sino en conceptos absoluta- mente nuevos, que cambiaron completamente su identidad formal y sustancial. 4.1. Década de 1920: Los Conjuntos Cuando nos referimos a la base aritmética de los números reales, ya hemos introducido la palabra clave de la matemática del siglo XX: los conjuntos. El gran descubrimiento residió en que, sobre esta pala- bra, se pudiera basar el edificio entero, y fue gracias a Georg Cantor, que llegó a esta idea con motivaciones puramente matemáticas, vin- culadas con un estudio de problemas de análisis clásico. Con motivaciones diferentes, relacionadas con el intento de de- 20 4. Fundamentos mostrar que los conceptos y los objetos matemáticos son, en su esen- cia más profunda, de naturaleza puramente lógica, también Gottlob Frege había desarrollado un enfoque equivalente al de Cantor, que hoy se denomina teoría ingenua de conjuntos. Esta teoría se basa sólo en dos principios, que reducen los con- juntos a las propiedades que los definen. Primero, el principio de ex- tensión, ya enunciado por Gottfried Wilhelm Leibniz: un conjunto está completamente determinado por sus elementos, por lo tanto, dos conjuntos con los mismos elementos son iguales. Por otra par- te, el principio de comprensión: toda propiedad determina un conjunto, constituido por los objetos que satisfacen esa propiedad; y todo con- junto está determinado por una propiedad, que es precisamente la de ser un objeto que pertenece al conjunto. El descubrimiento de que dos principios tan simples y lógicamen- te elementales fueran la base de toda la matemática se consideró el punto de llegada de su historia: la geometría había sido reducida al análisis, el análisis a la aritmética, y ahora el trabajo de Cantor y Fre- ge mostraba que, a su vez, la aritmética podía ser reducida a la teoría de conjuntos, es decir, a la lógica pura. Pero esto era demasiado bello para ser verdadero, y uno de los primeros descubrimientos del siglo XX fue, precisamente, que esta sencilla cimentación era inconsistente; de aquí surge la calificación de “ingenua” En 1902, Bertrand Russell demostró que el principio de comprensión era contradictorio, con un razonamiento que se hizo famoso con el nombre de la paradoja de Russell. Sustancialmente, los conjuntos de objetos se dividen en dos cla- ses, según se considere si son o no uno de los objetos contenidos en el conjunto mismo o, dicho de otra manera, si cada conjunto pertenece o no a sí mismo. Por ejemplo, el conjunto de los conjuntos con más de un elemento pertenece a sí mismo, porque en efecto tiene más de La Matemática del siglo XX 21 un elemento. Y el conjunto de los conjuntos con un solo elemento no pertenece a sí mismo porque, ciertamente, también este conjunto tiene más de un elemento. El problema es: ¿el conjunto de todos los conjuntos que noper- tenecen a sí mismos, pertenece o no a sí mismo? Si es así, entonces es uno de los conjuntos que no pertenecen a sí mismos, y por tanto no puede pertenecer a su colección, es decir, a sí mismo. Si no es así, entonces es uno de los conjuntos que no pertenecen a sí mismos, y entonces pertenece a su colección, es decir, a si mismo. La solución o, mejor dicho, la remoción de la paradoja de Russell pasa hoy a través de una limitación del principio de comprensión, y una distinción entre clase y conjunto.Un conjunto es, simplemente, una clase que pertenece a otras clases: entonces, todos los conjuntos son clases, pero no todas las clases son conjuntos, y las que no lo son se llaman clases propias. Si se intenta reproducir el argumento de Russell considerando la clase de los conjuntos que no pertenecen a sí mismos, se obtiene una sorpresa. En efecto, esta clase no puede pertenecer a sí misma, pues de lo contrario sería un conjunto que no pertenece a sí mismo. En- tonces no pertenece a sí misma, y entonces o no es un conjunto o per- tenece a sí misma; como se acaba de excluir la segunda opción, debe ser verdadera la primera. En otras palabras, esta vez no se encontró una paradoja sino una demostración de que la clase de los conjuntos que no pertenecen a sí mismos es propia. Naturalmente, la clase de las clases que no pertenecen a sí mis- mos es contradictoria, exactamente como antes. Entonces el principio de comprensión debe ser reformulado, diciendo que una propiedad de conjuntos siempre determina una clase. Pero así el principio pierde mucha fuerza, porque entonces sólo permite definir clases a partir de conjuntos, los que ya deben haber sido definidos de alguna manera. 22 4. Fundamentos Y no hay soluciones indoloras o elegantes al problema, ya que la solución natural que ofrece el axioma de comprensión es impractica- ble. Se trata entonces de abandonar el enfoque analítico o desde arri- ba y adoptar un enfoque sintético o desde abajo, enumerando una serie de principios de existencia y de reglas de construcción de los conjuntos, que permitan generar algo provechoso pragmaticamente, es decir, todos los conjuntos de uso corriente, pero al mismo tiempo evitar lo perjudicial, es decir, todos los conjuntos paradójicos. Una primera lista de axiomas fue compilada por Ernst Zermelo en 1908. Ante todo, esta lista requiere la existencia de al menos un conjunto, lo que no se puede demostrar considerando únicamente el axioma de comprensión para las clases. Disponiendo de un punto de partida, se pueden construir luego otros conjuntos mediante di- versas operaciones, cuya factibilidad está garantizada precisamente por los axiomas. Para los conjuntos, estas operaciones son análogas a las operaciones aritméticas; por ejemplo, la unión, el producto car- tesiano y el conjunto potencia para los conjuntos son versiones de la suma, el producto y el elevamiento a potencia para los números. Sin embargo, todas estas operaciones no permiten demostrar la existencia de conjuntos infinitos, necesarios para reducir el análisis a la aritmética, es decir, los números reales a conjuntos (precisamen- te, infinitos) de números enteros. Por lo tanto, un axioma ulterior requiere la existencia de un conjunto infinito, uno, por ejemplo, cu- yos elementos satisfagan todos los axiomas restantes de la teoría de Zermelo y que, por consiguiente, contiene en particular todas las po- tencias sucesivas de un conjunto finito. La lista de Zermelo fue actualizada en 1921 por Abraham Fraen- kel, con el agregado de un axioma que afirma que los valores de una función definida sobre la base de un conjunto constituyen otro con- junto. Al sistema completo se lo denomina teoría de Zermelo y Fraenkel. La Matemática del siglo XX 23 La teoría parece suficiente para los usos comunes de la matemá- tica, pero esto no significa que siempre lo será. Por ejemplo, en los años 1960 el trabajo de Alexander Grothendieck, al que nos referire- mos más adelante, debió agregar un nuevo axioma: la existencia de un conjunto inaccesible, cuyos elementos satisfacen todos los axiomas de la teoría de Zermelo y Fraenkel, y que por consiguiente contiene en particular todas las potencias sucesivas de un conjunto infinito. Más en general, en la segunda mitad del siglo se agregaron axio- mas de existencia de conjuntos cada vez más grandes, denominados grandes cardinales, y lo interesante es que permiten probar resultados que se refieren a los números enteros, que no pueden probarse sin ellos; en otras palabras, así como en la física parece haber una rela- ción entre la teoría cosmológica del universo en grande y la teoría cuántica del universo en pequeño, también en matemática existe una relación entre la teoría global de los conjuntos y la teoría local de los números. Sobre la base del teorema de la incompletud de Gödel acerca del cual volveremos a hablar, es imposible, de todos modos, formular un sistema de axiomas definitivo para la teoría de los conjuntos, o si- quiera para la teoría de los números. Por lo tanto, cualquier extensión del sistema de Zermelo y Fraenkel está destinada a ser provisoria y suplantada por las extensiones ulteriores que se tornarán necesarias para una cada vez mejor, pero nunca conclusiva, comprensión de la noción de conjunto. 4.2. Década de 1940: Las Estructuras La teoría de los conjuntos fue, en el siglo XIX, el punto culminante de la concepción reduccionista de la matemática, que a través del análisis lógico redujo precisamente la geometría al análisis, el análisis a la aritmética y la aritmética a la lógica. Pero el análisis lógico de la 24 4. Fundamentos matemática presenta las mismas limitaciones que la crítica literaria: interesa a los especialistas pero no a los autores ni a los lectores, en este caso, a los lógicos pero no a los matemáticos. En efecto, para el matemático profesional, la teoría de los conjun- tos tenía (y tiene) dos desventajas evidentes. Ante todo, así como la teoría atómica no ha modificado la percepción de los objetos macros- cópicos en la vida cotidiana, la reducción de los objetos matemáticos a los conjuntos tampoco ha influido en la práctica; por ejemplo, para hacer cuentas no se piensa en los números enteros como clases de conjuntos equipotentes. Además, si bien las paradojas han preocupado a los lógicos, han dejado muy indiferentes a los matemáticos, que en general ven la (in)consistencia como un problema no de la matemática misma, sino de sus presentaciones formales; en este caso, de la teoría de los con- juntos y no de su práctica. Por lo tanto, la teoría de Zermelo y Fraenkel fue considerada como la solución compleja de un problema irrele- vante. Como conclusión, la teoría de los conjuntos parece haber dejado al matemático profesional sólo dos contribuciones, ambas esenciales pero independientes de axiomatizaciones particulares. Por un lado, una teoría de los conjuntos infinitos, o sea, como dijo David Hilbert, ese “paraíso creado por Cantor, del que nadie nos podrá echar”. Por otra parte, un conveniente lenguaje para la formulación de los con- ceptos, cada vez más abstractos, que produce la práctica moderna. En los años 1930, un grupo de matemáticos franceses, conocido con el nombre colectivo de Nicolas Bourbaki, se propuso entonces fundar la matemática de manera más significativa para los matemá- ticos, y encontró una solución en un análisis que ya no era lógico sino estructural. El grupo se embarcó en el proyecto infinito, y por lo tan- to jamás concluido, de preparar un manual que describiera el estado La Matemática del siglo XX 25 del arte de la matemática contemporánea; el manual se llamó, con una obvia referencia a Euclides, Elementos de matemática, y el primer fascículo se publicó en 1939. Como en la obra de Euclides, el manual se dividió en libros, de los cuales los seis primeros estaban dedicados a los fundamentos. La nómina de los libros testimonia ya el redimensionamiento del rol fundacional de la teoría de conjuntos, de la que se habla sólo en el primero. En los otros cinco,en cambio, se consideran el álgebra, la topología, las funciones de variables reales, los espacios vectoriales topológicos y la integración. En 1949, Bourbaki retomó sus posiciones filosóficas, que en aquel momento ya eran las dominantes, en un artículo titulado elocuente- mente “Los fundamentos de la matemática para el matemático” (y no para el lógico). En él se enunció la afirmación abstracta de que to- da la matemática contemporánea se puede construir basándose en la noción de estructura, y el manual que se estaba escribiendo fue pre- sentado como la demostración concreta de que esta afirmación era correcta. La idea fundamental del concepto de estructura se puede explicar con un ejemplo. En la teoría de conjuntos, los números reales se de- finen artificialmente como conjuntos de números enteros, y las ope- raciones y las relaciones basadas en ellos se reducen artificialmente a operaciones y relaciones de conjuntos. En el enfoque de Bourbaki, en cambio, los números reales y sus operaciones y relaciones se toman como datos, y se aislan sus propiedades de manera abstracta. Desde un primer punto de vista, se trata de describir las propie- dades de las operaciones de suma y producto. Por ejemplo, existen dos elementos neutros, el 0 para la suma y el 1 para el producto; am- bas operaciones son asociativas y conmutativas e inverübles (salvo para la división por 0); y el producto es distributivo respecto de la 26 4. Fundamentos suma. Estas propiedades se encuadran en un estudio general de las estructuras algebraicas, cuyos ejemplos más comunes son: monoides, grupos, anillos, cuerpos y campos. Los números reales constituyen, precisamente, un ejemplo de campo. Desde un segundo punto de vista, se trata en cambio de describir las propiedades del orden. Por ejemplo, cada par de números reales es comparable; entre dos números distintos siempre hay un tercero; y no hay espacios vacíos. Estas propiedades se encuadran en un estu- dio general de las estructuras de orden y se expresan con los conceptos de totalidad, densidad y completitud. Desde un tercer punto de vista, no se trata de describir las propie- dades de los números reales individuales, sino de sus entornos. Por ejemplo, los números reales constituyen un conjunto sin interrup- ciones; cada par de números se puede separar mediante intervalos abiertos; y se necesitan infinitos intervalos abiertos para cubrir todo el conjunto de los números reales. Estas propiedades se encuadran en un estudio general de las estructuras topológicas, y se expresan con los conceptos de conexión, separabilidad y (no) compacidad. Los tres puntos de vista aislados se pueden integrar luego entre sí. Por ejemplo, las operaciones de suma y producto son compatibles con las relaciones de orden y de distancia, en el sentido de que las preservan (excepto el producto por un número negativo, que invierte el orden). Estas propiedades se encuadran en un estudio general de las estructuras algebraicas ordenadas y de las estructuras algebraicas to- pológicas y en las cuales las operaciones algebraicas son precisamente compatibles, respectivamente, con el orden y la distancia, y los nú- meros reales son un ejemplo de campo ordenado y topológico. Si bien las estructuras ya existían antes de Bourbaki, la importan- cia de su trabajo fue haber demostrado que en ellas se podía fundar la matemática. El enfoque tuvo un gran éxito, porque un número su- La Matemática del siglo XX 27 ficientemente reducido de estructuras madre resultó adecuado para tratar una gran cantidad de casos interesantes, con una óptima re- lación de eficiencia. Y la influencia de Bourbaki es evidente hoy en las divisiones modernas de la matemática, que ya no son las clásicas aritmética, álgebra, análisis y geometría, sino una enorme variedad de híbridos, como el álgebra topológica o la geometría algebraica. Pero las ventajas del bourbakismo no fueron sólo pragmáticas; también desde un punto de vista teórico resultó ser un paso hacia adelante respecto del enfoque de los conjuntos. Dejando de lado la li- mitada consideración de conjuntos vinculados por funciones, la aten- ción se concentró en los conjuntos estructurales, vinculados por fun- ciones que preservan la estructura, una abstracción menos artificial y drástica, que pudo capturar mejor la esencia de los objetos matemá- ticos. 4.3. Década de 1960: Las Categorías Si bien los fundamentos de la teoría de conjuntos y los bourba- kistas fueron considerados satisfactorios para una buena parte de la matemática, y lo siguen siendo, en algunos campos los conceptos de conjunto y estructura resultaron demasiado limitados y necesitaron una extensión. Por ejemplo, como ya lo habíamos señalado, Grothen- dieck tuvo que introducir la consideración de un conjunto inaccesi- ble, por lo tanto, de la clase de todos los conjuntos que satisfacen los axiomas de la teoría de Zermelo y Fraenkel. Pero a la necesidad de una extensión del enfoque estructural se llega también con conside- raciones teóricas y no sólo por motivaciones prácticas. El proceso que lleva de un ejemplo concreto, como los números reales, a una estructura abstracta, como los campos topológicos, por un ladomantiene algunas propiedades significativas del ejemplo, pe- ro por el otro le quita muchas otras. Sólo en casos excepcionales una 28 4. Fundamentos estructura admite sustancialmente un solo ejemplo y puede, por lo tanto, describirlo completamente. En cambio, cuando una estructura admite muchos ejemplos radicalmente diferentes, como por lo ge- neral ocurre cuando se focalizan las generalidades comunes de sus múltiples realizaciones, automáticamente desenfoca sus particulari- dades individuales. Un modo de reivindicar la variedad de los ejemplos consiste en invertir el proceso de abstracción, considerando la clase de todos los posibles ejemplos de una estructura de cierto tipo, vinculados por todas las posibles fundones que preservan su estructura; de este mo- do se llega al concepto de categoría, introducido en 1945 por Samuel Eiknberg y Saunders MacLane. Que su trabajo es un complemento natural del de Bourbaki lo indica el hecho de que Eilenberg fue uno de los miembros del grupo, es más, fue el único miembro no francés de toda su historia (y premio Wolf en 1986). Pero para poder considerar el concepto de categoría como un aná- lisis del concepto de estructura, se necesita un nuevo esfuerzo de abs- tracción, es decir, se trata de determinar qué hay en común entre los distintos ejemplos de categorías obtenidos de las distintas estructu- ras. Aunque a primera vista su enorme variedad lleva a pensar que estos ejemplos tienen muy poco en común, el sorprendente descu- brimiento de Eilenberg y MacLane reside en que siempre comparten algo esencial: el hecho de estar constituidos por una clase de conjun- tos vinculados por funciones que se pueden componer entre sí de manera asociativa, y entre las cuales al menos la función siempre es idéntica. Igualmente sorprendente fue la observación de que, dado que las funciones llevan automáticamente consigo los conjuntos de sus argu- mentos y de sus valores, en realidad, no hay necesidad de hablar de estos conjuntos. De estamanera, ya no hace falta ningún uso residual La Matemática del siglo XX 29 de la teoría ingenua de los conjuntos, que todavía estaba presente en la noción de conjunto estructurado, y se obtiene un fundamento al- ternativo y completamente autosuficiente de la matemática, basado en conceptos que ya no son de conjunto y de pertenencia, sino de función y composición. Además, ya que los conjuntos vinculados por funciones son un ejemplo particular de categoría, basta caracterizar completamente de manera categórica sus propiedades para reducir toda la teoría de los conjuntos a la teoría de las categorías. Tal caracterización fue encon- trada porWilliam Lawvere en 1964, e irónicamente constituye un pa- so ulterior de análisis lógico: así como toda la matemática del siglo XIX había sido reformulada en conceptos de conjunto, en este caso se trata dereformular estosmismos conceptos en términos de categoría. La teoría de las categorías resultó ser un fundamento global y unitario para la matemática, que contiene como casos particulares tanto los conjuntos de Zermelo y Fraenkel, como las estructuras de Bourbaki. Ello estimula un proceso ulterior de abstracción: así como los conjuntos se pueden vincular entre sí mediante funciones, y las estructuras de un mismo tipo se pueden vincular entre sí median- te funciones que preservan esa estructura, llamadas morfismos, tam- bién es posible vincular entre sí las categorías mediante funciones que preservan las propiedades categóricas, llamadas funtores. Así como los conjuntos con las funciones o las estructuras con los morfismos constituyen categorías, uno se ve tentado de afirmar que las categorías con los funtores constituyen la categoría de las categorías. Pero el problema es que, desde el punto de vista de los conjuntos, muchas categorías constituyen una clase propia, es decir, no pueden formar parte de otras clases, ni constituir particularmente los objetos de otra categoría. La primera solución es restringir la atención a las denominadas 30 4. Fundamentos categorías pequeñas, que constituyen un conjunta De este modo, se obtiene efectivamente la categoría de las categorías pequeñas, que gene- raliza el concepto de clase de todos los conjuntos. Ésta contiene mu- chos ejemplos interesantes, pero obviamente no aquéllos de los que hemos hablado, es decir, la categoría de los conjuntos y las categorías de las estructuras. La segunda solución es la ya mencionada propuesta de Grothen- dieck, que precisamente surgió en este ámbito: ampliar la teoría de los conjuntos con nuevos axiomas que permitan considerar clases de clases, clases de clases de clases, y así sucesivamente. Dependiendo de la potencia de estos axiomas, se obtienen categorías cuyos objetos son clases, clases de clases y así sucesivamente, pero en ningún caso se llega a la categoría de todas las categorías. La tercera solución, quizás la más satisfactoria, es una axiomati- zación de la nociónmisma de categoría. La propuso Lawvere en 1966 y en este ámbito desempeña un rol análogo a la axiomatización de la noción de conjunto de Zermelo y Fraenkel. Además, cuando la axio- matización de Lawvere se reduce a las categorías discretas, que son aquellas en las que las únicas funciones presentes son las identida- des, se obtiene una axiomatización de la teoría de los conjuntos de manera categórica. Estos desarrollos permiten a la teoría de las categorías reivindicar un rol significativo de fundamento de la matemática para los mate- máticos, expresamente declarado en 1971 en el título del clásico texto deMacLane, Categories for the working mathematician [Categorías en la práctica matemática]. Ello no significa que las categorías no tengan nada que ofrecer a los lógicos. Como ejemplo, basta considerar la teoría de los tipos, que Russell, introdujo en 1908 como posible solución a las paradojas, y que es una versión de la teoría ingenua de los conjuntos, basada en La Matemática del siglo XX 31 los axiomas de de extensión y comprensión, con la particularidad de que los conjuntos no son de un solo tipo y que una propiedad de objetos de cierto tipo determina un conjunto del tipo sucesivo. En 1969 Lawvere formuló la teoría de los tipos en versión categórica, y obtuvo la teoría de los tópoi, en la cual se puede desarrollar una lógica, que resultó ser equivalente a la lógica intuicionista, introducida por el topólogo Luitzen Brouwer en 1912, y más general que la clásica aristotélica. Partiendo de motivaciones de geometría algebraica, completa- mente distintas de las anteriores, también Grothendieck llegó de ma- nera independiente a la teoría de los tópoi, que de este modo resul- ta ser un punto de convergencia de muchas disciplinas, y permitió identificar el motivo que impide a la teoría de los conjuntos llegar a ser un fundamento general de la matemática; simplificando, los con- juntos forman un tópos cuya lógica es clásica y, por lo tanto, demasia- do simple como para rendir cuenta, por ejemplo, de la complejidad de la topología y de la geometría algebraica. 4.4. Década de 1980: El Lambda Cálculo La teoría de los conjuntos brindó a los lógicos un fundamento adecuado contra las paradojas. En cambio, los matemáticos, cuya la- bor cotidiana no está relacionada en lo más mínimo con la proble- mática de las paradojas, encontraron en las estructuras de Bourbaki y en la teoría de las categorías fundamentos más adecuados para su práctica. Pero ninguno de los tres enfoques es satisfactorio desde el punto de vista de los informáticos, que emplean masivamente algoritmos y programas que trabajan sobre datos, es decir, funciones que se apli- can a argumentos. Sólo la teoría de categorías trata directamente de funciones, que no se aplican a argumentos, sino compuestas entre sí; 32 4. Fundamentos la informática teórica exige pues un fundamento alternativo, y lo en- cuentra en el Lambda Cálculo propuesto por Alonzo Church en 1933. La idea de Church fue, precisamente, explorar un enfoque alter- nativo para los fundamentos de la matemática, paralelo a la teoría de Cantor y Frege, pero basado en el concepto de función en lugar del de conjunto, según el siguiente esquema: una función correspon- de a un conjunto, un argumento de una función corresponde a un elemento de un conjunto, la aplicación de una función a un argu- mento corresponde a la pertenencia de un elemento a un conjunto y la definición de una función mediante una descripción de los valores corresponde a la definición de un conjunto mediante una propiedad de los elementos. Por lo tanto, la teoría ingenua de los conjuntos se traduce auto- máticamente en una teoría ingenua de las funciones. Y se basa en dos únicos principios, que reducen las funciones a las descripciones de sus valores. Ante todo, el principio de extensión: una función está com- pletamente determinada por sus valores y, por lo tanto, dos funcio- nes que poseen los mismos valores para los mismos argumentos son iguales. Y, por otra parte, el principio de comprensión: cada descripción de valores determina una función, y cada función está determinada por una descripción de valores. Pero si la teoría ingenua de los conjuntos había logrado generar grandes esperanzas antes de la paradoja de Russell, después de ésta la teoría ingenua de las funciones parece destinada a ofrecer pocas esperanzas. En particular se puede pensar que la paradoja se puede reproducir fácilmente también en este nuevo contexto. En efecto, tratando de reproducirlo, se cae inmediatamente en un problema: qué significado se debe asignar a la negación en el ámbito de las funciones; la cuestión se puede dejar de lado por un momen- to suponiendo que exista precisamente una función n que actúe de La Matemática del siglo XX 33 algún modo análogo a la negación. Ya que la paradoja de Russell se basaba en el conjunto de los conjuntos que no pertenecían a si mis- mos, en este caso se trata de considerar la función cuyos valores en determinado argumento se obtienen aplicando n al resultado de la aplicación del argumento a sí mismo. Pero surge un problema: ¿cuál es el resultado de la aplicación de tal función a sí misma? Para la definición que se acaba de dar, tal va- lor se obtiene aplicando n al resultado de la aplicación de la función a sí misma, entonces, ese es un argumento que no cambia aplicando n. En efecto, ésta es una contradicción si se supone que n es una fun- ción que cambia todos los argumentos a los que se aplica, pero nada indica que sea así. Por el contrario, el razonamiento demuestra preci- samente que no puede ser así si la teoría es consistente, en el sentido de que ninguna función puede asignar valores distintos a un mismo argumento. Se obtendría una contradicción sólo si se supiera que la teoría es inconsistente (en el sentido que se acaba de describir), pero en este caso el razonamiento resulta inútil, porque era justamente lo que intentaba demostrar.Pero si la teoría es consistente, el argumento prueba que ninguna función de la teoría puede cambiar todos sus argumentos; dicho de otro modo, cada función debe dejar invariado al menos un argumento, que por este motivo se denomina punto fijo. Por lo tanto, el argumento de Russell no es suficiente para demos- trar la incosistencia de la teoría de Church, y esto ya es un primer re- sultado parcial. Todavía se puede pensar que algún argumento más complicado pueda lograrlo, pero en 1936 Church y John Barkley Ros- ser demostraron un famoso y difícil teorema, del que se deduce que la teoría es consistente, pues una función también puede no asignar ningún valor al argumento, pero si asigna uno éste es único. El teorema de Church y Rosser demostró que el Lambda Cálculo 34 4. Fundamentos era una teoría singular, al mismo tiempo basada en principios inge- nuos y demostrablemente consistente, por lo tanto al reparo de las paradojas, no sólo actuales, sino también potenciales. Pero a prime- ra vista, la cura pareció más dolorosa que la enfermedad: el precio a pagar por la consistencia era la imposibilidad de definir dentro de la teoría una función análoga a la negación y, más en general, de englo- bar en ella a la lógica. En un período en que la fascinación por el plan de reducción de toda la matemática a la lógica todavía era fuerte, no obstante sus evidentes dificultades, la cuestión pareció inaceptable, y el Lambda Cálculo no fue considerado como un fundamento ade- cuado para la matemática. Pero ya en 1936 Church y Stephen Kleene demostraron que el Lambda Cálculo se podía englobar en la aritmética. Actualmente, es posible reformular su resultado de la siguiente manera: las funcio- nes que se pueden representaren el Lambda Cálculo son exactamente las que se pueden describir en cualquiera de los lenguajes comunes de programación universal para ordenadores. Naturalmente, el re- sultado de Church y Kleene era futurista, ya que en aquel entonces no existían los ordenadores, y su formulación originaria no podía demostrar todas sus potencialidades. Pero con la llegada de los or- denadores se hicieron evidentes y la teoría fue reconocida como el fundamento adecuado para la informática. En particular, el teorema del punto fijo se convirtió en la justifi- cación teórica de los programas autorreferenciales o recursivos, que son de uso común en la programación. Y la semántica denotacional del Lambda Cálculo, inaugurada en 1969 por Dana Scott, desarrolló técnicas que permiten interpretar los programas para ordenadores como auténticos objetos de naturaleza matemática, demostrando de este modo que la informática puede ser considerada, con justa razón, como una de las nuevas ramas de la matemática moderna. Por este La Matemática del siglo XX 35 trabajo, Scott recibió en 1976 el Turing Award el premio para informá- tica análogo a la medalla Fields o al premio Nobel. 36 4. Fundamentos 5 Matemática Pura Durante milenios, la historia de la matemática ha sido, en sus- tancia, la historia del progreso en el conocimiento de entidades nu- méricas y geométricas. Pero en los últimos siglos, y sobre todo en el siglo XX, han surgido nuevas y variadas entidades, que subordina- das plácidamente en un primer momento al estudio de los objetos clásicos, posteriormente adquirieron una impetuosa independencia e inspiraron la denominada nueva edad de oro de la matemática. Si bien la matemática moderna es, por un lado, el producto de un desarrollo que se origina en problemáticas concretas y clásicas, por otro lado, es también el testimonio de una actividad que encuentra su expresión en construcciones abstractas y contemporáneas. Esen- cialmente, la matemática clásica se reducía a cuatro áreas, dedicadas respectivamente al estudio de lo discreto y de lo continuo, es decir, de los números y de las figuras: aritmética y álgebra por un lado, geometría y análisis por el otro. Pero no es tan fácil enumerar las disciplinas de la matemática moderna, que se recen sustancialmente al estudio de las distintas estructuras algebraicas, topológicas y de orden, y a sus combinaciones. 37 38 5. Matemática Pura Aunque los peligros de esta proliferación, a los que ya hicimos referencia en la Introducción, son reales, te conjuran cuando se com- prueba que, más allá de la fragmentación aparente, la matemática del siglo XX exhibe una uni dad sustancial de sus disciplinas. En efecto, el archipiélago de la matemática moderna está conectado por caminos subterráneos, misteriosos e invisibles, que son develados por inespe- radas convergencias, que los hacen emerger y aflorar lentamente. Un símbolo de esta unidad es el episodio del teorema de Fermat, so- bre el cual nos explayaremos más adelante. Sus raíces se encuentran en los estudios pitagóricos sobre los números enteros, que culmina- ron en el siglo III a.C en los Elementos de Euclides. En el siglo III d.C. Diofanto de Alejandría inició un estudio de las soluciones enteras de ecuaciones con coeficientes enteros, y las trató detalladamente en Aritmética, una obra en trece libros, de los cuales sólo sobrevivieron seis. En el siglo XVII, Pierre de Fermat estudió la obra de Diofanto y anotó en los márgenes de su copia 48 observaciones, sin demostra- ción alguna. En el siglo XVIII, todas las observaciones de Fermat habían sido demostradas, con una sola excepción, que por eso, se conoció como el último teorema de Fermat si bien existen dos cuadrados de números enteros cuya suma es un cuadrado (por ejemplo 9 y 16, cuya suma es 25), no existen dos cubos cuya suma sea un cubo, ni dos potencias n-ésimas cuya suma sea una potencia n-ésima, si n es mayor que 2. En el siglo XIX, los intentos por demostrar el último teorema de Fer- mat provocaron importantes progresos en la teoría de números y la confirmación del teorema para un número cada vez más grande de exponentes, pero no una demostración general. En 1995, Andrew Wiles obtuvo la demostración general, a tra- vés de un enfoque indirecto que, a primera vista, parece totalmente desvinculado del problema, y utilizando un arsenal de técnicas com- La Matemática del siglo XX 39 pletamente abstractas. Para resolver un sencillo problema numérico, con un enunciado elemental y clásico, fue necesario apelar a una gran parte de la matemática superior y moderna. Y el episodio es un ejem- plo, no sólo de la aparente continuidad dinámica, diacrónica y verti- cal de cada área de la matemática, sino también de la oculta conexión estática, sincrónica y horizontal entre las áreas más diferentes. Típico de esta visión de la matemática como un todo unitario es el programa de Langlands: enunciado en los años 1960 por Robert Lang- lands, el programa especifica una serie de conjeturas sobre las po- sibles conexiones entre áreas diferentes, y la demostración de Wiles constituye una todavía parcial, pero ya sustanciosa, realización. En reconocimiento por esta obra de unificación, Langlands y Wiles reci- bieron el premio Wolf en 1995/1996. Si bien la teoría de los números, de la cual el teorema de Fermat es uno de los enunciados, es quizá la disciplina en la cual las cone- xiones típicas de la matemática contemporánea entre lo diacrónico y lo sincrónico, lo clásico y lo moderno, lo concreto y lo abstracto se manifiestan de la manera más espectacular, está bien lejos de ser la única. Otro episodio simbólico es el estudio del círculo y la esfera, que se encuentran entre los objetos aparentemente más simples estudia- dos por la geometría. Arquímedes fue el primero en descubrir, en el año 225 a.C., la existencia de una misteriosa conexión entre algunos de sus aspectos: la circunferencia y el área del círculo, así como la superficie y el volumen de la esfera, están todos vinculados con la misma constante π, y para calcularla se desarrollaron durante siglos varios métodos (geométricos, algebraicos y analíticos). No obstante la aparente simpleza de círculo y esfera, algunos pro- gresos sustanciales en su estudio debieron esperar hasta el siglo XIX. Ante todo, fue necesarioel desarrollo de métodos algebraicos y ana- 40 5. Matemática Pura líticos sofisticados para demostrar la imposibilidad del problema pu- ramente geométrico de la cuadratura del círculo (la construcción me- diante regla y compás de un cuadrado de área igual a la de un círcu- lo dado). Además, algunos métodos topológicos permitieron distin- guir la esfera de otras superficies cerradas del espacio tridimensional; sustancialmente, la esfera es la única superficie que permite que un elástico extendido sobre sí mismo se contraiga hasta alcanzar un so- lo punto. Por último, algunos métodos diferenciales permitieron de- mostrar que el cálculo infinitesimal se puede extender desde el plano a la esfera de una sola manera. Algunos de los estudios fundamentales de la matemática del si- glo XX se refieren a la hiperesfera, que es para el espacio de 4 dimen- siones lo que el círculo y la esfera son para el espacio de 2 y 3 dimen- siones. Uno de los problemas abiertos más importantes de la mate- mática moderna, y que discutiremos más adelante, llamado conjetura de Poincaré, se pregunta si vale una caracterización topológica de la hiperesfera análoga a la de la esfera. Pero ya se ha demostrado que el cálculo infinitesimal se puede extender del espacio a la hiperesfera de una sola manera. Círculo, esfera e hiperesfera son casos particulares de esferas en n dimensiones en espacios de n + 1 dimensiones, y algunos de los resultados más importantes y profundos de la matemática moder- na, de los que hablaremos más adelante, se obtuvieron precisamente considerando esferas de varias dimensiones. Por ejemplo, lo análogo a la conjetura de Poincaré se demostró para las esferas de cualquier número de dimensiones mayor que 3, y se encontraron muchas ma- neras no equivalentes de extender el cálculo infinitesimal a la esfera de 7 dimensiones. Estos y otros resultados han revelado una paradoja aparente: cuan- do se aumenta el número de dimensiones, aunque los objetos se tor- La Matemática del siglo XX 41 nan cada vez más difíciles de visualizar intuitivamente, se hacenmás fáciles de tratar matemáticamente, porque hay más espacio para ma- nipularlos. Por ejemplo, dar vuelta un guante derecho para conver- tirlo en un guante izquierdo es fácil en el espacio de cuatro dimen- siones, pero difícil (aunque no imposible para un teorema de Stephen Smale de 1959) en el espacio de tres dimensiones. Esta impresión también se confirma en un nivel elemental, por ejemplo, con el cómputo del número de los “poliedros” regulares, que son 5 en el espacio de 3 dimensiones (los famosos sólidos plató- nicos), 6 en el espacio de 4 dimensiones, pero sólo 3 en los espacios de dimensiones mayores. Irónicamente, los casos más difíciles de es- tudiar resultan ser justamente los de 3 y 4 dimensiones, los que co- rresponden al espacio y al espacio-tiempo en que vivimos. Los ejem- plos anteriores muestran de qué manera también el estudio de pro- piedades elementales de objetos simples, como los números enteros y las figuras geométricas, puede necesitar el desarrollo de técnicas sofisticadas y de áreas abstractas. Y ya que es esta perspectiva, pre- cisamente, la que permite justificar a posteriori tanto los objetos como los métodos de la matemática moderna, nos atendremos a ella para exponer sus etapas más significativas. 5.1. Análisis: La medida de Lebegue (1902) Por su propia definición, la geometría (de geo “tierra” y metrein “medida”) se ocupa de problemas referidos a longitudes de curvas, áreas de superficies y volúmenes de sólidos. Estos problemas fue- ron afrontados de manera sistemática a partir de los Elementos de Euclides, que en el año 300 a.C proporcionaron un fundamento geo- métrico a toda la matemática griega. Consideremos por ejemplo, para fijar la atención, el problema del área. Euclides no dio ninguna definición ni del área ni de alguna de 42 5. Matemática Pura sus medidas, pero enunció algunas “nociones comunes” de las que se deducen las siguientes propiedades: superficies “iguales” tienen áreas iguales (invarianza); una superficie que se obtiene “sumando” entre sí un número finito de superficies tiene un área igual a la suma de las áreas de éstas (aditividad finita); una superficie contenida en otra tiene un área menor o igual a ésta (monotonía). Sobre la base de las dos primeras nociones, se puede llegar a asig- nar un área a cada polígono en dos pasos: por una parte, asignando un área a cada triángulo (por ejemplo, “base por altura dividido 2”); por otro lado, descomponiendo el polígono en triángulos y suman- do sus áreas. Naturalmente, para que todo funcione se deberá de- mostrar, por un lado, que el área de un triángulo no depende de la elección de la base y de su respectiva altura; por otro lado, que el área de un polígono no depende de la elección de la triangulación. Aunque estos desarrollos están implícitos en Euclides, su trata- miento era extremadamente carente desde un punto de vista lógico y usaba, en particular, numerosas suposiciones escondidas, que se explicitaron cuidadosamente sólo en el siglo XVII. E1 trabajo de sis- tematización de la geometría de Euclides se concluyó en 1899, con la publicación de los Fundamentos de la geometría de Hilbert. En 1833, Jànos Bolyai demostró un teorema interesante, que com- plementó los resultados de Euclides que acabamos de mencionar. Es- te teorema explicaba que dos polígonos que tienen el misma área se pueden descomponer en un número finito de triángulos equivalen- tes. En particular, todo polígono se puede “cuadrar” en el sentido de descomponerlo en un número finito de triángulos que, vueltos a componer, constituyen un cuadrado con la misma área. O viceversa, un cuadrado se puede convertir en un polígono cualquiera volvien- do a componer una apropiada descomposición del mismo en trián- gulos (Figura 2). La Matemática del siglo XX 43 En lo que respecta a los volúmenes de poliedros, se puede imagi- nar un tratamiento análogo, en el que las triangulaciones se sustitu- yan por descomposiciones en tetraedros. El tercer problema de Hilbert preguntaba si vale un teorema análogo al de Bolyai, es decir, si todo poliedro se puede descomponer en un número finito de tetraedros que, vueltos a componer, constituyan un cubo con el mismo volu- men. Max Dehn dio inmediatamente una respuesta negativa; él de- mostró, por ejemplo, que esto no es posible ni siquiera para los mis- mos tetraedros. b b b b Figura 2. “Cuadratura” de un triángulo Una vez resuelto el problema del área para las figuras rectilíneas como los polígonos, se debe pasar, naturalmente, al del área de las figuras curvilíneas, ante todo a la del círculo. La idea es aproximar estas figuras mediante polígonos, ya sea desde el interior como des- de el exterior: para la tercera noción común de Euclides, el área de la figura curvilínea estará comprendida entre las áreas de estas aproxi- maciones, y si éstas tienden a un límite común, el área de la figura coincidirá con este límite. Sin embargo, esta noción general es bastante reciente (fue intro- ducida en 1887 por Giuseppe Peano y en 1893 por Camille Jordan). Un primer caso especial, que usa polígonos (semi)regulares, es elmé- todo de exhaución de Eudoxio, del siglo IV a.C., empleado por Arquí- medes alrededor del 225 a.C. para calcular el área del círculo y la superficie de la esfera. Un segundo caso especial, que usa polígonos 44 5. Matemática Pura constituidos por un número finito de rectángulos, es la integral de Riemann, introducida en 1854 por Bernhard Riemann, y que permite calcular el área de cualquier superficie cuyo borde esté delimitado por funciones continuas. En realidad, desde el siglo XVII al XIX, la existencia del área de una superficie se daba por descontada, y las integrales se considera- ban sólo el método para calcularla. Fue Augustin Cauchy, en 1823, quien dio un vuelco a este enfoque, y definió el área como la integral misma; esto planteó el problema de determinar cuáles eran las su- perficies que tenían un área y, en particular, cuáleseran las funciones que tenían una integral. La noción de integral de Riemann es muy general y permite in- tegrar también funciones con infinitas discontinuidades, si éstas no constituyen un conjunto “desmedido”. Hacia finales del siglo XX, con la proliferación de ejemplos de funciones no integrables en el sen- tido de Riemann, se hizo necesario poder precisar una medida del conjunto de discontinuidades, que permitiera separar las funciones integrables de las que no lo son. La noción introducida por Peano y Jordan no resultó suficiente, y el problema fue resuelto definitivamente por Henri Lebesgue, en 1902, con el concepto de medida de Lebesgue. Sustancialmente, Lebes- gue suplantó la aditividad finita de Euclides por la aditividad nume- rable: una superficie que se obtiene “sumando” entre sí una cantidad numerable de superficies tiene un área igual a la suma de las áreas de éstas, Y hoy se considera a una superficie dotada de área (o a un sólido dotado de volumen) cuando es medible en el sentido de Le- besgue. Seguro con su definición de conjunto medible, Lebesgue pudo demostrar que una función es integrable en el sentido de Riemann exactamente cuando el conjunto de sus discontinuidades mide 0, lo La Matemática del siglo XX 45 que no excluye que el conjunto pueda ser muy grande y contener, por ejemplo, tantos puntos como el conjunto mismo de los números reales, aunque no pueda ser demasiado “denso”. Además, así como la integral de Riemann es un caso particular de la medida de Peano o Jordan, se puede definir una integral de Lebesgue como un caso particular de la medida de Lebesgue. Las funciones integrables en el sentido de Riemann también lo son en el sentido de Lebesgue, y con el mismo valor, pero existen funciones integrables en el sentido de Lebesgue que no lo son en el sentido de Riemann. En cuanto al problema de determinar cuáles conjuntos son medi- bles, Giuseppe Vitali demostró inmediatamente que no todos lo son. Luego se descubrió que con los conjuntos no medibles se pueden ha- cer cosas que no se pueden hacer con los conjuntos medibles. Hasta el punto de que, por la costumbre de tratar con conjuntos medibles, aquéllos no medibles pueden parecer paradójicos. Por ejemplo, en 1914, Félix Hausdorff demostró que dada una es- fera, es posible subdividir su superficie en un número finito de piezas (obviamente, no medibles) que, vueltas a componer, constituyen dos esferas, cada una con la misma área de la inicial. Y en 1924, Stefan Banach y Alfred Tarski demostraron un resultado análogo para los volúmenes. En otras palabras, en el espacio, las áreas y los volúme- nes no se preservan por descomposición en piezas no medibles. Una analogía de esas paradojas no es posible en el plano. Pero, en 1988, Miklos Laczkovich demostró que, dado un circulo, es posible subdividirlo en un número finito (aunque enorme: 1050 aproximada- mente) de piezas (no medibles) que, vueltas a componer, constituyen un cuadrado con el misma área. En otras palabras, en el plano la cur- vatura no se preserva por descomposición en piezas no medibles. 46 5. Matemática Pura 5.2. Álgebra: La Clasificación de los campos de Steinitz (1910) Como lo indica su nombre, los números naturales constituyen una de las intuiciones primordiales de la matemática: en cuanto proba- bles abstracciones de los latidos del corazón, tienen sus raíces en el devenir y el tiempo, así como los puntos geométricos son, en cambio, una abstracción del ser y del espacio. Históricamente, la primera extensión de los naturales fue la de los números racionales positivos, permite una inversión del producto. Puesto que la división no presenta grandes dificultades conceptuales, los racionales ya estaban bien establecidos en el siglo VI a.C., y fueron tomados por los pitagóricos como fundamento de su filosofía. En cambio, la extensión de los números naturales a los números enteros, positivos y negativos, necesitó dos innovaciones esenciales. La primera fue la aparición del cero, cuya ausencia ni siquiera per- mite presentar el problema de la inversión de la suma; el cero fue introducido en el siglo VII d.C. por los hindúes, y en la segunda mi- tad del primer milenio por los mayas. La segunda innovación fue la consideración de cantidades negativas, que no tienen sentido hasta que los números se consideran a la manera griega, como medidas de cantidades geométricas; también los negativos fueron introducidos en el siglo VII d.C. por los hindúes, para medir deudas. Si se integran las dos extensiones anteriores a la consideración de los números racionales, tanto positivos como negativos, se obtiene el primer ejemplo de campo, es decir, según la definición dada porHein- richWeber en 1893, de un conjunto de elementos dotado de operacio- nes de suma y producto que poseen las propiedades usuales, incluso la invertibilidad. Los hindúes fueron los primeros en adoptar explí- citamente el campo de los racionales, pero los árabes primero y los europeos después rechazaron los números negativos hasta el siglo XVIII y, aún en 1831, Augustus de Morgan negaba su sensatez. La Matemática del siglo XX 47 Un segundo ejemplo típico de campo lo dan los números reales. Mientras que los irracionales fueron descubiertos por los pitagóricos y manipulados formalmente por hindúes y árabes, aquéllos no fue- ron considerados como números sino hasta el siglo XVII, a partir de RenéDescartes y JohnWallis. Y hubo que esperar hastamediados del siglo XIX para llegar a definiciones de los números reales, basadas en los números racionales, las secciones de Richard Dedekind en 1958 y las sucesiones convergentes de Georg Cantor (y otros) en 1872. Los números complejos fueron introducidos por Gerolamo Cardano en 1545, para solucionar las ecuaciones de tercer grado, y las ope- raciones de campo basadas en estos números fueron definidas por Raffaele Bombelli en 1572; pero, en ambos casos, se trataba de arti- ficios formales con puros símbolos, que no representaban más que “números imaginarios”, actitud que persistió hasta el siglo XVIII. Só- lo el teorema fundamental del álgebra, que establece que todo poli- nomio de grado n de coeficientes complejos tiene n ceros complejos, demostrado por primera vez por Gauss en 1799, les confirió el esta- do de números independientes, y brindó el primer ejemplo de campo algebraicamente cerrado, es decir, que contiene todos los ceros de su polinomio. La definición formal de los números complejos, como pa- res de números reales, y de las respectivas operaciones de campo fue dada por William Hamilton en 1837. Conmotivaciones diferentes, tanto Evariste Galois, en 1830, como Dedekind, en 1871, llegaron ala definición de una clase completa de campos, mediante un procedimiento de extensión de los racionales. Consideraron, dado un irracional α, el conjunto mínimo de números reales (o complejos) que forma un campo y contiene tanto a los racio- nales como al mismo α; este conjunto se puede generar directamente, partiendo de α y haciendo todas las posibles adiciones, sustracciones, multiplicaciones y divisiones (excepto por 0). Si el elemento a que se 48 5. Matemática Pura agrega es el cero de un polinomio de coeficientes racionales, como en el caso de √ 2 la extensión se llama algebraica; de lo contrario, como en el caso de π, se llama trascendente. Además de los campos infinitos, de los cuales todos los casos cita- dos son ejemplos, existen también campos finitos. Como ejemplo basta considerar los enteros módulo n, del tipo de los que se usan para las horas del día (de 12 o 24 elementos), o para los minutos de la hora (de 60 elementos); se generan como los típicos enteros, partiendo de 0 y agregando cada vez 1, con la diferencia de que cuando se llega a n se llega de nuevo a 0. Para que los enteros módulo n constituyan un campo, es necesario y suficiente que n sea un número primo. Los ejemplos citados muestran el modo en que las nociones de la matemática moderna, entre las cuales la de campo fue uno de los primeros ejemplos significativos, permiten unificar
Compartir