Logo Studenta

La matemática del siglo XX - Piergiorgio Odifreddi

¡Este material tiene más páginas!

Vista previa del material en texto

PIERGIORGIO ODIFREDDI
LAMATEMÁTICA DEL
SIGLO XX
DE LOS CONJUNTOS A LA COMPLEJIDAD
II
PIERGIORGIO ODIFREDDI (Cuneo, Italia, 1950)
Estudió matemática en Italia, Estados Unidos y la
ex Unión Soviética. Enseña lógica en las univer-
sidades de Turín y de Cornell. En 1988 recibió el
premio Galileo de la Unión Matemática Italiana.
Ha trabajado sobre problemas de lógica intuicio-
nista. Actualmente, su campo de investigación es
la teoría de la recursividad.
Primera Edición, 2006
Traducido por Idiarte, Cecilia
Prólogo de Gian Carlo Rota
Título de la edición original: La matematica del Novecento. Dagli
insiemi alla complessità
Turín, 2000
La Matemática del siglo XX III
A Laura
que me libera del tiempo y el espacio
y me da la alegría y la paz
que me han sido negadas por el Número y el Punto.
IV
Índice general
1. Prólogo de Gian Carlo Rota 1
2. Agradecimientos 7
3. Introducción 9
4. Fundamentos 17
4.1. Década de 1920: Los Conjuntos . . . . . . . . . . . . . . . . . . . 19
4.2. Década de 1940: Las Estructuras . . . . . . . . . . . . . . . . . . . 23
4.3. Década de 1960: Las Categorías . . . . . . . . . . . . . . . . . . . 27
4.4. Década de 1980: El Lambda Cálculo . . . . . . . . . . . . . . . . . 31
5. Matemática Pura 37
5.1. Análisis: La medida de Lebegue (1902) . . . . . . . . . . . . . . . . 41
5.2. Álgebra: La Clasificación de los campos de Steinitz (1910) . . . . . . . . 46
5.3. Topología: El Teorema del Punto Fijo de Brouwer (1910) . . . . . . . . 49
5.4. Teoría de Números: Los Números Trascendentes de Gelfond (1929) . . . . 52
V
VI ÍNDICE GENERAL
5.5. Lógica: El Teorema de Incompletitud de Gödel (1931) . . . . . . . . . . 56
5.6. Calculo Variacional: Las superficies minimales de Douglas (1931) . . . . 60
5.7. Análisis: Las distribuciones de Schwartz (1945) . . . . . . . . . . . . 65
5.8. Topología Diferencial: Las estructuras exóticas de Milnor (1956) . . . . . 69
5.9. Teoría de los Modelos: Los Números Hiperreales de Robinson (1961) . . . 73
5.10. Teoría de Conjuntos: El Teorema de Independencia de Cohen (1963) . . . 77
5.11. Teoría de Singularidades: La Clasificación de las Catástrofes de Thom (1964) 80
5.12. Álgebra: La Clasificación de los Grupos Finitos de Gorenstein (1972) . . . 86
5.13. Topología: La Clasificac. de las Superf. Tridimensionales de Thurston (1982) 92
5.14. Teoría de Números: La demost. de Wiles del Últ. Teorema de Fermat (1995) 97
5.15. Geometría Discreta: La solución de Hales al Problema de Kepler (1998) . . 103
6. Matemática Aplicada 109
6.1. Cristalografía: Los Grupos de Simetría de Bieberback (1910) . . . . . . . 115
6.2. Cálculo Tensorial: La relatividad general de Einstein (1915) . . . . . . . 122
6.3. Teoría de Juegos: El Teorema Minimax de Von Neumann (1928) . . . . . 126
6.4. Análisis Funcional: La Axiomat. de la Mec. Cuántica de V. Neumann (1932) 129
6.5. Teoría de la Probabilidad: La Axiomatización de Kolmogorov (1933) . . . 134
6.6. Teoría de la Optimización: El Método del Simplex de Dantzig (1947) . . . 138
6.7. Teoría del Equilibrio Gral.: El Th. de Existencia de Arrow y Debreu (1954) . 141
6.8. Teoría los lenguajes formales: La clasificación de Chomsky (1957) . . . . 144
6.9. Teoría de los Sistemas Dinámicos: El Teorema Kam (1962) . . . . . . . . 148
6.10. Teoría de los Nudos: Los Invariantes de Jones (1984) . . . . . . . . . . 152
La Matemática del siglo XX VII
7. La Matemática y el Ordenador 159
7.1. Teoría de Algoritmos: La Caracterización de Turing (1936) . . . . . . . . 165
7.2. Inteligencia Artificial: El Análisis del Ajedrez de Shannon (1950) . . . . . 169
7.3. Teoría del Caos: El Atractor extraño de Lorenz (1963) . . . . . . . . . . 172
7.4. Demostraciones asistidas: El Th. de los 4 Colores de Appel y Haken (1976) . 175
7.5. Fractales: El conjunto de Mandelbrot (1980) . . . . . . . . . . . . . . 181
8. Problemas irresueltos 187
8.1. Aritmética: El Problema de los Números Perfectos (300 a.C.) . . . . . . . 189
8.2. Análisis complejo: La Hipótesis de Riemann (1859) . . . . . . . . . . . 191
8.3. Topología Algebraica: La Conjetura de Poincaré (1904) . . . . . . . . . 195
8.4. Teoría de la Complejidad: El Problema P = NP (1972) . . . . . . . . . 198
9. Conclusión 205
10. Bibliografía 211
11. Índice de nombres 215
VIII ÍNDICE GENERAL
1
Prólogo
A finales del segundo milenio, la vida de la matemática corre se-
rios peligros. Entre las múltiples amenazas a su supervivencia, las
más inminentes me parecen la crasa ignorancia de sus resultados y
la frecuente hostilidad hacia sus exponentes. Ambas se ven favoreci-
das por la insistencia de los matemáticos en permanecer en los estre-
chos límites de la propia disciplina, y por su ineptitud para traducir
su contenido esotérico en eslóganes exotéricos, como debería ser en
la era de los medios masivos de comunicación y de las relaciones
públicas. Si no se toman inmediatamente drásticas medidas, la ma-
temática corre el riesgo de convertirse pronto en una curiosidad, una
de las especies intelectuales en vías de extinción -junto a los otros
clásicos, desde la poesía hasta la música, o desde la pintura al teatro-
que nuestros hijos visitarán en el zoológico.
Sin embargo, está claro (y puedo demostrarlo con rigor) que la
civilización occidental de la que estamos tan orgullosos sobrevivirá
o morirá junto con sumatemática. La matemática es, siempre ha sido
y siempre será la cúspide de nuestra civilización, y cualquiera que
adhiera a los ideales que se nos transmitieron desde los hebreos y los
1
2 1. Prólogo de Gian Carlo Rota
griegos, a través del Renacimiento y la Revolución Científica, debe
estar listo para enrolarse entre sus defensores.
El campo de batalla es vasto y el plan de lucha debe ser concebi-
do por nuestros mejores estrategas. Afortunadamente, contamos con
algunos entre los matemáticos, no obstante el desdén esnob con el
que los miran la mayoría de sus colegas (los físicos y los químicos,
en cambio, aprendieron hace mucho tiempo a comportarse de otra
manera, y miman y recompensan inmensamente a sus estrategas).
Aprovecho esta oportunidad que me brinda mi amigo Odifreddi
para detenerme en una pequeña zona de este campo de batalla. La-
mentablemente, no estoy capacitado para ofrecer sugerencias cons-
tructivas, pero al menos puedo señalar algunas grotescasmalas inter-
pretaciones, que conducen a los falsos defensores de la matemática a
tropezar con sus propios pies. Mi consejo es evitar cuidadosamente
la repetición de los siguientes desaciertos.
• La matemática es divertida
Aprender matemática es divertido sólo para quienes la aman,
es decir, para una insignificante minoría de las personas ins-
truidas. Para la gran mayoría, en cambio, aprender matemá-
tica es una actividad pesada, difícil y artificial, que casi todos
preferirían evitar. Ciertamente, no se ayuda a la propia causa
acuñando un eslogan basado en una patraña tan descarada.
• La matemática es maravillosa
También aquí, la belleza de la matemática brilla sólo a los ojos
de quien la hace. Lamentablemente, la enseñanza de la mate-
mática ha caído hoy a niveles de incompetencia francamente
impensables para unmundo tecnológico. Poquísimosmaestros
saben comunicar la belleza de la matemática a sus estudian-
tes, y muchos de los que podrían prefieren, comprensiblemen-
La Matemática del siglo XX 3
te, dedicarse a actividades menos frustrantes que la enseñanza.
Mejor dejar caer también este eslogan.
• La matemática tiene muchas aplicaciones
Aunque pueda parecer tonto, los matemáticos generalmente
concluyen la discusión de cualquier resultado con la frase: “Y
el teorema tiene muchas aplicaciones útiles”, pero nunca espe-
cifican cuáles. Querer especificarlo, entonces, sería peor aun.
Esforzarse por encontrar aplicaciones a toda costa conduce en
efecto a la invención de ejemplos innaturales y poco convin-
centes, que se merecen el desalentador y desafiante: “¿Y en-
tonces?”. Ciertamente, algunos resultados matemáticos tienen
aplicaciones inmediatas, pero también en estoscasos es mejor
mantenerse lejos de los detalles, como el secretario florentino
aconsejaba al Príncipe. Nunca se puede saber si el público mos-
trará interés, ni cuánto, hacia las falsas maravillas tecnológicas
que se le propinan. Conviene limitarse a generalidades obvias,
que son más adecuadas para impresionar a los desprevenidos.
Por ejemplo: “Sin lógica matemática no existirían los ordenado-
res” o “Sin el análisis funcional no existiría la bomba atómica”.
Si sólo encontráramos una docena de eslóganes de este tipo pa-
ra taparle la boca a cierta gente, la matemática podría emular a
la química en las relaciones públicas y competir con ella en las
subvenciones.
• La matemática es un sustituto de los clásicos
Pertenezco a la última generación a la que se le hizo creer que
saber leer latín y griego era un requisito indispensable para
quien quisiera obtener la calificación de gentleman. Prefiero
ahorrar las decrépitas banalidades que se esgrimían como justi-
ficación para la enseñanza de las lenguas muertas. Las mismas
banalidades se reciclan hoy para pedir mayor número de horas
4 1. Prólogo de Gian Carlo Rota
semanales de matemática en las escuelas secundarias; proyec-
to loable, por cierto, pero difícilmente realizable apelando a los
clásicos.
Debo confesar que yo mismo he creído en la analogía entre ma-
temática y clásicos, y que la he predicado a mis alumnos. Hasta
que un día uno de ellos me arrojó demanera irreverente un “¡Al
diablo los clásicos!” que me hizo recobrar instantáneamente el
sentido. De todos modos hay, obviamente, un toque de verdad
en la comparación, y es menester separarlo de las burlas. En
la vieja Inglaterra ningún buen estudiante de Oxford o Cam-
bridge podía aspirar a servir a Su Majestad, aunque fuera en la
colonia más alejada, si no era capaz de recitar al pie de la le-
tra miles de versos de Virgilio, o decenas de odas de Píndaro.
¡Los países civilizados se empeñaban en elegir a sus gobernan-
tes basándose sólo en su conocimiento de los clásicos!
Hoy esta ocurriendo algo parecido con la matemática. Cual-
quier que trabaje en áreas tecnológicas sabe que las especu-
laciones envejecen precoz y continuamente. Un sólido back-
ground de purísima matemática es el mejor seguro contra la
obsolescencia. Ni siquiera la matemática “aplicada” basta para
este fin, por obvias razones de circularidad.
• La matemática es como la música
Me gustaría creer esta afirmación. Pero hay que constatar que
hay muchos más estudiantes de música que de matemática,
aunque la probabilidad de morir de hambre o de ser un de-
socupado sea mucho más alta entre los músicos que entre los
matemáticos. Por lo tanto, debe haber una diferencia entre las
dos profesiones.
• La matemática es una profesión tranquila
Muchas personas que no se dedican a este trabajo conservan
La Matemática del siglo XX 5
una imagen falsa de la vida del matemático, según la cual el
profesor de matemática enseña algunas horitas por semana y
dedica el resto del tiempo a placenteros pasatiempos, desde la
jardinería hasta el ajedrez. Nada podría estar más alejado de la
realidad, y lo estará mas aun en el futuro. La competitividad en
la investigación matemática está llegando a niveles de olimpia-
das, y quien se dedique menos de dieciocho horas al día a la
investigación terminará en una pizzería. ¡Pero detrás del mos-
trador, no sentado a las mesas!
• La matemática es la reina de las ciencias
De esto, en cambio, estoy completamente convencido. Por des-
gracia, los matrimonios se forman entre dos personas. El eslo-
gan sería creíble sólo si los otros científicos estuvieran de acuer-
do, algo que a ellos ni se les pasa por la cabeza. Por el contrario,
todos intentan acaparar la enseñanza de la matemática, desde
los ingenieros hasta los físicos, desde los químicos hasta los bió-
logos, y los matemáticos se van de paseo. ¿Cuándo vamos a re-
cuperar un poco de respeto, por no hablar de algún puesto de
trabajo?
Afortunadamente, contra todo pronóstico pesimista, de vez en
cuando ocurren cosas buenas. Una de ellas es este libro de Odifre-
ddi. Su estrategia es inteligente: simplemente presenta los resultados
de la matemática como son, limitando al mínimo el lenguaje técni-
co, pero con suficiente información como para permitir al lector que
pueda hacerse una buena idea tanto de los problemas importantes,
como de sus soluciones. Pocas veces una historia tan completa fue
presentada con tal claridad.
Aquí no hay esfuerzos por “vender” la matemática. Que un re-
6 1. Prólogo de Gian Carlo Rota
sultado sea útil o no, incessu pateti1 el lector terminará por concluir,
exultante, al final de alguna espléndida explicación sobre las superfi-
cies mínimas o sobre los polinomios de Jones, que tarde o temprano
tales resultados encontrarán aplicaciones útiles.
Conducido por la hábil retórica del autor, el lector que llegue
a esta conclusión auscultará el ritmo cardíaco de la matemática y
aprenderá la lección esencial: que los mejores resultados son siem-
pre, inevitablemente, los que encuentran aplicaciones revoluciona-
rias. Y es justamente a éstas que se debe el progreso, o mejor dicho el
Progreso y el mejoramiento de nuestro mundo.
Cualquiera que ame la matemática debe estar agradecido a Odi-
freddi por haber presentado, con éxito, su lado más fuerte.
Gian Carlo Rota
Turín, 7 de junio de 1998
1“Se ve en el andar”, en referencia a la sentencia de Virgilio “vera incessu patuit
dea”. [N. de la T.]
2
Agradecimientos
Agradezco a John Hubbard y Peter Kahn por la inspiración ini-
cial, y a Claudio Bartocci, Cinzia Bonotto, Umberto Bottazzini, Lione-
llo Cantoni, Alberto Collino, Vittorio De Alfaro, Simonetta Di Sieno,
Michele Emmer, Livia Giacardi, Gabriele Lolli, CristinaMataloni, An-
drea Moro, Alessandro Panconesi, Tullio Regge y Paolo Valabrega
por la ayuda intermedia y la corrección final.
7
8 2. Agradecimientos
3
Introducción
El mundo descrito por las ciencias físicas y naturales es concreto
y perceptible: en una primera aproximación a través de los sentidos,
y en una segunda aproximación a través de varias extensiones de los
sentidos provistas por la tecnología. El mundo descripto por la ma-
temática, en cambio, es un mundo abstracto, constituido por ideas
que pueden percibirse sólo con el ojo de la mente. De todos modos,
con la práctica, conceptos abstractos como números y puntos han ad-
quirido tal objetividad que incluso el hombre común puede obtener
imágenes sustancialmente concretas de ellos, como si pertenecieran
a un mundo de objetos tan reales como los físicos.
Pero la ciencia moderna ha minado la ingenua visión del mundo
exterior; la investigación extendió sus fronteras a las inmensas mag-
nitudes del cosmos y a las minúsculas de las partículas, haciendo
imposible una percepción sensorial directa, o incluso sólo a través de
medios tecnológicos, de los objetos galácticos o atómicos, reducién-
dolos efectivamente a imágenes matemáticas. De manera análoga,
también la matemática moderna extendió las fronteras de su investi-
gación a las raras abstracciones de las estructuras y a los minuciosos
9
10 3. Introducción
análisis de los fundamentos, desvinculándose por completo de la vi-
sualización.
Por lo tanto, la ciencia y la matemática del siglo XX comparten la
dificultad de explicar sus conquistas en términos de conceptos clási-
cos. Pero dificultad no significa imposibilidad; y son precisamente las
abstracciones superficiales y estériles las que generalmente resultan
difíciles de justificar, mientras que las profundas y fecundas ahondan
sus raíces en problemas e intuiciones concretas. En otras palabras, la
buena abstracción no es un fin en sí mismo, un arte por el arte, sino
que siempre es una necesidad, un arte por el hombre.
Una segunda dificultad cuando se afronta la ciencia y la matemá-
tica del siglo XX es la explosión productiva. Los matemáticos, que
solían conformar un pequeño grupito que a menudo debía hacer
cualquier trabajo para sobrevivir, hoy se han convertido en una le-
gión. Se mantienen produciendoinvestigaciones que, generalmente,
no tienen ni justificación ni interés, y la estructura universitaria en
que la mayoría de ellos trabaja los incita estúpidamente a “publicar
o perecer”, según un triste lema estadounidense. El resultado es que
hoy están circulando centenares de revistas especializadas, en las que
aparecen cada año, literalmente, centenares de miles de teoremas, la
mayoría irrelevantes.
Una tercera dificultad es provocada por la fragmentación que la
matemática sufrió a partir del siglo XVIII, y que se hizo patológica en
el siglo XX. Una de las causas es la explosión productiva, pero no es
la única; otra, quizás más determinante, es el progreso mismo de la
investigación. En efecto, los problemas simples y de fácil resolución
son escasos, y una vez que se resuelven, una disciplina puede ser
desarrollada sólo afrontando problemas complicados y difíciles, que
requieren el desarrollo de técnicas específicas y, por lo tanto, una es-
pecialización. El siglo XX ha testimoniado una hiperespecialización
La Matemática del siglo XX 11
de la matemática, que terminó por dividirla en subdisciplinas con
fronteras cada vez más angostas y delimitadas.
Lamayoría de estas subdisciplinas están constituidas por ramitas
atrofiadas y resecas, que se desarrollan limitadamente en el tiempo y
el espacio, y luego mueren de muerte natural. Pero las ramas sanas
y fuertes siguen siendo muchas, y su desarrollo ha provocado una
situación inédita en la historia de la matemática: la extinción de la
especie del matemático universal, es decir, el individuo de excepcio-
nal cultura que podía dominar completamente el panorama entero
de la matemática de su tiempo. El último ejemplar parece haber sido
John von Neumann, fallecido en 1957.
Por todas estas razones, no es físicamente posible, ni es de esperar
intelectualmente, brindar un panorama completo de la actividad de
una disciplina que claramente ha asumido las características típicas
de la sociedad industrial dominante, en la que la superproducción de
mercancías de baja factura y a bajo costo generalmente marcha por
inercia, segúnmecanismos contaminantes y saturantes, nocivos para
el ambiente y para el consumidor.
El problema principal de cualquier exposición de la matemática
del siglo XX es entonces, como en la parábola del Evangelio, separar
el grano bueno de la paja, quemar la paja en gavillas y acumular el
grano en graneros. Los criterios que pueden guiar una selección de
resultados son múltiples, y no unívocos: el interés histórico del pro-
blema, la naturaleza germinal o conclusiva de un resultado, la belleza
intrínseca de la formulación o de las técnicas, la novedad o la dificul-
tad de la demostración, la fertilidad matemática o la utilidad práctica
de las aplicaciones, la pregnancia filosófica de las consecuencias, et-
cétera.
La decisión que proponemos al lector, naturalmente, no puede no
ser subjetiva, tanto en sentido negativo como positivo. Por una parte,
12 3. Introducción
se debe dar dentro de un bagaje personal de conocimientos que evi-
dentemente y de manera inexorable es limitado desde un punto de
vista general. Por otra parte, dentro de este bagaje, realiza una selec-
ción inevitablemente regida por preferencias y gustos particulares.
De todos modos, los aspectos subjetivos pueden limitarse al mí-
nimo, intentando hacer referencia a criterios que de alguna manera
resulten objetivos. En este caso, la tarea está facilitada por dos fac-
tores complementarios, que marcaron el desarrollo de la matemática
en el siglo XX. Ambos están vinculados, como explicaremos, con los
Congresos Internacionales de la Matemática; como las olimpiadas,
éstos se desarrollan cada cuatro años, y están invitados a presentar
sus trabajos aquellos a los que la comunidad de matemáticos consi-
dera sus mejores exponentes.
El primer Congreso oficial se llevó a cabo en 1897 en Zurich y la
apertura estuvo a cargo de Henri Poincaré, que la dedicó a las rela-
ciones entre matemática y física. El segundo Congreso se realizó en
París en 1900 y en esta oportunidad la apertura fue asignada a David
Hilbert. El factor numerológico se impuso a su deseo de responder a
distancia al discurso de Poincaré, y Hilbert eligió “indicar probables
direcciones de la matemática del nuevo siglo”.
En su inspirado discurso brindó, ante todo, implícitas indicacio-
nes que nos guiarán en nuestra exposición: los resultados importan-
tes son aquellos que manifiestan una continuidad histórica con el
pasado, que unifican distintos aspectos de la matemática, que arro-
jan luz nueva sobre cosas conocidas, que introducen simplificaciones
radicales, que no son manipuladamente complicados, que admiten
ejemplificaciones significativas, que están suficientemente madura-
dos como para poder ser explicados al hombre de la calle, etcétera.
Pero el discurso de Hilbert se hizo famoso principalmente por la
explícita indicación de veintitrés problemas abiertos, que él conside-
La Matemática del siglo XX 13
raba cruciales para el desarrollo de la matemática del siglo. Confir-
mando su lúcida anticipación, muchos de esos problemas resultaron
efectivamente fecundos y estimulantes, sobre todo en la primera mi-
tad del siglo, y enseguida nos detendremos en algunos. En la segun-
da mitad del siglo, el impulso de los problemas de Hilbert se apagó
y la matemática incursionó en caminos que a principios de siglo ni
siquiera existían.
Para orientarse en este período es útil hacer referencia a un pre-
mio instituido en 1936, que se concede en los Congresos Internacio-
nales a matemáticos menores de cuarenta años que hayan obtenido
en los últimos años los resultados más destacados. La restricción eta-
ria no es especialmente importante, dado que la mayor parte de los
resultados significativos se obtienen a esa edad. Como una vez dijo
Godfrey Hardy, en Apología de un matemático: “Ningún matemático
puede permitirse olvidar que la matemática, más que cualquier otra
arte o ciencia, es una actividad para jóvenes”.
El premio, dedicado a la memoria de John Charles Fields -un
matemático que había sido su organizador y que había obtenido la
financiación- consiste en una medalla que muestra la imagen de Ar-
químedes y la frase Transiré suum pectus mundoque potiri [trascender
las limitaciones humanas y apoderarse del universo] (Figura 1). Por
eso, el premio hoy se llama medalla Fields.
Figura 1. La medalla Fields
14 3. Introducción
Se lo considera el análogo del premio Nobel que para la matemá-
tica no existe. Pero sí existe una leyenda muy conocida según la cual
la causa de esta inexistencia habría sido el deseo de Alfred Nobel de
evitar la posibilidad de que el matemático sueco GöstaMittag-Leffler
lo ganara. En realidad, ellos casi no se conocían, y ciertamente el se-
gundo no era el amante de la esposa del primero, como suele sugerir-
se, ya que Nobel no era casado. El verdadero motivo es simplemente
que los cinco premios originales (física, química, medicina, literatura
y paz) estaban dedicados a temas que le habían interesado a Nobel
toda su vida, y la matemática no se contaba entre ellos.
Hasta ahora se han entregado 42 medallas Fields, dos de ellas en
1936, y las restantes entre 1950 y 1998. Ya que la lista de los ganadores
incluye a algunos de los mejores matemáticos de la segunda mitad
del siglo y que los resultados premiados constituyen algunas de las
cimas alcanzadas por la matemática en aquel período, volveremos a
menudo sobre este tema.
Complementario de la medalla Fields es el premio Wolf, una espe-
cie de Oscar a la carrera, instituido en 1978 por Ricardo Wolf, filán-
tropo cubano de origen alemán que fue embajador en Israel desde
1961 hasta 1973. Como los premios Nobel, los premiosWolf no tienen
limitaciones de edad, se asignan en varios campos (física, química,
medicina, agricultura, matemática y arte), son entregados por el jefe
de Estado en la capital (el rey de Suecia en Estocolmo en un caso, el
presidente de Israel en Jerusalén en el otro) e incluyen un sustancioso
cheque (de 100.000 dólares, contralos 10.000 de la medalla Fields y
el millón del premio Nobel).
Para evitar malentendidos, cabe aclarar explícitamente que las so-
luciones de los problemas de Hilbert y los resultados de las medallas
Fields o de los premios Wolf representan sólo puntos de referencia
significativos y, obviamente, no agotan el panorama de la matemáti-
La Matemática del siglo XX 15
ca del siglo XX. Por eso, también será necesario ir más allá de los pre-
mios para intentar dar una descripción lo más amplia posible, con las
limitaciones que ya mencionamos, de la variedad y la profundidad
de la matemática contemporánea.
La decisión de concentrarse en grandes resultados que, por otra
parte, constituyen la esencia de la matemática determina automática-
mente la naturaleza diacrónica de la exposición, que inevitablemente
tomará la forma de un collage. La ventaja es que permite una lectu-
ra ampliamente independiente de cada sección; y la desventaja, que
resulta confusa. Pero esta desventaja podrá ser superada fácilmente
con una segunda lectura, tras la cual se podrá volver a las distintas
secciones con una visión global.
16 3. Introducción
4
Fundamentos
La matemática puede ser considerada, según la propia predispo-
sición filosófica o la propia experiencia personal, como una actividad
de descubrimiento o de invención.
En el primer caso, los conceptos abstractos de los que trata la
matemática se consideran dotados de una auténtica existencia en el
mundo de las ideas, que es considerado tan real como el mundo físi-
co de los objetos concretos. Por lo tanto, el descubrimiento requiere,
literalmente, un sexto sentido, que permita percibir los objetos abs-
tractos del mismo modo en que los cinco sentidos permiten percibir
los objetos concretos. Y el problema fundamental de esta percepción
es, obviamente, su verdad externa, es decir, una adecuada correspon-
dencia con la supuesta realidad.
En el segundo caso, en cambio, las obras matemáticas se conciben
como obras de arte, que tratan de objetos tan imaginarios como los
protagonistas de una novela o las representaciones de una pintura.
Por lo tanto, la invención requiere un auténtico talento matemático,
que permita construir objetos de fantasía como lo hace el talento ar-
17
18 4. Fundamentos
tístico. El problema fundamental de las producciones de este talen-
to es su consistencia interna, es decir, la concepción de las distintas
partes como un todo orgánico (en términos matemáticos: la falta de
contradicciones).
Pero ya sea descubrimiento o invención, la matemática revela ob-
jetos y conceptos que, a primera vista, resultan inusuales o poco fa-
miliares. Actualmente, ciertos adjetivos demuestran las reacciones de
sorpresa o desagrado que suscitaron algunos números en su prime-
ra aparición: irracionales, negativos, sordos, imaginarios, complejos,
trascendentes, ideales, surreales, etcétera.
Desde los tiempos de los griegos, una actitud típica fue el intento
por limitar lo máximo que fuera posible la sorpresa o el desagrado,
descargando el peso del edificio de la matemática en fundamentos
sólidos. La historia de la matemática testimonió sucesivas fases de
construcción y desconstrucción, que invertían las relaciones recípro-
cas entre lo que se consideraba fundamental y sustituían cimientos
peligrosos o superados por otros que se consideraban más adecua-
dos.
En el siglo VI a.C. los pitagóricos colocaron la aritmética de los
números enteros y racionales en la base de la matemática. La grieta
que hizo desmoronar el edificio fue el descubrimiento demagnitudes
geométricas que no se pueden expresar como relaciones entre núme-
ros enteros, lo que demostró que los números racionales no son una
base adecuada para la geometría.
En el siglo III a.C. todo el edificio fue reconstruido por Euclides
sobre los cimientos de la geometría. Los números enteros y sus opera-
ciones perdieron el rol de entidades primitivas y fueron reducidos a
las medidas de segmentos y de sus combinaciones: por ejemplo, los
productos a la medida del área de un rectángulo.
La Matemática del siglo XX 19
En el siglo XVII, Descartes inauguró un nuevo paradigma numé-
rico, basado en lo que hoy llamamos análisis, es decir, en los números
reales. La geometría se volvió analítica, y puntos y entidades geo-
métricas se redujeron a coordenadas y ecuaciones: por ejemplo, las
rectas a las ecuaciones de primer grado.
En el siglo XIX se cerró el círculo, y el análisis rae reducido a la
aritmética. Los números reales fueron definidos como conjuntos de
sus aproximaciones racionales, y la novedad esencial que permitió
a los modernos esta transformación fue la consideración actual de
infinito, que los griegos, en cambio, rechazaban.
Retomaremosmás adelante todos estos fundamentos clásicos. Pe-
ro el proceso de construcción y desconstrucción no se detuvo aquí.
Por el contrario, justamente en el siglo XX surgieron muchas alterna-
tivas que han disputado los favores de los matemáticos, y que hoy
permiten considerar este siglo como un auténtico período de renova-
ción de cimientos. La característica esencial de los nuevos fundamen-
tos es que se basan, ya no en los objetos clásicos de la matemática, es
decir en entes numéricos o geométricos, sino en conceptos absoluta-
mente nuevos, que cambiaron completamente su identidad formal y
sustancial.
4.1. Década de 1920: Los Conjuntos
Cuando nos referimos a la base aritmética de los números reales,
ya hemos introducido la palabra clave de la matemática del siglo XX:
los conjuntos. El gran descubrimiento residió en que, sobre esta pala-
bra, se pudiera basar el edificio entero, y fue gracias a Georg Cantor,
que llegó a esta idea con motivaciones puramente matemáticas, vin-
culadas con un estudio de problemas de análisis clásico.
Con motivaciones diferentes, relacionadas con el intento de de-
20 4. Fundamentos
mostrar que los conceptos y los objetos matemáticos son, en su esen-
cia más profunda, de naturaleza puramente lógica, también Gottlob
Frege había desarrollado un enfoque equivalente al de Cantor, que
hoy se denomina teoría ingenua de conjuntos.
Esta teoría se basa sólo en dos principios, que reducen los con-
juntos a las propiedades que los definen. Primero, el principio de ex-
tensión, ya enunciado por Gottfried Wilhelm Leibniz: un conjunto
está completamente determinado por sus elementos, por lo tanto,
dos conjuntos con los mismos elementos son iguales. Por otra par-
te, el principio de comprensión: toda propiedad determina un conjunto,
constituido por los objetos que satisfacen esa propiedad; y todo con-
junto está determinado por una propiedad, que es precisamente la
de ser un objeto que pertenece al conjunto.
El descubrimiento de que dos principios tan simples y lógicamen-
te elementales fueran la base de toda la matemática se consideró el
punto de llegada de su historia: la geometría había sido reducida al
análisis, el análisis a la aritmética, y ahora el trabajo de Cantor y Fre-
ge mostraba que, a su vez, la aritmética podía ser reducida a la teoría
de conjuntos, es decir, a la lógica pura.
Pero esto era demasiado bello para ser verdadero, y uno de los
primeros descubrimientos del siglo XX fue, precisamente, que esta
sencilla cimentación era inconsistente; de aquí surge la calificación
de “ingenua” En 1902, Bertrand Russell demostró que el principio
de comprensión era contradictorio, con un razonamiento que se hizo
famoso con el nombre de la paradoja de Russell.
Sustancialmente, los conjuntos de objetos se dividen en dos cla-
ses, según se considere si son o no uno de los objetos contenidos en el
conjunto mismo o, dicho de otra manera, si cada conjunto pertenece
o no a sí mismo. Por ejemplo, el conjunto de los conjuntos con más
de un elemento pertenece a sí mismo, porque en efecto tiene más de
La Matemática del siglo XX 21
un elemento. Y el conjunto de los conjuntos con un solo elemento
no pertenece a sí mismo porque, ciertamente, también este conjunto
tiene más de un elemento.
El problema es: ¿el conjunto de todos los conjuntos que noper-
tenecen a sí mismos, pertenece o no a sí mismo? Si es así, entonces
es uno de los conjuntos que no pertenecen a sí mismos, y por tanto
no puede pertenecer a su colección, es decir, a sí mismo. Si no es así,
entonces es uno de los conjuntos que no pertenecen a sí mismos, y
entonces pertenece a su colección, es decir, a si mismo.
La solución o, mejor dicho, la remoción de la paradoja de Russell
pasa hoy a través de una limitación del principio de comprensión,
y una distinción entre clase y conjunto.Un conjunto es, simplemente,
una clase que pertenece a otras clases: entonces, todos los conjuntos
son clases, pero no todas las clases son conjuntos, y las que no lo son
se llaman clases propias.
Si se intenta reproducir el argumento de Russell considerando la
clase de los conjuntos que no pertenecen a sí mismos, se obtiene una
sorpresa. En efecto, esta clase no puede pertenecer a sí misma, pues
de lo contrario sería un conjunto que no pertenece a sí mismo. En-
tonces no pertenece a sí misma, y entonces o no es un conjunto o per-
tenece a sí misma; como se acaba de excluir la segunda opción, debe
ser verdadera la primera. En otras palabras, esta vez no se encontró
una paradoja sino una demostración de que la clase de los conjuntos
que no pertenecen a sí mismos es propia.
Naturalmente, la clase de las clases que no pertenecen a sí mis-
mos es contradictoria, exactamente como antes. Entonces el principio
de comprensión debe ser reformulado, diciendo que una propiedad
de conjuntos siempre determina una clase. Pero así el principio pierde
mucha fuerza, porque entonces sólo permite definir clases a partir de
conjuntos, los que ya deben haber sido definidos de alguna manera.
22 4. Fundamentos
Y no hay soluciones indoloras o elegantes al problema, ya que la
solución natural que ofrece el axioma de comprensión es impractica-
ble. Se trata entonces de abandonar el enfoque analítico o desde arri-
ba y adoptar un enfoque sintético o desde abajo, enumerando una
serie de principios de existencia y de reglas de construcción de los
conjuntos, que permitan generar algo provechoso pragmaticamente,
es decir, todos los conjuntos de uso corriente, pero al mismo tiempo
evitar lo perjudicial, es decir, todos los conjuntos paradójicos.
Una primera lista de axiomas fue compilada por Ernst Zermelo
en 1908. Ante todo, esta lista requiere la existencia de al menos un
conjunto, lo que no se puede demostrar considerando únicamente el
axioma de comprensión para las clases. Disponiendo de un punto
de partida, se pueden construir luego otros conjuntos mediante di-
versas operaciones, cuya factibilidad está garantizada precisamente
por los axiomas. Para los conjuntos, estas operaciones son análogas
a las operaciones aritméticas; por ejemplo, la unión, el producto car-
tesiano y el conjunto potencia para los conjuntos son versiones de la
suma, el producto y el elevamiento a potencia para los números.
Sin embargo, todas estas operaciones no permiten demostrar la
existencia de conjuntos infinitos, necesarios para reducir el análisis
a la aritmética, es decir, los números reales a conjuntos (precisamen-
te, infinitos) de números enteros. Por lo tanto, un axioma ulterior
requiere la existencia de un conjunto infinito, uno, por ejemplo, cu-
yos elementos satisfagan todos los axiomas restantes de la teoría de
Zermelo y que, por consiguiente, contiene en particular todas las po-
tencias sucesivas de un conjunto finito.
La lista de Zermelo fue actualizada en 1921 por Abraham Fraen-
kel, con el agregado de un axioma que afirma que los valores de una
función definida sobre la base de un conjunto constituyen otro con-
junto. Al sistema completo se lo denomina teoría de Zermelo y Fraenkel.
La Matemática del siglo XX 23
La teoría parece suficiente para los usos comunes de la matemá-
tica, pero esto no significa que siempre lo será. Por ejemplo, en los
años 1960 el trabajo de Alexander Grothendieck, al que nos referire-
mos más adelante, debió agregar un nuevo axioma: la existencia de
un conjunto inaccesible, cuyos elementos satisfacen todos los axiomas
de la teoría de Zermelo y Fraenkel, y que por consiguiente contiene
en particular todas las potencias sucesivas de un conjunto infinito.
Más en general, en la segunda mitad del siglo se agregaron axio-
mas de existencia de conjuntos cada vez más grandes, denominados
grandes cardinales, y lo interesante es que permiten probar resultados
que se refieren a los números enteros, que no pueden probarse sin
ellos; en otras palabras, así como en la física parece haber una rela-
ción entre la teoría cosmológica del universo en grande y la teoría
cuántica del universo en pequeño, también en matemática existe una
relación entre la teoría global de los conjuntos y la teoría local de los
números.
Sobre la base del teorema de la incompletud de Gödel acerca del
cual volveremos a hablar, es imposible, de todos modos, formular
un sistema de axiomas definitivo para la teoría de los conjuntos, o si-
quiera para la teoría de los números. Por lo tanto, cualquier extensión
del sistema de Zermelo y Fraenkel está destinada a ser provisoria y
suplantada por las extensiones ulteriores que se tornarán necesarias
para una cada vez mejor, pero nunca conclusiva, comprensión de la
noción de conjunto.
4.2. Década de 1940: Las Estructuras
La teoría de los conjuntos fue, en el siglo XIX, el punto culminante
de la concepción reduccionista de la matemática, que a través del
análisis lógico redujo precisamente la geometría al análisis, el análisis
a la aritmética y la aritmética a la lógica. Pero el análisis lógico de la
24 4. Fundamentos
matemática presenta las mismas limitaciones que la crítica literaria:
interesa a los especialistas pero no a los autores ni a los lectores, en
este caso, a los lógicos pero no a los matemáticos.
En efecto, para el matemático profesional, la teoría de los conjun-
tos tenía (y tiene) dos desventajas evidentes. Ante todo, así como la
teoría atómica no ha modificado la percepción de los objetos macros-
cópicos en la vida cotidiana, la reducción de los objetos matemáticos
a los conjuntos tampoco ha influido en la práctica; por ejemplo, para
hacer cuentas no se piensa en los números enteros como clases de
conjuntos equipotentes.
Además, si bien las paradojas han preocupado a los lógicos, han
dejado muy indiferentes a los matemáticos, que en general ven la
(in)consistencia como un problema no de la matemática misma, sino
de sus presentaciones formales; en este caso, de la teoría de los con-
juntos y no de su práctica. Por lo tanto, la teoría de Zermelo y Fraenkel
fue considerada como la solución compleja de un problema irrele-
vante.
Como conclusión, la teoría de los conjuntos parece haber dejado
al matemático profesional sólo dos contribuciones, ambas esenciales
pero independientes de axiomatizaciones particulares. Por un lado,
una teoría de los conjuntos infinitos, o sea, como dijo David Hilbert,
ese “paraíso creado por Cantor, del que nadie nos podrá echar”. Por
otra parte, un conveniente lenguaje para la formulación de los con-
ceptos, cada vez más abstractos, que produce la práctica moderna.
En los años 1930, un grupo de matemáticos franceses, conocido
con el nombre colectivo de Nicolas Bourbaki, se propuso entonces
fundar la matemática de manera más significativa para los matemá-
ticos, y encontró una solución en un análisis que ya no era lógico sino
estructural. El grupo se embarcó en el proyecto infinito, y por lo tan-
to jamás concluido, de preparar un manual que describiera el estado
La Matemática del siglo XX 25
del arte de la matemática contemporánea; el manual se llamó, con
una obvia referencia a Euclides, Elementos de matemática, y el primer
fascículo se publicó en 1939.
Como en la obra de Euclides, el manual se dividió en libros, de
los cuales los seis primeros estaban dedicados a los fundamentos.
La nómina de los libros testimonia ya el redimensionamiento del rol
fundacional de la teoría de conjuntos, de la que se habla sólo en el
primero. En los otros cinco,en cambio, se consideran el álgebra, la
topología, las funciones de variables reales, los espacios vectoriales
topológicos y la integración.
En 1949, Bourbaki retomó sus posiciones filosóficas, que en aquel
momento ya eran las dominantes, en un artículo titulado elocuente-
mente “Los fundamentos de la matemática para el matemático” (y
no para el lógico). En él se enunció la afirmación abstracta de que to-
da la matemática contemporánea se puede construir basándose en la
noción de estructura, y el manual que se estaba escribiendo fue pre-
sentado como la demostración concreta de que esta afirmación era
correcta.
La idea fundamental del concepto de estructura se puede explicar
con un ejemplo. En la teoría de conjuntos, los números reales se de-
finen artificialmente como conjuntos de números enteros, y las ope-
raciones y las relaciones basadas en ellos se reducen artificialmente a
operaciones y relaciones de conjuntos. En el enfoque de Bourbaki, en
cambio, los números reales y sus operaciones y relaciones se toman
como datos, y se aislan sus propiedades de manera abstracta.
Desde un primer punto de vista, se trata de describir las propie-
dades de las operaciones de suma y producto. Por ejemplo, existen
dos elementos neutros, el 0 para la suma y el 1 para el producto; am-
bas operaciones son asociativas y conmutativas e inverübles (salvo
para la división por 0); y el producto es distributivo respecto de la
26 4. Fundamentos
suma. Estas propiedades se encuadran en un estudio general de las
estructuras algebraicas, cuyos ejemplos más comunes son: monoides,
grupos, anillos, cuerpos y campos. Los números reales constituyen,
precisamente, un ejemplo de campo.
Desde un segundo punto de vista, se trata en cambio de describir
las propiedades del orden. Por ejemplo, cada par de números reales
es comparable; entre dos números distintos siempre hay un tercero;
y no hay espacios vacíos. Estas propiedades se encuadran en un estu-
dio general de las estructuras de orden y se expresan con los conceptos
de totalidad, densidad y completitud.
Desde un tercer punto de vista, no se trata de describir las propie-
dades de los números reales individuales, sino de sus entornos. Por
ejemplo, los números reales constituyen un conjunto sin interrup-
ciones; cada par de números se puede separar mediante intervalos
abiertos; y se necesitan infinitos intervalos abiertos para cubrir todo
el conjunto de los números reales. Estas propiedades se encuadran
en un estudio general de las estructuras topológicas, y se expresan con
los conceptos de conexión, separabilidad y (no) compacidad.
Los tres puntos de vista aislados se pueden integrar luego entre
sí. Por ejemplo, las operaciones de suma y producto son compatibles
con las relaciones de orden y de distancia, en el sentido de que las
preservan (excepto el producto por un número negativo, que invierte
el orden). Estas propiedades se encuadran en un estudio general de
las estructuras algebraicas ordenadas y de las estructuras algebraicas to-
pológicas y en las cuales las operaciones algebraicas son precisamente
compatibles, respectivamente, con el orden y la distancia, y los nú-
meros reales son un ejemplo de campo ordenado y topológico.
Si bien las estructuras ya existían antes de Bourbaki, la importan-
cia de su trabajo fue haber demostrado que en ellas se podía fundar
la matemática. El enfoque tuvo un gran éxito, porque un número su-
La Matemática del siglo XX 27
ficientemente reducido de estructuras madre resultó adecuado para
tratar una gran cantidad de casos interesantes, con una óptima re-
lación de eficiencia. Y la influencia de Bourbaki es evidente hoy en
las divisiones modernas de la matemática, que ya no son las clásicas
aritmética, álgebra, análisis y geometría, sino una enorme variedad
de híbridos, como el álgebra topológica o la geometría algebraica.
Pero las ventajas del bourbakismo no fueron sólo pragmáticas;
también desde un punto de vista teórico resultó ser un paso hacia
adelante respecto del enfoque de los conjuntos. Dejando de lado la li-
mitada consideración de conjuntos vinculados por funciones, la aten-
ción se concentró en los conjuntos estructurales, vinculados por fun-
ciones que preservan la estructura, una abstracción menos artificial y
drástica, que pudo capturar mejor la esencia de los objetos matemá-
ticos.
4.3. Década de 1960: Las Categorías
Si bien los fundamentos de la teoría de conjuntos y los bourba-
kistas fueron considerados satisfactorios para una buena parte de la
matemática, y lo siguen siendo, en algunos campos los conceptos de
conjunto y estructura resultaron demasiado limitados y necesitaron
una extensión. Por ejemplo, como ya lo habíamos señalado, Grothen-
dieck tuvo que introducir la consideración de un conjunto inaccesi-
ble, por lo tanto, de la clase de todos los conjuntos que satisfacen los
axiomas de la teoría de Zermelo y Fraenkel. Pero a la necesidad de
una extensión del enfoque estructural se llega también con conside-
raciones teóricas y no sólo por motivaciones prácticas.
El proceso que lleva de un ejemplo concreto, como los números
reales, a una estructura abstracta, como los campos topológicos, por
un ladomantiene algunas propiedades significativas del ejemplo, pe-
ro por el otro le quita muchas otras. Sólo en casos excepcionales una
28 4. Fundamentos
estructura admite sustancialmente un solo ejemplo y puede, por lo
tanto, describirlo completamente. En cambio, cuando una estructura
admite muchos ejemplos radicalmente diferentes, como por lo ge-
neral ocurre cuando se focalizan las generalidades comunes de sus
múltiples realizaciones, automáticamente desenfoca sus particulari-
dades individuales.
Un modo de reivindicar la variedad de los ejemplos consiste en
invertir el proceso de abstracción, considerando la clase de todos los
posibles ejemplos de una estructura de cierto tipo, vinculados por
todas las posibles fundones que preservan su estructura; de este mo-
do se llega al concepto de categoría, introducido en 1945 por Samuel
Eiknberg y Saunders MacLane. Que su trabajo es un complemento
natural del de Bourbaki lo indica el hecho de que Eilenberg fue uno
de los miembros del grupo, es más, fue el único miembro no francés
de toda su historia (y premio Wolf en 1986).
Pero para poder considerar el concepto de categoría como un aná-
lisis del concepto de estructura, se necesita un nuevo esfuerzo de abs-
tracción, es decir, se trata de determinar qué hay en común entre los
distintos ejemplos de categorías obtenidos de las distintas estructu-
ras. Aunque a primera vista su enorme variedad lleva a pensar que
estos ejemplos tienen muy poco en común, el sorprendente descu-
brimiento de Eilenberg y MacLane reside en que siempre comparten
algo esencial: el hecho de estar constituidos por una clase de conjun-
tos vinculados por funciones que se pueden componer entre sí de
manera asociativa, y entre las cuales al menos la función siempre es
idéntica.
Igualmente sorprendente fue la observación de que, dado que las
funciones llevan automáticamente consigo los conjuntos de sus argu-
mentos y de sus valores, en realidad, no hay necesidad de hablar de
estos conjuntos. De estamanera, ya no hace falta ningún uso residual
La Matemática del siglo XX 29
de la teoría ingenua de los conjuntos, que todavía estaba presente en
la noción de conjunto estructurado, y se obtiene un fundamento al-
ternativo y completamente autosuficiente de la matemática, basado
en conceptos que ya no son de conjunto y de pertenencia, sino de
función y composición.
Además, ya que los conjuntos vinculados por funciones son un
ejemplo particular de categoría, basta caracterizar completamente de
manera categórica sus propiedades para reducir toda la teoría de los
conjuntos a la teoría de las categorías. Tal caracterización fue encon-
trada porWilliam Lawvere en 1964, e irónicamente constituye un pa-
so ulterior de análisis lógico: así como toda la matemática del siglo
XIX había sido reformulada en conceptos de conjunto, en este caso se
trata dereformular estosmismos conceptos en términos de categoría.
La teoría de las categorías resultó ser un fundamento global y
unitario para la matemática, que contiene como casos particulares
tanto los conjuntos de Zermelo y Fraenkel, como las estructuras de
Bourbaki. Ello estimula un proceso ulterior de abstracción: así como
los conjuntos se pueden vincular entre sí mediante funciones, y las
estructuras de un mismo tipo se pueden vincular entre sí median-
te funciones que preservan esa estructura, llamadas morfismos, tam-
bién es posible vincular entre sí las categorías mediante funciones
que preservan las propiedades categóricas, llamadas funtores.
Así como los conjuntos con las funciones o las estructuras con los
morfismos constituyen categorías, uno se ve tentado de afirmar que
las categorías con los funtores constituyen la categoría de las categorías.
Pero el problema es que, desde el punto de vista de los conjuntos,
muchas categorías constituyen una clase propia, es decir, no pueden
formar parte de otras clases, ni constituir particularmente los objetos
de otra categoría.
La primera solución es restringir la atención a las denominadas
30 4. Fundamentos
categorías pequeñas, que constituyen un conjunta De este modo, se
obtiene efectivamente la categoría de las categorías pequeñas, que gene-
raliza el concepto de clase de todos los conjuntos. Ésta contiene mu-
chos ejemplos interesantes, pero obviamente no aquéllos de los que
hemos hablado, es decir, la categoría de los conjuntos y las categorías
de las estructuras.
La segunda solución es la ya mencionada propuesta de Grothen-
dieck, que precisamente surgió en este ámbito: ampliar la teoría de
los conjuntos con nuevos axiomas que permitan considerar clases de
clases, clases de clases de clases, y así sucesivamente. Dependiendo
de la potencia de estos axiomas, se obtienen categorías cuyos objetos
son clases, clases de clases y así sucesivamente, pero en ningún caso
se llega a la categoría de todas las categorías.
La tercera solución, quizás la más satisfactoria, es una axiomati-
zación de la nociónmisma de categoría. La propuso Lawvere en 1966
y en este ámbito desempeña un rol análogo a la axiomatización de la
noción de conjunto de Zermelo y Fraenkel. Además, cuando la axio-
matización de Lawvere se reduce a las categorías discretas, que son
aquellas en las que las únicas funciones presentes son las identida-
des, se obtiene una axiomatización de la teoría de los conjuntos de
manera categórica.
Estos desarrollos permiten a la teoría de las categorías reivindicar
un rol significativo de fundamento de la matemática para los mate-
máticos, expresamente declarado en 1971 en el título del clásico texto
deMacLane, Categories for the working mathematician [Categorías en la
práctica matemática].
Ello no significa que las categorías no tengan nada que ofrecer a
los lógicos. Como ejemplo, basta considerar la teoría de los tipos, que
Russell, introdujo en 1908 como posible solución a las paradojas, y
que es una versión de la teoría ingenua de los conjuntos, basada en
La Matemática del siglo XX 31
los axiomas de de extensión y comprensión, con la particularidad de
que los conjuntos no son de un solo tipo y que una propiedad de
objetos de cierto tipo determina un conjunto del tipo sucesivo. En
1969 Lawvere formuló la teoría de los tipos en versión categórica, y
obtuvo la teoría de los tópoi, en la cual se puede desarrollar una lógica,
que resultó ser equivalente a la lógica intuicionista, introducida por
el topólogo Luitzen Brouwer en 1912, y más general que la clásica
aristotélica.
Partiendo de motivaciones de geometría algebraica, completa-
mente distintas de las anteriores, también Grothendieck llegó de ma-
nera independiente a la teoría de los tópoi, que de este modo resul-
ta ser un punto de convergencia de muchas disciplinas, y permitió
identificar el motivo que impide a la teoría de los conjuntos llegar a
ser un fundamento general de la matemática; simplificando, los con-
juntos forman un tópos cuya lógica es clásica y, por lo tanto, demasia-
do simple como para rendir cuenta, por ejemplo, de la complejidad
de la topología y de la geometría algebraica.
4.4. Década de 1980: El Lambda Cálculo
La teoría de los conjuntos brindó a los lógicos un fundamento
adecuado contra las paradojas. En cambio, los matemáticos, cuya la-
bor cotidiana no está relacionada en lo más mínimo con la proble-
mática de las paradojas, encontraron en las estructuras de Bourbaki
y en la teoría de las categorías fundamentos más adecuados para su
práctica.
Pero ninguno de los tres enfoques es satisfactorio desde el punto
de vista de los informáticos, que emplean masivamente algoritmos y
programas que trabajan sobre datos, es decir, funciones que se apli-
can a argumentos. Sólo la teoría de categorías trata directamente de
funciones, que no se aplican a argumentos, sino compuestas entre sí;
32 4. Fundamentos
la informática teórica exige pues un fundamento alternativo, y lo en-
cuentra en el Lambda Cálculo propuesto por Alonzo Church en 1933.
La idea de Church fue, precisamente, explorar un enfoque alter-
nativo para los fundamentos de la matemática, paralelo a la teoría
de Cantor y Frege, pero basado en el concepto de función en lugar
del de conjunto, según el siguiente esquema: una función correspon-
de a un conjunto, un argumento de una función corresponde a un
elemento de un conjunto, la aplicación de una función a un argu-
mento corresponde a la pertenencia de un elemento a un conjunto y
la definición de una función mediante una descripción de los valores
corresponde a la definición de un conjunto mediante una propiedad
de los elementos.
Por lo tanto, la teoría ingenua de los conjuntos se traduce auto-
máticamente en una teoría ingenua de las funciones. Y se basa en dos
únicos principios, que reducen las funciones a las descripciones de
sus valores. Ante todo, el principio de extensión: una función está com-
pletamente determinada por sus valores y, por lo tanto, dos funcio-
nes que poseen los mismos valores para los mismos argumentos son
iguales. Y, por otra parte, el principio de comprensión: cada descripción
de valores determina una función, y cada función está determinada
por una descripción de valores.
Pero si la teoría ingenua de los conjuntos había logrado generar
grandes esperanzas antes de la paradoja de Russell, después de ésta
la teoría ingenua de las funciones parece destinada a ofrecer pocas
esperanzas. En particular se puede pensar que la paradoja se puede
reproducir fácilmente también en este nuevo contexto.
En efecto, tratando de reproducirlo, se cae inmediatamente en un
problema: qué significado se debe asignar a la negación en el ámbito
de las funciones; la cuestión se puede dejar de lado por un momen-
to suponiendo que exista precisamente una función n que actúe de
La Matemática del siglo XX 33
algún modo análogo a la negación. Ya que la paradoja de Russell se
basaba en el conjunto de los conjuntos que no pertenecían a si mis-
mos, en este caso se trata de considerar la función cuyos valores en
determinado argumento se obtienen aplicando n al resultado de la
aplicación del argumento a sí mismo.
Pero surge un problema: ¿cuál es el resultado de la aplicación de
tal función a sí misma? Para la definición que se acaba de dar, tal va-
lor se obtiene aplicando n al resultado de la aplicación de la función
a sí misma, entonces, ese es un argumento que no cambia aplicando
n. En efecto, ésta es una contradicción si se supone que n es una fun-
ción que cambia todos los argumentos a los que se aplica, pero nada
indica que sea así. Por el contrario, el razonamiento demuestra preci-
samente que no puede ser así si la teoría es consistente, en el sentido
de que ninguna función puede asignar valores distintos a un mismo
argumento.
Se obtendría una contradicción sólo si se supiera que la teoría
es inconsistente (en el sentido que se acaba de describir), pero en
este caso el razonamiento resulta inútil, porque era justamente lo que
intentaba demostrar.Pero si la teoría es consistente, el argumento
prueba que ninguna función de la teoría puede cambiar todos sus
argumentos; dicho de otro modo, cada función debe dejar invariado
al menos un argumento, que por este motivo se denomina punto fijo.
Por lo tanto, el argumento de Russell no es suficiente para demos-
trar la incosistencia de la teoría de Church, y esto ya es un primer re-
sultado parcial. Todavía se puede pensar que algún argumento más
complicado pueda lograrlo, pero en 1936 Church y John Barkley Ros-
ser demostraron un famoso y difícil teorema, del que se deduce que
la teoría es consistente, pues una función también puede no asignar
ningún valor al argumento, pero si asigna uno éste es único.
El teorema de Church y Rosser demostró que el Lambda Cálculo
34 4. Fundamentos
era una teoría singular, al mismo tiempo basada en principios inge-
nuos y demostrablemente consistente, por lo tanto al reparo de las
paradojas, no sólo actuales, sino también potenciales. Pero a prime-
ra vista, la cura pareció más dolorosa que la enfermedad: el precio a
pagar por la consistencia era la imposibilidad de definir dentro de la
teoría una función análoga a la negación y, más en general, de englo-
bar en ella a la lógica. En un período en que la fascinación por el plan
de reducción de toda la matemática a la lógica todavía era fuerte, no
obstante sus evidentes dificultades, la cuestión pareció inaceptable,
y el Lambda Cálculo no fue considerado como un fundamento ade-
cuado para la matemática.
Pero ya en 1936 Church y Stephen Kleene demostraron que el
Lambda Cálculo se podía englobar en la aritmética. Actualmente, es
posible reformular su resultado de la siguiente manera: las funcio-
nes que se pueden representaren el Lambda Cálculo son exactamente
las que se pueden describir en cualquiera de los lenguajes comunes
de programación universal para ordenadores. Naturalmente, el re-
sultado de Church y Kleene era futurista, ya que en aquel entonces
no existían los ordenadores, y su formulación originaria no podía
demostrar todas sus potencialidades. Pero con la llegada de los or-
denadores se hicieron evidentes y la teoría fue reconocida como el
fundamento adecuado para la informática.
En particular, el teorema del punto fijo se convirtió en la justifi-
cación teórica de los programas autorreferenciales o recursivos, que
son de uso común en la programación. Y la semántica denotacional
del Lambda Cálculo, inaugurada en 1969 por Dana Scott, desarrolló
técnicas que permiten interpretar los programas para ordenadores
como auténticos objetos de naturaleza matemática, demostrando de
este modo que la informática puede ser considerada, con justa razón,
como una de las nuevas ramas de la matemática moderna. Por este
La Matemática del siglo XX 35
trabajo, Scott recibió en 1976 el Turing Award el premio para informá-
tica análogo a la medalla Fields o al premio Nobel.
36 4. Fundamentos
5
Matemática Pura
Durante milenios, la historia de la matemática ha sido, en sus-
tancia, la historia del progreso en el conocimiento de entidades nu-
méricas y geométricas. Pero en los últimos siglos, y sobre todo en el
siglo XX, han surgido nuevas y variadas entidades, que subordina-
das plácidamente en un primer momento al estudio de los objetos
clásicos, posteriormente adquirieron una impetuosa independencia
e inspiraron la denominada nueva edad de oro de la matemática.
Si bien la matemática moderna es, por un lado, el producto de un
desarrollo que se origina en problemáticas concretas y clásicas, por
otro lado, es también el testimonio de una actividad que encuentra
su expresión en construcciones abstractas y contemporáneas. Esen-
cialmente, la matemática clásica se reducía a cuatro áreas, dedicadas
respectivamente al estudio de lo discreto y de lo continuo, es decir,
de los números y de las figuras: aritmética y álgebra por un lado,
geometría y análisis por el otro. Pero no es tan fácil enumerar las
disciplinas de la matemática moderna, que se recen sustancialmente
al estudio de las distintas estructuras algebraicas, topológicas y de
orden, y a sus combinaciones.
37
38 5. Matemática Pura
Aunque los peligros de esta proliferación, a los que ya hicimos
referencia en la Introducción, son reales, te conjuran cuando se com-
prueba que, más allá de la fragmentación aparente, la matemática del
siglo XX exhibe una uni dad sustancial de sus disciplinas. En efecto, el
archipiélago de la matemática moderna está conectado por caminos
subterráneos, misteriosos e invisibles, que son develados por inespe-
radas convergencias, que los hacen emerger y aflorar lentamente.
Un símbolo de esta unidad es el episodio del teorema de Fermat, so-
bre el cual nos explayaremos más adelante. Sus raíces se encuentran
en los estudios pitagóricos sobre los números enteros, que culmina-
ron en el siglo III a.C en los Elementos de Euclides. En el siglo III d.C.
Diofanto de Alejandría inició un estudio de las soluciones enteras
de ecuaciones con coeficientes enteros, y las trató detalladamente en
Aritmética, una obra en trece libros, de los cuales sólo sobrevivieron
seis. En el siglo XVII, Pierre de Fermat estudió la obra de Diofanto y
anotó en los márgenes de su copia 48 observaciones, sin demostra-
ción alguna.
En el siglo XVIII, todas las observaciones de Fermat habían sido
demostradas, con una sola excepción, que por eso, se conoció como
el último teorema de Fermat si bien existen dos cuadrados de números
enteros cuya suma es un cuadrado (por ejemplo 9 y 16, cuya suma
es 25), no existen dos cubos cuya suma sea un cubo, ni dos potencias
n-ésimas cuya suma sea una potencia n-ésima, si n es mayor que 2.
En el siglo XIX, los intentos por demostrar el último teorema de Fer-
mat provocaron importantes progresos en la teoría de números y la
confirmación del teorema para un número cada vez más grande de
exponentes, pero no una demostración general.
En 1995, Andrew Wiles obtuvo la demostración general, a tra-
vés de un enfoque indirecto que, a primera vista, parece totalmente
desvinculado del problema, y utilizando un arsenal de técnicas com-
La Matemática del siglo XX 39
pletamente abstractas. Para resolver un sencillo problema numérico,
con un enunciado elemental y clásico, fue necesario apelar a una gran
parte de la matemática superior y moderna. Y el episodio es un ejem-
plo, no sólo de la aparente continuidad dinámica, diacrónica y verti-
cal de cada área de la matemática, sino también de la oculta conexión
estática, sincrónica y horizontal entre las áreas más diferentes.
Típico de esta visión de la matemática como un todo unitario es el
programa de Langlands: enunciado en los años 1960 por Robert Lang-
lands, el programa especifica una serie de conjeturas sobre las po-
sibles conexiones entre áreas diferentes, y la demostración de Wiles
constituye una todavía parcial, pero ya sustanciosa, realización. En
reconocimiento por esta obra de unificación, Langlands y Wiles reci-
bieron el premio Wolf en 1995/1996.
Si bien la teoría de los números, de la cual el teorema de Fermat
es uno de los enunciados, es quizá la disciplina en la cual las cone-
xiones típicas de la matemática contemporánea entre lo diacrónico y
lo sincrónico, lo clásico y lo moderno, lo concreto y lo abstracto se
manifiestan de la manera más espectacular, está bien lejos de ser la
única.
Otro episodio simbólico es el estudio del círculo y la esfera, que
se encuentran entre los objetos aparentemente más simples estudia-
dos por la geometría. Arquímedes fue el primero en descubrir, en el
año 225 a.C., la existencia de una misteriosa conexión entre algunos
de sus aspectos: la circunferencia y el área del círculo, así como la
superficie y el volumen de la esfera, están todos vinculados con la
misma constante π, y para calcularla se desarrollaron durante siglos
varios métodos (geométricos, algebraicos y analíticos).
No obstante la aparente simpleza de círculo y esfera, algunos pro-
gresos sustanciales en su estudio debieron esperar hasta el siglo XIX.
Ante todo, fue necesarioel desarrollo de métodos algebraicos y ana-
40 5. Matemática Pura
líticos sofisticados para demostrar la imposibilidad del problema pu-
ramente geométrico de la cuadratura del círculo (la construcción me-
diante regla y compás de un cuadrado de área igual a la de un círcu-
lo dado). Además, algunos métodos topológicos permitieron distin-
guir la esfera de otras superficies cerradas del espacio tridimensional;
sustancialmente, la esfera es la única superficie que permite que un
elástico extendido sobre sí mismo se contraiga hasta alcanzar un so-
lo punto. Por último, algunos métodos diferenciales permitieron de-
mostrar que el cálculo infinitesimal se puede extender desde el plano
a la esfera de una sola manera.
Algunos de los estudios fundamentales de la matemática del si-
glo XX se refieren a la hiperesfera, que es para el espacio de 4 dimen-
siones lo que el círculo y la esfera son para el espacio de 2 y 3 dimen-
siones. Uno de los problemas abiertos más importantes de la mate-
mática moderna, y que discutiremos más adelante, llamado conjetura
de Poincaré, se pregunta si vale una caracterización topológica de la
hiperesfera análoga a la de la esfera. Pero ya se ha demostrado que
el cálculo infinitesimal se puede extender del espacio a la hiperesfera
de una sola manera.
Círculo, esfera e hiperesfera son casos particulares de esferas en
n dimensiones en espacios de n + 1 dimensiones, y algunos de los
resultados más importantes y profundos de la matemática moder-
na, de los que hablaremos más adelante, se obtuvieron precisamente
considerando esferas de varias dimensiones. Por ejemplo, lo análogo
a la conjetura de Poincaré se demostró para las esferas de cualquier
número de dimensiones mayor que 3, y se encontraron muchas ma-
neras no equivalentes de extender el cálculo infinitesimal a la esfera
de 7 dimensiones.
Estos y otros resultados han revelado una paradoja aparente: cuan-
do se aumenta el número de dimensiones, aunque los objetos se tor-
La Matemática del siglo XX 41
nan cada vez más difíciles de visualizar intuitivamente, se hacenmás
fáciles de tratar matemáticamente, porque hay más espacio para ma-
nipularlos. Por ejemplo, dar vuelta un guante derecho para conver-
tirlo en un guante izquierdo es fácil en el espacio de cuatro dimen-
siones, pero difícil (aunque no imposible para un teorema de Stephen
Smale de 1959) en el espacio de tres dimensiones.
Esta impresión también se confirma en un nivel elemental, por
ejemplo, con el cómputo del número de los “poliedros” regulares,
que son 5 en el espacio de 3 dimensiones (los famosos sólidos plató-
nicos), 6 en el espacio de 4 dimensiones, pero sólo 3 en los espacios
de dimensiones mayores. Irónicamente, los casos más difíciles de es-
tudiar resultan ser justamente los de 3 y 4 dimensiones, los que co-
rresponden al espacio y al espacio-tiempo en que vivimos. Los ejem-
plos anteriores muestran de qué manera también el estudio de pro-
piedades elementales de objetos simples, como los números enteros
y las figuras geométricas, puede necesitar el desarrollo de técnicas
sofisticadas y de áreas abstractas. Y ya que es esta perspectiva, pre-
cisamente, la que permite justificar a posteriori tanto los objetos como
los métodos de la matemática moderna, nos atendremos a ella para
exponer sus etapas más significativas.
5.1. Análisis: La medida de Lebegue (1902)
Por su propia definición, la geometría (de geo “tierra” y metrein
“medida”) se ocupa de problemas referidos a longitudes de curvas,
áreas de superficies y volúmenes de sólidos. Estos problemas fue-
ron afrontados de manera sistemática a partir de los Elementos de
Euclides, que en el año 300 a.C proporcionaron un fundamento geo-
métrico a toda la matemática griega.
Consideremos por ejemplo, para fijar la atención, el problema del
área. Euclides no dio ninguna definición ni del área ni de alguna de
42 5. Matemática Pura
sus medidas, pero enunció algunas “nociones comunes” de las que
se deducen las siguientes propiedades: superficies “iguales” tienen
áreas iguales (invarianza); una superficie que se obtiene “sumando”
entre sí un número finito de superficies tiene un área igual a la suma
de las áreas de éstas (aditividad finita); una superficie contenida en
otra tiene un área menor o igual a ésta (monotonía).
Sobre la base de las dos primeras nociones, se puede llegar a asig-
nar un área a cada polígono en dos pasos: por una parte, asignando
un área a cada triángulo (por ejemplo, “base por altura dividido 2”);
por otro lado, descomponiendo el polígono en triángulos y suman-
do sus áreas. Naturalmente, para que todo funcione se deberá de-
mostrar, por un lado, que el área de un triángulo no depende de la
elección de la base y de su respectiva altura; por otro lado, que el área
de un polígono no depende de la elección de la triangulación.
Aunque estos desarrollos están implícitos en Euclides, su trata-
miento era extremadamente carente desde un punto de vista lógico
y usaba, en particular, numerosas suposiciones escondidas, que se
explicitaron cuidadosamente sólo en el siglo XVII. E1 trabajo de sis-
tematización de la geometría de Euclides se concluyó en 1899, con la
publicación de los Fundamentos de la geometría de Hilbert.
En 1833, Jànos Bolyai demostró un teorema interesante, que com-
plementó los resultados de Euclides que acabamos de mencionar. Es-
te teorema explicaba que dos polígonos que tienen el misma área se
pueden descomponer en un número finito de triángulos equivalen-
tes. En particular, todo polígono se puede “cuadrar” en el sentido
de descomponerlo en un número finito de triángulos que, vueltos a
componer, constituyen un cuadrado con la misma área. O viceversa,
un cuadrado se puede convertir en un polígono cualquiera volvien-
do a componer una apropiada descomposición del mismo en trián-
gulos (Figura 2).
La Matemática del siglo XX 43
En lo que respecta a los volúmenes de poliedros, se puede imagi-
nar un tratamiento análogo, en el que las triangulaciones se sustitu-
yan por descomposiciones en tetraedros. El tercer problema de Hilbert
preguntaba si vale un teorema análogo al de Bolyai, es decir, si todo
poliedro se puede descomponer en un número finito de tetraedros
que, vueltos a componer, constituyan un cubo con el mismo volu-
men. Max Dehn dio inmediatamente una respuesta negativa; él de-
mostró, por ejemplo, que esto no es posible ni siquiera para los mis-
mos tetraedros.
b
b b
b
Figura 2. “Cuadratura” de un triángulo
Una vez resuelto el problema del área para las figuras rectilíneas
como los polígonos, se debe pasar, naturalmente, al del área de las
figuras curvilíneas, ante todo a la del círculo. La idea es aproximar
estas figuras mediante polígonos, ya sea desde el interior como des-
de el exterior: para la tercera noción común de Euclides, el área de la
figura curvilínea estará comprendida entre las áreas de estas aproxi-
maciones, y si éstas tienden a un límite común, el área de la figura
coincidirá con este límite.
Sin embargo, esta noción general es bastante reciente (fue intro-
ducida en 1887 por Giuseppe Peano y en 1893 por Camille Jordan).
Un primer caso especial, que usa polígonos (semi)regulares, es elmé-
todo de exhaución de Eudoxio, del siglo IV a.C., empleado por Arquí-
medes alrededor del 225 a.C. para calcular el área del círculo y la
superficie de la esfera. Un segundo caso especial, que usa polígonos
44 5. Matemática Pura
constituidos por un número finito de rectángulos, es la integral de
Riemann, introducida en 1854 por Bernhard Riemann, y que permite
calcular el área de cualquier superficie cuyo borde esté delimitado
por funciones continuas.
En realidad, desde el siglo XVII al XIX, la existencia del área de
una superficie se daba por descontada, y las integrales se considera-
ban sólo el método para calcularla. Fue Augustin Cauchy, en 1823,
quien dio un vuelco a este enfoque, y definió el área como la integral
misma; esto planteó el problema de determinar cuáles eran las su-
perficies que tenían un área y, en particular, cuáleseran las funciones
que tenían una integral.
La noción de integral de Riemann es muy general y permite in-
tegrar también funciones con infinitas discontinuidades, si éstas no
constituyen un conjunto “desmedido”. Hacia finales del siglo XX, con
la proliferación de ejemplos de funciones no integrables en el sen-
tido de Riemann, se hizo necesario poder precisar una medida del
conjunto de discontinuidades, que permitiera separar las funciones
integrables de las que no lo son.
La noción introducida por Peano y Jordan no resultó suficiente,
y el problema fue resuelto definitivamente por Henri Lebesgue, en
1902, con el concepto de medida de Lebesgue. Sustancialmente, Lebes-
gue suplantó la aditividad finita de Euclides por la aditividad nume-
rable: una superficie que se obtiene “sumando” entre sí una cantidad
numerable de superficies tiene un área igual a la suma de las áreas
de éstas, Y hoy se considera a una superficie dotada de área (o a un
sólido dotado de volumen) cuando es medible en el sentido de Le-
besgue.
Seguro con su definición de conjunto medible, Lebesgue pudo
demostrar que una función es integrable en el sentido de Riemann
exactamente cuando el conjunto de sus discontinuidades mide 0, lo
La Matemática del siglo XX 45
que no excluye que el conjunto pueda ser muy grande y contener,
por ejemplo, tantos puntos como el conjunto mismo de los números
reales, aunque no pueda ser demasiado “denso”.
Además, así como la integral de Riemann es un caso particular de
la medida de Peano o Jordan, se puede definir una integral de Lebesgue
como un caso particular de la medida de Lebesgue. Las funciones
integrables en el sentido de Riemann también lo son en el sentido de
Lebesgue, y con el mismo valor, pero existen funciones integrables
en el sentido de Lebesgue que no lo son en el sentido de Riemann.
En cuanto al problema de determinar cuáles conjuntos son medi-
bles, Giuseppe Vitali demostró inmediatamente que no todos lo son.
Luego se descubrió que con los conjuntos no medibles se pueden ha-
cer cosas que no se pueden hacer con los conjuntos medibles. Hasta
el punto de que, por la costumbre de tratar con conjuntos medibles,
aquéllos no medibles pueden parecer paradójicos.
Por ejemplo, en 1914, Félix Hausdorff demostró que dada una es-
fera, es posible subdividir su superficie en un número finito de piezas
(obviamente, no medibles) que, vueltas a componer, constituyen dos
esferas, cada una con la misma área de la inicial. Y en 1924, Stefan
Banach y Alfred Tarski demostraron un resultado análogo para los
volúmenes. En otras palabras, en el espacio, las áreas y los volúme-
nes no se preservan por descomposición en piezas no medibles.
Una analogía de esas paradojas no es posible en el plano. Pero, en
1988, Miklos Laczkovich demostró que, dado un circulo, es posible
subdividirlo en un número finito (aunque enorme: 1050 aproximada-
mente) de piezas (no medibles) que, vueltas a componer, constituyen
un cuadrado con el misma área. En otras palabras, en el plano la cur-
vatura no se preserva por descomposición en piezas no medibles.
46 5. Matemática Pura
5.2. Álgebra: La Clasificación de los campos de Steinitz (1910)
Como lo indica su nombre, los números naturales constituyen una
de las intuiciones primordiales de la matemática: en cuanto proba-
bles abstracciones de los latidos del corazón, tienen sus raíces en el
devenir y el tiempo, así como los puntos geométricos son, en cambio,
una abstracción del ser y del espacio.
Históricamente, la primera extensión de los naturales fue la de
los números racionales positivos, permite una inversión del producto.
Puesto que la división no presenta grandes dificultades conceptuales,
los racionales ya estaban bien establecidos en el siglo VI a.C., y fueron
tomados por los pitagóricos como fundamento de su filosofía.
En cambio, la extensión de los números naturales a los números
enteros, positivos y negativos, necesitó dos innovaciones esenciales.
La primera fue la aparición del cero, cuya ausencia ni siquiera per-
mite presentar el problema de la inversión de la suma; el cero fue
introducido en el siglo VII d.C. por los hindúes, y en la segunda mi-
tad del primer milenio por los mayas. La segunda innovación fue la
consideración de cantidades negativas, que no tienen sentido hasta
que los números se consideran a la manera griega, como medidas de
cantidades geométricas; también los negativos fueron introducidos
en el siglo VII d.C. por los hindúes, para medir deudas.
Si se integran las dos extensiones anteriores a la consideración de
los números racionales, tanto positivos como negativos, se obtiene el
primer ejemplo de campo, es decir, según la definición dada porHein-
richWeber en 1893, de un conjunto de elementos dotado de operacio-
nes de suma y producto que poseen las propiedades usuales, incluso
la invertibilidad. Los hindúes fueron los primeros en adoptar explí-
citamente el campo de los racionales, pero los árabes primero y los
europeos después rechazaron los números negativos hasta el siglo
XVIII y, aún en 1831, Augustus de Morgan negaba su sensatez.
La Matemática del siglo XX 47
Un segundo ejemplo típico de campo lo dan los números reales.
Mientras que los irracionales fueron descubiertos por los pitagóricos
y manipulados formalmente por hindúes y árabes, aquéllos no fue-
ron considerados como números sino hasta el siglo XVII, a partir de
RenéDescartes y JohnWallis. Y hubo que esperar hastamediados del
siglo XIX para llegar a definiciones de los números reales, basadas en
los números racionales, las secciones de Richard Dedekind en 1958 y
las sucesiones convergentes de Georg Cantor (y otros) en 1872.
Los números complejos fueron introducidos por Gerolamo Cardano
en 1545, para solucionar las ecuaciones de tercer grado, y las ope-
raciones de campo basadas en estos números fueron definidas por
Raffaele Bombelli en 1572; pero, en ambos casos, se trataba de arti-
ficios formales con puros símbolos, que no representaban más que
“números imaginarios”, actitud que persistió hasta el siglo XVIII. Só-
lo el teorema fundamental del álgebra, que establece que todo poli-
nomio de grado n de coeficientes complejos tiene n ceros complejos,
demostrado por primera vez por Gauss en 1799, les confirió el esta-
do de números independientes, y brindó el primer ejemplo de campo
algebraicamente cerrado, es decir, que contiene todos los ceros de su
polinomio. La definición formal de los números complejos, como pa-
res de números reales, y de las respectivas operaciones de campo fue
dada por William Hamilton en 1837.
Conmotivaciones diferentes, tanto Evariste Galois, en 1830, como
Dedekind, en 1871, llegaron ala definición de una clase completa de
campos, mediante un procedimiento de extensión de los racionales.
Consideraron, dado un irracional α, el conjunto mínimo de números
reales (o complejos) que forma un campo y contiene tanto a los racio-
nales como al mismo α; este conjunto se puede generar directamente,
partiendo de α y haciendo todas las posibles adiciones, sustracciones,
multiplicaciones y divisiones (excepto por 0). Si el elemento a que se
48 5. Matemática Pura
agrega es el cero de un polinomio de coeficientes racionales, como en
el caso de
√
2 la extensión se llama algebraica; de lo contrario, como
en el caso de π, se llama trascendente.
Además de los campos infinitos, de los cuales todos los casos cita-
dos son ejemplos, existen también campos finitos. Como ejemplo basta
considerar los enteros módulo n, del tipo de los que se usan para las
horas del día (de 12 o 24 elementos), o para los minutos de la hora
(de 60 elementos); se generan como los típicos enteros, partiendo de
0 y agregando cada vez 1, con la diferencia de que cuando se llega a
n se llega de nuevo a 0. Para que los enteros módulo n constituyan
un campo, es necesario y suficiente que n sea un número primo.
Los ejemplos citados muestran el modo en que las nociones de
la matemática moderna, entre las cuales la de campo fue uno de los
primeros ejemplos significativos, permiten unificar

Otros materiales