Descarga la aplicación para disfrutar aún más
Vista previa del material en texto
i Temas especiales sobre la Segunda Ley de la Termodinámica Carlos Eduardo de Jesús Sierra Cuartas Profesor Asociado con Tenencia del Cargo Universidad Nacional de Colombia 2020 ii ÍNDICE Acerca del autor…………………………………………………………………………………………………….iii Exordio……………………………………………………………………………………………………………….iv I. La semiótica de las catedrales góticas…………………………………………………………………….….1 II. El desvalor……………………………………….…………………………………………………………..…..7 III. Pensamiento sistémico………………………………………………………………………………………..12 IV. De juguetes científicos notables: El pájaro bebedor………...……………………………………………25 V. La segunda ley de la Termodinámica en el ámbito literario……………………………………………...34 VI. Cambio climático y civilización como si importase la Termodinámica………………………………..42 Anexo 1: Las plantas de Leduc................................................................................................................51 Anexo 2: Patente de Miles Vincent Sullivan............................................................................................56 Anexo 3: Patente de Thomas Piot............................................................................................................59 Anexo 4: Patente de Charles J. McHugh.................................................................................................62 Anexo 5: Patente de William F. Purcell...................................................................................................66 Anexo 6: Patente de Charles J. McHugh y Durward S. Rivers...............................................................69 Anexo 7: Patente de Paul Jones, Jr., y Harold L. Harman......................................................................73 iii Acerca del autor Carlos Eduardo de Jesús Sierra Cuartas es Magíster en Educación Superior de la Pontificia Universidad Javeriana e Ingeniero Químico de la Universidad Nacional de Colombia. Profesor Asociado con Tenencia del Cargo de la Universidad Nacional de Colombia, Facultad de Minas. Miembro de The New York Academy of Sciences, The History of Science Society, The British Society for the History of Science, The Newcomen Society for the Study of the History of Engineering and Technology y The International Committee for the History of Technology. Así mismo, fue miembro del Consejo Editorial de la Circular de la Red de Astronomía de Colombia (RAC) hasta el momento de su repentina extinción a comienzos de 2019 y es Miembro de Número de la Sociedad Julio Garavito para el Estudio de la Astronomía. De otra parte, ha sido miembro del grupo de investigación Bioethicsgroup, línea Bioética global y complejidad, coordinado desde la Universidad Militar Nueva Granada, Colombia; y ex miembro del Comité de Ética de la Investigación de la Universidad Nacional de Colombia, Sede Medellín. Por lo demás, es autor de más de cinco centenares de publicaciones de diversa índole que han visto la luz en medios de Colombia, Argentina, España, México, Venezuela, Estados Unidos y Reino Unido, cuya temática comprende la educación, la bioética y la historia de la ciencia y la tecnología. iv EXORDIO A lo largo de muchos años, durante las pasadas tres décadas para ser más concreto, he acostumbrado insistir en clases y conferencias en el ámbito de la Termodinámica y la Fisicoquímica, amén de ámbitos afines, que las leyes de la naturaleza pueden clasificarse a mi juicio en dos grandes grupos, a saber: la segunda ley de la Termodinámica y todas las demás. Con esto, quiero decir que dicha ley es de una importancia y relevancia que no debería admitir duda alguna. Por algo, Charles Percy Snow, físico y escritor británico, afirma de forma contundente en su primoroso libro titulado Las dos culturas, todo un longseller publicado por la editorial de la Universidad de Cambridge, que ser una persona realmente culta implica conocer, por ejemplo, tanto las obras de teatro de William Shakespeare como la segunda ley de la Termodinámica. Empero, da grima ver que la mayoría de la gente suele desconocerla de una manera escandalosa por decir lo menos. Y eso que la viven a diario de manera inconsciente, como al deambular, digamos, por una plaza o un espacio de un centro comercial, pues, si alguien decidiese quedarse quieto cual estatua, quienes se están moviendo suelen desconcertarse ante semejante comportamiento, lo cual significa que el movimiento rutinario, el de las personas desplazándose de aquí para allá y acullá, es lo que suele verse como algo normal y tranquilizador, o sea, el estado que cabe asociar con un mayor desorden, expresión misma de la segunda ley de la Termodinámica, conocida también como la ley de entropía. Resulta todavía más curioso este desconocimiento cuasigeneralizado al respecto habida cuenta de que, en el ámbito literario, cabe encontrar la segunda ley de la Termodinámica entre sus motivos principales. Para muestra un botón, como parte del universo literario de Star Trek, existe un relato que lleva por título El efecto entropía, que trata, como lo sugiere el título, de viajes en el tiempo, y cuya autora es la bióloga y genetista Vonda N. McIntyre, quien ha sido merecedora de premios literarios prestigiosos del género como el Hugo y el Nebula. Propiamente, dicho relato vio la luz en 1981. Por el estilo, cabe añadir sobre este tema muchas otras obras de la buena ciencia ficción, sobre todo las del celebérrimo Isaac Asimov. Así mismo, en lo tocante a la literatura de divulgación científica, encontramos no pocos ejemplos, como en las obras de autores de este género tales como Yákov Isidorovich Perelmán, Luis Miravitlles Torras, Carl Edward Sagan, George Gamow, Jacob Bronowski y Vittorio Silvestrini, entre muchos otros. Incluso, en producciones de la franja infantil y juvenil de canales televisivos como Disney y Nickelodeon, podemos detectar la presencia de la segunda ley de la Termodinámica. Y, claro está, es un tema frecuente en múltiples realizaciones de canales televisivos como Discovery. Ahora bien, en marcado contraste, este tema es bastante raro de encontrar en el ámbito hispano, como cabe comprobar cada vez que hay ferias del libro. De similar manera, al pasar revista a las editoriales universitarias, la escasa o nula atención prestada a tan importante ley de la naturaleza es harto notoria. Para muestra un botón, durante el mes de abril del año 2020, con motivo de la pandemia del coronavirus, la Pontificia Universidad Javeriana, que cuenta con un abultado sello editorial, puso a disposición los libros correspondientes para descarga gratuita, circunstancia que aproveché al máximo. No obstante, cuando busqué títulos en lo relativo a Termodinámica y Fisicoquímica, no apareció v ningún resultado, situación que contrasta sobremanera con otros temas, como la Historia, la Filosofía, la Ética y la Antropología. Y si esto pasa con tan prestigioso sello editorial, que no decir de los de otras universidades colombianas. En suma, estamos ante una problemática harto delicada de ayuno científico en nuestros países, los cuales son, como los denomina con tino Marcelino Cereijido, científico e intelectual argentino-mexicano, países con investigación, pero sin ciencia, un diagnóstico afín al establecido por Heinz Dieterich Steffan desde México: feudalismos de alta tecnología. Por supuesto, no faltan ciertas excepciones, las que confirman la regla, como es el caso de los excelentes textos de divulgación científica publicados por el Fondo de Cultura Económica, el conocido grupo editorial asentado en México, entre cuyos títulos cabe encontrar varios que tienen que ver con el tema de la segunda ley de la Termodinámica y cuestiones afines. vi “La segunda ley de la Termodinámica es, sin lugar a dudas, una de las leyes más perfectas de la física. Cualquier violación reproducible de la misma, por pequeña que sea, supondríagrandes riquezas para el descubridor, así como un viaje a Estocolmo. Los problemas energéticos del mundo se resolverían de un plumazo. No es posible encontrar ninguna otra ley (excepto, quizás, las reglas de superselección, como la conservación de la carga) para las que una violación propuesta generase más escepticismo que en este caso. Ni siquiera las leyes de Maxwell de la electricidad o la ley de gravitación de Newton son tan sagradas, para cada una de las cuales tiene correcciones mensurables que provienen de los efectos cuánticos o de la relatividad general. La ley ha llamado la atención de poetas y filósofos, y ha sido considerada como el mayor logro científico del siglo XIX. A Engels no le gustaba, ya que apoyaba la oposición al materialismo dialéctico, mientras que Pío XII la consideraba como una prueba de la existencia de un ser superior”. (Ivan P. Bazarov, físico ruso). “Todo matemático sabe que es imposible entender un curso elemental de Termodinámica”. (Vladimir Arnold, matemático ruso). “Desconocer la segunda ley de la Termodinámica es como no haber leído nunca el Quijote”. (Charles Percy Snow, físico y novelista inglés). 1 TEMAS ESPECIALES SOBRE LA SEGUNDA LEY DE LA TERMODINÁMICA Carlos Eduardo de Jesús Sierra Cuartas Profesor Asociado con Tenencia del Cargo Universidad Nacional de Colombia I. La semiótica de las catedrales góticas Si hay un mundo desconocido como el que más es el de las catedrales góticas, salvo en lo tocante a los círculos académicos e intelectuales que se ocupan de las mismas merced a sus investigaciones y labores docentes y divulgativas. Incluso, llama poderosamente la atención que en Coursera, la plataforma de educación virtual puesta a andar desde el año 2011 por la Universidad de Stanford, a duras penas, cabe encontrar un único curso dedicado a este tema, ofrecido nada menos que por la Universidad de Yale con el nombre de Age of Cathedrals y a cargo del profesor Howard Bloch, todo un conocedor del mundo medieval, por el estilo de Umberto Eco, el notable semiólogo italiano. Por supuesto, al sur del río Grande, no existe curso alguno al respecto, como tampoco en materia de historia y filosofía de la ciencia y la tecnología. Por lo visto, se desvanece Mnemósine en el mundo actual. Por fortuna, contamos con obras notables en lo que a este tema concierne, como un libro famoso de Erwin Panofsky titulado Arquitectura gótica y pensamiento escolástico; otro de Fernando Chueca Goitia con el título de Historia de la arquitectura occidental: Gótico en Europa; y uno de José Luis Corral intitulado El enigma de las catedrales: Mitos y misterios de la arquitectura gótica. Sobre todo, en este último libro, el fruto de diez años de trabajo continuado de su autor merced a la búsqueda en archivos y viajes realizados, se cuenta con un diapasón variopinto de datos y claves que, a mi juicio, permite hacer una relectura del arte gótico para mostrarlo como una antesala de la segunda ley de la Termodinámica habida cuenta de la relación de ésta con las ideas de orden y desorden, de cosmos y caos. Después de todo, el arte gótico, que sucedió al arte románico al resolver varios problemas técnicos, fue toda una revolución desde la óptica de la energía al permitir la construcción de iglesias y catedrales aún más monumentales merced al mejor uso de los materiales. En otras palabras, el arte gótico, nacido en la región parisina, o isla de Francia, un área demarcada por una circunferencia de ciento cincuenta kilómetros de radio en torno a París, fue ante todo un arte pergeñado por ingenieros. El desconocimiento del mundo gótico llega a tal extremo que, en la propia ciudad de Medellín, se cuenta con unas iglesias neogóticas preciosas como las que más. De una parte, la iglesia de Nuestra Señora del Sagrado Corazón, inaugurada en 1931 y situada en el barrio Buenos Aires, edificio diseñado por el arquitecto Francisco Nevechi con planta de cruz latina y una sola nave longitudinal, que, a su vez, está atravesada por el transepto o nave transversal la cual forma los brazos de la cruz. De otro lado, la Iglesia del Señor de las Misericordias, de estilo neogótico florido, ubicada en el barrio Manrique e inaugurada en 1931, templo diseñado por el arquitecto carmelita Andrés Lorenzo Huarte, quien también diseñó la Basílica Menor de Nuestra Señora del Carmen del municipio de Frontino, así mismo 2 de estilo neogótico. Además, en Medellín, el arte neorrománico tiene una presencia notable gracias a la Catedral Basílica Metropolitana, edificio diseñado por el arquitecto francés Charles Émile Carré e inaugurado en 1931. Con todo, es bastante típico que el grueso de la gente, incluido el mundo universitario, desconozca este patrimonio en grado sumo. Así, la barbarie campa por sus respetos. Figura 1. Iglesia de Nuestra Señora del Sagrado Corazón, Buenos Aires, Medellín (https://upload.wikimedia.org/wikipedia/commons/9/93/Iglesia_de_Nra_Sra_del_Sagrado_Coraz %C3%B3n-Fachada-Medellin.JPG). En lo esencial, la arquitectura gótica estuvo concebida para mirar al cielo merced a la iniciativa del abad Suger de Saint-Denis en la primera mitad del siglo XII francés. En concreto, este famoso Abad, quien no gustaba del aire sombrío y en tremenda penumbra del interior de las iglesias y catedrales románicas, máxime al estar influido por las ideas neoplatónicas en boga a la sazón, deseaba poder contar con templos complemente bañados en su interior por la luz del Sol. En otras palabras, el neoplatonismo postulaba que Dios era la luz, en contraposición con la oscuridad, asociada al demonio. Más aún, al ser la luz, Dios es la fuente de conocimiento y razón. Ahora bien, para poder darle gusto al Abad, era menester modificar el sistema constructivo de los grandes templos románicos habida cuenta de que la orden de él fue precisa y contundente: hacer de lo material, el templo, algo que pareciese https://upload.wikimedia.org/wikipedia/commons/9/93/Iglesia_de_Nra_Sra_del_Sagrado_Coraz%C3%B3n-Fachada-Medellin.JPG https://upload.wikimedia.org/wikipedia/commons/9/93/Iglesia_de_Nra_Sra_del_Sagrado_Coraz%C3%B3n-Fachada-Medellin.JPG 3 inmaterial por medio de la introducción de la luz, vinculada a la gracia de Dios (Corral, 2012: 67). Lamentablemente, se desconoce quién fue el arquitecto que llevó a la práctica la solución requerida por Suger. En todo caso, fue una arquitectura tan novedosa y resplandeciente que terminó por convertirse en la imagen del linaje de los Capetos, la casa gobernante en Francia por entonces. Esto permite comprender porque los templos góticos cuentan con sus hermosas vidrieras. Por cierto, el estilo gótico jamás tuvo tal denominación en la Edad Media (Corral, 2012: 75). Figura 2. Vitral de la Catedral de Notre-Dame de París, la huida a Egipto (https://upload.wikimedia.org/wikipedia/commons/8/83/Vitrail_Notre- Dame_de_Paris_191208_04_Fuite_en_Egypte.jpg?uselang=es-419). Entremos más en detalle a propósito de la influencia del neoplatonismo en el siglo XII europeo. Por aquel tiempo, una catedral gótica no estaba concebida tan solo como la casa de Dios, sino también como el templo de todo el pueblo. En otras palabras, la catedral gótica estaba planteada cual imagen del mundo a la par que del devenir del tiempo en el mundo. Esto es, una visión sistémica, de totalidad, expresada por doquier en los códigos transmitidos por los programas escultóricos y delas vidrieras, auténticos textos enciclopédicos que pretendían impartir una lección moralizante a los fieles ágrafos que se acercaban a contemplar la catedral (Corral, 2012: 178-179). Ahora bien, por sobre todo, la construcción de una catedral gótica representa el triunfo de la luz sobre la oscuridad y las tinieblas al ser éstas el ámbito propio del demonio. Más aún, la luz queda tamizada y adquiere forma mediante las vidrieras. De esta suerte, no sorprende en modo alguno que las catedrales góticas impresionasen sobremanera a muchos intelectuales tanto del siglo XII como de siglos posteriores. Para muestra un https://upload.wikimedia.org/wikipedia/commons/8/83/Vitrail_Notre-Dame_de_Paris_191208_04_Fuite_en_Egypte.jpg?uselang=es-419 https://upload.wikimedia.org/wikipedia/commons/8/83/Vitrail_Notre-Dame_de_Paris_191208_04_Fuite_en_Egypte.jpg?uselang=es-419 4 botón, Honorio de Autun, el máximo divulgador científico del siglo XII, un ferviente neoplatónico y discípulo de Anselmo de Canterbury, plasmó las siguientes palabras en su obra Gemma animae: “El templo simboliza la gloria de Dios, construido con piedras vivas en la Jerusalén celeste” (Corral, 2012: 180). Del mismo modo, mucho tiempo después, en el siglo XX, el filósofo español José Ortega y Gasset escribió lo siguiente: “Yo no sabía que dentro de una catedral gótica habita siempre un torbellino; ello es que apenas puse el pie en el interior fui arrebatado de mi propia pesadez sobre la tierra” (Corral, 2012: 314). Lo previo significa que, de acuerdo con uno de los ideales del Medievo, los arquitectos del estilo gótico convirtieron su catedral en un espacio sagrado a imagen de la Jerusalén celestial, o sea, la casa de Dios edificada en la Tierra. En la práctica, para alcanzar esta meta, era menester que la catedral cumpliese todas las premisas de la ciudad de Dios, a saber: ser a la vez grande, simétrica y proporcionada. De aquí que, al construir una catedral gótica, se buscase conjugar la armonía del conjunto y la simetría con la belleza y la grandiosidad (Corral, 2012: 181). En suma, la conjunción de orden y estética. En estas condiciones, adquiere pleno sentido la influencia del pensamiento de Platón, quien sostiene en el Timeo que el mundo ha sido creado a partir de la geometría y del número. Ya en la Edad Media, a partir del siglo X, los geómetras aprendieron su saber gracias a la geometría griega gracias a la transmisión llevada a cabo por los científicos andalusíes, es decir, de la España islámica medieval, a la Europa cristiana. Así las cosas, el triángulo equilátero representaba la Trinidad; el cuadrado, la relación perfecta entre el Padre y el Hijo; y el círculo, el principio de la unicidad de Dios. Por ende, se concebía a la sazón que el mundo estaba hecho de geometría, la ciencia de los números, con éstos y las figuras geométricas relacionados por medio de la proporción (Corral, 2012: 181-182). Por así decirlo, había cierta obsesión con la idea de orden, lo cual contrasta sobremanera con nuestro tiempo. Naturalmente, no solemos asociar la idea de orden y perfección con la falta de proporción. Y esto no fue la excepción en el Medievo, lo cual tenía su expresión en ciertos números. En primera instancia, el número de Dios, que ya aparece en la Biblia, dado por Dios a Noé para la construcción del arca que ha de salvarlo del Diluvio; y, también, a Moisés para confeccionar el Arca de la Alianza: la relación de la unidad por la unidad más dos tercios de la unidad: 1 por 1,6666… A su vez, este número es cercano a otro, el número fi, descubierto por el matemático Leonardo de Pisa, mejor conocido como Fibonacci, base de la proporción aúrea o divina proporción: 1 por 1.6180339887498948482045868343656… Más aún, este número esta relacionado con el familiar número pi: 3,141592... De manera concreta, pi es igual a fi más 1 multiplicado por 10 y por 12 y dividido por 100. De facto, hoy día, el número fi sigue fascinando a artistas y arquitectos. No es para menos (Corral, 2012: 182-183). Habían en la Edad Media otras ideas sobre la belleza, como las de Bernardo de Claraval, el gran ideólogo de la Iglesia en la primera mitad del siglo XII, quien insistía en la búsqueda de la belleza en el interior; las de Hugo de San Víctor, para quien la armonía era el principal rasgo de la belleza; las de Godofredo de Vinosalvo, quien concebía la proporción como la adecuación de las cosas a su relación entre ellas; y las de San Buenaventura, el célebre franciscano, al definir la belleza cual conjunto de 5 relaciones de magnitud, forma y color, amén de recalcar que no hay belleza ni deleite sin proporción (Corral, 2012: 184). Figura 3. La proporción aúrea en La Gioconda (https://upload.wikimedia.org/wikipedia/commons/f/f8/Mona_Lisa_com_estrutura_geom %C3%A9trica_-_Divis%C3%A3o_%C3%A1urea.jpg). Volvamos con las ideas medievales en torno a la luz. En lo arquitectónico, la iluminación con luz natural de grandes espacios cubiertos, había sido un gran reto desde la Antigüedad. En el imperio romano, el uso del arco y la bóveda ayudó bastante en lo que a esto concierne, de lo cual dos excelentes ejemplos son el Panteón de Agripa en Roma Santa Sofía en Constantinopla (Corral, 2012: 196). Luego, al surgir las catedrales góticas, aparte de lo dicho más arriba, era imprescindible que las mismas cumpliesen estos dos requisitos: debían reflejar la ciencia humanista enseñada en las nuevas universidades, como París, y plasmar en piedra y vidrio el ideal arquitectónico concomitante merced a la aplicación de las nuevas técnicas constructivas descubiertas en París a mediados del siglo XII, las que permitieron la superación de la arquitectura románica (Corral, 2012: 197). Más aún, en ese siglo XII, la luz fue tema de debate filosófico y teológico, debate que prosiguió en el siglo siguiente (Corral, 2012: 199). En todo caso, los maestros constructores góticos vaya que supieron hacer uso de la luz para https://upload.wikimedia.org/wikipedia/commons/f/f8/Mona_Lisa_com_estrutura_geom%C3%A9trica_-_Divis%C3%A3o_%C3%A1urea.jpg https://upload.wikimedia.org/wikipedia/commons/f/f8/Mona_Lisa_com_estrutura_geom%C3%A9trica_-_Divis%C3%A3o_%C3%A1urea.jpg 6 crear una relación original entre la estructura y la apariencia para lograr que la luz iluminara la piedra, diera forma a la materia y realzara su belleza. Por entonces, se concebía que los arquitectos eran los continuadores de la obra de Dios (Corral, 2012: 201). Por desgracia, a causa de diversas reformas inadecuadas, destrozos o alteraciones sufridas con el paso del tiempo, muchos de los grandiosos efectos lumínicos que, inicialmente, se podían apreciar en las catedrales góticas, se han perdido, cuestión agravada por el hecho que, también, se ha perdido el conocimiento sobre la fabricación del vidrio en aquellos siglos, lo que implica que los vidrieros actuales no pueden reproducir los colores originales de las vidrieras deterioradas o destruidas. En particular, del siglo XII apenas quedan vidrieras originales. No han faltado los nefastos actos vandálicos con el pasar de los siglos, como las terribles destrucciones perpetradas por los demenciales revolucionarios franceses en el siglo XVIII a Notre-Dame de París y otras catedrales francesas. Al fin y al cabo, la chusma siempre ha sido completamente incompetente para comprender el arte y la ciencia, por lo que no viene al caso pedirleperas al olmo. Como parte del debate antedicho, estaba sobre la mesa esta pregunta neurálgica: ¿Luz blanca y pura o luz y color? Por su parte, Bernardo de Claraval, el conspicuo abad cisterciense, defendió con ardentía la presencia de Dios en una luz blanca y mística. No obstante, los constructores de las catedrales góticos no le prestaron atención a lo anterior y las diseñaron de tal forma que quedasen inundadas por la luz teñida de colores merced a su paso por las vidrieras, con lo que adquiría así la luz un toque humano, una perspectiva que compartía Hildegarda de Bingen, la notaba abadesa de aquellos tiempos. De todos modos, al fenecer el siglo XIII, había ya triunfado la idea de la luz asociada al color (Corral, 2012: 204). En fin, como bien sabemos, la luz solar, al pasar por un prisma, se descompone en el espectro que nos es tan familiar. En este sentido, de separación de la luz solar blanca en los colores del espectro, se insinúa una idea de mayor orden, puesto que una mezcla de algo suele percibirse como más desordenada que sus componentes separados. En palabras de otro intelectual medieval, Guillermo Durando, lo anterior queda expresado con elocuencia como sigue: “Las ventanas con vidrieras son escrituras divinas que vierten la claridad del verdadero Sol, es decir, de Dios, en la iglesia, es decir, en los corazones de los fieles, iluminándolos”. Con el correr del tiempo, ya en plena Edad Moderna, como se verá más adelante, esta concepción que ligaba lo terrenal con lo divino, desaparecerá. En cualquier caso, gracias a las vidrieras de las catedrales góticas, el ser humano pudo jugar a su antojo con el color y dominarlo, lo que conllevó a experimentar en la fabricación del vidrio por aquel entonces. La novedad técnica introducida en relación con la Antigüedad consistió en utilizarlo como filtro para la luz. Y, por el estilo, el color llenaba también el exterior del templo, puesto que las portadas y sus esculturas estaban policromadas. De esta suerte, el espectador que contemplaba en los siglos XII y XIII una catedral gótica veía un conjunto policromado por dentro y por fuera. Así las cosas, la luz y el color tanto en el interior como en el exterior de una catedral gótica era uno de los mensajes más importantes que transmitía (Corral, 2012: 205, 207-208). Esto contrasta sobremanera con el llamado arte de nuestro tiempo. 7 Figura 4. Portada del siglo XIV, con policromía del siglo XVII, de la iglesia gótica de Santa María de los Reyes, en Laguardia, Álava, España (https://www.flickr.com/photos/mossaiq/14550426654/). Si, por otra lado, revisamos el fascinante texto antedicho de Erwin Panofsky (1986), el célebre historiador alemán del arte, encontramos una pista valiosa para comprender todavía más esta perspectiva sistémica u holística en la Edad Media. En efecto, en la introducción correspondiente, Panofsky (1986: 20) señala lo siguiente: “Sin embargo, si se dejan de lado provisionalmente todas las analogías intrínsecas, se comprueba que existe entre la arquitectura gótica y la escolástica una concordancia puramente factual y perfectamente clara en el espacio y en el tiempo, concordancia que no es producto de la casualidad y que resulta tan innegable que los historiadores de la filosofía medieval se han visto obligados, independientemente de cualquier otro tipo de consideraciones, a delimitar sus datos en períodos exactamente idénticos a aquellos que los historiadores del arte descubrían en su propio terreno”. Por supuesto, a lo largo de su libro, Panofsky desarrolla esta sugestiva tesis en todo detalle. Sin duda, en donde cabe identificar una visión sistémica del mundo, está una cultura avanzada que distingue el orden del caos. II. El desvalor En principio, podría pensarse que el lenguaje científico es preciso como el que más al procurar que a un significante le corresponda siempre un solo significado. Empero, no siempre es el caso como bien lo demuestra la propia historia de la ciencia y la tecnología. En especial, sobre esto existe un problema bastante delicado, a saber: el trasplante descuidado y atrevido de términos y conceptos tecnocientíficos https://www.flickr.com/photos/mossaiq/14550426654/ 8 desde sus disciplinas de origen a aquellas de las humanidades, una situación en la que los términos y conceptos trasplantados quedan vaciados de su contenido dada su descontextualización. Tal cosa ha pasado, por ejemplo, con el vocablo entropía, central en lo que a la segunda ley de la Termodinámica concierne, un vocablo surgido al fin y al cabo en un contexto tecnocientífico, el de las máquinas térmicas. Por fortuna, de los malos usos del vocablo entropía, se ocupó Iván Illich, el crítico más lúcido de las contradicciones y paradojas de las sociedades industriales, amén de notable medievalista, con motivo de una conferencia pronunciada por él en Tokio, Japón, el 9 de noviembre de 1986 durante la primera reunión pública de la Entropy Society, Keyo University. En dicha conferencia, dejó bastante claro que, por fuera de su contexto tecnocientífico original, entropía es una no palabra, vacía de sentido por completo y, por ende, carente de utilidad para dar cuenta de fenómenos sociales y económicos, tal como la pobreza. Así las cosas, con el fin de analizar correctamente los procesos de degradación de los ámbitos de comunidad por obra y gracia de las torpezas propias de las sociedades industriales, Iván Illich propuso el uso de un término acuñado por él: el desvalor. Veamos esto con mayor detalle habida cuenta de que, acerca del uso del lenguaje en general, incluido el lenguaje propio de la ciencia y la tecnología, es menester saber usarlo con mucho cuidado y el mayor rigor posible. Al fin y al cabo, quien lee y escribe bien, piensa, pues, como destacó el ilustre psicólogo ruso Lev Semiónovich Vygotsky, el lenguaje es la expresión por excelencia de las facultades mentales superiores. En otras palabras, el lenguaje nos permite comprender y capturar mejor el mundo. Como bien se sabe, se debe el término “entropía” al físico y matemático germano Rudolf Julius Emmanuel Clauisus, quien lo propuso en 1865. De facto, él era un helenista aficionado, por lo que tomó tal vocablo del griego clásico, idioma en el que entrópeo significa girar, torcer, pervertir o humillar (Illich, 2008: 478). Lamentablemente, con ligereza notoria, en cuestión de algunos años, la gente se apoderó de esta palabra tecnocientífica para denotar una variedad de desviaciones paradójicas para las cuales el lenguaje cotidiano no tiene un sentido tradicional preciso que darles, como, por ejemplo, el empobrecimiento cultural típico de la escuela embrutecedora, de la medicina iatrógena, de la aceleración devoradora de tiempo, y así por el estilo. Esto es, los efectos nefastos de la búsqueda de metas sociales inapropiadas que, como señala Illich, no tienen nada de la inocencia del determinismo inexorable asociado en el ámbito tecnocientífico con la entropía (Illich, 2008: 47). Dicho de otra forma, la degradación de la diversidad cultural por parte de las organización transnacional de los flujos monetarios no es una ley natural, sino el mero resultado de la codicia. Es más, la degradación y desaparición de culturas de subsistencia es un suceso histórico reciente, no el resultado ineluctable de una ley cósmica. En el fondo, con su atinada crítica a este respecto, Iván Illich razona en clave sistémica por excelencia, ya que parte de una filosofía de la tierra,de la consideración de la realidad tangible, de la entidad elaborada culturalmente junto con su entorno en un tiempo y en un lugar concretos. Así las cosas, él aclara que la comparación entre la devastación de la diversidad cultural y la degradación cósmica puede ser útil siempre y cuando que comprendamos los límites en los que la ciencia puede ayudar al generar metáforas. De esta suerte, como metáfora bien empleada, la entropía puede ser reveladora. Pero, como analogía, tan solo puede ser engañosa. Incluso, las palabras creadas a partir de 9 nociones técnicas son impropias para un uso metafórico, al punto que, si pasan a un discurso ético, oscurecen casi de manera inevitable el significado moral (Illich, 2008: 479-480). Por tanto, ha de irse con cuidado en lo que a esto concierne. Figura 5. Iván Illich (https://commons.wikimedia.org/wiki/File:I.I.jpg). En esta perspectiva, Illich señala lo siguiente en relación con el término “entropía”: “Las palabras auténticas tienen un nimbo. Por el contrario, los términos no tienen connotaciones. Un nimbo de connotaciones rodea las palabras, como la imagen del carillón de viento que la voz pone en movimiento. La “entropía” no está entre estas palabras, aunque muchos traten de usarla así. En este último caso, está limitada de dos maneras: pierde lo tajante que tenía en cuanto término, y nunca adquiere las armonías de una palabra fuerte. En un poema es una piedra, y en el discurso , un garrote” (Illich, 2008: 480). En otras palabras, la entropía carece de una definición clara cuando tiene una acepción distinta a la técnica. En general, como señala Illich, no hay una manera adecuada de usar un término técnico en la conversación ordinaria. Ni se diga si esto lo hacen personas zafias. He aquí entonces una cuestión harto neurálgica para nuestro tiempo, sobre todo en una región como Latinoamérica, la que aún no ha incorporado en rigor el modo científico de comprender el mundo, un hecho manifiesto en parte en el manejo laxo del lenguaje tecnocientífico en diversos ámbitos, incluidos los académicos y universitarios. Ante todo, no ha de olvidarse que la ciencia está estructurada en torno a un lenguaje bien organizado. https://commons.wikimedia.org/wiki/File:I.I.jpg 10 Figura 6. Imagen evocadora de Another Brick in the Wall, canción de Pink Floyd, grupo británico de rock progresivo (https://commons.wikimedia.org/wiki/File:Pink_Floyd_Their_Mortal_Remains_-_2017-10-13_- _Andy_Mabbett_-_62.jpg). Iván Illich aclara todavía más esta cuestión que nos ocupa: “Cuando “entropía” se usa en el lenguaje corriente, pierde su poder de designar una fórmula; no encaja ni en la frase ni en el sistema. Pero, también pierde el género de connotación que poseen las palabras fuertes. Desprende un halo evocador que, al contrario del sentido de las palabras fuertes, es vago y arbitrario. Cuando el término “entropía” aparece en una declaración política, falazmente toma un giro científico, mientras que de hecho probablemente no tiene sentido. Si convence, no es en virtud de su fuerza, sino de una seducción irracional. Enmascara una perversión moral que, de otra manera, descompondría al locutor, pues da la impresión de que lo que formula es científico y está cargado de sentido” (Illich, 2008: 480). Así las cosas, se prefigura la necesidad perentoria de forjar un vocablo más apropiado que el término “entropía” sacado de su contexto tecnocientífico primordial para fines de análisis en el ámbito de las ciencias sociales y humanas, junto con el mundo de la vida. Al fin y al cabo, al tratar de la agresión, la avidez y la desesperanza, resulta más cómodo y tranquilizador sugerir que la eliminación de la belleza y de la diversidad es el trayecto ineluctable de la cultura y la naturaleza, la consecuencia inevitable de una ley cósmica, la segunda ley de la Termodinámica. Es decir, este enfoque retorcido evita confesar https://commons.wikimedia.org/wiki/File:Pink_Floyd_Their_Mortal_Remains_-_2017-10-13_-_Andy_Mabbett_-_62.jpg https://commons.wikimedia.org/wiki/File:Pink_Floyd_Their_Mortal_Remains_-_2017-10-13_-_Andy_Mabbett_-_62.jpg 11 que los seres humanos, por su modo de vida, promueven un mal. Botón de muestra, cuando la gente percibe que, varias veces a lo largo del día, sus necesidades físicas de evacuación producen una degradación del ambiente, resulta fácil convencerla de que, por el mero hecho de existir, no puede dejar de contribuir a la “entropía” (Illich, 2008: 485). Ahora bien , el desecho, según aclara Illich, no es una consecuencia natural de la existencia humana, máxime por tratarse de un concepto que entró en escena apenas hacia 1830. Con todo, Illich siempre fue consciente de que, a despecho de la correspondiente ambigüedad, la “entropía” sigue siendo un término precioso si lo usamos en tanto metáfora evocadora y flexible en vez de análogo reductor a la hora de alertar acerca de la degradación social, la pérdida de la belleza y la diversidad, la trivialidad y la sordidez crecientes. Sencillamente, no es cuestión de ir por ahí con ligereza hablando, digamos, de la entropía de un poema, un disparate que tan solo se le puede ocurrir a quienes forman parte de los corifeos y prosélitos de la posmodernidad. Empero, como las más de las veces suelen perderse de vista las limitaciones concomitantes, resulta preciso evitar el uso del término “entropía” por fuera de su contexto tecnocientífico, máxime si de evitar su perversión moral se trata. De este modo, Illich introdujo el término “desvalor” con el fin de denotar la naturaleza histórica y moral inherente a la degradación social. Así las cosas, el desvalor implica que tal degradación no coexiste con el universo al no ser la consecuencia ineludible de una ley cósmica, la segunda ley de la Termodinámica, sino que es algo que, en la historia de la humanidad, tiene un inicio y a lo que, por ende, se le podría poner un fin (Illich, 2008: 482). Con esta distinción en mente, mientras la entropía es una medida de la transformación de la energía en una forma que no puede transformarse en trabajo físico, el desvalor denota la destrucción de los ámbitos de comunidad y de las culturas, lo cual significa que el trabajo tradicional queda despojado de su capacidad de engendrar la subsistencia. Por supuesto, lo que puede antojarse a primera vista como una cercanía entre ambos conceptos no pasa de ser una analogía. Por lo demás, en contraste con el desvalor, el valor significa el bien. Así mismo, en términos económicos, Illich hace ver que el valor económico solo se acumula como consecuencia de la devastación previa de la cultura, o sea, la creación de desvalor. En lo que al desecho concierne, resulta llamativo que, si una cultura refuerza en forma regular la interacción del Sol, de la tierra y del agua, su contribución al cosmos es positiva (Illich, 2008: 486). En otras palabras, las sociedades humanas que crean desechos son aquellas que destruyen la matriz tierra- agua de su medio y pasan así a ser centros de expansión de la devastación de las sociedades que las rodean. Por consiguiente, no todas las culturas producen desechos. Desde luego, sí lo hacen las sociedades industriales, típicas generadoras de desvalor al carecer de una cosmovisión sistémica y holística. Dicho de otro modo, están atrapadas en el síndrome del caballo cochero, dado que su ausenciade dicha cosmovisión implica que, en el mejor de los casos, la entropía puede ser una metáfora buena para subrayar la depreciación en la economía monetaria, puesto que el flujo de la moneda o de la información puede, en cierto grado, compararse con el flujo de calor. Por desgracia, la macroeconomía no dice nada acerca de lo que la gente considera como bueno. Y lo bueno acontece fuera de la economía monetaria. No puede ser de otro modo habida cuenta de que la economía monetaria no genera valores de uso, sino de cambio. 12 III. Pensamiento sistémico Lo visto hasta el momento a propósito de las catedrales e iglesias góticas y del concepto de desvalor son dos buenos ejemplos de sistemas complejos por excelencia. Incluso, cabe entender a la ciencia misma como un gran sistema, complejo como el que más. En lo esencial, por sistema hemos de entender un todo compuesto por partes, aunque sin ser el todo la mera suma de las partes, una idea crucial que se remonta hasta Aristóteles. Por su lado, complejo significa lo que está entretejido, lo que es difícil de separar, lo cual tiene lugar cuando las interacciones entre los componentes son relevantes, esto es, si las mismas determinan el futuro de los componentes. Además, en lo que a la arquitectura gótica concierne, son notorias las ideas de orden y armonía, lo cual tiende a evocar, en sentido moderno, aunque por contraposición, la segunda ley de la Termodinámica. Entre otros ejemplos que cabe señalar a este respecto, vaya aquí uno aportado por Carlos Gershenson García (2007: 24-25), quien aclara que una propiedad utilizada con frecuencia con el fin de caracterizar la autoorganización es un aumento del orden que no está impuesto por un agente externo, aunque sin excluir las interacciones ambientales. En esta perspectiva, la forma más común de formalizar la noción intuitiva de orden es identificarlo con lo negativo de la entropía. Recordemos que, en lo fundamental, la segunda ley de la Termodinámica establece que, en un sistema aislado, la entropía solo puede aumentar, no disminuir, hasta alcanzar su valor máximo, momento en el que el sistema alcanza el llamado equilibrio termodinámico. Por consiguiente, como aclara Gershenson, los sistemas de autoorganización física no pueden estar aislados, sino que requieren un aporte constante de materia o energía con baja entropía, eliminando la entropía generada internamente por medio de la salida de calor ("disipación"). Esto les permite producir "estructuras disipativas" que se mantienen lejos del equilibrio termodinámico. La vida es un claro ejemplo de orden lejos del equilibrio termodinámico, muy lejos. Más aún, Gershenson (2007: 29) señala así mismo en forma oportuna que debemos ser conscientes de que, incluso en los modelos matemáticos y físicos de los sistemas autoorganizados, es el observador el que atribuye propiedades, aspectos, estados y probabilidades, y, por lo tanto, entropía u orden al sistema. Al fin y al cabo, las teorías, los modelos y los modelillos propios de la ciencia no son otra cosa que una representación mental finita de una realidad que, per se, es compleja e infinita. Empero, como apunta Gershenson, la organización es más que baja entropía, pues, es una estructura que tiene una función o propósito. Si reparamos con cuidado, el ejemplo de la fascinante arquitectura gótica es muy elocuente a este respecto. En fin, según nos hace ver Carlos Gershenson García (2007: 35), los sistemas autoorganizados, más que un mero tipo de sistemas, son una perspectiva útil con el fin de estudiar, comprender, diseñar, controlar y construir sistemas. Y no hemos de olvidar que en la autoorganización, entendida como disminución de la entropía, un factor crucial es el observador, quien tiene que describir el proceso en un nivel o niveles apropiados y definir el propósito del sistema. Todos estos "hacen" que el sistema sea autoorganizado. En ese sentido, la autoorganización puede estar en todas partes y tan solo es cuestión de que la observemos. Ahora bien, estimo que conviene no perder de vista que, con lo anterior, hay que 13 tener cuidado de no incurrir en los abusos propios de la ideología posmoderna, esto es, no caer en los excesos típicos del constructivismo, los cuales pretenden que la realidad es una mera construcción social, fruto de un simple consenso. Pero, claro está, las verdades científicas no se ciñen a reglas como las de la democracia y el fútbol. Figura 7. La educación virtual vista como sistema (diagrama elaborado por el autor). Volvamos con la idea de sistema. Justamente, la educación virtual presenta los rasgos de un sistema. En efecto, se reconocen en ella elementos, interacciones, escalas, dinámica, retroalimentación y emergencia. Sin ser un sistema frágil o, mucho menos, antifrágil, es moderadamente robusto dada la crisis de la educación en el mundo, la que refleja desvalor sin ir más lejos. De suerte que el problema radica en robustecer el sistema, lo cual pasa por reformas que incluyen lo social, lo político, lo económico y lo institucional. En suma, un problema que no debe soslayar el pensamiento sistémico, 14 ilustrado en el diagrama que está arriba de estas líneas, basado en la estructura básica de la Universidad Nacional de Colombia. En el mismo, cada nodo, o elemento, es un subsistema en sí mismo. Así, un ejemplo como éste, al igual que los de las catedrales góticas y la economía interpretada desde la óptica del desvalor, muestran con claridad que la idea de sistema en sí conlleva la noción de complejidad. En Termodinámica, sobre todo la de procesos irreversibles, resulta sugestiva la idea de autoorganización de la materia, de la cual el mundo natural brinda ejemplos a granel, algo patente en el hecho que muchos grupos de animales pueden coordinarse sin necesidad de tener un líder: enjambres, parvadas, cardúmenes, manadas y multitudes, situaciones en las que se forman patrones globales a partir de interacciones locales entre los individuos. Otro ejemplo llamativo de autoorganización, muy mentado por los biólogos, ocurre con los machos de ciertas especies de luciérnagas, las que llegan a sincronizarse siguiendo reglas simples, como la siguiente: cada insecto emite luz con cierta regularidad (el período). Pero, si detecta luz de cierta intensidad (de sus vecinos), ajusta su disparo para que el siguiente coincida con los de sus vecinos. De este modo, se generan grupos de luciérnagas que se van sincronizando, hasta que árboles enteros pueden centellear en sincronía, lo cual tiene su ventaja, ya que, mientras más machos puedan sincronizarse, podrán atraer a más hembras. Figura 8. Aves acuáticas, un ejemplo de autoorganización en biología (https://en.wikipedia.org/wiki/Self-organization#/media/File:Sort_sol_ved_%C3%98rns %C3%B8_2007.jpg). https://en.wikipedia.org/wiki/Self-organization#/media/File:Sort_sol_ved_%C3%98rns%C3%B8_2007.jpg https://en.wikipedia.org/wiki/Self-organization#/media/File:Sort_sol_ved_%C3%98rns%C3%B8_2007.jpg 15 Figura 9. Ejemplo elocuente de estructuras disipativas: granulación en la superficie del Sol. Diámetro de imagen: aproximadamente 35.000 km (https://de.wikipedia.org/wiki/Dissipative_Struktur#/media/Datei:172197main_NASA_Flare_Gband_lg-part.jpg). No menos fascinantes, en lo que a autoorganización atañe, son las estructuras disipativas que nos brinda la naturaleza, como, sin ir más lejos, las granulaciones en la superficie de nuestro Sol. Ante todo, el término estructura disipativa apunta a representar la conjunción entre orden y disipación. En otras palabras, la disipación de materia y de energía, asociadas en principio a pérdida y evolución hacia el desorden, pasa a ser, lejos del equilibrio termodinámico, una fuente de orden (Wikipedia, 2019b). En el ámbito de la Fisicoquímica, es típico el ejemplo de la inestabilidad de Bénard como estructura disipativa, que, en lo esencial, es una capa horizontal de líquido que presenta una diferencia, o gradiente, de temperatura entre la superficie superior y la inferior en virtud del calentamiento de ésta. Por supuesto, esto implica la conducción de calor de abajo hacia arriba. La inestabilidad propiamente dicha tiene lugar cuando el gradiente de marras excede cierto límite, en cuyo caso el transporte de calor por conducción queda incrementado por un transporte por convección, lo cual da lugar a vórtices llamativos que distribuyen la capa líquida en celdas de agua. En sí, el fenómeno es espectacular habida cuenta de que la probabilidad de que ocurra en forma espontánea es casi nula, lo que contradice los resultados experimentales. Y siguiendo con fenómenos espectaculares en lo que a esto concierne, no puede pasarse por alto la inestabilidad de Rayleigh-Taylor, producida cuando un fluido de baja densidad empuja a otro de alta densidad. En concreto, si tenemos dos capas planas y paralelas de dos fluidos inmiscibles, con el fluido más denso situado encima, el sistema está en un equilibrio inestable, por lo que, a la menor https://de.wikipedia.org/wiki/Dissipative_Struktur#/media/Datei:172197main_NASA_Flare_Gband_lg-part.jpg https://de.wikipedia.org/wiki/Dissipative_Struktur#/media/Datei:172197main_NASA_Flare_Gband_lg-part.jpg 16 perturbación, se reduce la energía potencial y el líquido más denso se mueve hacia abajo a través del líquido menos denso. Visualmente hablando, lo que se ve son formas alargadas que suelen denominarse como dedos RT. Otros ejemplos sobre este fenómeno son los domos salinos, las inversiones térmicas y ciertos entornos astrofísicos como la nebulosa del Cangrejo, en la que las partículas aceleradas por el pulsar de la nebulosa tratan de abrirse paso hacia el exterior a través de restos expulsados antes por la explosión de la supernova (Wikipedia, 2019c). Figura 10. Inestabilidad de Rayleigh-Taylor en la nebulosa del Cangrejo (https://www.publicdomainpictures.net/es/view-image.php?image=182106&picture=nebulosa-del- cangrejo). Ejemplos como los anteriores muestran un rasgo notable, a saber: la ocurrencia de las estructuras disipativas suele darse en virtud de causas relativamente simples. Si leemos en esta perspectiva la arquitectura gótica, llama poderosamente la atención la relativa simplicidad que subyace en su construcción, esto es, que a partir de unos cuantos materiales básicos, como son la piedra, la madera, el hiero, el plomo y el vidrio, en sintonía con un buen conocimiento de la geometría, los arquitectos y constructores de las iglesias y catedrales góticas crearon verdaderas maravillas, con una riqueza, belleza y complejidad que saltan a la vista. En este caso, por ser una arquitectura de la luz, podemos leer la idea de estructura disipativa en la transformación de la luz blanca procedente del Sol en la https://www.publicdomainpictures.net/es/view-image.php?image=182106&picture=nebulosa-del-cangrejo https://www.publicdomainpictures.net/es/view-image.php?image=182106&picture=nebulosa-del-cangrejo 17 policromía del interior de una iglesia o catedral en virtud de la filtración producida por las vidrieras, lo que puede variar según la hora del día y la época del año, junto con el realce de la policromía exterior del edificio gracias a la luz solar directa. En otras palabras, la magnificencia de la arquitectura gótica precisa del flujo de luz solar. Toda una sinfonía cromática. Justo en esto, vemos el contraste con la arquitectura románica, cuyo encanto va por otro lado. Sigamos en el Medioevo. Siete siglos atrás, se instaló un mecanismo notable destinado al culto en la célebre catedral de Santiago de Compostela, edificio de estilo románico, gótico y barroco, que introdujo efectos dinámicos sofisticados, al punto que pudo haber originado las primeras experiencias en materia de caos determinista (Sanmartín Losada, 1990; Sierra Cuartas, 2017). A primera vista, un incensario parece un objeto ordinario que sirve para quemar incienso con diversos fines, incluidos los litúrgicos. Sin embargo, hay un incensario de lo más famoso: el Botafumeiro, símbolo de la catedral antedicha, además de Galicia, España, máxime que, en su versión anterior, pesaba 60 kg, aunque, por esas cosas difícilmente aconsejables que hacen los restauradores, en el año 2006, le añadieron un baño de plata que aumentó su masa hasta los 62 kg actuales. Por lo demás, la cuerda actual que lo sostiene, atada al crucero de la Catedral, es de un material sintético, tiene una longitud de 65 metros y 5 centímetros de diámetro. Con anterioridad, las cuerdas eran de cañamo o esparto. Figura 11. Botafumeiro de la catedral de Santiago de Compostela (https://es.wikipedia.org/wiki/Botafumeiro#/media/Archivo:Santiago_Catedral_Botafumeiro.jpg). En el Códice Calixtino, figura este incensario con el nombre de Turibulum Magnum. En rigor, se desconoce la fecha de creación del ritual correspondiente, aunque se cree que sus orígenes datan de los siglos XII o XIII. En cualquier caso, su uso está acreditado desde el siglo XIV. A lo largo de los siglos, https://es.wikipedia.org/wiki/Botafumeiro#/media/Archivo:Santiago_Catedral_Botafumeiro.jpg 18 han existido varios incensarios. El actual viene del año 1851, cuya inauguración pretendió recuperar la costumbre medieval correspondiente. Además, en ese mismo año, recibió por vez primera el nombre de “vota fumeiro”, denominación acuñada por Neira Mosquera en un artículo de la revista Galaica. Además, forma parte de la parafernalia del célebre camino de Santiago. Figura 12. Tiraboleiros de la Catedral de Santiago de Compostela (https://commons.wikimedia.org/ wiki/File:El_botafumeiro_compostelano_(6462176375).jpg). Su funcionamiento es pintoresco y espectacular: las gruesas cadenas que lo sujetan permiten lanzarlo en un arco de algo más de sesenta metros, con lo que alcanza velocidades de hasta setenta kilómetros por hora. Por su gran tamaño, se requieren hasta ocho personas, los tiraboleiros, para moverlo, amén de trasladarlo desde el museo de la Catedral hasta el cruceiro. Dicho sea de paso, los tiraboleiros visten el conocido roupón malva. Ya en su lugar, ellos llenan el incensario con incienso y carbón para, a continuación, atarlo a la cuerda que permite su balanceo por el pasillo central. El movimiento comienza de a poco sacando provecho de la propia inercia del artefacto con la ayuda de un sistema de poleas y cuerdas. Al final, los tiraboleiros frenan su recorrido colgándose prácticamente de él para disminuir su velocidad. En el artículo respectivo en Wikipedia (2019a), hay un video ilustrativo que muestra su funcionamiento, lo mismo que otro en la página de la Catedral (http://catedraldesantiago.es/liturgia/#botafumeiro).Con más detalle, cuando el Botafumeiro pasa justo por el punto más cercano al piso, los tiraboleiros tiran de la cuerda, lo cual acorta el radio de giro, por lo que el péndulo adquiere más velocidad y altura. En concreto, este incensario se desplaza en el sentido del transepto de la Catedral, esto es, la nave transversal que forma el brazo corto en una iglesia de planta de cruz latina. En lo que al templo http://catedraldesantiago.es/liturgia/#botafumeiro https://commons.wikimedia.org/wiki/File:El_botafumeiro_compostelano_(6462176375).jpg https://commons.wikimedia.org/wiki/File:El_botafumeiro_compostelano_(6462176375).jpg 19 compostelano atañe, su transepto tiene dos puertas: Azabachería y Platerías. Así, lo normal es la realización de 18 viajes o ciclos, uno en dirección a Platerías y otro a Azabachería, por lo cual recorre una distancia de unos 600 metros, todo durante unos cinco minutos. Así mismo, el ángulo máximo que alcanza es de 82°. En cualquier caso, por más que se tire de la cuerda, jamás chocaría el incensario con el techo (90°). De otra parte, el mecanismo del Botafumeiro funciona desde tres siglos antes de que se estudiase la física del péndulo. Así las cosas, los gallegos de hace siete siglos lograron el sistema óptimo, lo que quedó facilitado por las medidas de la Catedral. En otros casos, esto hubiera tenido dificultades extremas. Por ejemplo, si se quisiese poner un gran incensario en una catedral gótica de unos 40 metros de alto y que oscilase en toda su amplitud, sería menester un incensario de 500 kg o, con uno como el compostelano, dar un tirón de cuerda de nada menos que... ¡treinta metros! En suma, el Botafumeiro desempeñó un rol pionero en el largo proceso de comprensión de las leyes del movimiento en general, incluida la mecánica celeste. Ahora bien, lo relativo a régimen caótico ofrece un ejemplo atractivo en la forma de las reacciones químicas oscilantes, es decir, una situación fuera del equilibrio químico, o sea, antes de que transcurra el tiempo requerido para alcanzarlo, en el que la mezcla reactiva oscila entre contener prácticamente tan solo los reactivos y prácticamente apenas los productos. En particular, si las oscilaciones se dan de manera periódica, estamos en un régimen regular. De lo contrario, es el régimen caótico. En cuanto a la historia del descubrimiento respectivo, le corresponde el mérito principal a Borís Pávlovich Beloúsov, quien se percató de este llamativo fenómeno a comienzos de la década de 1950 al estudiar una mezcla de bromato de potasio, sulfato de cerio (IV), ácido malónico y ácido cítrico, cuando intentaba encontrar un análogo inorgánico para el ciclo de Krebs, un experimento en el que la concentración de iones Ce (IV) y Ce (III) oscilaba, lo cual se manifestaba por medio de la oscilación de color de la reacción de marras entre amarillo pálido e incoloro, cuya causa estriba en que los iones Ce (IV) se reducen por el ácido malónico a Ce (III), los cuales se oxidan de nuevo a Ce (IV) por parte de los iones de bromo (V). Desde luego, Beloúsov trató de publicar su descubrimiento, en dos ocasiones, aunque lo rechazaron al creer los editores correspondientes que tal reacción no era otra cosa que un mero artefacto de laboratorio que contradecía el segundo principio de la Termodinámica. Finalmente, Beloúsov pudo publicarlo en 1958 en una revista de menor prestigio. Un tiempo después, en 1961, Anatol Markovich Zhabotinsky, estudiante de posgrado, recibió el encargo de estudiar esta reacción, la que modificó, y explicó la secuencia química. Apenas se popularizó el hallazgo de las reacciones químicas oscilantes a partir de 1968 con motivo de una conferencia en Praga. Definitivamente, contra la estupidez humana, los propios dioses luchan en vano. En fin, desde entonces, se conoce a este oscilador, o reloj químico, como reacción de Beloúsov-Zhabotinsky. En lo esencial, esta reacción, abreviada como BZ, es una reacción redox en la que se da la oxidación del ácido malónico por el ión bromato en un medio ácido. He aquí los reactivos involucrados: ácido malónico, un ácido inorgánico (que puede ser el sulfúrico), una sal que proporcione iones bromato (BrO3-), una sal que aporte iones bromuro (Br-), una sal de hierro (Fe2+) y agua. Además, ferroina como indicador. De esta forma, los iones Fe2+ una coloración roja y, al oxidarse, se convierten en Fe3+, cuya coloración es azul. Así, el cambio de color es más vistoso que entre un amarillo pálido e incoloro. En 20 cuanto a cantidades, una receta es la siguiente: ácido malónico 0,2 M; bromato de sodio 0,3 M; ácido sulfúrico 0,3 M y ferroina 0,005 M (Gray, 2002). Naturalmente, no es la única receta, puesto que hay muchas más, variaciones incluidas. Sobre esto, el propio Zhabotinsky (2007) dice lo siguiente: “El único reactivo inicial insustituible es el bromato oxidante. Los iones Ce y Mn pueden usarse como catalizadores, así como iones complejos de Fe, Ru, Co, Cu, Cr, Ag, Ni y Os; cada uno usualmente con dos o más ligandos diferentes. Una gran cantidad de diversos reductores dan lugar a oscilaciones”. Figura 13. Borís Pávlovich Beloúsov (https://commons.wikimedia.org/wiki/File:Boris_Pavlovich_Belousov_2.jpg). En otra receta para esta reacción, se mezclan tres soluciones para formar un color verde, que se vuelve azul, morado y rojo, y luego vuelve al verde y se repite. Éstas son las tres soluciones en cuestión: la solución A es de KBrO3 0,23 M, la solución B es de ácido malónico 0,31 M y de Kbr 0,059 M, y la solución C es de nitrato de amonio de cerio (IV) 0,019 M y de H 2SO4 2,7 M. Durante la presentación, se añade a la solución una pequeña cantidad del indicador ferroina (Aspaas y Stanley, 2000). La reacción global es la oxidación catalizada por cerio del ácido malónico por los iones bromato en ácido sulfúrico diluido: 3 CH2(CO2H)2 + 4 BrO3- → 4 Br- + 9 CO2 + 6 H2O. Ahora bien, el mecanismo de esta reacción es muy complicado, tanto así como 80 etapas elementales y 26 concentraciones de especies (Gray, 2002). Empero, puede compendiarse la esencia del mecanismo en dos etapas. La primera implica transferencias de iones y dos electrones, mientras que la segunda involucra transferencias de radicales y un electrón. Más aún, la concentración de iones bromuro determina qué etapa es dominante: la primera etapa es dominante cuando la concentración de iones bromuro es alta, mientras que la segunda etapa es dominante cuando la concentración de iones bromuro es baja. En fin, para la primera etapa, la reacción neta es como sigue: BrO3- + 5 Br- + 6 H+ → 3 Br2 + 3 H2O. Ésta tiene lugar cuando se mezclan las soluciones A y B. Por su parte, la reacción global para la segunda etapa es la siguiente: 2 BrO3-+ 12 H+ + 10 Ce3+ → Br2 + 6 H2O + 10 Ce4+. https://commons.wikimedia.org/wiki/File:Boris_Pavlovich_Belousov_2.jpg 21 A su vez, la primera etapa comprende estas tres subetapas: BrO3- + Br- +2 H+ → HBrO2 + HOBr HBrO2 + Br- + H+ → 2 HOBr HOBr +Br- +H+ → Br2 + H2O El bromo producido en la última reacción reacciona con ácido malónico a medida que enoliza con lentitud: Br2 + CH2(CO2H)2 → BrCH(CO2H)2 + Br--+ H+.. Bien, estas reacciones funcionan para reducir la concentración de iones bromuro en la solución. Esto permite que la etapa B sea dominante. En cuanto a la segunda etapa, está compuesta por las siguientes subetapas: BrO-3 + HBrO2 +H+ → 2 BrO2• + H2O BrO2• + Ce3+ + H+ → HBrO2 + Ce4+ 2 HBrO2 → HOBr + BrO3- + H+ 2 HOBr → HBrO2 + Br- + H+ HOBr + Br- + H+ → Br2 + H2O Por su parte, las dos primeras reacciones de esta secuencia dan lugar a la siguiente reacción: 2 Ce3+ + BrO3- + HBrO2 + 3 H+ → 2 Ce4+ + H2O + 2HBrO2 Esta secuencia produce ácido bromoso en forma autocatalítica. Por cierto, la autocatálisis es una característica esencial de esta reacción, pero no continúa hasta que se agotan los reactivos, puesto que hay una destrucción de segundo orden de HBrO2. Bueno, recuérdese que el mecanismo anterior es una versión compendiada, por lo que, para un mecanismo más detallado, conviene darle un buen vistazo al artículo antedicho de Casey R. Gray (2002). Por último, no menos importante, los colores en esta reacción son el resultado de la oxidación y reducción de los complejos de hierro y cerio. Propiamente, la ferroína proporciona dos de los colores vistos en esta reacción: a medida que aumenta la concentración de Ce(IV), se oxida el hierro en la ferroína de hierro rojo(II) a hierro azul(III). El cerio(III) es incoloro; y el cerio(IV), amarillo. Así, la combinación de cerio(IV) y hierro(III) produce el color verde. En las condiciones adecuadas, este ciclo se repetirá varias veces. Así mismo, la limpieza de la cristalería es crucial habida cuenta de que las oscilaciones quedan interrumpidas por la contaminación por iones cloruro (Aspaas y Stanley, 2000). Hasta aquí los aspectos más relevantes a propósito de la reacción de Beloúsov-Zhabotinsky. Empero, para fines de experimentos que deseen montarse en la propia casa, puede no ser fácil adquirir los reactivos necesarios. En este panorama, por fortuna, pueden estudiarse fenómenos como éstos acudiendo a otro experimento, mucho más fácil de montar: el experimento de la botella azul, una 22 reacción química redox que tan solo involucra el uso de una solución acuosa que contiene glucosa, hidróxido de sodio, azul de metileno y un poco de aire, la que se agita en una botella cerrada. En este caso, el cambio de color sucede entre incoloro y azul para, luego, decolorar otra vez al cabo de un tiempo. Con más agitación, el ciclo respectivo puede repetirse muchas veces. Incluso, este experimento, llevado a cabo en una caja de Petri destapada, se presta para observar el fenómeno fascinante de las ondas químicas, incluso con reactivos que no precisan ser de grado de pureza analítico, pues, pueden conseguirse buenos resultados con un grado de pureza USP o similar. Figura 14. Ondas químicas en la reacción de Beloúsov-Zhabotinsky (https://www.flickr.com/photos/nonlin/4013035510). Con más detalle, en esta reacción sucede que el azul de metileno cambia su estado de oxidación gracias a la glucosa en medio alcalino. Al reducirse este colorante, se transforma en azul de leucometileno incoloro. Luego, al agitar la botella, el oxígeno atmosférico, al mezclarse con la solución, oxida el azul de leucometileno, que pasa a azul de metileno, con lo que reaparece la coloración azul. Tras esto, al dejar reposar la botella, el oxígeno se retira, con lo que se pierde de nuevo el color azul, puesto que se reduce otra vez a azul de leucometileno. De otro lado, si se añade anhídrido carbónico, CO2, en la botella, como desplaza el aire, al agitar a continuación la botella, no importa cuanto, no se logra que se vuelva azul. En realidad, este experimento ha gozado de amplia popularidad dada la sugestiva panoplia de conceptos que ilustra, a saber: catálisis inducida por colorantes, anómeros y efecto anomérico, autoorganización espacial, efectos conformacionales sobre la reactividad química, efectos del solvente, https://www.flickr.com/photos/nonlin/4013035510 23 etcétera. Bueno, la historia correspondiente comienza con un artículo publicado por el profesor J. A. Campbell en 1965 en Journal of Chemical Education, al que le siguió su inclusión en un libro titulado Why Do Chemical Reactions Occur? De ahí en más, abundan al por mayor los artículos y otros documentos acerca de este experimento, si bien los que encuentro más atrayentes son aquellos que ilustran el fenómeno de autoorganización de la materia, como un modesto artículo, de una escasa página de extensión, publicado en la mencionada revista (Adamčiková y Ševčík, 1998). En el mismo, encontramos los datos indispensables para montar de manera sencilla el experimento que muestra la formación de patrones, de ondas químicas. En concreto, precisamos tan solo de una caja de Petri, solución acuosa de hidróxido de sodio 1 M, solución acuosa de glucosa 0,5 M y solución acuosa de azul metileno 0,001 M. Sin ambages, pueden prepararse con facilidad estas soluciones como sigue: 1. Solución de hidróxido de sodio: se pesan 3,9999 gramos de NaOH y se disuelven en agua destilada en frasco volumétrico hasta completar 100 mililitros. 2. Solución de glucosa: se pesan 9,0081 de glucosa y se disuelven en agua destilada en frasco volumétrico hasta completar 100 mililitros. 3. Solución de azul de metileno: se pesan 0,03199 gramos de este colorante (considerando un peso molecular de 319,9 g/mol) y se disuelven en agua destilada en frasco volumétrico hasta completar 100 mililitros. A continuación, en la caja de Petri destapada, se mezclan 5 mililitros de la solución de hidróxido de sodio con 1,6 mililitros de la solución de solución de glucosa, con 0,5 mililitros de la solución de azul de metileno y con 2,9 mililitros de agua destilada. Apenas al comenzar tras hacer esta mezcla, se tiene un color azul uniforme. Pero, pasados unos pocos minutos, aparece una llamativa estructura de mosaico, con zonas incoloras y azules. En este punto, el sistema en cuestión está lejos del equilibrio termodinámico, el cual alcanzará al cabo de unas horas, en cuyo caso la mezcla final adquiere un color azul o violeta claro. De manera complementaria, si cubrimos la caja de Petri con su tapa, no se forma el patrón de mosaico habida cuenta de que la reacción química de marras es la reducción del azul de metileno por la glucosa alcalina. En sí, una zona incoloro indica que la glucosa ha reducido al colorante, mientras que una zona azul denota la oxidación por parte del oxígeno atmosférico. En todo caso, una vez que retiramos la tapa de la caja de Petri, no tardan en reaparecer las estructuras antedichas. 24 Figura 15. Formación de patrones en el experimento de la botella azul realizado en una caja de Petri (https://commons.wikimedia.org/wiki/File:Pattern_Formation_from_Blue_Bottle_Experiment_in_R oom_Temperature.jpg). Y en lo tocante al experimento de la botella azul, he aquí los pormenores correspondientes: en pocas palabras, lo que va a contener la botella es una solución acuosa de hidróxido de sodio, glucosa y azul de metileno. En cuanto a sus cantidades, se toman aproximadamente 20 gramos de hidróxido de sodio, 20 gramos de glucosa y un mililitro de solución alcohólica de azul de metileno al 1 %, por litro de agua destilada. Por supuesto, en principio, suele recomendarse una alta pureza para estos reactivos, si bien con un grado de pureza menor, como USP o similar, se obtienen buenos resultados, circunstancia que permite reducir de forma ostensible los costos del experimento. De otro lado, no se justifica preparar tanto así comoun litro de la mezcla reactiva, pues, basta con, digamos, 100 mililitros. Por lo visto, los docentes norteamericanos no suelen tener las preocupaciones de sus colegas latinoamericanos en lo relativo a la escasez de recursos para docencia e investigación. Así las cosas, las cantidades de reactivas a tomar en cuenta quedan como sigue: glucosa, 2 gramos; hidróxido de sodio, 2,67 mililitros de solución comercial al 50%; azul de metileno, 3,13 mililitros de la solución preparada según se indicó más arriba; y agua destilada, 100 mililitros. Luego, se echan las cantidades indicadas de los reactivos en un matraz de Florencia de 250 mililitros, aunque puede servir así mismo una botella ordinaria limpia de similar capacidad. Se recomienda echar de último el azul de metileno. https://commons.wikimedia.org/wiki/File:Pattern_Formation_from_Blue_Bottle_Experiment_in_Room_Temperature.jpg https://commons.wikimedia.org/wiki/File:Pattern_Formation_from_Blue_Bottle_Experiment_in_Room_Temperature.jpg 25 Acorde con lo dicho antes, la reacción consiste en una botella casi llena a medias con un líquido incoloro que, al agitarlo con vigor, cambia su color a azul. Luego, al dejarlo reposar, cambia de nuevo su color a incoloro. Recuérdese que este proceso cíclico (agitar con vigor, cambio de color a azul, reposo de la solución y cambio de color a incoloro) puede repetirse muchas veces. En fin, como ya lo he destacado, el resultado es sencillamente espectacular. Y, junto con lo ya visto, conviene añadir lo relativo al correspondiente mecanismo de reacción para este experimento: CH + OH- ↔ C- + H2O O2 + D → DOX (etapa rápida) DOX + C- → X- + D (etapa lenta) Por ende, la reacción total es la siguiente: CH + OH- + O2 → H2O + X-. Aquí, D denota la forma reducida (incolora) del azul de metileno; DOX, la forma oxidada (azul) del mismo; CH, el carbohidrato (glucosa); OH-, el hidróxido de sodio; y X-, los productos de oxidación de la glucosa (ácidos arabinoico, fórmico, oxálico y eritrónico). En cuanto a la ecuación asociada para la cinética química respectiva, es la siguiente, con k como la constante de velocidad de reacción: velocidad = k[DOX][CH][OH-] Finalmente, conviene añadir que cuando el sistema tiende al equilibrio termodinámico, al cabo de varias horas, momento en el cual ya no se logra la alternancia de colores entre incoloro y azul, el sistema adquiere un color amarillo, inicialmente pálido, que, más tarde, se intensifica y dura así por varios días. Incluso, en tal situación, se presenta todavía una alternancia de colores entre un amarillo vivo (botella en reposo) y un amarillo sucio (botella agitada). De otra parte, las versiones posteriores de este experimento hacen uso de otros colorantes y otros carbohidratos, aunque los rasgos generales son los mismos. Para mayores detalles a este respecto a fuer de la riqueza y complejidad de este llamativo experimento, quiero señalar aquí algunas fuentes pertinentes, aparte de las mencionadas antes, a saber: L’ubica Adamčiková y Peter Ševčík (1997), Walter R. Vandaveer, IV, Mel Mosher y George L. Gilbert (1997); Steven C. Engerer y A. Gilbert Cook (1999); A. J. Pons, F. Sagués, M. A. Bees y P. Graae Sørensen (2000); Whitney E.Wellman, Mark E. Noble y Tom Healy (2003); Taweetham Limpanuparb, Pakpong Roongruangsree y Cherprang Areekul (2017); y Nicolas Dietrich et al. (2019). Y, en cuanto a una fuente de información más amplia sobre las reacciones químicas oscilantes, resulta de lo más oportuno un excelente libro de Alexander S. Mikhailov y Gerhard Ertl (2017). IV. De juguetes científicos notables: el pájaro bebedor En lo que al mundo de los juguetes atañe, existe una categoría especial por decir lo menos: la de los juguetes científicos. De facto, éstos gozan de una gran estima entre los educadores de los diversos niveles, sobre todo en el Primer Mundo, con el fin de facilitar la comprensión D de conceptos https://nyaspubs.onlinelibrary.wiley.com/action/doSearch?ContribAuthorStored=S%C3%B8rensen%2C+P+Graae https://nyaspubs.onlinelibrary.wiley.com/action/doSearch?ContribAuthorStored=S%C3%B8rensen%2C+P+Graae 26 tecnocientíficos. Naturalmente, la Termodinámica y la Fisicoquímica no son la excepción en lo que a esto concierne. De hecho, para ambas disciplinas, se cuenta con un diapasón variopinto de tales juguetes. Y, dicho sea de paso, esta clase de juguetes no es exclusiva tan solo de la niñez habida cuenta de que los seres humanos evolucionaron de una manera neoténica como la que más, esto es, sin abandonar sus patrones infantiles, un rasgo propio de nuestra especie, lo cual significa que los seres humanos suelen disfrutar del juego a lo largo de toda su vida. En otras palabras, el ser humano, entre otras dimensiones constitutivas, es homo ludens. Incluso, está importantísima dimensión humana, entre otros ámbitos, está muy presente en la historia de la ciencia y la tecnología, al igual que en la historia militar, como lo ha demostrado con suma elocuencia Johan Huizinga, filósofo e historiador neerlandés, cuya obra a este respecto, titulada precisamente como Homo ludens, se ocupa del estudio del juego como fenómeno cultural, por lo que no está limitada a los aspectos biológicos, psicológicos o etnográficos. Así, Huizinga (2007) concibió al juego cual función humana equiparable a la reflexión y el trabajo, con lo que complementa las imágenes propias del homo sapiens y el homo faber, así mismo constitutivas de la naturaleza humana. Figura 16. Pájaro bebedor (https://es.wikipedia.org/wiki/Archivo:Sipping_Bird.jpg). En especial, para fines educativos en asuntos termodinámicos y los que son afines, un juguete científico famoso y sugestivo es el pájaro bebedor, el cual ha sido incluido en un buen número de artículos y libros, tanto de carácter especializado como divulgativo, tal como, para muestra un botón, en Biografía de la Física, un libro fascinante de George Gamow, cuya lectura bien merece la pena. Entrando en algún detalle, un pájaro bebedor es un juguete científico que consta de un pequeño motor https://es.wikipedia.org/wiki/Archivo:Sipping_Bird.jpg 27 térmico, lo que le permite imitar el movimiento de un pájaro que bebe de una fuente de agua. Ahora bien, no se trata de un móvil perpetuo, como, en ocasiones, lo consideran en forma errónea las personas que comprenden mal las leyes naturales y sus limitaciones. En rigor, es una máquina térmica como la que más, cuyo foco caliente está en la parte baja, mientras el foco frío está en la cabeza, con una diferencia de temperatura entre ambos de unos 3 °C, lo cual implica una baja eficiencia térmica, aunque es suficiente para el movimiento de este llamativo artefacto lúdico. Figura 17. Otros dos modelos de pájaros bebedores (https://es.m.wikipedia.org/wiki/Archivo:Drinking_bird.jpg). Quien inventó este llamativo juguete fue Miles Vincent Sullivan, inspirado al observar una mañana, mientras desayunaba en una cafetería, una típica máquina de música americana, una Wurlitzer. En concreto, la parte exterior de la misma estaba decorada con bandas de colores por las que corrían burbujas en forma continua. A raíz de esto, Sullivan se preguntó sobre qué leyes físicas la hacían funcionar y si podrían aprovecharse para algo. El invento respectivo tuvo lugar en 1945 y al año siguiente, el 18 de junio, quedó patentado (Sabugo, 2016). Al final de este libro, como anexo, he incluido
Compartir