Logo Studenta

11630407

¡Este material tiene más páginas!

Vista previa del material en texto

Theorethikos 
Revista Electrónica 
Universidad Francisco Gavidia 
editor@ufg.edu.sv 
 
EL SALVADOR 
 
 
 
 
 
 
 
 
 
 
 
 
2000 
Vicente Pleitez 
LA BIOLOGÍA DEL SIGLO XXI: ¿SÓLO BIOLOGÍA? 
Theorethikos, año III, número 4, octubre-diciembre 
Universidad Francisco Gavidia 
San Salvador, El Salvador. 
 
 
 
 
 
 
 
 
 
Red de Revistas Científicas de América Latina y El Caribe 
Ciencias Sociales y Humanidades 
http://redalyc.uaemex.mx 
 
 
 
 
 
mailto:editor@ufg.edu.sv
http://redalyc.uaemex.mx/
 
 Año III, No 004, Octubre - Diciembre, 2000 
 
 
La Biología del Siglo XXI: ¿Sólo Biología? 
Vicente Pleitez 
Instituto de Física Teórica-UNESP 
Rua Pamplona 145 
01405-900, São Paulo, SP 
Brasil 
 
La biología molecular ha tenido en los último anos un desarrollo casi sin paralelo 
en la historia de las ciencias naturales. Podemos por tanto preguntarnos si esa 
nueva ``revolución'' científica tendrá algún impacto en países como El Salvador. 
Parece obvio que si, dado que casi todas las tecnologías derivadas de nuevos 
conocimientos científicos acaban por llegar, más tarde o más temprano, a nuestro 
país. Creo entonces que la pregunta mas importante es: ¿Podremos participar de 
esta revolución? O seremos como en el caso de las revoluciones científicas 
anteriores: completamente pasivos, comprando el producto de las aplicaciones 
tecnológicas con lo que ganamos exportando café y otros productos agrícolas o, 
últimamente, con el dinero que envían los salvadoreños que residen en el exterior. 
Siempre será necesario comprar tecnología y Estados Unidos de América es 
quizás el país que más compra tecnología (directa o indirectamente a través de las 
patentes hechas en ese país por investigadores e inventores de todo el mundo) 
pero son también el que más la produce. Es decir, si se tiene tecnología para 
vender se puede recuperar parte de los recursos utilizados en su compra, o aun 
tener ganancias como es el caso de los países ricos. 
En este artículo analizaremos brevemente las características que tendrá la 
biología del siglo XXI. Argumentamos que aunque la biología se convirtió en una 
ciencia cara, en la próxima etapa podrá volverse a la ciencia en pequeña escala 
como era en la primera mitad del siglo XX. Por completeza en el Apéndice 
hacemos un breve resumen de como se llegó a esta nueva e impresionante 
situación a partir de los trabajos del físico-botánico Gregor Mendel (1843-1884). 
La nueva biología 
El descubrimiento de la estructura del ácido desoxirribonucleico (ADN) y del 
código genético puede compararse sin duda alguna, como revolución del 
conocimiento humano, con la revolución en las leyes de la física producida por la 
mecánica cuántica en las primeras 3 décadas del siglo XX. Que la vida pudiera 
tener un código fue propuesto en 1954 por el físico George Gamow (1904-1968) 
(el mismo que propuso el hoy llamado modelo cosmológico estándar o más 
comúnmente de Big Bang. 
Siguiendo con las comparaciones, la reciente finalización del Proyecto Genoma 
Humano (PGH), es decir el secuenciamiento de los cerca de 100 mil genes que 
constituyen dicho genoma, puede compararse con la comprensión y control de la 
energía nuclear. (Como en el caso de esta última, surgen nuevos desafíos 
académicos, técnicos y éticos pero no los trataremos aquí.) De esta manera no es 
extraño que se diga con frecuencia que, así como la física fue la ciencia por 
excelencia del siglo XX, la biología lo será del siglo XXI. Sin embargo, al ocupar 
esta posición, la biología es a su vez afectada: se convirtió en una ciencia 
quantitativa, el elemento clave es la información que se encuentra en los 
corosomas. Ya no es la biología cualitativa, y poco precisa. Podemos decir que se 
ha matematizado. 
Se percibe fácilmente que los avanzos realizados por la genómica no serían 
posibles sin los computadores y los secuenciadores automáticos con tubos 
capilares. Sin su ayuda el PGH nunca hubiera sido finalizado en un período de 
tiempo razonable. El hecho que lo consiguiera le ha permitido concentrar su 
impacto como un conocimiento nuevo. Según el inmunologista Leroy Hood de la 
Universidad de Seattle, dos de los principales descubrimientos del PGH fueron la 
invención de los secuenciadores automáticos y la de los ``chips de ADN'' que son 
pequeños fragmentos de ADN y que permiten mirar la información contenida en 
una célula normal o cancerigena [1]. 
El biólogo Craig Venter, de Celera Genomics, montó el segundo mayor 
conglomerado de computadores del mundo solamente superado por el del 
Departamento de Estado de los Estados Unidos para la realización de 
simulaciones de explosiones nucleares [1]. En la Universidad de Seattle se creó 
un Instituto dedicado a la genómica en el cual mitad de las personas que 
trabajarán en él son matemáticos, físicos, especialistas de computación y 
químicos [1]. De hecho, en genética se sobreponen varias ramas de la biología y 
de otras ciencias: como química, física, matemática, sociología, sicología y, por 
último pero no menos importante, medicina. Por ejemplo, vale recordar que la 
genética populacional fue fundada en 1908 por el matemático ingles G. H. Hardy 
(1877-1947) y el biólogo alemán W. Weinberg y que a lo largo del siglo XX las 
contribuciones de físicos y 
químicos fueron fundamentales y, a veces, decisivas. Este es un aspecto 
importante: algunas de las actividades, como argumentaremos más adelante, 
podrán ser realizadas por grupos pequeños de investigadores, en contrapartida 
serán grupos multidisciplinarios. 
En el genoma humano están las instrucciones para el funcionamiento del 
organismo. Son cerca de 100 mil genes y cada uno de ellos está formado por una 
secuencia de 4 bases: Adenina (A), Guanina (G), Timina (T) y Citocina (T). 
Combinadas son cerca de 100 mil millones en el genoma humano. Si fueran 
impresas serian necesarios 7500 libros de 200 páginas cada uno (y todo eso 
existe repetidas veces en cada célula!). 
La consecuencia mas inmediata es en diagnósticos precoces (lo que crea un 
problema ético relacionado con la discriminación de una persona marcada 
anticipadamente por una enfermedad [2]. Sin embargo, el conocimiento del 
genoma humano no nos dirá como los 100 mil genes trabajan juntos para formar 
organismos humanos. Entender eso es una tarea que no podrá ser llevada a cabo 
solamente por los biólogos. Si las bases A, G, T y C son consideradas como 
siendo las letras del alfabeto genético, digamos que con el secuenciamiento 
terminado ahora conocemos las palabras con las que está escrito el libro de la 
vida. Ahora tenemos que leerlo! Esta segunda parte usualmente de genoma 
funcional. Será necesario entender no como funciona solo un gene o una proteína 
mas un sistema de genes o proteínas. La ciencia se hace cada vez más holista, 
trata de sistemas completos en vez de sus componentes. 
Con el genoma humano completado, se tendrá que estudiar cómo las diferentes 
partes del mismo interaccionan entre si para hacer funcionar al organismo. Para 
eso será necesario no sólo programas más sofisticados y computadores más 
rápidos, sino también será necesario desarrollar nuevos conceptos de modelaje 
estadísticos. Por ejemplo, para encontrar la información biológica en la secuencia 
de genes es necesario usar las ideas de la teoría de probabilidades y de la 
estadística. La razón por la cual la teoría de probabilidades es necesaria en 
genómica es que la secuencia de un genoma es el producto de millones de años 
de evolución y esta última tiene una gran componente de aleatoriedad. En 
particular esta característica se manifiesta aun más cuando comparamos genomas 
de organismos diferentes. De hecho, en ultima instancia será necesario 
secuenciar la biosfera completa para poder utilizar todos los recursos de la 
genómica en medicina o agropecuaria. Para esa enorme tarea serán necesarios 
también nuevos métodos teóricos y experimentales para entendercomo funciona 
la interacción entre moléculas. Tarea de químicos. Claro que eso también incluye 
nuevos entrenamientos para esos profesionales. Los físicos, por ejemplo, deben 
aprender mas química orgánica y bioquímica. (La primera también para poder 
tratar problemas de otra naturaleza como la del medio ambiente.) Será también 
necesaria una participación global en tal empresa. Cualquier país, pequeño o 
grande, no puede quedarse esperando a que se obtengan resultados para poder 
comprarlos. En un dado momento podría ser imposible comprarlos! 
Hasta el presente tener participación en la aventura científica fue considerado un 
lujo que países pobres no podían comprar. Se compraban solo sus aplicaciones, 
aun así parcialmente y de siempre atrasadas. Uno de los motivos es que 
realmente es caro hacer ciencia en gran escala. De hecho en el siglo XX la 
ciencia, representada por la física y la química, se hizo ``cara y grande''. En física 
y química cada vez más se pasaron a usar los métodos industriales de producción 
en masa con cientos de personas trabajando en cada proyecto. La actividad 
``artesanal'' representada por los ``talleres'' y academias europeas, importantes 
hasta el comienzo del siglo XX, no tuvieron más espacio [3]. 
Por otro lado, en la primera mitad del siglo XX la biología fue ciencia de pequeña 
escala. El laboratorio de Morgan podría haber estado en cualquier ``país de 
banana'' ya que la mayoría de sus aparatos eran botes de vidrio conteniendo miles 
de moscas de la fruta, la famosa Drosófila (además porque esa mosca, tan 
omnipresente en los laboratorios de genética a partir de Morgan, es alimentada 
con banana). Aun en la época de Watson y Crick (en los años cincuenta) el 
laboratorio de biología molecular era sencillo y hasta era menospreciado por el 
físico Lord Rutherford, quién en ese entonces era el director del Laboratorio 
Cavendish de Cambridge. Posteriormente, con los proyectos genoma, la biología 
se ha convertido en ciencia ``cara y grande''. 
Pero el secuenciamiento de un genoma es solo el primer paso. Y como 
mencionado arriba, es necesario entender el funcionamiento del genoma y eso 
podría hacerse, por lo menos en una cierta etapa, por grupos pequeños, bien 
preparados y creativos en las diferentes áreas del conocimiento. Así, después de 
una fase donde la manera de producción industrial domina el quehacer científico, 
en algunas áreas, parece que entraremos en otra era: la post-industrial en la cual 
grupos pequeños serán determinantes: a la manera de la Estación Zoológica de 
Nápoles fundada por el biólogo alemán Anton Dohrn, el Instituto Louis Pasteur de 
Paris, principalmente de 1885 hasta 1933; el grupo de físicos alrededor de Enrico 
Fermi de 1929-1934 y así otros ejemplos de grupos pequeños pero creativos [3]. 
Freeman Dyson recomienda áreas que tengan un carácter artesanal como 
escogitación del desarrollo. En la actualidad dos de ellas lo son manifiestamente: 
la informática y la biotecnología [4]. En estas dos áreas se pueden realizar 
grandes descubrimientos trabajando en grupos pequeños. En informática sólo la 
industria de hardware (computadores) es ya de gran escala, la de software 
(programas) no lo es. Además, aunque crear programas continua siendo realizado 
de manera artesanal, y es una actividad que ser estimulada, actualmente es más 
interesante la utilización creativa de los programas ya existentes. 
Una característica que nunca será demasiado enfatizar es la impredecibilidad de 
los resultados de la investigación científica. El transistor no se inventó para que 
pudiéramos tener la internet; la espectroscopia de masa de alta resolución y la 
isotópica no fueron inventadas para que pudieran ser usadas en las pruebas anti-
dopping en las olimpíadas de Sidney. Sin embargo, todas las aplicaciones antes 
mencionadas no serían posibles sin los descubrimientos fundamentales realizados 
con objetivos bien diferentes. El fin último de la ciencia es conocer el mundo, sin 
embargo los conocimientos adquiridos hasta la fecha tienen un número tan grande 
de aplicaciones que podría parecer que no es necesario que hayan más 
descubrimientos fundamentales para mantenernos ocupados, las próximas 
décadas o siglos, con descubrir las dichas aplicaciones. De ahí el énfasis en la 
investigación induzida. Pero esa manera de pensar no lleva en cuenta que nuevos 
descubrimientos impredecibles, podrán hacer que algunas de las aplicaciones que 
son actualmente posibles puedan ser realizadas de manera más barata y eficiente 
por nuevos cuadros conceptuales y otras que no son factibles con los 
conocimientos actuales pueden volverse realizables con los nuevos 
conocimientos. La investigación espontánea, dirigida por la simple curiosidad 
continuará a traernos sorpresas. Y más aun, en las áreas de la informática y 
biotecnología se podrían llevar a cabo con laboratorios casi caseros. En ambos 
casos serán necesarios computadores que ya son usados en casi todos las 
actividades aun en países como El Salvador. La mayoría de los proyectos podrían 
ser induzidos, aunque algunos pudrían ser de tipo espontáneo. 
Un elemento clave es sin duda la internet. Creada por los físicos del CERN por 
otros motivos que no eran los que ahora conocemos, es una manera de obtener 
información actualizada de las más diversas áreas del conocimiento. Por ejemplo, 
los resultados de los diferentes proyectos genomas están disponibles en internet 
[5]. Es decir, no es la falta de información, que siempre fue un factor en contra de 
los países periféricos, la que nos mantendrá atrasados: sino la falta de formación. 
El gobierno, sus órganos de financiamiento y las universidades deben comprender 
eso. 
En biotecnología se podría montar grupos para estudiar cual es el organismo, 
bacteria o virus, cuyo genoma interesa a nuestra agricultura o a la salud pública. 
Una vez identificado ese organismo, como los datos de los diversos genomas son 
de dominio público (aun se está discutiendo lo que será posible patentar) se 
formarían grupos de investigación para estudiar el respectivo genoma. Si no 
existiera en la base de datos, se estudiaría la posibilidad de que algún laboratorio 
pueda hacer el secuenciamiento. En este último caso tendría necesariamente que 
existir un grupo de biólogos, químicos, físicos y matemáticos salvadoreños los 
cuales acompañarían el desarrollo del proceso. Posteriormente ese grupo se 
dedicaría al estudio funcional de dicho genoma. De repente podríamos estar 
vendiendo bio-programas o patenteando el funcionamiento de determinados 
genes! 
Podemos decir que la genética moderna nació en 1900, aunque el termino fue 
acuñado por W. Bateson (1861-1926) en 1906, con el redescubrimiento de las 
leyes de Mendel por Carrens, von Seysenegg y De Vries (ver Apéndice). En 1900 
también fue descubierto el quantum de luz por Max Planck. Poco mas de un siglo 
nos separan de esos acontecimientos. Aunque se sabe como producir bienes 
materiales no se sabe como producir ideas. Aun intrigan a la ciencia la invención, 
sus propios descubrimientos y la creación artística. Por eso creo que la aventura 
científica está solo comenzando y además que en biotecnología e informática se 
está volviendo al esquema de grupos pequeños, como en Europa antes de que el 
``scientific management'' de Ford y otros ganaran su lugar en la producción 
industrial y llevaron a una especialización de tareas. Ese esquema fue útil en 
áreas como la física de aceleradores y en los vuelos espaciales y mas 
recientemente en los proyectos genoma. Pero en el futuro cercano, repito, podría 
volverse a las tradiciones de los talleres renacentistas y de las academias. La 
perspectiva post-PGH es un tema de gran actualidad y urgencia ,no podemos 
evadirlo [6]. 
En Brasil se ha desarrollado el primer proyecto genoma de América Latina [7]. Lo 
interesante es que es una institución virtual. Los investigadores continúana 
trabajar en su respectiva institución (más de 30 entre universidades y laboratorios 
particulares), los datos se recogen y analizan vía internet. No fue necesario 
construir un edificio, aunque quizás en el futuro si sea necesario hacerlo. Cada 
país en América Latina podría seguir, según sus propias limitaciones económicas, 
este camino. El Proyecto Genoma Humano se volvió caro debido al tiempo en que 
fue necesario realizarlo. Las técnicas empleadas normalmente son más baratas y 
pueden llevarse a cabo a diferentes escalas de inversión. 
Creo que Francis Bacon tenía razón cuando dijo: ``ninguna acción de buen 
gobierno es más valiosa que el enriquecimiento del mundo con conocimiento 
confiable y fértil'' [8]. Pero en 1900, año de la genética y del quantum, en estos 
tristes trópicos alguien le daba tres tiros a la desdichada Rosita Alvires! 
Apéndice 
 
Breve reseña histórica [9-12] 
 
Gregor Mendel (1843-1884) descubre en 1865 las leyes matemáticas de la 
herencia. Es decir, como los caracteres hereditarios como el color de los ojos, se 
transmiten de una generación a otra. Mendel estudió física en Viena antes de 
dedicarse a ese tipo de experimentos. Según él, debía haber unidades de la 
herencia que llamó ``factores''---que más tarde serían identificados con los genes--
-que se encuentran emparejados y que se dividen en los descendientes. En 1892 
el alemán Walter Flemming (1843-1905) fue el primero en observar y describir 
sistemáticamente el comportamiento de los cromosomas durante la división celular 
(mitosis) fundando con eso la ciencia de la citogenética. En 1900 el alemán C. E. 
Correns (1864-1933), el austriaco E. T. von Seysenegg (1871-1962) y el holandés 
Hugo de Vries (1848-1935) redescubrieron, independientemente, las leyes de 
Mendel que habían estado sin ser notadas por la comunidad de botánicos hasta 
ese momento. De Vries fue quién acuño el término: mutaciones para denotar a las 
variaciones espontáneas y aleatorias de las especies. Reconoció que esas 
variaciones serían diferentes de las de la selección natural de Charles Darwin 
(1809-1882) y que permitirían el estudio experimental de la teoría de la evolución. 
En 1903 el americano W. Sutton (1877-1916) aplica la primera y la segunda ley de 
Mendel al comportamiento de los cromosomas durante la meosis (proceso de 
división de las células sexuales). Sutton dio la primera evidencia de que los 
cromosomas son los portadores de las unidades de la herencia (genes) y que 
ocurren en pares. Es decir, identificó los cromosomas a los ``factores'' de Mendel. 
En el año de 1908 el inglés A. E. Garrod estableció los cimientos de la bioquímica 
genética, estudiando algunas enfermedades hereditarias llegó a la conclusión que 
se debían a la falta de ciertas enzimas normalmente fabricadas por el organismo. 
En 1909 T. H. Morgan (1866-1945) determinó el papel de los cromosomas en la 
herencia provocando mutaciones artificiales en la mosca Drosófila. Esta fue la 
primera vez que experimentos genéticos eran realizados con animales y no con 
plantas. El grupo de Morgan demostró que i) los ``factores'' de Mendel formaban 
parte de los cromosomas, fundando con esto la teoría cromosómica de la 
herencia; ii) una situación en que la segunda ley de Mendel era evadida: ciertos 
pares de caracteres permanecen juntos en generaciones sucesivas, se dice que 
están ligados. Lo normal es el entrecruzamiento o recombinación cuando hay 
intercambio de porciones de cromosomas y sí vale la segunda ley de Mendel. H. J. 
Muller (1890-1967) estableció que los genes están alineados en los cromosomas y 
que hay una correspondencia entre la frecuencia del entrecruzamiento y la 
longitud de los cromosomas. Después de los trabajos de Muller con mutaciones se 
aceptó que los genes tienen una existencia física que puede cambiarse por 
factores externos y pueden ser heredados. La variación en la evolución es a través 
de mutaciones aunque, como demostró Muller, en el hombre no son las 
radiaciones las que inducen las mutaciones. (Morgan ganó el premio Nóbel de 
Medicina y Fisiología en 1933. Muller lo recibiría en 1947). En 1913 el ayudante de 
Morgan, A. H. Sturtevant (1871-1970), desarrolló una técnica para la localización 
de los genes de la Drosófila. 
En aquel año el danés W. L. Johannsen (1857-1927) acuño los términos gen, 
genotipo (conjunto de la información genética), fenotipo (características visuales 
de un individuo). Los trabajos de Johannsen con nuestro apreciado frijol 
(Phaseolus Vulgaris) dieron soporte a la teoría de las mutaciones de De Vries. El 
americano E. M. East (1879-1938) y el sueco H. Nielsson-Ehle (1873-1940) 
descubren, en experiencias con maíz, que es posible que más de un gene puede 
intervenir en la formación de un carácter determinado. Estos experimentos 
demostraron la universalidad de las leyes de Mendel poniendo punto final a la 
controversia entre mendelianos como Bateson y biometristas como Francis Galton 
(1822-1911). Este último aplicaba las leyes de la estadística, técnica recién 
elaboradas, a las características cuantitativas como la altura (las leyes de Mendel 
serian válidas para las características cualitativas) las cuales serían, según los 
biometristas, importantes para la evolución de las especies. Galton fue quién 
acuño el nombre eugenia! . 
En 1941 los bioquímicos americanos G. W. Beadle (1903-1989), E. L. Tatum 
(1909-1975) establecieron la relación entre los genes y las enzimas: ``un gene una 
enzima''. Ahora sabemos que no es bien eso, hay enzimas que son producidas por 
la acción de varios genes y un gene puede colaborar para la fabricación de varias 
enzimas. De cualquier forma los trabajos de Beadle y Tatum fundarían lo que 
Garrod había entre visto, la genética bioquímica o genética molecular: todos los 
procesos bioquímicos en todos los organismos son, en última instancia, 
controlados por los genes. Con J. Lederberg (1925-~), Tatum descubrió el 
mecanismo de la recombinación de genes en bacterias (E. coli). Lederberg y N. 
Zinder (1928-), estudiando los virus que infectan bacterias (bacteriofagos o 
simplemente fagos), descubrieron el fenómeno de transducción genética. Este es 
un proceso de recombinación genética en bacterias, los genes de una célula 
huésped de la bacteria son incorporados en el genoma del bacteriófago y luego 
son llevados a otra célula huésped donde el virus inicia otro ciclo de infección. 
Garrod, Tatum e Lederberg ganaron el Premio Nóbel en 1958. En 1942 Dorothy 
Crowfoot Hodgkin, trabajando en el legendario Laboratorio Cavendish, determinó 
mediante estudios de rayos-X la estructura molecular de la penicilina y por eso 
ganaría el Premio Nóbel de química en 1964. 
Desde el punto de vista químico, el ácido desoxirribonucleico (ADN) era conocido 
desde 1868 cuando fue sintetizado por el suizo Friedrich Miescher, pero solo fue 
en 1944 que O. T. Avery (1877-1955), C. MacLeod y M. MacCarthy (1911-) 
logrando la transferencia de propiedades hereditárias de una bacteria para otra 
demostrando así que el material genético está compuesto de ADN. había 
comenzado la biología molecular, una especie de síntesis entre bioquímica y 
genética y un poco más. En 1944 el físico E. Schrodinger (1867-1961) reconoce 
que los genes pueden ser un tipo de quasi-cristales. Seria otro físico Max Delbruck 
(1906-1981), premio Nóbel de Fisiología y Medicina de 1969, quien trazó las 
grandes líneas de la transmisión genética. 
A finales de los años 40 Erwin Chargaff descubre la relación uno-a-uno entre la 
adenina y la timina (A-T) y entre la citosina y la guanina (C-G). Otros físicos, el 
neozelandés Maurice Wilkins (1916-) y el químico Max Perutz (1914-) extienden la 
técnica de difractometria de rayos-X, desarrollada por los físicos William Bragg 
(1862-1942) y Max von Laue (1879-1960) para el estudio de la estructura 
cristalina, al estudio de la estructura de las proteinas. Esas técnica habíansido 
usadas para moléculas grandes como el virus del tabaco por el física J. D. Bernal 
(1901-1971) quién implemento la área de cristalografía de proteínas en el 
laboratorio Cavendish. En 1952 la bióloga Martha Chase y el químico Alfred 
Hershey (1908-1997) demuestran que el ADN, y no las proteínas, es la molécula 
de la herencia. (Delbruck, Hershey y el italiano Salvador Luria (1912-1991) 
ganaron el Premio Nóbel de Medicina y Fisiología de 1969.) Estaba preparado el 
camino para que en 1953 el físico Francis Crick y el biólogo James Watson 
descubrieran la estructura de la doble hélice del ADN. 
Ellos notaron que la adenina solo se combina con la timina (enlaces A-T) y la 
guanina solo con la citosina (enlaces C-G). En 1961 Crick estableció que cada 
grupo de tres bases o triplete (codones) sobre cada uno de los hilos del ADN 
codifica a los 20 aminoácidos que normalmente se encuentran en una proteína. 
Por otro lado, Watson determinó el papel del ácido ribonucleico (ARN) en la 
síntesis de las proteínas. en 1968 los citoquímicos suecos T. O. Caspersson 
(1910-) y L. Zech inventaron un proceso de identificación de cromosomas 
permitiendo que el mapeamiento de genes fuera realidad. Ellos observaron que 
los genes tienen diferentes proporciones de los cuatro nucleotideos básicos A,T, G 
y C y que un producto químico que tenía afinidad con la base G y colorearon los 
cromosomas con ella. De esa forma Caspersson consiguió identificar lso 
cromosomas humanos individuales. Posteriormente fueron desarrollados otros 
colorantes afines con las otras bases. En 1969 L. Eron, J. Shapiro y J. Beckwith 
aislaron por primera vez un único gene, el de la lactosa de la omnipresente E. Coli. 
En 1971 el hindú Har Gobind Khorana (1922-) sintetizó por primera vez en gene 
del aminoácido alanina y que está constituido por 77 pares de bases. Khorana, M. 
W. Nirenberg (1927-) y R. W. Holley (1922-1993) recibieron el Premio Nóbel de 
Medicina y Fisiología de 1968. En 1972 Paul Berg y colaboradores producen la 
primera molécula de ADN recombinante. Podemos decir que la ingeniería genética 
moderna comienza cuando Stanley Cohen, Herbert Boyer y colaboradores 
insieren un gene de un sapo en una bacteria. 
En 1986 se anuncia The Human Genoma Initiative, después llamado The Human 
Genoma Project que pretende colocar el catálogo completo de los genes 
humanos. En 1988 se crea el National Center for Genoma Research. En 1995 el 
Institute for Genomics Research da a conocer el primer secuenciamiento completo 
del genoma de un organismo: la bacteria Haemophilus influenzae. En 2000 se 
anuncia el primer ``borrador'' del genoma humano. 
Bibliografía 
 
[1] M. Teixeira, NOTICIAS/FAPES, Cuadernos Especiales, vols. 43 y 
44 (1999). 
[2] T. Wilkie, Projeto Genoma Humano, Jorge Zahar Editor, Río de Janeiro, 1994. 
[3] E. De Masi, A Emoção é a Regra, José Olympio, 
Río de Janeiro, 1999. 
[4] F. Dyson, El Sol, el Genoma e Internet, Debate, Barcelona, 2000. 
[5] www.sanger.ac.uk y www.genome.wustl.edu/gsc . 
[6] C. Ezzell, Scientific American 283(1), 52 (2000). 
[7] www.fapesp.br , www.genome.ad.jp y www.tigr.org/cet . 
[8] Citado en C. H. de Brito Cruz, PESQUISA/FAPESP 55, 5 (2000). 
http://www.sanger.ac.uk/
http://www.genome.wustl.edu/gsc
http://www.fapesp.br/
http://www.genome.ad.jp/
http://www.tigr.org/cet
[9] Fue consultado la Encyclopaedia Britannica Online; y 
la página en Internet del Museo electronico de la Fundación Nóbel 
www.nobel.se/index.html . 
[10] G. Messadié, Los Grandes Descubrimientos de la Ciencia, 
Alianza Editorial, Madrid, 1995. 
[11] A. Barahona y D. Piñero, Genética: La 
continuidad de la vida, Fondo de Cultura Económica, México, 1994. 
[12] E. S. Lander y R. A. Weinberg, Science {\bf287}, 
1777 (2000). 
 
 
 
 
http://www.nobel.se/index.html
	Theorethikos
	
	el salvador
	2000
	Theorethikos, año III, número 4, octubre-diciemb
	Universidad Francisco Gavidia
	San Salvador, El Salvador.
	Año III, No 004, Octubre - Diciembre, 2000

Continuar navegando