cincuenta años de adn la doble hélice

Transcripción

cincuenta años de adn la doble hélice
1
CINCUENTA
AÑOS DE ADN
LA DOBLE HÉLICE
PEDRO GARCÍA BARRENO, ED.
ESPASA FÓRUM
– ENSAYO y PENSAMIENTO
SOCIEDAD ESTATAL DE CONMEMORACIONES CULTURALESMADRID
2003
2
Jan Cossiers (siglo XVII) - Museo del Prado, Madrid.
«Behold’st thou not two shapes from the east and west
Come, as two doves to one beloved nest,
Twin nurslings of thee all-sustaining air
On swift still wings glide down the atmosphere?»
Percy Bysshe SHELLEY
(Prometheus Unbound, Act I)
A Francis Harry Compton Cricck
Y James Dewey Watson.
3
INTRODUCCIÓN
«We wish to suggest a structure for the salt of deoxyribose acid (D.N.A.). This structure has novel features
which are of considerable biological interest».
Esas palabras representan la culminación de un brillante trabajo que supuso la llave de la biología
molecular y de la biotecnología. James Dewey Watson y Francis Harry Compton Crick resolvieron el
rompecabezas formado por las diferentes piezas confeccionadas por diversos científicos y cuyo resultado —–
A structure for deoxyribose nucleic acid— fue publicado por la revista Nature en su número 4356,
correspondiente al día 25 de abril de 1953. El trabajo —conciso, comprensible y sólido— establece cuatro
características incuestionadas: la molécula de ADN está formada por dos cadenas, antiparalelas,
complementarias, que se enrollan sobre un eje común de simetría en una conformación en doble hélice. El
trabajo concluye:
«It has not escaped our notice that the specific pairing we have postulated immediately suggests a possible
copying mechanism for the genetic material»
Ello despejó las dudas sobre la naturaleza del material genético, hasta entonces en pugna con las
proteínas, y supuso la explosión de la genómica, la consolidación de la medicina molecular y el despegue de
una industria de imprevisible futuro. Tal vez, el trabajo más influyente de la biología contemporánea.
Todo ello hace que las «bodas de oro» de la «doble hélice» sean un acontecimiento celebrado por los
científicos, para quienes ha supuesto una herramienta conceptual inagotable, y por la sociedad, para la que
abrió las puertas a una nueva medicina y a una industria sin fronteras.
La ciencia, en ocasiones, se comporta más como un péndulo que como el camino de
progreso descrito, normalmente, en los libros y en los medios de comunicación. Una idea
puede oscilar entre dos extremos. Una de ellas es si los genes son o no, reales. En efecto,
durante los últimos 150 años, la idea de la herencia ha estado sometida a las oscilaciones de
un péndulo conceptual entre un gen real y otro abstracto1.
La palabra «gen» fue acuñada por Wilhelm Ludvik Johannsen, un botánico danés que
presenció el cambio secular del XIX al XX. Durante los cuarenta años precedentes, Gregor
[Johann] Mendel, Charles Darwin y muchos otros científicos habían propuesto teorías de cómo
los rasgos hereditarios pasaban de una a otra generación. Para Mendel, el padre canónico de
la genética, los caracteres —Merkmale— deberían yacer en el núcleo de la célula, pero no
distinguió entre los rasgos observables y los elementos hereditarios que los producen. Para
Mendel, tales elementos eran pura abstracción. Una abstracción útil para comprender los
patrones de herencia.
Los elementos hereditarios propuestos por Darwin fueron más tangibles. Desconocedor
del trabajo de Mendel, Darwin dio a conocer su hipótesis de la pangénesis en 1868; los
caracteres hereditarios eran transportados en unas partículas —gémulas— cuya gemación
ocurría en todos los tejidos del organismo, siendo recolectadas en las células reproductoras
donde permanecían en espera de pasar a la progenie. Al físico James Clerk Maxwell no le
gustó la idea: «Algunos exponentes de la teoría —manifestó Maxwell— intentan eludir la
dificultad de ubicar un mundo de maravillas en un corpúsculo tan pequeño [las gémulas]
privado de una estructura definida». Algo equivalente al misticismo.
__________________________________________________________________________________________
1. Comfort, N.C. (2001) Are genes real? Natural History, 110 (5): 28-37.
4
Sin embargo, en la última década de los 1800s ni la teoría de Mendel ni la teoría de
Darwin tenían influencia alguna. Mendel murió en 1884 y su publicación seguiría ignorada
hasta la vuelta del siglo, y la pangénesis fue, simplemente, rechazada. Las teorías de la
herencia construidas en las décadas de 1880s y 1890s, también asumieron la existencia de
partículas hereditarias reales, físicas, que recibieron nombres exóticos como «ids», «bióforos»
y «pangenes».
Cuando los principios de Mendel, con su concienzudo tratamiento matemático de la
herencia, fueron redescubiertos en 1900 el péndulo osciló hacia las teorías abstractas del gen.
William Bateson, un biólogo inglés, vio en las unidades abstractas un arma útil para atacar la
idea darviniana de las variaciones continuas en la naturaleza. Thomas Hunt Morgan, un joven
embriólogo norteamericano siguió los pasos de Bateson. En 1903, Walter Stanborough Sutton,
un citólogo de igual nacionalidad, ofreció una explicación de los principios de Mendel
sugiriendo que los elementos mendelianos se localizaban en los cromosomas. Dos años
después, el genetista Nettie Stevens, uno de los primeros estudiantes de Morgan, demostró
que el sexo estaba asociado con un misterioso y accesorio cromosoma (cromosoma X).
Morgan, sin embargo, se mostró escéptico; pero en 1910, abruptamente, tomó la dirección
opuesta. Experimentos de cruzamiento revelaron que el color de los ojos se heredaba junto con
un “factor” que determinaba el sexo. Los resultados de Sutton no pudieron ignorarse: color de
los ojos y sexo estaban ligados por asociación con el cromosoma X.
Morgan y sus discípulos hicieron a los genes, otra vez, reales. Durante los años
siguientes desarrollaron los primeros mapas génicos, asignando los genes para diversos
rasgos en diferentes cromosomas, y midieron la distancia entre genes en términos de la
probabilidad de que dos rasgos se heredaran juntos. Para aquellos genetistas de la mosca un
gen era algo parecido a un locus, un punto físico en un cromosoma. En 1922, Hermann Joseph
Muller, otro de los estudiantes iniciales de Morgan, fue más lejos describiendo los genes como
partículas ultramicroscópicas.
Los integrantes de esta “clásica” escuela de genética ignoraron la cuestión de la
composición de los genes; el interés lo centraban en qué hacían. Trabajando con el hongo
Neurospora, George Wells Beadle, un genetista, y Edward Lawrie Tatum, un químico por
formación, apuntaron una elegante contestación en 1941. Identificaron mutaciones genéticas
que interrumpían pasos específicos en la síntesis de una molécula compleja. Conocían por los
bioquímicos que cada paso metabólico está catalizado por una enzima particular; concluyeron
que cada mutación noqueaba una enzima. En genética clásica los genes habían sido definidos
como “cosas” que, cuando mutaban, cambiaban un rasgo: una mutación, un gen. Beadle y
Tatum redefinieron la definición mostrando que un gen era «algo» en un cromosoma que
especificaba una enzima: un gen, una enzima. Según el trabajo de Beadle y Tatum fue siendo
aceptado, más y más científicos se fueron adhiriendo a la hipótesis de la realidad de los genes.
Cuando, en 1953, James Dewey Watson y Francis Harry Compton Crick publicaron sus dos
trabajos describiendo la doble hélice de ADN, el que esta molécula es el material genético era
una idea ampliamente aceptada. La genialidad del modelo W-C fue que la estructura de la
molécula y la estructura del gen son una y la misma cosa. Quedó establecido que un gen era
una secuencia particular de subunidades nucleotídicas en las bandas del ADN (Capítulos 1 3).
Para la mayoría de los genetistas el descubrimiento de la doble hélice zanjó,
inequívocamente, el debate a favor de la realidad génica, aunque quedó algún incrédulo.
Cuentan que el bioquímico ruso Vladimir Engelhardt relataba una anécdota sucedida en un
encuentro con su compatriota el agrónomo Trofin Denisovich Lysenko, quién había abjurado de
Mendel y de Darwin. Lysenko, ante un vial de ADN liofilizado, exclamo: «El ADN es un ácido;
los ácidos son líquidos; eso es un polvo. No puede ser ADN».
5
Pero no habían pasado más de cuatro años de la publicación de Watson y Crick, cuando el
suelo bioquímico se tambaleó de nuevo. Seymour Benzer, un físico reconvertido en genetista
viral, de la Universidad de Purdue, propuso que existía más de un tipo de gen, y sugirió el
término «cistrón» para referirse a un segmento de ADN que codifica una proteína. En esencia,
el cistrón era el gen de Beadle y Tatum expresado en el lenguaje de Watson y Crick. El término
hizo mella y aún se utiliza. Por su parte, «recones» y «mutones», otros tipos de gen propuestos
por Benzer cayeron en el olvido. Ello sirvió, sin embargo, para que surgieran fisuras en el
término monolítico de gen.
Mientras tanto, un grupo de genetistas franceses, liderados por Françoise Jacob y
Jacques Monod, mostró que las fronteras de los genes eran más imprecisas de lo que los
biólogos habían supuesto. Primero, los genes trabajan, a menudo, en grupo; Jacob y Monod
describieron el gen como un conjunto de «genes estructurales» que codifican proteínas, y
«genes reguladores» que activan o silencian a aquellos en respuesta a las señales celulares.
Más aún, Jacob y Monod demostraron que los genes no se restringen a los cromosomas;
encontraron elementos génicos libres, denominados episomas y plásmidos, en bacterias, y que
otros investigadores pronto localizaron también en los organismos superiores. Mitocondrias -las
plantas intracelulares productoras de energía- en las células animales y cloroplastos en las
células vegetales poseen sus propios genes, heredando sus características de manera
independiente de aquellas que residen en los cromosomas.
En 1967, James Shapiro, un norteamericano que en aquellas fechas trabajaba en
Londres y Sankhar Adhya, de la Universidad de Wisconsin, dieron otra vuelta de tuerca:
regiones del ADN bacteriano pueden separarse por sus propios medios del lugar que,
normalmente, tienen asignado en el cromosoma y reinsertarse, sin ayuda alguna, en otro sitio.
Llamaron a esas regiones «elementos móviles de inserción». Veinte años antes, Barbara
McClintock, una brillante genetista del maíz en la Institución Carnegie de Washington, había
demostrado que ciertos elementos cromosómicos —no creyó que fueran genes— podían
mudarse, pero fueron Shapiro y Adhya los que primero advirtieron como se desarrollaba dicha
mudanza. Diez años después, los elementos de inserción eran un acontecimiento universal.
Las bacterias los utilizan para pasarse los genes que confieren resistencia a los antibióticos;
una de las principales razones de que las cepas resistentes se difundan con tanta rapidez. Los
elementos de inserción capacitan a los retrovirus (VIH o virus del sida, por ejemplo) para
incorporar sus genes en los cromosomas hospedadores. Hacia 1980, los biólogos habían
aceptado que ciertos genes se mueven, de manera rutinaria, dentro de un cromosoma y entre
cromosomas; dentro de una especie y entre especies. Los genes móviles torpedearon la idea
del gen como un locus en el cromosoma. Un gen pasó a ser «uno o más segmentos de ADN
que especifican una proteína». El ADN es transcrito en un producto intermedio denominado
ARN, que transborda el mensaje genético a los ribosomas, donde es traducido en una cadena
polipeptídica.
En 1977 dos grupos de investigación, uno dirigido por Richard J. Roberts en el Cold
Spring Harbor Laboratory, y el otro liderado por Phillip A. Sharp en el MIT, encontraron que
numerosos segmentos de ADN que constituyen un solo gen se encuentran dispersos en un
cromosoma; segmentos que, una vez transcritos en un preARN serán unidos en la molécula
del ARN mensajero. Más aún, esos mismos segmentos pueden reagruparse combinándose de
diferentes guisas, de tal manera que «un solo gen» es capaz de producir una familia de
productos: un gen, a veces, varias enzimas. Y la historia sigue complicándose. Los biólogos
han encontrado genes dentro de genes, y genes que se solapan. Y, en algunos casos, la
misma secuencia de ADN especifica una proteína si se lee de derecha a izquierda, y otra
proteína cuando se lee de izquierda a derecha. Por su parte, en el fenómeno conocido como
«edición» del ARN, un «salteador» intercepta el ARN en ruta hacia el ribosoma y lo modifica,
con lo que la proteína resultante de la traducción del ARN revisado no corresponde a la
6
especificada por el ADN. En resumen, las instrucciones codificadas en el ADN no siempre
alcanzan los ribosomas como una transcripción exacta.
De alguna manera, aunque se ha validado la realidad del gen, éste, de nuevo, se
parece más a un ideal. Poco debe sorprender que algunos, como el historiador y filósofo de la
biología Evelyn Fox Séller, hayan propuesto revisar el término gen y sustituirlo por otro que
exprese mejor el dinamismo de los cromosomas. El ADN no está formado por unidades
discretas con bordes nítidos; lo está por secuencias que metamorfosean, reptan y se reciclan
(Capítulos 4 – 6).
El péndulo sigue su movimiento oscilatorio. De la mano de la secuencia del genoma,
uno de los temas más candentes de la actualidad es la utilización de chips de ADN para
obtener fotos panorámicas de la actividad de los diferentes genes en una célula. El investigador
puede observar, de una tacada, qué genes se activan en una situación determinada. Es una
herramienta poderosa y con un prometedor futuro en biología del desarrollo, en medicina —
diagnóstico y predicción— y en el descubrimiento de nuevos fármacos. También, las
particularidades del genoma permiten identificar sus «huellas dactilares» y bucear en la
evolución de la especie humana. Todo ello de la mano de potentes herramientas de
computación. Por su parte, los chips de ADN, de nuevo, hacen reales a los genes al imponer
fronteras nítidas entre ellos. Y el péndulo completa otra oscilación. El siguiente movimiento
ofrecerá, sin duda, nuevos conocimientos (Capítulos 7 – 14).
Deseo agradecer a la Sociedad Estatal de Conmemoraciones Culturales, y
especialmente a su director Luis Miguel Enciso Recio, su disposición para sumarse a las
diferentes iniciativas que, las distintas instituciones científicas de todo el mundo, han
organizado para celebrar los “cincuenta años de ADN”. Una acción explicitada en la edición,
de la mano de Editorial Espasa Calpe, S. A., de este libro. Mi cordial gratitud y sincero afecto a
los autores —Begoña Aguado, Ángel Carracedo, José A. Melero, Francisco Montero, Lluis
Montoliú, Andrés Moya, Emilio Muñoz, Juan Ortín, José M Sánchez Ron, Eugenio Santos,
Eduardo Úrculo y Alfonso Valencia—, quienes respondieron con prontitud a la llamada para
sumarse a esta iniciativa. Gratitud que hago extensiva a Dolores Cruz, editora. Y, ante todo,
nuestro reconocimiento y felicitación a Francis Harry Compton Crick y a James Dewey Watson,
por su biscincuentenario.
Pedro García Barreno
Madrid, Navidades 2002
PAZ y BIEN
7
Watson y Crick delante del modelo del ADN (En: James D. Watson, The Double Helix. A Personal
Account of the Discovery of the Structure of DNA. A Signet Book – The New American Library,
New York 1969).
8
2
SENDERO DE ADN
Pedro García Barreno
____________________________________________________________
LOS CIMIENTOS QUÍMICOS
Hacia 1820, hidratos de carbono, grasas y proteínas habían sido reconocidos como
distintos ingredientes de los organismos vivos. Habrían de pasar cincuenta años antes de que
Miescher identificara un cuarto componente. Friedrich Miescher nació, en 1844, en Basilea, en
cuya universidad estudió medicina. Su formación como químico tuvo lugar en el laboratorio de
Felix Hoppe-Seyler, en la Universidad de Tübingen. Su intención fue estudiar la química del
núcleo celular, para lo que necesitó células ricas en «núcleo» y pobres en «citoplasma»:
leucocitos.
Miescher obtuvo leucocitos a partir del pus de heridas infectadas. Lavaba los vendajes
con sulfato sódico para separar las células, eliminando la grasa con alcohol caliente y
disolviendo las células con ácido hidroclorhídrico diluido; ello precipitaba los núcleos, de los
que eliminaba las proteínas mediante digestión con un extracto de estómago porcino (rico en la
enzima proteolítica pepsina). Cuando los núcleos así purificados eran disueltos en álcali diluido
y luego neutralizado, se obtenía un precipitado floculante. Este material, que Miescher
denominó «nucleína», contenía 14% nitrógeno, 6% fosfato y 2% azufre, además de carbono,
hidrógeno y oxígeno. El contenido de nitrógeno era similar al de las proteínas, y el contenido de
fosfato al de la lecitina, un fosfolípido que acababa de descubrirse. Dado que nitrógeno y
fosfato parecía que estaban presentes en la misma sustancia, Miescher concluyó que «es muy
probable que tengamos una sustancia sui generis, no comparable a cualquier otro grupo hasta
ahora conocido»1. La composición elemental sugiere que las primeras preparaciones de
nucleína fueron una mezcla de diferentes componentes. Con todo, el estudio de Miescher de
1869 —publicado en 1871— representa la primera preparación conocida del material que
llegaría a conocerse como «ácido desoxirribonucleico» (ADN). Miescher intuyó que debería
tratarse de una molécula de gran tamaño, y que en el esperma de salmón aparecía formando
un complejo con una proteína básica que denominó «protamina». El trabajo de Friedrich
Miescher había demostrado que un constituyente principal del núcleo celular era una molécula
acídica que contiene nitrógeno y fósforo; sin embargo, la caracterización de este material
correspondió al trabajo de otro discípulo de Hoppe-Seyler, Albrecht Kossel.
Karl Martin Leonhard Albrecht Kossel nació en 1853, en Rostock (FIGURA 1).
Concluidos sus estudios en medicina, sus trabajos iniciales (1879-1880) se centraron en la
nucleína de levadura, que no se asocia con proteína. Demostró que este material contiene las
bases nitrogenadas xantina e hipoxantina descritas a principios del s XIX y de las que se
conocía su relación con el ácido úrico. Otro compuesto similar, guanina, había sido aislada del
núcleo del esperma. Pocos años después, Kossel descubrió un cuarto componente
nitrogenado que denominó adenina.
1.-Lagerkvist U. (1998) DNA pioneers and their legacy. Yale University Press, ISBN 0-300-07184-1.
En: www.fmi.ch/members/marilyn.vaccaro/ewww/dna.pioner.excerpt.htm (acceso: dic 02).
9
Figura 1. Albrecht Kossel (1853–1927)
Las estructuras de tales compuestos fueron determinadas por Hermann Emil Fischer
entre 1881 y 1898. Fischer demostró que guanina, xantina, hipoxantina y adenina, así como
cafeína y ácido úrico, derivaban, todas ellas, de una molécula parental común que denominó
«purina». En reconocimiento de su trabajo sobre la síntesis de azúcares y de purinas, Fischer
fue galardonado con el Premio Nobel de Química 1902.
En 1889, Richard Altmann demostró que la nucleína era un complejo formado por
proteína y un compuesto rico en fosfato que denominó ácido nucleico. Y a principios de los
1890s Kossel, tras separar las bases púricas del ácido nucleico, encontró dos nuevos
componentes nitrogenados a los que llamó timina y citosina; compuestos más simples —
constan de un solo anillo— que pertenecen a una clase de moléculas conocidas como
pirimidinas. Un tercer componente del ácido nucleico —tras la identificación de las bases
nitrogenadas y del fosfato— fue un azúcar, que Kossel aisló del ácido nucleico de levadura en
1893.
El tercero de los grandes químicos que se ocuparon del ácido nucleico fue Phoebus
Aaron Theodor Levene, nacido en 1869, en Sabor, Rusia. Estudió fisiología con Ivan Pavlov y
química con Alexander Borodin. En 1891 emigró a EE.UU., iniciando, en 1896, su trabajo con
los ácidos nucleicos. En aquellos días estaba bien documentado que tales sustancias
constaban de cuatro tipos diferentes de componentes: bases púricas, bases pirimidínicas,
azúcar y ácido fosfórico. Se habían identificado cuatro bases púricas —guanina, adenina,
xantina e hipoxantina— pero pronto de comprobó que las dos últimas no formaban parte de los
ácidos nucleicos. También se conocían tres bases pirimidínicas: timina, citosina y uracilo.
Las investigaciones iniciales de Levene arrancaron de su creencia de que los ácidos
nucleicos jugaban un papel importante en el desarrollo y en la regeneración de los tejidos. En
1899 escribió que «los nucleoproteidos son la clave para comprender como el organismo
repara su desgaste». Si estaba en lo cierto, los diferentes tejidos deberían contener ácidos
nucleicos diferentes; con esa idea, comenzó a analizar ácidos nucleicos procedentes de
diferentes tejidos y diferentes organismos. En 1901 apareció la primera de una serie de doce
publicaciones: Preparación y análisis de diferentes ácidos nucleicos2. Si la variación en la
composición de bases se debía a diferencias específicas de los tejidos o era mero artefacto
experimental, fue la gran pregunta. Para 1907 Levene había abandonado su investigación,
concluyendo que las proteínas nucleares y no los ácidos nucleicos eran las responsables de
las funciones del núcleo en la herencia y en el desarrollo. Sin embargo, no perdió su interés por
los ácidos nucleicos, concentrándose en determinar sus estructuras.
2.-The Rockefeller Archive Center. En: www.rockefeller.edu/archive.ctr/ (acceso: dic 02).
10
Levene aprendió a hidrolizar ácidos nucleicos en unidades más simples, compuestas
por una sola base. Estos bloques estaban formados por la base, fosfato y azúcar, siendo este
último una pentosa (D-ribosa). Levene acuñó el término «mononucleotidos» para este nuevo
tipo de compuestos, sugiriendo que los ácidos nucleicos complejos eran «polinucleotidos».
Levene completó la primera estructura de un ácido nucleico en 1909. Tal estructura fue
confirmada, quince años después, por Alexander R. Todd, quién recibiría el Premio Nobel de
Química 1957 por su trabajo sobre los nucleótidos y coenzimas nucleotídicas (FIGURA 2).
Figura 2. (Izq.) Estructura del ADN propuesta por P. Levene y S. Tipson. Muestra un esqueleto de
azúcar-fosfato, fruto de enlaces fosfodiéster, al que se anclan, vía de las pentosas, las bases
nitrogenadas (Modificada de: J Biol Chem 109: 625, 1935). (Dcha.) Fragmento de ADN tal como fue
imaginado por el grupo de Alexander Todd, en 1951. Los engarces internucleotídicos eran enlaces
fosfodiéster. A Todd y cols., como químicos, les interesaba la forma en que se unían los átomos; la
disposición tridimensional de ellos era un problema de los cristalógrafos (Modificada de: JD Watson,
The Double Helix, pg 40).
EL MECANISMO DE LA HERENCIA
Johann Mendel nació en 1822, en Heinzendorf, Silesia austriaca. Entró en el monasterio
de Santo Tomás, en Brünn (actual Brno), como novicio tomando el nombre de Gregor. Brünn
era el centro cultural y científico de Moravia. La mayoría de los monjes enseñaban en el
Gymnasium de Brünn y muchos de ellos alcanzaron puestos universitarios. La investigación
científica, en particular sobre hibridación de plantas, era una actividad común en el monasterio.
El currículo de Mendel no auguraba un genio científico —en 1856 no fue capaz de concluir los
exámenes de profesor de física e historia natural en la Real Escuela Superior— cuando inició el
programa de experimentos de hibridación con plantas, que le aportaría fama inmortal como
fundador de la genética.
Mendel quiso estudiar la estabilidad de las especies mediante la observación de los
caracteres heredados por la progenie híbrida de varias cepas de plantas. Utilizó guisantes
porque producen híbridos fértiles, se cultivan con facilidad y tienen un tiempo de generación
relativamente breve. Durante ocho años estudió 34 variedades de tres especies. Variedades
que diferían en siete caracteres: perfil y color de la envoltura de la semilla, color del
endospermo, forma y color de la vaina, posición de la flor y longitud del tallo. Mendel realizó
11
polinizaciones entre variedades que diferían en esos caracteres. De acuerdo con la
preponderancia de los caracteres los describió como «dominantes» y «recesivos», cuya
aparición en la progenie manifestaba relaciones fijas. El golpe de genio fue darse cuenta del
significado de esas relaciones: los caracteres de cada planta responden a dos conjuntos de
determinantes hereditarios y heredados, cada uno de ellos, de cada progenitor. También, que
los determinantes heredados segregaban de manera independiente, de tal manera que la
progenie presentaba un abanico de todas las combinaciones posibles de los caracteres
heredados de ambos progenitores.
Mendel presentó sus datos a la Sociedad de Historia Natural de Brünn; ello en dos
conferencias dictadas en 1865. El trabajo fue publicado al año siguiente en las Actas de la
Sociedad con el título Estudios sobre híbridos vegetales; un título demasiado insulso —
comenta Graeme K. Hunter— para uno de los trabajos más revolucionarios de la historia de la
Biología. La publicación fue adquirida por más de cien bibliotecas e instituciones científicas
europeas, incluida la Real Sociedad londinense. Mendel notificó su trabajo a numerosos
colegas, entre ellos a Carl Wilhelm von Nägeli, profesor de botánica de la Universidad de
Munich. La primera de las cartas de Mendel a Nägeli tiene fecha de 31 de diciembre de1866—
«El reconocido prestigio del que disfruta en la detección y clasificación de vegetales híbridos
silvestres, hace para mí un agradable deber enviarle, para su consideración, la descripción de
algunos experimentos en fertilización artificial»—; la décima y última fue del 18 de noviembre
de 18733. Sin embargo, el proceso de la herencia propuesto por Mendel desapareció sin dejar
rastro. El trabajo no mereció una mención en el libro de Nägeli Teoría mecánico-fisiológica de
la herencia publicado en 1884, año en que murió Mendel. Deberían pasar 35 años antes de
que el mundo científico se diera cuenta del significado del trabajo de Mendel y de que la ciencia
de la genética había comenzado.
NUCLEINA Y HERENCIA
El núcleo celular fue descubierto en las células vegetales por el botánico Robert Brown
en 1833; orgánulo al que Jacob Mathias Schleiden responsabilizó de la formación de nuevas
células, y que Oskar Hertwig involucró en el fenómeno de la herencia en 1876. «La unión del
núcleo del huevo con el núcleo del esperma es necesaria —escribió Hertwig— para producir
un núcleo dotado con las fuerzas vitales adecuadas para estimular eficazmente los procesos
de desarrollo posteriores en el embrión y controlarlos en muchos aspectos»4. Tres años
después, Walter Flemming, profesor de anatomía en Kiel, denominó «cromatina» al
componente nuclear teñido por colorantes basófilos, sugiriendo poco después que la cromatina
era el equivalente citológico del ácido nucleico. En 1883, Edouard van Beneden señaló la
existencia de estructuras semejantes a bastoncillos en el núcleo celular; estructuras que, con
posterioridad, se denominaron «cromosomas». Por otro lado, van Beneden indicó que las
células germinales contenían la mitad de cromosomas que las células somáticas, y que la
fusión de las células germinales de ambos sexos restauraba la dotación cromosómica: «Cada
núcleo hijo recibe la mitad de su sustancia cromática del espermatozoo y la otra mitad del
óvulo»5. Por su parte, August Weismann, de la Universidad de Friburgo, escribió en 1893:
__________________________________________________________________________
3.-Gregor Mendel’s letters to Carl Nägeli (1866-1873) Traducción al ingles por Leonie Kellen
Piternick
y George Piternick. En: Electronic Scholarship Publishing – www.esp.org/
foundations/genetics/
classical/holdings/m/gm-let.pdf (acceso: dic 02).
4.-Citado en: Hunter GE, pg 127 (ver bibliografía seleccionada: v.b.s.).
5.-Van Beneden E. En: www.fundp.ac.be/bioscope/1883_vanbeneden/vanbeneden.html (acceso: dic 02).
12
«Dado que la sustancia hereditaria está contenida en el núcleo, la cromatina debe ser la
sustancia hereditaria»6.
En esta época dos fenómenos generales esperaban una explicación: cómo todos los
tejidos especializados del organismo se originan a partir de una única célula fertilizada; y, cómo
los tejidos especializados de un organismo adulto pueden producir células capaces de generar
un nuevo organismo completo. El primer intento de contestación se expone en el libro de
Charles Darwin La Variación de Animales y Plantas bajo Domesticación, publicado en 1868. La
«hipótesis provisional de pangénesis» de Darwin propuso que la formación de células
germinales implicaba el reclutamiento de cuerpos minúsculos —gémulas— formados a partir
de todos y cada uno de los tejidos especializados del organismo. En el curso de desarrollo
embrionario las gémulas darían lugar a los tejidos especializados de los que originalmente
derivaron. La pangénesis aparecía inconsistente con la experiencia añeja del injerto de plantas,
y con los experimentos de Francis Galton sobre transfusión de sangre entre diferentes razas de
conejos. Si la teoría de Darwin fuera correcta, las gémulas presentes en la sangre transfundida
deberían inducir mongrelismo en la descendencia de los conejos transfundidos.
Una hipótesis alternativa a la pangénesis fue propuesta por August Weismann. Sugirió
que un pul de células indiferenciadas «totipotentes» se transmitirían de generación en
generación. El material hereditario en esas células, denominado «idioplasma», estaba formado
por un conjunto de «idantes» que corresponderían a los cromosomas. Los idantes estarían
formados por «ids», que corresponderían a los «gránulos», microscópicamente visibles, en los
cromosomas. Los ids estarían formados, a su vez, por miles o cientos de miles de unidades
denominadas «determinantes». La diferenciación terminal de una célula implicaría la
permanencia de un solo determinante, el específico del tejido, que se desintegraría en las
unidades fundamentales de la herencia o «bióforos» que formarían las estructuras
especializadas típicas de la célula, y que llevarían a cabo las funciones vitales esenciales como
asimilación y crecimiento.
Por su parte, Hugo Marie de Vries, profesor de botánica en la Universidad de
Ámsterdam, propuso en 1899 una «teoría de pangénesis intracelular»7. De Vries, como Darwin
y Weismann, asumió la existencia de partículas materiales responsables de los caracteres
hereditarios observables. Sin embargo, rechazó el mecanismo de transporte desde los tejidos a
las células germinales propuesto por Darwin, y la pérdida de partículas hereditarias durante el
desarrollo y diferenciación indicado por Weismann. De acuerdo con de Vries, todas las células
de un individuo contenían la misma dotación de partículas hereditarias o pangenes, pero en los
diferentes tejidos solo se activaban determinados conjuntos de pangenes: «En los organismos
superiores no se activan todos los pangenes existentes en una célula dada, sino que en cada
célula uno o más grupos de pangenes dominan e imprimen carácter a la célula». Los pangenes
constituían los cromosomas nucleares y, también, el protoplasma citoplasmático. En una
determinada célula especializada sólo algunos pangenes emigrarían desde el núcleo al
citoplasma, donde se activarían.
Todas las teorías basadas en «factores» —gémulas, bióforos, pangenes—- asumían la
existencia de partículas subcelulares determinantes de la especialización de los tejidos. De
____________________________________________________________________________
6.-Weismann A (1893) The Germ-Plasm. A Theory of Heredity. Charles Scribner’s Sons. On-line
Electronic Edition: Electronic Scholarly Publishing. Prepared by Robert Robbins. En: www.esp.org/ books
/Weismann/germ-plasma/facsimile (acceso: dic 02).
7.-De Vries H (1910). Intracellular Pangenesis. Including a paper on Fertilization and
Hybridization.
Translated from the German by C. Stuart Gager. Chicago: The Open Court Publishing Co. 1910. On-line
Facsimile Edition: Electronic Scholarly Publishing. Prepared by Robert Robbins. En: www.esp.org/books/
devries/pangenesis/facsímile (acceso: dic 02).
13
acuerdo con Darwin y Weismann, sólo los hepatocitos, por ejemplo, contenían factores hepatoespecíficos; pero según de Vries todas las células contenían factores hepatoespecíficos pero
sólo en el hígado eran activos. Por otro lado, la naturaleza física de esos factores no era motivo
de preocupación de los teóricos, aunque se intuía una correlación de los factores involucrados
en la herencia y desarrollo y la química fisiológica. La información recogida a finales del siglo
XIX señalaba que los factores de la herencia se asociaban con lo que los citólogos
denominaban cromatina y los químicos fisiológicos identificaban como nucleína, constituida,
como Richard Altmann había demostrado, por ácido nucleico y proteína.
MÁS ALLÁ DEL REDESCUBRIMIENTO
El trabajo de Mendel permaneció desconocido durante 35 años. Las leyes mendelianas
de la herencia fueron «redescubiertas» en 1900 por tres investigadores. Cada uno de ellos
reclamó para sí el descubrimiento de las mismas relaciones entre los caracteres heredados en
la progenie de plantas híbridas, y a las que dieron la misma interpretación general que su
descubridor en 1866. Esta sorprendente coincidencia ha supuesto un marcado escepticismo
para los historiadores de la ciencia, y el lapso de tiempo transcurrido uno de los episodios más
chocantes en la historia de la biología. Si el «corredescubrimiento» del holandés Hugo de
Vries, del alemán Carl Correns y del austriaco Erich Tschmak von Seysenegg, se realizó en el
laboratorio o en las bibliotecas poco importa; la corroboración de las relaciones mendelianas
solo era cuestión de tiempo. El redescubrimiento del trabajo encendió un intenso debate sobre
la validez de la interpretación de Mendel y su generalización. La primera persona que relacionó
los determinantes hereditarios de Mendel con los cromosomas fue Walter Stanborough Sutton,
un estudiante en la Universidad de Columbia:
«Si los determinantes hereditarios son transportados por los cromosomas, y si hay más determinantes que
cromosomas; cada cromosoma debe contener muchos determinantes hereditarios. Además, los caracteres
especificados por los determinantes transportados en el mismo cromosoma deberían heredarse juntos»8.
Por otro lado, el más ferviente defensor de las tesis de Mendel fue el zoólogo inglés William
Bateson quién, en 1901, publicó la primera versión inglesa de la publicación de Mendel de
1866. Al año siguiente, Bateson publicó Los Principios de Mendel de la Herencia: Una Defensa.
Bateson acuñó la palabra alelomorfo —luego acortada a «alelo»— para referirse al par de
determinantes responsables de los correspondientes caracteres heredados, describió el
fenómeno de ligamiento y sugirió el término «genética» para el estudio de la herencia.
Bateson9, además, fue consciente de que las leyes de Mendel eran operativas en el humano,
señalando que la alcaptonuria presentaba una distribución familiar que sugería un mecanismo
mendeliano. Las observaciones de Bateson fueron reelaboradas por Archibald Garrod quién,
en 1908, señaló dos hechos importantes: que esas condiciones eran hereditarias siguiendo un
patrón mendeliano y, segundo, que tales enfermedades tenían lugar por la ausencia de pasos
específicos en el metabolismo, lo que resultaba en la excreción de productos intermedios
parcialmente metabolizados. Esto último asociaba dos grandes corrientes científicas de finales
del siglo XIX: el mendelismo y la teoría enzimática de la vida.
____________________________________________________________________________
8.-Sutton WS (1903) The chromosomes in heredity. Biological Bulletin 4, 231-251.
9.-Bateson W (1902) Application for Support of an Experimental Investigation of Mendel’s Principles of
Heredity in Animals and Plants. Electronic Scholarly Publishing. En: www.esp.org/foundations/ genetics/
classical/holdings/b/wb-02q.html (acceso: dic 02).
14
La teoría de Garrod de los errores congénitos del metabolismo10 no sólo proporcionó un
engarce entre herencia y bioquímica, sino también entre las fuerzas «legislativa» y «ejecutiva»
de Claude Bernard, cuya traducción moderna fue propuesta por Wilhelm Ludvik Johannsen11,
profesor de fisiología vegetal en la Universidad de Copenhague. En su libro Elementos de
Herencia, publicado por Johannsen en 1909, se proponían los términos «genotipo» y
«fenotipo”, y también el término «gen» —una abreviatura de pangen— para referirse a los
caracteres de Mendel. Dos años después, Johannsen definió el genotipo como la suma de
todos los genes en un gameto o en un zigoto; y fenotipo como todos los tipos de organismos
distinguibles por observación directa.
Hacia 1910 estaba bien establecido en biología que: 1) La herencia representaba una
cosa —el genotipo: conjunto de genes—, mientras que otra bien distinta era el desarrollo de los
diferentes tejidos somáticos especializados: el fenotipo o conjunto de formas y de funciones. 2)
Que los genes eran unidades discretas localizadas en los cromosomas. 3) Que el constituyente
de los cromosomas —cromatina o nucleína— estaba formado por proteína y ácido nucleico. 4)
Al menos en las mentes de Bateson y de Garrod, el fenotipo era el resultado de la acción
enzimática. 5) Que las complejas moléculas biológicas estaban formadas por combinaciones
de bloques o unidades estructurales básicas, a los que Kossel denominó «Baustein».
LA NATURALEZA PROTEICA DE LOS GENES
En el tránsito secular, el papel genético del ácido nucleico era bastante popular. Sin
embargo, durante la primera década del siglo veinte esta idea perdió apoyos. En las dos
primeras ediciones —The Cell in Development and Inheritance, 1896 y 1900— del influyente
texto de biología celular de Edmund Wilson se defendía la idea de que la cromatina,
específicamente el ácido nucleico, era el material básico hereditario. Sin embargo, en la tercera
edición de 1925, retitulada The Cell in Development and Heredity, Wilson apostó por la proteína
cromosómica como material genético. El ácido nucleico quedo relegado a mero acompañante
estructural.
Dos razones aduce Hunter para este cambio de mentalidad. La primera, que las
técnicas de tinción citológica desarrolladas mostraban que el componente de ácido nucleico de
los cromosomas parecía difuminarse en ciertas fases del ciclo celular, mientras que el
componente proteico era estable. La segunda razón por la que, en opinión de Wilson, la
cromatina no podía ser el material genético es que aparecía, química y microscópicamente,
indiferenciada. Además, los ácidos nucleicos de plantas y de animales se mostraban
uniformes. Tal monotonía no podía ser la base de la herencia.
Y Kossel, en su Conferencia Harvey 1911, remachó:
«El número de Bausteine [bloque o unidades estructurales básicas] que pueden tomar parte en la
formación de las proteínas es casi tan grande como el número de letras en el abecedario. Si consideramos
que con la combinación de letras es posible expresar un sin fin de pensamientos, podemos suponer el
extraordinario número de propiedades [Emil Fischer calculó que el número posibles de estructuras
codificadas eran, aproximadamente, 2040] de un organismo que pueden registrase en el pequeño espacio
ocupado por las moléculas de proteínas»12.
nd
10.-Garrod AE (1923) Inborn Errors of Metabolism. 2 ed. Henry Frowde and Dodder & Stoughton,
London. On-line Facsimile Edition: Electronic Scholarly Pub. En: www.esp.org/books/Garrod/ inbornerrors/facsimile (acceso: dic 02).
11.-Johannsen W (1909) Element der exalten Erblichkeitslehre. Gustav Fischer, Jena. (1911) The
genotype conception of heredity. The American Naturalist 45 (Nº 531), 129-159.
12.-Kossel A (1911) The chemical composition of the cell. Harvey Lecture Series 7, 33-51.
15
Propiedades que incluyen la herencia, como Kossel señaló en la Conferencia Herter de aquel
mismo año: «Podemos intuir como las peculiaridades de las especies pueden encontrar
expresión en la naturaleza química de las proteínas que constituyen la materia viva, y como
pueden transmitirse a través del material [proteínas] contenido en las células generativas»13. A
ello Phoebus Levene añadió, en 1917, que «los ácidos nucleicos son indispensables para la
vida […] pero no son los transportadores de los caracteres mendelianos»14.
Otra razón de peso que inclinó la balanza hacia el lado proteico de los genes fue el
importante papel biológico de las enzimas. El principal exponente de la correlación entre genes
y enzimas fue Leonard Thompson Troland. Tras estudiar bioquímica en el Instituto de
Tecnología de Massachussets, obtuvo un doctorado en psicología por Harvard en 1915. Un
año antes había publicado, en The Monist, un trabajo titulado «El origen químico y la regulación
de la vida», en el que identificaba “cinco misterios fundamentales del comportamiento vital”: el
origen de la materia viva, el origen de las variaciones orgánicas, las bases de la herencia, el
mecanismo del desarrollo y las bases de la regulación fisiológica en el organismo. Troland
pensó que una sola clase de sustancia era responsable de todos esos fenómenos:
«Enzimas y catálisis en general tienen la capacidad de participar en la producción de sustancias químicas
específicas […] un proceso en el que la presencia de un catalizador en una mezcla química favorezca la
producción del propio catalizador se conoce como autocatálisis».
La autocatálisis podría explicar el origen de la vida, porque una sustancia con esta
propiedad sería, automáticamente, capaz de producir numerosas copias de sí misma. La tesis
de Troland fue que la autocatálisis —autorreplicación— era una propiedad necesaria de los
genes, y que, en los sistemas biológicos sólo las enzimas tenían propiedades catalíticas. El
concepto de gen como una proteína autocatalítica dominó el pensamiento de los genetistas
durante una generación.
HACIA LA REVISIÓN DE LA TEORÍA
En 1866, el año de la publicación del trabajo de Mendel, nacía Thomas Hunt Morgan,
quién obtendría la plaza de profesor de zoología experimental en la Universidad de Columbia
en 1904 (FIGURA 3). Morgan creyó que las nuevas especies aparecían merced a la
acumulación de mutaciones discontinuas, cada una de ellas dentro del rango normal de las
variaciones naturales. Morgan eligió la mosca de la fruta —Drosophila melanogaster— como
modelo experimental. No logró detectar la primera mutante hasta 1910; durante el año 1911 se
identificaron diez nuevas mutantes. En 1912 su laboratorio —«The fly room»— era referencia
mundial sobre el tema, y al que se unieron tres primeras espadas: Alfred Sturtevant y Calvin
Bridges en 1910, y Hermann Muller en 1912.
En 1913, Sturtevant publicaba el primer mapa genético ubicando la localización de seis
genes. Luego, él mismo y Bridges comenzaron el mapeo de cromosomas 2 y 3. Cuando, en
1915, Morgan Sturtevant, Muller y Bridges publicaron su libro —de obligada referencia— El
Mecanismo Mendeliano de la Herencia, los mapas genéticos de los cromosomas 1
(cromosoma X), 2 y 3 estaban prácticamente concluidos.
Sturtevant obtuvo su Tesis doctoral en 1914, Muller en 1915 y Bridges en 1916. Esas
tres Tesis doctorales representaron, según una carta de Morgan a un discípulo años después,
«las piedras fundacionales de una nueva ciencia». En 1926, Morgan publicaba La Teoría del
Gen; libro al que pertenecen los siguientes párrafos:
____________________________________________________________________________
13.-Kossel A (1912) Lectures on the Herter Foundation. Johns Hopkins Hospital Bulletin 23,
14.-Citado en: Hunter GE, pg 141 (v.b.s.).
65-76.
16
Figura 2. Thomas H. Morgan (1866-1945)
«La teoría moderna de la herencia arranca de los datos numéricos obtenidos del cruce de dos individuos
que difieren en uno o más caracteres. La teoría se relaciona en principio con la distribución de unidades entre
sucesivas generaciones de individuos. En el mismo sentido en que el químico propone átomos invisibles y el
físico electrones, el estudioso de la herencia recurre a elementos invisibles denominados genes. El punto
esencial en esta comparación es que el químico y el estudioso de la herencia —el genetista— han llegado a
sus respectivas conclusiones a partir de datos numéricos y cuantitativos. Las teorías son consistentes en
cuanto que permiten la predicción numérica y cuantitativa de una clase específica. Ésta característica
esencial distingue la teoría del gen de otras teorías biológicas previas que también señalaron unidades
invisibles y a las que se asignaron propiedades pretendidas de manera arbitraria. La teoría del gen revierte
este orden y deduce las propiedades de los genes, de tal manera que les asigna propiedades a partir,
exclusivamente, de datos numéricos.
Debemos a Gregor Mendel el descubrimiento de dos de las leyes fundamentales de la herencia sobre las
que se basa la moderna teoría de la herencia. Trabajo posterior, realizado por otros autores durante este
siglo, ha supuesto un avance importante en la elaboración de la teoría sobre una base mucho más amplia.
[…]
Estamos ahora en situación para formular la teoría del gen. La teoría establece que los caracteres del
individuo se atribuyen a pares de elementos (genes) en el material germinal que se mantienen juntos en un
número definido de grupos ligados; establece que los miembros de cada par de genes se separan cuando las
células germinales maduran de acuerdo con la primera ley de Mendel, y en consecuencia cada célula
germinal contendrá un solo juego; establece que los miembros que pertenecen a diferentes grupos de
ligamiento se reparten independientemente de acuerdo con la segunda ley de Mendel; establece que también
ocurre, a veces, un intercambio ordenado —entrecruzamiento— entre los elementos que corresponden a
grupos de ligamiento; y establece que la frecuencia de entrecruzamiento aduce el orden lineal de los
elementos en cada grupo de ligamiento y la posición relativa de los elementos entre sí.
Esos principios, que, tomados en conjunto, he aventurado llamar teoría del gen, nos permiten manejar
problemas de genética sobre bases estrictamente numéricas, y nos permiten predecir, con bastante
precisión, lo que sucederá en una situación dada. Por todo ello la teoría cumple los requerimientos de una
teoría científica en sentido estricto. […]
¿Son los genes moléculas orgánicas? El único interés práctico de establecer tal discusión se refiere a la
naturaleza de su estabilidad. Por estabilidad podemos entender que el gen tiende a variar de un modo más o
menos definido, o podemos entender que el gen es estable en el sentido que una molécula orgánica lo es. El
problema genético se simplificaría si pudiera prevalecer la segunda interpretación. Si, por el contrario, el gen
es considerado como una mera cantidad de tal material, no daríamos contestación satisfactoria a porqué
permanece tan constante a través de todas las vicisitudes a que se ve sometido a menos que se apeláramos
a misteriosos poderes extragénicos de organización que los mantuvieran constantes. Existen pocas
esperanzas en el momento actual de zanjar la cuestión. Unos pocos años atrás intenté calcular el tamaño del
17
gen con la esperanza de que pudiera arrojar alguna luz sobre el problema, pero en la actualidad carecemos
de medidas suficientemente exactas para que tal cálculo no escape de la mera especulación. Pudiera intuirse
que el orden de magnitud del gen se aproxima al de una molécula orgánica de las de mayor tamaño. El gen
incluso podría no ser una molécula sino solo una colección de materia orgánica vinculada por otras fuerzas a
las implicadas en la combinación química.
Con todo es difícil sin embargo resistirse a la fascinante suposición de que el gen es constante porque
representa una entidad química orgánica. Es la suposición más simple que puede asumirse en el momento
actual, y dado que este punto de vista está de acuerdo con todo lo que se conoce en relación con la
estabilidad del gen parece, por lo menos, una buena hipótesis de trabajo.»
Morgan insistió en su aparente falta de interés en la naturaleza física de los genes en su
Conferencia Nobel—«La Relación de la Genética con la Fisiología y Medicina—», pronunciada
en junio de 1934 —recibió el Premio Nobel en Fisiología o Medicina 1933 por sus
descubrimientos relacionados con el papel jugado por los cromosomas en la herencia—. En
aquella ocasión comentó:
«¿Cuál es la naturaleza de los elementos de la herencia que Mendel postuló como unidades puramente
teóricas? ¿Qué son los genes? Ahora que los hemos localizado en los cromosomas tenemos la justificación
para considerarlos unidades materiales; ¿cómo cuerpos químicos de un orden superior a las moléculas?
Francamente, esas preguntas con las que trabajan los genetistas no me conciernen, excepto para especular
sobre la naturaleza de los elementos postulados. No hay consenso de opinión entre los genetistas respecto a
lo que son los genes –si los reales o ficticios- porque en el contexto en el que se realizan los experimentaos
no es posible discernir la diferencia entre si el gen es una unidad hipotética, o si el gen es una partícula
material. En cualquier caso, la unidad se asocia con un cromosoma específico, y puede ser localizado
mediante un análisis puramente genético. Por ello, si el gen es una unidad material, es una pieza de un
cromosoma; si es una unidad ficticia, debe ser referida a una localización definida en un cromosoma».
Por su parte, la primera gran contribución de Hermann Joseph Muller apareció publicada en
1922, en la revista American Naturalist —«Variación debida al cambio en genes individuales»,
sobre la base del material utilizado en una conferencia pronunciada, en 1921, en Toronto—, y
en donde intentó deducir la naturaleza química del gen. En relación con la propiedad
autocatalítica de los genes, señalada por Troland, Muller sugirió que «alguna manera especial
de construcción» era la responsable de la autocatálisis. Cambios hereditarios en los genes —
mutaciones— puede, indicó Muller, proporcionar una herramienta para analizar el «modo de
construcción». Muller recibió el Premio Nobel en Fisiología o Medicina 1946 por el
descubrimiento de la producción de mutaciones mediante irradiación con rayos-X.
Pero existía otra estrategia. Frederick Twort en 1915 y Felix d’Hérelle dos años
después, de manera independiente, descubrieron un tipo especial de agentes que inducían la
lisis de las bacterias y que, al igual que los genes, podían propagarse indefinidamente y,
aparentemente, experimentar mutaciones. Muller, en su publicación de 1922, reflexionó:
«Si los “cuerpos de d´Hérelle” son realmente genes, como los genes cromosómicos, nos proporcionan un
aproche completamente nuevo para abordar el problema de los genes […] ¿Debemos los genetistas
hacernos bacteriólogos, químicos fisiológicos y físicos, amén de ser zoólogos y botánicos?».
Veinticinco años después, Max Delbrück utilizó los cuerpos de d’Hérelle —entonces
denominados bacteriófagos— en su estrategia para abordar la estructura de los genes.
EL ESTUDIO DE LAS MACROMOLÉCULAS
En la década de 1930s el gen seguía siendo una entidad hipotética. Como señalara
Delbrück «los genes eran las unidades algebraicas de la ciencia combinatoria de los
18
genetistas»15. Eran las x y las y utilizadas por los matemáticos para expresar cantidades
desconocidas en las ecuaciones; podían determinarse las relaciones entre genes, pero sin que
se conociera su naturaleza. Todo lo que se conocía sobre la naturaleza física de los genes era
que formaban ordenaciones lineales en los cromosomas; pero nada de su naturaleza química.
En 1936 Hermann Muller pronunció una conferencia en Moscú titulada «La física en el
abordaje de los problemas fundamentales de la genética»16. Los genes son —propuso Muller—
partículas submicroscópicas, probablemente de composición proteica, y acoplados unos a
otros en línea, conformando una sola fila y formando hebras sólidas. Además, el gen tenía dos
propiedades fundamentales: una autoatracción específica que podía inferirse de la propiedad
de entrelazamiento cromosómico, y autosíntesis. Muller intuyó que el gen, en cuanto
macromolécula, debería estar construido por bloques, y a efectos de autorreplicarse, esos
bloques deberían tener la propiedad de autoatracción. El modelo de Muller puede resumirse:
los genes consisten en series de bloques; la secuencia o disposición de esos bloques
diferencian un gen de otro; cambios en la secuencia de los bloques son la base de las
mutaciones; la atracción entre bloques similares permite la replicación génica.
Al final de su conferencia de 1921 Muller había sugerido la utilización de fagos para el
estudio de los mecanismos genéticos. En su disertación de 1936 apuntó mucho más allá;
Muller sugirió que:
«Las soluciones a los problemas generales de la composición del gen podrían encontrarse mediante el
estudio de los patrones de difracción de rayos-X, y de estudios paralelos realizados con los métodos de los
químicos».
Con su referencia a la difracción de rayos-X y al análisis químico —dos años antes de
que Astbury y Bell publicaran sus primeras imágenes del ADN mediante rayos-X; varios años
antes de que Chargaff, Todd, Wilkins, Franklin o Crick, se hubieran interesado en la estructura
del gen, y cuando James Watson contaba con seis años de edad— Herman Muller indicó el
camino que conduciría a la doble hélice.
ANÁLISIS QUÍMICO
En reconocimiento de la contribución al conocimiento de la química celular, realizada a
través de su trabajo sobre las proteínas, incluyendo las sustancias nucleicas, Albrecht Kossel
recibió el Premio Nobel en Fisiología o Medicina 1910. En su discurso de presentación, Count
Mörner, del Instituto Carolino, mencionó que, por escasez de tiempo, el trabajo de Kossel sobre
los ácidos nucleicos “debería obviarse en esta ocasión”. Sin embargo, el laureado dedicó más
de la mitad de su discurso a los ácidos nucleicos.
Gracias al trabajo del laboratorio de Kossel se conocía que los ácidos nucleicos de la
levadura y del timo contenían cuatro bases (dos púricas y dos pirimidínicas), azúcar y fosfato.
Los había definido como «polifosfatos»; esto es, el esqueleto de la molécula lo conformaban
grupos fosfatos unidos en serie, y las bases y azúcares se disponían perpendicularmente a ese
esqueleto. Sobre la propuesta de la constitución de los ácidos nucleicos por Bausteine, Kossel
apuntó que «han surgido dos nuevas preguntas: cuales son las cantidades relativas de cada
bloque, y como se disponen entre sí»17. Kossel, como Levene, aceptaron la propuesta de
____________________________________________________________________________
15.-Delbrück M (1949) A physicist looks at biology. Transactions of the Connecticut Academy of Arts and
Science 38, 173-190.
16.-Muller HJ (1936) Physics in the attack on the fundamental problems of genetics. Scientific Monthly
44, 210-214.
19
Hermann Streudel de que las bases estaban presentes en cantidades equimolares, aunque ello
no fue universalmente aceptado.
La identificación de la estructura química de los ácidos nucleicos fue un problema
arduo. En las proteínas, los bloques de construcción son químicamente similares; todos ellos
tienen un grupo carboxilo (COOH) y otro amino (NH2). Si todos los aminoácidos se unen de la
misma manera, la única posibilidad real es formar enlaces entre el grupo COOH de un
aminoácido y el grupo NH2 del aminoácido siguiente —enlace peptídico— como fue previsto en
la estructura polipeptídica propuesta por Hofmeister y Fischer.
Para los ácidos nucleicos la situación es bastante más complicada. Sus azúcares tienen
varios grupos hidroxilo (OH) disponibles para formar enlaces, los anillos de las bases disponen
de átomos de carbono y de nitrógeno que son útiles puntos de acoplamiento y el ión fosfato
expone tres átomos reactivos de oxígeno: la posibilidad de combinación es impresionante.
Durante la década de 1910s se propusieron varias estructuras; todas ellas tenían en común la
presencia de las unidades nucleotídicas de Levene: fosfato-azúcar-base. En 1919 Levene
propuso una estructura para el ácido nucleico de la levadura que presentaba un esqueleto de
fosfato-ribosa al que se acoplaban las bases a través de la molécula de azúcar. Diez años
después se identificaron dos tipos de azúcares: D-desoxirribosa y D-ribosa y, en 1935, Levene
publico las estructuras de los ácidos ribosanucleico o ribonucleico (ARN) aislado de la
levadura, y desoxirribosanucleico o desoxirribonucleico (ADN) del timo. La estructura básica
era la anunciada en 1919; la molécula de pentosa (azúcar) se identificó como ribosa en el ARN
y como desoxirribosa en el ADN. Las estructuras de los ácidos nucleicos de 1935 fueron la
culminación de la carrera de Levene; el resultado de 35 años de trabajo.
La estructura del ADN de Levene y Tipson fue dibujada como un tetranucelotido,
conteniendo una unidad de cada una de las bases —adenina, citosina, guanina y timina— en
cantidades iguales, cuatro unidades de D-desoxirribosa y otras cuatro de fosfato. Levene había
postulado que tal estructura era la unidad estructural mínima y que la molécula de ácido
nucleico podía ser un múltiplo de aquella. Poco antes de morir Levene publicó, en 193818, que
el ADN nativo sedimentaba en la ultracentrífuga con peso molecular aparente de 200000 a
1000000. Fue la primera propuesta de una estructura macromolecular de los ácidos nucleicos,
que serían polímeros del tetranucelotido: [A-C-G-T]n.; carácter macromolecular corroborado por
Torbjörn Caspersson y Hammarsten. A pesar de todo ello, los ácidos nucleicos seguían sin ser
moléculas interesantes y, menos aún, candidatas al material genético; eran consideradas
meros elementos estructurales.
Sin embargo, la década de 1940s supuso un cambio de «paradigma». En 193719 Jack
Schultz, que se había trasladado desde el laboratorio de Morgan al de Caspersson, manifestó
que «la molécula Jano que es el gen replica su componente de ácido nucleico durante la
profase del ciclo celular y replica su componente proteico durante la interfase, de tal manera
que la unidad de síntesis es una nucleoproteína». Fueron numerosos los investigadores que
apoyaron la hipótesis nucleoproteica del gen; y más aún, que las propiedades específicas de la
nucleoproteína dependían tanto del ácido nucleico como de la proteína. Una figura importante
en la reevaluación del papel genético de los ácidos nucleicos fue John Masson Gulland,
profesor de química en la Universidad de Nottingham. Aunque aceptó la composición equi___________________________________________________________________________
17.-Kossel A (1911) Nobel Lecture, pg 6 (v.b.s.)
18-Levene PA, Schmidt G (1938) Ribonucleodepolymerase (The Jones-Dubos Enzyme) Journal of
Biological Chemistry 126, 423-434.
19.-Schultz J (1937) The evidence of the nucleoprotein nature of the gene. Cold Spring Harbor Symposia
on Quantitative Biology 9, 55-65.
20
molecular de las bases, Gulland habló, en 194520, de «tetranucleótido estadístico» —
[ACGTCGTAGTACTACG…]— frente a la idea establecida de «tetranucelotido estructural» —
[ACGT]—. Si los ácidos nucleicos eran estadísticos en vez de ser teranucleótidos estructurales,
la irregular secuencia de nucleotidos podría generar la suficiente variedad para que el ADN
fuera considerado candidato como material genético.
Gulland murió dos años después. La demostración de que el ADN es un polímero
aperiódico, como las proteínas —secuencias irregulares lineales de aminoácidos—, se debe a
Edwin Chargaff (FIGURA 4). Una de sus primeras observaciones —194821— fue:
«La composición de los ácidos desoxipentosanucleicos del timo y del bazo son muy similares, pero no se
corresponde con la hipótesis tetranucleotídica». Y:
«La comparación de las proporciones molares [de pirimidinas y de purinas] revela una llamativa, pero
quizás sin significado, regularidad».
Figura 4. Erwin Chargaff (1905-2002)
En una publicación aparecida en 1950 con el título «Asimetría en la secuencia
nucleotídica de los ácidos desoxipensosanucleicos»22 Chargaff y Zamenohof anotaban:
«El descubrimiento de que la composición de los ácidos desoxipentosanucleicos se desvía
considerablemente de la requerida por la hipótesis “tetranucleotídica”, y que en ciertos casos los ácidos
nucleicos derivados de especies diferentes pueden diferir en su composición, hacen que el estudio de la
secuencia en que se alinean los nucleotidos integrantes tenga particular interés […] Las siguientes
conclusiones pueden derivarse de los experimentos [realizados]: (a) Ninguno de los fragmentos [obtenidos
mediante digestión enzimática] se ajusta en su composición a un “tetranucelotido”. De ahí, que el hallazgo de
que el ADN nativo dista mucho de ser un “tetranucelotido estadístico”, pueda aplicarse a los fragmentos
obtenidos mediante digestión enzimática».
_______________________________________________________________________
20.-Gulland JM, Barker GR, Jordan DO (1945) The chemistry of the nucleic acids and
nucleoproteins. Annual Reviews in Biochemistry 14, 175-206.
21.-Chargaff E, Vischer E, Doniger R, Green C, Misani F (1949) The composition of the
desoxypentose nucleic acid of thymus and spleen. Journal of Biological Chemsitry 177, 405-416
(recibido para publicación: 1948). Vischer E, Zamenhof S, Chargaff E (1949) Microbial nucleic
acids: The desoxypentose nucleic acids of avian tubercle bacilli and yeast. Journal of Biological
Chemsitry 177, 429-438 (recibido para publicación en 1948).
22.-Zamenhof S, Chargaff E (1950) Dissymmetry in nucleotide sequence of desoxypentose
nucleic acid. Journal of Biological Chemistry 187, 1-14.
21
Al siguiente año, Chargaff discutía23:
«El ADN de esperma de salmón analizado proporciona un buen ejemplo de una serie de regularidades
señaladas en publicaciones anteriores de este laboratorio. Pertenece al “tipo AT” en el que adenina y timina
superan a guanina y citosina, particularmente en este ácido nucleico en un 40%. No sólo la relación de
purinas a pirimidinas sino también la de adenina y timina respecto a guanina y citosina es, prácticamente, 1.
Dado que el número de ejemplos de tal regularidad incrementa, la pregunta que se hace pertinente es si tal
relación es meramente accidental o si es una expresión de ciertos principios estructurales que son
compartidos por muchos ácidos desoxipentosanucleicos; ello, a pesar de diferir ampliamente en su
composición individual y en ausencia de una periodicidad reconocible en su secuencia nucleotídica. No es el
momento de intentar contestarla».
De la misma manera que el reconocimiento de la naturaleza macromolecular del ADN
hizo posible la teoría nucleoproteica del gen, el rechazo de la estructura tetranucleotídica por
Chargaff hizo posible la teoría del ácido nucleico del gen. Aunque anticipado por Gulland, el
trabajo de Chargaff demostró, sin duda alguna, que el ADN es un polímero aperiódico. La
secuencia de bases a lo largo de la cadena polinucleotídica del ADN podría codificar la
información genética, de la misma manera que la secuencia de aminoácidos en la cadena
polipeptídica especifica la función de una proteína. Al falsar las hipótesis tertranucleotídicas
«estructural» y «estadística» —comenta Hunter24—, Chargaff dio la vuelta a la tortilla: el ADN
dejaba de ser una molécula estúpida para convertirse en otra deslumbrante. Chargaff eliminó el
último obstáculo para que el ADN fuera aceptado como el material genético. Chargaff encontró
que, en todos los organismos, la relación entre adenina y timina y de citosina guanina, son
próximas a la unidad. Wyatt replicó los resultados en virus de insectos25. Esta relación,
denominada «regla de Chargaff»: [ A ] = [ T ], [ G ] = [ C ]; [A + G] = [C + T]; [A + T] # [C + G], fue
determinante en el establecimiento de la estructura del ADN (TABLA I).
EL GEN ES ÁCIDO DESOXIRRIBONUCLEICO
Estudios llevados a cabo en el Instituto Lister, en Londres, durante la década de 1920s
demostraron que el pneumococo, la bacteria causante de la neumonía lobar, se presentaba en
dos formas: lisa (smooth, S), envuelta en una cápsula de hidratos de carbono, y rugosa (rough,
R), desnuda. Sólo la forma S es virulenta; ello sugirió la participación capsular en la
colonización del pulmón. Estudios realizados por Frederick Griffith26, que combinaban la
participación de ambos serotipos, S y R, mostraron la posibilidad de inducir un cambio en el
serotipo: R → S. Este fenómeno, denominado «transformación», se interpretó en clave de un
«principio transformante», que Griffith asoció con la cápsula del pneumococo.
El estudio de la transformación de serotipo despertó el interés de otro microbiólogo
interesado en el pneumococo: Oswald Theodore Avery (FIGURA 5), del Instituto Rockefeller de
Investigación Médica, quién invirtió la mayor parte de su carrera intentando conseguir una
vacuna contra la neumonía. En 1944 publicó con otros dos colegas, Colin M. MacLeod y
Maclyn McCarthy, un trabajo titulado «Estudios sobre la naturaleza química de la sustancia que
induce la transformación de tipos de pneumococo. Inducción de la transformación por
____________________________________________________________________________
23.-Chargaff E, Lipshitz R, Green C, Hodes ME (1951) Composition of the desoxyribonucleic acid of
salmon sperm. Journal of Biological Chemistry 192, 223-230.
24.-Citado en: Hunter GE, pgs 293-294 (v.b.s.).
25.-Wyatt GR (1952) The nucleic acids of some insect virus. Journal of General Physiology 36, 201-205.
26.-Griffith F (1928) The significance of Pneumococcal types. Journal of Hygiene 27, 135-159.
22
TABLA I: Relación molar de las bases en ácidos desoxirribonucleicos
Origen del ADN
Composición
de bases (%)
_____________________
Relación
Asimetría
de bases
A&T vs G&C
___________________
A
T
G
C
A/T
G/C
Pu/Py
_________________________________________________________________________________
Animales
humano
31
29
20
20
1.05
1.00
1.04
1.52
oveja
29
28
21
21
1.03
1.02
1.03
1.36
gallina
29
29
21
22
1.02
0.95
0.97
1.36
tortuga
30
28
22
21
1.05
1.03
1.03
1.31
salmón
30
20
21
20
1.02
1.02
1.02
1.43
cangrejo de mar
47
47
03
03
1.00
1.00
1.00
17.50
erizo de mar
33
32
18
17
1.02
1.02
1.02
1.58
Plantas / Hongos
germen trigo
27
27
23
23
1.00
1.00
1.00
1.19
levadura
31
33
18
17
0.95
1.09
1.00
1.79
Aspergillus
25
25
25
25
1.00
1.00
1.00
1.00
Bacterias
E. coli
25
27
23
23
1.04
1.01
1.03
0.93
Staphylococcus
31
29
21
19
1.05
1.11
1.07
1.50
Clostridium
37
36
14
13
1.01
1.09
1.04
2.70
Brucella
21
21
29
29
1.00
1.00
1.00
0.72
_________________________________________________________________________________
Figura 5. Oswald T. Avery (1877-1955)
fracción de ácido desoxirribonucleico aislado de pneumococo tipo III»27:
«Desde hace tiempo, los biólogos intentan, mediante medios químicos, inducir en organismos superiores
cambios predecibles y específicos que, a partir de entonces, pudieran transmitirse en serie como caracteres
hereditarios. Entre microorganismos el ejemplo más notable de alteraciones hereditarias y específicas en la
estructura y función celulares que pueden inducirse experimentalmente y que son reproducibles bajo
____________________________________________________________________________
27.-Avery OT, MacLeod CM, McCarthy M (1944) Studies on the chemical nature of the substance
inducing transformation of Pneumococcal types. Induction of transformation by a desoxyribonucleic acid
fraction isolated from Pneumococcus Type III. Journal Experimental Medicine 79 (2), 137-159 (recibido
para publicación: nov 1943).
23
condiciones bien definidas y adecuadamente controladas es la transformación de tipos específicos de
Pneumococos. Este fenómeno fue descrito por primera vez por F. Griffith quién tuvo éxito al transformar una
variante atenuada y no encapsulada (R) derivada de un tipo específico en células completamente
encapsuladas y virulentas (S) de un tipo específico heterólogo […]
El presente trabajo se ocupa mediante un detallado análisis del fenómeno de transformación de tipos
específicos de Pneumococos. El principal interés se ha centrado en intentos para aislar el principio activo de
extractos bacterianos crudos y para identificar en lo posible su naturaleza química o al menos caracterizarlo
suficientemente para ubicarlo en un grupo general de sustancias químicas conocidas. Para el propósito del
estudio el ejemplo típico de transformación elegido como modelo de trabajo es uno con el que tenemos gran
experiencia y que parece el más adecuado para el análisis. Este ejemplo particular representa la
transformación de una variante R no encapsulada de Pneumococo Tipo II a otra de Pneumococo Tipo III […]
RESUMEN. 1. Se ha aislado de Pneumococo tipo II una fracción biológicamente activa y sumamente
purificada que, en cantidades mínimas, es capaz, en condiciones de cultivo apropiadas, inducir la
transformación de variantes R no capsulazas de Pneumococos tipo II en células completamente capsuladas
del mismo tipo específico que el de los microorganismos matados por calor de los que se extrajo el material
inductor. 2. Se describen los métodos de aislamiento y de purificación del material transformante activo. 3.
Los datos obtenidos mediante análisis químico, enzimático y serológico junto con los resultados de estudios
preliminares por electroforesis, ultracentrifugación y espectroscopia ultravioleta indican que, dentro de los
límites de los métodos, la fracción activa no contiene proteína, lípido libre o polisacárido serológicamente
reactivo demostrables, y consiste principalmente, si no exclusivamente, de una forma viscosa, sumamente
polimerizada, de ácido desoxirribonucleico. 4. Las pruebas indican que las alteraciones inducidas
químicamente en la estructura y función celulares son predecibles, tipo-específicas y transmisibles en series.
Se revisan las diferentes hipótesis propuestas respecto a la naturaleza de tales cambios.
CONCLUSIÓN. Las pruebas presentadas apoyan la creencia de que un ácido nucleico del tipo de la
desoxirribosa es la unidad fundamental del principio transformador del Pneumococo Tipo III».
El trabajo de Avery —contaba con 65 años cuando lo publicó— representa los
resultados de más de quince años de un intento sistemático para identificar la naturaleza de la
sustancia que cambia un carácter hereditario de una bacteria. Demostró que el ADN es el
equivalente químico del entonces mero concepto formal de gen. Considerando el desarrollo
científico que se llevó a cabo durante el resto del siglo XX no es aventurado afirmar —escribe
Peter Reichard28— que este descubrimiento fue uno, si no el más, importante de la fisiología
del pasado siglo. Sin embargo, nunca recibió un Premio Nobel.
En 1944 la comunidad científica no estaba muy interesada en los ácidos nucleicos. Sólo
unos pocos científicos estaban involucrados en esa área. Uno de ellos fue Einar Hammarsten,
Profesor de Química en el Instituto Kalolinska en Estocolmo. En 1924 había publicado una
Tesis sobre la preparación y propiedades del ADN o ácido timonucleico. Sólo unos pocos
estudiantes se vincularon a su empeño. El más notable entre ellos fue Torbjörn Caspersson
quién, en 1944, era Profesor y Presidente de un Instituto Nobel en el Instituto Karolinska.
Hammarsten participó de manera habitual en las deliberaciones para la concesión del Premio
Nobel en Fisiología o Medicina durante el periodo 1946-1954. Otros asiduos consultores fueron
Caspersson, Berndt Malmgren —profesor de bacteriología e inicialmente un estrecho
colaborador de Caspersson— y Alex Hugo Theodor Theorell, director del departamento de
Bioquímica en el Instituto Nobel de medicina. Theorell fue un serio candidato al Premio —
recibió el de Fisiología o Medicina, en 1955, por sus descubrimientos sobre la naturaleza y el
___________________________________________________________________________
28.-Reichard P (2002) Osvald T. Avery and the Nobel Prize in Medicine (Reflections: A paper in a series
commissioned to celebrate the Centenery of the JBC in 2005) Journal of Biological Chemistry 277 (16),
13355-13362.
24
mecanismo de acción de las enzimas oxidantes— y Caspersson lo fue también durante esos
años. No debe extrañar que ante tales circunstancias ni Theorell ni Caspersson apoyaran la
candidatura de Avery.
Sin embargo, Oswald T. Avery fue nominado candidato —junto con Michael
Heidelberger— al Premio Nobel de Fisiología o Medicina año tras año por su descubrimiento
de que la especificidad antigénica del pneumococo tipo III depende de su cubierta de
polisacáridos y no –como se creía- de una proteína de la superficie. Su trabajo demostró la
especificidad biológica de los polisacáridos. Muchos científicos criticaron esta conclusión; ello
sobre la base de sugerir una contaminación proteica. Tal objeción fue refutada en trabajos
posteriores y, antes de 1946, el trabajo fue evaluado, entre otros, por Hammarsten. En
cualquier caso, el trabajo no se consideró merecedor de un Premio Nobel. En 1946 las
nominaciones comenzaron a considerar el trabajo de Avery sobre la transformación bacteriana
por ADN, pero Hammarsten lo criticó arguyendo que el ADN de Avery estaba contaminado con
proteína y era ella el agente transformador. La historia volvió a repetirse.
Hammarsten, quién había demostrado la naturaleza macromolecular del ADN —al que
contemplaba como un simple tetranucelotido—, defendía la naturaleza proteica del gen. Ello a
pesar de que las variaciones en la secuencia de bases apuntaban el requerimiento estructural
de la especificidad biológica. Este concepto fue reforzado —comenta Peter Reichard— en un
seminario organizado por Edwin Chargaff durante una visita a Estocolmo en 1947. Sus análisis
del ADN mediante cromatografía en papel demostraron las llamativas variaciones en la
composición de bases del ADN de varios organismos. Chargaff aplaudió los resultados de
Avery y le propuso para el Premio Nobel. ¿Por qué Hammarsten no aceptó las conclusiones de
Avery? Primero por su experiencia personal de que las proteínas siempre contaminaban sus
muestras de ADN y, segundo, influido por el modelo de Caspersson de las interrelaciones
metabólicas entre proteínas y ácidos nucleicos que asignaba un papel secundario a los últimos.
Además, Avery no defendió su trabajo con ardor. Según Maclyn McCarthy, Avery tenía una
personalidad sosegada e introvertida; hombre modesto y enemigo de la especulación.
Una vez retirado Avery, otros continuaron su trabajo que, pronto, se vio confirmado. En
el Instituto Rockefeller, Rollin Hotchkiss29 transfirió resistencia a la penicilina con ADN de cepas
resistentes de pneumococos. André Boivin30, en París, publicó que ADN inducía mutaciones en
Escherichia coli. Hattie Alexander y Grace Leidy31 señalaron la transformación mediada por
ADN en Haemophilus, y, por otro lado, Boivin y Vendrely32 encontraron que todas las células
diploides de mamíferos contienen la misma cantidad de ADN: el doble del contenido en células
haploides; un hecho paralelo al aceptado de que las células germinales contienen la mitad de
genes que las células somáticas. Sin embargo, el viejo paradigma de que los genes eran
proteínas y que el ADN solo proporcionaba un soporte estructural durante la replicación génica,
resistió. En 1952, Malogren reevaluó el trabajo de Avery a la vista de los trabajos que lo
____________________________________________________________________________
29.-Hotchkiss RD. Transfer of penicillin resistance in Pneumococci by the desoxyribonucleate derived
from resistant cultures. Session V: Genetic mechanisms in bacteria and bacterial viruses. Cold Spring
Harbor Symposia on Quantitative Biology 16 (Genes and mutation): 457-461, 1951.
30.-Boivin A. Directed mutation in Colon bacilli, by an inducing principle of desoxyribonucleic nature: Its
meaning for the general biochemistry of heredity. Cold Spring Harbor Symposia on Quantitative Biology
12 (Nucleic acids and nucleoproteins): 7-17, 1947.
31.-Alexander HE, Leidy G. Induction of Streptomycin resistance in sensitive Hemophilus influenzae by
extracts containing desoxyribonucleic acid from resistant Hemophilus influenzae. Journal of Experimental
Medicine 97: 17-31, 1953.
32.-Boivin A, Vendrely R, Vendrely C (1948) L’acide désoxyribonucléique du noyau cellulaire, dépositaire
des caractéres héréditaires; arguments d’ordre analytique. Comptes Rendus Hebd Séanc de’l Academie
des Sciences Paris 226: 1061-1063.
25
apoyaban. El veredicto fue que, en ese momento, no era merecedor de un Premio Nobel; una
opinión que compartió el comité de los premios. En 1954 —se habían publicado los trabajos de
Alfred Hershey y Martha Chase y de Watson y Crick—, Hammarsten, que entonces reconoció
al ADN y no a las proteínas como principio transformante y que no mencionó estos dos nuevos
trabajos, volvió a vetar el reconocimiento de Avery, quien murió en 1955.
En aquella ventana temporal, desde la propuesta de Chargaff hasta la muerte de Avery,
los premios Nobel en Fisiología o Medicina fueron concedidos a:
1948. Paul Hermann Müller (1899-1965) por su descubrimiento de la eficiencia del
DDT como veneno de contacto contra varios artrópodos.
1949. Walter Rudolf Hess (1881-1973) por su descubrimiento de la organización
funcional del cerebro medio como un coordinador de las actividades de los
órganos internos, y
Antonio Caetano de Abreu Freire Moniz (1874-1955) por su descubrimiento
del valor terapéutico de la leucotomía en ciertas psicosis.
1950. Edward Calvin Kendall 1886-1972), Tadeus Reichstein (1897-1996) y Philip
Showalter Hench (1896-1965) por sus descubrimientos relativos a las
hormonas de la corteza adrenal, su estructura y efectos biológicos.
1951. Max Theiler (1899-1972) por sus descubrimientos relativos a la fiebre
amarilla y como combatirla.
1952. Selman Abraham Waksman (1888-1973) por su descubrimiento de la
estreptomicina, el primer antibiótico efectivo contra la tuberculosis.
1953. Hans Adolf Krebs (1900-1981) por su descubrimiento del ciclo de ácido
cítrico, y
Fritz Albert Lipmann (1899-1986) por su descubrimiento de la coenzima A y
su importancia para el metabolismo intermediario.
1954. John Franklin Enders (1897-1985), Thomas Huckle Weller (1915-) y
Frederick Chapman Robbins (1916-) por su descubrimiento de la capacidad
del virus de la poliomielitis para crecer en cultivos de varios tipos de tejidos.
Poco tiempo después de la muerte de Avery las circunstancias cambiaron rápidamente.
En 1949 se publicaron los hallazgos de Chargaff et al que dieron lugar a las «reglas de
Chargaff». En 1952 apareció el artículo de Hershey y Chase, concluyente respecto al papel del
ADN como material genético. El trabajo de Watson y Crick, que disipaba toda duda sobre la
estructura del ADN y su condición de material genético, lo hizo en 1953.
EL “GRUPO FAGO”
Niels Bohr, quién recibió el Premio Nobel de Física 1922, por sus servicios en la
investigación de la estructura de los átomos y de la radiación que de ellos emana, tuvo un gran
interés por la filosofía. Hijo de un fisiólogo, aceptó dar una conferencia en el Congreso de
Fototerapia de Copenhague, en 1932. Niels Bohr eligió hablar sobre filosofía de la biología;
conferencia que publicaría con el título «Luz y Vida»33. Bohr centró la conferencia sobre uno de
los principios básicos de la mecánica cuántica: el principio de complementariedad. Aunque es
posible determinar la localización o la velocidad de una partícula subatómica —por ejemplo, un
electrón—, no es posible determinar ambas simultáneamente porque el acto de medida
perturba el sistema. Las técnicas que analizan la posición de un electrón alteran su velocidad;
las técnicas que miden la velocidad alteran la posición. Localización y velocidad son
____________________________________________________________________________
33.-Bohr N (1933) Light and Life. Nature 131, 421-423 y 457-459.
26
propiedades complementarias del electrón. Bohr apuntó la analogía entre los intentos del físico
para caracterizar el átomo y el de los biólogos para caracterizar la célula. Las células vivas
están hechas de materia ordinaria y son susceptibles de análisis químico; pero la materia está
organizada de manera compleja. Para el análisis químico, la organización debe ser destruida;
para estudiar la organización debe operarse a un nivel en el que la química es «invisible». Bohr
propuso que la base química de un organismo y su jerarquía organizativa son propiedades
complementarias, igual que la velocidad y la posición lo son para el electrón.
Discípulo de Bohr fue Max Henning Delbrück. Nacido en Berlín en 1906, estudió
astronomía y física. Delbrück, de la mano de su maestro, se impregnó del «espíritu de
Copenhague»: [física + poesía + filosofía]. Su amplitud de intereses se extiende desde el libro
¿Mente o Materia? a la conferencia que preparó, poco antes de morir, sobre Rainer Maria
Rilke para el Centro de Poesía de New York. Delbrück asistió a la conferencia «Luz y Vida», lo
que tendría una influencia decisiva en su carrera como biólogo. Abraham Pais, biógrafo de
Bohr, escribió que la mayor contribución del gran físico a la biología fue su papel en la
conversión de Delbrück a la biología. Pero Delbrück interpretó libremente la conferencia de
Bohr. Para Delbrück, la primera razón para que un físico se interesara por la biología era que el
análisis de las propiedades complementarias de los organismos vivos pudiera producir una
«paradoja» similar a la que encontraban los físicos cuando estudiaban los fenómenos
atómicos:
«En vez de esperar que, al final, los principios físico-químicos expliquen el fenómeno global que exhiben
las células vivas, esperamos encontrar límites naturales a tal estrategia, y encontrar nuevos territorios
vírgenes en los que nuevas leyes impliquen nuevos conceptos vagamente relacionados con los de la
física»34.
La biología tiene la lleve para una nueva física. Esta interpretación errónea —comenta
Hunter — del mensaje de Bohr fue —paradójicamente— el efecto más significativo de «Luz y
Vida». En 1932, Delbrück, aún físico, participó en un grupo de discusión en el que participaron
Nikolai Timoféeff-Resovsky, genetista de Drosophila, y el radiobiólogo Karl Zimmer.
Consecuencia de ello fue un trabajo titulado «Sobre la naturaleza de la mutación y la estructura
del gen»36 que publicaron en una revista prácticamente desconocida; el trabajo fue conocido
como el «Three-Man-Work» y, también, por el color de la cubierta de las separatas, como el
«Green Paper» —la «publicación verde»—. La contribución de Delbrück fue el apartado titulado
«Modelo físico-atómico de la mutación del gen»; el principal mensaje de la publicación fue que
la estabilidad del gen se debía a la fortaleza de las fuerzas interatómicas, mientras que su
mutación se debía a un salto cuántico desde una configuración estable a otra. A pesar de que
todas las observaciones resultaron ser falsas, el «Green Paper» ocupa, para numerosos
autores, un lugar importante en la historia de la biología. Una de las copias llegó a poder del
físico Edwin Schrödinger.
Schrödinger nació en Viena en 1887. En 1927 sucedió a Max Plank como profesor de
física teórica en la Universidad de Berlín. En 1933, año en que compartió la mitad del Premio
Nobel de Física 1933 con Paul Adrien Maurice Dirac, por el descubrimiento de nuevas formas
de la teoría atómica (la otra mitad del Premio se otorgó a Werner Heisenberg por la creación de
la mecánica cuántica), se trasladó a Oxford. Retornó a Alemania y, en 1938 se exiló
definitivamente en Irlanda. Una de las obligaciones de su puesto en el Instituto de Estudios
____________________________________________________________________________
35
34.-Delbrück MH (1949) cit.
35.-Citado en: Hunter GE, pg 220 (v.b.s.).
36.-Delbrück MH, Timoféeff-Ressovsky N, Zimmer K (1935) Über die Natur der Genmutation und der
Genstruktur. Gesellschaft der Wissenschaften zu Göttingen (Citado en Olby R, pg 232-233, v.b.s.).
27
Avanzados de Dublín fue desarrollar un tema en una serie de conferencias públicas. En 1943
eligió «las relaciones entre la física y la biología»; ello, al parecer, tras la lectura, años antes,
del «Green Paper», donde Delbrück argumentó que las mutaciones genéticas y el fenómeno
cuántico representaban transiciones entre diferentes estados estables. Schrödinger incorporó
el «modelo de Delbrück» del gen en su serie de tres conferencias que fueron publicadas al año
siguiente con el título ¿Qué es la Vida? Comenta Hunter que Delbrück interpretó erróneamente
«Luz y Vida», y que Schrödinger, fascinado por el «modelo erróneo» de Delbrück, escribió
¿Qué es la Vida?”, uno de los libros científicos más influyentes.
En el primer capítulo, «Enfoque del tema por parte del físico clásico. Características
generales y propósito de la investigación», Schrödinger escribe:
«El problema vasto, importante y muy discutido es este: ¿Cómo pueden ser explicados por la física y la
química los acontecimientos que tienen lugar en el espacio y en el tiempo dentro de los límites espaciales de
un organismo vivo? La respuesta introductoria que este librito intentará exponer y asentar puede resumirse
así: La evidente incapacidad de la física y la química actuales para explicar tales fenómenos no es en modo
alguno motivo para duda de que, en el futuro, ellos puedan ser explicados por esas ciencias».
Por su parte, el espíritu del «Green paper» queda reflejado en el apartado «Mutaciones
discontinuas: Material de trabajo de la selección natural»:
«No obstante, el holandés Hugo de Vries descubrió hace unos cuarenta años que incluso en la
descendencia de cepas realmente puras, un número muy pequeño de individuos, algo así como dos o tres
entre varias decenas de miles, aparece con cambios pequeños pero que suponen una especie de “salto”. La
expresión “salto” no quiere significar que el cambio sea especialmente importante, sino que supone una
discontinuidad en el sentido de que no hay formas intermedias entre la forma inalterada y los pocos
individuos que han cambiado. Tras su observación, de Vries les dio el nombre de mutaciones. El hecho
significativo es la discontinuidad. Al físico le recuerda la teoría cuántica, según la cual no hay energías
intermedias entre dos niveles energéticos contiguos. Podríamos llamar a la teoría de la mutación, de forma
figurada, la teoría cuántica de la biología. Más adelante veremos que tal denominación es mucho más que
figurativa. Las mutaciones se deben, de hecho a saltos cuánticos en las moléculas del gen. Pero la teoría
cuántica sólo tenía dos años cuando de Vries publicó su teoría de la mutación, el año 1902. No es, pues,
extraño que se necesitase una generación más para descubrir la íntima relación entre ambas».
Schrödinger planteó dos ideas características del gen: su estructura de «sólido aperiódico» —
un polímero compuesto de unidades diferentes—, y la de «incorporar una escritura codificada»
capaz de recrear el plan corporal total del organismo a partir de una sola célula. Respecto a lo
primero, en el apartado «La distinción es lo que importa», puede leerse:
«Una molécula pequeña podría ser denominada “el germen de un sólido”. Partiendo de uno de esos
pequeños gérmenes sólidos parecen existir dos caminos diferentes para construir asociaciones cada vez
mayores. Uno de ellos, bastante rudimentario en comparación, consiste en repetir una y otra vez la misma
estructura en tres direcciones. Es el elegido en el caso de un cristal en crecimiento. Una vez establecida la
periodicidad, no se presenta un límite definido para el tamaño del agregado. El otro camino consiste en ir
construyendo un agregado cada vez más extenso sin el torpe recurso de la repetición. Este es el caso de las
moléculas orgánicas, cada vez más complicadas, en las que cada átomo y cada grupo de átomos,
desempeña un papel individual, no enteramente equivalente al de muchos otros (como en el caso de la
estructura periódica). Con pleno fundamento podríamos llamarlo un cristal o sólido aperiódico y expresar
nuestra hipótesis diciendo: Creemos que un gen –o tal vez toda la fibra del cromosoma- es un sólido
aperiódico».
A continuación, en el apartado «Variedad de contenido encerrada en la clave en miniatura»
escribió:
28
«A menudo se ha preguntado cómo en esta diminuta mancha de materia, el núcleo de un óvulo fertilizado,
puede estar contenida una clave elaborada y que contiene todo el desarrollo futuro del organismo. Una
asociación bien ordenada de átomos, capaz de mantener permanentemente su orden, parece ser la única
estructura material concebible que ofrece una variedad de posibles organizaciones —“isoméricas”— y que es
suficientemente grande como para contener un sistema complicado de “determinaciones” dentro de
reducidos límites espaciales. En efecto, el número de átomos de una estructura tal no necesita ser muy
grande para producir un número casi ilimitado de posibles combinaciones […] Lo que deseamos ilustrar es
sencillamente que, con la imagen molecular del gen, ya no es inconcebible que la clave en miniatura
corresponda con exactitud a un plan altamente complejo y especificado de desarrollo, y que contenga, en
alguna forma, los medios para hacerlo funcionar».
El «Green paper» también sirvió para que Delbrück abandonase Alemania en 1937. La
Fundación Rockefeller, a través del programa de ayuda a universitarios europeos perseguidos
por racismo o ideas políticas, le facilitó la entrada en el laboratorio de Thomas Morgan, pero la
mosca le pareció un modelo demasiado complejo para su pretensión de aplicar una estrategia
física a sus intereses en genética. Un año después se asoció con Emory Ellis, quién trabajaba
con bacteriófagos. Delbrück vio en los fagos el modelo perfecto para estudiar la naturaleza del
gen y su replicación.
En 1940, tras un encuentro y breve colaboración con Linus Pauling, Delbrück contactó
con el físico italiano —reconvertido en biofísico— Salvador Luria y con Alfred D. Hershey, un
investigador en fagos de la Universidad de Washington, en St. Louis. Ellos tres formaron en
meollo de lo que llegaría a conocerse como el «Grupo Fago», y los tres recibieron el Premio
Nobel en Fisiología o Medicina 1969 por sus descubrimientos relacionados con los
mecanismos de replicación y la estructura genética de los virus. Uno de los doctorandos de
Luria fue James Dewey Watson quién, en 1950, obtuvo su Doctorado en zoología con una
Tesis sobre el efecto de los rayos-X sobre la multiplicación de los bacteriófagos. En 1952,
Alfred D. Hershey y Martha C. Chase (FIGURA 6) publicaron un trabajo —«Funciones
independientes de la proteína y del ácido nucleico virales en el crecimiento del bacteriófago»—
que disipó cualquier duda sobre el papel genético del ADN:
Figura 6.El experimento de Alfred D. Hershey (1908–1997) y Martha C. Chase (Martha C.
35
32
Epstein, 1927-2003). El marcaje diferencial de proteínas (S ) y del ácido nucleico (P ), permite
seguir el destino celular de ambos componentes.
29
«DISCUSIÓN. Hemos demostrado que cuando una partícula de bacteriófago T2 se adosa a una célula
bacteriana, la mayor parte del ADN —[marcado con fósforo]— del fago entra en la célula, mientras que un
resto que contiene al menos el 80% de la proteína del fago, marcada con azufre, permanece sobre la
superficie celular. Este resto consta del material que formaba la membrana protectora de la partícula del
fago, y que no desempeña papel alguno en la infección tras la unión del fago a la bacteria. Tales hallazgos
dejan sin contestar la posible función del 20% restante de la proteína marcada con azufre que puede o no,
entrar en la célula. Hemos encontrado que poco o nada de ella se incorpora en la progenie de la partícula
infectiva, y que al menos parte de ella consta de material adicional semejante al que puede demostrarse que
permanece extracelular. Por otro lado, fósforo y adenina (Watson y MaaØle, 1952) derivados del ADN de la
partícula infectiva son transferidos a la progenie del fago en cantidad considerable. Inferimos que la proteína
marcada con azufre no tiene función alguna en la multiplicación del fago, y que el ADN si la tiene.
Debe recordarse que las siguientes preguntas permanecen sin contestar. (1) ¿Entra en la célula algún
material marcado con azufre, aparte del ADN? (2) Si es así, ¿se transfiere a la progenie del fago? (3) La
transferencia de fósforo a la progenie ¿es directa –es decir, permanece en todo momento en una forma
específicamente identificable como un compuesto del fago- o indirecta?
Nuestros experimentos muestran con claridad que es posible una separación física del fago T2 en una
parte genética y en otra parte no genética. Una diferenciación funcional correspondiente se refleja en la
independencia, al menos parcial, del fenotipo y del genotipo en el mismo fago (Novick y Szilard, 1951;
Hershey et al., 1951). Sin embargo, la identificación química de la parte genética debe esperar a que las
preguntas arriba mencionadas hayan sido contestadas […]
RESUMEN. 1. El shock osmótico rompe las partículas de fago T2 en material que contiene casi todo el
azufre de marcaje en una forma precipitable por suero antifago, y capaz de adsorberse de manera específica
sobre la bacteria. [El shock osmótico] Libera en la solución casi todo el ADN del fago en una forma no
precipitable por antisuero y no adsorbible sobre la bacteria. La proteína -marcada con azufre- de la partícula
del fago conforma una membrana que protege el ADN del fago de ADNasa, comprende el único o el principal
material antigénico, y es responsable del anclaje del virus a la bacteria […] 5. Los hechos expuestos
muestran que, tras la infección, la mayor parte del azufre [proteína] permanece en la superficie celular, y que
la mayor parte del ADN [fósforo] del fago penetra en la célula […] 7. El fago inactivado por formaldehído
diluido es capaz de adsorberse sobre la bacteria, pero no cede su ADN a la bacteria. Ello demuestra que la
interacción entre el fago y la bacteria, que resulta en la liberación del ADN del fago de su membrana
protectora, depende de componentes lábiles de la partícula del fago. Por el contrario, los componentes de la
bacteria esenciales para su interacción son estables. La naturaleza de la interacción se desconoce. 8. En las
partículas de fago en reposo, la proteína marcada con azufre está confinada a la cubierta protectora que es
responsable para la adsorción sobre la bacteria, y que funciona como un instrumento para la inyección del
ADN del fago en la célula. Probablemente, esta proteína no tiene función alguna en el crecimiento intracelular
del fago. El ADN si tiene alguna función. No deben sacarse otras inferencias químicas de los experimentos
presentados»37.
Las dieciocho citas aportadas por Hershey y Chase no incluyen el trabajo de Avery,
MacLeod y McCarthy. El historiador de la ciencia Nicholas Mullins38 hizo notar que los
«componentes del Grupo del fago solían leer y utilizar ideas, exclusivamente, de los miembros
del grupo». Numerosos científicos e historiadores —Francis Crick, Joseph Fruton, Joshua
Lederberg, Robert Olby, Hunter Stent— han hecho notar que las pruebas aportadas por
Hershey y Chase a favor del protagonismo genéticos del ADN fueron menos concluyentes que
las presentadas por Avery y sus colaboradores.
____________________________________________________________________________
37.-Hershey AD, Chase M (1952) Independent functions of viral protein and nucleic acid in growth of
bacteriophage. Journal of General Physiology 36, 39-56.
38.-Citado en: Hunter GE, pg 295 (v.b.s.).
30
LA ESTRUCTURA DEL ADN
La estructura del ADN se asentó sobre tres pilares: los estudios de difracción de rayosX de las macromoléculas, la regla «1:1» de Chargaff y el tautomerismo de las bases
nitrogenadas. La función del ADN como material genético derivó de los estudios de Avery y de
Hershey, y del mecanismo de copia sobre la base del apareamiento específico de las bases en
el modelo estructural. Estructura y función van de la mano.
La difracción de rayos X inició su andadura en el análisis estructural de la mano de Max
von Laue quién estudió, en la Universidad de Frankfurt, dicho fenómeno en los cristales; ello
que le valió el Premio Nobel de Física 1914. La importancia del tema hizo que, al siguiente año,
el Premio recayera en William Henry Bragg y William Lawrence Bragg Jr., por sus servicios en
el análisis de los cristales mediante rayos X.
Desde finales de la década de 1930, la técnica, en su orientación hacia la materia
orgánica, estaba bien implantada. En Inglaterra: W.L. Bragg, Max Perutz y John Kendrew, en el
laboratorio Cavendish de la Universidad de Cambridge (Francis Crick se uniría a este grupo en
1949); Dorothy Crowfoot, en la Universidad de Oxford; William Thomas Astbury, en la
Universidad de Leeds; John Desmond Bernal, en el Birkbeck College en Londres. En Norte
América, Linus Pauling, Robert B. Corey y su grupo de cristalografía del Instituto Tecnológico
de California. El grupo de Pauling realizó un estudio sistemático de difracción de rayos X sobre
cristales de compuestos orgánicos: aminoácidos, péptidos y proteínas, esencialmente de
carácter fibroso. No fueron los únicos en este esfuerzo, pero sí los más afortunados39.
En 1951, el grupo de CalTech presentó datos relativos a distancias y ángulos de enlace
en cadenas polipeptídicas; elaboró un modelo para una estructura helicoidal (α-hélice) presente
en proteínas fibrosas, en el que la hélice estaría estabilizada por enlaces de hidrógeno, y, poco
tiempo después, propuso la estructura en lámina plegada antiparalela (lámina β) como otra
conformación posible de las proteínas. La α -hélice y la lámina β resultaron ser conformaciones
habituales de las proteínas, con lo que la difracción de rayos X sentó las bases para la
estructura de las macromoléculas, y Linus Pauling (FIGURA 7a) recibió el P.N. Química 1954
por su trabajo sobre la naturaleza del enlace químico y su aplicación al estudio de la estructura
de las sustancia complejas. El enlace químico40 sería pieza clave en la estructura del ADN.
Figura 7. (A) Linus Pauling (1901-1994).
(B) William T. Astbury (1898-1961)
____________________________________________________________________________
39.-Gavilanes JG (1986) Historia de la bioquímica a través de su instrumentación. En: Real Academia de
Ciencias. Historia de la Ciencia: Historia de la Bioquímica. Madrid: Realigraf SA. Pgs 41-47.
nd
40.-Pauling L (1940) The Nature of the Chemical Bond, 2 ed. Cornell University Press: Ithaca, NY.
Sobre la base de una serie de siete artículos publicados en Journal of the American Chemical Society (IIV) y Journal of Chemical Physics (V-VII), a lo largo de los años 1931-1933. «El libro al que más atención
prestaba era el ejemplar de Francis The Nature of Chemical Bond […] Así pues, el regalo (Navidad de
1951) de un segundo ejemplar que me hizo Francis fue un buen presagio», comenta Watson [The
Double Helix, pg 70; La Doble Hélice, pg 65; v.b.s.].
31
Por otro lado, los primeros estudios de difracción de rayos X de fibras de ADN se
realizaron en la década de los 1940s, fecha en la que estaba asentada la composición de la
molécula a partir de bases, azúcar —desoxirribosa— y fosfato, y aunque seguía sin aceptación
universal su papel como material genético. En su primer trabajo41, publicado en 1938, William
Thomas Astbury (FIGURA 7b), estudiando ADN de gran calidad proporcionado por Einar
Hammarsten y Torbjörn Caspersson del Instituto Karolinska de Estocolmo, ya hablaba de
bases nitrogenadas situadas en planos paralelos y apiladas —con una separación de 3.4 Å—
formando columnas (FIGURA 8); sin embargo, los datos de difracción no encajaban en la
estructura tetranucleotídica entonces definida (modelo estándar). El patrón de difracción
obtenido por Astbury y FO Bell no era de la suficiente calidad para medir la longitud de la
repetición axial (la longitud de la repetición de la unidad básica a lo largo del eje de la fibra). En
1947, Astbury revisaría sus resultados para «encajarlos» con el modelo estándar.
Figura 8. Modelo de Astbury y Bell de la estructura del ADN. Las
unidades de «desoxirribosa-base» se apilan unas sobre otras
(modelo de «pila de monedas»), a una distancia de 3.4 Å,
manteniéndose unidas mediante grupos fosfato (Modificada de:
41
W. T. Astbury y F. O. Bell 1938, pg 112 ).
En 1949, Sven Furberg42, de la Universidad de Oslo y colaborador de Bernal en
Birkbeck, propuso en su Tesis doctoral dos posibles estructuras del ADN. Ello, merced a la
interpretación de sus hallazgos sobre la orientación relativa de las bases y de los azúcares, y
sobre la base de las periodicidades señaladas por Astbury: una distancia de repetición a lo
largo del eje de 27 Å y un espacio de 3.4 Å entre bases adyacentes. Según el primer modelo, el
esqueleto fosfato-azúcar formaba una espiral con ocho nucleotidos por vuelta, y las bases
nitrogenadas yacerían paralelas y separadas, una de otra, por una distancia de 3.4 Å. En el
segundo modelo, los restos de fosfato y la pentosa zigzaguean a lo largo del eje de la molécula
con las bases proyectándose desde el eje molecular y separadas 6.8 Å entre sí. Si bien ambos
modelos respetan el «modelo estándar», el primero de ellos representa la primera
conformación helicoidal propuesta para la molécula de ADN.
Paralelamente, en el King’s College de Londres, John T Randall, Maurice Wilkins y
Alexander R Stokes y, a partir de enero de 1951, Rosalind Franklin se esforzaban, por su parte,
en desentrañar la estructura del ADN. En el verano de 1951, Franklin hizo un descubrimiento
importante: la misma muestra de ADN podía proporcionar dos patrones de difracción de rayos
X diferentes, dependiendo del contenido acuso de la molécula. Con un grado de humedad
____________________________________________________________________________
41.-Astbury WT, Bell FO (1938) X-ray study of thymonucleic acid. Nature 141 (Nº3573), 747-8. Astbury
WT (1939) X-Ray studies of the structure of compounds of biological interest. Annual
Reviews
in
Biochemistry 8, 113-132.
42.-Furberg S (1949) Tesis doctoral. Citada por R Olby (v.b.s.), pg 339. Furberg S (1950) An X-ray study
of the stereochemistry of the nucleosides. Acta Chemica Scandinavica 4, 751-761. X-ray studies on the
decomposition products of the nucleic acids. Transactions of the Faraday Society 46, 791. Furberg S
(1952) On the structure of nucleic acids. Acta Chemica Scandinavica 6, 634-640.
32
≤75% predominaba un patrón de difracción «cristalino»; con un índice ≥ 95% se observaba un
patrón «paracristalino». Las formas cristalina —seca— y paracristalina —hidratada— del ADN
se denominaron «A» y «B», respectivamente; el ADN-B remeda la situación fisiológica del ADN
en el núcleo celular. Hasta ese momento, los cristales de ADN utilizados por Astbury y otros
investigadores contenían una mezcla de esas dos formas, lo que, de hecho, complicó la
interpretación de los datos experimentales (FIGURA 9).
Figura 9. Imagen de difracción de rayos X de la molécula de ADN. La técnica proporciona
información sobre la localización de cada átomo y, con ello, de la forma de la molécula, y sobre las
longitudes de los enlaces químicos y de los ángulos entre los enlaces. Ello, a partir de un patrón
formado por una serie de densidades puntuales y de densidades lineales dispuestas en capas
concéntricas espaciadas. (a) Patrón de difracción de esperma. Las moléculas de ADN (mezcla de
formas A y B) tienen sus ejes verticales. El espaciado internucleotídico de 3.4 Å corresponde a la
intensa difracción en las partes superior e inferior de la fotografía. Las nítidas reflexiones en la parte
central del diagrama muestran que las moléculas están en forma cristalina. (b) Fotografía de
difracción de rayos X de fibras de ADN (configuración B). Las fibras son verticales. La difracción 3.4
se localiza en las zonas superior e inferior. El ángulo del perfil central en X, debido a la difracción de
la zona central de la molécula, corresponden al ángulo de ascenso de las cadenas polinicleotídicas
en la molécula helicoidal (Tomadas de: MHF Wilkins, Conferencia Nobel 1962; pgs 137 y 138).
En esta situación, Linus Pauling no podía sustraerse al estudio de las fibras de ADN;
máxime cuando intuía que el procedimiento utilizado en el estudio de la estructura de las
cadenas polipeptídicas podría considerarse para la fibra de ADN. En efecto, en 1952, Pauling y
Verter Schomaker43 publicaron sus primeras impresiones acerca de la estructura del ADN. Y en
febrero de 1953, Pauling y Corey aportaban una corta nota en Nature44 —«Estructura de los
ácidos nucleicos»—, que ampliarían en las Actas de la Academia de Ciencias de EE.UU.. El
artículo fue enviado a finales de diciembre de 1952, pero fue corregido en febrero el mismo
___________________________________________________________________________
43.-Pauling L, Shomaker V (1952) On a phospho-tri-anhydride formula for the nucleic acids.
of the American Chemical Society 74, 1111 y 3712-3713.
44.-Pauling L, Corey RB (1953) Structure of the nucleic acids. Nature 171, 346.
Journal
33
mes de su publicación. De acuerdo con sus notas45, 46, Pauling comenzó experimentando con
una estructura de dos cadenas, pero tres de ellas ajustarían mejor los cálculos de densidad
efectuados. A diferencia de los modelos de Watson y Crick de 1951, y del modelo de Astbuty
de «pilas de monedas», Pauling no prestó atención a la atracción electrostática entre las bases;
sin embargo, introdujo el enlace de hidrógeno entre los grupos fosfato:
«Hemos formulado una estructura para los ácidos nucleicos que es compatible con los principales hechos
del diagrama de rayos X y con los principios generales de la estructura molecular, y que cumple
satisfactoriamente algunas de las propiedades químicas del compuesto. La estructura incluye tres cadenas
polinucleotídicas helicoidales enrolladas entre sí. Cada cadena, que está formada por grupos fosfato
engarzados por restos de azúcar, tiene aproximadamente 24 nucleotidos en siete vueltas de hélice. Las
hélices son dextrógiras. Los grupos fosfato están densamente empaquetados alrededor del eje de la
molécula, con las pentosas rodeándoles, y los grupos púricos y pirimidínicos proyectándose radialmente y
siendo sus planos aproximadamente perpendiculares al eje de la molécula».
Los logros del grupo de Pauling precipitaron los acontecimientos.
EL TRIUNFO DE LA «HÉLICE DORADA»: OCTUBRE 1951 – ABRIL 1953
Los actores. El asalto definitivo a la molécula master de la célula fue un drama
innegable; una comedia intelectual de gran altura y, por su trepidante acción, un thriller en toda
regla del que fueron actores principales47:
—En el Cavendish Laboratory, en Cambridge (FIGURA 10):
* Sir Lawrence Bragg (1890–1971), Cavendish Professor de Física experimental y
Director del Cavendish desde la muerte de Lord Ernest Rutherford, en 1937.
* Max Perutz (1914–2002), químico y cristalógrafo. Jefe de la Unidad en la que Watson y
Crick implementaron su “drama”.
*Francis Harry Compton Crick. Nació el ocho de junio de 1916, en Norhampton,
Inglaterra. Educado en la Norhampton Grammar School y en la Mill Hill School de
Londres. Estudió física en el University College, Londres, graduándose en 1937. Inició
su Tesis doctoral —«Viscosidad del agua bajo presión, entre 100ºC y 150ºC»— bajo la
dirección del Prof. Edward Neville da Costa Andrade48, pero tuvo que interrumpir su
doctorado a causa de la Guerra, en 1939. Durante el conflicto bélico trabajó para el
Almirantazgo inglés en minas acústicas y magnéticas, actividad que abandonó en 1947
para estudiar biología. Beneficiado por una beca del Medical Research Council y
ayudado por su familia, Crick fue a Cambridge para trabajar en el Strangeways
Research Laboratory. En 1949 fue admitido en la Medical Research Council Unit que
dirigía Max F. Perutz. La Unidad estuvo albergada, hasta 1962, en el Cavendish
boratory, en Cambridge. En 1950 fue admitido como doctorando en el Caius College, de
____________________________________________________________________________
45.-Pauling L, Corey RB (1953) A proposed structure for the nucleic acids. Proceedings of the National
Academy of Sciences USA 38, 84-97 (Aceptado para su publicación: 31 diciembre
1952).
46.-Citado en: Olby R, pg 380 (v.b.s.).
47.-Judson HF, pg 7 (v.b.s.).
48.-Andrade ENC (1887-1971) Físico británico. Estudió en el University Colege de Londres y en
Heidelberg, donde realizó el doctorado. Trabajó con Ernest Rutherford, en Manchester, entre 1911 y
1914. Ocupó la cátedra de Física en el University College (1928-1950), dirigiendo la Royal Institution
entre 1950 y1952. Jugó un papel importante en el inicio –1938- de la monumental tarea de la publicación
de las cartas de Newton.
34
Figura 10. El “equipo” del Medical Research Council en el Cavendish Laboratory, en
Cambridge: (a) William L. Bragg (1890–1971), (b) Max F. Perutz (1914–2002), (c) Francis H.
C. Crick (1916-) y (d) James D. Watson (1928-).
35
la Universidad de Cambridge, concluyendo su Tesis doctoral —«Difracción de rayos X:
polipéptidos y proteínas»— en 1954. En el transcurso de su Tesis doctoral surgió la
colaboración con Watson, que culminó con la doble hélice (1951-1953) y concluyó con
una teoría general de la estructura viral (1955-1957). A partir de 1957 Crick, en
colaboración con Sydney Brenner (Premio Nobel en Fisiología o Medicina 2002), se
centró en temas bioquímicos y genéticos; una relación que condujo a ideas sobre la b
biosíntesis de las proteínas —«hipótesis del adaptador»— y sobre el código genético.
En 1960 abordó el estudio de la estructura y función de ciertas proteínas asociadas con
los cromosomas (histonas). En 1976 fue nombrado Kieckhefer Profesor en el Salk
Institute for Biological Studies en San Diego, California, donde lanzó su proyecto para el
estudio del cerebro. En 1940 se casó con Ruth Doreen Dodd; su hijo, Michael F. Crick
es un científico. Divorciado en 1947, contrajo matrimonio con Odile Speed en 1949.
Tuvieron dos hijas, Gabrielle A. y Jacqueline M. T., Crick. El matrimonio vivió en una
casa llamada The Golden Helix, en La Jolla, California, donde murió en julio de 2004.
Tal vez, el biólogo más brillante del siglo XX.
*James Dewey Watson. Nació en Chicago, el seis de abril de 1928. Estudió en la Horace
Mann Grammar School y en la South Shore High School, de Chicago. Se graduó en
Zoología, en la Universidad de Chicago, en 1947. Fue en ornitología donde más interés
demostró. Desarrolló su doctorado en la Universidad de Indiana, en Bloomington, donde
tuvo la oportunidad de trabajar con los genetistas H. J. Muller, T. M. Sonneborn y S. E.
Luria, bajo cuya tutela realizó su Tesis doctoral, “Efecto de los rayos X sobre la
multiplicación de bacteriofagos”, que concluyó en 1950. De septiembre de 1950 al
mismo mes del año siguiente, disfrutó de una beca postdoctoral en Europa. En octubre
de 1951 consiguió prolongar su beca integrándose en el laboratorio Cavendish, en la
Unidad dirigida por M. Perutz, Tras el éxito de su colaboración con Crick, Watson estuvo
en CalTech, entre 1953 y 1955; allí trabajó con Alexander Rich en estudios del ARN
mediante difracción de rayos X. En 1955-1956 volvió a Cambridge; de nuevo la
colaboración con Crick fue corta y provechosa. De regreso en EE.UU., se integró en la
Universidad de Harvard: Assistant Professor en 1956, Associate Professor en 1958 y
Full Professor en 1961. Durante este periodo estudió el papel de ARN en la síntesis de
proteínas, siendo sus principales colaboradores el bioquímico suizo Alfred Tissières, el
bioquímico francés Françoise Gros y el físico teórico Walter Gilbert. En 1968 fue
nombrado director del Cold Spring Harbor Laboratory en Long Islad, EE.UU. del que es
presidente desde 1994. Ocupó la dirección del Programa Genoma Humano de los
Institutos Nacionales de la Salud de EE.UU. durante el periodo 1988-1992. Permanece
soltero. Tuvo a la Ciencia como causa principal; pero sólo la Ciencia.
*Jerry Donohue, cristalógrafo norteamericano procedente de CalTech.
*John Griffith (1928 – 1972), nieto del descubridor de la transformación bacteriana Fred
Griffith (ver pg 16); matemático interesado en genética bioquímica.
*Odile (Speed) Crick (FIGURA 11), artista anglo-francesa, estudió dibujo y pintura en
Viena, París y Londres. Dibujó el diagrama de la doble hélice que apareció en la
publicación de abril de 1953.
—En el King’s College, en Londres (FIGURA 12):
*John T Randall (1905 -), biofísico; director de la “Medical Research Council Biophysics
Research Unit” desde su fundación en 1947, y jefe de Wilkins y de Franklin.
*Maurice Hugo Frederick Wilkins (1916 -2004), físico; trabajó en el proyecto Manhatan.
Cambió al campo de la biología tras la Guerra. Perteneció a la Unidad de investigación
en biofísica desde su creación. Fue de los primeros que aplicó la técnica de difracción
36
de rayos X para estudiar el ADN. Amigo de Crick, apreciado por Watson y enemistado
con
*Rosalind Elsie Franklin (1920 -1958), química; estudió la cristalografía del carbón
mineral en París. Llegó al King’s en enero de 1951. Inteligente y meticulosa. La mejor
situada para haber desenmarañado el ovillo del ADN. Utilizaron sus datos. Se aisló. Su
muerte precoz la impidió asistir al “acto” final.
—En el College of Physycian and Surgeons de la Universidad de Columbia, en New York:
*Edwin Chargaff (1905 -), bioquímico de los ácidos nucleicos. Descubrió una relación
fundamental, pero no se dio cuenta de su significado. Un defensor a ultranza de la “gran
tradición” en bioquímica, y contrario al modo de hacer ciencia de unos “advenedizos”
como Watson y Crick. Facilitó muestras de ADN a los grupos en liza; lo mismo hizo
*Rudolf Signer —se ocupaba de las propiedades físicas del ADN—, de la Universidad de
Berna.
—En el California Institute of Technology, en Pasadera:
*Linus Pauling (1901 – 1994), Profesor de Química. El más brillante, versátil y productivo
físico-químico del siglo XX. Más que un científico, una fuerza de la naturaleza. Par y
rival de Bragg. Además, Premio Nobel de la Paz 1962.
Figura 11. Odile —Speed— Crick,
y su dibujo del ADN
Figura 12.
El “grupo” del Medical Research Council en el King’s
College, en Londres: (a) John T. Randall (1905-1984), (b) Maurice
H. F. Wilkins (1916-) y (c) Rosalind E. Franklin (1920-1958).
37
UN TORRENTE DE ACONTECIMIENTOS.
Comenta Watson en La Doble Hélice que:
«Wilkins fue el primero que avivó mi interés acerca de los trabajos realizados con rayos X sobre el ADN.
Sucedió en Nápoles con ocasión de una pequeña reunión científica celebrada sobre las estructuras de las
grandes moléculas que se encuentran en las células vivas. Corría entonces la primavera de 1951, antes de
que yo conociera la existencia de Francis Crick. En aquella época me dedicaba ya al estudio del ADN, pues
había venido a Europa con una beca de postdoctorado para aprender su composición bioquímica [con
Herman Kalckar y Ole Maaløe, en Copenhague]. Mi interés por el ADN había nacido del deseo de aprender
qué eran los genes»49.
El pasaje se refiere a la reunión que, sobre «Estructura submicroscópica del
protoplasma», tuvo lugar en la Estación Zoológica de Nápoles, en mayo de 1951. En ella,
Wilkins se refirió al “empaquetamiento helicoidal” de la molécula de ADN. El interés despertado
en Watson hizo que las semanas siguientes se dedicara a una áspera labor administrativa para
conseguir cambiar el destino de su beca. Estaba decidido a abandonar el laboratorio danés y
trasladarse a Inglaterra. Su director de Tesis y mentor, Salvador Luria, se ocupó de ello.
Por su parte, Francis Crick escribió50:
«La primera vez que oí hablar de Jim fue en labios de [mi esposa] Odile. Un día, al volver a casa, ella me
dijo: “Ha estado aquí Max [Perutz] con un joven norteamericano que quería presentarte […]” Cuando nos
conocimos, Jim ya se había doctorado, mientras que yo, unos doce años mayor que él, todavía era
estudiante graduado. Maurice Wilkins, en Londres, había realizado la mayor parte del trabajo inicial de rayos
X, que más tarde Rosalind Franklin prosiguió y amplió. Jim y yo nunca habíamos hecho trabajo experimental
con ADN, aunque habláramos de la cuestión ininterrumpidamente».
James Watson se incorporó, la primera semana de octubre de 1951, a la Unidad de
Max Perutz. Tras un breve paso por el laboratorio de Kendrew, Watson se asoció con Francis
Crick, un investigador ocupado en el estudio de las proteínas mediante difracción de rayos X y
completamente ajeno al ADN. Así comenzó una de las colaboraciones más espectaculares en
la historia de la ciencia; ello, por la trascendencia de los resultados obtenidos en 18 meses de
trabajo, interrumpidos en ocasiones.
Las conversaciones iniciales de la pareja giraron alrededor del descubrimiento de
Pauling de la α–hélice. Comenta Watson51:
«El logro de Pauling era producto del sentido común, y no el resultado de un complicado razonamiento
matemático. Pauling incluía a veces ecuaciones en su argumentación, pero la mayoría de los casos habrían
bastado las palabras. La clave del éxito de Linus radicaba en su confianza en las sencillas leyes de la
química estructural. La héliceα no habría sido descubierta con sólo el estudio de las fotografías mediante
rayos X; en lugar de ello, el procedimiento esencial era preguntar qué átomos se situarían uno junto a otro.
En vez de lápiz y papel, los principales instrumentos de trabajo eran un conjunto de modelos moleculares que
se asemejaban a los juguetes de los niños en edad preescolar. Pudimos ver así que no había razón por la
que no hubiéramos de resolver el ADN de la misma manera. Todo cuanto teníamos que hacer era construir
un conjunto de modelos moleculares y empezar a jugar».
Poco más de un mes de la llegada de Watson al Cavendish, tuvo lugar una fuerte
discusión entre Crick y el Director del laboratorio, Bragg; ello, al ignorar éste una teoría
____________________________________________________________________________
49.-Watson JD, pg 9 (v.b.s., version en castellano: v.c.)).
50.-Crick F, pgs 78-79 (v.b.s., v.c.).
51.-Watson JD, pg 28 (v.b.s., v.c.).
38
propuesta por Crick meses antes respecto la estructura de la hemoglobina. La relación entre
Braga y Crick se rompió, pero Francis pudo seguir en el laboratorio, y a partir de entonces
dedicado, casi por completo, al ADN. En Londres, las cosas tampoco eran fáciles; la
colaboración entre Wilkins y Franklin se había resentido. Ya en las conversaciones con
Randall, que tuvieron lugar a lo largo de 1950 y previas a su incorporación al King’s, Rosalind
manifestó que debería ser únicamente ella quién trabajara con fibras de ADN; algo que Wilkins
ignoraba.
Con todo, a finales de noviembre hubo un coloquio en Londres, al que asistieron
Watson y Crick, y en el que participaron Wilkins, Stokes y Franklin. En resumen, las
conclusiones fueron: en general, las muestras de ADN estudiadas no eran homogéneas; tanto
el contenido de agua en la molécula como la utilización de soluciones salinas para controlar la
humedad, inciden en los resultados; la cadena de ADN tiene una carácter helicoidal, y la
estructura o es una hélice muy grande o, más probable, está formada por varias cadenas.
A la vuelta del coloquio, Watson y Crick escribieron un resumen sobre el modo de
enfrentarse al problema: «La estructura del timonucleato sódico. Una estrategia posible:
Resumen»52.
«Introducción. Estimulados por los resultados presentados por los investigadores del King’s College,
Londres, a un Coloquio celebrado el 21 de noviembre, 1951, hemos intentado ver si podemos encontrar
algunos principios generales sobre los que pudiera basarse la estructura del ADN» (Crick y Watson,
1951).
Propusieron una estructura helicoidal formada por tres cadenas, que se mantenían
unidas a través de los grupos cargados de los esqueletos de fosfato. Rechazaron el papel de
los enlaces de hidrógeno en la estabilización de la estructura, mientras que exageraron el
protagonismo de los cationes. Una visita a Cambridge del grupo del King’s echó por tierra el
modelo tricatenario propuesto. Lawrence Bragg no estaba dispuesto a que el afamado
Cavendish Laboratory se asociara con la idea de «estructuras incorrectas». Desaprobó el
trabajo de Watson y Crick y consideró que estaban invadiendo el «territorio» del King’s. De una
conversación entre Bragg y Randall salió la recomendación de que la estructura del ADN
debería dejarse en manos del grupo del KIng’s y que Watson y Crick deberían centrarse en el
estudio de proteínas. Pero no pasó de la recomendación. Por su parte, la beca de Watson
finalizaba en otoño de 1952. Gracias a Puling, Watson pudo permanecer en Cambridge hasta
la resolución de la estructura del ADN.
Crick opinó al respecto53:
«Nuestro primer intento con un modelo fue un desastre, porque yo supuse erróneamente que la estructura
contenía muy poco agua. Este error fue debido en parte a mi ignorancia –debería haberme dado cuenta de
que era probable que el ión sodio estuviera muy hidratado- y en parte a la interpretación equivocada de Jim
con respecto a un término cristalográfico que Rosalind empleó en un seminario. Este no fue el único error.
Despistado por la expresión “formas tautoméricas”, asumí que determinados átomos de hidrógeno en la
periferia de las bases estarían en una de las diversas posiciones posibles. Finalmente, Jerry Donohue, un
cristalógrafo estadounidense que compartía un despacho con nosotros, nos dijo que algunas fórmulas de los
libros de texto estaban equivocadas y que cada base existía casi exclusivamente en una forma determinada.
A partir de entonces, todo fue fácil».
Tres meses duró el asalto final: el primer trimestre de 1953. Hasta entonces, todos los
intentos para construir modelos de ADN se basaron en la presencia de una o de tres hélices.
___________________________________________________________________________
52.-En: www.mun.ca/biology/scar/4241/W&C5.html.
53.-Crick F, pgs 79-80 (v.b.s., v.c.).
39
Pauling consideró la posibilidad de construir una doble hélice en 1952, pero optó por la triple
hélice. Por su parte, en el modelo de Furberg se intuye una clara similitud con el que
construirían, meses después, Watson y Crick. Sin embargo, el modelo I de Furberg no fue una
doble hélice, y se sugirió como una entre dos alternativas. Para Furgerg, los ácidos nucleicos
ocurrían en formas monocatenarias, y aunque se desconocía su estructura, tales cadenas bien
podían adoptar una configuración helicoidal, tal como establecía su modelo. También abogó
por la presencia de enlaces de hidrógeno. Estando tan cerca de resolver la estructura, fue una
pena que Bernal no consiguiera retenerlo con él o, al menos, que hubiera seguido trabajando
en Oslo en colaboración con el grupo de Birkbeck.
Los comienzos de 1953 fueron generosos con la pareja del Cavendish. En mayo de
1952, Franklin había conseguido las mejores imágenes de ADN por difracción de rayos X hasta
entonces conocidas; ello, manejando las muestras de ADN de gran pureza proporcionadas, en
su momento, por Rudolf Signer. En otro momento, Franklin escribiría el informe preceptivo del
año 1952 para el director del King’s. Watson visitó el laboratorio londinense la última semana
de enero de 1953; allí, Wilkins le mostró una de aquellas fotografías: la número 51 del
cuaderno de notas de Franklin, que correspondía a la forma paracristalina o forma B de ADN.
Watson escribió54:
«En cuanto vi la fotografía quedé boquiabierto y se me aceleró el pulso. La figura resultaba increíblemente
más sencilla que las obtenidas con anterioridad, es decir, las de la forma A. Además, los reflejos negros en
forma de cruz que dominaban la fotografía sólo podían provenir de una estructura helicoidal. Con la forma A,
el argumento a favor de una hélice nunca había sido concluyente, y existía cierta ambigüedad en cuanto a
que tipo de simetría helicoidal estaba presente; en cambio, la simple inspección de la fotografía con rayos X
de la forma B permitía descubrir en ella varios de los parámetros helicoidales vitales. Concebiblemente, tras
unos cálculos de sólo unos pocos minutos, podría determinarse el número de cadenas de la molécula».
Pero, ¿Cuántas cadenas? Watson apunto «que las estructuras biológicas importantes
se presentan por parejas»55; pero no era obvio. Por otro lado, durante la segunda semana de
febrero, Perutz ¿ó Wilkins? pasó a Crick una copia del informe que Sir John Randall había
distribuido a todos los miembros del Biophysics Research Committee y que habían visitado el
Cavendish en diciembre. El informe recogía el cambio en la periodicidad a lo largo del eje de la
fibra de ADN —desde 28 Å a 34 Å— observado entre las formas A y B; ello, debido a que la
hidratación de la forma paracristalina B suponía un estiramiento de la fibra cercano al 20%, con
respecto a la forma cristalina. A partir de todo ello fue posible confirmar —para la forma B— la
distancia entre las bases (3.4 Å), y establecer la longitud del periodo (34 Å) y la pendiente de la
hélice (36º). El informe también aportaba datos sobre las características del cristal: existía un
doble eje de simetría paralelo al de la fibra.
Cuando Crick estudió el informe se percató de una simetría que ni Franklin ni Wilkins
habían comprendido; que Perutz no había percibido, y que se le había escapado al
cristalógrafo teórico del Kíng’s, Alexander Stokes: que la molécula de ADN, tras rotar media
vuelta, volvía a ser congruente consigo misma. La estructura era diádica: la mitad longitudinal
de la molécula es similar a la otra mitad al revés.
«Ello fue el hecho decisivo. Las dimensiones de la celda unidad primitiva (cada unidad de volumen mínimo
que puede definirse para una red cristalina dada; para la doble hélice de ADN, el par de bases) que figuraban
en el informe, probaban que la diada tenía que ser perpendicular al eje longitudinal de la molécula, y,
también, que la duplicación ocurría dentro de la misma molécula y no entre moléculas adyacentes. Las
_______________________________________________________________________________________
54.-Watson JD, pg 107 (v.b.s., v.c.).
55.-Watson JD, pg 109 (v.b.s., v.c.).
40
cadenas debían existir en pares, más que tres, en la molécula, corriendo una cadena hacia arriba y la otra
hacia abajo»56.
Para Crick, los que corrían hacia arriba y hacia abajo eran los dos esqueletos formados
por las moléculas de azúcar engarzadas mediante enlaces fosfato-diestéricos. De la simetría
diádica de la molécula se desprendía que la disposición tridimensional de los esqueletos era
espiroidea alrededor de un núcleo central formado por las estructuras diádicas. Sobre esta
idea, para completar una estructura helicoidal bicatenaria sólo faltaba definir cómo se disponían
las diadas —los pares de bases «simétricos»—- en el centro de la estructura.
Watson consultó el libro de Davidson La Bioquímica de los Ácidos Nucleicos57, del que
copió las fórmulas estándar (fundamentalmente en forma enólica) de las bases del ADN.
Luego, consultó el trabajo de June Broomhead58 en el que encontró o lo que Watson interpretó
como un patrón regular de enlaces de hidrógeno entre bases. Con esas dos referencias,
Watson intentó cuadrar un modelo de doble hélice estabilizada por pares de bases en el centro
de la estructura. Pero cometió varias omisiones: una, asumir, como hiciera Crick en el modelo
de 1951, formas tautoméricas erróneas; y, otra, ignorar la regla «1:1» de Chargaff. Cuando
Watson y Crick mostraron el modelo a Jerry Donohue, señaló que las bases en los ácidos
nucleicos ocurren en dos formas tautoméricas (FIGURA 13). Adenina, citosina y guanina pueden
existir en formas amino (-NH2) o imino (=NH), y citosina, guanina y timina pueden hacerlo como
ceto (C=O) o hidroxi (C-OH). La naturaleza prefiere —les indicó Donohue— las formas ceto y
amino. Watson utilizó las formas tautoméricas erróneas de todas las bases, excepto la adenina.
Con tal corrección presente, Crick encargó al matemático John Griffith los cálculos de los
posibles enlaces. Cuando rehicieron los modelos con las indicaciones de Donohue y de Giffith,
encontraron que se establecían enlaces de hidrógeno entre adenina y timina y entre guanina y
citosina, pero sólo si los pares estaban invertidos uno respecto al otro. De golpe, ello satisfacía
las reglas de Chargaff y los datos de la fotografía nº 50 de difracción de rayos X, obtenida por
Franklin en mayo de 1952, en la que se evidenciaba la disposición antiparalela de ambas
cadenas. Y también hacía valer la idea de Pauling de complementariedad molecular: la
especificidad del apareamiento de las bases significa que cada cadena es complementaria a su
compañera. Y ello dio pie al mecanismo de replicación propuesto.
En julio de 1940, Max Delbrück y Linus Pauling publicaron un ensayo en Science con el
título La naturaleza de las fuerzas operativas intermoleculares en los procesos biológicos59.
Dos años antes, el físico alemán P. Jordan había publicado varios artículos en los que proponía
la idea de que existe una interacción estabilizadora mecanocuántica —el fenómeno de
resonancia— que opera de manera preferente entre moléculas o parte de ellas, idénticas o
cuasi idénticas; fenómeno que es capaz de influir sobre el proceso de síntesis molecular
biológica, de tal manera que se forman réplicas de las moléculas que están presentes en la
célula. Jordan utilizó la idea sugiriendo explicaciones de la reproducción de los genes, el
crecimiento de los bacteriófagos, la formación de anticuerpos, y cualquier otro fenómeno
biológico que muestre especificidad. La novedad de su trabajo residía en su sugerencia de que
la resonancia mecanocuántica podría provocar la atracción entre moléculas que contuvieran el
___________________________________________________________________________
56.-Citado en: Judson HF, pg 142 (v.b.s.)
57.-Davidson JN (1950) The Biochemistry of Nucleic Acids. Londres. Pgs 7-8.
58.-Broomhead J (1951)The structure of pyrimidines and purines. IV. The crystal structure of guanine
hydrochloride and its relation to that of adenine hydrochloride. Acta Chrystallographica 4, 92-100, pg 98.
59.-Pauling L, Delbrück M (1940) The nature of the intermolecular forces operative in biological system.
Science 92 (Nº 2378), 77-79.
41
suficiente número de grupos idénticos para causar la reproducción autocatalítica de las
moléculas. Delbrück y Pauling analizaron el argumento y señalaron que la estabilización por
resonancia no es posible en los organismos vivos. Indicaron que la especificidad biológica
debería resultar de la existencia de moléculas con estructuras complementarias, y que la
autocatálisis, como ocurre en la duplicación de los genes, puede explicarse en términos de dos
moléculas mutuamente complementarias.
Figura 13.-Formas tautoméricas de
guanina (G) y de timina (T). Los
círculos sombreados señalan los
átomos de hidrógeno. R = grupos
azúcar y fosfato. “Ceto” y “enol” son
dos posibles formas tautoméricas de
un
carbono
en
las
bases
nitrogenadas. En su forma “ceto”, un
carbono se enlaza a un oxígeno
mediante un doble enlace, y mediante
dos enlaces sencillos a los átomos
adyacentes del anillo. Un carbono en
forma “enol” se une a un grupo
alcohol (-OH) mediante un enlace
sencillo, y al
nitrógeno y al carbono
adyacentes, a través de enlaces
doble y sencillo, respectivamente.
En dos conferencias pronunciadas en 1948, una en la Royal Institution y otra en la Sir
Jesse Boot Foundation, Pauling repitió y amplió sus argumentos60:
«Creo que el mismo mecanismo, dependiente de una estricta complementariedad en la estructura
molecular, es responsable de toda la especificad biológica […] Creo que son la forma y el tamaño
moleculares, a escala atómica, más que las propiedades químicas ordinarias de las sustancias, las
involucradas en los fenómenos de autorreplicación […] Creo que el mismo proceso de moldear un material
plástico en una configuración complementaria al de otra molécula que sirve de molde, es responsable de
toda la especificidad biológica. Creo que los genes sirven de moldes sobre los que se moldean las enzimas
que son responsables de los caracteres químicos de los organismos, y que ellos también sirven como moldes
para la producción de réplicas de ellos mismos. Se desconoce el detalle de los mecanismos por los que un
gen o un virus producen réplicas de ellos mismos […] Si la estructura que sirve de molde (el gen o la
molécula viral) consta, por ejemplo, de dos partes cuyas estructuras son complementarias entre sí, cada una
de esas partes puede servir de molde para la reproducción y réplica de la otra parte, y el complejo de las dos
partes complementarias puede servir de molde para la producción de duplicados de sí mismas».
A partir de la segunda semana de marzo, Watson y Crick calcularon las coordinadas,
átomo tras átomo, sobre el modelo; con ello, la estructura pudo ser perfecta y exactamente
descrita. Perutz y Kendrew comprobaron el modelo varias veces. El número de visitantes al
Cavendish incrementó día a día. Todd escribió a Bragg confirmando que la estructura era
bioquímicamente plausible.
__________________________________________________________________________
60.-Pauling L (1970) Fifty years of progress in structural chemistry and molecular biology. Daedalus 90,
988-1014 (pgs 1007 y 1008).
42
A mediados de marzo de 1953, Watson escribió61 a Delbrück dándole toda clase de
detalles:
«Querido Max, Gracias por tu reciente correspondencia […] Al día siguiente de la llegada de tu carta, recibí
una nota de Pauling mencionando que había revisado su modelo, y mostrándome su interés por el nuestro.
Le escribiremos en breve sobre lo que estamos haciendo. Por ahora preferimos no hacerlo pues no
queremos comprometernos hasta que estemos completamente seguros de que todos los contactos de van
der Waals sean los correctos y que todos los aspectos de nuestra estructura son estereoquímicamente
asequibles. Creemos estar seguros de que nuestra estructura puede construirse, y estamos actualmente
ocupados en calcular las coordinadas atómicas exactas.
Nuestro modelo (un proyecto conjunto de Francis Crick y mío) no comparte relación alguna ni con el
modelo original ni con su versión revisada de Pauling-Corey-Schomaker. Es un modelo peculiar que asume
una serie de hechos poco usuales […] Las principales características del modelo son (1) La estructura básica
es helicoidal —consta de dos hélices enrolladas entre sí— estando el centro de la hélice ocupado por las
bases púricas y pirimidínicas— los grupos fosfato se orientan hacia el exterior. (2) Las hélices no son
idénticas sino complementarias, de tal manera que si una de las hélices contiene una base púrica la otra
hélice contendrá una pirimidina —este hecho es resultado de nuestro empeño de hacer equivalentes a los
residuos y, al mismo tiempo, colocar las bases púricas y pirimidínicas en el centro—. El emparejamiento de la
purina [s] con pirimidinas es muy exacto y viene dictado por su apetencia para formar enlaces de hidrógeno
—adenina formará pareja con timina, mientras guanina siempre formará pareja con citosina— […] Esas
parejas forman dos bellos enlaces de hidrógeno en los que todos los ángulos son rectos. Este
emparejamiento se basa en la existencia de sólo una de dos posible formas tautoméricas —en todos los
casos hemos preferido la forma ceto sobre la enol, y la forma amino sobre la imino—. Ello es, en definitiva,
una suposición, aunque Jerry Donohue y Hill Cochran nos dijeron que en todas las moléculas orgánicas
examinadas, las formas ceto y amino se presentan con preferencia a las posibilidades enol e imino.
El modelo ha derivado, casi enteramente, de consideraciones estereoquímicas, con la única referencia a
los rayos X de que el espaciamiento entre los pares de base es de 3.4 Å, que fue calculado originalmente por
Astbury. Ello tiende a una construcción con, aproximadamente, 10 residuos por vuelta en 34 Å. La hélice es
dextrógira.
El patrón de rayos X concuerda, aproximadamente, con el modelo, pero dado que las fotografías de que
disponemos son pobres y escasas (no disponemos de fotografías propias y, como Pauling, utilizamos las de
Astbury), tal argumento no constituye una prueba de nuestro modelo […] Para ello, debemos obtener la
colaboración del grupo del King’s Collage de Londres que posee excelentes fotografías de una fase cristalina
además de disponer de fotografías de gran calidad de una fase paracristalina. Nuestro modelo se ha
construido con referencia a la forma paracristalina, y aún no tenemos ideas claras de cómo las hélices
pueden empaquetarse para formar la fase cristalina.
Mañana mismo Crick y yo enviaremos una nota a Nature proponiendo nuestra estructura como un modelo
posible, a la vez que señalamos su naturaleza provisional y la carencia de pruebas a su favor. Aún si
resultase erróneo creo que es interesante dado que aporta un ejemplo concreto de una estructura compuesta
de cadenas complementarias. Si por azar es correcto entonces, me atrevo a decir que podemos aportar algo
a la manera en que el ADN puede autorreproducirse. Por estas razones (aparte de otras muchas) prefiero
este tipo de modelo al de Pauling que, si fuera correcto, nada nos diría sobre la manera de reproducirse el
ADN.
P.S. Preferiríamos que no mencionara esta carta a Pauling. Cuando nuestra carta a Nature esté
concluida le enviaremos una copia. Watson, 12, marzo 1953».
A la vista de la nota que Watson y Crick habían enviado a Nature, Rosalind Franklin y
Raymond Gosling finalizaron y fecharon el 17 de marzo un borrador de una nota sobre sus
__________________________________________________________________________
61.-Carta de Watson a Delbrück, fechada el 12 de marzo de 1953. En el Archivo de Caltech, citada por
Olby R, pgs 415-416.
43
conclusiones, incompletas, de la estructura B del ADN. Con ello, Franklin concluyó sus
relaciones con el King’s trasladándose al Birkbeck College. Por su parte Wilkins, del King’s
College, quién había recibido una copia de la nota que Watson y Crick habían enviado a
Nature, contestó62 el 18 de marzo. Hizo algunas sugerencias sobre diferentes frases del texto
original, y apuntó la posibilidad, sobre la base de que los resultados del Cavendish y del King’s
no eran contradictorios, de publicar simultáneamente los trabajos de Watson y Crick, de
Franklin y de su propio grupo.
El 19 de marzo, Crick escribió una carta63 a su hijo Michael, aún en la escuela, que
empezaba:
«Jim Watson y yo hemos realizado, probablemente, un descubrimiento de la mayor importancia. Hemos
construido un modelo de la estructura del ácido des-oxi-ribosa-nucleico (léelo con cuidado) llamado A.D.N.
para abreviar […] Nuestra estructura es muy bella…[respecto al emparejamiento de las bases dijo] Es como
un código. Si dispones de un conjunto de letras puedes deducir el mensaje. Creemos que el A.D.N. es un
código. Esto es, el orden de las bases (las letras) hace un gen diferente de otro (como una página de un libro
es diferente de las demás)».
El 21 de marzo Watson y Crick escribieron a Pauling; incluyeron una copia de la carta a
Nature —«Una estructura del ácido desoxirribonucleico»—, también le dijeron que el grupo del
King’s College iban también a publicar algunos de sus datos experimentales. Pauling viajó a
Cambridge la primera semana de abril. Vio el modelo, estudió una copia de la fotografía del
patrón de difracción de rayos X de la forma B tomada por Franklin, escucho a Crick una
detenida explicación y aprobó el modelo. Pauling y Bragg se trasladaron a Bruselas donde, en
una reunión sobre química, Bragg anunció el descubrimiento de Watson y Crick; de tal manera
que fue el primer anuncio público de la estructura. Pauling apoyó con generosidad a Bragg y a
la estructura; y añadió que aunque hacía solo dos meses que, junto con el Profesor Corey,
había publicado su propuesta de estructura para el ácido nucleico, pensaba que debería admitir
que, posiblemente, era errónea. «Creo —dijo Pauling— que es muy probable que la estructura
propuesta por Watson y Crick es esencialmente correcta». Tras referirse al mecanismo de
replicación inherente al modelo, manifestó:
«Creo que la formulación de la estructura por Watson y Crick puede significar el avance más significativo
en el campo de la genética molecular en los años recientes»64.
Entre los asistentes a la conferencia citada se encontraba el bioquímico sueco Arne
Tiselius, quie´n era miembro del Comité Nobel de Química desde 1946 y vicepresidente de la
Fundación Nobel desde 1947. Tiselius ocupó la presidencia de la Fundación en 1960, dos años
antes de que el Premio en Química recayera en Perutz y Kendrew, y el de Fisiología o
Medicina en Watson, Crick y Wilkins.
EL FINAL
El número de Nature correspondiente al día 25 de abril de 1953 publicó los trabajos. La
sugerencia de Wilkins a Crick fue asumida por Bragg y Randall, que «amañaron», con la
complicidad de Gale —el editor de Nature— una sección que, con el título «Estructura
Molecular de los Ácidos Nucleicos» hermanó el trabajo de los tres grupos involucrados en
resolver la estructura del ADN. Comenta Graemer K. Hunter que el trabajo de Franklin y
____________________________________________________________________________
62.-Carta a Crick, fechada el 18 de marzo de 1953. Citada en Olby R, pgs 417-418.
63.-Citada en Judson HF, pg 155 (v.b.s.).
64.-Citada en Judson HF, pg 154 (v.b.s.).
44
Gosling, titulado «Configuración molecular en timonucleato sódico», era el único de los tres que
presenta datos relevantes a la estructura de doble hélice: la bella imagen de la forma B
obtenida en mayo de 1952, que interpretaron en términos de la teoría de difracción helicoidal
de Watson y Crick, muestra su consistencia con una hélice con una periodicidad de 34 Å, diez
nucleotidos por vuelta y un diámetro de 20 Å. Desde un punto de vista cristalográfico, Franklin y
Gosling concluyeron que los restos fosfato deberían estar hacia el exterior de la molécula y,
que por los datos de densidad, la hélice debería constar de dos o tres cadenas. «Nuestra ideas
generales —concluyeron Franklin y Gosling— no colisionan con el modelo propuesto por
Watson y Crick en la publicación precedente».
En su trabajo, titulado «Una estructura para el ácido desoxirribosanucleico», Watson y
Crick muestran un diagrama de la estructura de doble hélice y discuten dos aspectos que no
fueron mencionados por Franklin y Gosling, y que no derivan, directamente, de los datos de
rayos X: la orientación antiparalela de las dos cadenas polinucleotídicas, y la estabilización de
la molécula mediante enlaces de hidrógeno entre las bases, en el medio de la molécula. Se
utilizó alguna fraseología para describir el origen de los datos sobre los que se asentó el
modelo:
«Los datos de rayos X, previamente publicados, sobre el ácido desoxirribosanucleico son insuficientes para
un test riguroso de nuestra estructura. Hasta donde podemos llegar, es groseramente compatible con los
datos experimentales, pero debe considerarse como provisional hasta que haya sido sancionado mediante
resultados más exactos. Algunos de ellos se proporcionan en las publicaciones subsiguientes. No fuimos
conscientes de los detalles de los resultados allí presentados cuando diseñamos nuestra estructura, que
descansa principalmente aunque no completamente sobre datos experimentales publicados y argumentos
esteroquímicos».
El modelo de la doble hélice se debió, en gran parte, a la información basada en datos
no solo no publicados sino, en principio, vetados a Watson y Crick: las imágenes de difracción
de rayos X de la forma B de ADN de Franklin, que Wilkins enseñó a Watson, y el informe del
Medical Research Council que Perutz dio a Crick.
Por último, la publicación que Wilkins firmó con Stokes y Wilson —«Estructura molecular
de los ácidos desoxipentosanucleicos»— consiste, esencialmente, en la descripción de la
teoría de la difracción helicoidal de Stokes, aún sin publicar dos años después de su
elaboración, y su utilización en la interpretación de una pobre imagen de la forma B de ADN de
E. coli. De ello, Wilkins y colaboradores concluyeron que «existe una razonable coincidencia
entre los datos experimentales y el modelo descrito por Wayson y Crick». Hicieron constar que
habían obtenido patrones de difracción similares a partir de ADN obtenido de cabezas
espermáticas, de bacteriófagos y del principio transformante neumocócico.
Esta abigarrada colección de publicaciones anunció una revolución en biología.
Concluye Hunter, que Franklin y Gosling disponían de datos cristalográficos significativos a
partir de los que podían haber deducido algunas de las características de la doble hélice. Que
Watson y Crick disponían del modelo, pero estaban en una posición de debilidad ante la falta
de claridad sobre la fuente de sus datos. Y que Wilkins y sus colaboradores ni tenían modelo ni
datos; un editor avezado habría rechazado el manuscrito. Sin embargo, el verdadero salto
cualitativo que abrió las puertas de una «nueva biología» aparece finalizando el artículo de
Watson y Crick:
«Somos conscientes de que el emparejamiento específico de bases que hemos
propuesto sugiere de inmediato un posible mecanismo de copia para el material genético».
La «sugerencia» quedaba explícitamente descrita en un segundo artículo —
«Implicaciones genéticas de la estructura del ácido desoxirribonucleico»— publicado en la
misma revista, en un número posterior, el correspondiente al 30 de mayo.
45
4
LA MÁS SUTIL ESTRUCTURA JAMÁS DIBUJADA
Pedro García Barreno
_________________________________________________________________
A efectos de la publicación de los resultados, William Lawrence Bragg (por parte del
Cavendish Laboratory: Watson y Crick) y John Randall (del King's College: Wilkins y Franklin),
con la colaboración de Gale, editor de Nature, forzaron un entente entre los tres grupos
implicados en la solución de la estructura del ADN. Las páginas 737-741 del número 4356 de la
revista Nature incluyen un abigarrado trío de trabajos que supusieron una revolución en
biología.
NATURE
No.4356
Saturday, April 25, 1953
Vol. 171
CONTENTS
[…]
Molecular Structure of Nucleic Acids. By J. D. Watson and F. H. C. Crick;
Dr. M. H. F. Wilkins, Dr. A. R. Stokes and H. R. Wilson;
Rosalind E. Franklin and R. G. Gosling
Page
737
UNA ESTRUCTURA PARA EL ÁCIDO DESOXIRRIBONUCLEICO
«NOSOTROS deseamos proponer una estructura para la sal del ácido desoxirribonucleico (A. D. N.). Esta estructura tiene hechos originales que tienen considerable interés
biológico.
Pauling y Corey1 ya han propuesto una estructura para el ácido nucleico. Tuvieron la
amabilidad de facilitarnos el manuscrito antes de su publicación. Su modelo consta de tres
cadenas enrolladas entre sí, con los fosfatos cerca del eje de la fibra y las bases hacia el
exterior. En nuestra opinión, esta estructura no es satisfactoria por dos razones: (1) Creemos
que el material que origina los diagramas de rayos-X es la sal, no el ácido libre. Sin los átomos
ácidos del hidrógeno no está claro qué fuerzas mantendrían la estructura unida, especialmente
cuando los fosfatos situados cerca del eje, que están cargados negativamente, se repelerán
entre ellos. (2) Algunas de las distancias de van der Waals parecen demasiado cortas.
Otra estructura tricatenaria ha sido sugerida por Fraser (en prensa). En este modelo los
fosfatos están en el exterior, y las bases en el interior unidas por enlaces de hidrógeno. Esta
estructura tal como se describe está bastante mal definida, y por esa razón no la
comentaremos.
Deseamos presentar una estructura radicalmente diferente para la sal del ácido
desoxirribonucleico. Esta estructura tiene dos cadenas helicoidales enrollada cada una
alrededor del mismo eje (ver diagrama). Hemos hecho las suposiciones químicas usuales,
principalmente, que cada cadena consta de grupos fosfodiester que unen restos de β-D-
46
desoxirribofuranosa mediante enlaces 3',5'. Las dos cadenas (pero no sus bases) se relacionan
en una diada perpendicular al eje de la fibra. Ambas cadenas siguen hélices dextrógiras, pero
debido a la diada la secuencia de los átomos en las dos cadenas corre en direcciones
opuestas. Cada cadena semeja groseramente al modelo No.1 de Furberg; esto es, las bases
están en el interior de la hélice y los fosfatos en el exterior. La configuración del azúcar y de los
átomos cercanos a ella, está próxima a la "configuración estándar" de Furberg; el azúcar se
encuentra aproximadamente perpendicular a la base acoplada. Hay un resto en cada cadena
cada 3.4 A. en la dirección-z. Hemos asumido un ángulo de 36° entre restos adyacentes en la
misma cadena, así que la estructura se repite cada 10 restos en cada cadena; esto es, cada 34
A. La distancia de un átomo de fósforo desde el eje de la fibra es de 10 A. Como los fosfatos
están en el exterior, los cationes tienen fácil acceso a ellos.
La estructura es abierta, y su contenido en agua bastante alto. Ante contenidos de agua
inferiores esperaríamos que las bases se inclinarian, así que la estructura podria llegar a ser
más compacta.
El hecho original de la estructura es la manera en que las dos cadenas se mantienen
unidas merced a las bases púricas y pirimidínicas. Los planos de las bases son
perpendiculares al eje de la fibra. Ellas se mantienen unidas en pares, una única base de una
cadena está unida mediante un puente de hidrógeno a otra única base de la otra cadena, así
que las dos se sitúan una al lado de la otra con idénticas coordinadas z. Para que ocurra el
enlace, un miembro del par debe ser una purina y el otro una pirimidina. Los enlaces de
hidrógeno se establecen como sigue: de la posición 1 de la purina a la posición 1 de la
pirimidina; de la posición 6 de la purina a la posición 6 de la pirimidina.
Si se acepta que esas bases sólo se presentan en la estructura en las formas
tautoméricas más verosímiles (esto es, con la conformación ceto mas que con la enol), se
deduce que sólo pueden formarse enlaces entre parejas específicas de bases. Esas parejas
son: adenina (purina) con timina (pirimidina), y guanina (purina) con citosina (pirimidina).
En otras palabras, si en una de las cadenas una adenina forma un miembro del par, sobre la
base de tales supuestos, el otro miembro debe ser timina; similarmente para guanina y citosina.
La secuencia de bases en una cadena no parece que este restringida de manera alguna. Sin
embargo, si sólo pueden formarse pares específicos de bases, se cumple que si se conoce la
secuencia de bases de una de las cadenas, entonces la secuencia de la otra cadena se
determina automáticamente.
Se ha determinado experimentalmente3,4 que, para el ácido desoxirribonucleico, la
relación de las cantidades de adenina y timina y la relación de guanina y citosina, son siempre
muy cercanas a la unidad.
Es probablemente imposible construir esta estructura con el azúcar ribosa en lugar de
desoxirribosa, pues el átomo extra de oxígeno acercaría demasiado una distancia de van der
Waals.
Los resultados de rayos-X publicados con anterioridad5,6 sobre el ácido
desoxirribonucleico son insuficientes para un test riguroso de nuestra estructura. Hasta donde
podemos decir, es compatible, en términos generales, con los datos experimentales, pero debe
considerarse sin confirmación hasta que haya sido cotejada frente a resultados más exactos.
Algunos de esos se dan en las comunicaciones siguientes. No conocíamos los detalles de los
resultados allí presentados cuando ideamos nuestra estructura, que descansa principalmente
en datos experimentales no publicados en su totalidad y en argumentos estereoquímicos.
No se nos escapa que el emparejamiento específico que hemos postulado sugiere de
inmediato un posible mecanismo de copia para el material genético.
Los detalles completos de las estructuras, incluyendo las condiciones asumidas en su
construcción, junto con un conjunto de coordenadas para los átomos, será publicada en otra
parte.
47
Estamos profundamente endeudados con el Dr. Jerry Donohue por su consejo y crítica
constantes, especialmente en relación con las distancias interatómicas. También hemos estado
estimulados por el conocimiento de la naturaleza general de resultados experimentales no
publicados y de las ideas del Dr. M. H. F. Wilkins, Dr. R. E. Franklin y de sus colaboradores en
el King's College, Londres. Uno de nosotros (J. D. W.) ha estado ayudado por una beca de la
Fundación Nacional para la Parálisis Infantil».
J.D. WATSON
F.H. CRICK
Medical Research Council Unit for the Study
of the Molecular Structure of Biological Systems,
Cavendish Laboratory, Cambridge.
Abril 2.
______________________
1
Pauling, L., and Corey, R. B., Nature, 171, 346 (1953); Proc. U.S. Nat. Acad. Sci., 39, 84 (1953).
Furberg, S., Acta Chem. Scand., 6, 634 (1952).
3
Chargaff, E., para referencias ver Zamenhof, S., Brawerman, G., and Chargaff, E. Biochim. et Biophys.
Acta, 9, 402 (1952).
4
Wyatt, G. R., J. Gen. Physiol., 36, 201 (1952).
5
Astbury, W. T., Symp. Soc. Exp. Biol. 1, Nucleic Acid, 66 (Camb. Univ. Press, 1947).
6
Wilkins, M. H. F., and Randall, J. T., Biochim. et Biophys. Acta, 10, 192 (1953).
2
Esta figura es un mero diagrama. Las dos
cintas simbolizan las dos cadenas de
fosfato – azúcar, y las barras horizontales
los pares de bases que mantienen unidas
las cadenas. La línea vertical marca el eje
de la fibra.
48
Nature 1953 (Mav 30): 171 (No. 4361): 964-967
IMPLICACIONES GENÉTICAS DE LA ESTRUCTURA DEL ÁCIDO DESOXIRRIBONUCLEICO
Por J. D. WATSON y F. H. C. CRICK
Medical Research Council Unit for the Study of the Molecular Structure of Biological Systems,
Cavendish Laboratory , Cambridge
«La importancia del ácido desoxirribonucleico (ADN) en el seno de las células vivas es
incuestionable. Se encuentra en todas las células capaces de dividirse, en su mayor parte si no
en su totalidad en el núcleo, donde es un componente esencial de los cromosomas.
Numerosas pruebas indican que es el portador de una parte de (si no toda) la especificidad
genética de los cromosomas y por ello del mismo gen. Hasta ahora, sin embargo, no se ha
presentado prueba concluyente alguna que muestre como puede realizar la operación esencial
que se exige a un material genético: su exacta autorreplicación.
Hemos propuesto recientemente una estructura1 para la sal del ácido
desoxirribonucleico que, de ser correcta, sugiere de inmediato un mecanismo para su
autorreplicación. Los resultados de rayos-X obtenidos por los investigadores del King's College,
Londres2, y presentados al mismo tiempo, dan apoyo cualitativo a nuestra estructura que es
incompatible con todas las estructuras propuestas con anterioridad3. Aunque la estructura no
será completamente corroborada hasta que se efectúe una comparación más exhaustiva con
los datos por rayos-X, tenemos la suficiente confianza en su exactitud para discutir sus
implicaciones genéticas. Para ello estamos asumiendo que fibras de la sal del ácido
desoxirribonucleico no son artefactos surgidos en el método de preparación, dado que ha sido
mostrado por Wilkins y sus colaboradores que patrones de rayos-X similares se obtienen a
partir tanto de fibras aisladas como de ciertos materiales biológicos intactos como la cabeza de
espermatozoos y bacteriófagos2,4.
La fórmula química del ácido desoxirribonucleico está ahora bien establecida. La
molécula es una cadena muy larga, cuyo esqueleto consta de un patrón alternante y regular de
grupos azúcar y fosfato, como se muestra en la Fig. 1. A cada azúcar se une una base
nitrogenada, que puede ser de cuatro tipos diferentes. (Hemos considerado que la 5-metil
citosina es equivalente a la citosina, dado que cualquiera de ellas puede encajar igualmente
bien en nuestra estructura.) Dos de las posibles bases -adenina y guanina- son purinas, y las
otras dos -timina y citosina- son pirimidinas. Hasta donde se conoce, la secuencia de bases a
lo largo de la cadena es irregular. La unidad monomérica, que consta de fosfato, azúcar y base,
se conoce como un nucleótido.
En primer hecho de nuestra estructura que tiene interés biológico es que consta no de una
cadena, sino de dos. Esas dos cadenas se enrollan entre ellas alrededor del eje, común, de la
fibra, como se muestra diagramáticamente en la Fig. 2. Se ha asumido con frecuencia que,
como había solo una cadena en la fórmula química, debería haber una sola en la unidad
estructural. Sin embargo, la densidad, evidente en el estudio de rayos-X2, sugiere con bastante
certeza que hay dos.
El otro hecho biológicamente importante es la manera en que las dos cadenas se
mantienen unidas. Esto se hace mediante enlaces de hidrógeno entre las bases, como se
muestra esquemáticamente en la Fig. 3. Las bases se mantienen unidas en parejas, una base
de una cadena se une mediante un enlace de hidrógeno a una base de la otra. El hecho
importante es que solo ciertos pares de bases se ajustan a la estructura. Un miembro de un par
49
debe ser una purina y el otro una pirimidina a efectos de enlazar las dos cadenas. Si un par lo
fuera de dos purinas, por ejemplo, no habría lugar para él.
Fig. 1. Fórmula química de una cadena aislada de ácido desoxirribonucleico
Fig. 2. Esta figura es puramente diagramática. Las dos cintas simbolizan las
dos cadenas fosfato-azúcar, y las barras horizontales las parejas de bases
que mantienen unida la estructura. La línea vertical marca el eje de la fibra.
(Tomadas de: Watson y Crick. Nature 171: 964, figs, 1 y 2) 1953).
Creemos que las bases estarán presentes, casi en su totalidad, en sus formas
tautoméricas más probables. Si esto es verdad, las condiciones para formar enlaces de
hidrógeno son más restrictivas, y los únicos pares de bases posibles son:
adenina con timina;
guanina con citosina.
El modo en que esas se mantienen unidas se muestra en las Figs. 4 y 5. Un par dado
puede tener dos posiciones. Adenina, por ejemplo, puede ocurrir en cualquier cadena; pero
cuando lo hace, su pareja en la otra cadena debe ser siempre timina.
Este emparejamiento está firmemente confirmado por los recientes resultados
analíticos5; en ellos, los ácidos desoxirribonucleicos, de diferentes procedencias, examinados
muestran que la cantidad de adenina es próxima a la cantidad de timina, y que la cantidad de
guanina es similar a la cantidad de citosina; sin embargo, la relación cruzada (la relación de
adenina a guanina) puede variar de una procedencia a otra. En efecto, si la secuencia de
bases en una cadena es irregular, es difícil explicar esos resultados analíticos excepto por la
clase de emparejamiento que hemos sugerido.
El esqueleto fosfato-azúcar de nuestro modelo es completamente regular, pero
cualquier secuencia de pares de bases puede encajar en la estructura. Ello permite que en una
molécula larga sean posibles muchas permutaciones diferentes, y por lo tanto parece probable
que la secuencia precisa de las bases sea el código que porta la información genética. Si fuera
dado el orden real de las bases de una de las cadenas del par, podríamos anotar el orden
exacto de las bases de la otra cadena, a causa de la especificidad del emparejamiento. Así,
una cadena es, como si dijéramos, el complemento de la otra, y es este hecho el que sugiere
como puede autorreplicarse la molécula de ácido desoxirribonucleico.
50
Fig. 3. Fórmula química de una par de cadenas de ácido desoxirribonucleico. El enlace de
hidrógeno está simbolizado por líneas de puntos. Fig. 4. Emparejamiento de adenina y timina. Los
enlaces de hidrógeno se muestran como líneas de puntos. Se muestra un átomo de carbono de
cada azúcar. Fig. 5. Emparejamiento de guanina y citosina. Los enlaces de hidrógeno se muestran
como líneas de puntos. Se muestra un átomo de carbono de cada azúcar [Pauling señalaría que G
y C comparten un tercer enlace de hidrógeno]. (Tomadas de idem: figs. 3, 4 y 5).
Discusiones previas sobre la autorreplicación han involucrado, con frecuencia, el
concepto de una plantilla, o molde. Se ha supuesto que bien el molde se autocopia
directamente o produce un «negativo» que, a su vez, sirviera de plantilla para producir de
nuevo el «positivo» original. En ningún caso se ha explicitado en detalle como ocurriría esto en
términos de átomos y moléculas.
Ahora, nuestro modelo del ácido desoxirribonucleico es, en efecto, un par de moldes,
cada uno de los cuales es complementario del otro. Imaginamos que, previamente a la
duplicación, los enlaces de hidrógeno se rompen, y las dos cadenas se desenrollan y separan.
Cada cadena actúa como una plantilla para la formación, sobre ella misma, de una nueva
cadena compañera; así que, de hecho, tendremos dos pares de cadenas donde, antes,
teníamos solo una. Más aún, la secuencia de los pares de bases se habrá duplicado con
exactitud.
Un estudio de nuestro modelo sugiere que esta replicación pudiera hacerse con mayor
sencillez si una de las cadenas (o una porción relevante de ella) abandona la configuración
helicoidal. Imaginamos que, en tal situación en la vida de la célula, están disponibles en
cantidad nucleotidos libres, en cuanto que precursores de los polinucleotidos. De vez en vez, la
base de un nucleotido libre será atrapada por un enlace de hidrógeno a una de las bases sobre
la cadena preexistente. Ahora postulamos que la polimerización de esos monómeros para
formar una nueva cadena es sólo posible si la cadena resultante puede formar la estructura
propuesta. Esto es plausible, porque razones estéricas no permitirían que nucleotidos
«cristalizados» sobre la primera cadena se aproximen uno a otro, de tal manera que pudieran
mantenerse unidos en una nueva cadena, a menos que fueran aquellos nucleotidos los que
51
son necesarios para formar nuestra estructura. Si se requiere una enzima especial para llevar a
cabo la polimerización, o si la cadena helicoidal aislada ya formada actúa eficazmente como
una enzima, debe aclararse.
Dado que las dos cadenas en nuestro modelo están enrolladas entre sí, es esencial que
se desenrollen si han de separarse. Como completan una vuelta entre ellas en 34 A., habrá
cerca de 150 pasos de rosca por millón de peso molecular, así que cualquiera que sea la
estructura precisa del cromosoma necesitará una cantidad considerable de desenrollamiento.
Se conoce, por estudios de microscopia, que enrollamiento y desenrollamiento ocurren durante
la mitosis, y aunque ello ocurre a una mayor escala probablemente refleja procesos similares a
nivel molecular. Aunque es difícil por el momento observar como ocurren estos procesos, no
percibimos que tal objeción sea insuperable
Nuestra estructura, tal como se ha descrito 1, es una estructura abierta. Hay espacio
entre el par de cadenas polinucleotidicas (ver Fig. 2) para que cada cadena polipeptidica se
enrolle alrededor del mismo eje de la hélice. Puede ser significativo que la distancia entre
átomos de fósforo adyacentes, 7.1 A., está próxima a la repetición de una cadena polipeptídica
completamente extendida. Pensamos que es probable que en la cabeza del espermatozoo y en
las nucleoproteínas artificiales, la cadena polipeptidica ocupe esta posición. La relativa
debilidad de la línea de la segunda capa en las fotografías de rayos-X publicadas3a,4 es, a
grandes rasgos, compatible con tal idea. La función de la proteína pudiera muy bien ser
controlar el enrollamiento y el desenrollamiento, ayudar a mantener una sola cadena
polinucleotídica en configuración helicoidal, o alguna otra función inespecífica.
Nuestro modelo sugiere posibles explicaciones para otra serie de fenómenos. Por
ejemplo, una mutación espontánea puede deberse a que, ocasionalmente, una base adopte
una de sus formas tautoméricas menos habituales. También, que el emparejamiento entre
cromosomas homólogos en la meiosis dependa del emparejamiento entre bases específicas.
Discutiremos esas ideas en otra ocasión.
Por el momento, el esquema general que hemos propuesto para la reproducción del
ácido desoxirribonucleico debe ser tenida en cuenta como especulativa. Aún si fuera correcto,
es evidente de lo que hemos dicho que mucho ha de ser descubierto antes de que el esquema
de la duplicación genética pueda ser descrito en detalle. ¿Cuáles son los precursores
polinucleotídicos? ¿Qué hace que el par de cadenas se desenrollen y separen? ¿Cuál es el
papel preciso de la proteína? ¿Es el cromosoma un largo par de cadenas de ácido
desoxirribonucleico, o está formado por segmentos del ácido mantenidos unidos por la
proteína?
A pesar de tales incertidumbres creemos que nuestra estructura propuesta para el ácido
desoxirribonucleico puede ayudar a resolver uno de los problemas biológicos fundamentales las bases moleculares del molde necesario para la replicación genética. La hipótesis que
estamos sugiriendo es que el molde es el patrón de bases formado por una cadena del ácido
desoxirribonucleico y que el gen contiene un par complementario de tales moldes.
Uno de nosotros (J. D. W.) ha estado ayudado por una beca de la Fundación Nacional
para la Parálisis Infantil (EE. UU.)».
__________________________
1
Watson, J. D., and Crick, F. H. C., Nature, 171, 737 (1953).
Wilkins, M. H. F., Stokes, A. R., and Wilson, H. R., Nature, 171,738 (1953). Franklin, R. E., and Gosling,
R. G., Nature, 171, 740 (1953).
3
(a) Astbury, W. T., Symp. No.1 Soc. Exp. Biol., 66 (1947). (b) Furberg, S., Acta Chem. Scand., 6, 634
(1952). (c) Pauling, L., and Corey, R. B., Nature, 171, 346 (1953); Proc. U.S. Nat. Acad. Sci., 39, 84
(1953). (d) Fraser, R. D. B. (en preparación).
4
Wilkins, M. H. F., and Randall, J. T., Biochim. et Biophys. Acta, 10, 192 (1953).
5
Chargaff, E., para referencias ver Zamenhof, S., Brawerman, G., and Chargaff, E. Biochim.et Biophys.
Acta, 9, 402 (1952). Wyatt, G. R., J. Gen. Physiol., 36, 201 (1952).
2
__________________________________________________________________
52
La
primera semana de junio de 1953 se celebró el simposio anual sobre biología
«cuantitativa» en el Cold Spring Harbor Laboratory, siendo el tema «los virus». Por ello,
numerosos miembros del «grupo Fago» estarían presentes, y tal oportunidad para el
lanzamiento del modelo «Watson-Crick» no podía desperdiciarse. En la charla de
presentación1, en día cinco de junio, Delbrück comentó:
«Debe ser hecha una mención especial sobre una incorporación hecha en el último minuto al programa, o
mejor, a la lista de participantes. El descubrimiento de una estructura para el ADN propuesta por Watson y
Crick hace unos pocos meses y las sugerencias obvias que emanan de esta estructura respecto a la
replicación, parecen de tal relevancia que hemos pensado que valía la pena circular entre los participantes y
antes del comienzo copias de las tres «cartas» a Nature referentes a esta estructura y poder así preguntar al
Dr. Watson que estará presente en el simposio».
La comunicación de Watson2 se refirió a la evidencia de la naturaleza fibrosa del ADN,
las pruebas de la existencia de dos cadenas químicas en la fibra, la descripción de la estructura
propuesta, la evidencia a favor del modelo de complementariedad y a las implicaciones
genéticas de ese modelo. Concluyó su participación refiriéndose al mecanismo para la
replicación del ADN, discutiendo las dificultades en el esquema replicativo y apuntando un
posible mecanismo para las mutaciones espontáneas.
El artículo que cierra la serie de publicaciones de Watson y Crick sobre la estructura del
ADN apareció en las Actas de la Royal Society de Londres; presentado por Sir Lawrence
Bragg, fue aceptado el 24 de agosto y apareció en el número 1152 de la revista3:
«Este trabajo describe una posible estructura para la forma paracristalina del ADN. La estructura consta de
dos cadenas enrolladas helicoidalmente alrededor de un eje común, y mantenidas unidas mediante puentes
de hidrógeno entre parejas específicas de bases».
En la discusión, los autores se desmarcan de las estructuras sugeridas con anterioridad
e insisten en la compatibilidad de su propuesta con los datos de difracción de rayos X
obtenidos por Wilkins y por Franklin. Refieren dos nuevas publicaciones; una de Franklin y
Gosling que apoya la estructura propuesta, aunque indica que el diámetro propuesto por
Watson y Crick es un poco grande, y otra de Wilkins, Seeds, Stokes y Wilson en la que los
datos de rayos X también confirman la doble hélice en la forma cristalina de ADN. Los autores
recalcan su agradecimiento a M.H.F. Wilkins por haberles informado de observaciones
experimentales no publicadas, a J. Donahue por su asesoramiento en los problemas de
tautomerismo y de las distancias de los enlaces y a A.R. Todd por su consejo en cuestiones
químicas. Por su parte, Watson expresa su reconocimiento por la amable hospitalidad que
recibió de Lawrence Bragg durante su estancia en el Cavendish Laboratory; afecto que traslada
a J.C. Kendrew y M.F. Perutz. Watson, por último, expresa su deuda con Salvador Luria por las
oportunidades que le facilitó.
El universo de los seres vivos es el resultado de prácticamente infinitas interacciones
entre todo tipo de compuestos y de estructuras; como moléculas y células que no son, en
última instancia sino reacciones entre elementos. Para poner orden en ese aparente caos, es
necesario identificar las «piezas» de esa realidad. Pues bien, ninguna pieza ha sido hasta el
___________________________________________________________________________
1.-Delbrück, M (1953) Introductory remarks about the program. Cold Spring Harbor Symposia on
Quantitative Biology 18 (Viruses), 1-2.
2.-Watson J.D., Crick F.H.C. (1953) The structure of DNA. Contribution to the discussion of provirus. Cold
Spring Harbor Symposia on Quantitative Biology 18 (Viruses), 123-131.
3.-Crick F.H.C., Watson J.D. (1953) The complementary structure of deoxyribonucleic acid. Proceeeding
of the Royal Society of London, Serie A (Mathematical and Physics Sciences) 223, 80-96.
53
momento tan fructífera como el ácido desoxirribonucleico, la macromolécula que contiene, en
forma químicamente codificada, toda la información necesaria para construir, controlar y
mantener un ser vivo.
«El siglo de la biología en el que estamos inmersos no es algo trivial. Es un movimiento de dimensiones
realmente heroicas, uno de los grandes episodios de la historia intelectual humana. Los científicos que lo
están construyendo hablan de nucleoproteínas, de ultracentrífugas, de genética bioquímica, de electroforesis,
de microscopio electrónico, de morfología molecular, de isótopos radiactivos. No debemos pensar que todo
ello no es más que herramientas. Es la manera fiable para encontrar una solución al cáncer y a la polio, al
reumatismo y a los problemas cardiacos. Es el conocimiento sobre el que debemos basar las soluciones a
los problemas de la población y del hambre. Es la manera de comprender la vida».
Con esas palabras reseñadas por Robert Olby4, el director del Programa de ciencias
naturales de la Fundación Rockefeller, Warren Weaver, subrayaba, en 1949, la importancia de
un campo de conocimiento que, en 1937, había denominado «Biología Molecular». Solo cuatro
años después, Max Delbrück escribía a Niels Bohr:
«Cosas muy importantes están sucediendo en biología. Creo que Jim Watson ha hecho un descubrimiento
que puede rivalizar con el que Ernest Rutherford5 realizó en 1911».
Delbrück se refería, por supuesto, a la doble hélice de Watson y Crick.
___________________________________________________________________________
4.-Wever W (1949) carta a HMH Carson, datada el 17 junio; recogida en: RB Fosdick (1952), The Story
of the Rockefeller Foundation, New York. Delbrück M (1953) carta a N Bohr, datada el 14 de abril, en el
archivo de CalTech. Reseñadas por R Olby (1994) The Path to the Double Helix, pg xix.
5.-Se refería al modelo atómico
54
14
LOS ENTRESIJOS DE LA NUEVA MEDICINA
Pedro García Barreno
________________________________________________________________________
INTRODUCCIÓN
La historia de la medicina, en los más de cincuenta años transcurridos desde la
Segunda Guerra Mundial, puede considerarse como la crónica de una de las épocas más
admirables de la empresa humana. Tan impresionante éxito ha sido el espíritu de conquista,
paso a paso, de la enfermedad. Una conquista que hace imposible imaginar lo que fue la vida
antes de 1945, cuando la muerte infantil a causa de la polio o de la difteria era algo cotidiano y
tampoco se disponía de fármacos para la tuberculosis o para la esquizofrenia. Una época
anterior a la cirugía a corazón abierto, al trasplante deróganos o a los niños “probeta”. Estos y
una multitud de otros desarrollos han representado un beneficio inconmensurable que ha
liberado a la sociedad del temor a la enfermedad y hasta de la muerte, y que intenta aminorar
los trastornos crónicos del envejecimiento. Los últimos cincuenta años representan un periodo
único de prodigiosa ebullición intelectual. Los profesionales del contexto médico-sanitario
pueden sentirse orgullosos de su contribución a tales logros. Sirvan de ejemplo unos cuantos
«momentos estelares» —por motivos diferentes— en la medicina contemporánea, desde la
disponibilidad clínica de la penicilina, en 1941, hasta la Viagra® ya concluyendo el siglo XX
(TABLA I).
No cabe duda de que pocos aspectos de nuestras vidas han cambiado tan
profundamente en los últimos años como aquellos que se ocupan de la atención de la salud.
Sin embargo, esta manera de hacer medicina vislumbra síntomas de agotamiento; sobre todo,
un estancamiento de «nuevos» remedios eficaces para las enfermedades prevalentes, una
percepción de cierta desilusión de los profesionales y cierto descontento —incluso
desconfianza— de los pacientes que se traduce en un incremento en la popularidad de la
medicina alternativa1. Además, es una opinión generalizada que los sistemas de atención
sanitaria en los países industrializados se encuentran al borde de una situación de crisis. Cada
año incrementa la demanda de servicios sanitarios y se reaviva el debate permanente sobre la
mejor respuesta posible. No es un problema de fácil solución. Entre los factores más difíciles —
si no es más complejo— de controlar, la tecnología, que ha seducido a los profesionales, a los
medios de comunicación y a los usuarios del sistema, aparece en primer lugar.
TECNOCIENCIA MÉDICA
Tecnología sanitaria, en sentido amplio, se define como la aplicación de la ciencia y el
conocimiento a la mejora de la calidad de vida. La demanda social, imparable, ha favorecido
la rápida difusión de los equipos de alta tecnología que están por todas partes, y ha tenido
una gran influencia en su utilización, en una gran parte, incontrolada. El abuso tecnológico es
uno de los ingredientes del paradigma de la moderna atención médica. La industria
___________________________________________________________________________
1.-Jonas WB (1997) Researching alternative medicine. Nature Medicine 3 (8), 824-7.
55
TABLA I
Momentos estelares de la medicina moderna
___________________________________________________________
1941
1944
1947
1948
1949
1950
1952
1955
1956
1959
1960
1963
1964
1967
1969
1971
1973
1978
1979
1980
1981
1984
1987
1990
1992
1996
1998
2000
Penicilina. Frotis vaginal para diagnóstico precoz del cáncer de cervix.
Diálisis renal.
Radioterapia (acelerador lineal).
Lente intraocular en cirugía de la catarata.
Cortisona. Medicina molecular.
Identificación del tabaco como causa del cáncer de pulmón.
Curación de la tuberculosis pulmonar mediante estreptomicina+PAS.
Epidemia de polio en Copenhague y nacimiento de las Unidades de cuidados
intensivos. Utilización de la clorpromazina en el tratamiento de la esquizofrenia.
Cirugía cardiaca con circulación extracorpórea. Vacuna de la polio.
Resucitación cardiopulmonar.
Endoscopio.
«Píldora» anticonceptiva.
Trasplante de riñón.
«Bypass» coronario.
Trasplante cardiaco.
Diagnóstico prenatal del síndrome de Down.
«Cura» de la leucemia infantil.
Imagen tomográfica computarizada.
Primer «bebé probeta».
Angioplastia coronaria.
Erradicación de la viruela.
Primera descripción del sida.
Identificación de la bacteria Helicobacter pylori como causa de la úlcera péptica.
Trombolisis en el infarto del miocardio.
Aplicación del primer protocolo de terapia génica.
Se inicia el Global Burden Disease Study de la mano de la Organización Mundial
de la Salud y del Banco Mundial.
Polifarmacia en el sida = sida enfermedad crónica.
Viagra®.
Medicina genómica.
multinacional de alta tecnología, con el beneplácito de la comunidad profesional, ha
introducido y legitimado la utilización de equipamiento y de procedimientos asociados con
carácter global; a menudo, sin evaluación, sin calidad probada o sin comparación respecto
a los beneficios para el paciente con tecnologías existentes. La demanda universal de
tecnología emerge, por tanto, como paradigma social de nuestros días. Este hecho general
afecta, también, la cuestión médica; medicina en la que actúan, por esas mismas razones,
presiones o ambiciones de los profesionales, de la
industria, de la sociedad y,
destacadamente, políticas. Se ha señalado que una creencia generalizada es que la
tecnología está disponible sin restricción alguna. Pero la tecnología está disponible, es decir,
es útil, para quién la comprende; ello significa entender sus costes y sus beneficios, y en qué
medida está modificando la estructura y la cultura del entorno de su aplicación.
56
La tecnología requiere el desarrollo de un nuevo entramado institucional para su
gestión y utilización correcta; a menos que eso se consiga, la Medicina permanecerá
empantanada, inmersa en una mezcolanza de postgenómica y listas de espera, de predicción
génica y escasez de atención primaria. La práctica médica clásica se apoya en el
conocimiento y quehacer sabidos, cuyos fundamentos son comprendidos por la población
culta; en cambio, la nueva tecnología escapa, en muchos casos, en su comprensión íntima,
incluso a los profesionales que la utilizan. El componente mágico de la medicina se ha
desplazado desde el «doctor» en la práctica clásica, a la tecnología, sea «máquina» o
«pastilla, en la medicina actual. Medicina que se caracteriza, hoy, por el protagonismo de la
tecnología, la superespecialización y su hospitalocentrismo.
De acuerdo con la concepción generalizada, la tecnología diagnóstica implica el uso de
costosas máquinas científicas -de máquinas mágicas-, de radioisótopos o de electrónica y, lo
más importante, como hacer diagnósticos de forma distinta a los procedimientos habituales,
tales como la historia clínica, la palpación o incluso mediante la utilización de herramientas
simples como el estetoscopio. De manera similar, la tecnología terapéutica se asocia,
corrientemente, con procedimientos estelares tales como la terapia génica, la utilización de
células troncales (células madre), el trasplante de órganos, la implantación de caros diseños o,
bien, con actuaciones que requieren costosísimos equipos (terapéutica por captura de
neutrones, aceleradores lineales o láser). En ambos casos, diagnóstico o tratamiento, cabe
hablar de tecnologías blandas: biotecnología que entiende de ADN recombinante para la
obtención de farmacoproteínas a partir de una masa microbiana, de anticuerpos monoclonales,
de síntesis química de farmacopéptidos o de reprogramación celular. Y también de tecnologías
duras, fundamentalmente la obtención de imágenes, en el sentido más amplio o iconología
médica por diferentes tecnologías: resonancia magnética, tomografía computarizada o imagen
molecular, son jerga médica habitual. Estas tecnologías se refieren, con frecuencia, con el
calificativo de alta tecnología médica (ATM) o big ticket technology (en virtud de los altos
costes asociados). La tecnología se percibe, por tanto, no solo como algo extremadamente
complejo sino como algo extraordinariamente caro; para muchos, esta última es la
característica de mayor impacto.
No cabe duda, por todo ello, que el ámbito de la Salud es uno de los que, en los últimos
años, han sufrido un mayor shock. Es una época de cambios tecnológicos extremadamente
rápidos cuyo impacto es, cada vez, más inmediato. Aunque no puede, ni debe, negarse su
participación en una mejor atención sanitaria, tampoco puede ignorarse su incidencia social,
económica, industrial, política y, ante todo, sobre la propia Medicina con la que está en
conflicto2. La llegada del siglo XXI supuso las bodas de oro o de plata, para las unidades de
cuidados intensivos, los trasplantes renales, las imágenes tomográficas computarizadas o de
un planeta libre de viruela. En este panorama, las revoluciones icónica, quirobótica y
biotecnológica han condicionado la medicina de nuestros días y preparado el escenario futuro.
El amplio abanico de tecnologías de la imagen —revolución iconológica— ha
posibilitado la visualización "real" de las estructuras anatómicas en situaciones normal y
patológica. Muchas de esas tecnologías (ultrasonido, tomografía computarizada o resonancia
magnética) están ampliamente aceptadas y mantienen una impresionante velocidad de
innovación; otras (tomografía de emisión de positrones o magnetoencefalografía) se mantienen
en nichos ambientales especializados, y algunas, como la microimagen por resonancia en
diagnóstico intra-útero y la imagen molecular para el escudriñamiento génico, inician su
andadura. La razón primaria de su éxito es la capacidad de proporcionar una información sin
precedentes, útil en la mayoría de los casos en la atención rutinaria de gran número de
___________________________________________________________________________
2.-Hellman S (1995) The patient and the public good. Nature Medicine 1, 400-2.
57
pacientes. Por su parte, una misma imagen lograda mediante técnicas diferentes suele ofrecer
mayor información. En la actualidad, el procedimiento es examinar en conjunto, pero
separadamente, cada una de las imágenes; en el futuro, las imágenes combinadas, en las que
se fundan las diversas técnicas, facilitarán la labor. El problema puede derivar de que un
exceso de información dificulte al clínico la toma de decisiones.
En la vertiente terapéutica, la litotricia extracorpórea por ondas de choque, las
diferentes aplicaciones del láser o los modernos sistemas de tratamiento radioterápico en
oncología, entre otras posibilidades, configuran el advenimiento de una nueva familia de
potentes tecnologías médicas. Gran parte del daño tisular que provoca la cirugía deriva de la
necesidad de seccionar los tejidos normales para acceder a la lesión. Las tecnologías
quirúrgicas actuales —revolución quirobótica— acceden al interior del organismo utilizando las
vías naturales (broncoscopia, endoscopia digestiva o uroscopia) o a través de mínimas
incisiones (laparoscopia, acceso al sistema cardiocirculatorio mediante la punción de un vaso).
Esta cirugía «mínimamente invasiva» o cirugía «sin huellas», está revolucionando la práctica
quirúrgica al conseguir procedimientos más simples, más seguros, con tiempos de
recuperación bastante más cortos y, por tanto, más económicos y más beneficiosos para los
pacientes.
Tal vez, una de las técnicas más llamativas la ofrece el láser por su versatilidad. Como
herramienta accesoria en las técnicas de fertilización in vitro, un láser es capaz de ayudar a un
espermatozoide a atravesar la envoltura del óvulo; de igual modo, de cara al futuro
nanotecnológico, puede escindir un trozo defectuoso de un cromosoma que, luego, podrá ser
reparado. A nivel macroscópico, la cirugía ocular mediante láser está perfectamente
implantada, y los estomatólogos, por su parte, comienzan a abandonar las fresas y se preparan
para oradar el duro esmalte con dicha energía. Junto al nuevo bisturí, la robótica, la ingeniería
rehabilitadota en sus vertientes funcional y estética, la ingeniería capacitadota ocupada en la
recuperación sensorial y los nuevos biomateriales, conforman las fronteras de la cirugía.
La robótica es el representante más espectacular de la compleja tecnología con
orientación terapéutica. Las manos tienen cierta clase de sabiduría intrínseca; sólo tocando
saben cómo coger una fina hoja de papel sin romperla. Los ingenieros robotistas intentan
construir manos mecánicas que, al igual que las humanas, puedan explorar y reconocer su
entorno. Para conseguirlo es necesario integrar sensores de presión, posición, vibración y
tensión, en un mecanismo que reúna todas esas sensaciones. Tal diseño no es sino el de la
capacidad táctil de la mano del hombre, y cuyo desarrollo va de la mano del de una nueva
ingeniería: ingeniería háptica o de la capacidad manual. Una de las exigencias de este
ambicioso proyecto es la interrelación entre disciplinas que, hasta hace muy poco tiempo, poco
tenían que decirse entre sí; neurofisiólogos e ingenieros que diseñan robots, comparten
intereses comunes respecto a los mecanismos mediante los que percibimos y respondemos a
la textura, forma y orientación de un objeto. Ingenieros y fisiólogos están enfrascados en
idénticos problemas; con ello y desde el lado de la tecnología, la robótica inicia su penetración,
entre otros, en el campo de la cirugía. Robodoc realiza la implantación de prótesis de cadera,
Neurobot accede a la cavidad craneal y Laparobot extirpa vesículas litiásicas. La experiencia
quirobótica es el paso previo a la construcción de prótesis de miembros cuyos sensores
puedan percibir y trasmitir información táctil a los nervios sensoriales intactos de la raíz del
miembro amputado, y cuyos efectores puedan llevar a cabo las funciones mecánicas
deseadas. Por ¿último?, de la conjunción de estas nuevas imagen y cirugía, más el ingrediente
de la realidad virtual y de la teleprensencia, se vislumbra —¡ya está ahí!— unos medios —
medicina «nintendo»— donde la ficción y la realidad se confunden.
La tercera revolución es la biotecnológica. Si las computadoras, las telecomunicaciones
y los robots, pueden hacer a los médicos y a los hospitales más eficientes y seguros, la
58
Biología está aportando un valor añadido de impresionante cuantía. La biotecnología —empleo
de células vivas para la obtención de productos útiles— es una de las tecnologías más
antiguas. Ha sido utilizada desde tiempos remotos para hacer vino y queso, preparar cerveza,
mejorar las cosechas e incrementar el rendimiento de los animales de granja. Pero en las dos
últimas décadas, la biotecnología ha sufrido una transformación como resultado de una serie
de espectaculares desarrollos de los que la genómica representa la penúltima frontera.
Genómica3 se refiere a la disciplina que se ocupa del mapeo/secuenciación y del análisis de la
información resultante, del genoma humano. Es una disciplina que arranca del matrimonio
entre la biología molecular4 y celular con la genética clásica, alentado por la ciencia de la
computación (bioinformática). La genómica implica la construcción e interpretación de varios
tipos de mapas genéticos y se interesa por la interpretación de su significado biológico (postgenómica, proteómica). La genómica es el lugar de encuentro de biólogos moleculares y
bioquímicos, de genetistas clínicos y citogenetistas, de biólogos de poblaciones y
evolucionistas, de biólogos teóricos y bioinformáticas, de todos aquellos interesados en la
biología y genética humanas. Y de médicos, también de una «nueva clase», que integran ese
conocimiento en «medicina molecular».
MEDICINA MOLECULAR
El punto de partida del concepto de enfermedad molecular son los estudios de Archibald
E. Garrod5 (FIGURA 1) sobre la alcaptonuria. Garrod había observado que, en pacientes con
ese trastorno metabólico6, se detectaba en la orina una sustancia —alcaptón o ácido
homogentísico— que no se detecta el la orina de individuos sanos. De manera similar, el
fracaso en la formación de pigmento cutáneo en el albinismo, la excreción urinaria de grandes
cantidades de cistina en la cistinuria y la aparición de pentosa en la orina en la pentosuria
esencial, fueron interpretadas por Garrod como bloqueos puntuales en diversas vías
metabólicas normales. Garrod atribuyó el albinismo a un impedimento en la formación de
melanina, y las otras tres enfermedades a la excreción de metabolitos intermediarios
proximales al bloqueo metabólico y cuya acumulación puede ser tóxica. Por otro lado y tras
___________________________________________________________________________
3.-Genómica. Término sugerido por TH Roderick, del Jackson Laboratory, Bar Harbor, Maine, y que dio
título a una “nueva” revista -“Genomics”-, establecida en 1987. En: McKusick VA (1987) A new discipline,
a new name, a new journal. Genomics 1 (1), 1-2.
4.-Biología molecular. Término introducido por WT Astbury: “Implica no tanto una técnica como una
estrategia; un abordaje desde el punto de vista de las llamadas ciencias básicas, y con la idea líder de
escudriñar las bases de las manifestaciones a gran escala de la biología clásica, en cuanto que
responden a un plan molecular. Tiene que ver, en particular, con las formas de las moléculas biológicas,
y con la evolución, explotación y diversificación de aquellas formas en el ascenso hacia niveles, más y
más altos, de organización. La biología molecular es predominantemente tridimensional y estructural, lo
que no significa, sin embargo, que se aun mero refinamiento de la morfología. Debe indagar, al mismo
tiempo, en la génesis y en la función” (Molecular biology or ultrastructural biology? Nature 190: 1124,
1961).
5.-Garrod A (1902) The incidence of alcaptonuria: A study in chemical individuality. Lancet ii: 1616-20. El
párrafo final dice: “De acuerdo con los datos disponibles, puede inferirse que los individuos de una
especie no se ajustan a un estándar rígido de metabolismo, sino que difieren discretamente en sus
respectivas químicas, de igual modo que lo hacen en sus morfologías. Por ello no debe sorprendernos el
que, ocasionalmente, exhiban desviaciones conspicuas del metabolismo, en modo similar a la presencia
de raras aberraciones estructurales, como dedos supernumerarios o transposiciones viscerales”.
6.-Alcaptonuria. Anomalía metabólica congénita cuyo signo más llamativo es el oscurecimiento de la
orina tras su exposición al aire. Ennegrecimiento debido a la presencia en la orina de ácido
homogentísico, que en condiciones normales es metabolizado.
59
FIGURA 1.
Archibald E. Garrod (1857-1936).
Con motivo de sus estudios sobre la presencia de
alcaptón –ácido homogentísico- en la orina de
pacientes con alcaptonuria estableció, en 1899, el
concepto de “malformación química”. Persistió en
el estudio de enfermedades metabólicas
(alcaptonuria, albinismo, cistinuria), estableciendo,
en 1902, 2l concepto de “errores metabólicos”.
Designado para dictar la Croonian Lectura 1908,
disertó sobre “Errores innatos del metabolismo”,
que editó primero en la revista Lancet y publicó al
año siguiente. En 1910 fue elegido Fellow de la
Royal Society.
consultar con Bateson —uno de los pioneros de la gran escuela británica de genetistas-,
Garrod pudo explicar el patrón familiar hereditario de tales enfermedades en términos de las entonces recién redescubiertas— leyes de Mendel: tales metabolopatías son condiciones
recesivas.
Fruto de la experiencia acumulada fueron sus famosas Conferencias Croonian7 sobre
«Errores innatos del metabolismo». En 1909, a la par que Wilhelm Johansen acuñaba la
palabra «gen» para referirse a los factores mendelianos, Archibald E. Garrod publicaba sus
charlas en forma de libro8. Al final del primer capítulo («La química de las especies y del
individuo») concluye:
«Cuando discutamos con más detalle los diferentes errores innatos del metabolismo conocidos se verá
que, en cada uno de ellos, la causa más probable sea la carencia congénita de alguna enzima en particular,
en cuya ausencia se bloquea un paso metabólico».
Y, finalizando el capitulo segundo («La incidencia y herencia de los errores innatos del
metabolismo») puede leerse:
«Debe criticarse que la mayoría de los observadores de esas anomalías han prestado poca atención a los
condicionantes hereditarios […]. pero el análisis conjunto de las piezas de información disponibles revela la
existencia de semejanzas, especialmente evidentes en su incidencia ligada al sexo, en su tendencia a ocurrir
en varios miembros de una generación de una familia y en la rareza de la transmisión directa de padres a
hijos. Si el factor subyacente en cada caso es la ausencia de una enzima determinada, debe esperarse que
tales enzimas se comporten como caracteres recesivos mendelianos»
Garrod interpretó la enfermedad en clave de la ausencia o la ineficacia de la enzima
que, en condiciones normales, cataliza un paso metabólico determinado. Ello, a su vez,
dependía de la ausencia de la forma normal de un gen específico. El fracaso para metabolizar
un compuesto intermedio cuando su ruta metabólica está bloqueada por un defecto genenzima fue una parte de la interpretación fisiopatológica, que permitió explicar la acumulación y
___________________________________________________________________________
7.-Garrod a (1908) The Croonian Lectures: Inborn errors of metabolism. Lancet ii, 1-7 (Lecture I: General
and introduction. Albinism); 73-9 (Lecture II: Alkaptonuria); 142-8 (Lecture III: Cystinuria); 214-20 (Lecture
IV: Cystinuria, pentosuria
8.-Garrod AE (1909) Inborn Errors of Metabolism. London: Henry Frowde and Hodder & Stoughton. The
Lancet
Building.
Segunda
edición
(1926)
en:
www.esp.org/books/
Garrod/inbornerrors/facsimile/title3.html (acceso: enero 2003).
60
la excreción de diferentes metabolitos intermediarios en las enfermedades estudiadas. Garrod
tenía claro el concepto de un sistema definido por «un gen → una enzima → una reacción
química», en el que las tres entidades interaccionaban de manera muy específica. En su
monografía, Garrod señaló que la idea del proceso metabólico como un bloque estaba dando
paso a otra que contempla el estudio del metabolismo en compartimientos, correspondiendo
cada uno de ellos a una vía metabólica definida que procede en una secuencia de pasos.
Sobre ello, Garrod desarrolló el concepto que:
«Ciertas enfermedades que se manifiestan a lo largo de la vida de un individuo tienen su origen en la
alteración de una enzima determinada que controla un paso metabólico específico. En cada una de ellas la
causa más probable es la ausencia congénita de alguna enzima particular»
A pesar de la simplicidad y elegancia de la interpretación, por parte de Garrod, de la
alcaptonuria y de otras metabolopatías congénitas como defectos genéticos que resultaban en
la ausencia o en la ineficacia de enzimas específicas y, con ello, en el bloqueo de las
reacciones químicas involucradas, su trabajo tuvo poca incidencia en el pensamiento de los
genetistas de su tiempo. Sólo el libro de Bateson Mendel’s Principles of Heredity9 y otros pocos
se hicieron eco del concepto de Garrod. El trabajo de Garrod fue prácticamente ignorado por
los genetistas durante una generación.
Deben hacerse dos puntualizaciones al significado que ha tenido para la medicina y
para la bioquímica el concepto de error congénito del metabolismo. La historia de los errores
metabólicos congénitos muestra, claramente, el papel de la bioquímica en el desarrollo de los
nuevos conocimientos de la medicina; pero al mismo tiempo ilustra la importancia de la
observación clínica y del estudio de los llamados casos raros. Garrod, en su artículo «Las
lecciones de las enfermedades poco frecuentes»10 hizo hincapié en este punto, citando una
carta escrita por Harvey, en 1657, pocas semanas antes de su muerte:
«La naturaleza nunca se muestra tan propicia a revelar sus misteriosos secretos como cuando exhibe las
huellas de su trabajo al margen del camino trillado; no existe mejor manera de avanzar en la verdadera
esencia de la medicina, que al dirigir nuestras ideas hacia el descubrimiento de las leyes naturales mediante
un estudio cuidadoso de las más raras formas de la enfermedad».
Rareza y mera observación fueron, tal vez, los motivos por los que el trabajo de Garrod
no fuera apreciado durante muchos años.
Aunque la relación entre genes y enzimas estaba implícita en la formulación de Garrod,
la idea no cuajó. Con todo, el concepto de Garrod evolucionó hacia el de «un gen → una
enzima», aportado por George W. Beadle y Edward L. Tatum en 1941. Este concepto
establece: 1) que todos los procesos bioquímicos en todos los organismos están bajo control
genético. 2) Que cada vía metabólica se resuelve en una serie de pasos o reacciones
químicas. 3) Que cada reacción química está bajo el control de un determinado gen. Y 4) que
una sola mutación génica altera la capacidad de una célula para realizar una determinada
reacción química. Beadle y Tatum (FIGURA 2) serían recipiendarios del Premio Nobel de
Fisiología o Medicina 1958 «por su descubrimiento de que los genes actúan regulando
acontecimientos químicos definidos».
____________________________________________________________________________
9.-Bateson W (1902) Application for Support of an Experimental Investigation of Mendel’s Principles of
Heredity in Animals and Plants. En: Bateson B (1928) William Bateson, F.R.S.: His Essays & Addresses,
together with a Short Account of his Life. Cambridge: Cambridge University Press. Ver:
www.esp.org/whastnew/pubs.html (acceso: enero 2003).
10.-Archibald Garrod. Portraits of the Royal Society.
61
Por su parte, en noviembre de 1949, Linus Pauling et al. publicaron el trabajo11 «Sickle
cell anemia, a molecular disease» (Anemia de células falciformes: una enfermedad molecular).
En él demostraban que la hemoglobina de pacientes con anemia falciforme (anemia
caracterizada por la presencia de eritrocitos con forma de hoz o semilunares: células
drepanocíticas) tiene una carga eléctrica diferente a la de individuos sanos. El trabajo tuvo un
fuerte impacto. La publicación de Pauling fue seminal en dos sentidos. Primero, mostró que la
causa de una enfermedad podía atribuirse a una alteración de la estructura molecular de una
proteína, abriendo la posibilidad de que muchas enfermedades pudieran explicarse de esta
manera. Segundo, como se conocía que esta enfermedad era hereditaria, el trabajo apuntó a
que los genes determinaban la estructura de las proteínas.
FIGURA 2.
George W. Beadle
(1903-1989) y Edward L. Tatum
(1909-1975) compartieron la mitad del
Premio Nobel de Fisiología o
Medicina (PNFóM) 1958 “por su
descubrimiento de que los genes
actúan regulando acontecimientos
químicos definidos”. La otra mitad del
Premio correspondió a Joshua
Lederberg.
La atención de Pauling hacia la anemia de células drepanocíticas se debió a William B.
Castle, un clínico de Harvard. Ambos formaban parte del Medical Advisory Committee que
asistió a Vannevar Bush en la elaboración del famoso informe Science – The Endless
Frontier12. Pauling había estudiado la hemoglobina en proyectos de sustitutos de la sangre
durante la Segunda Guerra Mundial, y había estudiado cómo el oxígeno se une a la
hemoglobina en el año 1935. Pauling estaba familiarizado con la hemoglobina cuando Castle le
comentó que solo la sangre venosa (desoxigenada) de pacientes con anemia falciforme
contenía eritrocitos drepanocíticos. La dependencia del oxígeno de la drepanocitosis sugirió
que la hemoglobina era responsable del proceso. Pauling pensó que en esos pacientes las
moléculas de hemoglobina podían cambiar de forma e intuyó que la aproximación fisicoquímica
era una poderosa herramienta para abordar problemas fisiopatológicos. El proyecto sobre
anemia falciforme representó para Pauling una convergencia de intereses políticos, financieros
e intelectuales; como muchos otros científicos, reclamó la necesidad de reorientar la
financiación militar, comprensible en tiempos de guerra, para financiar, en tiempos de paz,
investigación civil.
En 1946, Pauling asignó el proyecto a Harvey A. Itano como trabajo de Tesis Doctoral,
quién tras intentar diferentes métodos concentró sus esfuerzos sobre las técnicas
electroforéticas, entonces disponibles en contadísimos laboratorios. Itano encontró una
____________________________________________________________________________________
11.-Pauling L, Itano HA, Singer SJ, Wells IC (1949) Sickle cell anemia, a molecular disease. Science 110,
543-8.
12.-Bush V (1945) Science: The Endless Frontier. A report to the president. Washington DC: US
Government Printing Office. En: www.physics.uiuc.edu/General_Info/VBush1945.html.
62
diferencia en la movilidad electroforética entre las hemoglobinas normal (hemoglobina A) y
patológica (hemoglobina S: Sickle), lo que indicaba que ambas variedades hemoglobínicas
trasportaban diferente carga eléctrica. El grupo de Pauling demostró: 1) que los pacientes con
anemia falciforme tienen un tipo de hemoglobina diferente a la «normal», y que tal diferencia se
debe a que las hemoglobinas S y A tienen diferentes globinas. 2) Que los individuos con rasgo
drepanocítico poseen una mezcla de hemoglobinas A y S. 3) Que la drepanocitosis o rasgo
falciforme refleja una condición heterozigótica, mientras que la anemia falciforme representa la
condición homozigótica.
Cuando apareció publicado el trabajo de Pauling estaba aceptado que las hemoglobinas
adulta y fetal difieren en su movilidad electroforética y que varias enfermedades se
correlacionan con patrones electroforéticos anormales de sus hemoglobinas. ¿Qué aportaba de
nuevo del trabajo de Pauling? Beadle y Tatum habían establecido, en los primeros años de la
década de los 1940s, la hipótesis de «un gen → una enzima», pero no estaba claro si los
genes controlaban algo más que la mera presencia o ausencia de una enzima particular. El
trabajo de Pauling demostró que los genes podían alterar cualitativamente la estructura de las
proteínas, y en el caso de la anemia falciforme con graves consecuencias para la salud
humana. También demostró una relación causal, no una mera correlación, entre la presencia
de moléculas de hemoglobina anormal y las consecuencias patológicas de la enfermedad
falciforme.
De la mano de Pauling, el descubrimiento representó el emblema de cómo la ciencia
básica puede solucionar cuestiones prácticas. Años después, manifestó su creencia de que la
química podría ser un recurso eficaz para resolver problemas médicos, y que su aplicación
puede significar un relevante progreso en el campo de la medicina, transformando el carácter
empírico de la práctica médica en otro científico de la medicina molecular. Pauling intentó
establecer, en Caltech, un instituto de medicina molecular; sin embargo, el escepticismo de las
opiniones pública y privada abortó el propósito.
Garrod («errores metabólicos»), Beadle y Tatum («un gen → una enzima») y Pauling
(«enfermedad molecular») representan el trípode de partida de la medicina molecular13. La
medicina molecular abarca el descubrimiento de los componentes moleculares fundamentales
que determinan el comportamiento celular; la disección de la expresión génica aberrante y de
las interacciones anómalas, y la modulación o corrección de esas aberraciones y anomalías
con el propósito de prevenir y curar la enfermedad. La medicina molecular es la aplicación de
los métodos de la biología molecular en general y de la ingeniería genética en particular, a la
práctica clínica; intenta dirigir las acciones diagnóstica y terapéutica al lugar mismo del defecto
(un gen mutado) y no a los efectos pleotrópicos, fenotípicos, secundarios de los productos de
ese gen. Sin embargo, existe una distancia enorme entre la identificación de genes
responsables de raros trastornos monogénicos (por ej., alcaptonuria), y la de factores de
susceptibilidad que contribuyen a enfermedades complejas que afectan a millones de personas
(enfermedades cardiovasculares o diabetes, por ej.)
El análisis molecular del ADN es, hoy, parte integral de todas las especialidades
médicas; su impacto en medicina clínica incluye nuevas estrategias diagnósticas de las
enfermedades, detección de patógenos, rastreo de predisposición a las enfermedades,
consejo genético, desarrollo de fármacos, farmacogenética y, en casos seleccionados, terapia
génica. Se conocen más de 3000 enfermedades humanas causadas por mutaciones puntuales
que siguen un patrón de herencia mendeliano; más aún, muchas enfermedades están influidas
por el ruido de fondo genético de los individuos afectados y existe, con frecuencia, una
___________________________________________________________________________
13.-Culliton BJ (1995) Molecular medicine in a changing world. Nature Medicine 1 (1): 1. Karp JE, Broder
S (1994) New directions in molecular medicine. Cancer Research 54, 635-65.
63
interacción compleja entre factores ambientales y la predisposición genética. Muchos de tales
trastornos — hipertensión, coronariopatías, asma o diabetes— representan problemas de salud
pública de primer orden por lo que la elucidación de sus patogénesis representa un reto
extraordinario. Otras patologías genéticamente determinadas incluyen síndromes causados por
aberraciones cromosómicas y cánceres hereditarios. Tomadas en conjunto, las enfermedades
genéticas forman un grupo considerable de enfermedades humanas. Más de un tercio de todas
las admisiones pediátricas hospitalarias se deben a trastornos causados, al menos en parte,
por factores genéticos. El 6-8% se refieren a defectos génicos únicos, el 0.4-2.5% se debe a
cromosomopatías y el remanente tiene una influencia genética. En términos generales, el 3-5%
de las enfermedades en la población general tiene una causa genética. Sin embargo, es difícil
realizar estimaciones precisas dado que diferentes defectos génicos pueden definir un mismo
fenotipo (heterogeneidad genética), y la mayoría de las enfermedades genéticas son raras.
Dado que los rasgos examinados por Mendel estaban causados por genes únicos, las
enfermedades humanas monogénicas suelen referirse como trastornos mendelianos.
Información de muchas de estas enfermedades genéticas puede encontrarse en un compendio
en continua actualización: Mendelian Inheritance in Man (MIM), iniciado por Victor A McKusick,
accesible en la web.
Los avances promovidos por el Proyecto Genoma Humano han tenido una tremenda
influencia en el campo de la genética. Casi todas las enfermedades genéticas más comunes
(150-200) y un número considerable de otras menos frecuentes (600-800) han sido rastreadas
hasta sus genes defectivos (1500-2000). En el curso de tales estudios han salido a la luz
nuevos mecanismos genéticos como la impronta génica (expresión diferencial de un gen de
acuerdo con su origen parental; por ej., los síntomas de la enfermedad de Huntington, causada
por un alelo dominante, se presentan durante la adolescencia si la herencia es paterna, pero
no lo hacen hasta la madurez cuando la procedencia es materna) o las modificaciones
epigenéticas que, a su vez, han potenciado nuevos avances diagnósticos y fisiopatológicos.
Este progreso global ha permitido un estudio más detallado de la relación entre los defectos
moleculares básicos y los trastornos funcionales de procesos en células, órganos y
organismos: correlación genotipo-fenotipo.
El primer beneficiado por tales desarrollos es el diagnóstico molecular. La década
pasada ha sido testigo de grandes mejoras en la resolución diagnóstica, desde los marcadores
que identificaban un cromosoma con un gen afectado (hibridación in situ), hasta la detección de
reordenamientos como grandes delecciones, duplicaciones y translocaciones y de mutaciones
puntuales de un par de bases. Las tecnologías de detección de mutaciones y su aplicación
diagnóstica han supuesto un logro sin precedentes; sin embargo, existe una tendencia a
sobrevalorar el diagnóstico molecular que, hoy, está lejos del ideal. Incluso enfermedades
monogénicas bien conocidas para las que el diagnóstico molecular lleva vigente muchos años,
como la distrofia muscular de Duchenne, la hemofilia A o la fibrosis quística, la tasa de
detección de mutaciones es, solo, del 60-90%; ello se debe a una combinación de factores
como la complejidad génica y la frecuencia de nuevas mutaciones. La tasa de detección de
mutaciones es aún más baja en el cáncer hereditario de mama; la tasa de detección en
familias donde la enfermedad cosegrega con el locus BRCA1 en el cromosoma 17 es del 5060%, lo que depende de la población estudiada y de la tecnología empleada, y si la
enfermedad cosegrega con el locus BRCA2 la tasa de detección es solo del 35%. Este
fenómeno se denomina «heterogeneidad genética»: una enfermedad puede estar causada por
más de un gen defectivo. El cáncer de mama por, al menos, dos —BRCA1 y BRCA2—, pero
posiblemente haya más. La enfermedad poliquística renal es otro ejemplo; con una frecuencia
de 1:500, es una de las enfermedades monogénicas más comunes. El 85% de los casos está
causado por mutaciones en PKD1 en el cromosoma 16, con una tasa de detección del 10%; el
64
10% de los casos se deben a mutaciones PKD2 en el cromosoma 4. Por su parte, la pérdida de
visión por retinitis pigmentosa se asocia a no menos de 24 loci.
La ciencia genómica modificará radicalmente tres aspectos de la medicina: la naturaleza
de la transación o del contrato médico; la perspectiva de la enfermedad por el enfermo y por el
médico, y el contexto social y cultural en el que el contrato médico tiene lugar. El contrato
médico, desde el nacimiento de la medicina, se ha establecido sobre las bases de la curiosidad
diagnóstica (lado del médico) y la expectativa terapéutica (lado del enfermo). El genio
hipocrático insertó el pronóstico entre ambos; en toda medicina racional, cualquier terapia
eficaz deberá utilizarse, solamente, cuando el médico pueda anticipar el curso de la
enfermedad con o sin tratamiento. Estas ancianas reglas han guiado el contrato médico
durante siglos. La medicina molecular introducirá en el contrato clínico una forma sin
precedentes de pronóstico; juicio que jugará un papel protagonista en numerosas situaciones.
La situación surge de la identificación de genes asociados con susceptibilidad a diferentes
enfermedades comunes como el cáncer, la diabetes o las enfermedades cardiovasculares. En
primer lugar es difícil asignar una palabra que defina la situación o el estado creado por la
presencia de tales genes: susceptibilidad, predisposición, propensión, proclividad, o riesgo,
potencial, probabilidad. Independientemente del término elegido, la cuestión es cómo informar
a un paciente que sufrirá una enfermedad —más o menos grave, en un momento u otro de su
vida— con una cierta probabilidad en algunos casos y, en otros, con casi certeza. ¿Cual es el
significado ético de esta clase de información pronóstica o medicina predictiva?
Todo pronóstico consiste de posibilidades y de probabilidades; rara vez el futuro es
cierto. En la medicina de nuestros días esas posibilidades y probabilidades suelen descansar
en estudios epidemiológicos y se explicitan en términos estadísticos. Las pruebas que emergen
con la medicina molecular van más allá de la probabilidad epidemiológica; tales pruebas
informan de personas que poseen variantes génicas que confieren un riesgo innato de padecer
cierta enfermedad. Pero la ciencia muestra la complejidad de la vía por la que el genotipo
expresa el fenotipo o por la que un gen expresa una enfermedad. El riesgo innato definido por
la presencia de una mutación génica —asociada, por ejemplo, a cáncer— se combina con la
información contenida en multitud de otros genes que se expresan en una cascada de
proteínas, que interaccionan con otra multitud de acontecimientos biológicos y, quizás, con
otros de índole psicológica, social o ambiental, antes de emerger como una lesión llamada
cáncer. Esta complejidad debe presidir el razonamiento del pronóstico génico referido a una
situación específica en un individuo en particular. De la incertidumbre y de la complejidad de tal
pronóstico surge la primera implicación ética del contrato clínico: la veracidad de la información
génica para el paciente. Las nuevas posibilidades pronósticas de la medicina molecular exigen
un vocabulario más sofisticado que permita expresar probabilidades más complejas y la historia
natural asociadas a las pruebas génicas que irán emergiendo.
La perspectiva tradicional que comparten médicos y pacientes es que la enfermedad es
algo indeseable que debe prevenirse y, en su caso, eliminarse. La persona con riesgo de
cáncer desea prevenir su manifestación; el paciente con cáncer desea que su tumor sea
extirpado o, si ello es imposible, que su condición general sea mejorada y los efectos letales
diferidos. La disponibilidad de pruebas de susceptibilidad a futuras enfermedades supone
desplazar al mundo médico millones de personas que no experimentan dolor, ni inquietud, ni
limitaciones de tipo alguno. Dicha población deberá organizar su vida entre colonoscopias o
mamografías, de la misma manera que va al dentista; muchas personas desarrollarán, a causa
de ello, síntomas psicosomáticos, otras puede que, incluso, vivan como inválidos. En cualquier
caso, todo aquel en quién se detecte una susceptibilidad génica entrará a formar parte de una
nueva clase de individuos: «prepacientes». Los prepacientes no serán enfermos en el sentir
actual del término, pues no necesitarán tratamiento; tampoco serán individuos sanos en el
sentir de estar libres de una condición médica relevante. Tendrán una relación particular con el
65
mundo médico, obligada por la necesidad de una espera vigilada, pero no obtendrán beneficios
de las soluciones tecnológicas de la medicina molecular14.
El tercer cambio radical asociado a la medicina molecular afectará al contexto
sociocultural. Compañías de seguros, de empleo y de prospección de mercado, esperan
interesadas la información que fluirá de los bancos de datos génicos. Incluso el control legal de
la privacidad génica —que aún no ha sido desarrollado, excepto en Islandia— tendrá
dificultades para impedir el acceso a dicha información. Los problemas de privacidad y de
confidencialidad, con ser importantes por sí mismos, tienen mayor trascendencia en el contexto
de la medicina molecular. Los principales problemas derivan de la propensión humana a
clasificar las personas en grupos y poblaciones con nombres y con números. La información
génica consiste, en sentido literal, en datos relevantes a un genos, el término griego para tribu.
Desde sus comienzos, la humanidad ha sido encasillada en grupos. La información génica
puede utilizarse para crear tribus artificiales; personas clasificadas no como Sioux, Hutus,
Caucasianos, etc., sino clasificadas por sus marcadores génicos que comparten una
propensión por una determinada enfermedad, tribus p53, BRCA1, apoE4, etc. «Donde hay
distinción y discriminación potencial existe injusticia», comenta Albert R. Jonsen. La medicina
génica predictiva, que dividirá y redistribuirá las poblaciones sobre la base de sus rasgos
génicos, debe acompañarse de normas de justicia que aseguren que los prepacientes no serán
segregados del mundo socioeconómico que habiten.
El Convenio relativo a los derechos humanos y la biomedicina, ratificado por el Reino de
España el 23 de julio de 1999, dispone, entre otros:
Capítulo I - Disposiciones generales
Art 1. Objeto y finalidad: Las Partes en el presente Convenio protegerán al ser humano
en su dignidad e identidad y garantizarán a toda persona, sin discriminación alguna, el
respeto a su integridad y a sus demás derechos y libertades fundamentales con respecto
a las aplicaciones de la biología y medicina. Cada parte adoptará en su legislación interna
las medidas necesarias para dar aplicación a lo dispuesto en el presente Convenio.
Art 2. Primacía del ser humano: El interés y el bienestar del ser humano deberán
prevalecer sobre el interés exclusivo de la sociedad o de la ciencia.
Capítulo IV - Genoma humano.
Art 11. No discriminación: Se prohíbe toda forma de discriminación de una persona a
causa de su patrimonio genético.
Art 12. Pruebas genéticas predictivas: Sólo podrán hacerse pruebas predictivas de
enfermedades genéticas o que permitan identificar al sujeto como portador de un gen
responsable de una enfermedad, o detectar una predisposición o una susceptibilidad
genética a una enfermedad, con fines médicos o de investigación médica y con un
asesoramiento genético apropiado.
Art 13. Intervenciones sobre el genoma humano: Únicamente podrá efectuarse una
intervención que tenga por objeto modificar el genoma humano por razones preventivas,
diagnósticas o terapéuticas y sólo cuando no tenga por finalidad la introducción de una
modificación en el genoma de la descendencia.
Art 14. No selección de sexo: No se admitirá la utilización de técnicas de asistencia
médica a la procreación para elegir el sexo de la persona que va a nacer, salvo en los
casos en que sea preciso para evitar una enfermedad hereditaria vinculada al sexo.
______________________________________________________________________
14.-Jonsen AR, Durfy SJ, Burke W, Motulsky AG (1996) The advent of the “unpatients”. Nature Medicine
2 (6), 622-4. Jones R (1996) The impact of molecular medicine on health services. Nature Medicine 2 (9),
959-60.
66
En el otro extremo, en un intento de desembarazarse de la predicción génica, se sitúa la
autonomía de los pacientes. La tecnología pone en sus manos los suficientes recursos para el
autocontrol, autodiagnóstico y autotratamiento. Los objetivos principales de la tecnología
diagnóstica son: mejorar la facilidad del manejo y la portabilidad del aparataje; disminuir la
cantidad de muestra necesaria y el dolor asociado con la toma de sangre; desarrollar técnicas
no invasivas, e incorporar nuevas tecnologías. Algunos ejemplos muestran el panorama
diagnóstico: un monitor tipo reloj que accede a la glucosa intravascular a través de la piel
intacta y mediante la aplicación de una corriente eléctrica —un proceso denominado
iontoforesis inversa— proporciona un registro continuo de los niveles de glucosa en sangre; un
sistema de ultrasonido adaptado a la ducha, en combinación con un panel termográfico
ultrasensible instalado en la pared, permitirá una autoexploración matinal para detectar
cualquier «bultoma» o «incidentaloma»; un sensor en el inodoro analizará multitud de
parámetros bioquímicos y microbianos en orina y heces, y una microcámara engullida como un
comprimido proporcionará información visual del aparato digestivo desde la boca hasta el ano.
Toda esta información será recibida por una central de registro del tamaño de un maletín; aquí,
sobre la base de programas de inteligencia artificial (sistemas expertos), tal información,
icónica y bioquímica, será interpretada indicando al paciente la actitud a seguir. En aquellas
situaciones complejas que exijan la intervención de un centro médico de referencia, la consulta
se hará a través de sistemas de telemedicina.
La autonomía afectará, también, al tratamiento; un acontecimiento que apunta dos
proyecciones. Por un lado, diferentes estudios en la última media docena de años muestran
una tendencia creciente en el uso de terapias no convencionales —medicinas alternativas o
complementarias—; ello, por una población culta con acceso a la medicina ortodoxa. Un hecho
que obliga a reflexionar sobre los sistemas actuales de salud. Por otro lado, se produce una
medicalización progresiva de la salud; la estética corporal y el estilo de vida aparecen como
dianas de la preocupación de los individuos y de los intereses de la industria farmacéutica (¿la
estética como patología?). A parte de la automedicación, ejemplificada por la toma
indiscriminada de antibióticos y su incidencia en la resistencia microbiana a los mismos, y la
anarquía en el seguimiento de los tratamientos prescritos, debe resaltarse el consumo de
fármacos para el estilo de vida (antidepresivos —el Prozac es un fármaco superventa15—,
somníferos —el Orfidal es otro fármaco estrella—, adelgazantes, nootropos o terapia génica
orientada a la calvicie o a las canas) y de alimentos de diseño (funcionales, preventivos,
nutricéuticos, ...). Pero la medicina molecular tiene puestos los ojos en las terapias génica y
celular.
TERAPIA GÉNICA: CONCEPTO SENCILLO, APLICACIÓN COMPLEJA
El término «terapia génica» fue acuñado para distinguirlo de las connotaciones
orwelianas16 de «ingeniería genética humana» que, a su vez, había derivado del término
«ingeniería genética». Ingeniería genética se utilizó por vez primera en el Sexto Congreso
Internacional de Genética, en el año 1932, para referirse a «la aplicación de los principios
genéticos en la cría de animales y de plantas». El concepto terapia génica se ubica, de pleno,
en el contexto de las tradiciones farmacológica y quirúrgica. En principio, terapia génica es un
concepto simple: aplicar los principios de la genética al tratamiento de las enfermedades. Por
___________________________________________________________________________
15.-Edlin M (2008) Niche-buster drugs launch next market evolution. Managed Healthcare Executive,
Sept 1.
16.-George Orwell. Seudónimo de Eric Arthur Blair (1903-1950). Novelista y ensayista ingles. Famoso
por sus novelas “Animales de granja” (1945), y “1984” (1949).
67
su parte, la herramienta ejecutoria contempla la transfección o trasplante génico; ello es,
cirugía molecular.
«El ascenso de la terapia génica puede compararse —comentan Jon A Wolf y Joshua
Lederberg17— al desarrollo de la aeronáutica. De la misma manera que el intento desastroso de Ícaro,
fruto de la fantasía griega, guió la imaginación de Leonardo Da Vinci para diseñar extravagantes máquinas
voladoras, los inicios de la historia de la terapia génica están jalonados por soñadores y profetas del fracaso
y por fiascos. En ambos casos y antes de que las herramientas necesarias estuvieran disponibles, se
intentaron experiencias precoces condenadas al fracaso. Así como el éxito, en 1903, de los hermanos Wright
inició un vertiginoso desarrollo que alumbró los aviones supersónicos y los viajes espaciales, el desarrollo del
ADN recombinante a comienzos de los 1970s hizo realidad los protocolos de terapia génica humana».
Terapia génica no es, por tanto, un concepto nuevo. El principio de la terapia génica es
colocar material génico corrector en las células para aliviar los síntomas de la enfermedad;
también, silenciar genes indeseables. Muchos de los pioneros de la genética moderna fueron
conscientes de que sus descubrimientos pudieran contemplar aplicaciones médicas. Los
hechos básicos de la terapia génica son anteriores al establecimiento de las herramientas que
la han hecho posible. Tatum incluía, ya finalizando su discurso de aceptación del PNFM ’58, las
siguientes palabras18:
«Quizás, algunos de nosotros llegaremos a ver cómo el código de la vida desentraña la estructura
molecular de las proteínas y de los ácidos nucleicos. Ello permitirá la mejora de todos los organismos vivos
mediante un proceso que podemos denominar ingeniería genética. Esto podría acaecer en etapas sucesivas.
Desde la biosíntesis in vitro de enzimas más eficientes a la biosíntesis de las correspondientes moléculas de
ácidos nucleicos, y a la introducción de esas moléculas en el genoma de los organismos ».
Otro de los galardonados aquel año, Joshua Lederberg (FIGURA 3) escribió, en 1963,
en el artículo Futuro Biológico del Hombre19:
«Podemos anticipar el cultivo in vitro de células germinales y manipulaciones como el intercambio de
cromosomas y segmentos. La aplicación última de la biología molecular sería el control directo de secuencias
nucleotídicas en los cromosomas humanos, en relación con el reconocimiento, selección e integración de los
genes deseados».
FIGURA 3.
Joshua
Lederberg
(1925-2008).
Galardono con la mitad del PNFóM 1958 «por su
descubrimiento relacionado con la recombinación y
la reorganización del material genético bacteriano».
___________________________________________________________________________
17.-Wolf JA, Lederberg J (1994) An early history of gene transfer and therapy. Human Gene Therapy 5,
469-80.
18.-Tatum EL (1958) Nobel Lecture: A case history in biological research. Nobel Lectures in Molecular
Biology 1933-1975. New York: Elsevier. Pgs 67-77.
19.-Lederberg J (1963) Biological Future of Man. En: G Wolstenholme (Ed) Man and His Future. London:
Churchill, pg 265.
68
Por su parte, en un simposio que tuvo lugar en la Facultad de Medicina de la
Universidad de Columbia, en Nueva York, con el título Reflexiones sobre la Investigación y el
Futuro de la Medicina, Tatum predijo, en 1966, que los virus podrían utilizarse para transducir
genes20:
«Puede anticiparse que los virus serán utilizados con efectividad para beneficio de la humanidad, en
estudios teóricos sobre genética de las células somáticas y, posiblemente, en terapia genética […] Podemos
mostrarnos optimistas respecto a las posibilidades terapéuticas derivadas del aislamiento o diseño, síntesis e
introducción de nuevos genes en células defectivas de órganos particulares”. Tatum especuló que, como las
bases del cáncer son genes alterados, “el tratamiento podría conseguirse modificando y regulando las
actividades génicas, o reparando reemplazando esos genes”.
Ese mismo año, 1966, Lederberg remachó21:
«[…] La revolución cultural ha iniciado su impacto más crítico sobre la evolución humana, habiendo
generado un poder técnico que incide directamente en la naturaleza biológica. La última década de la
biología molecular nos ha proporcionado una comprensión mecanística de la herencia y una entrada a la
misma. Ello es tan aplicable a la naturaleza humana como lo es a la fisiología microbiana. Algunos temas de
la ingeniería biológica son, ya, un acompañante inevitable del progreso científico y médico de los próximos 20
años […] como el control químico del genotipo (para evitar repetir una frase permítanme hablar de alquimia
genética o algenia […] El requisito sería implantar una secuencia específica de nucleotidos en un
cromosoma.»
También en 1966, Stanfield Rogers publicó un artículo22 -—«Virus del papiloma de
Shope: un pasajero en el hombre y su significado en el control potencial del genoma del
huésped»— donde, a partir de una observación experimental (la inducción de una enzima
específica, arginasa, en células en cultivo previamente carentes de la enzima) y otra clínica
(relación lisina/arginina en sangre de personas expuestas por su trabajo al virus de Shope),
concluyó que las personas en contacto con el virus incorporaban«información viral». A la vista
de ello, continuaba Rogers, el ADN de esos virus podría ser utilizado para suplementar la
información genética de pacientes con varias enfermedades, en particular de aquellas que
resultan de delecciones génicas conocidas como la fenilcetonuria. No sólo sería útil la
información que es parte intrínseca del virus, sino cualquier otra información específica
transducida. Rogers concluía su artículo sugiriendo la posibilidad de utilizar virus como
vectores de información ADN específica.
Ante la avalancha de informaciones de este tipo, la primera declaración ético/social
sobre las implicaciones de la ingeniería genética humana se produjo en 1967. Un editorial23 de
la revista Science, firmada por Marshall W. Nirenberg (FIGURA 4) y titulada ¿Está la sociedad
preparada?, comentaba:
« Está aflorando nueva información en el campo de la genética bioquímica con inusitada rapidez . Hasta
ahora, este conocimiento ha tenido poca repercusión sobre el hombre. Habrá que recabar más información
antes de que sea posible su aplicación práctica. Los problemas técnicos que habrán de superarse son
formidables. Sin embargo, cuando tales obstáculos hayan sido superados ese conocimiento tendrá una gran
influencia sobre el futuro de la humanidad. El hombre podrá incidir sobre su propio destino biológico. Tal
___________________________________________________________________________
20-Tatum EL (1966) Molecular biology, nucleic acids, and the future of medicine. Prespectives in Biology
and Medicine 10, 19-32.
21.-Lederberg J (1966) Experimental genetics and human evolution. American Naturalist 100, 519-31.
22.-Rogers S (1966) Shope papiloma virus: a passenger in man and its significance to the potential
control of the host genome. Nature 212 (Nº 5067), 1220-2.
23.-Nirenberg MW (1967) Will society be prepared? Science 157, 633.
69
FIGURA 4.
Marshall W. Nirenberg (1927-2010).
Compartió, con Robert W. Holley (1922-1993) y Har
Gobind Khorana (n 1922), el PNFóM 1968 «por su
interpretación del código genético y su función en la
síntesis de las proteínas».
poder puede ser utilizado sabia o perversamente en beneficio o en contra de la humanidad.
Salvador Luria ha dicho: “el progreso de la ciencia es tan rápido que crea un conflicto entre el poder que
pone en manos del hombre y las condiciones sociales en que ese poder es ejercido. Ni las precauciones de
los científicos, ni una adecuada información pública, ni la sabiduría ciudadana puede compensar las
insuficiencias del entramado institucional para hacer frente a las nuevas situaciones”.
Aunque el público tiene alguna idea de los recientes desarrollos en genética bioquímica, apenas tiene una
vaga noción de lo que puede acaecer en el futuro; ello a pesar de los esfuerzos de los científicos para
informar a la sociedad de los probables futuros desarrollos.
¿Dónde estamos hoy? Se conoce el lenguaje genético, y parece establecido que la mayoría si no todas las
formas de vida en este planeta utilizan, con mínimas variaciones, el mismo lenguaje. Mensajes genéticos
simples pueden sintetizarse mediante procesamiento químico. La cirugía genética, realizada en
microorganismos, es una realidad. Los genes pueden ser identificados, escindidos y aislados de una cepa
bacteriana e insertarse en otra, con lo que cambiará genéticamente. Tales cambios son hereditarios. Hasta la
fecha no ha sido posible programar células de mamíferos de esta manera.
¿Qué puede esperarse en el futuro? Mensajes genéticos cortos pero con alto contenido informativo serán
sintetizados mediante procesos químicos. Dado que las instrucciones estarán escritas en el lenguaje que las
células pueden comprender, los mensajes se utilizarán para programar células. Las células llevarán a cabo
las instrucciones y los programas se heredarán. Desconozco cuanto tiempo habrá de pasar antes de que
puedan programarse células con mensajes químicamente sintetizados. Ciertamente los obstáculos
experimentales son formidables. Sin embargo, no tengo la menor duda que tales obstáculos serán vencidos.
La única duda es cuando. Creo que las células serán programadas con mensajes sintetizados en los
próximos 25 años. Si los esfuerzos se intensifican, las bacterias podrán ser programadas en no más allá de
cinco años.
El punto que requiere un énfasis especial es que el hombre será capaz de programar sus propias células
con información sintetizada antes de que sea capaz de valorar adecuadamente las consecuencias a largo
plazo de tales manipulaciones, antes de que sea capaz de formular objetivos, y antes de que sea capaz de
resolver los problemas éticos y morales que han de surgir. Cuando el hombre llegue a ser capaz de instruir a
sus propias células, deberá abstenerse de hacerlo hasta que disponga de la sabiduría suficiente para utilizar
este conocimiento en beneficio de la humanidad. Pongo sobre el tapete este problema ante la necesidad de
resolverlo, porque las decisiones que conciernen a la aplicación de este conocimiento deben ser tomadas, en
último caso, por la sociedad, y solo una sociedad informada puede tomar decisiones sabiamente.- Marshall
W. Nirenberg, National Heart Institute (Este Editorial es una adaptación de comentarios realizados en la
aceptación del Research Corporation’s 1966 Award]».
70
En diciembre de 1967, tras el anuncio de la primera síntesis de ADN in vitro, Arthur
Kornberg (FIGURAS 5 y 6) manifestó 24:
«La posibilidad de acoplar un gen al ADN de un virus no patógeno, y utilizar tal virus para vehicular ese gen
a las células de un paciente que sufra un defecto génico hereditario y, con ello, conseguir su curación».
FIGURA 5.-Arthur Kornberg (1918-2007). Compartió con Severo Ochoa (1905-1993) el PNFóM
1959, «por sus descubrimientos de los mecanismos que operan en la síntesis biológica del ácido
ribonucleico y del ácido desoxirribonucleico». Decidido promotor de las bases químicas de la
medicina. Pronunció la Jiménez Díaz Lecture 1983 sobre Genetic chemistry and the future of
medicine. FIGURA 6.-«Un sueño de ingeniería genética: la estrategia de Kornberg para
reemplazar un gen ausente o anormal» (Modificada de F. M. Burnet; pág. 72).
Como remache de todos estos apuntes en terapia génica, W. French Anderson (FIGURA
7) escribió, en 1968, un artículo para The New England Journal of Medicine, una de las revistas
de mayor prestigio médico, en el que postulaba como podría llevarse a cabo, algún día, la
terapia génica. Los editores rechazaron el manuscrito porque«aunque muy erudito y fascinante
[…] demasiado especulativo». Escribía French Anderson 25:
«A efectos de insertar un gen correcto en las células que presenten una mutación –– será primero
necesario aislar el gen deseado de un cromosoma normal: Luego este gen deberá ser duplicado para
proporcionar muchas copias. Y, finalmente, será necesario incorporar la copia correcta en el genoma de la
célula defectiva. .. Uno de los métodos más prometedores para lograrlo será el desarrollo de virus no
patógenos capaces de transferir el material génico desde un genoma a otro».
En 1970, Rogers 26 llevó a cabo el primer experimento de ingeniería genética en
____________________________________________________________________________
24.-Kornberg A (1967) Citado en: Burnet M (1971) , pg 71.
25.-Anderson WF (1968) . Citado en: Culliton BL (1989) French Anderson’s 20-year crusade. Science
246, 748. Anonimous (1968) Kennedy Foundation Symposium on Mental Retardation Report. Pediatrics
News 29, 1.
26.-Rogers S (1970) Reflections on issues posed by recombinant DNA molecule technology. II. En: M
Lappe, RS Morrinson (Eds) Ethical and Scientific Issues Posed by Human Uses of Molecular Genetics.
New York: New York Academy of Sciences 1976, 66-70.
71
humanos al administrar virus de Shope (ver párrafos anteriores) en dos niñas que padecían
argininemia 27. El experimento —virogénica— supuso una conmoción generalizada; retomando
a Nirenberg, la sociedad no estaba preparada. Los más benévolos etiquetaron el experimento
de prematuro 28 o lo colocaron en el borde de lo éticamente admisible 29. Anderson y Lederbeg
apoyaron a Rogers. Lederberg 30 escribió:
«Otro aproche que podría mitigar varias enfermedades es una extensión de la utilización de cepas virales
específicas. En la actualidad su papel en medicina se confina a su uso como vacunas […] Podemos
vislumbrar la ingeniería de otros virus de tal maneta que podrían introducir información genética
compensadora en células somáticas definidas para restaurar funciones que están afectadas en un defecto
genético dado […] ¿O debemos pasar el problema a otra generación?».
Sir Frank Macfarlane Burnet (FIGURA 8), afectado por la discusión planteada, escribió
un libro 31 (Genes Sueños y Realidades) cuestionando del experimento.
«El estímulo para escribir este libro —inicia Burnet su obra— nació de la cantidad de escritos
sensacionalistas acerca del significado para el futuro de la medicina de los descubrimientos en biología
molecular».
En el capítulo nº 4 pasa revista a los diferentes planteamientos de la «nueva biología»;
allí puede leerse:
«¿Veremos la “ingeniería genética” aplicada a la cura de las enfermedades genéticas ...? […] ¿Si pueden
traerse rocas lunares a Houston, por qué no vamos a ser capaces de aplicar la biología molecular, citología y
el resto, para curar lo que es ahora incurable? […] Mi objetivo es indicar cuán lejos de los límites de la
práctica es buscar la reorganización química deliberada de las unidades nucleotídicas en el ADN o en el ARN
para producir un resultado predecible, incluso en los ‘organismos’ con menor importancia práctica».
En el capítulo nº 6, dedicado a la «enfermedad genética, la naturaleza de las diferencias
entre los hombres» Burnet escribe:
«No habrá motivos, en mi opinión, para que un gobierno financie tal investigación, ni para que cualquier
investigador asuma la responsabilidad de dirigirla».
Y ya finalizando la obra:
«Creo que, en 1970, en todas las ciencias mayores el esquema general ha sido competentemente y en
líneas generales completamente delineado. La tarea ahora es rellenar los detalles».
Burnet dejó un legado de duda que fue muy difícil vencer. Sin embargo, cuando Burnet
trabajaba en su libro, Bernard Davis comentaba:
«La genética superará los ataques actuales, igual que sobrevivió a los ataques del Partido Comunista en
Moscú y de los fundamentalistas en Tennessee. Pero mientras, si queremos evitar el peligro de cualquier
atisbo de lisenkoismo debemos defender el valor del conocimiento objetivo y verificable, especialmente
cuando entra en conflicto con dogmas políticos, teológicos o sociológicos».
____________________________________________________________________________
27.-Argininemia. Trastorno metabólico congénito del ciclo de la urea. El déficit de arginasa resulta en
hiperargininemia a hiperamonemia; los pacientes presentan crisis epilépticas y retardo psicofísico.
28.-Friedman T, Roblin R (1972) Gene therapy for human genetic disease? Science 175, 949-55.
29.-Veatch RM (1974) Ethical issues in genetics. Progress in Medical Genetics 10, 223-64.
30.-Lederberg J (1971) Genetic engineering, or the amelioration of genetic defects. Pharos Jan., 9-12.
31.-Burnet FM (1971) Genes, Dreams and Realities. Aylesbury, Bucks: Medical and Technical Publishing
Co Ltd, Chiltern House, Oxford Road.
72
FIGURA 7.
William F. Anderson (n 1937),
«padre» de la terapia génica. Director de los
Laboratorios de terapia génica y profesor de
bioquímica y de pediatría, de la Southern
California School of Medicine. Separado de
sus cargos. FIGURA 8. Frank
Macfarlane
Burnet (1915-1985). Compartió el PNFóM
1960 con Peter Brian Medawar (1915-1987)
«por su descubrimiento de la tolerancia
inmunológica adquirida».
Las reacciones generadas con el experimento hicieron que Rogers abandonara
cualquier contacto con la clínica humana y se dedicara, por completo, a la ingeniería genética
vegetal. Sin embargo, del lado de la tecnología, en 1970, Smith y Nathans identificaron las
enzimas de restricción; en 1971, Berg insertó, con éxito, el genoma de un virus tumoral en un
bacteriofago inaugurando la «era» del ADN recombinante, y en 1972 Stanley N. Cohen y
Herbert W. Boyer desarrollaron la técnica del clonaje que permite la multiplicación en bacterias
de un segmento de ADN extraño. Tales éxitos indujeron reacciones de cautela entre los
propios investigadores, quienes promovieron una serie de reuniones con la finalidad de discutir
los posibles peligros de la nueva tecnología y que popularizaron una pequeña ciudad, Asilomar,
en California. En enero de 1973 hubo una primera reunión que no tuvo cobertura de prensa.
La reunión más importante fue la celebrada en febrero de 1975 y organizada por Berg.
Inmediatamente después se constituyó el Comité Asesor sobre ADN Recombinante,
apareciendo en junio de 1976 la primera directriz oficial de los Institutos de Salud de EE.UU
sobre dicha tecnología 32. Sin embargo, no solo los políticos sino científicos respetados
siguieron expresando sus temores. Ese año, Chargaff escribió 33:
«Tenemos el derecho de contrarrestar, irreversiblemente, la sabiduría evolutiva de millones de años? […]
Soy uno de los suficientemente viejos para recordar que los campos de exterminación en la Alemania nazi
comenzaron como un experimento de genética».
Y Theodore Friedmann, otro de los pioneros, escribía 34 a raíz de una conferencia sobre
Aspectos éticos y científicos derivados de los usos humanos de la genética molecular – El
futuro de la terapia génica: una reevaluación:
«Existe el peligro de llegar a ser atrapado de tal manera por la belleza de la nueva ciencia, que la
obligación primaria de atender la salud del paciente se subordine a la seducción del trabajo científico».
Con todo, a finales de 1978, la Ciencia había logrado vadear las turbulencias; ello, gracias a
dos factores. El primero, la adquisición por los científicos de considerable cantidad de datos
que demostraban la fiabilidad del ADN recombinante y, el segundo, el trabajo de Donald
Fredrickson, el director de los Institutos Nacionales de Salud de EE.UU, que supo conducir la
travesía. Las herramientas de la genética molecular estaban listas para aislar, clonar y
caracterizar genes causantes de enfermedades. El primer protocolo autorizado de aplicación
clínica humana se inició en septiembre de 1990. El reto es desarrollar la terapia génica como
____________________________________________________________________________
32.-Watson JD, Tooze J (1981) The DNA History. A Documentary History of Gene Cloning. San
Francisco: WH Freeman and Co.
33.-Chargaff E (1976) On the dangers of genetic meddling. Science 192, 938-40.
34.-Friedmann T (1971) The future for gene therapy – a re-evaluation. Annals of the New York Academy
of Science 265, 141-52.
73
un sistema terapéutico, eficaz y seguro, de farmagenes. Este objetivo está siendo más difícil de
conseguir de lo que los investigadores habían previsto hace unos pocos años. El organismo ha
invertido muchos miles de años en aprender a protegerse de los peligros ambientales,
incluyendo la incorporación de ADN extraño en su genoma. Sin embargo, entre los agentes
patógenos, los virus han tenido relativo éxito para sortear las barreras de vigilancia y
protección, y ser capaces de insertar su material genético en las células humanas; incluso de
integrarlo en su genoma. Por ello, los esfuerzos iniciales de la terapia génica se han dirigido a
ingenierizar virus que pudieran utilizarse como vectores de transporte de genes terapéuticos a
los pacientes 35.
Theodore Friedmann comentó 36:
«La comunidad involucrada en terapia génica humana se encuentra forcejeando con problemas técnicos y
políticos derivados de recientes acontecimientos adversos surgidos de estudios en clínica humana y que han
tenido una fuerte repercusión en los medios de comunicación. Polémica que ha estado catalizada por la
muerte de Jesse Gelsinger, un paciente de 18 años diagnosticado de una deficiencia enzimática (ornitina
transcarbamilasa) y que falleció, aparentemente, como consecuencia directa del protocolo experimental de
terapia génica a que estaba siendo sometido […] Tales acontecimientos sugieren que la terapia génica no ha
conseguido los estándares de calidad requeridos para su aceptación en investigación clínica humana».
Los principios que constituyen los fundamentos de investigación clínica en terapia
génica deben incluir, en primer lugar, que la experimentación humana implica riesgos; los
estudios genómicos humanos se consideran en fase experimental, precisamente, porque sus
resultados no se conocen de antemano. Ello exige incrementar los niveles de exigencia, control
y seguimiento de los protocolos, y endurecer las normas reguladoras. Por su parte, la
experimentación humana requiere una cuidadosa selección y protección de los pacientes,
siendo el informe consentido la base de la protección al paciente. También, que los resultados
adversos no invalidan la racionalidad de la terapia génica. Por último y en relación con las
características de los procedimientos involucrados en el desarrollo farmacológico de la terapia
génica, que hacen la presencia de empresas farmacéuticas casi obligada, es prioritario zanjar
cualquier conflicto de intereses financieros por parte de los investigadores.
«Hay necesidad de mejorar —concluye Friedmann 36— pero también de celebrar: los avances técnicos
conseguidos en los últimos meses son prueba inminente de que las vidas de los pacientes pueden mejorar
ostensiblemente con terapia génica».
TERAPIA CELULAR Y MEDICINA REGENERATIVA
En noviembre de 1998 apareció el artículo “Líneas celulares troncales embrionarias derivadas
de blastocistos humanos”, firmado por James A Thomson (FIGURA 9) y cols. Los autores
____________________________________________________________________________
35.-Anderson WF (1992) Human gene therapy. Science 256, 808-13. Blaese RM, Culver KW, Miller AD,
Carter CS, Fleischer T, Clerici M, Shearer G, Chang L, Chiang Y, Tolstoshev P, Greenblatt JJ,
Rosenberg SA, Klein H, Berger M, Mullen CA, Ramsey WJ, Muul L, Morgan RA, Anderson WF (1995) T
Lymphocyte-directed gene therapy for ADA SCID: Initial trial results after 4 years. Science 270, 475-80.
Anderson WF (1998) Human gene therapy. Nature 392 (Sppl. 6679) 25-30.
36.-Friedman T (2000) Policy Forum: Medical Ethics. Principles for human gene therapy studies. Science
287, 2163-5.
74
reseñan en el resumen de su trabajo 37:
«Se describen líneas celulares pluripotentes, derivadas de blastocistos humanos, que tienen cariotipos
normales, expresan altos niveles de actividad telomerásica y expresan marcadores de superficie celular
específicos de células troncales embrionarias pero no característicos de otros linajes tempranos. Tras la
proliferación indiferenciada in vitro durante 4 a 5 meses, tales células mantienen el potencial de desarrollo
para formar trofoblasto y derivados de las tres capas germinales embrionarias, incluyendo epitelio digestivo
(endodermo); cartílago, hueso, músculo liso y músculo estriado (mesodermo), y epitelio neural, ganglios
embrionarios y epitelio escamoso estratificado (ectodermo). Tales líneas celulares podrían ser útiles en
biología del desarrollo, en el descubrimiento de fármacos y en trasplante médico».
FIGURA 9.-James A. Thomson (n 1958)
Las células troncales han sido consideradas como células indiferenciadas capaces de
proliferar, autorregenerarse y producir una numerosa progenie de células diferenciadas y
regeneradoras de tejidos. Generalmente se pensó que sólo las células troncales embrionarias
son pluripotentes, dado que durante las fases más precoses del desarrollo tal plasticidad es
crítica. Numerosos datos han demostrado este supuesto y la diferenciación de células troncales
embrionarias en un amplio rango de tipos celulares está bien documentada in vivo e in vitro.
Por el contrario, el punto de vista tradicional respecto a las células troncales en el adulto
restringe su potencial regenerativo y de diferenciación a los tejidos en que residen. Son
ejemplos válidos los hepatocitos que proliferan tras hepatectomía parcial, las células troncales
hematopoyéticas que reconstruyen la población hematocítica tras irradiación letal, las células
satélites musculares que reparar el músculo esquelético dañado o los precursores
queratinocíticos que participan en la cicatrización de las heridas. Además de la capacidad de
reparación del tejido dañado, las células troncales juegan un papel clave en el mantenimiento
de la homeostasis tisular, por ejemplo asegurando las dotaciones celulares sanguínea y
cutánea. Invariablemente, los diagramas de la diferenciación de la progenie de las células
troncales del adulto han sido lineales e irreversibles, mostrando una progresión ordenada a lo
largo de una vía perfectamente definida que concluye en un tipo celular terminal diferenciado.
Sin embargo, este punto de vista del potencial celular troncal del adulto ha sido revisado
recientemente. Se ha demostrado que células derivadas de la médula ósea no solo garantizan
el reemplazamiento de los hematocitos sino que también contribuyen al mantenimiento de la
masa celular del músculo, cerebro, hígado, cerebro y endotelio vascular. Algunos trabajos
señalan un movimiento de tales células troncales en dirección opuesta y sugieren que células
derivadas del músculo o del cerebro pueden dar lugar a células sanguíneas. Células
estromales de la médula ósea, distintas de las células troncales hematopoyéticas, son capaces
de producir una multitud de tipos celulares. Aunque muchas de tales transiciones celulares se
____________________________________________________________________________
37.-Thomson JA, Itskovitz-Eldor J, Shapiro SS, Waknitz MA, Swiergiel JJ, Marshall VS, Jones JM (1998)
Embryonic stem cell lines derived from human blastocysts. Science 282, 1145-7.
75
han observado, principalmente, tras daño tisular, en algunos casos tales transiciones entre
distintos compartimientos titulares se han observado en ausencia de lesión tisular. Se conoce
desde hace décadas que células diferenciadas adultas pueden cambiar su destino. Por
ejemplo, en el adulto se produce transdiferenciación de células del iris productoras de melanina
en células productoras de cristalinas tras la extirpación del cristalino, o cuando células
musculares diferenciadas se fusionan con células maduras procedentes de cualquiera de las
tres láminas germinales embrionarias (hepatocitos endodérmicos, queratinocitos ectodérmicos
o fibroblastos mesodérmicos), la expresión de genes musculares en los núcleos no musculares
ocurre en unos pocos días. Estos experimentos, más el clonaje de anfibios y de mamíferos,
han demostrado que el estado de diferenciación de las células adultas no es fijo e irreversible,
sino que está regulado por un proceso dinámico activo que requiere regulación continua.
Tales observaciones sugieren que la biología de las células troncales puede ser más
compleja de lo hasta hace poco tiempo aceptado. El descubrimiento de que células troncales
en el adulto, inicialmente residentes en un determinado tejido pueden contribuir a la integridad
de otro en un momento dado, sugiere un grado de plasticidad en la función de las células
troncales en el adulto hasta ahora desconocido. Ello indica que cambios en el destino celular
son una propiedad natural de las células troncales en el adulto; propiedad que puede estar
involucrada en la homeostasis celular fisiológica y en la reparación del daño tisular, a lo largo
de la vida de un individuo. Aunque la frecuencia de tales acontecimientos es baja, recientes e
insospechados hallazgos sugieren que las células troncales en el adulto están en un estado de
flujo y que el concepto de células troncales tejido-específicas está obsoleto. De acuerdo con
ello, las células troncales en el adulto no sólo actúan localmente, en los tejidos en que residen,
sino que pueden ser movilizadas y reclutadas en la circulación para ocuparse en la
regeneración de diversos tejidos en sitios distantes. Incluso tipos celulares marcadamente
especializados pueden reprogramarse, revirtiendo su estado diferenciado, y contribuir al pul de
células troncales circulantes, como han demostrado estudios recientes con células musculares
y con neuronas. De acuerdo con este nuevo punto de vista, al menos algunas células troncales
del adulto tienen una gran plasticidad y son capaces de rediferenciarse en microambientes
apropiados. Factores de orientación (homing) atraen a las células troncales circulantes y, una
vez reclutadas en el sitio de interés, factores de crecimiento dirigen su reprogramación o
rediferenciación. Lo mismo es válido para células pluripotentes exógenas introducidas —vía
endovenosa o in situ— para tratar una lesión tisular. Por otro lado, la capacidad de actuar
como célula troncal puede ser una función celular compartida por numerosos tipos celulares;
de la misma manera que la práctica totalidad de las células de un organismo pueden activar un
programa apoptótico en respuesta a determinados tipos de agresión, diversas células del
organismo podrían ser capaces de de actuar como células troncales ante determinadas
señales. Por tanto, una célula troncal no es, necesariamente, una entidad celular particular sino
una función que puede ser asumida por diversos tipos celulares.
La investigación con células troncales adultas humanas sugiere que las células
multipotentes tienen un gran potencial de utilización en investigación y en el desarrollo de
terapias celulares. Por ejemplo, sería de gran utilidad el empleo de células troncales adultas en
trasplante. Si pudieran aislarse células troncales adultas de un paciente, inducir su división y
dirigir su especialización y, luego, retrasplantarlas al paciente, es indudable que tales células
pasarían desapercibidas al sistema de vigilancia inmunológico siendo aceptadas. Ello evitaría
la necesidad de acudir a blastocistos humanos como fuente de células troncales evitando la
polémica ético-legal existente. Sin embargo existen limitaciones a dicha estrategia. En primer
lugar, no todos los tejidos adultos parece que poseen células troncales disponibles; en segundo
lugar, las células troncales adultas son difíciles de aislar y purificar y existen en cantidades
mínimas; una cantidad que disminuye con la edad. Por ejemplo, células cerebrales capaces de
actuar como células troncales neurales sólo han podido ser obtenidas a partir de
76
procedimientos neuroquirúrgicos en pacientes epilépticos, lo que no es un procedimiento trivial.
Cualquier intento para usar células troncales del propio cuerpo de un paciente requiere que
tales células puedan ser, primero, obtenidas y, luego, cultivarlas en cantidad suficiente para
utilizarlas terapéuticamente. En algunas situaciones agudas puede ser que no haya tiempo
sufriente para completar el «proceso de fabricación». En otros casos, como los debidos a un
defecto genético, puede ser que el mismo defecto que se pretende combatir afecte a las
propias células troncales; en tal caso las células troncales del paciente no serán apropiadas
para el trasplante; en este caso, la combinación de terapia génica puede obviar el problema.
También, las células troncales adultas pueden albergar errores del ADN propios de las células
adultas. Además, no está claro que las células troncales de los adultos sean pluripotentes en el
sentido que lo son los blastómeros. Todo ello son puntos débiles, hoy —seguro que resueltos
mañana—, en la utilidad potencial de la terapia con células troncales adultas.
En resumen, el propósito de la terapia celular es canalizar, in vivo, células humanas
multipotentes con alta capacidad proliferativa en programas de diferenciación específicos; un
objetivo que se considera factible dentro de los próximos cinco años. Un logro más ambicioso
es la construcción de órganos, quizás un riñón o un ojo o, incluso, una parte del cerebro; esto
representa un reto mucho mayor que la “mera” generación de tipos celulares especializados.
Bastante más tiempo habrá de pasar para que la «medicina regenerativa» 38 alcance su
madurez; por ahora sólo ha sido posible ingenierizar un sucedáneo dermo-epidérmico útil en el
tratamiento de quemaduras y de úlceras de distinto tipo. Es posible especular que la
reprogramación de una célula troncal queratinocítica en cualquier otra célula troncal somática
pueda, en un futuro más o menos próximo, tratar una enfermedad específica a partir de una
simple biopsia de piel del paciente. Por otro lado, la coincidencia de las terapias génica y
celular hará, en último término, inagotable tal estrategia. Más cerca se antoja la combinación de
la ingeniería celular con andamiajes o matrices de biopolímeros a efectos de conseguir órganos
bioartificiales (ingeniería de tejidos), y de los que una vejiga urinaria ingenierizada es el primer
paso.
OTRA CLASE DE MEDICINA Y OTRA CLASE DE «MÉDICOS»
Genómica, proteómica, celulómica e iconomedicina están dando al traste con la práctica
médica tal como, hoy, la conocemos. Sirva de ejemplo el empuje imparable de la imagen.
Radiología, cardiología, cardiocirugía o farmagénica —un catéter guía hace posible inyectar in
situ un farmagen cuyo producto impide la reestenosis tras una angioplastia coronaria— dejan
de existir como entidades definidas; las fronteras son, cada vez, más borrosas. Emerge una
nueva iconomedicina, intervencionista o no, que exige una nueva y diferente formación de los
profesionales venideros que vayan a encarar ese futuro inmediato. Las disciplinas académicas,
las áreas de conocimiento tradicionales, las que hoy existen, son obsoletas y solo sirven para
encorsetar ese futuro sin más fronteras que la imaginación. Un futuro que exige cambios en
cadena, y en el que no son válidas las actuales estructuras; ni universitarias ni hospitalarias. El
debate está abierto.
Todo ello obliga, entre otras y fundamentalmente, a replantearse la formación de los
futuros profesionales. Un artículo en The New York Times (7 abril, 1993) describe la situación:
«El conocimiento médico actual es veinte veces superior al de hace veinte años, pero los métodos
docentes no han variado».
____________________________________________________________________________
38.-Committee on the Biological and Biomedical Applications of Stem Cell Research. Stem Cells and the
Future of Regenerative Medicine. Washington DC: National Academy Press.
77
Las especialidades médicas y la estructura del sistema asistencial han quedado
obsoletas. Ante, por ejemplo, el caso concreto de la patología coronaria, antes sugerido, ¿qué
sentido tiene la fragmentación médica entre cirugía mínimamente invasiva, radiología
intervensionista o cardiología invasiva? Es necesario el replanteamiento de las especialidades
médicas que, a la vista del ejemplo propuesto, carecen, en la actualidad, de sentido. En el
prólogo a The Johns Hopkins University School of Medicine Curriculum for the Twenty-first
Century 39, Michael M.E. Johns escribe:
«Cuando encargué la confección de un curriculum para el sXXI, sugerí que nuestra base filosófica,
conceptual, de la educación y formación médica debería encauzarse no a formar un neurocirujano, un
médico de familia, un cardiólogo o un pediatra general, sino a crear una “célula troncal” médica
indiferenciada, lo suficientemente capaz, totipotente, para iniciar cualquier camino una vez concluida su
graduación. El nuevo curriculum ha de preparar médicos para las demandas y responsabilidades de una
nueva era médica; era de ciencia y de artes médicas».
EL ERROR MÉDICO Y LO INÚTIL EN MEDICINA
El error médico no es solo un fallo personal y profesional sino una aberración
tecnocientífica 40. Fracaso y aberración no son las condiciones más favorables para el
reconocimiento y el análisis, por lo que los errores médicos son ocultados con más frecuencia,
que examinados abiertamente. Aunque publicaciones recientes sugieren que la frecuencia de
los despistes diagnósticos importantes disminuye, siguen siendo protagonistas importantes.
Una serie de estudios encuentran situaciones conflictivas entre el 2.9% y el 3.7% de las
admisiones hospitalarias. El 6.6% de tales errores causa la muerte de los pacientes. Cuando el
Instituto de Medicina de la Academia Nacional de Ciencias de los EE.UU. extrapoló dichos
datos a los 33.6 millones de admisiones hospitalarias anuales, estimó entre 44 000 y 98 000
las muertes anuales debidas a los errores médicos. De acuerdo con este informe, mueren
anualmente más ciudadanos norteamericanos como consecuencia de errores médicos que a
causa de accidentes de tráfico (43 458), de cáncer de mama (42 297) o de sida (16 516).
El proceso diagnóstico de una situación de enfermedad en un paciente es el resultado
de una interacción compleja entre habilidades cognitivas – conocimiento experto del médico – y
procedimientos técnicos, que tiene lugar en condiciones de incertidumbre. Los procedimientos
diagnósticos han mejorado, no cabe duda, en los últimos cincuenta años. Sin embargo, no hay
datos disponibles que demuestren una disminución en los errores diagnósticos en pacientes
no seleccionados; ello teniendo la necropsia como el estándar de oro para el diagnóstico. El
estudio postmorten es el único medio para evaluar el rendimiento diagnóstico clínico, pues los
clínicos solo diagnostican, en términos generales, aquellas enfermedades que han estado
buscando. Dos estudios —«El valor de la autopsia en tres eras médicas» 41 publicado en el año
1983 y «Diagnósticos erróneos en un hospital universitario en cuatro eras médicas» 42
publicado en el año 1996— que comparan los diagnósticos clínicos con los hallazgos
necrópsicos, no encuentran mejora significativa en el rendimiento diagnóstico en pacientes no
seleccionados con el paso del tiempo; esto es, los impresionantes recursos atesorados por el
____________________________________________________________________________
39.-De Angelis, CD (1999) The Johns Hopkins University School of Medicine Curriculum for the Twentyfirst Century. The Johns Hopkins University Press, Baltimore.
40.-Editorial. When primun non nocere fails. Lancet 355: 2007, 2000.
41.-Goldman R, Sayson R, Robbins S, Cohn LH, Bettmann M, Weisberg M (1983) The value of the
autopsy in three medical eras. The New England Journal of Medicine 308, 1000-5.
42.-Kirch W, Schafii C (1996) Misdiagnosis at a university hospital in 4 medical eras. Medicine 75, 29-40.
78
armamento diagnóstico no han tenido una traducción práctica paralela. En las diferentes
épocas —porque las herramientas diagnósticas fueron cada vez más sofisticadas— el 10% de
las autopsias revelaron un diagnóstico importante que, de haberse conocido, hubiera
modificado el tratamiento y prolongado la vida del paciente; y otro 12% mostró un diagnóstico
clínicamente importante pero que no hubiera modificado el tratamiento. Con todo, la soberbia
tecnológica redujo considerablemente la realización de autopsias; en términos generales, el
índice de autopsias en los hospitales académicos fue del 80% en los 1960s frente al 40% en
los 80s. Hoy dia no llega al 25%.
El optimismo se mantiene gracias a un tercer estudio —«Errores diagnósticos en tres
eras médicas: un estudio necrópsico» 43— que analiza retrospectivamente los informes clínico y
autópsico de pacientes adultos elegidos al azar que fueron admitidos en un hospital
universitario y que fallecieron el hospital o tras ser dados de alta en los años 1972, 1982 y
1992. La frecuencia de errores diagnósticos se redujo de manera significativa entre 1972 y
1992; mejora debida, principalmente, a la disminución de los errores en el diagnóstico de las
enfermedades cardiovasculares, pues los errores diagnósticos en las tres principales
categorías
diagnósticas —cardiovasculares, infecciones y cáncer— no muestran un
comportamiento uniforme. Sobre la base de que la precisión diagnóstica depende de la
sensibilidad y de la especificidad del proceso diagnóstico, solo las enfermedades
cardiovasculares se beneficiaron de una mejor especificidad y sensibilidad diagnósticas. Las
enfermedades infecciosas se beneficiaron de una mejor sensibilidad diagnóstica; mientras que
no hubo mejoras sustanciales en la especificidad ni en la sensibilidad para las enfermedades
neoplásicas, que eran más que aceptables en los 1970s.
La necropsia tiene el doble valor de detectar errores diagnósticos y de aportar
conocimiento aplicable a futuros casos; ello incide en el aprendizaje y añade información a la
epidemiología local de las enfermedades y al control de calidad de las exploraciones (imagen
médica, análisis químico clínico, etc.). La confirmación del diagnóstico clínico mediante la
autopsia refuerza el conocimiento clínico porque elimina la incertidumbre diagnóstica la
mayoría de las ocasiones. Otro dato a destacar es que la introducción de nuevas tecnologías
no desplaza las de la anterior generación, de tal manera que la metodología diagnóstica es
acumulativa y, aún así, no reduce el valor de la autopsia. En cualquier caso los errores son
inevitables, con lo que se imponen estrategias para mejorar la eficacia del diagnóstico médico.
La aceptación de la falibilidad y la detección de los errores es un prerrequisito para tales
estrategias.
Ante ello, la administración Clinton ordenó a las agencias federales iniciar un plan para
reducir en cinco años a la mitad los errores médicos. Tal apoyo institucional al control de
calidad del sistema sanitario es un buen síntoma. Pero a la postre, la mejora pretendida solo
ocurrirá cuando los profesionales crean y confíen en el sistema, y ello no es tarea fácil. Por
ejemplo, la Asociación Médica Americana (AMA) se opuso a la recomendación del informe del
Instituto de Medicina para que los errores médicos fueran abiertamente declarados. Si la
postura de la AMA es una buena política pública es tema de debate. Para mejor o peor, será
difícil asegurar que los errores médicos sean declarados si los médicos temen que tal
información puede empañar su reputación profesional. Ningún sistema puede erradicar
completamente los errores, pero un buen sistema puede desterrar el temor a declararlos, y ese
es el primer paso.
Pero el problema es que la estrategia sanitaria elegida es tecnológica más que social; y
cómo la sociedad percibe la fiabilidad de la técnica es muy diferente a cómo percibe la
____________________________________________________________________________
43.-Sonderegger-Iseli K, Burger S, Muntwyler J (2000) Diagnostic errors in three medical eras: a
necropsy study. Lancet 355, 2027-31.
79
fiabilidad humana. La sociedad, fascinada por la tecnología, rechaza el riesgo. Pero la
tecnología no está exenta de riesgo. ¿Podrá el contexto médico conseguir que la sociedad
adopte una postura más realista ante el riesgo? Mientras tanto, la actitud social obliga a una
práctica médica defensiva, que diluye el axioma de que el coste de una tecnología dada
disminuye y su eficacia incrementa con el tiempo. Sirva de ejemplo el que los médicos de una
sofisticada e hipertecnológica unidad de cuidados intensivos utilizan para tomar decisiones,
únicamente, un 25% a un 40% de la información que solicitan y les proporcionan los
laboratorios y las tecnologías de imagen médica. Al igual que se ha impuesto el
correspondiente informe sobre impacto ambiental debería recabarse el impacto social de las
nuevas tecnologías, que se obsoletizan en el mismo momento de su puesta en escena.
Por su parte, cuando en 1995 Richard Wurtman, del Instituto Tecnológico de
Massachussets, revisó 44 los últimos cincuenta años de innovación farmacológica observó que:
«El éxito no nos acompañó durante las últimas tres décadas. Pocos tratamientos efectivos se han
descubierto para las enfermedades que más contribuyen a la morbilidad y a la mortalidad actuales»
Ante la frustración por el fracaso de encontrar curas para las enfermedades prevalentes
más graves como el cáncer o la demencia, la industria farmacéutica se ha reorientado, en
parte, hacia mercados más favorables para sus productos. Ello explica el auge de los
compuestos denominados lifestyle drugs cuyo cometido es restaurar aquellas facultades o
atributos sociales que tienden a eclipsarse con la edad: la calvicie, la impotencia, el sobrepeso,
la depresión o el insomnio (TABLA II).
El debate —que está en mantillas— sobre lo inútil en medicina 45 puede conducir a una
refrescante revisión de la relación médico-paciente y restaurar el sentido común y la realidad
en la percepción que la sociedad tiene de los poderes de la medicina. La medicina tiene
grandes poderes, pero limitados; y la profesión médica tiene importantes obligaciones, también
limitadas. Inutilidad médica significa que un tratamiento no ofrece beneficio terapéutico alguno
a un paciente. En otras palabras, los pacientes aceptan con dificultad su humanidad y, por
tanto, los enfermos se resisten a morir. Por su parte, los médicos aceptan a regañadientes los
límites de su poder; la muerte representa el fracaso médico. Esta situación es consecuencia del
impacto de la tecnología que condiciona el modo de pensar la medicina. Este imperativo
tecnológico es el término utilizado las más de las veces para describir esta nueva manera de
pensar —si es que puede considerarse «pensar» la palabra correcta—: si existe un medio,
instrumento o fármaco, que produzca un efecto, tal medio debe utilizarse. Tal actitud
condiciona que la tecnología sea el foco de atención en vez del paciente. La definición de
inutilidad médica debe ser un consenso social, no técnico, que incorpore elecciones éticas; es
inútil toda actitud médica que no incluye el principio de beneficio para el paciente.
DE QUÉ ENFERMAMOS Y DE QUÉ MORIMOS
Información fiable sobre la naturaleza y extensión de las causas de las enfermedades y
de cómo cambian tales patrones es de importancia esencial para la salud pública; de ella
dependen los planes sanitarios regionales. Sin embargo, a las puertas del siglo XXI no se
dispone de estadísticas de mortalidad de grandes poblaciones en determinadas partes del
planeta. Y los datos sobre la incidencia y la prevalencia de las principales patologías son aún
más difíciles de encontrar. A pesar de ello, existen varias fuentes de información sobre la salud
____________________________________________________________________________
44.-Wurtman RJ, Bettiker RL (1995) The slowing of treatment discovery. Nature Medicine 1, 1122-5.
45.-Schneiderman LJ, Jecker NS (1995) Wrong Medicine. Doctors, Patients, and Futile Treatment.
Baltimore: The Johns Hopkins University Press.
80
poblacional a lo ancho del mundo y que varían desde registros completos a proyectos a
pequeñas escala sobre enfermedades específicas como la malaria. El reto para la salud
pública es tejer datos dispares sobre situaciones dispares en poblaciones dispares para
conseguir una valoración global de las condiciones de salud y de enfermedad que guíen la
política de salud en el próximo siglo.
Del amplio espectro de modelos de predicción utilizados, el más aceptado es el de la
Agencia Internacional de la Energía (AIE) de la Organización para la Cooperación y el
Desarrollo Económico. Así como otros modelos utilizan diversas hipótesis de desarrollo, el de
la AIE considera que no habrá grandes cambios con relación al clima socioeconómico en el
que ahora vivimos y por lo que se refiere a su modelo como de Business As Usual (BAU), algo
así como «la vida sigue igual».
Con este modelo de partida, el Global Burden of Disease Study (GBD) 46, iniciado en el
año 1992, es un trabajo de colaboración entre la Escuela de Salud Pública de Harvard, la
Organización Mundial de la Salud y el Banco Mundial; los primeros resultados se dieron a
conocer en el año 1996. El Estudio contempla, junto a la detección de las causas más
frecuentes de muerte, dos acciones específicas: 1) asegurar que las estimaciones y las
proyecciones se basen en métodos epidemiológicos y demográficos objetivos, y 2) incorporar
sistemáticamente información sobre situaciones con desenlace no fatal en la valoración del
estatus de salud; ello utilizando una medida de tiempo de los años de vida saludable perdidos
por mortalidad prematura o vividos con una enfermedad discapacitante y para lo que se ha
elegido la métrica denominada DALYs (Disability-Adjusted Life Years) (TABLA III).
____________________________________________________________________________
46.-Murray CJL, Lopez AD (Eds) (1996) Global Burden of Disease and Injuries Series. Volume I: The
Global Burden of Disease. A comprehensive assessment of mortality and disability from diseases,
injuries, and risk factors in 1990 and projected to 2020. Harvard School of Public Health, World Health
Organization, and The World Bank. Murray CJL, Lopez AD (1996) Evidence-based health policy –
Lessons from the Global Burden of Disease Study. Science 274, 740-3. Lopez AD, Murray CCJL (1998)
The global burden of disease, 1990-2020. Nature Medicine 4, 1241-3. Mc Michael AJ, Beaglehole R
(2000) The changing global context of public health. Lancet 356, 495-9.
81
El 75% de las muertes anuales totales se produce en el tercer mundo. Cerca de la
tercera parte de las muertes en el mundo se deben a enfermedades transmisibles o por causas
maternales, perinatales o nutricionales —las que se denominan causas del grupo I—;
virtualmente todas ellas se producen en los países en desarrollo. La reducción de la mortalidad
prematura por tales causas, asociadas a pobreza, debería ser una prioridad para las políticas
de salud pública; en particular porque la mayor parte de las muertes del grupo I ocurren en
recién nacidos y en jóvenes. Por su parte, las enfermedades no transmisibles (grupo II)
también se ceban en los países no industrializados. La transición epidemiológica varía de
región en región, siendo más pronunciada en China y en Latinoamérica que en la India y en la
región del África subsahariana. Casi todas las muertes (86%) en los países desarrollados se
deben a enfermedades del grupo II, aunque la contribución de la violencia es significativa (78%), pero no tanto como en el tercer mundo (10-11%).
La cardiopatía isquémica es la causa principal de muerte en los países desarrollados;
luego los accidentes cerebrovasculares y el cáncer de pulmón. Sólo una causa del grupo I – las
infecciones del tracto respiratorio distal – se mantiene entre las diez causas principales de
muerte en esos países y que, por su parte, ocasiona el 10% de las muertes en las regiones en
desarrollo. Son las causas del grupo I las que dominan las estadísticas de mortalidad del tercer
82
mundo siendo las enfermedades diarreicas, las enfermedades perinatales, la tuberculosis, el
sarampión y la malaria las protagonistas. Enfermedades infecciosas que la epidemiología se
encarga de distinguir en emergentes y reemergentes. Sin embargo y sorprendentemente, la
cardiopatía isquémica y la enfermedad cerebrovascular están entre las diez primeras causas
de muerte —la segunda y la tercera— en los países en vías de desarrollo. Los accidentes de
tráfico aparecen en ambas sociedades.
Una de las características más interesantes del Estudio GBD es que enfoca su atención
sobre aquellas condiciones que representan las causas más importantes de discapacidad.
Causas que, en términos generales, son muy diferentes a las que provocan la muerte y que,
además, no se las ha prestado gran atención en los debates referentes a las prioridades
sanitarias en el futuro. El peso de los trastornos mentales es obvio; las enfermedades
neuropsiquiátricas ocupan cinco de las diez principales causas de discapacidad, donde el
consumo de alcohol es un factor líder.
Atravesamos lo que puede considerarse, históricamente, una de las transiciones más
importantes en salud pública (TABLA IV). Durante la segunda mitad del siglo que abandonamos
se ha producido una espectacular ganancia en la expectativa de vida; la tasa de fertilidad ha
declinado; las principales causas de muerte y de enfermedad se han transformado; las
enfermedades infecciosas han recobrado un protagonismo que había sido relegado, y las
desigualdades entre los países pobres y ricos se mantienen. En la actualidad, las expectativas
para el ámbito futuro de salud dependen —aun con la lógica incertidumbre— del proceso de
globalización y de la aparición de cambios medioambientales globales en respuesta la cada
vez mayor incidencia de la actividad económica. Nos encontramos en un momento crucial de
transición y no de mero cambio de milenio.
83
Las mejoras en el ámbito de la salud de las poblaciones Occidentales, que han tenido
lugar durante los últimos doscientos años, son el resultado de cambios profundos sociales,
dietéticos y ambientales; modificaciones que han ido parejas con mejoras sanitarias. En los
países menos desarrollados, la mejora ha sido más reciente, coincidiendo con un incremento
del índice de alfabetización, mejor nutrición y mayor control de vectores; ello, de la mano de la
transferencia de conocimiento sanitario, campañas de vacunación y tratamiento de las
infecciones. Todo ello encaja en un punto de vista ecológico más que en uno científico de la
salud; una actitud que, respetando los logros científico-técnicos, reconoce la importancia de los
factores naturales y socio-ambientales tanto en el primer como en el tercer mundo.
De acuerdo con ello, salud pública es el arte y la ciencia de prevenir la enfermedad,
promover la salud y prolongar la vida mediante esfuerzos organizados de la sociedad. Existe
hoy un reconocimiento creciente de la importancia de dos aspectos principales en este
esfuerzo. Primero, que las desigualdades sociales y materiales en una sociedad generan
desigualdades en la salud de sus componentes. Y segundo, que cambios a largo plazo en la
estructura y condiciones de los ambientes social y natural afectarán la estabilidad de la salud
de las poblaciones. En este último caso, los cambios medioambientales globales inducidos por
la actividad humana —en especial el cambio climático global, la depleción de los recursos
hídricos, la pérdida de biodiversidad y la degradación de los ecosistemas gestionados por el
hombre, principalmente las tierras de labranza— amenazan la capacidad productiva de la
biosfera.
Este panorama obliga acompasar el desarrollo científico-técnico con dos fenómenos a
gran escala: la reducción de las desigualdades socio-sanitarias y el esfuerzo para mantener
ecosistemas saludables. En las sociedades agrícolas tradicionales, autolimitadas, con
tecnologías de bajo impacto y comercio regional, los determinantes sociales y ambientales de
la salud son predominantemente locales. Sin embargo, la industrialización y la modernización
del siglo que abandonamos ha alterado la escala de contacto, la influencia e intercambio entre
las diferentes sociedades, las relaciones económicas jerárquicamente institucionalizadas y ha
exacerbado la brecha entre los mundos rico y pobre y ha incrementado el impacto ambiental.
Un paso importante hacia esa perspectiva global, socio-científico-técnica, ha sido la
reciente afirmación de que la salud de una población refleja algo más que la simple agregación
de los factores de riesgo y la salud de cada uno de sus miembros. Es, también, una
característica colectiva que refleja la historia social y las circunstancias culturales, materiales y
ecológicas de la población en cuestión. El esfuerzo en salud pública es una empresa que
engloba acciones políticas, sociales, ambientales y de gestión; no es responsabilidad
exclusivamente médica. Es más, la medicina es una parte del esfuerzo global que promueve y
protege la salud y que reduce el impacto de la enfermedad, en una comunidad.
Los principales componentes del cambio medioambiental global son el cambio climático,
la depleción de ozono estratosférico, la pérdida de biodiversidad y la degradación de los
ecosistemas agropecuarios; cada uno de ellos con incidencia sanitaria definida. El cambio
climático se expresa en un calentamiento y en la agudización de los desastres atmosféricos
que, junto a las victimas directas, desestabilizan los complejos sistemas ecológicos que
determinan la geografía de las infecciones transmitidas por vectores (malaria, dengue,
leismaniasis) y cuyos frentes avanzan paulatina e ininterrumpidamente hacia cotas más
elevadas. Cambio climático que también incide en la gama, estacionalidad e incidencia de
diferentes infecciones alimentarias y trasmitidas por el agua; en las «pestes» que asolan
cosechas y ganado, en la salinización de las costas y de los recursos hídricos del subsuelo, en
producción de contaminantes fotoquímicos aéreos y en la diseminación de pólenes y esporas.
La mezcla de cambios socioeconómicos, demográficos y medioambientales en el
mundo de hoy requiere un amplio debate sobre los determinantes que condicionan la salud de
las poblaciones. Un capital social deficitario (entramado social e instituciones cívicas) afecta de
84
manera desfavorable a las expectativas de salud; ello por facilitar las diferencias entre pobreza
y riqueza, la degradación urbana, el tráfico de drogas y debilitar los sistemas de salud pública.
La pérdida a gran escala del capital medioambiental natural —representada en cambio
climático, depleción del ozono estratosférico, degradación de los sistemas agrícolas,
agotamiento de las reservas hídricas, pérdida de biodiversidad y diseminación de especies
invasivas— comienza a debilitar la capacidad a largo plazo de la biosfera para mantener una
vida humana saludable.
La epidemiología transita desde una ciencia identificadora de factores de riesgo de
enfermedades a otra que analice los sistemas que generan patrones de enfermedad. Las
ciencias de la salud necesitan imbricarse en este sistema orientado al estudio de influencias a
gran escala sobre la salud. Debemos ser conscientes de la necesidad de esa integración de
ideas basadas en sistema y de ideas ecológicas con otros dominios científicos, incluyendo la
física, las neurociencias o la biología del desarrollo. No debe olvidarse que muchos de los
problemas de salud pública actuales tienen sus raíces en las mismas desigualdades
socioeconómicas y actitudes consumistas imprudentes que amenazan la sostenibilidad futura
del bienestar social.
HACIA UNA SOCIEDAD ENVEJECIDA
En las últimas décadas se ha asistido a un aumento progresivo de la duración media de
vida que en España ha pasado de los 44 años a comienzos de nuestro siglo a más de 70 años
en la década de los 70s, superando en la actualidad los 76 años. Mientras que en 1901 menos
del 8 % de la población española presentaba una edad igual o superior a los 65 años, hoy
viven en nuestro país más de seis millones de personas de más de 65 años y esta cifra
aumentará en el año 2010 hasta alcanzar los 9.4 millones; de ellos, 7.2 millones (18 %) estarán
comprendidos entre los 65 y los 75 años, y 3.6 millones (9.1 %) más de 75 años. En los EE.UU.
la población de más de 85 años ha aumentado desde 2.5 millones en 1982 hasta 4.6 millones
en 1989, con una proyección de 7.2 millones para el año 2012 (TABLA V).
85
En 1990, algunos autores demostraron, empíricamente, que según incrementa la
expectativa de vida al nacer, tal índice se va haciendo menos sensible a posibles cambios en la
tasa de mortalidad. Este fenómeno se denominó entropía de las tablas de vida. A partir de
principios demográficos se concluyó que es muy difícil que la expectativa de vida al nacer
supere los 85 años; ello, al menos que los científicos descubran cómo modificar el proceso de
envejecer en un porcentaje sustancial de la población. Para superar una expectativa de vida
más allá de los 100 años, habría que suprimir toda mortalidad por debajo de los 85 años. Dado
que ello es completamente irreal, los estudios más sensatos hacen sus previsiones para
expectativas no superiores a los cien años.
La expectativa de vida al nacer ha mostrado un crecimiento mantenido en las
poblaciones con baja mortalidad perinatal; ello, desde el año 1985 al 1995. Para superar los 85
años de expectativa de vida se requieren, sin embargo, drásticas reducciones de las tasas de
mortalidad total en mujeres y en hombres; por ejemplo, las tasas de mortalidad de 1995
deberían reducirse en más del 50% en todos los grupos de edad a efectos de alcanzar los 85
años en EE.UU (expectativas de vida en 1995: 79.0 años mujeres, 72.4 años, hombres).
Incluso entre el grupo más longevo (mujeres japonesas), las tasas de mortalidad en cada grupo
de edad deberían reducirse el 20% para conseguir un incremento de 2 años en los 83 actuales.
De acuerdo con los cálculos referidos, se requiere una reducción del 85% en las tasas
actuales de mortalidad para que las japonesas alcancen los 100 años de expectativa de vida.
Para ilustrar el fenómeno de entropía citado, puede considerarse que cuando la expectativa de
vida al nacimiento es de 50 años, se estima un 4.1% de reducción en la tasa global de
mortalidad para aumentar 1 año la expectativa de vida; un escenario similar al experimentado
por las mujeres francesas a principios del siglo XX. Por el contrario, para incrementar la
expectativa de vida desde 80 años a 81 años se requiere una reducción del 9.1% en la tasa
global de mortalidad. Alcanzar una expectativa de vida de 100 años o más a través,
exclusivamente, de cambios en los estilos de vida es hoy tan ilusorio como hace 50 años. En
resumen, desde 1900 la población geriátrica de los países industrializados se ha sextuplicado
y, según uno de los últimos informes del Banco Mundial, se espera que para el año 2020 las
expectativas alcanzarán los 78 años para el hombre y los 88 para la mujer (TABLA VI).
86
Este aumento de la expectativa de vida observada en los países industrializados es, en
parte, la consecuencia lógica del desarrollo de la medicina académica, científica, basada en
evidencias concluyentes obtenidas en ensayos clínicos controlados y de los avances de la
terapéutica. El aumento de la expectativa de vida lleva cada vez a un número mayor de
individuos a alcanzar la vejez en la que podrían distinguirse dos etapas. Una es la de la vejez
sana y equilibrada, caracterizada por cambios dérmicos, un deterioro evidente de los sentidos
de la vista y del oído y una disminución del rendimiento muscular y psicológico sin que se
constate enfermedad alguna. Esta fase va seguida de otra de senilidad o senectud en la que
disminuye la capacidad del individuo para adaptarse a los cambios ambientales, para
responder a situaciones de estrés y para mantener la homeostasis, lo que se traduce en un
incremento en la incidencia de enfermedades cardiovasculares (arteriosclerosis), cerebrales
(enfermedades neurodegenerativas como el Alzheimer), endocrinológicas (diabetes),
osteoarticulares (artrosis), diversos tipos de cáncer, etc, que suponen una atención médica
constante. Consecuencia de ello, solo el 42 % de las personas mayores de 70 años disfruta de
buena salud, frente al 68.5 % de la población general; y el problema es que el número de
individuos discapacitados aumenta de forma progresiva. No es pues de extrañar que el
envejecimiento poblacional se haya convertido en la mayor preocupación de los sistemas
sanitarios de los países desarrollados.
¿Qué beneficio tendría prolongar las expectativas de vida si se prolongan las miserias
de la vejez? El mito griego de Aurora y de su amante mortal Titonio, y la experiencia vivida por
Gulliver con los struldbruggs en el país de Luggnagg, recuerdan los peligros de prolongar la
vida e ilustran uno de los mayores problemas que conlleva el envejecimiento: la pérdida de las
facultades que hacen a la vida no merecedora de vivirla. En su República, Platón pone en boca
de Sócrates esta forma de pensar al escribir:
«Cuando la vida avanza y el intelecto madura la agilidad del alma se enriquece; pero cuando la fuerza del
ciudadano decae y no es capaz de participar en los actos cívicos y militares, permítaseles que vivan aquí
felizmente y que puedan coronar esta felicidad con otra similar en la otra vida».
Pero a medida que aumentan las expectativas de vida en los países desarrollados y
nos acercamos al límite máximo, será cada vez más difícil demostrar que una intervención
farmacológica pueda incrementar de forma significativa las expectativas de vida de la
población. Así, se ha calculado que la eliminación del cáncer solo aumentaría en 1-3 años la
esperanza de ida al nacer, y si, además, se suprimieran la ateroscleosis y sus secuelas, tal
expectativa supondría un aumento de 18 años. Si no pueden añadirse años a la expectativa de
vida, el objetivo de la «lucha» contra el envejecimiento debería ir dirigido a promover y
mantener un estado de bienestar somático, psíquico y social adecuado para que el individuo
pueda disfrutar una vida más feliz y placentera esos años que los avances de las ciencias
biomédicas y de las nuevas tecnologías nos permitan ganar. En suma, dieta, estilo de vida y
fármacos -¿cuáles?- deberían ser capaces de prevenir el deterioro progresivo de las funciones
orgánicas a fin de que cada vez un número mayor de personas alcance la ageresia o vejez
robusta.
PERSPECTIVAS
Los avances conseguidos en el estatus sanitario global, medidos estos por las
ganancias generalizadas en la expectativa de vida y por las reducciones en las muertes
prevenibles, se han acompañado por un incremento en los diferenciales de salud y riqueza
entre y en los diferentes países. Las inversiones en investigación y desarrollo en ciencias de la
salud se mantienen principalmente en problemas sanitarios que afectan al 10% de las
poblaciones Occidentales más ricas, y solo el 10% de los fondos disponibles en I+D sanitario
87
se destinan a mejorar la salud del 90% de la población del planeta. Esta disparidad, referida
como el “desequilibrio 10/90” requiere atención urgente. El Global Health Forum, convocado en
1997 para reconducir esta situación, intenta desplazar fondos desde proyectos de baja
prioridad a otros de alta prioridad; esto es, desde proyectos que benefician a unos pocos a los
inciden en la vasta mayoría. Por su parte, la OMS intensifica sus prioridades en las
enfermedades comunicables y en los principales factores de riesgo común que las favorecen.
Merece la pena recordar un discurso de Simone Veil, ante la OMS, que tituló «Los
hospitales son para los enfermos» 47. Ello, porque la Medicina, en sí misma, es un medio y no
un fin. Apuntaba Veil:
«El desarrollo de nuevas tecnologías no debe hacernos olvidar el objetivo prioritario y el único propósito de
toda la actividad hospitalaria: el servicio a los seres humanos».
El objetivo de prolongar la vida junto con un insaciable deseo de más salud – el principal
mercado de la eritropoyetina no lo representan los enfermos con insuficiencia renal crónica sino
los deportistas de elite - es una receta para la monomanía y un pozo sin fondo. El objetivo
debería ser fomentar la salud, evitar la muerte prematura y eliminar el sufrimiento.
El problema es, como señala García Baca en su Elogio de la Técnica 48, que:
«La técnica no reconoce límites naturales y menos aún fronteras políticas, sociales, económicas, religiosas,
etc. No las reconoce ni respeta, ni de palabra ni de obra. La técnica es, por intención y por programa,
superación de tales límites».
¿Cuántos podrá trascender? Los límites de la medicina no son científicos ni
tecnológicos, son conceptuales. La medicina pertenece a aquellos bienes de aprovechamiento
común; y como bien común representa un problema de los que no tienen solución técnica, sino
que requieren abordajes y soluciones éticas, morales y sociales 49. En cualquier caso, el peso
colectivo de los médicos y científicos, de los centros académicos, de la industria farmacéutica,
de los grupos organizados de pacientes, del a veces sentimentalismo y sensacionalismo de los
medios de comunicación, de las creencias religiosas, que es la sociedad, debe decidir lo que
desea. Los ciudadanos a fin de cuentas deben definir el concepto. Un concepto que a todos
atañe y que debería construirse a partir de una idea de progreso. Una medicina que aspire —
en palabras de Ortega— «a ser más y no a tener más».
____________________________________________________________________________
47.-Veil, S (1987) Hospitals are for patients. World Hospitals 23 (3&4) 17-20.
48.-García Baca J (1987) Elogio de la Técnica. Barcelona: Anthropos.
48.-Hardin G (1968) The tragedy of the commons. Science 162, 1243-5.
88
BIBLIOGRAFÍA
Lecturas recomendadas
Los títulos escogidos son libros generales que, en ningún caso, exigen conocimientos
técnicos. Toda aproximación a la “Doble Hélice” pasa por la lectura obligada de los libritos
de James Watson (La Doble Hélice) y de Francis Crick (Qué Loco Propósito); dos puntos
de vista, en ocasiones antagónicos, de la búsqueda del secreto de la herencia. Por otro
lado, tres libros representan un inestimable complemento: “Vital Forces”, de GK Hunter,
es –dice el autor- “la historia de una revolución científica, que comenzó alrededor de 1770
y concluyó en la década de los 1970s”. Es un libro sencillo, claro y conciso. “The Path to
the Double Helix”, de R Olby, combina los enfoques científico e histórico; bien
documentado, requiere cierto esfuerzo por parte del lector. “The Eighth Day of Creation”,
de HF Judson, es uno de los mejores libros de ciencia “semipopulares”. Es una excelente
historia, humana y científica, de la biología molecular. Otro libro de indiscutida relevancia,
por el impacto que su puso en su momento, es “¿Qué es la Vida? de Edwin Schrödinger.
Por su parte, la revista Nature incluye, en su número correspondiente al día 23 de enero
de 2003, una sección especial: The double helix – 50 years.
Chambers, Donald A (Ed). DNA: The Double Helix. Perspective and Prospective at Forty Years.
Annals of The New York Academy of Sciences, Volume 758, 1995.
Comenta Chambers que, durante su periodo de formación universitaria, aprendió el valor de la
lectura de la literatura original; primero los grandes clásicos y, luego, la ciencia. Sobre esta base
Chambers organizó una gran reunión, con los protagonistas de primera mano, para conmemorar el
cuadragésimo aniversario del descubrimiento de la estructura y su significado del ADN. Dividido en
nueve partes, las cuatro primeras se dedican a los fundamentos de la biología molecular; el quinto sirve
de puente: biología molecular, celular e integradora. Las partes VI-VIII se refieren a la incidencia del ADN
en la medicina. La última agrupa tres capítulos de reflexión.
Crick, Francis Horace Compton. What Mad Pursuit. A Personal View of Scientific Discovery.
Weindenfeld & Nicolson, Londres, 1989. Traducción –Qué Loco Propósito. Una visión personal
del descubrimiento científico- de Adela Goday y Pere Puichdomènech para Tusquets EditoresSuperínfimos 14, Barcelona, 1989.
“El propósito del libro es recoger mis experiencias -escribe Crick- antes y durante el periodo
clásico de la biología molecular, que comprende desde el descubrimiento de la doble hélice en 1953
hasta 1966, cuando quedó descifrado el código genético”. Considerado como un modelo de ciencia
popular, que aborda de manera rigurosa el desarrollo de las ideas y de la experimentación que
condujeron a la estructura del ADN y al descubrimiento del código genético, no ha alcanzado la
popularidad del de su compañero Watson, más “espontáneo”.
Dennis, Carina (Commissioning editor), “The Double helix – 50 years”, Nature 421 (Nº 6921):
363-372 (2003).
“Como preludio de las numerosas celebraciones que, en todo el mundo, conmemorarán el 50
aniversario del descubrimiento de la doble hélice de ADN, Nature presenta una colección de ensayos
dedicados a rememorar los impactos histórico, científico y cultural, de una estructura molecular
reveladora”. Los dieciséis trabajos que conforman dicha sección se estructuran en cuatro bloques:
introducción - la molécula eterna; perspectivas históricas; ADN en medicina y sociedad, y ADN - la
molécula biológica. Un quinto bloque acoge los facsímiles de los trabajos aparecidos el 25 de abril de
1953.
Hunter, Graeme K. Vital Forces. The Discovery of the Molecular Basis of Life. Academic Press,
San Diego, 2000.
Fuerzas Vitales narra la historia de la revolución bioquímica; una búsqueda de doscientos años
encaminada a desvelar los secretos de la química celular. Un periodo de rápidos avances en el
conocimiento humano que influyó y cambió nuestra visión de la naturaleza de la vida, y que sentó las
bases de la medicina moderna y de la biotecnología. La historia está contada de manera clara,
comprometida y absorbente; acerca al lector a los fascinantes y sorprendentes avances en los conceptos
y teorías de los últimos 200 años, e introduce a sus protagonistas. Describe el descubrimiento de las
bases moleculares de la vida a través de las historias de los científicos involucrados, incluyendo las
relevantes figuras de Louis Pasteur, Gregor Mendel, Linus Pauling o Francis Crick. Combinando ciencia
89
y biografía en una amena narración cronológica, el autor nos pone en contacto con los éxitos y los
fracasos, las colaboraciones y los feudos, las teorías fallidas y las brillantes intuiciones que produjeron la
revolución molecular en biología.
Judson, Horace F. The Eighth Day of Creation. Makers of the Revolution in Biology (Expanded
Ed) Cold Spring Harbor Laboratory Press, Cold Spring Harbor, Nueva York, 1996.
Esta exhaustiva y bella historia de la biología molecular introduce en los experimentos, en las
rivalidades y, sobre todo, en las mentes de los mejores científicos que la construyeron. El autor tuvo la
oportunidad de hablar con casi todos los involucrados, por lo que el Octavo Día es una historia oral de
una revolución científica; puede ser, la mejor historia jamás contada de la biología molecular.
Nature, “Twenty-one years of double helix”, Nature 248: 721, 766-788 (1974).
Editorial, 721. Crick F., “The double helix: a personal view”, págs. 766-769. Pauling L., “Molecular basis
of biological specificity”, págs. 769-771. Gurdon J. B., “Molecular biology in a living cell”, págs. 772-776.
Chargaff E., “Building the Tower of Babble”, págs. 776-779. Stent G. S., “Molecular biology and
metaphysics”, págs. 779-781. Olby R., “DNA before Watson-Crick”, págs. 782-785. Brenner S., “New
directions in molecular biology”, págs. 785-787. Klug A., “Rosalind Franklin and the double helix”, págs.
787-788. Windsor D. A., “Molecular biologist come of age in Aries”, pág. 788.
Olby, Robert. The Path to the Double Helix. The Discovery of DNA (Corrected and enlarged Ed)
Dover Publications Inc., Nueva York, 1994. Traducción -El camino hacia la doble hélice- de la
edición original de 1974, por Natividad Sánchez Sáinz-Trápaga para Alianza Editorial, S. A.,
Madrid, 1991.
“Pienso –comentó Francis Crick- que ningún futuro historiador de la ciencia, en el área de la
biología, podrá ignorar el presente libro; tanto por la concienzuda investigación de Olby como por el buen
juicio con que aborda el tema”. Combinando unos aproches científico e histórico, el Profesor Olby capta
la emoción de la conceptualización y de la evolución de las ideas que condujeron al descubrimiento del
secreto genético de la vida. La historia discurre a lo largo de varias líneas principales: macromoléculas
lineales; ácidos nucleicos; transformaciones bacterianas; la evolución intelectual de los físicos; químicos
y biólogos, y la combinación de diferentes disciplinas científicas que desbloqueó los secretos
estructurales del ADN.
Portugal, Franklin H., y Cohen, Jack S. A Century of DNA: A History of the Discovery of the
Structure and Function of the Genetic Substance. MIT Press, Cambridge, Massachusetts, 1977.
Al contrario de la creencia popular, el descubrimiento de la estructura química y de la función
biológica del ácido desoxirribonucleico no ocurrió durante la segunda mitad del siglo XX, ni fue
conseguido por un pequeño y selecto grupo de científicos. La construcción del modelo de doble hélice
por Watson y Crick fue la culminación de un proceso que comenzó hace cien años con el aislamiento de
la “nucleína” por Friedrich Miescher en 1869 y que Marshall Nierenberg remató, cien años después, con
la formulación del código genético. La razón de tan larga aventura fue lo inadecuado de la tecnología del
siglo XIX y de la primera mitad del veinte para abordar el estudio de las sustancias a nivel molecular.
Hoy, cualquier estudiante de enseñanza secundaria tiene acceso a un microscopio de más calidad del
que dispuso Miescher. Cada nuevo avance en las técnicas analíticas –centrifugación, cristalografía por
rayos X, etc.- abrió nuevas áreas de información y mayores posibilidades para la investigación. Pero el
libro no es sólo una historia académica; es también la historia de los investigadores con sus
motivaciones y prejuicios, con sus lealtades y egoísmos. En suma, de los factores humanos que
condicionan la empresa humana. “Un siglo de ADN” apasiona a legos y a científicos.
Schrödinger, Erwin What is life? The Physical Aspect of the Living Cell. Cambridge University
Press, Cambridge, USA, 1944. Traducción -Qué es la Vida- de Ricardo Guerrero y
presentación y notas críticas por MG Velarde, R Margaleff, P K Feyerabend, J Senté-Josa y R
Guerrero, para Editorial Avance SA-Teoría 6, Barcelona, 1976.
Françoise Jacob escribió de éste libro: “Schrödinger ha escrito un librito maravilloso que se llama
¿Qué es la vida? en el que analiza, con una precisión absolutamente extraordinaria, las propiedades de
los cromosomas, tanto desde el punto de vista físico como biológico. Fue el primero en hablar de código
y de estructura y señalar que el material genético debía tener una estructura comparable a lo que se
denomina un cristal aperiódico, es decir, un cristal en el que las unidades de repetición no son
absolutamente idénticas sino muy parecidas. En efecto, la repetición y la perpetuación de algunas
unidades simples engendran una gran complejidad. Algunos años después de la aparición del libro de
Schrödinger hicieron explosión las dos bombas sobre Hiroshima y Nagasaki. Muchos físicos, cansados
de una Física que requería una tecnología cada vez más compleja y decepcionados por la utilización
90
militar terrorífica que se hacía de la Física, se dispusieron a escuchar a Schrödinger que les prometías
años apasionantes en Biología”.
The Josiah Macy Jr. Foundation. DNA from the Beginning. En: www.dnaftb.org/dnaftb/ (acceso:
febrero 2003).
“ADN desde el comienzo” está organizado alrededor de conceptos básicos. La ciencia que
subyace en cada concepto es explicada mediante animación, imágenes, entrevistas, problemas,
biografías y conexiones.
Watson, James Dewey. The Double Helix. Atheneum Publishers, Nueva York, 1968.
Traducción –La Doble Hélice- de Adolfo Martín y Eduardo Cruelss, para Biblioteca Científica
Salvat, Barcelona, 1994.
De este libro dijo Life Magazine: "Vivaz, insolente, sincero, a menudo al borde del escándalo ...
destinado a terminar con el mito de que la gran ciencia debe ser fría, impersonal o distante". Es un libro
escrito, a propósito, por un científico sobre los científicos y, a la vez, es la historia interna de uno de los
tres descubrimientos trascendentes (mecánica cuántica por Plank y relatividad por Einstein son los otros
dos) del siglo apenas concluido. Más fascinante es, quizás, cómo un joven americano de 23 años vio su
oportunidad para la inmortalidad científica y la aprovechó.
Bibliografía seleccionada. Capítulo 2: Senderos de ADN.
Allen, Garland E. Life Science in the Twentieth Century. John Wiley & Sons Inc [History of
Science Series. George Basalla & William Coleman, eds]: Nueva York, 1975.
A pesar del título, el libro no es un texto de historia de la biología del siglo XX, sino la historia de
unas pocas áreas seleccionadas cuya relevancia fue decisiva en la época anotada. Los temas elegidos:
influencia del darwinismo; orígenes de la embriología experimental; herencia y evolución; fisiología
general; convergencia de disciplinas; desarrollo de la bioquímica, y origen y desarrollo de la biología
molecular. Debe destacarse el capítulo dedicado a bibliografía.
Astbury, William Thomas, “Molecular biology or ultrastructural biology?”, Nature 190: 1124
(1961).
Beadle, George Wells, “Genes and chemical reaction in Neurospora”, en: Nobel Lectures in
Molecular Biology 1933-1975. Foreword by David Baltimore. Elsevier, Nueva York, 1958, págs.
51- 63.
Ésta y las otras Conferencias Nobel reseñadas, representan revisiones de primera mano cuya
lectura proporciona una visión completa de la empresa comprometida en desenmarañar el secreto de los
fundamentos de la biología molecular.
Chargaff, Erwin (1979) How genetics got a chemical education. Annals of the New York
Academy of Sciences 325: 345-360.
Crick, Francis Horace Compton, “The structure of the hereditary material”, Scientific American
191 (Nº 4): 54-61(1954).
Delbrück, Max Henning, “A physicist’s renewed look at biology. Twenty years later”, en: Nobel
Lectures in Molecular Biology 1933-1975. Foreword by David Baltimore. Elsevier North-Holland:
Nueva York, 1977, págs. 363-372.
Fischer, Hermann Emil, “Synthesen in der Purin- und Zuckergruppe”, en: Les Prix Nobel en
1902. Imprimerie Royale: Stockholm, 1905, págs. 1-18.
Hall, Stephen S, “The double helix. Old school ties: Watson, Crick, and 40 years of DNA”,
Science 259 (Nº 5101): 1532-1533 (1993).
Hershey, Alfred D, “Genes and hereditary characteristics”, Nature 226: 697-700 (1970).
91
Kossel, Albrecht, «Über die Chemische Beschaffenheit des Zellkerns », en: Les Prix Nobel en
1910. Imprimerie Royale, Stockholm, 1911, págs. 1-14.
MaCarthy, Maclyn. The Transforming Principle. Discovering that Genes Are Made of DNA. A
volume of The Commonwealth Fund Book Program under the editorship of Lewis Thomas. W.
W. Norton $ Co., Nueva York, 1985. On-line ed: The Oswald T. Avery Collection en
http://profiles.nlm.nih.gov/CC/A/A/O/F/_ccaaosf.pdf (acceso: febrero 2003).
Este libro es el primero en la serie “The Commonwealth Fund Book Program”. Escrito en primera
persona, por uno de los protagonistas, trata del descubrimiento, por Avery, MacLeod y McCarthy, en la
década de los 1940s, de que los genes están hechos de ADN. Once capítulos exploran, en profundidad,
el acontecimiento, desde los “años preparatorios” (capítulo I) hasta las “consecuencias” (capíitulo XII).
Mirsky, Alfred E., “The discovery of DNA”, Scientific American 218 (Nº 6):78-88 (1968).
Morgan, Thomas Hunt, “The relation of Genetics to Physiology and Medicine”, en: Nobel
Lectures in Molecular Biology 1933-1975. Foreword by David Baltimore. Elsevier North-Holland,
Nueva York, 1977, págs. 67-77.
Muller, Hermann Joseph, “The production of mutations”, en: Nobel Lectures in Molecular
Biology 1933-1975. Foreword by David Baltimore. Elsevier North-Holland, Nueva York, 1977,
págs. 25-42.
Nature, “Thirty years of DNA – and after”, Nature 302 (Nº 5909): 557-558 (1983).
Olby, Robert, “Francis Crick, DNA, and the Central Dogma”, Daedalus 99: 938-987 (1970).
Pauling, Linus, y Hayward, Roger. The Architecture of Molecules. WH Freeman and Co., San
Francisco, 1964.
Las 57 moléculas dibujadas por el artista Roger Hayward y comentadas por Linus Pauling, han
suscitado comentarios unánimes: “Un libro técnicamente sólido y estéticamente bello” (The Science
Teacher). “ Un fascinante trabajo de arte …” (Nature). “Grandes ideas y una tremenda cantidad de duro
trabajo son resumidas en la aparente simplicidad de este libro” (Science). “Los autores lo han planteado
para captar el interés por la ciencia de jóvenes estudiantes. Pero los químicos ya hechos se sentirán
jóvenes de nuevo ..¿Compre el libro! Seguro que tendrá problemas para adquirirlo” (Journal of Chemical
Education). “Uno de los libros más fascinantes que el revisor haya visto” (School Science Review).
Perutz, Max Ferdinand, “Origins of molecular biology”, New Scientist 85 (Nº 1192): 326329(1980). “The birth of molecular biology”, New Scientist 92 (Nº 1561): 38-41(1987).
Ravin, Arnold W, “The gene as catalyst; the gene as organism”, Studies in History of Biology 1:
1-45 (1977).
Sandler, Iris, y Sandler, Laurence, “On the origin of mendelian genetics”, American Zoologist
26: 753-768 (1986).
Stent, Gunther S., “DNA”, Daedalus 99: 909-937 (1970).
Sturtevant, Alfred H. A History of Genetics. Cold Spring Harbor Laboratory Press: Cold Spring
Harbor, Nueva York, 1967. On-line Ed: www.esp.org/books/sturt/history/title3.
html – acceso: noviembre 2002.
La reimpresión de este clásico permite acceder a una fuente imprescindible de la historia de la
genética. El autor conjunta, en una síntesis de primera mano, las experiencias de los pioneros con
quienes tuvo el privilegio de trabajar codo con codo.
Tatum, Edward Lawrie, “A case study in biological research”, en: Nobel Lectures in Molecular
Biology 1933-1975. Foreword by David Baltimore. Elsevier, Nueva York, 1977, págs. 67-77.
92
Wilkins Maurice Hugh Frederick, “The molecular configuration of nucleics acids”, en: Nobel
Lectures in Molecular Biology 1933-1975. Foreword by David Baltimore. Elsevier, Nueva York,
1962, págs. 147-174.
Bibliografía seleccionada. Capítulo 14: Los entresijos de la nueva medicina.
Burnet M. Genes Dreams and Reality. New York: Basic Books, 1971.
García Barreno, P., Medicina Virtual. En los bordes de lo real. Editorial Debate S. A., Madrid,
1997. “Tecnociencia médica”, en: La Ciencia en Tus Manos. P. García Barreno, ed. Sociedad
Estatal Nuevo Milenio y Editorial Espasa Calpe S. A., Madrid, 2000, 4ª ed, págs. 519-55.
“Ciencias biomédicas”, en: La Ciencia y la Tecnología ante el Tercer Milenio. J. M. Sánchez
Ron, ed. Sociedad Estatal Nuevo Milenio, Madrid, 2002, Tomo I, págs. 371-502.
A pesar de los impresionantes avances científico-técnicos que caracterizan nuestros días,
médicos y hospitales se quejan de que no pueden satisfacer lo que ha llegado a ser una demanda sin
límites de la asistencia sanitaria. A la vez, los profesionales de las ciencias de la salud intentan descubrir
productos médicos eficaces; para conseguirlo disponen de poderosas herramientas: bioingeniería,
biotecnología, bioinformática, … Todo ello exige desarrollar una nueva concepción de la atención
médica; un escenario renovado en el que los diferentes actores lleguen a alianzas que consigan un
servicio integral de salud.
Golub, E. S., The Limits of Medicine. How science shapes our hope for the cure. Times BooksRandon House, Nueva York, 1994.
Repaso histórico del cambio de la medicina inducido por las revoluciones científicas. Muestra el
lado humano de la ciencia y de sus protagonistas; las excentricidades y genialidades de los sucesos
espectaculares y de los fracasos humillantes. Asegura que los límites de la medicina son conceptuales,
no técnicos.
Hall, S. S., Mapping the Next Millennium. How Computer-Driven Cartography is Revolutionizing
the Face of Science. Vintage Books, Nueva York, 1993.
La aportación fundamental del libro de Stephen S. Hall es que amplia la noción de mapa. Junto a
los mapas terrestres, los hay fisiológicos, matemáticos y cosmológicos. La nueva cartografía ayudada
por computadoras está revolucionando la faz de la ciencia del mismo modo que, siglos atrás, los mapas
de Mercator revolucionaron el aspecto de la tierra. Hall indica que el punto de encuentro de la
exploración del espacio, de la tomografía médica, de la modelación del efecto invernadero y del genoma
humano, es el mapa; la imagen domina, hoy, todas las ciencias.
Institute of Medicine, 2020 Vision. Health in the 21st Century. Institute of Medicine 25th
Anniversary Symposium. National Academy Press, Washington, 1996.
En 1995, los EE.UU gastaron 900 mil millones de dólares –el 14% del producto interior bruto- en
sanidad. Ello en una paradoja interesante. La mayoría de los ciudadanos acceden a un buen sistema
sanitario; todo el mundo considera a los EE.UU. líderes indiscutibles en I+D biomédico; todos los
profesionales del mundo quisieran reciclarse en hospitales y universidades norteamericanas. A la vez, 40
millones de ciudadanos carecen de seguro médico, y otros 30 millones tienen una cobertura sanitaria
insuficiente. Se ha detectado la reemergencia de enfermedades prevenibles como la polio y el
sarampión, y continúan los efectos devastadores pero igualmente evitables de la toxicidad por plomo, el
retorno de la tuberculosis y la explosión de las enfermedades de transmisión sexual. ¿Cómo puede
mejorarse la gestión de los recursos para mejorar la atención sanitaria de los ciudadanos?.
Kevles, D. J. y Hood, L., (eds.), The Code of Codes. Scientific and social issues in the Human
Genome Project. Harvard University Press, Cambridge, London, 1992.
El genoma humano es la clave que nos hace humanos: define las posibilidades y las limitaciones
como miembros de una especie. El objetivo último del proyecto, al que el libro dedica toda su atención,
es el mapa detallado de nuestro genoma. Tal cartografía revolucionará el conocimiento del ascenso del
hombre y de la expresión de sus rasgos normales y patológicos. Código de Códigos es la exploración,
por personajes autorizados, del hecho en sí y de las posibles consecuencias del proyecto en relación con
la ética, la ley, la sociedad, y la ciencia, la tecnología y la medicina. Como comenta Sydney Brenner, si el
estudio del genoma proporcionará el conocimiento necesario para comprendernos y los temores que
pueda desencadenar también serán positivos, ¿que más podemos pedir?
93
Le Fanu, J., The Rise and Fall of Modern Medicine. New York, Carroll & Graf Pub. Inc., 2000.
Una crónica apasionante de los principales logros de la medicina moderna entre 1945 y la
década los1970s, y un examen crítico del estancamiento del progreso médico –no de la ciencia médicadesde entonces. El Dr. Le Fanu demuestra el poder del método científico para ampliar las fronteras del
conocimiento médico y, a la vez, identifica los riesgos a los que se enfrenta la medicina del futuro.
Reilly, P. R., Abraham Lincoln’s DNA and Other Adventures in Genetics. Cold Spring Harbor
Laboratory Press, Cold Spring Harbor, Nueva York, 2000.
Phil Reilly es médico, genetista y abogado. También es escritor. Su nuevo libro reúne
veinticuatro relatos sobre historia, justicia, comportamiento humano, plantas y animales, enfermedades y
cuestiones éticas. Representan una amplia variedad de asuntos, pero con un tema común: lo que
aprendemos del estudio de los genes humanos y las implicaciones de esas lecciones para nuestra
sociedad, nuestras relaciones con la naturaleza y nuestra conciencia de lo que significa ser humano.
Reynolds, R. y Stone, J., (eds), On Doctoring. Stories, poems, essays. Simon & Schuster,
Nueva York, 1991.
On Doctoring es una colección extraordinaria de historias, poemas y ensayos, escritos por
médicos y por profanos sobre el enfermar y el sanar y sobre el vivir o el morir. Recoge la totalidad de las
emociones humanas, desde "Morir no es un orgullo" de John Donne hasta "Laringe" de Neruda. En un
momento en que la Medicina se hace más y más técnica, el libro capta lo que de ella sigue fascinando.
"Esperamos -dicen los editores- que este libro anide entre los textos de anatomía o de bioquímica, de
medicina interna o de cirugía".
Schneiderman, L. J. y Jecker, N. S. J., Wrong Medicine. Doctors, patients, and futile treatment.
The Johns Hopkins University Press, Baltimore, 1995
Una mujer de 33 años en estado vegetativo permanente es mantenida viva por medios
artificiales; ello, a pesar de siete años de lucha por parte de sus padres. Un bebé nace sin cerebro; nuca
tendrá el mínimo atisbo de conciencia; sin embargo, la madre obtiene el apoyo de la Corte Suprema para
que se mantenga a su hija con vida. Un hombre armado entra en un hospital y amenaza al personal
mientras desconecta a su hijo de los sistemas que lo mantienen, artificialmente, con vida; lo coge en
brazos hasta que muere. .. Los autores examinan, de la mano de casos reales, los aspectos éticos del
tratamiento médico extremo.
Starzl, T. E., El Hombre Puzzle. Memorias de un cirujano de trasplantes. J. R. Prous Editores,
Barcelona, 1994.
Durante toda su carrera, Thomas E. Starzl ha despertado admiración y controversia en todo el
mundo. Primero revolucionó las investigaciones sobre el trasplante de órganos; luego planteó los
problemas éticos y morales que conllevan los trasplantes. En este libro define con claridad temas tan
discutidos como la muerte cerebral, los ensayos clínicos aleatorizados con fármacos experimentales, los
elevados costes de los trasplantes de órganos y el sistema de selección de candidatos al trasplante entre
los enfermos más graves. En la historia de los trasplantes existen otros héroes, los hombres puzzle: los
pacientes que pueden llegar a recibir varios órganos y partes del cuerpo. Todos los pacientes que
reciben un órgano trasplantado -y Starzl los recuerda a todos- pasan a ser puzzles.
Thomasma, D. C. y Kushner, T., (eds), Birth to Death. Science and Bioethics. Cambridge
University Press, Cambridge, Great Britain, 1996.
La Biología ha irrumpido abruptamente en los últimos años demandando, entre otras, respuestas
éticas continuamente. El libro, dirigido al lector no especializado, revisa los principales avances en
biología y en medicina y explora sus implicaciones éticas. Desde el nacimiento hasta la muerte el libro
recorre la biología humana: genética, reproducción, desarrollo, trasplante, envejecimiento, muerte y
utilización de animales en investigación y el impacto de la humanidad sobre el planeta. Cada capítulo
discute, desde los puntos de vista científico y ético, los avances científicos más recientes.
Weatheral, D., Science and the Quiet Art. Medical Research & Patient Care. Oxford University
Press, Oxford, 1995.
¿Por qué los productos de la ciencia tardan tanto en dar frutos útiles para el paciente?. David
Weatheral muestra su preocupación por la creciente desilusión del público, de los políticos e, incluso, de
los médicos, por la infructuosa batalla contra el cáncer, la diabetes o los ataques cardiacos; por el
insaciable apetito de noticias por parte de los medios de comunicación; por la dependencia de la
medicina de la alta tecnología; por la espiral de los costes sanitarios, y por la disminución de los
aspectos humanísticos de la atención médica. Los descubrimientos trascendentes no llevan un orden;
94
suelen depender de actitudes personales en centros de excelencia donde el conocimiento goza de gran
independencia y en los que, a menudo, surgen, repentinamente, nuevas áreas de conocimiento por
intereses coincidentes de muy diferentes profesionales. Es un libro de fácil lectura y lectura obligada para
entender la evolución del arte sosegado.
Whittemore, H., Your Future Self. A Journey to the Frontiers of Molecular Medicine. Thames
and Hudson Inc., Nueva York, 1998.
En la actualidad, los científicos exploran el universo intracorporal, incluso intracelular e in vivo, de
manera tal que está cambiando la percepción de nuestro cuerpo. Los avances biomédicos han
impulsado técnicas de imagen capaces de cartografiar nuestro genoma o nuestras redes neuronales. Si
el libro de Linus Pauling y Roger Hayward “The Architecture of Molecules” –referido en la bibliografía
correspondiente al Capítulo 2- sorprendió por la belleza de sus dibujos, “Your Future Self” es el primer
libro dirigido al público lego que utiliza las técnicas avanzadas de imagen para ilustrar un fascinante viaje
hacia la nueva era de la medicina molecular.
Wyke, A., 21st Century Miracle Medicine: Robosurgery, Wonder Cures, and the Quest for
Immortality. Plenum Trade, Nueva York, 1997.
La tesis de éste libro, que está dirigido a un público culto aunque sin formación científica, es que
la medicina del siglo veinte ha fracasado; ello, porque los ciudadanos no se sienten menos enfermos que
hace tres décadas. De acuerdo con Alexandra Wyke, una reputada periodista –doctorada en bioquímicaque escribe para el prestigioso semanario The Economist, el público lo sabe y demanda soluciones
tecnológicas. Aunque el subtítulo promete la búsqueda de la inmortalidad, la medicina milagro de Wyke
que eliminará las enfermedades prevalentes del siglo XX, sólo añadirá una década a nuestra expectativa
de vida. La visión del futuro en que consigan tales objetivos es controvertida. Wyke basa el fracaso
médico sobre el hecho de que las cardiopatías, el cáncer, la diabetes y otras enfermedades crónicas han
incrementado, utilizando la década de los 1970s como referencia. Sin embargo, cuando volvemos la
vista a los comienzos de los 1900, las cosas son diferentes: la mortalidad infantil ha decrecido
espectacularmente, y la expectativa de vida se ha duplicado. ¿Dónde están los límites?

Documentos relacionados