Descargar número completo

Transcripción

Descargar número completo
www.eikasia.es
42
La selección de originales para publicación, se someten de manera sistemática a un informe de expertos externos a la entidad editora de la revista y a su consejo de editorial.
Estos informes son la base de la toma de decisiones sobre su publicación o no, que corresponde en última instancia al Consejo de Redacción de la revista y a la Dirección de
la misma.
BASES DE DATOS QUE RECOGEN LA REVISTA EIKASIA
BIBLIOTEQUE NATIONALE DE FRANCE
número 42
enero 2012
Fran F. Yebra
Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.
El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate. Dr. Alberto Hidalgo Tuñón Universidad de oviedo Resumen Las prácticas docentes deben consistir en la adquisición de capacidades y habilidades operatorias por parte de los alumnos. ¿Cómo trasmitir la capacidad crítica en lo que concierne reflexivamente a la propia institución universitaria, al proceso mismo de la investigación científica y a sus productos cognitivos? Se presentan en este texto introductorio las clases prácticas de la asignatura ʺsociología del conocimientoʺ llevadas a cabo por Pablo Infiesta Molleda durante el curso 2009‐2010 como un modelo para vincular investigación, enseñanza y capacidad crítica. Abstract Teaching practices should include the acquisition of surgical skills and abilities by the students. How to convey the critical capacity regarding self‐reflexively to the university , the very process of scientific research and cognitive products? Presented in this introductory text practical classes of the course ʺSociology of Knowledgeʺ carried out by Pablo Infiesta Molleda during the 2009‐2010 academic year as a model to link research, teaching and critical ability. 7
ENERO
2012
Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.
El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate. Dr. Alberto Hidalgo Tuñón Universidad de oviedo 1.‐ Contextos El pasado 20 de noviembre de 2010 falleció de muerte súbita en la Habana durante la estancia de investigación en el Instituto de Filosofía del Ministerio de Ciencia, Tecnología y Medio Ambiente de la República de Cuba, Pablo Infiesta Molleda. Su trabajo continuaba la labor emprendida en los cursos de nuestro Programa de Doctorado sobre Problemas filosóficos del Presente (2006‐2008) que había culminado en la defensa del Trabajo de Investigación titulado «Aspectos metacientíficos en la génesis del Proyecto Genoma Humano». Dicho trabajo, correspondiente a los 12 créditos del segundo año del Programa de Doctorado, fue presentado y defendido en septiembre de 2008, recibiendo la calificación de Sobresaliente. El 31 de Mayo de 2007 había obtenido Pablo Infiesta Molleda una Beca del “Programa Severo Ochoa” de Ayuda Predoctoral para la Formación y la Docencia del Principado de Asturias bajo mi tutoría, razón por la cual a partir del curso 2009‐2010 había comenzado a colaborar en la docencia del Departamento de Filosofía, siéndole asignadas clases prácticas en la materia de Sociología del Conocimiento y de la Ciencia. Este homenaje, en el que colaboran todos los alumnos que siguieron sus prácticas en el curso 2010‐2011 pretende dar cuenta no sólo del cariño que éstos le profesaban, sino, sobre todo, proporcionar una muestra de un tipo de trabajo institucional en el que se conjugan la docencia y la investigación de manera ejemplar. Más allá de las Reformas Didácticas Institucionales (marca Bolonia, por ejemplo), de las terminologías pedagógico didácticas que sombrean y, a veces, encubren más que recubren las prácticas docentes universitarias, de la administración burocrática a la que deben someterse los flujos de información y los influjos de formación, el proceso mismo de enseñanza aprendizaje es un curso vivo y continuo, que sólo deja huellas como heridas en el alma de los que participan en su desarrollo y que implica procesos de comunicación de índole diferente a los realzados en el proceso mismo de investigación. Aunque la vida investigadora de Pablo Infiesta pueda distinguirse teóricamente de su actividad docente y ambas de sus compromisos políticos y vitales, todos los que conocimos a Pablo Infiesta Molleda, más allá de su aspecto de resistente underground y de su indumentaria black, sabemos que la profunda unidad de sus intereses le permitían conectar la plétora de sus afectos en un mismo y único elán vital filosófico. «No puede acercarse auténticamente a la filosofía el hombre que nunca ha experimentado irritación ante lo que todos piensan y todos dicen, ante lo que se impone como incuestionable. Hay que ver ─ dice Adorno ─ la coacción, injusticia y mentira que subyacen a las evidencias» (p. 100). Esta resistencia a la opinión establecida, que ya se encuentra en Heráclito, es la que me llevó a recitar al viejo presocrático en su oración fúnebre. En realidad, dado su talante vitalista, Pablo Infiesta no pudo elegir mejor materia de investigación para consagrar su vida a ella. Se trata de un asunto en el que filosofía y sociología se entrelazan en doble hélice, sin que la primera tenga que hacerse sospechosa de ideología y sin que la segunda pueda perderse en irrelevantes estudios cuantitativos de 9
ENERO
2012
El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate | Alberto Hidalgo
10
ENERO
2012
opinión. Si la filosofía no puede abdicar de sus pretensiones cognoscitivas para evitar el triunfo de la estolidez y la sinrazón, la sociología no puede reducirse a constatar el relativismo de los contenidos y las imposiciones de la división del trabajo, saltándose la gnoseología por decreto. Ni la filosofía puede convertirse en una policía de objetos cognitivos guardados en carpetas o embuchados en secuencias de aminoácidos, ni las categorías sociales en que se embuten las ideas filosóficas puede dar la espalda a las cosas mismas, salvo haciéndose reo ella misma de cosificación. Confrontar ambas disciplinas en el Proyecto Genoma Humano (PGH) implica empujar la dialéctica a uno de sus límites, allí donde el materialismo histórico se dirige a su propia superación, a la liberación del espíritu con respecto al primado de las necesidades materiales en el estado de su satisfacción. Un pensamiento sobre las virtualidades reproductivas de los genes carecería de reflexión, pero sin reflexión no hay teoría, y es difícil obviar el carácter teórico de la biología molecular misma. Pablo Infiesta sufrió lo indecible para establecer las bases metodológicas de su investigación sobre el PGH, por lo que acabó haciéndome caso en el único consejo que le di: no enfrentar in recto esta endiablada dialéctica e iniciar, por el contrario, la reconstrucción de los distintos cursos que constituyen el contexto histórico determinante del PGH, partiendo del propio Proyecto ya dado, como figura institucional determinada. Así logró localizar analíticamente sus componentes o partes constituyentes principales, que le permitieron regresar a los cursos históricos en el seno de los cuales se constituyen y relacionan de un modo característico, co‐determinadas a su vez con y por otros materiales. Tales cursos, que convergen en la cristalización del PGH y que son sus partes determinantes, le sirvieron para determinar el núcleo duro de su trabajo de suficiencia investigadora, arriba mencionado. Su identificación y reconstrucción era la condición de posibilidad que permitiría estudiar la trama misma de la génesis del PGH. No voy, sin embargo, a reproducir aquí el curso de sus pensamientos, ni siquiera los avances que el lector podrá seguir en la Introducción y el Capítulo 1º de su tesis doctoral, que recogemos en este homenaje a sabiendas de que su autor consideraba esta versión como prácticamente definitiva. El objetivo de este homenaje, aunque forzosamente modesto al mostrar una investigación dolorosamente truncada en sus fases iniciales, ambiciona a poner en valor ciertos aspectos didácticos y pedagógicos de gran eficacia y proyección. Se trata de apreciar cómo, a través del sistema de prácticas de la materia Sociología del conocimiento y de la ciencia del que estaba encargado Pablo Infiesta en el momento de su desaparición, supo trasmitir a sus alumnos la complejidad del trabajo en el que estaba inmerso. Del mismo modo que el movimiento ʺUnderground Resistance” pretendía combatir la mediocre programación visual y sonora a la que los habitantes del planeta Tierra estamos sometidos, el programa de prácticas de Pablo Infiesta intentaba derribar el muro que las disciplinas académicas han construido en torno al PGH para que no pueda entenderse su verdadero alcance filosófico y social. No se trataba solamente de plantear una cuestión gnoseológica acerca de los límites del conocimiento, planteando la inconmensurabilidad insalvable entre el genoma y el hombre, pero tampoco de denunciar la conversión del PGH en una cierta Weltanschauung. Mediante el uso de una selección de textos muy bien articulada intentaba trasmitir toda la complejidad del proyecto a un elenco de alumnos que ni eran biólogos moleculares, ni sociólogos, ni administradores, ni abogados, ni economistas, sino estudiantes de filosofía. La energía liberada en el proceso puede calibrarla el lector en el conjunto de los diez artículos que aparecen en este homenaje y que son la respuesta polifónica de los distintos aspectos del PGH, que interesaron a las diferentes sensibilidades con la que cada alumno liberó el sonido de su voz ante la iniciación al tema que les hizo Pablo Infiesta. Se trata de un sistema de prácticas basado en la experimentación, que va más allá de un recetario estandarizado en el que se consuman muchos proyectos didácticos. Mediante la simple lectura comentada y explicada de unos textos, a veces de contenido especializado y abstruso, Pablo Infiesta logró inducir a los alumnos a que se entregasen a la cosa, objeto de investigación, y no a sus necesidades ideológicas. Pero dirigirse a las cosas mismas, a las Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.
cuestiones mismas, sin pretender estar por encima de ellas, implica regresar a sus partes o componentes materiales. Es en este punto en el que el pensamiento filosófico alcanzaba para Pablo Infiesta la máxima seriedad: en el momento de regressus. 2.‐ Textos para practicar la reflexión Pablo Infiesta presentó a los alumnos el Proyecto Genoma Humano que iba ser analizado sociológicamente mediante una selección bien cuidada de cuatro bloques de textos, que fueron leídos parcialmente y comentados en clase. El orden de presentación no es indiferente, pues se trata de ir progresando grosso modo desde un primer «nivel fenoménico» hasta un último «nivel esencial», en el que se plantean los problemas mismos del sentido o significado del PGH. a).‐ El primer bloque reproduce un reportaje periodístico de Javier Sampedro, publicado en El País, el domingo 9 de abril de 2000, titulado provocadoramente: «Craig Venter: Magnate del Genoma Humano». El reportaje viene acompañado de una fotografía de Craig Venter con bata blanca y sobre el fondo de un mapa genético de 1997 en la primera página, otra fotografía en la segunda página de Bill Clinton y Tony Blair aplaudiendo y hablando entre sí con gesto de complicidad, debajo de la cual se lee, «los dos mandatarios que apoyaron que los datos del genoma humano sean públicos». Se sugiere así que el argumento principal es la confrontación entre el proyecto privado (barato y eficaz) y el proyecto público (trasparente, pero mastodónticamente ineficiente), un asunto que la prensa explotó inmisericordemente. En la misma página hay un breve artículo de Malén Ruíz de Elvira, titulado «Inquietantes consecuencias», que comienza diciendo que se tardará todavía 100 años en poder modificar la herencia y cambiar el curso de la evolución, pero concluye amenazando al lector con la fabricación artificial de «monos inteligentes» y «seres humanos tontos» (sic) y anticipando que «la sociedad del futuro tendrá que lidiar con planteamientos que ahora parecen fantásticos, pero que derivan directamente del conocimiento del genoma humano». El sesgo de todo el reportaje transido de ingeniería genética y biotecnología, como muestran las ilustraciones: un esquema del “ADN y cómo se lee”, otro ilustrando la técnica del consorcio público en oposición con la técnica de Celera (Shotgun), así como una tercera fotografía (un primer plano de «una investigadora en un laboratorio de biotecnología», jeringuilla en mano ante una selva de matraces, alambiques y probetas). La prueba de que el conocimiento no es contemplación, sino acción queda patente en el faldón de las páginas 2 y 3, que despliega 18 esquemas de otros tantos «genes relacionados con enfermedades y su situación en los cromosomas». Aunque tiene un papel introductorio, fenomenológico, el reportaje se acompaña de cuatro cuestiones que Pablo Infiesta plantea como aperitivo a sus alumnos: «1.‐ ¿Es Craig Venter un científico o un empresario? ¿Cuáles son las consecuencias de su condición para la actividad investigadora que desempeña?» Aparentemente el propio texto parece responder directamente a la cuestión, al destacar en mayúsculas que «el empresario Venter sigue siendo ante todo un investigador genético de primera línea» , pero no queda claro si el surfista Venter, directo, decidido y arriesgado es un científico que se ha tenido que hacer empresario para sacar adelante su investigación, o más bien un empresario de nuevo cuño, como corresponde a la nueva «sociedad del conocimiento» en la que vivimos y en la que ciencia y técnica son, no ya fuerzas productivas, sino directamente activos de capital más importantes que el dinero. De hecho, la cuestión no puede resolverse sin saber de qué estamos hablando: «2.‐De acuerdo con el texto, ¿qué es el Proyecto Genoma Humano?» es pregunta insoslayable. Ahora bien, la sociología del conocimiento parte del supuesto de que la ciencia es una institución social, por lo que no hay nada extraño en que se pida a los alumnos que «3.‐ identifiquen las distintas instituciones implicadas en la secuenciación del genoma humano, exponiendo además sus fines particulares y relaciones mutuas». Más allá de las universidades y laboratorios en el reportaje aparece mencionados, sobre todo, el Instituto Nacional de la 11
ENERO
2012
El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate | Alberto Hidalgo
12
ENERO
2012
Salud (NIH) y PE Celera Genomics, pero también Affymetrix, , Humen Genome Sciences (HGS), Incyte, PE Corporation, etc., por no hablar de los Gobiernos implicados. Por debajo del PGH asoman problemas de patentes que afectan a empresas biotecnológicas y farmacéuticas, así como los mercados financieros que invierten en tecnología. Tocando la tecnología, queda aún una cuarta pregunta: «¿Cuál es el papel de los artefactos tecnológicos en el proceso de secuenciación del genoma humano? ¿Puede entenderse al margen de lo científico y lo social?». El espectro de preguntas abre el campo interdisciplinarmente a respuestas que no pueden contestarse unívocamente y exigen de suyo cruzar informaciones heterogéneas. Estamos ya en el ámbito de la sociología del conocimiento y de la ciencia. b).‐ Pero una información periodística tiene el recorrido del tiempo que dura la actualidad de la noticia. Rescatar de la hemeroteca una noticia del 9 de abril de 2000 sirve para fijar la atención en un periodo de tiempo en el que la biología molecular alcanzó su cénit con la hazaña de Craig Venter. Saludada por muchos como paradigma de una de las revoluciones científicas más espectaculares del siglo XX, se convirtió en la década de los sesenta en una ortodoxia sin rival (cuando define su dogma central, según el cual la información genética se transmite del ADN al ARN y, por último, a la proteína, pero nunca al revés). ¿Cómo se planteaba el problema del genoma humano a principios de los 90 cuando arrancó el proyecto? El segundo texto elegido por Pablo Infiesta se titula «El sueño del genoma humano» y apareció como reseña de nueve libros sobre el genoma humano en The New York Review of Books. Su autor Richard Lewontin es un conocido bioquímico izquierdista que ha combatido incesantemente el determinismo genético por ser una mera continuación de la estrategia eugenésica de tipo racista. Su tesis inicial es que el ADN es un fetiche similar al Santo Grial de los caballeros medievales: «El evangélico entusiasmo de los modernos caballeros del Santo Grial y la ingenuidad de los acólitos de la prensa, a los que han catequizado, han hecho un fetiche del ADN. Hay también predisposiciones ideológicas que se hacen sentir. La descripción más exacta de la función del ADN es la que dice que esta contiene información que es leída por la maquinaria de la célula en el proceso productivo. Sutilmente, el ADN como portador de información es transformado sucesivamente en ADN como copia, como plan rector y como molécula rectora. Es la transferencia a la biología de la fe en la superioridad del trabajo mental sobre el meramente físico, del planificador y el diseñador sobre el operario no cualificado que está en la línea de montaje» (p. 132). Quemando etapas, así pues, en la década de los noventa la biología molecular parece haber sufrido el típico síndrome de alienación tradicionalmente asociado a las religiones reveladas triunfantes. No deja de ser preocupante que una comunidad científica con una alta concentración de judíos del Este de Europa y de ateos hayan elegido como metáfora central el objeto más cargado de misterio de la cristiandad medieval. ¿Habla ello a favor de la continuidad de los supuestos científicos de Occidente? Lewontin, sin embargo, no se deja engañar y aplica la crítica ideológica marxista tanto al PGH estadounidense como a la HUGO internacional, poniendo al descubierto los intereses materiales subyacentes de naturaleza económica: «Estos proyectos son, de hecho, organizaciones administrativas y económicas antes que proyectos de investigación tal como se entiende comúnmente este término. Han sido creados durante los últimos cinco años, en respuesta a un activo esfuerzo de cabildeo, por científicos como Walter Gilbert, James Watson, Charles Cantor y Leroy Hood, empeñados en conseguir grandes cantidades de fondos públicos y en hacer que esos fondos afluyan a un inmenso programa corporativo de investigación» (p. 133). Una vez explicadas las razones económicas por las que los biólogos moleculares se han convertido en empresarios, la primera pregunta de Pablo Infiesta sobre «¿Cuáles son las implicaciones del rótulo “grial biológico”, utilizado para referirse al Proyecto Genoma Humano?» se contesta con facilidad. Lewontin adopta la metáfora que aparece en uno de los nueve libros que reseña, The Code of Codes, editado por Daniel Kevles y Leroy Hood en la Harvard University Press (1992), Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.
porque el capítulo de Walter Gilbert que compara el ADN a la mística copa medieval, fuente de vida y de energía sin fín, que guardaba la preciosa sangre de Cristo perpetuamente auto‐renovada no sólo tiene gracia sociológica al convertir a la élite de los biólogos moleculares en una nueva Orden de Caballeros Templarios a la búsqueda del Santo Grial, empeñados suscitar a finales del siglo XX una nueva Cruzada de largo alcance llamado PGH, sino también chispa gnoseológica que es lo que le interesa a Pablo Infiesta. Interesa desvelar las trampas metacientíficas que se ocultan tras la metáfora de la sangre, no ya por el tópico forense (cinematográfica y televisivamente divulgado) de que basta una gota de sangre para identificar a un asesino, sino porque sirve de base para responder al resto de las preguntas que Pablo Infiesta hace a continuación: « 2.‐ ¿Cuáles son las críticas de Lewontin al determinismo genético?. 3.‐ ¿Cómo se relacionan genotipo y ambiente en la constitución de un organismo? Y 4.‐ ¿puede el conocimiento del genoma afectar a las relaciones entre personas e instituciones?» Hay, en efecto, un cierto paralelismo entre el poder extraordinario atribuido al Santo Grial y el enorme poder que se atribuye al ADN. Según la leyenda del grial biológico de Gilbert cada célula de nuestro cuerpo contiene en su núcleo dos copias de una gran macromolécula llamada acido desoxirribonucleico (ADN). Una de estas copias nos viene de nuestro padre y la otra de nuestra madre, entrelazándose durante la unión del esperma y el óvulo. Esta gran macromolécula se diferencia a lo largo de su estructura en segmentos de funciones separadas llamados genes, y el conjunto de todos estos genes se llama, colectivamente, nuestro genoma.. Los genes «han creado nuestro cuerpo y nuestra mente» dice Richard Dawkins. De este modo, prometen los genetistas del PGH, cuando conozcamos exactamente el aspecto de semejantes genes, sabremos exactamente qué somos en realidad, pues el éxito o el fracaso, la salud o la enfermedad, la maldad o la bondad, nuestra capacidad para progresar o para actuar solos, todo ello está determinado o influido por nuestros genes. Este paralelismo sirve a Lewontin para evaluar el mérito relativo del resto de los libros que reseña. Pocos tienen en cuenta el problema del «polimorfismo» que limita seriamente las posibilidades de aplicación. Suzuki y Knudtson se oponen a la manipulación de las células germinales humanas por sus consecuencias imprevisibles, etc. La crítica científica de Lewontin pone en entredicho tanto el valor terapéutico como forense del PGH. Pero su argumento principal consiste en desmontar el comentario de Kevles y Hood sobre sus consecuencias sociales: «Las connotaciones de poder y temor asociados con el Santo Grial acompañan al Proyecto Genoma, su contrapartida biológica. Indudablemente, esto afectará al modo en que gran parte de la biología se planteará durante el siglo XXI. Cualquiera que sea la configuración de sus efectos, más pronto o más tarde, la investigación sobre el grial biológico alcanzará su meta, y creemos que no es demasiado pronto para comenzar a pensar en cómo controlar su poder, y en cómo disminuir los legítimos temores sociales y científicos que suscita». Pero ¿qué hay en el ADN que pueda suscitar temores sociales y científicos? ¿Por qué los biólogos moleculares están tan empeñados hoy en vender la especie de su inmenso poder, en lugar de seguir recluidos en sus laboratorios? Gran parte de la leyenda asociada a la biología molecular proviene de las cualidades que se atribuyen al ADN. La leyenda asevera que se trata de una molécula autorreproductora y autoactiva, que proporciona el fundamento de nuestro ser. Y esto porque los millones de células de nuestro cuerpo contienen todas ellas copias de moléculas que originalmente sólo estaban presentes una vez en el esperma y en el óvulo con los que dio comienzo nuestra vida. De ahí el problema de la clonación con toda la mitología asociada. Además, si el ADN de los genes es la causa eficiente de nuestras propiedades como seres vivos, de las que somos un mero producto, entonces el ADN debe poseer la capacidad de actuar por sí mismo, en virtud de su propia estructura interna. Y de ahí el problema del determinismo biológico. Como buen iconoclasta Lewontin pregunta, ¿cómo se produce este milagro? La biología molecular explica el misterio del grial biológico mediante la estructura dual y 13
ENERO
2012
El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate | Alberto Hidalgo
14
ENERO
2012
autocomplementaria del ADN. Así como la sangre de Cristo se dice que se renueva en el Grial mediante la acción complementaria del Espíritu Santo, así también la cadena de ácidos nucleicos de ADN que traslada el mensaje para la producción de proteínas está acompañada por otra cadena helicoidal entrelazada con ella, cuyo abrazo químico la multiplica. Esta autoduplicación del ADN va encajando nucleótido por nucleótido con la hebra del mensaje de una manera complementaria. Cada A(denina) del mensaje se acopla con una T(imina) de la hebra complementaria, cada C(itosina) con una G(uanina), cada A con una C y cada T con una A. Cierto que la reproducción del ADN es más bien un desacoplamiento de las hebras ensambladas, seguido de una construcción de una nueva hebra complementaria sobre cada una de las cadenas parentales. En cualquier caso, la reproducción del ADN se explica por su estructura dual, complementaria y su poder creador por su diferenciación lineal. El problema de esta leyenda es que, aunque es correcta en su detallada descripción molecular, Lewontin demuestra bioquímicamente que el ADN carece del místico poder autoreproductor y autoregenerador que se le atribuye. Primero, porque el ADN es una molécula prácticamente muerta, una de las moléculas más carentes de reacción y químicamente más inertes en el mundo vivo. Esta es la razón de que puede recuperarse en bastante buen estado para determinar su secuencia a partir de momias y a partir de mastodontes congelados hace decenas de cientos de años, e incluso, bajo las circunstancias apropiadas a partir de plantas fósiles de hace veinte millones de años. El uso forense del ADN para vincular supuestos criminales con sus víctimas depende de la recuperación de moléculas no degradadas a partir de raspaduras de sangre y piel, secas y muertas desde hace bastante tiempo. Así pues, el ADN no tiene capacidad para reproducirse a sí mismo. Más bien es producido a partir de materiales elementales mediante una compleja maquinaria celular de enzimas y proteínas. Por consiguiente, en contra de lo que proclaman sus modernos Caballeros Templarios y de lo que propalan los periodistas la molécula viviente de ADN no es auto‐reproductora. Necesita ayuda para copiarse. Pero, en segundo lugar, no sólo el ADN es incapaz de hacer copias de sí mismo, con ayuda o sin ayuda, sino que es incapaz de “hacer” ninguna otra cosa. La secuencia lineal de nucleótidos en el ADN se usa por parte de la maquinaria de la célula para determinar qué secuencia de aminoácidos debe ser construido dentro de una proteína, y para determinar cuándo y dónde se ha de construir la proteína. Pero las proteínas de la célula son fabricadas por otras proteínas y sin esta maquinaria de proteínas conformadoras no puede hacerse nada. c) Lo más interesante de la lectura de Lewontin es que el caballero Craig Venter apenas aparece mencionado una sola vez, pero por ello mismo destaca en negativo que las imputaciones que se han utilizado para desprestigiarle (como la de que es un empresario o un magnate más que un científico), son tramposas, porque lejos de diferenciarle le acercan al gremio: «No conozco a ningún biólogo molecular prominente que no tenga participación económica en el negocio de la biotecnología» (p. 148). James Watson, que tuvo que dimitir como director de los NIH del Proyecto Genoma, lo hizo no tanto por sus discrepancias con la doctora Healey sobre el problema de las patentes cuanto por el temor a que saliesen a la luz sus intereses financieros en empresas farmacéuticas y biotecnológicas. En este contexto, el texto autobiográfico, emic, de Craig Venter, «secuenciando lo humano» que cuenta con pelos y señales qué, cómo y cuando hizo lo que hizo para conseguir el objetivo de secuenciar el Genoma Humano en un tiempo record, fue elegido por Pablo Infiesta para poder replantear con todas las versiones a la vista, las visiones contrapuestas que nos asaltaron fenoménicamente desde el principio: «¿Por qué se produce un conflicto entre el proyecto público y la iniciativa privada de Venter? ¿Qué tipo de organización de la producción científica plantea Venter para el trabajo en Celera Genomics?». Llevadas al límite estas dos preguntas centrales de Infiesta conducen de forma natural al núcleo mismo de toda sociología del conocimiento y de la ciencia: «¿Es la secuenciación del genoma humano una construcción social?» Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.
La lectura del Capítulo 11 del libro de Craig Venter, La vida descodificada pone en evidencia que no es lo mismo «público» que «desinteresado»/o altruista, ni «privado» significa lo mismo que «con ánimo de lucro». El regreso desde los componentes “sociales” (sociofactos de acuerdo con la terminología del materialismo metodológico) que revela el texto a esta escala emic, nos pone ante la evidencia de que la incorporación de las ciencias biológicas a la Big Science es un hecho en los 90. Pero también evidencia que el factor social no está desconectado del resto, sino que tanto lo público como lo privado forman parte de un mismo contexto histórico determinante: los actores, instituciones y materiales no son ya los científicos individuales, o las dependencias universitarias en las que se fraguó la doble hélice, sino los empresarios, organismos gubernamentales, redes internacionales de grandes laboratorios, o trabajadores asalariados que realizan una labor coordinada y planificada. Pese a que el relato de Venter es tan personal aparecen en él configuraciones, características de la Big Science (HGS, TIGR, PerkinElmer, Wellcome Trust británico, Applied Biosystems, el NIH, Washington University, New England Biolabs, MIT, DOE, Sun, Silicon Graphics, IBM, HP y Compaq) que irrumpen en el ámbito de las ciencias biológicas cuando se difunden las rentables aplicaciones (médicas, agrícolas, etc.) de la ingeniería genética que estuvo en el origen de la Biotecnología. Ahora bien, si hemos de hacer caso al relato de Venter la guerra entre el proyecto público y privado fue azuzado por la prensa: «Nicholas Wade, del New York Times, y Rick Weiss, del Washington Post», especialistas en el PGH.. Ya el 11 de mayo de 1998 Wade escribe en su periódico: «Un pionero en el secuenciamiento genético y una compañía privada unen esfuerzos con el objetivo de descifrar el ADN entero, o genoma, de los humanos en tres años, mucho más deprisa y más barato de lo que el Gobierno Federal está planeando». Venter, quien ya había mostrado su impaciencia ante la lentitud de la estrategia internacional del «club de los mentirosos» (sic) y no ocultaba sus diferencias de criterio con Francis Collins, Harold Varmus y Ari Patrinos del consorcio público comenta la jugada del New York Times en estos términos: «El problema con los periodistas, por supuesto, es que les gusta echar leña al fuego. Wade no pudo resistirse tampoco en este caso, y señaló cómo mi proyecto podría “en cierto sentido hacer redundante el programa de tres billones de dólares del Gobierno para secuenciar el genoma en 2005” y cómo el Congreso podría preguntar por qué debería seguir financiando el esfuerzo público si la nueva compañía iba a terminar primero. Aunque el adorno periodístico final era completamente accesorio, la sugerencia de que yo no fallaría en esta aventura iba a enfurecer a mis poderosos enemigos». Pero que en The Genome War (que James Shreeve narraría en términos épicos en 2004), iniciada por el propio Craig Venter y Mike Hunkapiller, todos los actores tenían una posición diferenciada y no coincidente con la de los demás, lo experimentó Venter cuando al día siguiente, «Wade volvió al tema con fuerza, sugiriendo que yo había “robado” la meta del genoma humano al gobierno». Si los Mass Media, además de crear fama y difamar, son por lo menos el cuarto poder, no hay nada extraño que en el relato de Venter aparezcan Clinton y Hilary compartiendo mesa y mantel con los científicos e intentando ponerse al frente de un proyecto destinado a «salvar a la humanidad». El relato autobiográfico de Venter, que viene encabezado intencionadamente por una cita pesimista de la autobiografía de Maurice Walkins (The Third Man of the Double Helix, 2003), comenta el enredo con la deportividad de un surfista en competición o de un capitán entrenador de un equipo de figuras tipo BNA. Tal vez en la naturaleza se produzcan olas perfectas, pero sin una buena tabla no se pueden cabalgar. Convencido de que él mismo era «mejor que la mayoría ensamblando partes y sistemas complejos» en su cabeza (sic), la tabla que necesitaba era «un pequeño equipo que pudiera secuenciar el genoma humano entero en dos o tres años por el diez por ciento del programa federal». El objetivo se identifica claramente con la organización, de modo que es difícil sustraerse a la impresión de que los aspectos constructivos predominan sobre los meramente descriptivos y que, tal como lo cuenta Venter, la 15
ENERO
2012
El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate | Alberto Hidalgo
16
ENERO
2012
construcción social de la realidad es una filigrana que bien se puede acoger al patrocinio de Aristóteles cuando observó que «una imposibilidad verosímil es siempre preferible a una posibilidad poco convincente» (sic). En realidad, la pequeña organización de la que habla Venter sólo podía tomar cuerpo cuando los elegidos para conformarlo podían ser elegidos cuidadosamente por sus extraordinarias capacidades o por la excelencia de sus conocimientos: «Ham Smith que tenía manos de oro y podía manipular moléculas de ADN mejor que nadie», Mark Adams, quien era el «mejor haciendo que la tecnología compleja funcionase y que lo hiciese rápidamente» se hizo cargo del equipo central del secuenciamiento de ADN de operación Celera. Pero para resolver el puzles de manejar treinta millones de fragmentos con tres mil millones de letras necesitaba también a Jeannine Gocayne, quien podía proporcionar «más robótica para escalar todos los pasos del proceso» y a Anne Deslattes May, jefa de ingeniería del sotfware, quien con la ayuda Tony Kerlavage, experto en inventar técnicas de computación, fue capaz de convertir las matemáticas de Eugene W. Myers, cuyo inverosímil fichaje se cuenta, y de Granger Sutton en software operativo. Esta ambigüedad psico‐sociológica, sin embargo, no es el último dato que nos proporciona Venter para afianzar la tesis de que la secuenciación del genoma es una construcción social. Es necesario vincular este tipo de organización con los artefactos tecnológicos como pide Pablo Infiesta. Para que el proyecto se pusiera a funcionar en agosto de 1998 fue preciso no sólo las 200 máquinas secuenciadoras de ABI, el hardware facilitado por Compaq, el software, la química y las enzimas, sino albergar todo ello en un mismo espacio físico que quintuplicaba las previsiones iniciales. Las dotes de mando y organización que muestra Venter en toda la narración empequeñece la importancia de los problemas económicos que tuvo que resolver para satisfacer las exigencias del financiador Tony White, que aparece como un antipático genio maligno que invierte 300 millones de dólares, pero no deja de repetir: «Si vas a secuenciar el genoma humano con mi dinero y después regalarlo, entonces será mejor que tengas un plan para ganar dinero». Generar un plan de negocio que asegurara un beneficio sobre 300 millones de dólares de inversión es el pequeño detalle constructivista que Pablo Infiesta pedía a sus alumnos con la primera cuestión que les planteaba sobre este texto: «1.‐ Vincula el método de secuenciación por escopeta y el secuenciador automático con la rentabilidad y viabilidad de la iniciativa de Craig Venter para secuenciar el genoma humano». Venter tuvo que inventar la empresa Celera Genomics para satisfacer las exigencias de negocio, pero lo verdaderamente difícil era reclutar personal procedente de un gran número de disciplinas para hacer que el secuenciamiento por escopeta (shotgun) funcionase: «El proceso comienza extrayendo ADN de células humanas (bien sangre o esperma). Convertir ese ADN en pedazos fáciles de manejar y fáciles de secuenciar — creando lo que se llamauna biblioteca de secuenciamiento genómico — es un paso esencial. En el secuenciamiento del genoma completo, la biblioteca se hace rompiendo el ADN en pedazos mediante ondas de sonido u otros métodos que aplican fuerzas de ruptura a las moleculas de ADN y los cromosomas. Utilizando procedimientos simples de laboratorio, el ADN fragmentado se puede separar de acuerdo con el tamaño. Podemos coger un trozo de un cierto tamaño — digamos dos mil pares de bases de largo (2 kb) — e insertarlo en un “vector de clonación”, que es un conjunto de genes bacterianos que permiten que el trozo de ADN crezca dentro de la bacteria E. coli. Si se repite este proceso con todas las piezas, la biblioteca del genoma resultante tendrá representadas todas las secciones del genoma humano en millones de trozos de dos mil bases. Dado que los fragmentos proceden inicialmente de millones de genomas completos, muchas piezas contienen secciones solapadas de ADN debido a la forma aleatoria en que se rompen los cromosomas. Después, mediante selección aleatoria de clones de ADN cogidos de la biblioteca completa, debería ser posible secuenciarlos y encajar los solapamientos utilizando un ordenador para ensamblar de nuevo una copia completa del genoma.... Necesitaba el mejor equipo del mundo para hacer ese trabajo a una escala que nunca antes se había intentado». Hacer viable de iniciativa precisó de construcciones en todos los pasos y Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.
niveles. Por ejemplo, para obtener clones humanos en cultivos de bacterias Ham tuvo que construir un nuevo vector de clonación que tuviera una eficiencia del cien por cien, en lugar del sistema convencional de selección azul y blanca, etc. La automatización del proceso permite reducir costes como hizo Ford con la producción en cadena, pero también se ahorra usando materiales distintos (por ejemplo un robot con disparador automático autolimpiable en lugar de millones de cánulas desechables). Disparar la velocidad, disminuyendo costes llegó a constituir la esencia rutinaria de Celera. d) El cuarto bloque de textos propuesto por Pablo Infiesta a sus alumnos supone ganada ya la perspectiva sociológica constructivista que subyace en el relato de Venter. Dos fragmentos, extraídos de sendos capítulos del libro de Kevin Davies, La Conquista del Genoma Humano (Craig Venter, Francis Collins, James Watson y la historia del mayor descubrimiento científico de nuestra época, Paidós, 2001) le sirven de base para plantear cuatro preguntas cruciales, que tocan el corazón mismo del PGH. «1.‐ Desde un enfoque sociológico ¿es la actividad de los políticos externa o interna al proyecto de secuenciación del genoma humano? 2.‐ Reconstruye la problemática de las patentes a la luz de la distinción natural/artificial. 3.‐ ¿Cabe establecer “nuestra común humanidad”, como declaró Bill Clinton, a partir de las secuencias del genoma realizadas por los equipos de Venter y Collins?. Y 4:‐ ¿Cómo inciden las apelaciones a Dios de Clinton y Collins en la concepción del genoma humano?» La importancia política del PGH se puso de manifiesto el 14 de marzo de 2.000, cuando los Presidentes Bill Clinton de USA y Tony Blair de GB avalaron públicamente a todos los investigadores del Programa para garantizar la publicación de los resultados. La escena que recoge el capítulo 11 de Davies, titulado «El lenguaje de Dios» con Clinton entrando en el salón oriental de la Casa Blanca, acompañado de Venter y Collins y concediendo a James Watson un lugar de honor, aunque es posterior, tiene un significado más doméstico: restañar las heridas entre el proyecto público y el privado que ya conocemos por el texto anterior, y en el que el “villano” Craig, que había ganado la carrera, había sido tildado por el científico estadista J. Watson como un nuevo Hitler. Es verdad que los logros científicos que se celebraron aquel lunes 26 de junio del 2000 no daban para tanto, pero el acto mostraba hasta qué punto la política estaba involucrada directamente en la vida de la ciencia, y no sólo como un financiador externo más. Y eso porque, una vez identificados los 31.000 genes y determinada la secuencia de los tres billones de bases del ADN humano, hacía falta aún mucho trabajo experto para desarrollar técnicas de análisis e interpretación de los resultados y, mucho más aún, para resolver las múltiples cuestiones éticas, legales, políticas, sociales y filosóficas que suscitaba y en la que los grupos humanos organizados estaban muy interesados. En este sentido no es cierto, por ejemplo, que las ciencias naturales sean neutrales, ni ontológica, ni políticamente. Poco después de aquel acto, el 11 de septiembre de 2001, se puso en evidencia, por ejemplo, las nefastas consecuencias del tipo de educación puramente dogmática y religiosa que propician las “madrassas” islámicas de Afganistán y Pakistán. Parte de las cuestiones socio‐
políticas suscitadas por el PGH podrían formularse, por ejemplo, preguntando si el “fanatismo”, el “terrorismo” o la “delincuencia” podría atribuirse a una alternación genética. Sin llegar a tal exageración, ¿es verdad que esta lectura del «libro de la vida» que hace el PGH significa un argumento definitivo contra el racismo? ¿No se tratará de otro avance “occidental” que sólo sirve para incrementar la “brecha” entre quienes tienen la tecnología para descifrar genes y quienes sólo tienen patrimonio genético que descifrar? De ahí el calado político e incluso geoestratégico que tiene el asunto de las patentes. La cuestión de la distinción entre natural/artificial, planteada por Pablo Infiesta tiene además importancia gnoseológica, porque sobre ella parece pivotar el supuesto de que la investigación científico natural, a diferencia de los que ocurre en las disciplinas sociales e ideológicas, no es el cabildeo, ni el poder político el que otorga la excelencia, sino el trabajo mismo. Al enmarcar la distinción en la cuestión de las patentes, sin embargo, el deslinde no parece tan claro y ello muestra la necesidad de apelar a 17
ENERO
2012
El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate | Alberto Hidalgo
18
ENERO
2012
discursos ideológicos para proporcionar la cobertura apropiada a esta investigación. El capítulo titulado «El código de Creso» nos informa de que la decisión política tan celebrada por Clinton y Blair del 14 de marzo de garantizar la publicación de los datos del PGH tan pronto como estuvieran disponibles, fue seguida por un desplome de las acciones de Celera de 290 dólares a 100, arrastrando tras de sí a todo el sector biotecnológico. «A pesar del manifiesto rechazo de Venter, Haseltine y otros a la declaración de Clinton‐Blair, los mercados permanecieron extrañamente inmutables. Durante las dos semanas siguientes el valor de las principales empresas estadounidenses cayó cerca de 50.000 millones de dólares». El imperativo de que los descubrimientos del material genético deben pertenecer a toda la humanidad que parece garantizar la declaración Clinton‐Blair, obligó a las empresas biotecnológicas a clarificar su posición sobre las patentas. Bill Haseltine escribió: «No nos interesa patentar la humanidad, sino patentar fármacos genéticos». Craig Venter iba un paso más al comprometerse como empresa a proporcionar información científica en un formato de fácil acceso y al exigir a las demás empresas que sólo patentasen información adecuadamente secuenciada y testada. Pese a las consecuencias económicas, la polémica sobre las patentes es bastante especulativa, cosa que por lo demás no debe extrañar a los especuladores de la bolsa. ¿Realmente traen los descubrimientos de PGH remedio eficaz para las enfermedades de origen genético o sólo la promesa de que puede hacerse? Venter predecía abundantes aplicaciones biomédicas, incluyendo la esperanza de que las muertes por cáncer desaparecerían en esta generación ¿Qué queda por descubrir o inventar para que tales predicciones sean fiables? Puesto que todavía tardaremos unos diez años en obtener “mapas genéticos individualizados” y que sólo entonces podrán diseñarse fármacos específicos para cada individuo, por el bien de la ciencia misma sería deseable evitar la sobredosis de optimismo reduccionista con que se anuncia la “mera identificación” de genes específicos vinculados a enfermedades como la fibrosos quística, el cáncer, la diabetes, la epilepsia o la sordera. Porque, de momento, el conocimiento del modo en que se estructura el material genético, sólo garantiza el diagnóstico de las diferencias existentes, por ejemplo, entre un gen normal y otro cancerígeno en términos de sus respectivas secuencias de ADN. Pero nada nos dice sobre su tratamiento y cura. Eso va mucho más en la línea de otro tipo de investigaciones biológicas con las Stem Cells o «células madre», por ejemplo, que, como se sabe, están sometidas hoy a fuertes restricciones morales y políticas, antes que gnoseológicas u ontológicas. Es interesante a este respecto para responder a la cuarta pregunta planteada por Pablo Infiesta observar la diferencia entre los discursos más retóricos e ideológicos de Clinton y Collins respecto al mucho más técnico y neutral de Venter. Mientras Clinton subrayaba que la ciencia moderna confirmaba la prédica religiosa de «nuestra común humanidad» y Collins enfatizaba que habíamos descifrado «nuestro propio libro de instrucciones, antes sólo conocido por Dios», Venter aclaraba que la secuencia obtenida por Celera en nueve meses se basaba «en el análisis del genoma de cinco personas: una mujer afroamericana, una mujer china, una mujer hispana y dos varones caucásicos», cuya identidad no se revelaba en virtud de la política de privacidad de la empresa. Es difícil decidir sobre las diferencias subyacentes respecto al concepto de genoma humano que subyace en ambos discursos. Por ejemplo, el dato de que la diferencia genética entre George Bush y Osama Ben Laden sea ʺsóloʺ del 0,01%, no parece ayudar mucho a resolver el conflicto de percepción y valoración que el ataque a las Torres Gemelas y las posteriores guerras de Irak y Afganistán ahondó entre “occidentales” y “musulmanes” durante la etapa de Bush IIº. La conclusión científica de que las razas no existen “genéticamente”, no está sirviendo de mucho para conjurar el demonio racista, ni para aliviar las diferencias “fenotípicas” que en época de crisis parecen causas suficientes para provocar las más crueles agresiones entre quienes “sólo” se diferencian en la forma de vestir, de hablar o de creer. Ciertamente, Venter no hizo ninguna alusión beata Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.
al Dios de los cristianos, pero si trató de defender la ciencia contra la acusación de reduccionismo esterilizador que suelen lanzar las religiones y las filosofías espiritualistas contra el materialismo: «Las complejidades y las maravillas del proceso por el que los componentes químicos inanimados que forman nuestro código genético dan lugar a los imponderables del espíritu humano debería inspirar a los poetas y a los filósofos durante milenios» Pero, mal que nos pese a los académicos, a las instituciones públicas, a las universidades burocratizadas y a las empresas farmacéuticas multimillonarias, que se beneficiarán del invento, de momento, el PGH parece favorecer más el dogma de una ciencia confundida ideológicamente con la religión a la búsqueda de un Santo Grial salvífico, que al campo decisivo de las aplicaciones prácticas en beneficio de la humanidad en su conjunto. La batalla por la proteómica resulta cuantitativamente insignificante frente al derroche de vidas humanas que siguen cobrándose las guerras del presente En suma, los textos seleccionados por Pablo Infiesta permiten abrir un abanico de problemas gnoseológicos, históricos, sociológicos, etc. capaces de movilizar los intereses y sensibilidades de muchos alumnos por heterogéneos que fuesen. Sin embargo, dejan en la sombra el curso histórico de la constitución de la Biología molecular como ciencia. Ahora bien, ese primer factor interno del contexto histórico determinante siempre estuvo presente, pues le había permitido solucionar los importantes problemas de delimitación detectados en las obras precedentes acerca de la génesis del PGH. De hecho, si tomamos como criterio la escala de las partes constituyentes, no es necesario remontarse hasta las primeras prácticas agrícolas, ni siquiera hasta Mendel o los genetistas de principios del siglo pasado, para dar cuenta del gen o del ADN; ya que, tal y como aparecen configuradas en el marco del PGH, dichas realidades se conforman en el curso de la Biología molecular, iniciada con el establecimiento de la estructura del ADN en 1953 por parte de Watson y Crick. Los desarrollos anteriores quedarían recogidos en los teoremas de la Biología molecular, y por tanto no serían directamente relevantes para la investigación, como tampoco lo eran para las prácticas de sociología del conocimiento y de la ciencia. Esto es: si podemos vincular los genes con las rudimentarias operaciones de selección artificial realizadas sobre los cultivos de los primeros grupos humanos agrícolas (como hace Thomas F. Lee en su obra El Proyecto Genoma Humano, rompiendo el código genético de la vida), es porque éstas quedan explicadas y fundamentadas, precisamente, por los desarrollos contemporáneos de la Biología molecular y la Genética. Las partes “tecnológicas”, o artefactos (los secuenciadores y demás aparatos, operadores y relatores necesarios para realizar las diversas técnicas de mapeado y secuenciación del genoma) se configuraron en el curso de la Biotecnología, vinculado con el anterior: la Biotecnología tuvo su origen en los años 70, gracias a la implementación de varios operadores (las enzimas ADN polimerasa, ADN ligasa, y las enzimas de restricción) que permitieron manipular los cuerpos y fenómenos establecidos en el campo de la Biología molecular (nucleótidos, secuencias de ADN). Me costa que Pablo Infiesta dedicó alguna clase introductoria a explicar estos extremos antes de proceder a la lectura de los textos, como se puede notar en algunos de los trabajos conceptuales realizados por los estudiantes. Una vez reconstruidos los cursos que componen el contexto histórico determinante, se puede proceder a determinar los ortogramas, planes y programas que intervienen en la cristalización del PGH como figura institucional determinada. Pablo Infiesta manejó una ingente bibliografía relativa al período de cristalización del PGH con el fin de determinar los distintos intereses y motivaciones ideológicas que dieron lugar a su génesis. Profundizó también, en el análisis gnoseológico del teorema de la doble hélice (siguiendo mi trabajo del 83 que se reproduce aquí cambiando el formato original1). Sin embargo no se 1 Hidalgo, A. (1983), «La biología molecular: ¿revolución o cierre?» Actas del IIª Congreso de Teoría y Metodología de las Ciencias, Pentalfa,
Oviedo
19
ENERO
2012
El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate | Alberto Hidalgo
20
ENERO
2012
ocupó de resolver definitivamente el problema del estatuto gnoseológico de la Biología molecular y, por ende, al propio carácter científico del Proyecto Genoma Humano, más allá de la constatación y ampliación de su carácter teoremático. En este sentido insistió con gran penetración que en el proceso de constitución del teorema se produce un episodio de identidad entre las leyes de Chargaff (que establecían una proporción igual de adenina y timina, y de citosina y guanina, respectivamente, en una molécula de ADN por vía bioquímica) y las consecuencias de los trabajos de Rosalind Franklin con difracción de rayos X (de los que se podía deducir, estructuralmente, que la adenina se ensamblaba con la timina, y la citosina con la guanina, formando pares de bases). De este modo, pudo establecer que el teorema puede caracterizarse como una identidad sintética sistemática, tal y como se define la verdad científica en la Teoría del Cierre Categorial de Gustavo Bueno, que utilizó como referencia gnoseológica principal. Si yo había desestimado polémicamente la intepretación de Kuhn, Pablo Infiesta se mostró más tolerante al recombinar con éxito dos metodologías filosóficas relevantes, la “Teoría del Cierre Categorial” con la Actor‐Network Theory de Michel Callon y Bruno Latour, lo que le había permitido precisamente llevar a cabo su ya citado trabajo de investigación «Aspectos metacientíficos en la génesis del Proyecto Genoma Humano». 3.‐ Los trabajos de los estudiantes como trazos y trazas de un hipertexto. Aún cuando las prácticas de la materia Sociología del conocimiento y de la ciencia podrían haberse limitado a efectuar análisis regresivos hasta los componentes “sociales” o sociofactos del PGH atendiendo a su escala, los trabajos que eligieron los estudiantes de Pablo Infiesta desbordan ampliamente la perspectiva en la que se mantienen los cuatro textos elegidos. En un sentido trivial los trabajos de los estudiantes pueden considerarse un hipertexto puesto que organiza un conjunto de informaciones en bloques distintos de contenidos, conectados a través de una serie de enlaces con la secuencia textual principal que les sirve de inspiración. Algunas de las preguntas guiadas realizadas por Pablo Infiesta sirvieron a nuestros estudiantes, en efecto, como elementos de activación o selección que provocó en ellos la búsqueda y recuperación de información sobre el PGH, que no estaban en el repertorio inicial. Lo cierto es que tomados en su conjunto constituyen un hiper‐documento orientado hacia un sólo objeto el PGH, que es nodo obligado en todos ellos. Los datos que proporciona cada trabajo, en consecuencia, están conectados entre si por enlaces que permiten transitar de unos a otros como si de una red se tratase. Algunos de los trabajos de los alumnos intentan dejar su impronta filosófica en el tema planteado, a veces en un nivel fenomenológico, como el de Aida Pulido, otras en el plano conceptual como el de Juan Pedro Canteras o representacional como el del jienense Carlos González. Estos tres con el más epistemológico de Marina Merino constituyen, en mi opinión, una clara reacción al trazo más internalista de lo trabajado por Pablo Infiesta en sus clases. En efecto, a pesar de su carácter aparentemente descriptivo, el trabajo de Aida Pulido desarrollo el argumento gnoseológico de cómo se construye el conocimiento del PGH que se ha instalado en la conciencia del hombre medio. La simple aparición del personaje recién citado, «el hombre medio», confiere estatuto sociológico al trabajo de Aida Pulido, lo que confirma aún más mediante el método de utilizar la prensa escrita como fuente. Tras analizar 200 noticias a lo largo de 20 años, se constata que las representaciones que se irán instalando en la conciencia colectiva del hombre medio atañen al significado o sentido que la prensa confiere al proyecto: una obra titánica que trae grandes beneficios a la humanidad. Un párrafo que analiza una noticia de ABC en 1994 ilustra bien el tono fenomenológico del trabajo: «La Universidad de Deusto Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.
celebra entre los días 24 y 26 de Mayo una reunión internacional sobre «El Derecho ante el Proyecto Genoma Humano». En su anuncio se afirma que “con toda seguridad habrá dos asuntos que por la controversia que ya suscitan en la actualidad centrarán gran parte de la atención en Bilbao. El primero de ellos es la patentabilidad de los descubrimientos genéticos. La pregunta de fondo es si es lícito patentar un ser vivo o algunas de sus partes para patrimonio de la Humanidad… Esta polémica… al margen de su sustrato ético y legal amenaza con romper la necesaria colaboración internacional en este proyecto”. En la reunión interviene Craig Venter2 y deja clara su postura, a saber, que no se trata de patentar materia viva pues no considera “los genes como algo vivo. Es decir, los genes se pueden reproducir en un laboratorio y no cobran vida. Son esenciales para la vida, pero el agua también lo es y a nadie se le ocurre decir que tenga vida”.... Manifestó, asimismo, su firme convicción de que las patentes ayudan al desarrollo de la investigación. Y fundamentó esta afirmación basándose en que la patente es lo opuesto al secreto. Es decir, que lo que se patenta se hace público y puede ser utilizado por los demás investigadores». La naturalidad con que se salvan los escollos más escabrosos contribuye a afianzar la imagen positiva del PGH. El excelente trabajo conceptual de Juan Pedro Canteras, titulado, «La evolución del concepto de gen. Biología, Ideología y Sociobiología», aborda el problema del estatuto ontológico de esa entidad llamada gen, lo que obliga a sacar a colación posicionamientos metacientíficos alternativos. Sin decantarse abiertamente por un constructivismo sociológico centra su discurso en la Sociobiología de Wilson, una disciplina que sólo de soslayo aparece en los textos seleccionados por Pablo Infiesta, incluido el de Lewontin. Tras diagnosticarla como una disciplina “enigmática”, que tiene la originalidad no ya de naturalizar las ciencias humanas, sino de “humanizar” las ciencias naturales, acaba midiendo su rendimiento gnoseológico en función de sus pretensiones filosóficas, a propósito, en particular, con el problema de la libertad. El sesgo sociológico queda patente al subrayar la influencia de elementos diversos en el propio concepto científico de gen, desde la evolución instrumental y conceptual de la biología hasta ideologías e intereses políticos, lo que le conduce a la conclusión de que «las ciencias, sin detrimento de su especial estatuto gnoseológico, son porosas al entorno en que crecen y que las posibilita. De hecho, solo acudiendo a este entorno, cabe explicar su naturaleza, que por más lógica que se nos presente, no deja de ser material». No podía faltar en el hipertexto de los alumnos un análisis sobre un elemento representacional constitutivo de la ciencia como el que efectúa Carlos González en su trabajo «La fotografia 51: un ejemplo de cooperación y competencia en la ciencia». Aunque el PGH supone la incorporación de las ciencias biológicas a la Big Science: los actores, instituciones y materiales no son ya los científicos individuales, o las dependencias universitarias en las que se fraguó la doble hélice, sino los empresarios, organismos gubernamentales, redes internacionales de grandes laboratorios, o trabajadores asalariados que realizan una labor coordinada y planificada, no está de más regresar al momento fundacional. No ya sólo porque la configuración hipertextual se muerde la cola en el caso del PGH, ya que, como hemos visto, exigió la puesta a punto de numerosos aparatos y técnicas para analizar datos o simular sistemas o mecanismo de índole biológica, sino porque el núcleo inicial de estas técnicas se encuentra en la utilización de recursos gráficos sobre cuya sobre‐valoración hace Carlos González una consideración muy pertinente: «el binomio ciencia y tecnología componen una estructura difícilmente separable, y en esta ocasión se ve de nuevo que no podemos más que realizar una disociación, porque su separación real es imposible». 21
2
EN ESTA REUNIÓN VENTER CONOCE A HAMILTON SMITH; QUIEN SE CONVERTIRÁ EN SU COLABORADOR. PRECISAMENTE ES ÉL QUIEN PROPONE
SECUENCIAR EL GENOMA COMPLETO DE UNA BACTERIA. ES ÉL, POR TANTO, EN ÚLTIMA INSTANCIA EL RESPONSABLE DE QUE VENTER ANUNCIASE
EN MAYO DE 1995 LA PRIMERA SECUENCIA DE UN ORGANISMO AUTÓNOMO.
ENERO
2012
El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate | Alberto Hidalgo
22
ENERO
2012
El trabajo de Marina Merino Sabando escuetamente titulado «Genética de Poblaciones», explora los vínculos de la Biología molecular y la Genética, al objeto de establecer el funcionamiento de los mecanismos de evaluación institucional en curso a través de la obra de L. Cavalli‐Sforza, otra línea apenas citada en los textos de Pablo Infiesta: el Proyecto de Diversidad del Genoma Humano y el Proyecto de los mil genomas. Es cierto que el PGH necesitó recursos computacionales para solucionar o investigar problemas sobre escalas de tal magnitud que sobrepasan el discernimiento humano. La investigación en biología computacional se solapa a menudo con los principales esfuerzos de investigación en estos campos tales como el alineamiento de secuencias, la predicción de genes, el montaje del genoma, el alineamiento estructural de proteínas, la predicción de estructura de proteínas, la predicción de la expresión génica, las interacciones proteína‐proteína, y modelado de la evolución, entre otras cosas. Lo que pretende Cavalli‐Sforza es más ambicioso aún: Proyecto de Diversidad del Genoma Humano (PDGH) postula la colaboración de una multitud de disciplinas (genética, arqueología, lingüística, antropología, etc.) para dar cuenta de la evolución reciente de la humanidad, reconstruir las grandes migraciones de grupos, la distribución de las poblaciones y culturas, etc. Una de las líneas consiste en la toma de muestras de ADN de una serie de poblaciones y etnias y efectuar un estudio comparativo de polimorfismos moleculares. Muestras del 10% de las 5000 poblaciones lingüísticas diferenciadas que existen permitirá determinar si existen correlaciones (y cómo se han producido) entre la diseminación cultural y la genética. Otra serie de trabajos adoptan un punto de vista estrictamente sociológico como el de Anais Fernández Criado sobre «los cultivos transgénicos», el de Mikel Rascón Muñoz «Sobre lo que no está en los genes», que sigue muy de cerca el argumentario de Richard Lewontin o el de Paloma Nido sobre «el determinismo genético». La originalidad de Anais es que utiliza directamente la teoría de Michel Callon del Actor‐Red para analizar el caso de los cultivos transgénicos. Tras determinar como actores a una serie de instituciones humanas como las empresas, los gobiernos, los agricultores, los grupos ecologistas y los consumidores, Anais Fernández Criado suelta el argumento decisivo, que, al tiempo que sorprende, abre el hipertexto a dimensiones inusitadas: « Al igual que en el caso expuesto por Callon de las vieiras de la Bahía de St. Brieuc, los alimentos transgénicos (que, en adelante, serán nuestro actor 0) pueden rebelarse contra los intereses de sus explotadores. En este caso que nos ocupa, tal rebelión tendría un significado profundo: se rebelaría la creación frente al creador, la incognoscible naturaleza frente a su iluso manejo, la verdad frente a la apariencia que los poderosos intentan establecer como indiscutible. La fuerza del en‐
sí se vería a través del para‐nosotros por un segundo, inefable pero nítida, antes de que los demás actores se enfrascasen en una nueva negociación tácita de su significado». Como hipertexto autorreferente que es la conclusión de que la red de los transgénicos no está estabilizada afecta directamente al conjunto de los trabajos de sus compañeros en la medida en que apela en términos existenciales a la distinción entre Wirklichkeit y Realität. Aparentemente mucho más clásico el trabajo de Mikel Rascón hace un repaso histórico de aquel antecedente del PGH que, según Lewontin, es su padre ideológico en cuanto al supuesto del determinismo biológico que implica: el darwinismo social y el movimiento eugenésico en Gran Bretaña. El trabajo presta especial atención a un clásico de la psicología: la teoría hereditaria de la inteligencia de Sir Francis Galton, que habría asomado ya la oreja ideológica, al insistir en que Hereditary Genius de 1869 pretendía responder a la cuestión: « ¿Por qué existen las clases sociales? Él creía ser capaz de hacer una clasificación de las personas en función de su ”valor cívico”, clasificación que coincidiría con la de las clases sociales». El artículo comienza criticando el fetichismo del ADN que anida en la biología molecular y concluye señalando las perversas consecuencias prácticas asociadas a la eugenesia y a las doctrinas sobre el carácter hereditario de la inteligencia, en particular, el nihilismo intervencionista que Alberto Hidalgo | El proyecto genoma humano (PGH) bajo el “prisma sociológico” de la Filosofía. Homenaje al doctorando Pablo Infiesta Molleda, muerto en combate.
deja libre la mano invisible del mercado para sembrar la desigualdad con el supuesto objetivo de optimizar los recursos humanos. Distingue tres tipos de eugenesia, la selectiva, la transformadora y la biológica: «La eugenesia selectiva consiste en aplicar a la especie humana las mismas técnicas que se han venido aplicando a los animales y plantas. La eugenesia transformadora trata de mediar en el ADN recombinante de los seres humanos quitando o poniendo genes (ingeniería genética). La ingeniería biológica supone producir alteraciones en los humanos sin alterar su ADN (operaciones quirúrgicas, cultivo de órganos, etc.)» Por último, el trabajo de Paloma Nido, «Praxis Humana» plantea in recto el problema de la libertad como un reto mayor contra el determinismo biológico. Aunque explícitamente pretende apoyarse en la filosofía como disciplina de segundo grado capaz de dar una visión global sobre las demás disciplinas que se dedican al estudio del comportamiento y de la conducta del ser humano, en realidad al discutir las principales tesis que mantienen, su importancia y los problemas que suscitan desarrolla argumentos propios de las ciencias sociales. Tal como entiende la teoría de la ciencia del materialismo histórico, después de Kuhn y Lakatos, Paloma Nido defiende la libertad de praxis en el caso de los humanos, pero no en los animales, sin negar por ello predisposición heredables en ambos. En todo caso acaba concluyendo prudentemente que «la herencia genética y el entorno ambiental en el que se desarrolla un individuo, no son entidades autónomas que actúen de forma independiente sobre el sujeto, sino que sería la interacción que se produce entre ambas, la que daría como resultado la praxis humana, y por tanto permitiría el ejercicio de la libertad del individuo» La hipertextualidad de los proyectos de bioinformática y biología computacional supone el uso de poderosas herramientas matemáticas para extraer información útil de datos producidos por técnicas biológicas de alta productividad, como la secuenciación del genoma. En particular, el montaje o ensamblado de secuencias genómicas de alta calidad desde fragmentos obtenidos tras la secuenciación del ADN a gran escala es un área de alto interés práctico y permitiría interesantes trabajos centrados en la cuestión de la importancia de las técnicas y tecnologías para la construcción científica misma. Sin embargo, los trabajos de tipo práctico de los estudiantes tendieron a extender las redes hipertextuales en otras direcciones, no menos internas que la cuestión de la técnica, como por ejemplo, el muy técnico trabajo de Sandra Sánchez Sánchez sobre la retinosis pigmentaria. Adrián Carbajales, por su parte, hizo un desarrollo típicamente hipertextual muy original sobre la abundante presencia de la genética en la ciencia‐ficción, mientras Rodrigo Cocina Díaz escribió un texto sobre «El genoma humano en el derecho de patentes». Finalmente la perspectiva trasversal está bien representada por el trabajo de Ana Álvarez‐
Acevedo Martínez, quien se pregunta transparentemente «¿Juegan los genes algún papel en la guerra de género?» . No es del caso, en esta introducción, cerrar sistemáticamente las líneas abiertas por los estudiantes de Pablo Infiesta, porque tampoco el tuvo tiempo para culminar la tesis doctoral con el perfeccionismo y la auto‐exigencia que le caracterizaban. Sirvan los textos reunidos en este número de Eikasía como testimonio de un trabajo intenso, honrado y valioso, pero destinado a olvidarse con gran rapidez, salvo en la memoria de los estudiantes que hicieron el esfuerzo de recordarlo. 23
ENERO
2012
Pablo Infiesta Molleda | Introducción.
Introducción. Pablo Infiesta Molleda Introducción:
En el presente trabajo se estudia la génesis del Proyecto Genoma Humano1 desde un enfoque filosófico. A
la vista de la cuantiosa bibliografía sobre el tema, quizá las siguientes páginas pudieran parecer impertinentes. El
mismo director del programa público para la secuenciación del Genoma, Francis S. Collins, advierte en su última
obra que «se han escrito ya libros enteros sobre el Proyecto Genoma Humano (de hecho, probablemente
demasiados)»2. Sin entrar en conjeturas acerca de la probabilidad del exceso, lo cierto es que existen varias
publicaciones cuyos contenidos intersectan ampliamente con los que nutrirán los próximos capítulos. Ahora bien,
esta coincidencia no supone que vayamos a elaborar una mera paráfrasis, más o menos afortunada, de varios
ensayos previos: en primer lugar, porque este trabajo supone una reacción crítica frente a esos mismos ensayos,
diagnosticando sus limitaciones y ofreciendo una metodología capaz de afrontar una problemática común detectada
en todas las obras precedentes que hemos revisado. Nuestro proceder es, desde un primer momento, dialéctico, pues
supone una rectificación de las distintas exposiciones acerca de la génesis del PGH. Por ello, hemos de tomarlas en
consideración como contenidos del propio trabajo. El análisis pormenorizado sería excesivo; una breve reseña, casi
a título inventarial, de los ejemplares más destacados, permitirá ejemplificar los problemas mencionados, además
de ofrecer un primer bosquejo de los contenidos y contornos de la investigación.
1. Estado de la cuestión. Para una revisión bibliográfica.
Thomas F. Lee, en su obra El Proyecto Genoma Humano. Rompiendo el código genético de la vida, realiza
el siguiente planteamiento general: «En las páginas siguientes exploraremos los métodos y la significación de esta
notable empresa y describiremos las personalidades, instituciones y controversias involucradas. También
explicaremos los extraordinarios desarrollos que, ya desde 1970, condujeron a la posibilidad de llegar a concebir
semejante proyecto […] Para relacionar la génesis relativamente breve pero intrincada del PGH, debemos primero
definir de una forma adecuada el término genoma»3. Efectivamente, el estudio de Lee no se reduce a un solo
ámbito, sino que aborda cuestiones sociológicas, científicas, tecnológicas, políticas, económicas, etc. En el primer
capítulo, Lee comienza a exponer, al menos intencionalmente, la historia de la genética. En este caso, la elección no
carece de justificación: «La historia del descubrimiento de, primero, la organización física y, luego, la organización
química de las células, del núcleo, de los cromosomas y finalmente la de los genes, ejemplifica una transmutación
profunda del pensamiento y actitudes en la sociedad occidental. Este cambio debe ser entendido si se desea apreciar
1
2
3
En adelante, PGH
Francis S. Collins, ¿Cómo habla Dios? La evidencia científica de la fe, pág. 136, Temas de Hoy, Madrid, 2007.
Thomas F. Lee, El Proyecto Genoma Humano. Rompiendo el código genético de la vida, pág. 11, Gedisa, Barcelona, 2001.
25
ENERO
2012
Introducción | Pablo Infiesta Molleda
en forma completa las fuerzas y motivos que dirigen las actividades científicas actuales, como el Proyecto Genoma
Humano […] sus razones no pueden comprenderse completamente sin un breve análisis de cómo se desarrolló la
ciencia moderna»4. Para ello, se remonta hasta los albores de la agricultura, hace 12.000 años, cuando se habrían
producido las primeras operaciones humanas vinculadas con el conocimiento de la reproducción de las plantas,
encaminadas a obtener especies más útiles. Pronto, no obstante, llega a terreno más firme con la teoría de la
selección natural de Darwin, la genética de Mendel, y la teoría celular de Schleiden-Swann5, los grandes hitos de las
ciencias biológicas en el siglo XIX. En los siguientes capítulos, continúa la exposición en clave interna de la
historia de la genética, transitando por De Vries, Morgan, Weissman y demás genetistas de los primeros decenios
del siglo XX6. Una vez explicado, con mayor detenimiento, el descubrimiento de la doble hélice por parte de
Watson y Crick, la narración de Lee se circunscribe al campo de la Biología Molecular, para desembocar, tras pasar
por el código genético, en la biotecnología y la ingeniería genética nacida en los años 707. Si hasta ahora sólo se
habían tratado cuestiones científicas, entran ya en liza los aspectos tecnológicos. También existe una breve alusión a
su engranaje con el PGH, respecto de la reacción en cadena de la polimerasa8: «este método notablemente simple
de clonado de genes se ha convertido en un componente crítico en el cartografiado y secuenciamiento del genoma
humano»9. El siguiente capítulo, continuando con la trama tecnológica, se centra en la descripción de los distintos
artefactos utilizados en el mapeado y secuenciación del genoma10. En sus páginas finales, se alude a la
implementación de los instrumentos tecnológicos en el PGH, y a las necesidades futuras en materia informática,
exponiendo brevemente el plan para los primeros cinco años. Entramos ya en cuestiones organizativas, e
indudablemente propias del PGH, aunque el cambio no se advierta en ningún momento por parte del autor11. Tras
un capítulo dedicado a las enfermedades susceptibles de tratamiento mediante terapia génica, vinculado tanto con la
medicina como con las motivaciones sanitarias del PGH, Lee entra de lleno en la exposición del plan y su condición
de Big Science, introduciendo así aspectos sociológicos, económicos, políticos e institucionales12. Ambos capítulos
comienzan y terminan abruptamente, sin indicación alguna acerca de la pertinencia de los contenidos, de su lugar en
el conjunto de la obra, o de su engranaje con el PGH y el resto de contenidos analizados. Como el valor a los
soldados, todo ello se les supone. El último capítulo, por fin, versa sobre los problemas éticos y jurídicos suscitados
por el PGH13.
Tras este breve examen, estamos en condiciones de establecer ya varias conclusiones importantes:
En primer lugar, si en términos generales los contenidos heterogéneos compendiados en la obra de Lee son
imprescindibles para dar cuenta de la génesis del PGH, el investigador deberá enfrentarse a una pluralidad
4
Lee, Op. Cít., pág. 31. Subrayado nuestro.
Lee, Op. Cít., «La primera síntesis», págs. 32-54.
Lee, Op. Cít., «Flores, moscas, moho y microbios», págs. 55-80.
7
Lee, Op. Cít., «ADN: modelos y significado», «Extremos pegajosos y una nueva creación», «Los clones entran en escena», págs. 81-150.
8
En adelante, PCR (por sus siglas en inglés), abreviatura convencional en nuestro idioma.
9
Lee, Op. Cít., pág. 150. Subrayado nuestro.
10
Lee, Op. Cít., «Mapas y marcadores», págs. 151-180.
11
Lee, Op. Cít., págs. 180-182.
12
Lee, Op. Cít., «Enfremedad, dignóstico y terapia”, “El plan: promesas y problemas», «¿Ciencia grande, ciencia mala?», págs. 183-256.
13
Lee, «Genes y juicios», Op. Cít., págs. 257-294.
5
6
26
ENERO
2012
Pablo Infiesta Molleda | Introducción.
irreductible de ámbitos de estudio. Cualquier estudio sobre el tema, por específica que sea su pretensión, parece
confirmar que la selección de Lee no es caprichosa, sino que viene impuesta por las propias características del
material analizado. Por ejemplo, Robert Cook-Degan, en The Gene Wars. Science, politics and the human genome,
afirma acerca de su obra: «I conducted interviews with the main characters in this story, beggining in 1986. This is
their story, the genesis of the Human Genome Project –a case study in the politics of modern sciences»14. Aunque el
autor pretenda circunscribir su trabajo a la condición de estudio de caso en políticas científicas, lo cierto es que los
cuatro primeros capítulos están infectados de contenidos científicos y tecnológicos15, al margen de los cuales el
argumento posterior (ya estrictamente sociológico) no se puede construir. Podría pensarse que, siendo el PGH un
proyecto tecnocientífico, son estos ámbitos los que resultan inherentes a todo intento de abordar el tema, mientras
que el resto de componentes considerados por Lee pueden obviarse. Sin embargo, en la obra Genome, de Jerry
Bishop y Michael Waldholz, se da la recíproca del caso anterior: en un trabajo de orientación internalista, donde se
privilegia la exposición de las distintas investigaciones biológicas y médicas que, en palabras de los autores,
«convergen» en el PGH, la mención de instituciones, empresas y cargos públicos es ubicua. En concreto, los
avatares políticos, económicos e institucionales que a finales de los años 80 dan lugar a la formulación del proyecto
genoma son consignados con cierto detalle a lo largo de varias páginas16. Su relato es el de la convergencia misma
de los acontecimientos científicos que se vienen explicando, y por tanto no se puede obviar. Parece que los
materiales sociológicos, que hipotéticamente podrían aparecer como externos, son, al menos en este caso,
contenidos internos. Es la propia distinción, por tanto, la que queda puesta en cuestión como herramienta funcional
en la reconstrucción de la génesis el PGH.
La segunda consecuencia está conectada con la primera: la determinación de la pluralidad de
circunstancias implicadas en la génesis del PGH, supone también la delimitación de las mismas, respecto de unas
terceras. Pues si ninguna de las obras consideradas se ciñe a un solo ámbito, tampoco considera la totalidad de lo
real. Comienzan a dibujarse de este modo, en el marco de los distintos ámbitos, ciertos materiales empíricos ligados
con el PGH, y ciertos cursos que es necesario recorrer para explicar su génesis. Necesario, como planteamos en el
párrafo anterior, y suficiente, pues existen muchas otras realidades desconectadas del proceso. No obstante, los
límites que así puedan perfilarse serán siempre borrosos. Pues, aunque existen importantes intersecciones entre las
distintas obras, también se encuentran diferencias. Confrontemos el ensayo de Lee con otras dos publicaciones
semejantes:
Renato Dulbecco17, en su obra Los genes y nuestro futuro, trata de «analizar a fondo los problemas
14
Robert Cook-Degan, The Gene Wars. Science, politics and the human genome, pág. 12, W. W. Norton & Company, Nueva York, 1994.
Robert Cook-Degan, Op. Cít., «Part One: The Scientific Foundation», págs. 13-56.
Jerry E. Bishop & Michael Waldholz, Genome. The Story of the Most Astonishing Scientific Adventure of Our Time –The Attemp to Map All
the Genes in the Human Body, págs. 217-224, Simon and Schuster, Nueva York, 1990.
17
Premio Nobel de Fisiología por su descubrimiento de la transcriptasa inversa, relacionada con el ppael de los virus en la génesis del cáncer, y
uno de los impulsores del PGH. A este respecto, Víd. Renato Dulbecco, «A Turning Point in Cancer Research: Sequencing the Human
Genome», Science, nº 231, 1986, págs. 1055-56.
15
16
27
ENERO
2012
Introducción | Pablo Infiesta Molleda
planteados por los avances en el núcleo de los genes»18 tomando como centro de referencia el PGH; no en vano se
subtitula La apuesta del Proyecto Genoma. Como Lee, Dulbecco comienza con la genética, si bien en su obra la
exposición es más sistemática que histórica. Una diferencia significativa, en lo que concierne a las conclusiones que
pretendemos establecer, radica en el punto de partida: mientras que Lee evocaba las técnicas que dieron lugar al
origen de la agricultura, Dulbecco se detiene en Mendel19. Asimismo, obvia cualquier alusión a los grandes
biólogos del siglo XIX, siendo Morgan su siguiente referencia20. Así pues, para Dulbecco la exposición de la
genética puede desconectarse del resto de disciplinas biológicas. En el capítulo dedicado al PGH, Dulbecco también
tiene en cuenta el plan, y las aportaciones de la ingeniería genética. Aunque, en este caso, el sesgo viene dado por la
implicación del propio autor en los hechos narrados: llega a atribuirse el origen del proyecto21, e incluye sus
investigaciones en virus22. Aunque considera, al igual que Lee, hitos biotecnológicos como la PCR, las enzimas de
restricción, o los mapas genéticos, no existe alusión alguna a los secuenciadores ni, en general, a la tecnología
computacional23. El juego de intersecciones y diferencias se mantiene en las secciones dedicadas a las aplicaciones
médicas y las controversias éticas, morales y jurídicas; pesando aquí, por lo que parece, el decidido
posicionamiento de Dulbecco a favor del PGH: seis capítulos se dedican a desgranar las posibles repercusiones en
medicina24, mientras que las «implicaciones éticas, legales y sociales» son despachadas en apenas diez páginas25.
Veamos ahora La conquista del genoma humano, del genetista y director de la revista Nature Genetics Kevin
Davies. El propósito de la obra, en este caso, es la exposición de los distintos avatares de la secuenciación del
genoma, una vez anunciados los borradores del proyecto público y Celera Genomics. Razonablemente, el grueso
del texto versa sobre los acontecimientos que se produjeron entre 1990 (año internacionalmente admitido como
origen del PGH) y 2000 (en que Venter y Collins anunciaron conjuntamente las primeras conclusiones). Aún así, la
narración de la historia del PGH comienza con la exposición del descubrimiento de la estructura del ADN por parte
de Watson y Crick en 195326. Davies también recorre el curso de la Biología molecular y la Biotecnología en la
segunda mitad del siglo XX, pero para ello sólo necesita regresar hasta sus orígenes, sin necesidad de considerar sus
antecedentes, como ocurría en las obras anteriores. Aunque la decisión no se argumenta, la adopción de un estilo
asistemático y ágil permite al lector apreciar la continuidad de instituciones, científicos y referencias: en dos retazos
del mismo capítulo encontramos a James Watson proponiendo una estructura para el ADN, y siendo nombrado
décadas después primer director del PGH27.
18
Renato Dulbecco, Los genes y nuestro futuro. La apuesta del Proyecto Genoma, Alianza, Madrid, 1999.
Víd. Dulbecco, Op. Cít., pág. 14.
Víd. Dulbecco, Op. Cít., pág. 20.
21
«El Proyecto Genoma es todavía muy joven. Lo puso en marcha en 1986 un breve artículo mío publicado en Science, una de las revistas de
más difusión del mundo centífico. Aquel artículo era una reflexión: los muchos años transcurridos estudiando el cáncer me habían
convencido, en efecto, de que, para derrotarlo, hay que conocer los genes cuyas alteraciones provocan la malignidad de las células»,
Dulbecco, Op. Cít., pág. 90.
22
Víd. Dulbecco, Op. Cít., págs. 98-99.
23
Víd. Dulbecco, Op. Cít., págs. 94-105.
24
Dulbecco, Op. Cít., «Efectos y significado de las alteraciones génicas», «Enfermedades hereditarias», «Los genes y los tumores»,
«Diagnóstico y prevención de las enfermedades hereditarias», «Finalidades de la intervención génica» y «La terapia génica», pags. 115-201.
25
Dulbecco, Op. Cít., «El individuo y la sociedad frente a los genes», págs. 202-214.
26
Kevin Davies, La conquista del genoma humano. Craig Venter, Francis Collins, James Watson y la historia del mayor descubrimiento
científico de nuestra época, Paidós, Barcelona, 2001, pág. 39.
27
Davies, Op. Cít., «Los caballeros de la doble helice», págs. 27-54.
19
20
28
ENERO
2012
Pablo Infiesta Molleda | Introducción.
Podríamos continuar el análisis comparativo pero, con lo dicho, queda ya ilustrada la segunda conclusión.
Además, los párrafos anteriores sirven para plantear los problemas comunes, a los que aludíamos en un principio: si
las semejanzas entre las distintas obras dibujan el contorno borroso de los materiales asociados a la génesis del
PGH, las diferencias exigen una fundamentación de la selección realizada, frente a otras. Por ejemplo, parece claro,
atendiendo a las semejanzas, que no se puede afrontar el origen del PGH al margen de la historia de la Biología.
Pero, esto asumido, ¿por qué Lee se remonta hasta las técnicas agrícolas de la prehistoria, mientras que Davies
detiene el regreso en el descubrimiento de la doble hélice, y Dulbecco se contenta con una breve alusión a Mendel?
Las razones pueden ser también diversas: desde el enfoque general adoptado, hasta los intereses particulares del
autor, etc. El problema no radica tanto en la selección, siempre discutible, cuanto en la ausencia de justificación y
criterios explícitos. Del mismo modo, tampoco se argumenta la conexión de los distintos contenidos con el PGH, ni
sus relaciones mutuas, salvo en casos muy puntuales y de forma insuficiente. Recordemos que Lee se refería a la
necesidad de conocer la trama de la Biología en general y la Genética en particular, para poder comprender el PGH.
Así, la pertinencia de los contenidos vendría dada por su carácter de condiciones previas de inteligibilidad de lo que
se pretende explicar. Sin saber lo que son los genes o el ADN, el lector, al que se supone profano dada la
orientación divulgativa de la obra, no podría entender la secuenciación del genoma. Ahora bien, la reducción de la
cuestión al plano retórico y pedagógico no supone una solución: pues, si efectivamente hay que familiarizarse con
el concepto de ADN para entender el PGH, será porque existe alguna relación material, en el plano ontológico,
entre el ADN y el PGH. Siendo así, habrá que determinar cuál es la naturaleza de esa conexión; y si es la misma
que se pueda establecer, por ejemplo, entre las prácticas de selección artificial en agricultura y el mismo PGH, dado
que aquéllas también se tienen en cuenta.
En estas cuestiones intervienen un conjunto de presupuestos acerca de lo que es la ciencia, la técnica, los
descubrimientos, las realidades sociales, etc. Presupuestos que todos los autores considerados ejercitan (sean o no
conscientes del ellos) cuando seleccionan, combinan y modulan los materiales de sus obras28, pero que ninguno
representa. Todos estos supuestos desbordan el marco de cualquier disciplina científica, aunque no por ello se sitúan
al margen de la racionalidad, cayendo del lado de los prejuicios infundados. Son, en suma, principios filosóficos,
que será necesario poner en solfa para afrontar los problemas señalados.
Siendo así, debemos comenzar la rectificación de los tratamientos habituales del objeto de nuestro estudio
declarando las coordenadas filosóficas propias, que se corresponden, en gran medida, con las del materialismo
filosófico elaborado por Gustavo Bueno y sus colaboradores. La elección nada tiene de dogmática: sólo desde un
sistema filosófico se puede ejercer aquí la racionalidad crítica. Su justificación no puede ser apriorística; serán los
resultados del trabajo los que peritan dictar sentencia sobre la fertilidad de las tesis utilizadas.
29
28
Lo cual no implica que sean determinantes únicos, como ya señalamos anteriormente a propósito de los intereses subjetivos.
ENERO
2012
Introducción | Pablo Infiesta Molleda
2. Cuestiones metodológicas.
Aplicando la teoría materialista, proponemos una metodología cuya estrategia principal consiste en la
identificación de las partes que intervienen en la génesis del PGH, dando razón de su configuración y conexión en
el proceso de constitución de la totalidad de referencia. Estas partes no son homogéneas, como ya hemos tenido
oportunidad de constatar. Precisamente, uno de los motivos de la oscuridad y confusión de los tratados anteriores
consiste en la indistinción entre las partes consideradas, en relación al todo. Será necesario, por tanto, realizar una
clasificación sistemática donde se determinen distintas figuras, a las que poder adscribir las realidades estudiadas.
Dicha clasificación y, en general, la metodología que se ofrece a continuación, no tienen pretensión de validez más
allá de su aplicación en el marco del presente trabajo.
Partimos de la teoría materialista acerca de las relaciones entre el «mundo precursor» y la ciencia que en él
se construye. Desde el materialismo filosófico, las ciencias se consideran «instituciones culturales, históricamente
constituidas»29. La ciencia no será un conocimiento puro de orden espiritual, sino una construcción material
resultado de las operaciones de los sujetos corpóreos sobre distintas partes del mundo, entre las cuales pueden
llegar a establecerse relaciones necesarias. Del mismo modo, los objetos sobre los cuales se llevan a cabo las
operaciones tampoco son hechos puros, sino fenómenos previamente conformados. Además, la actividad científica
exige un entramado institucional, económico y productivo para su realización. Por tanto, la ciencia supone un
mundo precursor, organizado culturalmente, a partir del cual se constituye. Pues los sujetos, las técnicas y
tecnologías implicadas en los procesos operatorios, los fenómenos, o las instituciones, están dados, configurados y
estructurados en un contexto social y cultural determinado30. Así, los sujetos operatorios responsables de las
construcciones científicas aparecen envueltos por un conjunto de realidades heterogéneas, que condicionan su
práctica. Las configuraciones del mundo precursor se clasifican tomando como criterio las relaciones que
mantienen con los sujetos humanos. De acuerdo con la teoría del Espacio Antropológico, central en la Antropología
del materialismo filosófico, podemos distinguir tres tipos de relaciones entre los sujetos humanos y las realidades
circundantes: en primer lugar, las relaciones del hombre consigo mismo, entendido «como una denotación de
realidades múltiples y heterogéneas (los individuos egipcios o los celtas, las instituciones chinas o las escitas)»31,
ordenadas en el eje circular. Los hombres se relacionan, también, con entidades pertenecientes a lo que
habitualmente se denomina «Naturaleza», entidades físicas o biológicas carentes «de todo género de inteligencia
(aunque tengan estructura, organización, e incluso, al menos desde un punto de vista descriptivo, teleología)»,
ubicadas en un eje radial. El materialismo filosófico postula, además, un eje angular que comprende las relaciones
entre los hombres y entidades no humanas dotadas de inteligencia y voluntad, los númenes32, que «pueden ser
30
ENERO
2012
29
Gustavo Bueno, Teoría del Cierre Categorial, Vol. I, Pentalfa, Oviedo, 1991, pág. 97.
Víd. Bueno, Op. Cít., págs. 98, 119-121, 215-219, 296-299.
Gustavo Bueno, El sentido de la vida. Lectura 2. Sobre el concepto de «Espacio Antropológico», Pentalfa, Oviedo, 1996, pág. 93.
32
La filosofía de la religión del materialismo filosófico considera que su génesis radica en la religación del hombre con ciertos animales
animales, entendida como «una relación originaria práctica (política, no metafísica)». Por ello, las configuraciones religiosas se ubican en el
eje angular, aunque se produzcan intersecciones con los ejes circular y radial en su desarrollo. Víd. Gustavo Bueno, Op. Cít., pág. 97; y El
Animal Divino, 2ª edición, Pentalfa, Oviedo, 1996, págs. 229-232.
30
31
Pablo Infiesta Molleda | Introducción.
identificados con los animales, al menos con ciertos animales teriomorfos»33.
En resumen, los sujetos operatorios «sólo actúan (en sus ciencias respectivas) en cuanto están inmersos
[…] en un medio social dado, en un eje circular coordinado con un mundo (radial y angular)»34. Esta prioridad de
los otros, del contexto social para las tareas gnoseológicas, no es característica exclusiva del materialismo, sino que
ha sido reconocido por gran parte de las corrientes filosófícas actuales, y en particular por las de corte
fenomenológico a través de la caracterización del ser humano como un ser-con, un Mit-sein. Así, entre las
configuraciones del mundo precursor «hay que contar, en primer lugar, las propias configuraciones sociales, en
sentido estricto (circulares), como puedan serlo las estructuras políticas, de clase, familiares, de grupo,
ceremoniales, &c., que llamaremos «sociofactos». Pero en el «mundo precursor» hay también configuraciones
radiales; estas configuraciones, o bien son «morfologías fenoménicas» que pueden considerarse como fragmentos
individualizados del mundo cosmológico («bóveda celeste», «Luna», «mar»), que llamaremos «trazos», o bien son
configuraciones propias del mundo tecnológico, que lamamos «artefactos» (hachas, tejidos, máquinas). También en
el mundo heredado hay configuraciones angulares (religiosas, mitológicas)»35, que el materialismo filosófico
insiste en despojar de toda connotación espiritualista, por un lado, pero también de su adscripción a meras
nebulosas ideológicas asociadas a intereses circulares, por otro. Así pues, para el materialismo filosófico las
configuraciones angulares forman parte del mundo precursor de una manera esencial y constitutiva, no accidental,
ni derivada.
Aunque el esbozo36 precedente haya sido elaborado a propósito de la ciencia, tiene la potencialidad de
discriminar las configuraciones constitutivas del estado del mundo precursor a partir del cual se construye cualquier
otro resultado de la actividad humana, y por tanto resulta extrapolable al análisis de los procesos de constitución de
otras formaciones cualesquiera37. En este caso, estudiaremos la génesis del PGH en cuanto figura institucional
determinada, dada la imposibilidad de restringirse a sus componentes estrictamente científicos. La aplicación de la
teoría al objeto de nuestro estudio pide un desarrollo capaz de aumentar su grado de precisión y sistematicidad:
sociofactos, trazos, artefactos y mitos comprenden a su vez configuraciones diversas que pueden ser distinguidas
críticamente y organizadas en una clasificación más potente.
Los sociofactos, identificados con los contenidos del eje circular, constituyen un todo complejo, por decirlo
con Tylor, que no se reduce a las realidades inventariadas más arriba. Pues el eje circular «incorpora todo tipo de
relaciones que se constituyen en la inmanencia de lo humano, de las relaciones de «lo humano» -vasijas,
ceremonias, ciudades- con «lo humano», o, más en particular, de las relaciones de los hombres con los mismos
33
Bueno, Op. Cít., pág. 97.
Gustavo Bueno, Teoría del Cierre Categorial, Vol. I, Pentalfa, Oviedo, 1991, pág. 298.
Bueno, Op. Cít., pág. 299.
36
En el párrafo anterior se reproduce literalmente la formulación completa de la teoría, para que pueda observarse lo escueto del planteamiento.
37
La hipótesis no es propia: en la Historia de la Filosofía coordinada por Alberto Hidalgo y Román García, se exponen las configuraciones del
mundo precursor de la filosofía griega utilizando esta teoría. Víd. Alberto Hidalgo y Román García Fernández (Eds.), Historia de la
filosofía, Eikasía, Oviedo, 2005, págs. 13-20.
34
35
31
ENERO
2012
Introducción | Pablo Infiesta Molleda
hombres»38. A un determinado nivel de análisis, resulta demasiado genérico aglutinar bajo una misma rúbrica
realidades tan diversas. Cabe solventar la cuestión acudiendo, coyunturalmente, a distinciones tomadas de otras
teorías filosóficas o científicas (sociológicas, etc.) cuando resulte necesario. Pero, en este caso, habría que
demostrar la compatibilidad de las teorías que tratan de solaparse acríticamente, incorporándolas de algún modo al
propio sistema de referencia, o asumir el riesgo de incurrir en inconsistencia o contradicción. La solución
«nominalista», consistente en considerar cada individualidad integrada en el ámbito del eje circular como
esencialmente distinta del resto, tampoco resulta satisfactoria, porque las distintas configuraciones se nos dibujan
siempre como clases (dadas a distintas escalas) que serían establecidas y agrupadas en cada caso arbitrariamente;
además, no parece razonable ignorar las estrechas semejanzas existentes entre, pongamos por caso, una vasija y un
plato, respecto de un partido de fútbol o un centro educativo. Consideramos, no obstante, que el materialismo
filosófico goza de un repertorio conceptual lo suficientemente potente como para responder al requerimiento desde
su inmanencia. Los sociofactos, atributivamente39 considerados, están dados en el marco de esferas culturales
determinadas, y se identifican con ciertos rasgos de cada esfera cultural (las ánforas atenienses, las instituciones
educativas españolas, o la liga de fútbol inglesa).
Por ello, cabe utilizar la clasificación de contenidos de la cultura morfodinámica40, elaborada por Gustavo
Bueno en El mito de la cultura, para organizar las distintas configuraciones circulares: manteniendo como criterio
de clasificación al sujeto corpóreo, los contenidos pueden referirse en primer lugar a las subjetualidades corpóreas
mismas, en tanto que realizan operaciones. Son, precisamente, las acciones y operaciones realizadas por los sujetos,
como resultado de un aprendizaje, las que se consideran contenidos de cultura subjetual o intrasomática: «La
cultura subjetual es necesariamente, por estructura, intrasomática, es decir, implica una modificación o un
moldeamiento […] que el cuerpo adquiere tras un aprendizaje. Intrasomático no significa sólo, por tanto, «interior a
la piel», sino simplemente algo que va referido al cuerpo operatorio […] La cultura intrasomática o subjetual no es,
por tanto, cultura subjetiva íntima, en el sentido de invisible y sólo experimentable (emic) por el sujeto que «la
incorpora», puesto que también un danzante, un gimnasta o un «culturista» son sujetos de cultura intrasomática,
subjetual»41. En segundo lugar, los contenidos pueden referirse a las relaciones entre distintos sujetos corpóreos,
cristalizadas en instituciones, ceremonias, costumbres, etc. en el marco de una colectividad social, dando lugar a la
cultura intersomática. Por último, la cultura extrasomática o material está constituida por los contenidos culturales
referidos a los objetos materiales exteriores a los sujetos corpóreos: carreteras, libros, o las vasijas a las que
venimos aludiendo42. De la aplicación de la clasificación de las capas de la cultura a las formaciones circulares
38
Gustavo Bueno, El sentido de la vida. Lectura 2. Sobre el concepto de «Espacio Antropológico», Pentalfa, Oviedo, 1996, pág. 98.
Introducimos aquí la distinción entre «totalidades atributivas» (T) y «totalidades distributivas» (T), fundamental en la teoría del los todos y las
partes del materialismo filosófico, ejercitada decisivamente en el marco del presente trabajo. Las totalidades atributivas son aquellas cuyas
partes mantienen entre sí relaciones de contigüidad (sinalógicas), siendo así que dichas partes están referidas las unas a las otras. En las
totalidades distributivas, las partes mantienen relaciones de semejanza (isológicas), participando en el todo de forma independiente las unas
de las otras. La distinción no es absoluta, sino relativa a las partes tomadas como referencia: el círculo, respecto de los círculos empíricos, es
una totalidad distributiva; mientras que, respecto de los semicírculos que se obtienen trazando su diagonal, es una totalidad atributiva.
40
Entendiendo por ello «la unidad del sistema constituido por la concatenación causal circular de un conjunto de contenidos culturales
subjetuales, sociales y materiales, en tanto que una tal concatenación da lugar a un equilibrio dinámico de las formas a escala operatoria
dada». Gustavo Bueno, El mito de la cultura, 2º ed., Prensa Ibérica, Barcelona, 2004, pág. 254.
41
Gustavo Bueno, El mito de la cultura, 2º ed., Prensa Ibérica, Barcelona, 2004, pág. 51. Subrayado nuestro.
42
Víd. Bueno, Op. Cít., págs. 182, 254-255.
39
32
ENERO
2012
Pablo Infiesta Molleda | Introducción.
resultan las siguientes configuraciones del mundo precursor:
a) La cultura intrasomática remite a los sujetos corpóreos en cuanto ejecutan secuencias pautadas de
operaciones adquiridas mediante el aprendizaje. Así, el gimnasta, el empresario, o el biólogo molecular,
serán actores, configuraciones subjetuales caracterizadas en función de su capacidad de realizar acciones u
operaciones determinadas, consideradas relevantes en un contexto dado. La noción de actor es de uso
común en la Sociología de la ciencia contemporánea43, aunque aquí aparezca incorporada a las
coordenadas del propio sistema.
b) Las configuraciones propias de la capa intersomática son, como ya hemos avanzado, las instituciones.
Frente a la concepción idealista y subjetivista de las instituciones como ficciones asumidas por un grupo
social, las realidades institucionales se plantean como relaciones materiales entre sujetos a través de
normas.
c) Los contenidos de cultura extrasomática que intersectan con el eje circular son los materiales,
denominación que denota a todas aquéllas configuraciones objetuales resultantes de la producción humana.
Quedan así recogidos los términos característicos de la Sociología de la ciencia de orientación cuantitativa,
en la tradición iniciada por Derek de Solla Price.
Capas de la Cultura
Cultura Intrasomática
Cultura Intersomática
Cultura Extrasomática
Eje circular
Actores
Instituciones
Materiales
Antes de continuar, es necesario advertir que las configuraciones distinguidas no deben interpretarse en
sentido substancialista. Pues las capas de la cultura se relacionan entre sí diaméricamente, esto es, a través de sus
partes respectivas44. Por ejemplo, la cultura intrasomática consta de partes que se relacionan entre sí a través de
contenidos de la cultura intersomática y extrasomática. Aludiendo a las configuraciones, un actor, pongamos por
caso un violinista, sólo puede establecer los nexos entre las partes de su actividad interpretativa a través de
instituciones (una escuela de música o un conservatorio) y materiales (el violín y el arco, o las partituras, que
establecen la secuencia misma de operaciones a realizar)45.
El problema de la excesiva generalidad de los sociofactos afecta también a trazos, artefactos y mitos. No
insistiremos más en las razones ni en la estrategia de resolución, genéricas a los contenidos de todos los ejes.
43
Víd. Michel Callon, «Cuatro modelos de dinámica de la ciencia», en Andoni Ibarra y José A. López Cerezo [Eds.], Desafíos y tensiones
actuales en Ciencia, Tecnología y Sociedad, Bliblioteca Nueva, Madrid, 2001, págs. 27-69.
44
Víd. Gustavo Bueno, «Conceptos conjugados», El Basilisco, 1ª época, nº 1, Pentalfa, Oviedo, 1978, págs. 88-92.
45
Víd. Gustavo Bueno, «La Etología como ciencia de la cultura», El Basilisco, 2ª época, nº 9, Pentalfa, Oviedo, 1991, págs. 28-29.
33
ENERO
2012
Introducción | Pablo Infiesta Molleda
En el caso de las configuraciones del eje radial, no obstante, tenemos que afrontar en primer lugar una cuestión
específica. Pues, en este caso, se dibujan dos clases distintas, los artefactos y los trazos, sin exponer el motivo de la
duplicación. En el marco de la metodología que estamos construyendo, para dar cuenta de la cuestión debemos
introducir nuevos conceptos: en la teoría del espacio antropológico, los ejes están atravesados por dos estratos,
denominados φ y π (iniciales de las palabras griegas physis y pneuma, respectivamente). Las determinaciones
φ remiten a las características tradicionalmente consideradas como «naturales», mientras que las determinaciones
π hacen referencia a los caracteres «espirituales»46: tomando el ejemplo paleoantropológico ofrecido por Gustavo
Bueno, los restos óseos pertenecen al estrato φ, y las herramientas líticas al estrato π47. La distinción ente artefactos
y trazos aparece como resultado de la aplicación de los dos estratos del espacio antropológico a los contenidos del
eje
radial,
pues
los
trazos
son
configuraciones
φ,
y
los
artefactos
configuraciones
πcomosepuedecomprobarenelejemploanterior. Si no se introdujese el criterio de los estratos, los artefactos podrían
quedar opacados por los trazos, reducidos a su condición de realidades físicas, exclusivamente «naturales».
Además, en el contexto de la Gnoseología y la Sociología de la ciencia es necesario distinguir entre las
configuraciones radiales no operatorias, y las configuraciones dotadas de capacidad operatoria, como lo son, en
general, todos aquéllos instrumentos que transforman objetos.
Las entidades radiales se relacionan con el sujeto en cuanto objetos realmente existentes, como
materialidades efectivamente dadas y organizadas en un mundo que envuelve al sujeto. Por ello, las configuraciones
distinguidas pueden ser clasificadas mediante la teoría de los Tres Géneros de Materialidad. El materialismo
filosófico, en su vertiente ontológico-especial, distingue tres planos en los cuales se ordenan las materialidades
mundanas: el Primer Género de Materialidad (M1), en el que aparecen las entidades «que se nos ofrecen como
constitutivos del mundo físico exterior; […] todas aquellas entidades, tales como campos electromagnéticos,
explosiones nucleares, edificios o satélites artificiales que giran»48, consideradas en su condición de realidades
corpóreas. El Segundo Género de Materialidad (M2), que comprende «los procesos reales dados en el mundo como
“interioridad”»49, es decir, como realidades subjetuales, tanto propias como ajenas. Y, por último, el Tercer Género
de Materialidad (M3), que remite a objetos abstractos «tales como el espacio proyectivo reglado, las rectas paralelas
[…] conjunto infinito de números primos, sistema de los cinco poliedros regulares, “Langue” de Saussure,
relaciones morales contenidas en el imperativo categórico»50, entendidas como realidades esenciales. A efectos de
la presente clasificación, es importante tener en cuenta también la modulación de a teoría que Gustavo Bueno
realizó en su opúsculo Materia: «La materia determinada se nos dará, bien como materia determinada del primer
género (por ejemplo, como una multiplicidad de corpúsculos codeterminados), o bien como una materia de segundo
género (una multiplicidad de operaciones interconectadas), o bien como una materia de tercer género (por ejemplo,
34
ENERO
2012
46
El entrecomillado no es gratuito. Precisamente, la utilización de símbolos abstractos obedece a la pretensión explícita de evitar la carga
metafísica históricamente adquirida por las Ideas «Naturaleza» y «Espíritu».
Víd. Gustavo Bueno, El sentido de la vida. Lectura 2. Sobre el concepto de «Espacio Antropológico», Pentalfa, Oviedo, 1996, págs. 102-108.
48
Gustavo Bueno, Ensayos Materialistas, Taurus, Madrid, 1972, pág. 292.
49
Bueno, Op. Cit.. pág. 293.
50
Bueno, Op. Cit.. pág. 302.
47
Pablo Infiesta Molleda | Introducción.
una multiplicidad de razones dobles constituyendo un sistema)»51 Así, distinguimos las siguientes configuraciones
del eje radial, en sus vertientes φ y π:
a) φ: Las realidades primogenéricas se corresponden con los cuerpos que constituyen el mundo precursor,
como objetos fisicalistas. Aunque en el planteamiento de partida los trazos sean caracterizados como
fenómenos, es necesario destacar su componente fisicalista, como condición de posibilidad de las
operaciones quirúrgicas inherentes a la elaboración científica (y, en general, a cualquier tipo de
construcción). Dicho de otro modo: «el mar», o «la Luna», como realidades existenciales del mundo en el
que los sujetos están inmersos, no se reducen a su condición de fenómenos dados a la percepción con los
que el sujeto establece relaciones apotéticas (a distancia), sino que tienen una dimensión corpórea,
fisicalista, que supone el establecimiento de relaciones paratéticas (por contacto).
π: En el al ámbito de los artefactos, en este primer sector se dibujan los aparatos, que denotan todas
aquéllas entidades corpóreas de carácter artefactual52.
b) φ: En el plano segundogenérico se dibujan las morfologías fenoménicas, esto es, los objetos en tanto se dan
en función de los sujetos operatorios, configurándose «como objetos apotéticos sobre los cuales las
operaciones de aproximar y separar adquieren sentido»53.
π: Los artefactos vinculados con el segundo género de materialidad son los operadores. La capacidad
operatoria no es exclusiva de los sujetos humanos, ni siquiera de los organismos vivos, pues «un
microscopio o un telescopio […] son operadores que transforman conjuntos de fenómenos dados en otros
conjuntos de fenómenos»54.
c) φ : Las configuraciones radiales terciogenéricas son las estructuras, en cuanto sistemas abstractos de
relaciones necesarias entre objetos, establecidos por las ciencias, que constituyen también contenidos
ineludibles del mundo que envuelve a los sujetos. Pues, de acuerdo con la Teoría del Cierre Categorial,
«las sucesivas conformaciones del mundo, que van teniendo lugar por obra de las ciencias en el transcurso
de los siglos –y que son por tanto […] más una invención del mundo que un descubrimiento de sus líneas
ocultas- constituyen parte de la misma variación o transformación (más o menos profunda y extensa) del
Mundo»55.
π: Correlativamente, en el ámbito de los artefactos encontraremos los relatores, configuraciones
tecnológicas capaces de dar lugar relaciones abstractas, como puedan ser la balanza o el espectrógrafo56.
51
Gustavo Bueno, Materia, Pentalfa, Oviedo, 1990, pág. 32.
Esta denominación se utiliza, en un sentido semejante, en la filosofía de la ciencia de Ian Hacking, que mantiene importantes conexiones con
la Teoría del Cierre Categorial. Víd. Ian Hacking, «La autojustificación de las ciencias de laboratorio», en Adelaida Ambrogi, Filosofía de la
Ciencia: el Giro Naturalista. Universitat de les Illes Balears, Servei de Publicacions i Intercanvi Cientific, Palma de Mallorca, 1999.
53
Gustavo Bueno, Teoría del Cierre Categorial, Vol. I, Pentalfa, Oviedo, 1991, pág. 121.
54
Bueno, Op. Cit., pág. 119.
55
Gustavo Bueno, Teoría del Cierre Categorial, Vol. III, Pentalfa, Oviedo, 1993, pág. 133. Subrayado nuestro.
56
Víd. Gustavo Bueno, Teoría del Cierre Categorial, Vol. I, Pentalfa, Oviedo, 1991, pág. 120.
52
35
ENERO
2012
Introducción | Pablo Infiesta Molleda
Géneros de
Materialidad
Eje radial
φ
π
M1
Cuerpos
Aparatos
M2
Morfologías
Operadores
M3
Estructuras
Relatores
Como en el caso anterior, las configuraciones radiales tampoco se consideran en sentido substancial. Los
géneros de materialidad utilizados como criterio no son compartimentos estanco cerrados, como los «mundos» de la
ontología de Karl Popper: una misma entidad existencial puede adscribirse a más de un genero de materialidad a la
vez. Por ejemplo, una silla de oficina es, evidentemente, una realidad fisicalista; pero también una morfología
fenoménica, y un sistema de relaciones geométricas57. Ello supone la adopción, de nuevo, de un enfoque diamérico:
continuando con el ejemplo, la silla, como estructura terciogenérica, es el resultado del establecimiento de
relaciones entre partes corpóreas dadas como fenómenos a los sujetos operatorios que establecen los nexos.
Antes de exponer las configuraciones del eje angular, debemos aludir a la filosofía de la religión del
materialismo filosófico. En El Animal Divino, Gustavo Bueno establece que la religión tiene su origen en la
relación (angular) de los sujetos humanos con los animales numinosos58. Dado que el numen tiene una referencia
realmente existente, a saber, el animal, y que la relación que el sujeto establece con el animal no es ilusoria, sino
también real, práctica e incluso constitutiva de su humanidad misma, la religión «originaria» es una religión
verdadera59. Así, «los númenes, y lo numinoso de los númenes, son categorías específicas de la vida religiosa. Esto
significa que todo aquello que pueda considerarse como dado dentro del marco de las relaciones entre los hombres
y los númenes […] ha de levar el sello de la religiosidad»60. Pero la religión no se reduce a su núcleo, que se
despliega en un curso en el cual se van incorporando distintos materiales a su cuerpo. Dentro del curso de la
religión se distinguen tres fases o estadios «que denominamos respectivamente: estadio de la religión primaria (o
nuclear), estadio de la religión secundaria (o mitológica) y estadio de la religión terciaria (o metafísica)»61. La
religión primaria, que se extendería aproximadamente «desde las últimas etapas del Musteriense hasta las últimas
etapas [...] del Magdaleniense»62, se caracteriza por «la relación simbólica del hombre con el animal numinoso, en
57
Víd. Gustavo Bueno, Ensayos Materialistas, Taurus, Madrid, 1972, págs. 293-294, 324; y Teoría del Cierre Categorial, Vol. V, Pentalfa,
Oviedo, 1993, pág. 139.
La denotación de esta rúbrica no abarca la totalidad de las especies zoológicas, sino que se circunscribe a los animales con los cuales el
hombre establece relaciones prácticas de acecho, amenaza, engaño, lucha, temor, odio, recelo, protección, adoración, etc. De este modo, «lo
numinoso se presenta sólo en algunos invertebrados (sobre todo insectos […]) y, sobre todo, en vertebrados, tanto en la clase reptiles
(serpientes principalmente) como en la clase de las aves o de los mamíferos «mastozoos» (osos, renos, búfalos, bueyes, chacales, mandriles,
leones…)». Gustavo Bueno, El Animal Divino, 2º edición, Pentalfa, Oviedo, 1996, págs. 209-210.
59
Víd. Bueno, Op. Cit., págs. 152-154, 178-187.
60
Bueno, Op. Cit., pág. 152.
61
Bueno, Op. Cit., pág. 235.
62
Bueno, Op. Cit., pág. 236.
58
36
ENERO
2012
Pablo Infiesta Molleda | Introducción.
cuanto referencia real del sentido del símbolo sagrado»63, presente en manifestaciones culturales como las pinturas
rupestres. La religión secundaria supone el cambio de referencias de los númenes, que se identifican ahora con
entidades imaginarias, muchas veces antropomórficas, que podemos denominar dioses, tal y como aparecen en el
contexto de las religiones animistas y politeístas64. La fase terciaria «podría entenderse como un período
esencialmente crítico de la mitología secundaria, en tanto tiende a reducir y simplificar el delirio politeísta en la
dirección del monoteísmo metafísico»65, realizando una sistematización racional de carácter metafísico mediante la
Teología de las «religiones del libro» (cristianismo, judaísmo e islamismo); con lo cual «podríamos caracterizar al
período terciario de las religiones como su período teológico –frente al período mitológico»66. Dado que los
contenidos angulares se constituyen en el curso de la religión, las fases distinguidas pueden servir de criterio para
determinar las configuraciones del mundo precursor dadas en el eje angular, suponiendo que la religiosidad
primaria y secundaria siguen existiendo, bajo ciertos aspectos, en un contexto terciario67:
a) La religiosidad primaria se dice siempre por relación a los númenes realmente existentes, entendidos como
sujetos dotados de inteligencia y voluntad distintos del hombre, e identificados con los animales68. No es
necesario destacar la importancia que los númenes, como configuraciones dadas en el mundo precursor,
tienen para ciencias como la Etología o la Antropología Cultural; y, en general, para diversas prácticas
humanas como la caza, e incluso para las relaciones interculturales.
b) Los mitos, como entramados narrativos imaginarios en los cuales se articulan dioses, genios, démones,
espíritus y otras formaciones características de la religiosidad secundaria, serían también configuraciones
del mundo precursor. En nuestro presente, los contenidos principales de los mitos, así entendidos, no son
ya tanto los dioses de las religiones politeístas, cuanto los extraterrestres y los «metahumanos» o «posthumanos», temas recurrentes de los géneros de ciencia-ficción y fantasía, el cómic de superhéroes, o las
especulaciones pseudocientíficas. Menoscabar su importancia supondría ignorar componentes relevantes
de prácticas tecnocientíficas como los intentos de establecer contacto con vida inteligente alienígena69, o la
propia ingeniería genética, en cuanto lleva incorporada la posibilidad de rebasar las determinaciones
63
Bueno, Op. Cit., pág. 298.
Víd. Bueno, Op. Cit., pág. 265.
65
Bueno, Op. Cit., pág. 280.
66
Bueno, Op. Cit., pág. 278.
67
Por ejemplo, Alfonso Fernández Tresguerres caracteriza a la corrida de toros como una ceremonia angular, «la cual ha de ser vista […] como
una refluencia de antiguas formas de religiosidad primaria y secundaria que perviven (como juego) en el seno de las religiones terciarias».
Alfonso Fernández Tresguerres, Los dioses olvidados. Caza, toros y filosofía de la religión, Pentalfa, Oviedo, 1993, pág. 156.
68
Y también con otros hombres «en la medida en que estos manifiestan propiedades animales», es decir, en tanto que son considerados como
«bestias» o como «superanimales» por los miembros de una esfera cultural determinado. Un ejemplo del primer caso sería la posición de
Ginés de Sepúlveda respecto a los indios americanos, considerados «bárbaros, incultos e inhumanos». La segunda posibilidad, aunque
entreverada en este caso con aspectos de religiosidad secundaria, puede ser ilustrada con la identificación del capitán James Cook con el
dios Erono Lono por parte de los nativos hawaianos; pues, aunque Cook-Lono fuera un dios, y por tanto no humano (emic), era también,
desde luego, un sujeto corpóreo con el cual se podían establecer relaciones prácticas: desde la adoración y la solicitud de protección, al
asesinato y el tratamiento ritual de sus restos mortales. Víd. Gustavo Bueno, Op. Cit., págs. 213-215. Juan Ginés de Sepúlveda, Demócrates
segundo o de las justas causas de la guerra contra los Indios, CSIC, Instituto Francisco de Vitoria, Madrid, 1984. Marshall Sahlins, «La
apoteosis del capitán Cook», en Michel Izard y Pierre Smith, La función simbólica, Júcar, Madrid, 1989, págs. 321-353.
69
Por ejemplo, el Proyecto SETI. Víd. http://seti.astroseti.org/setiathome/que.php
64
37
ENERO
2012
Introducción | Pablo Infiesta Molleda
biológicas del genero humano70. Asimismo, los mitos vertebran en gran medida religiones de fuerte
contenido secundario, como los neopaganismos, y sectas de gran predicamento (el Movimiento raeliano, la
Cienciología, etc.).
c) Las configuraciones de la religiosidad terciaria serán las doctrinas, en cuanto formulaciones objetivas de
las creencias propias de las religiones monoteístas, que necesitan del concurso de la Teología dogmática
para su elaboración y fundamentación, dado el carácter abstracto de sus referentes (el Dios cristiano, Alá,
etc.), y su inserción en sistemas doctrinales o «cuerpos de doctrina»71. Las doctrinas orientan y limitan la
praxis de los sujetos humanos, pudiendo incluso plasmarse en normas o leyes de una sociedad
determinada, como es bien sabido.
Fases de la Religión
Religiosidad Primaria
Religiosidad Secundaria
Religiosidad Terciaria
Eje Angular
Númenes
Mitos
Doctrinas
Dado que las formaciones de la religiosidad primaria y secundaria están integradas en la fase de la
religiosidad terciaria, y que una misma realidad existencial puede reunir aspectos característicos de cada uno de los
períodos, es necesario advertir, una vez más, contra las posibles interpretaciones substancialistas de las
configuraciones del mundo precursor distinguidas, en este caso, en el eje angular. Por ejemplo, la purísima
concepción de Jesús en el seno de la Virgen María por obra del Espíritu Santo es una doctrina de la Iglesia Católica,
pero, a su vez, adquiere el formato de un mito en el que intervienen númenes (la paloma, o el propio Jesucristo en
su doble condición de Dios y hombre).
Las configuraciones del mundo precursor, distinguidas y organizadas mediante los criterios expuestos en
las páginas anteriores, quedarían clasificadas tal y como se recoge en la siguiente tabla:
Configuraciones del Mundo Precursor
Espacio Antropológico
Criterios relativos a
cada eje72
38
ENERO
2012
70
Eje Circular
Eje Radial
Eje Angular
a)
Actores
φ
Cuerpos
π
Aparatos
Númenes
b)
Instituciones
Morfologías
Operadores
Mitos
c)
Materiales
Estructuras
Relatores
Doctrinas
Víd. Lee M. Silver, «Consecuencias para el futuro de las innovaciones en biotecnología», Sistema, nº 196, Fundación Sistema, Madrid, 2007,
págs. 3-16.
71
Víd. Gustavo Bueno, Cuestiones cuodlibetales sobre Dios y la religión, Mondadori, Madrid, 1989, págs. 88-104.
72
Las capas de la cultura respecto del eje circular, los géneros de materialidad respecto del eje radial, y las fases de la religión respecto del eje
angular.
Pablo Infiesta Molleda | Introducción.
Concluimos esta parte analítica de la metodología propuesta haciendo referencia al carácter abstracto y
esencial de las configuraciones distinguidas, ya apuntada en las argumentaciones anteriores que sirvieron de
precaución crítica contra el substancialismo. Desde una perspectiva distributiva, un contenido del mundo precursor
puede enclasarse en más de un eje y en más de una configuración: un telescopio es un operador, capaz de generar
fenómenos nuevos a partir de objetos dados (por ejemplo, los cráteres de la Luna, como resultado de observar a
través del telescopio un fenómeno dado previamente, a saber, el «disco lunar» con trazados irregulares en la
superficie); pero también es un aparato, una realidad fisicalista de tipo π, y un cuerpo, si se le considera desde la
perspectiva φ (como entidad físico-química, haciendo abstracción de su condición tecnológica); asimismo, como
objeto apotético dado a un sujeto cualquiera, es una morfología fenoménica, y en cuanto incorpora un sistema de
relaciones geométricas, ópticas, etc. puede considerarse una estructura; incluso, rebasando los límites del eje radial,
el telescopio es un material, un contenido de la cultura extrasomática. Esto supone que las configuraciones no se
dan inmediatamente, coordinadas de modo biunívoco con entidades existenciales. Así, la propia distinción analítica
exige un desarrollo sintético, con el que mantiene conexiones circulares; pues la determinación de las
configuraciones analíticamente distinguidas dependerá de la inserción de los contenidos del mundo precursor en
marcos sintéticos de carácter procesual. Y ésto porque el mundo precursor es un mundo en marcha, en el cual las
distintas configuraciones se constituyen en cuanto que están engranadas con otras (y desconectadas de unas
terceras) en contextos histórico-culturales que las determinan: el telescopio anteriormente referido se configura
como un operador en el contexto de la constitución de la mecánica celeste, en relación a los fenómenos
astronómicos que transforma (planetas, satélites, estrellas), a las operaciones quirúrgicas de los actores que lo
utilizan (Galileo, Tycho Brahe), a las estructuras esenciales que se construyen mediante su concurso (las órbitas
elípticas de los planetas), etc. Pero un telescopio barroco, ubicado en un museo de historia de la ciencia, sería más
bien un material de la cultura extrasomática del siglo XVII en Occidente.
Por todo ello, para que nuestra metodología resulte operativa, necesitamos introducir nuevas herramientas
conceptuales adecuadas al orden sintético. Partimos aquí del concepto de contexto histórico determinante, tal y
como lo define Alberto Hidalgo: «conjunto de circunstancias y formaciones históricas heterogéneas, pero
mutuamente relacionadas de diversas formas, que confluyen en una época concreta y constituyen in medias res
ámbitos empíricos determinados, en cuyo seno cristalizan sintéticamente figuras institucionales específicas»73.
Como se puede colegir de la definición anterior, el contexto histórico determinante se dice por relación a la figura
institucional determinada «que cristaliza por «confluencia» en su seno, de modo que ésta debe aparecer como
segregada a partir de los componentes localizables analíticamente en aquél»74. Dichos componentes son los factores
o cursos diversos, de cuya convergencia resulta la figura institucional determinada de referencia, siendo así que «el
contexto histórico determinante contiene en su seno todos los factores que la figura específica requiere para su
39
73
74
Alberto Hidalgo, Gnoseología de las ciencias de la organización administrativa. La organización de la ciencia y la ciencia de la organización,
Servicio de publicaciones de la Universidad de Oviedo, Oviedo, 1991, pág. 55.
Hidalgo, Op. Cit., pág. 56.
ENERO
2012
Introducción | Pablo Infiesta Molleda
constitución»75. Ahora bien, la figura institucional determinada no es una resultancia objetiva, fruto de unas
supuestas leyes mecánicas que rigieran los procesos históricos. Semejante concepción atentaría contra los principios
ontológicos, gnoseológicos y antropológicos que venimos ejercitando, por cuanto negaría el concurso activo de los
sujetos operatorios en la producción de la realidad76. Así, el papel del contexto histórico determinante, a grandes
rasgos, «consiste precisamente en posibilitar el conjunto de «operaciones», por cuya acción cristalizan los
entramados estructurales localizados»77. El punto de partida, evidentemente, ha de ser la figura institucional
determinada, a partir de la cual, regresando hacia los factores que la constituyen, será posible reconstruir su
contexto histórico determinante, progresando así hacia la figura de la que se parte, y dando razón de su génesis en
el proceso.
El engranaje entre los conceptos planteados en el párrafo anterior, y las configuraciones distinguidas, viene
dado por la teoría de los todos y las partes: la figura institucional determinada se considera como una totalidad
atributiva cuyas partes constituyentes son las configuraciones del mundo precursor; previamente recortadas,
conformadas y relacionadas en ciertos marcos que identificamos con los cursos del contexto histórico determinante,
de cuya intersección resulta la figura de referencia, siendo así partes determinantes78 suyas. Las partes que
constituyen una figura institucional determinada no se identifican con las configuraciones del mundo precursor en
toda su extensión. Si así fuera, todo estaría relacionado con todo, y por tanto sería ininteligible. Atendiendo al
principio de symploké, ya formulado por Platón en los orígenes de la filosofía académica79, algunas partes deben
estar relacionadas entre sí, pero desconectadas de otras, para que el lógos sea posible. En este sentido, el contexto
histórico determinante aglutina las configuraciones pertinentes, y segrega las demás, delimitando así el entorno de
la figura; lo cual permite cumplir el requisito cartesiano de la distinción (respecto de otras formaciones y
configuraciones del mundo, con las que no debe confundirse). Los límites no son sólo espaciales, sino también
temporales: no cabe un regreso al infinito. Los cursos del contexto, en tanto que en su seno se conforman las
propias configuraciones que constituirán el dintorno80 de la figura, y se establecen sus relaciones mutuas, aportan
claridad a la reconstrucción. Son estas precisiones las que salvan la funcionalidad de la metodología, que, como el
lector ya habrá advertido, es circular: partimos de una totalidad compuesta de partes, que resulta ser también el
punto de llegada. Ahora bien, el círculo no es vicioso porque, en el momento inicial, la totalidad y sus partes
aparecen en estado de confusión, oscuridad y dispersión, mientras que, una vez realizada la reconstrucción, se
alcanza una situación de claridad, distinción y coordinación. Por ello, el punto de partida y la conclusión no son
esencialmente lo mismo.
75
Hidalgo, Op. Cit., pág. 56.
Víd. Gustavo Bueno, Ensayos Materialistas, Taurus, Madrid, 1972, pág. 469-470.
Hidalgo, Op. Cit., pág. 57.
78
Las partes constituyentes son fragmentos que integran la totalidad por agregación, mientras que las partes determinantes son relaciones entre
fragmentos, que conforman la totalidad por intersección. Víd. Gustavo Bueno, Teoría del Cierre Categorial, Vol. III, Pentalfa, Oviedo, 1993,
págs. 81-83; y Vol. V, pág. 221.
79
Víd. Platón, Sofista, 259 b-262 e, en Diálogos V, Gredos, Madrid, págs. 456-466.
80
El dintorno de una figura es el conjunto de las entidades que están comprendidas en ella. El contorno, por su parte, es el conjunto de las
entidades que mantienen con la figura relaciones constitutivas, aunque ésta no las incluya. Víd. Gustavo Bueno, Teoría del Cierre
Categorial, Vol. III, Pentalfa, Oviedo, 1993, págs. 77-79; y Vol. V, págs. 194-195.
76
77
40
ENERO
2012
Pablo Infiesta Molleda | Introducción.
3. Planteamiento general.
Una vez realizadas todas estas consideraciones, quizá un tanto farragosas dado su grado de abstracción,
estamos ya en condiciones de replantear la cuestión de la génesis del PGH rectificando los tratamientos habituales;
lo que supone, además dotar de carne al esqueleto que venimos componiendo, para completar así la exposición de
la metodología con el necesario trámite de su aplicación.
Como ya avanzamos en su momento, el PGH es una figura institucional determinada, cuyos factores
determinantes se pueden detectar siguiendo la estela de sus partes constituyentes. En una primera aproximación, es
evidente que la estructura del ADN, los aparatos de secuenciación, o las instituciones gubernamentales
norteamericanas forman parte ineludible del PGH: sin cualquiera de ellas, la secuenciación del genoma no hubiera
sido posible. Así, será necesario afrontar el análisis de las partes más significativas, si se quiere dar cuenta de la
totalidad. Ahora bien, dichas partes no surgen ex nihilo, sino que están dadas previamente a la puesta en marcha del
Proyecto, como configuraciones del mundo precursor en el que se constituye. Por ello, será necesario regresar
desde el PGH hasta los factores que permitan dar razón de la conformación del ADN, los secuenciadores, las
enzimas de restricción, y en general todas aquéllas partes que aparezcan como significativas en un principio. Un
proceder semejante se impone a cualquier investigación sobre el tema, sean cuales sean su orientación y sus
coordenadas, e independientemente de las intenciones y representaciones del investigador al respecto. Recordemos,
en este sentido, el análisis de las obras que estudiaban la génesis del PGH; pues, en este aspecto, no cabe sino
convenir con la totalidad de los trabajos que aquí se someten a crítica.
Nuestro planteamiento permite también abarcar de forma coherente la pluralidad de ámbitos inherentes al
proceso de constitución del PGH, y consecuentemente a todo intento de abordar su estudio (como ya pudimos
constatar cuando detectábamos contenidos «internos» -científicos- en obras de orientación «externalista», y
contenidos «externos» -sociales- en obras «internalistas»). Pues, como señala Alberto Hidalgo, «el concepto de
«contexto histórico determinante» y su correlativo de «figura institucional determinada» puede servir […] para
aglutinar como factores la perspectiva histórica interna de las ciencias con la perspectiva sociológica externa,
iluminando ambas desde una perspectiva estrictamente gnoseológica»81. En efecto, el contexto histórico
determinante del PGH incluye configuraciones estrictamente científicas (la estructura del ADN), pero también
tecnológicas (los secuenciadores), sociales (el Instituto Nacional de Salud), etc. Así, queda disuelta la dicotomía
interno/externo respecto del estudio de una realidad científica, que será también, siempre, una realidad
institucional82. Ahora bien, frente a las obras consideradas, la metodología propuesta muestra por qué es necesario
abordar una multiplicidad de ámbitos, y rebasar los planteamientos unilaterales: siendo el PGH una totalidad
constituida por distintas partes, pertenecientes a distintos ámbitos, cualquier reconstrucción debe afrontarlos, operar
con ellos, necesariamente. Los motivos no son ya «pedagógicos», o acaso epistemológicos, como parecía suponer
81
82
Hidalgo, Op. Cit., pág. 66.
Sin perjuicio de que, en análisis gnoseológicos de otra índole, quepa distinguir componentes internos y externos al campo de una determinada
ciencia. A éste respecto, Víd. Gustavo Bueno, Teoría del Cierre Categorial, Vol. I, Pentalfa, Oviedo, 1991, págs. 136-137, 219-225.
41
ENERO
2012
Introducción | Pablo Infiesta Molleda
Lee, sino ontológicos y gnoseológicos. De ahí su condición imperativa: lo decisivo no es que el PGH no se entienda
al margen del gen; sino que, sin el gen, no hay secuenciación posible.
Asimismo, las herramientas conceptuales propuestas permiten solucionar los problemas de oscuridad y
confusión detectados en las obras precedentes. En su revisión se hacía patente algo que, de cualquier modo, es una
exigencia lógico-material plasmada en el principio de symploké: no todos los procesos del mundo están
relacionados con el PGH, sino que cualquier examen de la cuestión distingue un repertorio limitado de tópicos
generales. Tampoco aquí pretendemos originalidad: en gran medida, los materiales empíricos recogidos en esta
investigación serán los mismos que aparecen en otros trabajos. Principalmente, porque su relación con el PGH es
indisoluble. Sin embargo, el entorno dibujado en cada caso aparecía como un conjunto borroso, dando lugar a
graves problemas de caracterización, conexión y delimitación, que aumentaban al comparar unas obras con otras y
constatar, más allá de las importantes semejanzas existentes, sus diferencias a este respecto. En nuestros términos,
el problema se reformula del siguiente modo: ¿dónde detener el regressus iniciado desde las partes identificadas en
el PGH? Partiendo del ADN, ¿debemos llegar hasta las primeras experiencias técnicas del hombre con los factores
hereditarios (como hacía Lee), basta con volver a Mendel, o acaso sólo son relevantes las teorías genéticas vigentes
en los años inmediatamente anteriores al inicio del Proyecto? Desde luego, para poder responder hace falta habilitar
algún criterio explícito. En nuestro caso, regresamos hacia los cursos en los cuales se configuran las partes del
PGH, deteniendo el proceso regresivo cuando se pierde la escala a la que aparecen dadas en un principio,
transformándose en otras configuraciones diferentes insertadas en otros contextos. Así, para dar cuenta del genoma
ya no será necesario traer a colación el origen de la agricultura, ni siquiera los trabajos de Mendel. Porque la
configuración de referencia no se identifica con las prácticas agrícolas, ni con las regularidades establecidas en la
distribución de los rasgos hereditarios de los guisantes, sino con la estructura del ADN; tallada a la escala de la
Biología molecular, que en sus teoremas incorpora todos los desarrollos anteriores que pudieran resultar pertinentes
como especificaciones suyas. De este modo, es posible delimitar con el rigor suficiente el contexto histórico
determinante del PGH.
No obstante, quedan aún por establecer los factores del contexto. ¿Habrá que recorrer, acaso, un curso por
cada configuración detectada en un principio? A la luz de la clasificación realizada, las configuraciones no
aparecerán ya como elementos aislados, o relacionados de modo confuso, sino como conjuntos de artefactos,
sociofactos y trazos83. Agrupando las configuraciones desde un principio, será posible regresar hacia tramas
constitutivas comunes a cada uno de los conjuntos, donde las partes aparecen ya recortadas y concatenadas a un
mismo nivel. De este modo, se perfilan tres cursos como factores del contexto histórico determinante:
42
ENERO
2012
83
Omitimos las configuraciones del eje angular, por no haber detectado ninguna parte constituyente del PGH que pueda asimilarse a númenes,
mitos o doctrinas. Esto no implica que dichas configuraciones no tengan parte alguna en la génesis del Proyecto. Los contenidos angulares
aparecerán en relación con los ortogramas que orientan las acciones de los sujetos implicados en la elaboración de los planes y programas
que intervienen en la cristalización del PGH.
Pablo Infiesta Molleda | Introducción.
1. El curso de los trazos (cuerpos, morfologías y estructuras), que identificamos con la constitución de la
Biología molecular como ciencia.
2. El curso de los artefactos (aparatos, operadores y relatores), que se conforman en el marco de la
Biotecnología.
3. El curso de los sociofactos (actores, instituciones y materiales), determinados por la incorporación de la
Biología a la Big Science.
Los factores aparecen, regresivamente, definidos por su vinculación a las configuraciones de un solo eje,
en cada caso. Pero, en el progressus, será posible encontrar cualquier tipo de configuraciones en cada uno de los
cursos. Por ejemplo, James Watson, como actor, alcanza una gran importancia en el curso de la constitución de la
Biología molecular como codescubridor de la doble hélice. Pero lo que interesa, a efectos de la génesis del PGH, es
que su condición de actor como primer director del Proyecto está determinada por su inserción en un marco de
relaciones sociales e institucionales dadas a la escala de la Big Science. El ejemplo de Watson sirve, también, para
mostrar las conexiones existentes entre los factores distinguidos que, tal y como venimos exponiendo, no son
compartimentos estanco. Tendremos oportunidad de precisar esta caracterización general en los siguientes
capítulos, dedicados a la reconstrucción de cada uno de los cursos.
El formato de la metodología, en su aplicación, es el de la «anamórfosis», concepto general con el que
Gustavo Bueno designa todos aquéllos procesos en los que se constituyen nuevas realidades por recombinación o
refundición de realidades preexistentes84. La anamórfosis resulta de la negación de las metodologías reductivas.
Como hemos visto, no cabe deducir el PGH de ninguno de los cursos alcanzados regresivamente, considerados de
forma aislada. Por ejemplo, recorriendo el curso de la Biología molecular no podemos progresar hacia el PGH
porque, al margen de sus componentes tecnológicos y sociales, conformados en otros ámbitos, la reconstrucción es
imposible. Ni siquiera la yuxtaposición de los factores, una vez alcanzado un punto determinado del progressus en
cada uno de ellos, da lugar al Proyecto. Así, la reconstrucción sólo puede completarse cuando se descomponen los
marcos de referencia y, por confluencia, se recombinan ciertas partes suyas en la figura institucional determinada.
La convergencia de los cursos que da lugar al PGH no se reduce, tampoco, al propio desarrollo interno de
los mismos, sino que resulta de a aplicación de planes y programas conscientemente formulados por sujetos
operatorios. Cuyas acciones no son fruto de una «voluntad libérrima» carente de toda determinación, tesis que
descartamos por metafísica, sino que están orientadas por ortogramas, «materias formalizadas capaces de actuar
como moldes activos o programas en la conformación de materiales dados». Aplicado al sujeto, el concepto de
ortograma se entiende «como un dispositivo que controla las secuencias operatorias (preceptúales, verbales, etc.)»,
sin que se reduzca a la esfera subjetiva: «los ortogramas, aunque actúan en los sujetos individualmente, tienen
siempre un origen social e histórico […] e incluso muchas veces sólo en situaciones intersubjetivas son capaces de
84
Víd. Gustavo Bueno, Teoría del Cierre Categorial, Vol. V, Pentalfa, Oviedo, 1993, págs. 159-171.
43
ENERO
2012
Introducción | Pablo Infiesta Molleda
ejercer su influjo»85. La lucha contra las enfermedades, los propósitos eugenésicos, o la obtención de beneficios
económicos, tópicos habituales que no están contemplados en los cursos establecidos, pero que son también
ineludibles, serán considerados como ortogramas que intervienen decisivamente en la cristalización del PGH.
Por último, advertimos que la reconstrucción realizada en los capítulos que siguen es filosófica, por la mediación
del entramado de Ideas que sustenta nuestra metodología, y por tanto no pretende dar lugar a conclusiones
categóricas. La complejidad de los procesos implicados en los cursos que se reconstruyen limita aún más las
pretensiones del trabajo, que de ningún modo puede ser exhaustivo, y en varios tramos tendrá que apoyarse en
supuestos e hipótesis que requerirían mayor fundamentación. Esperamos cumplir, al menos, el objetivo de mostrar
la pertinencia, y acaso la potencia del enfoque filosófico en el contexto de las investigaciones sobre la génesis del
PGH.
44
ENERO
2012
85
Gustavo Bueno, Cuestiones cuodlibetales sobre Dios y la religión, Mondadori, Madrid, 1989, págs. 392-393.
Pablo Infiesta Molleda | Capítulo I. La constitución de la Biología molecular como ciencia.
Capítulo I. La constitución de la Biología molecular como ciencia. Pablo Infiesta Molleda La realización del PGH supuso la utilización de diversas técnicas de cartografiado y secuenciación del genoma, que
por su gran complejidad no podemos detallar aquí120. En términos muy generales, los mapas del genoma permiten
identificar y aislar genes individuales, esto es, fragmentos de ADN que codifican una determinada cadena
polipeptídica. Por su parte, la secuenciación consiste en la determinación del orden de las bases nitrogenadas del
ADN. Las técnicas implicadas en ambos procesos, aunque plurales y heterogéneas, tienen su origen en el ámbito de
la Biotecnología.
No resulta problemático localizar analíticamente en el seno del PGH un conjunto de elementos que aparecen como
aparatos, operadores y relatores: por ejemplo, las enzimas de restricción utilizadas para cortar el ADN,
secuenciadores automáticos como el ABI 373A, o los potentes ordenadores y programas informáticos utilizados
para procesar la información obtenida. Sin embargo, dada la heterogeneidad de los elementos distinguidos, es
necesario regresar hacia el curso en el cual se configuran y se organizan, estableciendo sus conexiones (y
desconexiones) mutuas. Los artefactos que posibilitan la secuenciación del genoma humano son aquellos que
permiten realizar operaciones quirúrgicas (de unión y separación) no sólo sobre el ADN, como se suele afirmar
frecuentemente de manera reductiva, sino, en general, sobre los trazos que se constituyen en el ámbito de la
Biología molecular y la Bioquímica, analizados en el capítulo anterior. Mediante la aplicación de este criterio,
podemos circunscribir el curso que da razón del plano tecnológico del PGH a la génesis y el desarrollo de la
Biotecnología, evitando así la confusión inherente a un regressus hacia técnicas anteriores dadas a otra escala, como
pudieran ser las técnicas de selección artificial aplicadas sobre los organismos. Además, queda establecido un
nexo
fundamental
entre
dos
de
los
factores
del
contexto
histórico
determinante
del
PGH, que contribuye a clarificar su entramado.
Una descripción precisa puede consultarse en Peter Sudbery, Genética Molecular Humana, (Pearson Prentice Hall,
Madrid, 2004, págs. 56-142).
------------------En un primer contacto, la dimensión científica del PGH remite a un conjunto de entidades de orden
biológico: bases nitrogenadas, genes, enzimas, SNP’s1, etc., sobre las cuales se ejercitan las operaciones
tecnológicas que dan lugar a la secuenciación del genoma. Un examen más atento muestra que todos los cuerpos,
morfologías y estructuras que forman parte constituyente del PGH pueden circunscribirse al campo de la Biología
molecular, con lo cual están dados a la misma escala (hecho que no debería resultar sorprendente, por cuanto es
condición de la continuidad operatoria exigida para poder alcanzar resultados exitosos). Esta primera suposición,
que habrá que constatar en la reconstrucción ulterior, permite regresar hacia el curso de la constitución de la
Biología molecular, como factor del contexto histórico determinante del PGH, sin tener que retrotraerse a procesos
1
Polimorfismos de un solo nucleótido, nomenclados por sus siglas en inglés.
45
ENERO
2012
Capítulo I. La constitución de la Biología molecular como ciencia | Pablo Infiesta Molleda
anteriores de la historia de la Biología para dar razón de la conformación y conexión de los trazos que forman parte
de la figura de referencia.
Dado que tratamos acerca de la constitución de una disciplina científica, salen al paso varios problemas
gnoseológicos de gran calado, que exigirían una investigación específica para su resolución. Por nuestra parte, nos
limitaremos a aplicar el instrumental metodológico propuesto. Pero eso no implica que sea lícito ignorar cuestiones
filosóficas centrales, entretejidas con la reconstrucción que vamos a realizar: como veremos a lo largo del presente
capítulo, es el formato gnoseológico de la doble hélice el que motiva su condición de terminus ad quem del
regressus, y el estatuto gnoseológico de la Biología molecular el que sustenta su condición de factor del contexto
histórico determinante del PGH. Dado que los límites del presente trabajo impiden una fundamentación estricta,
asumimos la hipótesis planteada a este respecto por Alberto Hidalgo desde la Teoría del cierre categorial: «el
descubrimiento de la estructura helicoidal del ADN es un «teorema» (o «célula gnoseológica») de carácter
modulante, cuyo contexto determinado se mantiene dentro de la bioquímica, aun cuando el proceso de confluencia
que lo genera y posibilita desborda histórica y gnoseológicamente este marco, pues implica desarrollos teóricos y
tecnológicos en otras ciencias»2. El teorema de la doble hélice, así interpretado, constituiría el hito fundamental en
la génesis de la Biología molecular como disciplina científica3.
1. Los orígenes de la Biología molecular: la doble hélice.
A efectos de la reconstrucción del contexto histórico determinante del PGH, la tesis central que
defenderemos a lo largo de este apartado es la siguiente: la estructura helicoidal del ADN surge de la concatenación
de varios cursos operatorios, que implican una pluralidad de actores, instituciones, artefactos, etc. Además, por su
formato gnoseológico cerrado, sintetiza las líneas de investigación anteriores, configurando y articulando sus
contenidos a escala molecular. Para ilustrar estas afirmaciones, comenzaremos exponiendo de forma sucinta los
acontecimientos que condujeron a la doble hélice:
En 1944, Oswald Avery, junto con Colin McLeod y Maclyn McCarthy, había identificado el «principio
transformador» con el ADN: unos años atrás, el microbiólogo Fred Griffith había constatado que una bacteria
inofensiva podía transformarse en una variedad patógena cuando las bacterias del primer tipo estaban en presencia
de bacterias muertas del segundo tipo. Las operaciones realizadas en el laboratorio del Instituto Rockefeller por
46
ENERO
2012
2
Alberto Hidalgo, «La Biología molecular: ¿revolución o cierre?», en Alberto Hidalgo y Gustavo Bueno Sánchez [Eds.], Actas del I Congreso
de teoría y Metodología de las Ciencias, Pentalfa, Oviedo, 1982, pág. 300. Los conceptos filosóficos utilizados aparecen brevemente
expuestos en el mismo artículo. Su desarrollo sistemático puede consultarse en Gustavo Bueno, Teoría del Cierre Categorial, Vols. I-V,
pentalfa, Oviedo, 1991-1993.
3
Tesis que, por otra parte, está convencionalmente asumida, tanto en los estudios más eruditos como en la concepción popular del
descubrimiento, por lo cual su adopción no debería resultar problemática (aunque sí, hasta cierto punto, acrítica).
Pablo Infiesta Molleda | Capítulo I. La constitución de la Biología molecular como ciencia.
Avery, McLeod y McCarthy consistieron en destruir uno por uno los componentes bioquímicos de las células
muertas, hasta que, una vez eliminado el ADN, la transformación dejó de producirse. Dado que la transformación
era genética, el factor responsable debía corresponderse con el material hereditario. La mayoría de los bioquímicos
rechazó la extensión de semejante conclusión a la totalidad los seres vivos, considerando que las proteínas, por su
mayor complejidad estructural, eran mejores candidatos que los ácidos nucleicos: cuatro bases nitrogenadas
parecían muy pocas para codificar todos los rasgos de un organismo complejo. No obstante, el trabajo de Avery y
sus colaboradores tuvo una buena acogida entre los genetistas. El propio McCarthy fue invitado en 1946 a uno de
los simposios celebrados en Cold Spring Harbor por el denominado «grupo de los fagos», encabezado por Max
Delbrück y Salvador Luria4. La curiosa denominación procede del principal objeto de investigación del grupo: el
virus bacteriófago T-2 de la Escherichia coli, que inyecta su «principio transformador», su ADN, en la bacteria
hospedadora. Entre 1940 y 1950, cada vez más científicos se centraron en el estudio de los fagos, que, por su
sencillez, eran ejemplares privilegiados para intentar determinar cómo los genes actuaban sobre los rasgos
hereditarios.
James Watson, alumno de Luria, era uno de los miembros mas jóvenes del grupo, y en 1950 fue a
Copenhage a hacer una investigación posdoctoral sobre la química de los ácidos nucleicos. Sin embargo, en 1951
Watson asistió a una conferencia pronunciada en un congreso sobre macromoléculas por Maurice Wilkins, en la que
mostraba una fotografía de la molécula de ADN obtenida por difracción del rayos X. Aunque la imagen no arrojaba
ningún resultado concluyente, mostraba que los ácidos nucleicos podían cristalizarse, y por tanto abría la
posibilidad de determinar una estructura regular. A raíz de la conferencia de Wilkins, Watson comenzó a interesarse
por el enfoque estructural en el estudio del gen, y se trasladó al Laboratorio Cavendish de la Universidad de
Cambridge. Allí entró en contacto con Francis Crick, un físico de formación que compartía el interés de Watson por
el ADN. Cuando Watson llegó al Cavendish, Crick formaba parte de un grupo de investigación sobre las estructuras
tridimensionales de las proteínas. El grupo estaba dirigido por Max Perutz, que llevaba varios años estudiando la
difracción de rayos X en cristales de hemoglobina. Con él colaboraba Lawrence Bragg, uno de los fundadores de la
cristalografía, que había desarrollado la técnica de difracción cuarenta años antes, y en ese momento director de
Cavendish5.
La cristalografía de rayos X proporcionaba una manera de obtener la estructura de una molécula mediante
el análisis del patrón de difracción que se produce cuando un haz de rayos X se proyecta sobre un cristal en el que
las moléculas están organizadas regularmente en tres dimensiones. El patrón, no obstante, no se parece en absoluto
a una fotografía convencional, sino que muestra una figura compuesta por puntos de intensidad variable. De este
modo, la deducción de la estructura a partir del patrón no es inmediata: cada punto corresponde a una onda
difractada por las moléculas que están en un determinado plano del cristal. En principio, la estructura molecular del
4
5
Víd. Maclyn McCarthy, The Transforming Principle. Discovering that Genes Are Made of DNA, W. W. Norton & Company, Nueva York, págs.
72-81, 195-212.
Víd. James Watson, La doble hélice, Alianza, Madrid, 2000, págs. 29-34, 44-59.
47
ENERO
2012
Capítulo I. La constitución de la Biología molecular como ciencia | Pablo Infiesta Molleda
cristal se podría reconstruir mediante métodos matemáticos, conociendo las amplitudes y las fases de las ondas
refractadas. Pero la fase (esto es, las posiciones de los picos y valles de la onda en relación con la placa fotográfica)
se pierde en el proceso de registro, con lo cual el patrón sólo es indicativo. Para resolver el «problema de la fase»,
es necesario elaborar un modelo y comparar los patrones de difracción calculados a partir del mismo con los
observados en la fotografía obtenida por difracción. Éste será el enfoque adoptado por Watson y Crick para
determinar la estructura del ADN6.
Pero no adelantemos acontecimientos. El mismo año en que Watson inició su fructífera relación con Crick,
la joven cristalógrafa Rosalind Franklin se incorporó al grupo de Maurice Wilkins en el King’s College de Londres
con el propósito de analizar la estructura del ADN mediante las técnicas de difracción. Franklin comenzó un estudio
sistemático de las fibras de ADN, y ya en un primer momento consiguió patrones de difracción más precisos. Su
aportación decisiva consistió en la distinción entre dos formas definidas de la molécula de ADN, dadas en función
de la humedad relativa de la cabina en la que se obtenían las fotografías: la forma «A», que Franklin denominó
«cristalina», se encuentra por debajo de un 75% de humedad relativa, mientas que por encima de dicho punto se
produce una brusca transición a la forma «B» o «húmeda». Las investigaciones anteriores habían estado trabajando
con una mezcla indistinta de las dos formas, con lo cual quedaban obsoletas7.
Franklin expuso sus conclusiones en un coloquio celebrada en el King’s College en noviembre de 1951. La
interpretación de las imágenes obtenidos en su trabajo con difracción de rayos X le condujo a formular, con la
máxima cautela, la hipótesis de que la estructura molecular de la forma A podía ser un haz helicoidal de varias
cadenas, con los grupos fosfato que forman su esqueleto en el exterior. En sus notas, editadas por Robert Olby,
puede leerse lo siguiente: «Pruebas de estructura espiral. 1) Es altamente improbable una cadena recta, sin retorcer,
debido a fuerzas descompensadas; 2) la ausencia de reflexiones sobre el meridiano de la forma cristalina sugiere
una estructura espiral, en la que la densidad de electrones proyectada sobre el eje de la fibra [de ADN] es casi
uniforme, y 3) la presencia de un marcado período de 27 Å […] debe significar que solamente aparecen nucleótidos
en posiciones equivalentes a intervalos de 27 Å. Esto sugiere que 27 Å es la longitud de una vuelta de la espiral. El
empaquetado hexagonal sugiere que sólo hay una hélice (que posiblemente contenga una cadena) por punto
reticular […] Conclusión. O bien la estructura es una gran hélice, o bien una hélice más pequeña formada por varias
cadenas»8. Entre el público asistente, se encontraba James Watson, gracias a la buena relación existente entre
Wilkins y Crick.
El planteamiento de la estructura helicoidal del ADN no era novedoso: el propio Maurice Wilkins
manejaba la hipótesis de una sola cadena en espiral, basándose en las investigaciones precedentes de William
Astbury, pionero en la aplicación de las técnicas de difracción de rayos X al ADN, y Sven Furberg, quien había
48
ENERO
2012
6
Víd. Aaron Klug, «El descubrimiento de la doble hélice del ADN», en Torsten Krude [Ed.], Cambios en la ciencia y en la sociedad, Akal,
Madrid, 2008, págs. 12-13.
7
Víd. Robert Olby, El camino hacia la doble hélice, Alianza, Madrid, 1991, págs. 487-488.
8
Rosalind Franklin, 1951, notas editadas por Robert Olby en Op. Cit., págs. 495-496.
Pablo Infiesta Molleda | Capítulo I. La constitución de la Biología molecular como ciencia.
llegado a plantear un modelo en 19499. En 1950, Linus Pauling, el químico más eminente de la época, estableció
que la disposición en la que se pliegan las cadenas de aminoácidos para formar las proteínas respondía a una
estructura helicoidal que denominó «hélice-α». Las primeras conversaciones entre Watson y Crick, si hemos de
hacer caso a éste último, versaron sobre la posibilidad de aplicar el método de construcción de modelos de Pauling
para determinar la estructura del ADN10.
Seis semanas después, con los resultados estructurales que Watson había recogido de Franklin, decidieron
elaborar su propio modelo: tres cadenas helicoidales, con los fosfatos en el interior y las bases nitrogenadas
apuntando hacia fuera. El modelo se ajustaba a las imágenes obtenidas por difracción de rayos X, pero cuando fue
presentado al grupo del King’s College, se descubrió que Watson había calculado un contenido de agua diez veces
inferior al de las muestras de Franklin11. El rotundo fracaso trajo consigo el veto de Lawrence Bragg a cualquier
trabajo posterior sobre ADN en el Cavendish.
Por su parte, Franklin continuó desarrollando una aproximación experimental a la forma A de ADN
mediante cristalografía analítica, reforzada en su convicción de que los datos existentes eran insuficientes para
plantearse siquiera la construcción de un modelo. En 1952, un resultado erróneo en una muestra le hizo albergar
serias dudas sobre la forma helicoidal de la estructura del ADN en su forma A (impregnando a Wilkins con su
escepticismo) aunque no llegase a descartar la posibilidad. Pero, en enero de 1953, la aplicación del método de la
superposición de Patterson dio lugar a un hallazgo fundamental: si la estructura de la forma A es helicoidal, ésta
debe consistir en dos cadenas que van en direcciones opuestas, relacionadas por un eje de simetría doble
perpendicular al eje de la fibra. Al volver sobre la forma B de ADN, cuyo patrón de rayos X era claramente
indicativo de algún tipo de estructura en hélice, Franklin establece una correspondencia con los resultados
obtenidos sobre la forma A; concluyendo, por tanto, que el ADN en su forma B está constituido por dos cadenas
helicoidales12.
Mientras Rosalind Franklin se acercaba a la doble hélice, Watson y Crick volvían al ruedo del ADN gracias
a la intervención de Linus Pauling. El químico genial, no contento con haber establecido el modelo de las cadenas
de aminoácidos en las proteínas, anunciaba a principios de 1953 que tenía una estructura para el ADN cuya
publicación era inminente. Cuando el manuscrito llegó a Cavendish, Watson y Crick se encontraron con una
estructura de tres cadenas, con un esqueleto de azúcar-fosfato central. Curiosamente, Pauling había cometido un
gravísimo error químico, pues, en tanto que los grupos fosfato no estaban ionizados, no había nada que mantuviera
las cadenas unidas. Sin embargo, la entrada en juego de Pauling provocó que Lawrence Bragg, quien mantenía una
antigua rivalidad con el químico, liberase a Watson y Crick de su anterior prohibición, permitiéndoles volver a sus
9
Víd. Olby, Op. Cit., págs. 477-480, 482-486.
10
Víd. James Watson, ADN. El secreto de la vida, Taurus, Madrid, 2003, pág. 43.
11
Víd. Olby, Op. Cit., págs. 499-513.
12
Víd. Klug, Op. Cit., págs. 23-25.
49
ENERO
2012
Capítulo I. La constitución de la Biología molecular como ciencia | Pablo Infiesta Molleda
investigaciones sobre el ADN13.
La brillantez de Pauling era indudable, pero, sin conocer los resultados obtenidos mediante las técnicas de
difracción en el King’s College, era imposible determinar el número de cadenas que componían la estructura, y la
posición de sus elementos. Cuando Watson fue al King’s a entregar una copia del manuscrito de Pauling, Wilkins le
mostró una imagen muy perfeccionada de la forma B de ADN que Franklin había obtenido en 1952, cuyo formato
helicoidal era inequívoco. Esta fotografía aportaba, además, los parámetros necesarios para establecer la distancia
de repetición de los núcleotidos (34 Å, indicando 10 unidades por vuelta de la hélice), el ángulo de la hélice (36º), y
el diámetro de la molécula (20 Å). Las conclusiones de Franklin acerca del eje de simetría de la molécula de ADN,
conocidas por Crick, terminaron de apuntalar las hipótesis de Watson, que venía trabajando sobre la construcción de
modelos helicoidales de dos cadenas. Watson y Crick tuvieron también en cuenta los argumentos de Franklin acerca
de la posición exterior del armazón de la molécula compuesto por grupos fosfato. Así pues, sólo restaba encajar las
bases, ubicadas unas sobre otras en el interior de la molécula. Tras rectificar la fórmula química incorrecta que
estaba utilizando para resolver el problema, por advertencia de un compañero de oficina, Watson dedujo que podía
encajar la adenina con la timina, y la guanina con la citosina, formando pares. Este apareamiento estructural
coincidía con las «reglas» establecidas unos años antes por el bioquímico Erwin Chargaff para la composición
química de las bases, según las cuales la cantidad de adenina en una molécula de ADN es igual a la de timina, y la
de guanina a la de citosina. De este modo, en marzo de 1953 la estructura del ADN quedaba resuelta14.
Un par de meses más tarde, Watson y Crick presentarían su modelo en los celebérrimos artículos de
Nature. Básicamente, la estructura del ADN, tal y como la describieron Watson y Crick, se compone de dos cadenas
helicoidales formadas por la superposición de nucleótidos enlazados. Cada nucleótido está formado por un grupo
fosfato, unido a un azúcar denominado desoxirribosa, que a su vez está unido a una base (adenina, guanina, citosina
o timina). Los grupos fosfato y los azúcares forman el esqueleto de cada cadena, y las cadenas están unidas por sus
bases mediante enlaces covalentes, de tal forma que la citosina siempre se enlaza con la guanina, y la adenina con la
timina»15. Las repercusiones del modelo descrito para las cuestiones genéticas precedentes fue inmediatamente
advertida por Watson y Crick: «El esqueleto fosfato-azúcar de nuestro modelo es completamente regular, pero
cualquier secuencia de pares de bases puede encajar en la estructura. Ello permite que en una molécula larga sean
posibles muchas permutaciones diferentes, y por tanto parece probable que la secuencia precisa de las bases sea el
código que porta la información genética. Si fuera dado el orden real de las bases de una de las cadenas del par,
podríamos anotar el orden exacto de las bases de la otra cadena, a causa de la especificidad del emparejamiento.
Así, una cadena es, como si dijéramos, el complemento de la otra, y este es el hecho que sugiere cómo puede
autoreplicarse la molécula de ácido desoxirribonucleico»16. De este modo, quedaba establecida no sólo la
50
ENERO
2012
13
Víd. Olby, Op. Cit., págs. 554-556.
Víd. Olby, Op. Cit., págs. 556-587.
Víd. James Watson y Francis Crick, «Molecular Structure of Nucleic Acids. A Structure for Deoxyribose Nucleic Acid», y «Genetical
Implications of the Structure of Deoxyribonucleic Acid», Nature, 171, 1953, págs. 737-738, 964-967. Reproducidos en Pedro García
Barreno [Dir.], Cincuenta años de ADN. La doble hélice, Espasa, Madrid, 2003, págs. 114-115, 118-120.
16
Watson y Crick, «Genetical Implications of the Structure of Deoxyribonucleic Acid», reproducido en García Barreno [Dir.], Op. Cit., pág. 119.
14
15
Pablo Infiesta Molleda | Capítulo I. La constitución de la Biología molecular como ciencia.
arquitectura de la macromolécula de ADN, sino también su modo de duplicación. Las conexiones con el PGH
comienzan ya a hacerse explícitas.
Desde nuestro enfoque, en el relato anterior podemos detectar una multiplicidad heterogénea de
configuraciones que, conformadas y articuladas en cursos operatorios diversos, se van codeterminando en un
proceso de gran complejidad hasta dar lugar a la estructura del ADN. Desde luego, los fenómenos estrictamente
biológicos, radiales (bases nitrogenadas, azúcares, fosfatos, moléculas de ADN, nucleótidos, etc.) quedan
establecidos y conectados de modo necesario en el modelo de Watson y Crick, como hemos visto. Pero también las
instituciones o los actores mencionados aparecen, en el contexto histórico determinante que estamos perfilando,
dados en función de su participación en la construcción del teorema de la doble hélice.
Y ello, como avanzamos, por su formato gnoseológico, esto es, por su condición de teorema en el que se
sintetizan ciertos contenidos previamente roturados en distintos campos científicos. El ADN, las bases nitrogenadas,
los elementos químicos que componen el esqueleto de azúcar fosfato, etc. son términos pertenecientes a los campos
de varias ciencias, que confluyen en el teorema de la doble hélice, de tal manera que se configuran, organizan y
resuelven a nivel molecular. Así, no es necesario remontarse hasta el origen remoto de cada una de las partes de
orden biológico que podamos identificar en el dintorno del PGH; pues, en cuanto configuraciones del mundo
precursor, reciben su formato en el marco de la Biología molecular, cuyo primer teorema es, precisamente, el
modelo helicoidal del ADN de Watson y Crick.
Ejemplificaremos nuestra tesis con las bases nitrogenadas, en cuanto morfologías fenoménicas sobre las
cuales se realizan las operaciones que dan lugar a la secuenciación del genoma humano. Las bases tienen su origen
en el campo de la Bioquímica. Ya en 1920, el químico ruso Phoebus Aaron Levene concluye que la composición
química del ADN consta de grupos fosfato, azúcares y cuatro bases nitrogenadas: adenina, guanina, citosina y
timina. Y, en 1949, Erwin Chargaff establece las mencionadas proporciones entre adenina y timina, y citosina y
guanina, en cualquier macromolécula de ADN. No pretendemos menoscabar la importancia de las aportaciones de
Levene y Chargaff (entre otras), sin las cuales la estructura del ADN nunca podría haber sido elaborada. Pero tanto
los componentes químicos de los nucleótidos, como las proporciones relativas entre las bases nitrogenadas, quedan
incorporadas al teorema de la doble hélice, integradas en un modelo donde se reformulan y desarrollan: así, en la
estructura del ADN no sólo constan los elementos de los núcleotidos, sino su composición química, la naturaleza de
los enlaces que los mantienen unidos, la distancia relativa entre cada base, el número de unidades por vuelta de la
hélice, etc. Del mismo modo, las proporciones de Chargaff aparecen incorporadas y reexpuestas como una
consecuencia específica de las conexiones necesarias entre los pares de bases. Además, en el marco del teorema de
Watson y Crick, las bases nitrogenadas se relacionan con otros términos procedentes de los campos de distintas
ciencias, como puedan ser los fenómenos de la herencia constituidos en el ámbito de la Genética (al margen de los
Subrayado nuestro.
51
ENERO
2012
Capítulo I. La constitución de la Biología molecular como ciencia | Pablo Infiesta Molleda
cuales quedarían desconectadas del PGH); a este respecto, los propios autores afirmaban que «nuestra estructura
propuesta para el ácido desoxirribonucleico puede ayudar a resolver uno de los problemas biológicos fundamentales
–las bases moleculares del molde necesario para la replicación genética»17. Por todo ello, concluimos que, en el
marco del modelo de la doble hélice, las bases nitrogenadas se conforman, en virtud de sus determinaciones, sus
relaciones y su escala, tal y como se encuentran como partes componentes del PGH. Así, sólo a partir de su
inserción en el teorema de la doble hélice, las bases nitrogenadas quedan incorporadas al contexto histórico
determinante del Proyecto.
Lo mismo podría decirse de los antecedentes genéticos y fisiológicos, aludidos por alguno de los autores
que analizamos en la primera parte. Como señala Alberto Hidalgo, «el teorema de la doble hélice reformula a nivel
molecular el principio de la continuidad genética de la materia viva (de ahí sus importantes implicaciones
biológicas, y reconstruye empíricamente el principio fisiológico de la correlación estricta entre estructura y función.
Pero no es una mera consecuencia deductiva de tales principios, porque, aunque es lógicamente congruente con
ellos, los desarrolla de forma novedosa y consistente»18. En efecto, una vez asumido el modelo de Watson y Crick,
los problemas genéticos ya no se plantearán al nivel del organismo (fisiológico) o de la célula (citológico): el nivel
molecular, adoptado en el teorema doble hélice, se mantiene en el PGH, definiendo la escala de sus trazos.
2. La consolidación de la Biología molecular: el «Dogma Central» y el código genético.
En el apartado anterior quedó resuelto el problema de los límites del contexto histórico determinante del
PGH, una vez fundamentada la decisión de considerar a la estructura del ADN como terminus ad quem del
regressus realizado desde sus partes constituyentes. Además, el teorema de la doble hélice da cuenta de la escala a
la que se dibujan los cuerpos, morfologías y estructuras identificados en el PGH. Y, también, aporta la clave
conformativa de configuraciones tales como las bases nitrogenadas, los nucleótidos, o el propio ADN. Sin embargo,
el curso de la Biología molecular, en cuanto factor del contexto histórico determinante del PGH, no se agota en su
origen. Desde la doble hélice, cabe definir al gen, en términos abstractos, como una secuencia de bases que codifica
un carácter hereditario. Pero, ¿cómo identificar un gen en concreto, cuando se desconoce el mecanismo de
transcripción?19 Parece evidente que aún restan por recorrer episodios cruciales en el curso de la Biología
molecular, que tienen incidencia sobre las configuraciones del PGH y por tanto forman parte ineludible de su
entorno.
En los años posteriores al establecimiento de la estructura del ADN, se produjo una proliferación de
instituciones y materiales (cátedras y departamentos, revistas especializadas, congresos, manuales, etc.) en torno a
la Biología molecular, circunstancia que llevó aparejado un aumento del número de actores dedicados a realizar
52
17
ENERO
2012
18
19
Watson y Crick, «Genetical Implications of the Structure of Deoxyribonucleic Acid», reproducido en García Barreno [Dir.], Op. Cit., pág. 120.
Hidalgo, Op. Cit., pág. 304. Subrayado nuestro.
Víd. Francis Crick, Qué loco propósito. Una visión personal del descubrimiento científico, Tusquets, Barcelona, 1989, pág. 105.
Pablo Infiesta Molleda | Capítulo I. La constitución de la Biología molecular como ciencia.
investigaciones en el campo recién inaugurado20. Watson y Crick habían trazado la senda por la que debían discurrir
los trabajos futuros en su artículo de 1953: «No se nos escapa que el emparejamiento específico que hemos
postulado sugiere de inmediato un posible mecanismo de copia para el material genético»21. Los autores
sospechaban que las proteínas estaban implicadas de algún modo en el proceso de transcripción, pero carecían de
los elementos necesarios para poder resolver el problema.
A comienzos de la década de 1950, las investigaciones genéticas precedentes parecían indicar que los
genes estaban involucrados en la producción de proteínas que acontecía en el citoplasma de las células. Dado que el
ADN sólo se encontraba en el núcleo, la síntesis de proteínas requería algún elemento mediador entre el ADN y las
proteínas. El candidato principal era el ácido ribonucleico, presente tanto en el núcleo como en el citoplasma. Era
conocida, también, la composición química del ARN, similar a la del ADN, aunque con azúcar ribosa en lugar de la
desoxiribosa, y la base nitrogenada uracilo en lugar de la timina. Como narra Watson, «aun antes de que
descubriéramos la doble hélice, yo pensaba que probablemente la información genética del ADN cromosómico se
utilizaba para fabricar cadenas de ADN de secuencias complementarias. Estas cadenas de ARN servían, a su vez, de
modelos que especificaban el orden de los aminoácidos en sus respectivas proteínas»22. Una vez concluido su tour
de force con el ADN en 1953, Watson comenzó a analizar mediante difracción de rayos X el ARN en Cal Tech.
Pero la táctica era errónea: el ARN no podía ser cristalizado.
El mismo año, nuevos actores y operadores enriquecían el repertorio de fenómenos y estructuras
implicados en el proceso. El microscopio electrónico permitió profundizar en el citoplasma, de modo que no se
mostraba ya como una masa informe. En continuidad con la membrana nuclear, se encontraba una red de canales
membranosos, en cuya superficie estaban dispersas miles de pequeñas partículas esferoides: los ribosomas,
compuestos de proteína y ARN. George Palade, en el Instituto Rockefeller, mostró que los ribosomas también se
encontraban en células bacterianas, más sencillas de estudiar. Por otra parte, Paul Zamecnik, investigador médico
del Hospital General de Massachussets, desarrolló una técnica mediante la cual las células en las cuales se produce
la síntesis de proteínas podían ser destruidas; de modo que se obtenía un «extracto libre» de componentes celulares,
en el cual era posible examinar la síntesis de proteínas con gran detalle, e incluso agregar aminoácidos e introducir
ácidos nucleicos. A la vez, el bioquímico inglés Fred Sanger había establecido, en el laboratorio Cavendish, la
secuencia completa de aminoácidos de una proteína, en concreto la insulina. Esta secuencia era específica y
consistente, lo cual sugería la existencia de un código en su proceso de construcción. Todo ello resultaría, a la
postre, fundamental para descifrar el código genético23.
En los años posteriores, un gran número de laboratorios comenzaron a estudiar las relaciones entre el ADN
20
Víd. Hidalgo, Op. Cit., pág. 295.
Víd. Watson y Crick, «Molecular Structure of Nucleic Acids. A Structure for Deoxyribose Nucleic Acid», reproducido en García Barreno
[Dir.], Op. Cit., pág. 115.
22
Víd. James Watson, ADN. El secreto de la vida, Taurus, Madrid, 2003, pág. 69.
23
Víd. Thomas F. Lee, El Proyecto Genoma Humano, Rompiendo el código genético de la vida, Gedisa, Barcelona, 2000, págs. 96-99.
21
53
ENERO
2012
Capítulo I. La constitución de la Biología molecular como ciencia | Pablo Infiesta Molleda
y las proteínas, poniendo especial atención en determinar el necesario elemento mediador. El auge de la Biología
molecular dio lugar a múltiples líneas de investigación intrincadas y complejas, que no podemos reproducir aquí.
Baste mencionar que, hacia finales de 1956, el análisis sistemático de extractos libres de células y el trabajo con
organismos bacterianos arrojó un panorama general de la síntesis de proteínas donde el ARN era la molécula
intermediaria. En este primer esquema, el ARN se ensamblaba con los aminoácidos sueltos en el citoplasma,
aunque cada uno de los 20 aminoácidos parecía tener su propia molécula específica de ARN y la asociación se
producía en cada caso mediante enzimas propios. De este modo, el ARN organizaba los aminoácidos y los portaba
hasta los ribosomas, donde se producían las proteínas24.
De nuevo, fue Francis Crick quien sintetizó las abigarradas líneas de investigación existentes. En una
célebre conferencia pronunciada en 1957 en la Sociedad Británica de Biología Experimental, publicada en forma de
artículo un año después, Crick expuso los postulados básicos de la teoría conocida como «el Dogma Central de la
Biología molecular»: el ADN, en cuya secuencia de nucleótidos está cifrada la información necesaria para dar lugar
a un organismo, es capaz de replicarse. Esta capacidad permite que cada nueva célula, procedente de una anterior,
reciba una réplica exacta de su ADN, que se perpetúa a lo largo de sucesivas generaciones. La información
genética presente en el ADN se copia en forma de ARN, y se traduce mediante el código genético en cada una de
las distintas proteínas que desempeñan funciones específicas en la célula. Según la tesis principal del «Dogma
Central», el flujo de información siempre es unidireccional: del ADN al ARN, y de éste a la proteína (salvo en el
caso de la replicación del ADN)25. En 1970 Crick revisó su «dogma», pues las investigaciones independientes de
David Baltimore y Howard Tremin mostraron que la información hereditaria podía transmitirse también del ARN al
ADN: ciertos virus tumorales que contienen ARN como material genético poseen una enzima denominada
retrotranscriptasa, capaz de copiar ADN para dar lugar a ARN. Teniendo esto en cuenta, la conexión
ADN→ARN→proteína fue reformulada como ADN↔ARN→proteína. Retomando el hilo de la exposición, la
concepción expresada por Crick en 1957 acerca de los mecanismos de transmisión y expresión de la herencia marcó
el objetivo principal de las investigaciones en Biología molecular: una vez establecido el mecanismo de síntesis de
proteínas, sólo restaba determinar el código genético, esto es, la secuencia de bases nitrogenadas que codificaba
cada uno de los 20 aminoácidos de las proteínas26.
La utilización masiva de términos como «información», «código», «secuencia», etc. para describir
procesos biológicos puede parecer impropia. De hecho, ha tenido que soportar fuertes objeciones, no sólo por parte
de los propios biólogos, sino también desde la Filosofía de la ciencia. Sin menoscabo de su interés, no es lugar para
discutir la pertinencia gnoseológica de tales usos. Pero, a efectos de la reconstrucción del curso de la Biología
molecular, es importante destacar las conexiones existentes entre los conceptos procedentes de los campos de las
ciencias de la información y la computación, y la disciplina científica que nos ocupa, dadas sus importantes
54
24
Víd. Lee, Op. Cit., pág. 98.
Víd. Francis Crick, «On proteín synthesis», Symposia of the Society for Experimental Biology 12, 1958, págs. 138-163.
26
Víd. José A. Melero, «ADN↔ARN→proteína (El Dogma Central de la Biología Molecular)» en García Barreno [Ed.], Op. Cit., págs. 123147.
25
ENERO
2012
Pablo Infiesta Molleda | Capítulo I. La constitución de la Biología molecular como ciencia.
implicaciones para el PGH: en 1944, el físico Erwin Schrödinger publicó ¿Qué es la vida?, obra que influiría
decisivamente en gran parte de los actores principales que intervinieron en la génesis de la Biología molecular. En
su breve escrito, Schrödinger caracterizaba el mecanismo de la herencia como un «mensaje cifrado» que debía
poseer alguna «clave» capaz de dar lugar al «esquema completo de todo el desarrollo futuro del individuo y de su
funcionamiento en estado maduro»27. La concepción de Schrödinger, independientemente del alcance que
pretendiera otorgarle el eminente físico, impregnó todos los desarrollos futuros de la Biología molecular. Conviene
recordar que el resultado principal del PGH consistió el la secuenciación de la dotación genética completa de varios
organismos humanos.
Ahora bien, lo que pudiera parecer una mera cuestión denotativa, retórica, como muchas veces se
caracteriza cuando se alude a la inexactitud de las «metáforas» de la genética, comienza a adquirir grosor
gnoseológico cuando constatamos que los actores más destacados de las ciencias de la computación de la época
están presentes en el origen mismo de la Biología molecular: a principios de la década de los cuarenta del pasado
siglo, Norbert Wiener, fundador de la Cibernética, comenzó a trabajar en cuestiones biológicas mientras realizaba
investigaciones computacionales en la Oficina de Investigación Científica y Desarrollo. Junto al fisiólogo Arturo
Rosenbluth y el ingeniero Julian Bigelow, elaboró sus primeras propuestas sobre servomecanismos y homeostasis
fisiológica. El también matemático John Von Neumann, cuyas contribuciones dieron lugar a la fabricación de los
primeros computadores, comenzó a tomar contacto la Genética en 1945. Dado que estaba intentando desarrollar
máquinas que se autoreproducen, la replicación de los genes podía servir de modelo para sus investigaciones. Von
Neumann, como la mayoría de los genetistas de la época, comenzó a estudiar los virus bacteriófagos, y estableció
contactos con varios miembros del «grupo de los fagos» (entre los que se contaba Max Delbrück). Partiendo de la
concepción de las proteínas como cadenas formadas por aminoácidos mediante procedimientos combinatorios,
aplicó modelos matemáticos a la reproducción de los genes y de los virus28. En 1948, Wiener publicó su obra
Cybernetics, or Control and Communication in the Animal and Machine, donde defendía una tesis de gran calado:
el control y la comunicación son problemas inseparables, y ambos se centran en la noción fundamental del mensaje,
como una secuencia continua de eventos cuantificables distribuidos en el tiempo29. El mismo año, Claude Shannon,
teórico de la comunicación, presentó un importante artículo sobre el criptoanálisis y la teoría de códigos, cuyas
conclusiones divulgó al año siguiente junto con Warren Weaver, director del programa de Biología molecular de la
Fundación Rockefeller30.
Los trabajos de Wiener, Von Neumann y Shannon alcanzaron una gran repercusión en el ámbito biológico:
el concepto de código genético comenzó a ser ampliamente utilizado, y los métodos computacionales fueron
considerados como la herramienta fundamental para su desciframiento. Desde 1949, el radiólogo Henry Quastler
27
Víd. Erwin Schrödinger, ¿Qué es la vida?, Tusquets, Barcelona, 1983, págs. 41-42.
Víd. Lil E. Kay, «A Book of Life? How a Genetic Code Became a Languaje», en Philip R Sloan [Ed.], Controlling Our Destinies. Historical,
Ethical Philosophical and Theological Perspectives on the Human Genome Project, University of Notre Dame Press, Indiana, 2000, págs.
103-104.
29
Víd. Lil E. Kay, «A Book of Life? How a Genetic Code Became a Languaje», en Sloan [Ed.], Op. Cit., pág. 105.
30
Víd. Lil E. Kay, «A Book of Life? How a Genetic Code Became a Languaje», en Sloan [Ed.], Op. Cit., pág. 106.
28
55
ENERO
2012
Capítulo I. La constitución de la Biología molecular como ciencia | Pablo Infiesta Molleda
comenzó a aplicar sistemáticamente las ciencias de la información y la computación a las cuestiones genéticas,
llegando a proponer un catálogo del genoma en el que estimaba la cantidad de información genética de un
organismo humano en un millón de bits. En 1952, un año antes de que Watson y Crick establecieran la estructura
del ADN, Quastler tuvo la oportunidad de divulgar ampliamente sus ideas en un importante simposio sobre Teoría
de la Información en Biología celebrado en el Control Systems Laboratory de Brookhaven31.
Tras el descubrimiento de la doble hélice, los desarrollos de las ciencias de la información y la
computación en relación con la Biología molecular engranan directamente con los múltiples intentos de determinar
el código genético; la cuestión fundamental que, como vimos, el teorema de Watson y Crick había dejado
pendiente. Pero antes de pasar a describir los cursos operatorios en los que se vinculan las distintas configuraciones
que dan lugar al establecimiento del código, es necesario destacar otras líneas de investigación, en las que se
constituyen ciertas morfologías fenoménicas asociadas al ARN sin las cuales el problema de la transcripción
hubiera sido irresoluble.
A finales de los cincuenta, Zamecnik, que había seguido trabajando en el proceso de producción de las proteínas,
descubrió que cada uno de los ARN portadores de aminoácidos tenía la misma secuencia de núcleotidos en un
extremo de la molécula. En concreto, un triplete constituido por las bases CCA32, en el que conectaba el aminoácido
en cuestión. La molécula de ARN portador fue denominada «ARN de transferencia» o tARN, en tanto que
transfería los aminoácidos desde el citoplasma a los ribosomas. La secuencia completa del tARN sería determinada
por el bioquímico Robert Holley. En un extremo estaba la secuencia CCA para la asociación de aminoácidos, y en
el otro una secuencia de tres bases nitrogenadas complementarias de un conjunto de bases presentes en el
ribosoma33.
En 1961, los biólogos moleculares Sydney Brenner y François Jacob identificaron una segunda forma de
ARN involucrada en el proceso de transferencia, que actuaba como intermediario entre el ADN y el ribosoma. Esta
nueva morfología recibió el nombre de ARN mensajero o mARN34.
Así las cosas, una vez localizados todos los elementos que intervienen en el proceso de transcripción, y
establecido su mecanismo general, sólo restaba establecer el código que lo organizaba.
Una vez más, los artefactos resultarían determinantes, en tanto que posibilitaron la realización de un
conjunto de operaciones que condujeron a la solución del problema. El joven científico del NIH Marshall Nirenberg
implementó en 1961 un sistema de síntesis in vitro de proteínas, que permitía operar con «extractos libres»
similares a los de Zamecnik, pudiendo agregar además ARN mensajero a la solución líquida. Unos años antes,
56
ENERO
2012
31
Víd. Lil E. Kay, «A Book of Life? How a Genetic Code Became a Language», en Sloan [Ed.], Op. Cit., pág. 106.
Denotamos las bases nitrogenadas por su inicial en mayúscula, como es usual.
Víd. Lee, Op. Cít., pág. 98.
34
Víd. José A. Melero, «ADN↔ARN→proteína (El Dogma Central de la Biología Molecular)» en García Barreno [Ed.], Op. Cit., págs. 126127.
32
33
Pablo Infiesta Molleda | Capítulo I. La constitución de la Biología molecular como ciencia.
Marianne Grunberg-Manago había descubierto, en el laboratorio de Severo Ochoa, la primera enzima capaz de
sintetizar ADN en el tubo de ensayo, lo que permitía construir mARN artificial con secuencias de bases definidas.
Johann Mathei, colaborador de Nirenberg, comenzó a introducir en el sistema de síntesis de proteínas moléculas de
mARN sintético de composición definida para observar sus interacciones con diferentes aminoácidos. Comenzó
con una solución de mARN que, para mayor facilidad, contenía únicamente uracilos. Mathei añadió varios
aminoácidos, uno por uno, y nada ocurrió hasta que agregó la fenilalanina, que se compuso con el mARN poli-U
para dar lugar a un polipéptido (esto es, a una cadena de aminoácidos) compuesto únicamente de fenilalanina. El
mismo año, Sydney Bernner y Leslie Barnett confirmaron lo que ya se suponía: el código genético era siempre una
secuencia de tres bases nitrogenadas, que posicionaban un aminoácido en cada proteína. Por tanto, en el laboratorio
de Nirenberg fue posible concluir que una secuencia de tres uracilos en el mARN (o tres adeninas, complementarias
del uracilo, en el ADN) se traducían en un aminoácido de fenilalanina. El código comenzaba a ser descifrado.
En la misma época, Har Gobind Khorana, en la Universidad de Wisconsin, había desarrollado una técnica
para fabricar largos trechos de ARN con secuencias repetidas, simples y conocidas. Los laboratorios de Nirenberg,
Khorana y Ochoa compitieron durante años para establecer, paso a paso, los aminoácidos que estaban codificados
por cada uno de los 64 tripletes posibles formados por las combinaciones de las cuatro bases nitrogenadas del ADN.
En 1966, el laborioso trabajo estaba prácticamente terminado. Francis Crick, que había seguido el proceso, fue otra
vez el encargado de sintetizar los resultados en una tabla que expresaba las relaciones necesarias entre cada uno de
los tripletes de bases nitrogenadas (o «codones») y los 20 aminoácidos de las cadenas polipeptídicas. Hay más de
un codón para cada aminoácido, y tres de los 64 no codifican ninguno, sino que determinan el principio y el final de
la síntesis de proteínas35.
Una vez establecida la estructura de la síntesis de proteínas, el gen adquiere su configuración actual, como
secuencia de bases nitrogenadas de la molécula de ADN que codifica la síntesis de un polipéptido. Estamos ahora
en condiciones de entender por qué el regressus desde el gen, en cuanto morfología detectada en el marco del PGH,
no conduce a Mendel, o a las primeras experiencias de los sujetos humanos con los fenómenos de la herencia, sino,
precisamente, al curso constitutivo de la Biología molecular. Otros importantes constituyentes radiales del PGH,
como los distintos tipos de ARN, los múltiples codones, etc. quedan determinados en el proceso que acabamos de
reconstruir. Evidentemente, la formulación del código genético no supuso la clausura de la Biología molecular, pero
sí su consolidación definitiva, una vez cerradas las cuestiones genéticas que se habían planteado a raíz de la
formulación de la doble hélice. Los principales avances en el campo de la Biología molecular vendrán dados, en
adelante, por mediación de la Biotecnología.
57
35
Víd. Lee, Op. Cít., págs. 103-107; y José A. Melero, «ADN↔ARN→proteína (El Dogma Central de la Biología Molecular)» en García
Barreno [Ed.], Op. Cit., págs. 128-130.
ENERO
2012
PABLO INFIESTA MOLLEDA | CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA.
Capítulo IV. El desarrollo de la Biotecnología. PABLO INFIESTA MOLLEDA La realización del PGH supuso la utilización de diversas técnicas de cartografiado y
secuenciación del genoma, que por su gran complejidad no podemos detallar aquí120. En términos muy
generales, los mapas del genoma permiten identificar y aislar genes individuales, esto es, fragmentos de
ADN que codifican una determinada cadena polipeptídica. Por su parte, la secuenciación consiste en la
determinación del orden de las bases nitrogenadas del ADN. Las técnicas implicadas en ambos
procesos, aunque plurales y heterogéneas, tienen su origen en el ámbito de la Biotecnología.
No resulta problemático localizar analíticamente en el seno del PGH un conjunto de elementos
que aparecen como aparatos, operadores y relatores: por ejemplo, las enzimas de restricción utilizadas
para cortar el ADN, secuenciadores automáticos como el ABI 373A, o los potentes ordenadores y
programas informáticos utilizados para procesar la información obtenida. Sin embargo, dada la
heterogeneidad de los elementos distinguidos, es necesario regresar hacia el curso en el cual se
configuran y se organizan, estableciendo sus conexiones (y desconexiones) mutuas. Los artefactos que
posibilitan la secuenciación del genoma humano son aquellos que permiten realizar operaciones
quirúrgicas (de unión y separación) no sólo sobre el ADN, como se suele afirmar frecuentemente de
manera reductiva, sino, en general, sobre los trazos que se constituyen en el ámbito de la Biología
molecular y la Bioquímica, analizados en el capítulo anterior. Mediante la aplicación de este criterio,
podemos circunscribir el curso que da razón del plano tecnológico del PGH a la génesis y el desarrollo
de la Biotecnología, evitando así la confusión inherente a un regressus hacia técnicas anteriores dadas a
otra escala, como pudieran ser las técnicas de selección artificial aplicadas sobre los organismos.
Además, queda establecido un nexo fundamental entre dos de los factores del contexto
histórico determinante del PGH, que contribuye a clarificar su entramado.
Una descripción precisa puede consultarse en Peter Sudbery, Genética Molecular Humana, (Pearson
Prentice Hall, Madrid, 2004, págs. 56-142).
59
ENERO
2012
CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA. | PABLO INFIESTA MOLLEDA
1.- De la Biología molecular a la Biotecnología: la ingeniería genética.
La Biotecnología tiene su origen en la implementación de varios operadores que
permitieron manipular directamente los cuerpos y los fenómenos establecidos en el campo de la Biología
molecular. Los antecedentes inmediatos de la Biotecnología se encuentran en las técnicas utilizadas para descifrar
el código genético. Como hemos visto, era posible fabricar mARN con una secuencia determinada, e
introducirlo en una solución líquida de componentes celulares donde interactuaba con los
aminoácidos.
Sin embargo, no ocurría lo mismo con el ADN: en la década de 1950, el bioquímico
Arthur
Kornberg
ADN
mediante
desenrollada.
genoma,
había
la
formación
Trabajando
pero
experimentos
el
de
extremos
de
Kornberg
estuvo
replicando
el
en
el
original,
la
ADN
polimerasa,
una
copia
complementaria
era
no
viral,
se
de
conocería
de
original.
virus
El
multiplicándose
inducir
hasta
El
1967,
ADN
polimerasa,
la molécula
el
organismo
de
su
de
replicación
éxito
y
bacteria
fracaso
de
los
Gellert
y
Bob
unía
los
que
De
este
experimentos
los
un bucle
mismas
cadena
su
enzima
juntando
formaba
una
el
de
Martin
sus
replica
artificial
del
covalentes.
ADN viral artificial presentaba las
en
que
partir
cuando
enlaces
ADN
que toda
a
otra
con
enzima
motivo
ligasa,
completar
el
una
la
inerte.
formando
de
con
modo
la
ADN
disposición
del
pudo
biológicamente
simultáneamente
en
ADN
la
ADN
molécula
ligasa,
virus
con
Kornberg
identificaron
la
de
resultado
Lehman
mediante
identificado
modo,
iniciales,
dos
extremos
continuo,
propiedades
huésped,
la
como
que el
Escherichia
Coli1
A finales de los años sesenta, Werner Arber, bioquímico y microbiólogo suizo,
estudió
el
insertarse
proceso
en
bacterianas
ADN
en
bacterias
que
poseían
foráneo. El corte
nitrogenadas:
por
el
cual,
en
ocasiones,
los
huésped.
La
ruptura
sólo
se
producía
restringía
el
crecimiento
una
se
encima
produce
ejemplo,
la
que
como
enzima
reacción
de
ADN
a
una
restricción
virales
se
en
R1
aquéllas
viral
secuencia
Eco
fragmentaban
células
separando
específica
corta
tras
la
de
el
bases
secuencia
GAATC. Arber descubrió, también, que las enzimas de restricción no cortan el ADN de sus propias células,
porque las bacterias producen una segunda enzima que modifica las secuencias de bases susceptibles de
ser cortadas2
A comienzos de la década de los 70, los principales operadores de la futura
Biotecnología, esto es, la ADN ligasa que une fragmentos de ADN, y las enzimas de
60
restricción que los separan, estaban ya identificados. Sin embargo, todavía no se había
producido
su
implementación,
y
por
tanto
no
ENERO
2012
1
Vid. James Watson, ADN. El secreto de la vida, Tauros, Madrid, 2003, pág. 88.
2
Vid. Watson, Op. Cit., pág. 89.
estaban
configurados
como
tales.
Por
PABLO INFIESTA MOLLEDA | CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA.
ejemplo,
en
el
contexto
de
las
investigaciones
anteriores
las
enzimas
de
restricción
eran, más bien, cuerpos que mantenían relaciones químicas de carácter necesario con
una determinada secuencia de bases nitrogenadas; del mismo modo que tres uracilos
se enlazan químicamente con la fenilalanina en la síntesis de proteínas.
En 1971, Stanley Cohen, en la Universidad de Stanford, desarrolló un método para que las
células de la bacteria E. Coli pudieran incorporar «plásmidos» del exterior. Los plásmidos son pequeños
bucles de ADN ubicados en el interior de la bacteria, mediante los cuáles ésta puede mutar su propio
genoma. Mediante su técnica, Cohen podía transformar la bacteria con ADN ajeno, consiguiendo que
una cepa susceptible a la acción de un antibiótico se convirtiese en inmune mediante la implantación de
un plásmido tomado de una cepa resistente. Dado que la transformación era genética, la transmitía el
nuevo carácter a las generaciones siguientes: el ADN de plásmido se transmitía intacto en todas las
divisiones celulares3
Todas estas configuraciones estaban a punto de converger en el ámbito de la genética
molecular, provocando la irrupción de la Biotecnología. En un congreso sobre plásmidos celebrado en
Honolulú en 1972, Stanley Cohen trabó contacto con Herb Boyer, un joven biólogo molecular de la
Universidad de California. Boyer había identificado un año antes (junto con Robert Yoshimori ) la
enzima de restricción Eco R1, a la que antes aludíamos. Esta enzima tiene la peculiaridad de cortar la
doble hélice del ADN en un lugar específico, entre la guanina y la citosina de los lados opuestos de la
hélice. Aplicando la Ecoli Rl, el ADN se separa del tal modo que en sus dos extremos presenta
secuencias de nucleótidos complementarias, denominadas «extremos pegajosos» debido a que las
secuencias complementarias pueden unirse fácilmente mediante enlaces de hidrógeno y ADN ligasa.
Gracias a este hallazgo, desde el punto de vista bioquímico resultaba hipotéticamente posible combinar
fragmentos de ADN de distintas especies. En el congreso de Honolulú, Boyer y Cohen pusieron en
común los resultados de sus investigaciones, y comenzaron a pergeñar la tecnología del ADN
recombinante, que está en la base de la ingeniería genética4.
Unos meses después, los laboratorios de Cohen , en Palo Alto, y Boyer, en San Francisco,
comenzaron a colaborar para producir un híbrido de dos plásmidos distintos, cada uno de los cuales
otorgaba a la bacteria receptora resistencia frente a un medicamento en particular. El objetivo era lograr
una cepa bacteriana con resistencia a los dos medicamentos. En primer lugar, los plásmidos fueron
cortados mediante enzimas de restricción. A continuación, fueron mezclados en un tubo de ensayo,
utilizando ADN ligasa para unir los extremos. Así, fue posible lograr plásmido compuesto por
fragmentos de los originales, que, una vez transplantados a las bacterias mediante los métodos de
Cohen, las convirtieron en inmunes a los medicamentos. El siguiente paso consistió en insertar
fragmentos de genes de distintas especies: Boyer y Cohen
introdujeron, mediante el mismo
3
Vid. Thomas F. Lee, El Proyecto Genoma Humano. Rompiendo el código genético de la vida, págs. 121-122.
4
Vid.Watson, Op. Cit, pág. 91.
61
ENERO
2012
CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA. | PABLO INFIESTA MOLLEDA
procedimiento, un gen del sapo con garras africano en un plásmido de E. Coli, introduciéndolo en una
cepa bacteriana. Cada vez que se producía la división celular de las bacterias, el segmento insertado de
ADN de sapo se replicaba. De este modo, no sólo era posible fabricar ADN recombinante, sino también
clonar genes específicos de cualquier organismo. La ingeniería genética era ya una realidad5
En es este contexto donde las entidades que venimos exponiendo se configuran como
operadores. Si repasamos el párrafo anterior, podremos constatar que las enzimas de restricción no
aparecen ya como cuerpos con determinadas características bioquímicas que interactúan con otros
cuerpos de su entorno, sino como cuchillos moleculares que los actores implicados en el origen de la
ingeniería genética utilizan para separar fragmentos de ADN; del mismo modo que un minero utiliza el
pico para separar trozos de carbón, a otra escala. Lo mismo ocurre con el resto de las configuraciones
artefactuales examinadas.
Los operadores conformados en el contexto de la ingeniería genética desempeñarán un papel
fundamental en el desciframiento de la secuencia del genoma humano. Las enzimas de restricción y la
ligasa posibilitan las operaciones quirúrgicas sobre el material genético inherentes al proceso, y las
técnicas de clonación permiten obtener un amplio catálogo de fragmentos específicos de ADN para ser
estudiados.
2.- La tecnología de secuenciación.
A partir de la tecnología del ADN recombinante, comenzó a plantearse la posibilidad de
establecer la secuencia de las bases nitrogenadas. La capacidad de fragmentar, unir y clonar el ADN era
condición necesaria, pero no suficiente. No basta con realizar operaciones quirúrgicas sobre el material
genético mediante operadores bioquímicos, sino que se requiere de algún tipo de relator capaz de fijar
simbólicamente el orden de las bases nitrogenadas. Durante la década de los setenta se desarrollarían los
primeros métodos de secuenciación, que servirán de modelo a toda la tecnología posterior utilizada en
la consecución del desciframiento del genoma humano.
Fred Sanger, que ya había establecido la primera secuencia de aminoácidos de unaproteína
completa en sus experimentos con la insulina, diseño en 1975 la primera técnica de secuenciación del
ADN. El método de Sanger parte de la separación de un fragmento de ADN en cadenas simples. Los
filamentos se colocan en cuatro tubos de ensayo, en los cuales se introducen todos los elementos
necesarios para la formación de nuevas moléculas de ADN: los cuatro tipos de nucleótidos, la ADN
polimerasa y un oligonucleótido marcado radiactivamente (una cadena corta de nucleótidos con
62
ENERO
2012
una secuencia de bases determinada que puede fabricarse en el laboratorio). El oligo funciona como
disparador, que inicia el proceso de ensamblaje, donde los nucleótidos sueltos se van asociando uno a
uno a las nuevas cadenas formadas por la acción de la polimerasa, que reproduce la cadena original.
5
Vid. Watson, Op. Cit, págs. 92-94.
PABLO INFIESTA MOLLEDA | CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA.
Ahora bien: en cada uno de los tubos, Sanger introdujo uno de los cuatro tipos de «nucleótidos
disesoxi», que tienen la propiedad de interrumpir el proceso de formación de la nueva cadena a la que
se añaden. Los nucleótidos convencionales y los didesoxi se agregaban azarosamente, con lo cual en
cada uno de los tubos de ensayo se formaban una gran cantidad de cadenas de distinta longitud, con la
peculiaridad de que todas terminaban en la misma base nitrogenada (al ser detenidas por la
incorporación por el mismo nucleótido didesoxi)6.
En este punto tenemos, por tanto, cuatro grupos de cadenas de ADN de longitud variable,
diferenciados por la base en que finalizan (A, C, G, o T). Para establecer la secuencia, la mezcla de
cadenas recién sintetizadas se separa según sus respectivas longitudes mediante gel-electroforesis de
poliacrilamida: se disponen todas las cadenas en una placa impregnada con un gel bañado en una
solución de poliacrilamida, que crea un tamaño de poro uniforme. La placa se coloca entonces en un
campo eléctrico, que fuerza a las moléculas a desplazarse a través de los poros hacia el polo positivo
(debido a la carga negativa de los grupos fosfato). La distancia recorrida es inversamente proporcional
al tamaño de la cadena, de modo que, al final de proceso, los distintos fragmentos de ADN aparecen
ordenados en función de su tamaño a lo largo de una línea en el gel. Mediante una autorradiografía,
pueden observarse los rastros del ADN en la senda del gel, lo que permite leer directamente la
secuencia de las nuevas cadenas. Así, la secuencia del ADN original puede ser deducida a partir de la
secuencia complementaria obtenida mediante el examen de la longitud creciente de nucleótidos en las
cadenas ordenadas7.
En 1977, el biólogo molecular Walter Gilbert, en colaboración con Alan Maxam, desarrolló un
método alternativo para secuenciar el ADN. El punto de partida es, también, una colección de cadenas
aisladas de ADN, pero, en este caso, se marca uno de los extremos de cada una de las cadenas con una
forma radiactiva de fósforo (32P). Entonces, se aplican al ADN compuestos químicos que alteran uno de
los cuatro tipos de bases nitrogenadas. Posteriormente, otro agente químico corta la cadena en el punto
en el que el nucleótido ha sido alterado. No todas las cadenas se cortan en el mismo punto, con lo cual,
al final del proceso, se obtienen cadenas de distinta longitud, que terminan en el mismo nucleótido
(aquél que haya sido alterado con el compuesto químico inicial). Una vez se han obtenido fragmentos
terminados en cada una de las bases nitrogenadas, se realiza el proceso de electroforesis, de modo que
se obtienen los mismos resultados que en el método de Sanger. No obstante, los procedimientos
químicos mediante los cuales se divide el ADN son muy dificultosos y peligrosos, con lo cual el método
de Gilbert fue cayendo progresivamente en desuso8.
Es importante señalar aquí que, en el marco de las investigaciones de Gilbert, dos
morfologías de gran importancia para el PGH recibieron su conformación actual: a principios de la década de
1970, Richard Roberts, Ph. Sharp y otros biólogos moleculares identificaron en muchos organismos tramos de
6
.Vid. Lee, Op. CU, págs. 170-171
Vid. Lee, Op. C it págs. 140-141-172- y Sudbery, Op. Cit pág. 94.
8
Vid Lee, Op. Cit. págs. 172-173; y Watson, Op. Cit . 107-108.
7
63
ENERO
2012
CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA. | PABLO INFIESTA MOLLEDA
ADN que no codifican ningún aminoácido. Estos tramos se transcribe, pero ei producto de su transcripción se
elimina del mARN maduro y funcional en la síntesis de proteínas. Gilbert definió estos segmentos de ADN
aparentemente inútiles como «intrones», frente a los «exones» o genes responsables de la codificación de
cadenas polipeptídicas. En el proceso de constitución de la Biotecnología no sólo adquieren su formato los
componentes artefactuales del PGH, sino que, también, se conforman nuevos trazos; lo cual no debería resultar
extraño, en tanto que las operaciones tecnológicas transforman objetos, dando lugar eventualmente a nuevas
configuraciones. Como ya señalamos en su momento, los cursos no son puros y, aunque el regressus tenga como
terminus a quo un tipo de configuraciones específico, en el progressus pueden encontrarse configuraciones
de cualquier otro tipo.
Volviendo al plano estrictamente tecnológico, durante la década de los ochenta se produjo una
innovación crucial: la secuenciación, que hasta entonces necesitaba del concurso de los investigadores para leer y
registrar los datos, se automatizó gracias a la implementación de potentes computadores y programas
informáticos. Las nuevas tecnologías tomaron como base el método de Sanger, aunque sustituyendo los
marcadores isotópicos por cuatro colorantes fluorescentes que marcan cada uno de los nucleótidos didesoxi con un
color diferente. El producto de estas reacciones se desplaza en un único surco de un gel de electroforesis de
poliacrilamida. En el extremo inferior del gel, un láser excita los fluoróforos incorporados en las cadenas de
ADN. El orden de los picos de color es registrado por un detector, y la información generada se almacena
automáticamente como un archivo digital de secuencia de ADN. Posteriormente, el archivo de datos es
analizado con programas informáticos capaces de ensamblar las distintas secuencias obtenidas9.
Estamos, en suma, ante un relator, que realiza operaciones sobre objetos para obtener proposiciones en
las cuales quedan determinadas ciertas relaciones abstractas entre dichos objetos. En este caso, la secuencia de
las bases nitrogenadas de un genoma determinado.
Así, por ejemplo, el ABI 373 A, desarrollado en 1986 por Michael Hunkapiller en Applied
Biosystems, una división de la Perkin Elmer Corporation. El salto cuantitativo es considerable: la máquina
de Hunkapiller podía analizar veinticuatro muestras simultáneas, con un rendimiento de doce mil bases de ADN al
día10. Con el método manual, el desccifamiento del genoma humano hubiera sido una tarea
inacabable. Gracias a las tecnologías de la computación, la secuenciación del genoma se convirtió en un
proyecto plausible.
En conclusión, hemos podido constatar cómo, en el curso del desarrollo de la Biotecnología, un
conjunto de realidades heterogéneas se configuran como artefactos, operadores y relatores, en relación a otras
configuraciones circulares y radiales con las que se codeterminan.
64
ENERO
2012
9
Vid. Sudbery, Op. Cit., pág. 93.
Vid. Kevin Davies, La conquista del genoma humano. Craig Venter, Francis Collíns, James Watson y la historia del mayor
descubrimiento científico de nuestra época, Paidós, Barcelona, 2001, pág. 84.
10
PABLO INFIESTA MOLLEDA | CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA.
Capítulo V. La incorporación de las ciencias biológicas a la Big Science. PABLO INFIESTA MOLLEDA El examen de los actores, instituciones y materiales implicados en el PGH remite,
inmediatamente, al contexto de los macroproyectos científicos que suelen caracterizarse con el
expresivo rótulo de «Big Science». Como es bien sabido, la afortunada expresión fue acuñada por el
sociólogo de la ciencia Derek de Solía Price, en su influyente obra Little Science, Big Science, para
hacer referencia a todos aquéllos proyectos científicos que, por su tamaño, repercusión y coste
económico desbordan los marcos cuantitativos de la ciencia tradicional, hasta el punto de amenazar con
erradicarla: «la ciencia de hoy desborda tan ampliamente la anterior, que resulta evidente que hemos
entrado en una nueva era que lo ha barrido todo, a excepción de las tradiciones científicas básicas»1.
Cuando elaboró su concepción, en 1936, Price estaba tomando en consideración, principalmente, a la
Física de su época. Sin embargo, las ciencias biológicas tardaron varios decenios más en adquirir las
dimensiones de la Big Science. En el contexto del descubrimiento de la doble hélice, las instituciones
implicadas eran pequeños laboratorios con escasos recursos económicos, donde grupos reducidos de
actores realizaban investigaciones dispersas, fruto en muchas ocasiones de la iniciativa personal. El
ejemplo de Watson y Crick es palmario. Sin embargo, en el caso del PGH se presenta un panorama
muy distinto: instituciones gubernamentales (el NIH o el DOE2), empresas (Celera Genomics), redes
internacionales de grandes laboratorios (el Consorcio Internacional para la Secuenciación del Genoma
Humano), etc. Los actores implicados también han sufrido una profunda transformación: empresarios y
políticos cobran una gran importancia en la toma de decisiones, y los laboratorios se llenan de
trabajadores asalariados que desempeñan una función especializada. El investigador aislado no tiene
cabida en este contexto, y los grandes científicos son ahora directores de proyectos. El caso de Watson
es, de nuevo paradigmático. Si existiese alguna duda acerca de la condición cuantitativa del PGH, los
3.000 millones de dólares presupuestados por el Gobierno de los EE.UU. se encargan de despejarla . No
parece necesario argumentar demasiado para justificar que la escala de los sociofactos en el seno del
PGH está dada por la Big Science.
Ahora bien, ¿cuándo se produjo la entrada de las ciencias biológicas en el ámbito de la «gran
ciencia»? O, dicho de otro modo, ¿cuál es el límite del regressus realizado desde los sociofactos que
forman parte constituyente del PGH? En este punto, el curso que estamos examinando intersecta con el
anterior, dado que el salto cuantitativo en las ciencias biológicas vino determinado por las aplicaciones
de los materiales producidos por la Biotecnología.
65
ENERO
2012
1
2
Derek de Solía Price, Hacia una ciencia de la ciencia, Barcelona, Ariel, 1973, pág. 34.
Instituto Nacional de Salud y Departamento de Energía de los EE.UU., respectivamente, por sus siglas en inglés.
CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA. | PABLO INFIESTA MOLLEDA
1. Las aplicaciones de la ingeniería genética y el tránsito a la Big Science.
La tecnología del ADN recombinante, desarrollada por Herb Boyer y Stanley Cohen, dio lugar
a la posibilidad de fabricar productos con fines específicos que alcanzaron un gran valor comercial.
Los primeros éxitos se produjeron gracias a la síntesis de productos génicos de gran utilidad en
la terapia clínica. Mediante las técnicas de manipulación, modificación y transferencia de genes, fue
posible inducir a las bacterias a producir proteínas valiosas, de las cuales la primera fue la insulina: en
1976, un grupo de investigadores bajo la dirección de Herb Boyer aisló el mARN producido por el gen
de la insulina. Debido al proceso de corrección, el mARN carece de los intrones del ADN a partir del
cual se copia, con lo cual eliminaba todo el material genético sobrante para la síntesis de la proteína.
Mediante la ARN transcriptasa, descubierta en 1970 por Termin y Baltimore, el equipo de Boyer pudo
producir ADN a partir del mARN aislado, obteniendo así un fragmento de ADN con toda la
información necesaria para que la bacteria produjera la insulina3.
La síntesis de la insulina no se produjo en un laboratorio universitario, sino que la institución
responsable fue la empresa Genentech (acrónimo de «genetic engineering technology»), fundada por el
propio Herb Boyer y el financiero Bob Swanson para comercializar los productos de la ingeniería
genética. El papel de Boyer no era ya alcanzar resultados académicos de prestigio, o labrarse una
carrera profesional como científico, sino fabricar materiales económicamente rentables. La insulina
constituyo el primer objetivo comercial para Genentech : los ocho millones de diabéticos que se
estimaban sólo en Estados Unidos eran consumidores potenciales.
En 1978, Walter Gilbert, junto con un consorcio de empresarios, de EE.UU. y Europa, crearon
Biogen para competir con la iniciativa de Boyer y Swanson. No sólo las instituciones se estaban
transformando, convirtiéndose en fábricas de productos biológicos; los propios actores, que antes
desempeñaban el rol de investigadores, eran ahora empresarios en busca de beneficios. Como señala
Watson, «ahora, la participación en la carrera comercial es parte normal de la carrera de un pez gordo
del ADN»4. Los resultados no se hicieron esperar: una vez desarrollada la técnica para
producir insulina, en 1978 Swanson vendió la licencia exclusiva para distribuir la proteína a Ely Lilly,
la compañía que controlaba el 85% del mercado, con una facturación anual cercana a los 3.000 millones
de dólares. Dos años después, en 1980, Genentech saldría a bolsa: en unos minutos, sus acciones
subieron de 35 dólares iniciales a 85, en su momento la mayor revalorización de Wall Street. Gracias a
la síntesis de la insulina, Boyer y Swanson ganaron más de 60 millones de dólares cada uno. La
industria biotecnológica estaba ya consolidada, y la rentabilidad de las investigaciones biológicas era
66
una realidad5.
3
ENERO
2012
Vid. Robert Cook-Degan, The Gene Wars, W. W. Norton & Company, Nueva York, 1994, págs. 117-161, Vid. James Watson,
ADN. El secreto de la vida, Taurus, Madrid, 2003, pág.118
4
Watson, Op Cit pág. 122 .
5
Vid. Watson, Op. C/í.,págs. 119-120. Vid. Renato Dulbecco, Los genes y nuestro futuro. La apuesta del Proyecto Genoma, Alianza, Madrid,
págs. 168-187.
PABLO INFIESTA MOLLEDA | CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA.
Desde entonces, florecieron multitud de compañías biotecnológicas, y las industrias
farmacéuticas, conscientes de los resultados que se podían obtener en el desarrollo de medicamentos,
comenzaron a realizar grandes inversiones en el campo de la Biología molecular.
Las técnicas de ingeniería genética posibilitaron, además, la identificación y el aislamiento de
muchos genes implicados en enfermedades hereditarias muy extendidas: la anemia falciforme, la
hemofilia, el retinoblastoma, la hipercolesterolemia, la fibrosis quística la osteoartritis, la corea de
Huntington, etc. De este modo se pueden detectar precozmente los genes asociados a estas
enfermedades, e incluso, mediante la terapia génica, intervenir directamente sobre los genes alterados.
La Biotecnología había dado lugar a una nueva fuente de beneficios, tanto económicos como sanitarios,
que despertarían el interés de las empresas farmacéuticas y las instituciones gubernamentales.
Podríamos continuar con el relato de las instituciones, actores y materiales que se conforman en el
marco de la Big Science. Pero, con lo dicho, queda caracterizado el curso en el cual se configuran las partes
constituyentes del PGH que adscribimos al ámbito de los socio/actos, en sus relaciones mutuas con otras
configuraciones que ya han sido previamente examinadas en los cursos anteriores. El siguiente paso adelante nos
pondría, además, frente a los ortogramas, planes y programas que intervienen en la constitución del PGH, lo cual
escapa a los propósitos del presente trabajo.
Conclusiones
El examen de la bibliografía acerca de la génesis del PGH revela la existencia de un conjunto
de problemas relacionados con la delimitación de sus contenidos, y la determinación de las conexiones
que se establecen entre ellos. Tales problemas no son resolubles desde categorías científicas, dado que
implican cuestiones ontológicas y gnoseológicas centrales. Por ello, para evitar la oscuridad y
confusión derivada de los tratamientos acríticps, es necesario adoptar un conjunto de principios
filosóficos que permitan delimitar y organizar los materiales implicados en el origen del PGH.
La propuesta metodológica que hemos formulado a tales efectos desde el materialismo
filosófico está condicionada por las propias características de la cuestión estudiada. El PGH, aun siendo
un proyecto científico, incorpora también contenidos tecnológicos y sociales en su seno. De tal modo
que los aspectos sociológicos y tecnológicos no pueden ser eliminados, en tanto que forman parte
constituyente del propio Proyecto. No cabe, por tanto, establecer distinciones tajantes entre contenidos
internos y externos, ni mucho menos ignorar cualquiera de los aspectos del PGH cuando se afronta la
cuestión de su génesis. No tanto por incurrir en excesos reduccionistas, cuanto por la imposibilidad
efectiva de la reconstrucción. Así, la elaboración de una metodología adecuada a los propósitos de la
investigación supuso la necesidad de incluir desarrollos originales con el objetivo de poder abordar los
distintos contenidos del PGH, sin perjuicio de su raigambre eminentemente gnoseológica. El enfoque
67
ENERO
2012
CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA. | PABLO INFIESTA MOLLEDA
adoptado permitió disociar tales contenidos para su examen particular, subrayando siempre su
interconexión mutua.
En la segunda parte del trabajo, dedicada a la reconstrucción de los cursos que conforman el
entorno del PGH, cobra mayor protagonismo la perspectiva sociohistórica, aunque las precisiones
filosóficas realizadas delimitan, orientan y organizan los materiales estudiados. Las conclusiones
parciales alcanzadas, siempre provisionales y sujetas a posteriores revisiones, dependen por completo
de los entramados argumentales y factuales en los que se engranan. Por ello, remitimos a sus lugares
naturales para su consulta y evaluación. Exponerlas aquí desconectadas de su contexto, como si se
tratase de proposiciones necesarias derivadas de un proceso deductivo, supondría la perversión de la
actividad filosófica, crítica y dialéctica, que hemos intentado ejercitar.
Más oportuna resulta la reseña de los problemas abiertos, que constituyen, al mismo tiempo,
expectativas para el futuro de nuestra investigación doctoral. En general, la reconstrucción realizada
debe entenderse como una primera aproximación, que requiere de una profundización ulterior. Queda
pendiente, también, la fundamentación de las posiciones gnoseológicas adoptadas al respecto de la
Biología molecular y la doble hélice, que sustentan en gran medida la tesis central acerca de los límites
del entorno del PGH. Por último, el presente trabajo se circunscribe al examen de los factores
determinantes del PGH. Para completar la reconstrucción anamórfica esbozada en el planteamiento
general derivado de la aplicación de la metodología propuesta a la cuestión de la génesis del Proyecto,
será necesario analizar los planes y programas que conducen a su cristalización definitiva, y volver
sobre la figura institucional determinada de origen. Dada la dificultad inherente a la formulación de los
problemas filosóficos, el bosquejo de algunas de las vías por las que discurrirá nuestra investigación
posterior no es el menos importante de los resultados alcanzados aquí.
68
ENERO
2012
PABLO INFIESTA MOLLEDA | CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA.
Bibliografía
1. Metodología:
Alvargonzález, David, «El darvinismo visto desde el materialismo filosófico», El Basilisco, 2o época,
Pentalfa, Oviedo, 1996, págs. 3-46.
Bueno, Gustavo, Teoría del cierre categorial, Vols. I-V, Pentalfa, Oviedo,1991-1993.
Bueno, Gustavo, El sentido de la vida, Pentalfa, Oviedo,1996
Bueno, Gustavo, El Animal Divino, 2a edición, Pentalfa, Oviedo, 1996
Bueno, Gustavo, El mito de la cultura, 2° ed, Prensa Ibérica, Barcelona, 2004.
Bueno, Gustavo, «Conceptos conjugados», El Basilisco,1º época, nº 1, Pentalfa, Oviedo, 1978, págs. 8892.
Bueno, Gustavo, «La Etología como ciencia de la cultura», El Basilisco, 2ª época, n° 9, Pentalfa,
Oviedo, 1991.
Bueno, Gustavo, Ensayos Materialistas, Taurus, Madrid, 1972.
Bueno, Gustavo, Materia, Pentalfa, Oviedo, 1990.
Bueno, Gustavo, Cuestiones cuodlibetales sobre Dios y la religión, Mondadori, Madrid, 1989.
Bueno, Gustavo, El papel de la filosofía en el conjunto del saber, Editorial Ciencia Nueva, Madrid,
1970.
Bueno, Gustavo, España frente a Europa, Alba Editorial, Barcelona, 1999.
Callon, M., «Cuatro modelos de dinámica de la ciencia», en J. A. López Cerezo y A. Ibarra [Eds.],
Desafíos y tensiones actuales en Ciencia, Tecnología y Sociedad, Biblioteca Nueva, Madrid,
2001.
Calllon, M., «Algunos elementos para una sociología de la traducción: la domesticación de las vieiras y
los pescadores de la bahía de St. Brieuc», en J. M. Iranzo [Comp ], Sociología de la ciencia y la
tecnología, Madrid, CSIC, 1995.
Fernández Tresguerres, Alfonso, Los dioses olvidados. Caza, toros y filosofía de la religión, Pentalfa,
Oviedo, 1993
Hacking, Ian, Representar e intervenir, Paidós, México, 1996.
Hacking, Ian, «La autojustificación de las ciencias de laboratorio», en A. Ambrogi [Ed.], Filosofía de la
Ciencia: el Giro Naturalista, Universitat de les Illes Balears, Servei de Publicacions i Intercanvi
Cientific, Palma de Mallorca, 1999.
Hidalgo, Alberto, Gnoseología de las ciencias de la organización administrativa. La organización de la
ciencia y la ciencia de la organización, Servicio de publicaciones de la Universidad de Oviedo,
Oviedo, 1991.
Hidalgo, Alberto, «La Biología molecular: ¿revolución o cierre?», en Alberto Hidalgo y Gustavo Bueno
Sánchez [Eds.], Actas del I Congreso de teoría y Metodología de las Ciencias, Pentalfa, Oviedo,
1982, págs. 293-308.
Huerga Melcón, Pablo, La ciencia en la encrucijada, Pentalfa, Oviedo, 1999.
69
ENERO
2012
CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA. | PABLO INFIESTA MOLLEDA
Latour, B., y Woolgar, S., La vida en el laboratorio: la construcción de los hechos científicos, Alianza,
Madrid, 1995.
Latour, B., Ciencia en acción, Labor, Barcelona, 1992.
Pickering, A. [Ed.], Science as Practice and Culture, University of Chicago Press, Chicago, 1992.
Woolgar, S., Ciencia: abriendo la caja negra, Anthropos, Barcelona, 1991.
2.- Fuentes:
Bishop, Jerry, y Waldholz, Michael, Genome. The Story of the Most Astonishing Scientific Adventure of
Our Time -The Attemp to Map All the Genes in the Human Body, Simon and Schuster, Nueva
York,1990.
Cairns, John et alii
[Eds.], Phage and The Origins of Molecular Biology, Cold Spring Harbor
laboratory, Nueva York, 1966.
Chambers, Donald, DNA, The Double Helix. Perspectives and Prospectives at Forty Years, The New
York Academy of Sciences, Nueva York, 1995.
Collins, Francis, ¿Cómo habla Dios? La evidencia científica de la fe, Temas de Hoy, Madrid, 2007.
Cook-Degan, Robert, The Gene Wars. Science, politics and the human genome,W. W. Norton &
Company, Nueva York, 1994.
Crirk, Francis,Qué loco propósito. Una visión personal del descubrimiento científico, Tusquets,
Barcelona, 1989.
Davies, Kevin, La conquista del genoma humano. Craig Venter, Francis Collins, James Watson y la
historia del mayor descubrimiento científico de nuestra época, Paidós, Barcelona, 2001.
Dulbecco, Renato, Los genes y nuestro futuro. La apuesta del Proyecto Genoma Alianza, Madrid, 1999.
Dulbecco, Renato, «A Turning Point in Cancer Research: Sequencing the Human Genome», Science, n°
231, 1986, págs. 1055-56.
García Barreno, Pedro, [Dir.], Cincuenta años de ADN. La doble hélice, Espasa, Madrid, 2003
Jacob, François, La lógica de lo viviente, Tusquets, Barcelona, 1999.
Judson, Horace F., The Eight Day of Creation, Cold Spring Harbor Laboratory Press, Nueva York,
1996.
Kay, Lii, «A Book of Life? How a Genetic Code Became a Languaje» en Philip R Sloan [Ed.],
Controlling Our Destinies. Historical, Ethical Philosophical and Theological Perspectives on
the Human Genome Project, University of Notre Dame Press, Indiana, 2000, págs.
Kevles, Daniel, y Hood, Leroy, [Eds.) The Code pf Codes. Scientific and Social Issues in the Human
Genome Project, Harvard University Press, Mass, 1993.
Klug, Aaron, «El descubrimiento de la doble hélice del ADN», en Torsten Krude [Ed.], Cambios en la
70
ENERO
2012
ciencia y en la sociedad, Akal, Madrid, 2008
Lee, Thomas F., El Proyecto Genoma Humano, Rompiendo el código genético de la vida, Gedisa,
Barcelona, 2000.
Lewontin, Richard, El sueño del genoma humano y otras ilusiones, Paidós, Barcelona, 2001.
PABLO INFIESTA MOLLEDA | CAPÍTULO IV. EL DESARROLLO DE LA BIOTECNOLOGÍA.
Olby, Robert, El camino hacia la doble hélice, Alianza, Madrid, 1991
Rabinow, Paul, Making PCR. A Story of Biotechnology, University of Chicago Press, Chicago, 1996.
Sánchez
Ron,
José
Manuel,
El
poder
de
la
ciencia.
Historia
social,
política
y
económica de la ciencia (siglo XIXs XX), Crítica, Barcelona, 2007.
Schrodinger, Erwin, ¿Qué es la vida?, Tusquets, Barcelona, 1983.
Watson, James, La doble hélice, Alianza, Madrid, 2000.
Watson, James, ADN. El secreto de la vida, Taurus, Madrid, 2003.
Watson, James, Pasión por el ADN. Genes, genomas y sociedad, Crítica, Barcelona, 2002.
Watson, James, y Crick, Francis, «Molecular Structure of Nucleic Acids. A Structure for Deoxyribose
Nucleic Acid», Nature, 171,1953, págs. 737-738.
Watson, James, y Crick, Francis, «Genetical Implications of the Structure of Deoxyribonucleic Acid»,
Nature, 171,1953, págs. 964-967
3. Obras de consulta:
Griffiths, Anthony et alii, Genética, McGraw Hill, Madrid, 2002.
Nelson, David, y Cox, Michael, Lehninger. Principios de Bioquímica, Omega, Barcelona, 2006.
Lodish, Harvey et alii, Biología Celular y Molecular, Editorial Médica Panamericana, Madrid, 2005.
Strachan, Tom, y Read, Andrew, Genética Humana, McGraw Hill, México, 2006.
Sudbery, Peter, Genética Molecular Humana, Pearson Prentice Hall, Madrid, 2004.
71
ENERO
2012
Aida Pulido Vigil | El proyecto genoma humano según la prensa escrita, para el “ciudadano medio”.
El Proyecto Genoma Humano según la prensa escrita, para el “ciudadano medio”. Aida Pulido Vigil1 Resumen Desde que se pusiera oficialmente en marcha en Octubre de 1990
el Proyecto Genoma Humano ha sido objeto de numerosas
noticias. Recuperándolas, el interrogante acerca de la concepción
sobre él predominante entre la “ciudadanía media” haya su
respuesta. Constituyendo la prensa escrita uno de los medios de
acceso fundamentales al conocimiento científico para el
“ciudadano medio”, reconstruir el seguimiento que ésta le ha
dedicado bastará para determinar qué es el Proyecto Genoma
Humano para el “ciudadano medio”.
1
Nacíó en Oviedo en 1988. Cursó el bachillerato de Ciencias
Sociales en el IES Escultor Juan de Villanueva de Pola de Siero.
Licenciada en Filosofía por la Universidad de Oviedo en 2011,
actualmente está cursando el Master Universitario de Profesorado
de Enseñanza Secundaria, Bachillerato y Formación Profesional
en la misma Universidad de Oviedo..
Abstract Since it was officially put in place in October 1990 the Human Genome Project has been the subject of numerous news. To recover them is to answer the question about the prevailing conception between ʺ average citizen ʺ. From a sociological point of view the press was still in the twentieth century one of the fundamental means of access to scientific knowledge for theʺ average citizenʺ. Hence, to reconstruct the track that the press has devoted us closer to the image that the ʺaverage citizenʺ has to determine what the Human Genome Project. 73
ENERO
2012
Aida Pulido Vigil | El proyecto genoma humano según la prensa escrita, para el “ciudadano medio”.
El Proyecto Genoma Humano según la prensa escrita, para el “ciudadano medio”. Aida Pulido Vigil2 *
En 1953 James Watson y Francis Crick descubren la estructura de la doble hélice del ADN. Inician, así, una
revolución en el ámbito de la genética que, progresivamente, se convierte en una de las disciplinas científicas más
prometedoras para la prevención, el tratamiento y la cura de enfermedades. Sus previsibles consecuencias hacen
de ella objeto de confianza. Confianza propia no sólo de aquellos que la cultivan; también el “ciudadano medio”3
ve en ella una fuente de esperanza. ¿A qué se debe esta concepción por parte de aquellos que nada tienen que ver
con la ciencia? La difusión y el seguimiento que la prensa escrita hace del conocimiento científico nos parece que
constituye una de las claves para la respuesta pues, creemos, es el medio que, en general (junto a la televisión y la
radio) el “ciudadano medio” utiliza para mantenerse informado sobre cuestiones políticas, sociales, económicas…
y científicas. En otras palabras, la prensa escrita constituye un vínculo de unión entre el conocimiento científico y
el “ciudadano medio” que, tal y como lo hemos definido, de otro modo no mantendría relación con el mismo.
Partiendo de esta postura, en las próximas líneas nos proponemos mostrar el seguimiento que un periódico de
tirada nacional, el ABC4, ha hecho del Proyecto Genoma Humano5. De este modo pretendemos poner de manifiesto
cómo se ha ido contando el curso del Proyecto, esto es, cómo ha sido definido, qué aspectos han sido enfatizados,
cuáles han sido obviados, qué perspectiva se ha adoptado respecto a sus consecuencias, etc. para, de acuerdo con
ello, concluir la concepción que el “ciudadano medio” tiene acerca del Proyecto.
1990: INICIO DEL PROYECTO
El Proyecto Genoma Humano inicia su andadura oficialmente en Octubre de 1990 con James Watson
como director. El objetivo que persigue, sin embargo, no es novedoso. De ahí que en Mayo de ese año ya se defina
la secuenciación del genoma humano como el deseo de “buscar el santo grial del ser humano…, de comprender la
esencia de la vida del hombre”. Los beneficios que, presumiblemente, reportará también son ya en este momento
apuntados, reconociéndose que se trata de un “proyecto para el bien de la humanidad”.
En los meses sucesivos las noticias sobre el Proyecto continúan destacando las predicciones sobre sus
consecuencias. Se destaca, por ejemplo, el avance que supondrá en la identificación de “genes responsables de
enfermedades, entre las que destaca la esquizofrenia, el síndrome de Down y el cáncer”. No obstante, empiezan
también a plantearse los problemas éticos o jurídicos que puede suscitar. Se reconoce que “es enormemente
importante preveer los problemas que puedan plantearse. En torno a ellos gira el II Seminario sobre “Cooperación
internacional para el proyecto Genoma Humano: ética” que tiene lugar en Valencia entre el 12 y el 14 de
Noviembre. A él asisten Watson y el premio Nobel Gilbert. Sus intervenciones se recogen en las noticias relativas al
mismo. Del primero se destaca su reconocimiento de que «debemos elaborar normas de comportamiento en
genética», del segundo se recoge su pronóstico según el cual en diez años se conocerían todos los genes
relacionados con el cáncer. Algo que, según sus palabras, no proporcionará una cura para la enfermedad, pero sí una
explicación científica de la naturaleza del mal.
2
Nacíó en Oviedo en 1988. Cursó el bachillerato de Ciencias Sociales en el IES Escultor Juan de Villanueva de Pola de Siero. Licenciada en
Filosofía por la Universidad de Oviedo en 2011, actualmente está cursando el Master Universitario de Profesorado de Enseñanza
Secundaria, Bachillerato y Formación Profesional en la misma Universidad de Oviedo..
3
Cuando decimos “ciudadano medio” hacemos referencia a los individuos con formación y preocupados por la actualidad, pero sin ningún
interés o relación especial con la ciencia, esto es, a los individuos que no forman parte de ningún grupo humano en el que el nexo de unión entre
sus miembros es la ciencia.
4
Elegimos este periódico y no otro porque figura, según el Estudio General de Medios, entre los periódicos más leídos en España. Además en su
página web ofrece la posibilidad de acceder a su hemeroteca que, evidentemente, es la fuente de información necesaria para determinar el
seguimiento que ha hecho del Proyecto Genoma Humano.
5
En lo que resta también nos referiremos al Proyecto Genoma Humano como el “Proyecto” o, haciendo uso de sus siglas, como el “PGH”.
75
ENERO
2012
El proyecto genoma humano según la prensa escrita, para el “ciudadano medio” | Aida Pulido Vigil
1991-1992: POLÉMICA POR LA PATENTE DE GENES, WATSON DIMITE COMO DIRECTOR DEL PGH
“Polémica en EEUU por la patente de genes humanos”, éste es el titular que recoge el intento de Craig
Venter, un trabajador de los Institutos de Salud de EEUU (INH), de patentar 337 genes humanos y que se define
como el desencadenante de una “gran polémica científica”. “Entre los mayores críticos figura el premio Nobel e
impulsor del proyecto Genoma Humano, James Watson”, pues considera tal intención un “abuso del sistema de
patentes”.
Tres meses después del anuncio de la polémica se menciona el hecho de que Watson, en un artículo de la
revista Science, insistiese en su rechazo a la patente de genes, calificando la postura contraria como absoluta locura.
La alusión a esta reiteración en su postura no constituye una noticia, sino que se introduce como una
ejemplificación de la idoneidad y la necesidad de las jornadas que la Fundación BBV organizaría sobre los aspectos
legales del Proyecto en Enero de 1993. Noticia si es, en cambio, el posicionamiento del premio Nobel Walter
Gilbert a favor “de la patente de genes completos ya que, a su juicio, no plantea problemas éticos y es la única
garantía que poseen las compañías farmacéuticas para recuperar su gasto en investigación”. Sus palabras respecto a
la renuncia de Watson como director del Proyecto Genoma Humano también son recogidas. Gilbert mantiene que
““Watson dimitió porque pensó, al contrario que ciertas personas del Gobierno, que estas secuencias fragmentadas
no tienen valor ni utilidad para la sociedad” y que, pese a su dimisión el Proyecto continuará en EEUU “aunque el
mapa del Genoma no estará concluido hasta el año 2.000 o 2.005”.
La opinión de Gilbert sobre la renuncia de Watson se ratifica días después. Según ABC sus “propias
declaraciones han dejado entrever que el verdadero motivo de su marcha es su oposición a la política del Instituto
Nacional de la Salud, que dirige Bearnandine Healy, de apoyar el registro comercial de secuencias de genes.
Aunque la función de este material genético, en el futuro, puede ser la base de rentables medicamentos”. El
desencadenante, por tanto, no habría sido, tal y como el propio Watson declaró, su deseo de retomar las
investigaciones al frente del Laboratorio Cold Spring Harbor, sino su desacuerdo con la política del Instituto
Nacional de Salud. Fue la patente de genes la gota que colmó el vaso. “Watson utilizó los calificativos más fuertes
para tildar esta iniciativa que a su juicio ponía en peligro la cooperación internacional en la secuenciación y
cartografía del conjunto de genes que posee el hombre, un esfuerzo que ayudará a prevenir la aparición de un gran
número de enfermedades de componente génico”.
1993: COLLINS NUEVO DIRECTOR DEL PROYECTO GENOMA HUMANO EN EEUU
El 30 de Abril de este año se anuncia que “Francis Collins, investigador norteamericano, se ha convertido
en el nuevo director del proyecto Genoma Humano en Estados Unidos. Sustituye en este importante cargo al
premio Nobel James Watson, que presentó la dimisión por sus diferencias sobre la patente de genes con la
responsable de los Institutos Nacionales de la Salud de Estados Unidos, Bernadine Healy”. Este mismo día también
es notica “la primera terapia génica con un joven de veintitrés años aquejado de fibrosis quística”; enfermedad
cuyos mecanismo génicos consiguió determinar en 1989 “un equipo de investigadores entre los que se encontraba
Francis Collins”, el recientemente nombrado director del PGH.
76
ENERO
2012
La Universidad de Deusto celebra entre los días 24 y 26 de Mayo una reunión internacional sobre «El
Derecho ante el Proyecto Genoma Humano». En su anuncio se afirma que “con toda seguridad habrá dos asuntos
que por la controversia que ya suscitan en la actualidad centrarán gran parte de la atención en Bilbao. El primero de
ellos es la patentabilidad de los descubrimientos genéticos. La pregunta de fondo es si es lícito patentar un ser vivo
o algunas de sus partes para patrimonio de la Humanidad… Esta polémica… al margen de su sustrato ético y legal
amenaza con romper la necesaria colaboración internacional en este proyecto”. En la reunión interviene Craig
Venter6 y deja clara su postura, a saber, que no se trata de patentar materia viva pues no considera “los genes como
algo vivo. Es decir, los genes se pueden reproducir en un laboratorio y no cobran vida. Son esenciales para la vida,
pero el agua también lo es y a nadie se le ocurre decir que tenga vida”. Explica, además, “que él no ha presentado
nunca ninguna solicitud de patente sino que fue el Instituto Nacional de la Salud (NIH) quien lo hizo. A pesar de
6
En esta reunión Venter conoce a Hamilton Smith; quien se convertirá en su colaborador. Precisamente es él quien propone secuenciar el
genoma completo de una bacteria. Es él, por tanto, en última instancia el responsable de que Venter anunciase en Mayo de 1995 la primera
secuencia de un organismo autónomo.
Aida Pulido Vigil | El proyecto genoma humano según la prensa escrita, para el “ciudadano medio”.
ello, manifestó a ABC que es partidario de las patentes sobre los descubrimientos genéticos, aunque en su opinión
sólo debería patentarse aquello que tenga utilidades terapéuticas. Manifestó, asimismo, su firme convicción de que
las patentes ayudan al desarrollo de la investigación. Y fundamentó esta afirmación basándose en dos hechos
concretos: «Por un lado -dijo-, gran parte de la investigación en Estados Unidos está financiada por empresas
privadas que, lógicamente, quieren obtener algún beneficio de sus inversiones. Y, por otro lado, es evidente que la
patente es lo opuesto al secreto. Es decir, que lo que se patenta se hace público y puede ser utilizado por los demás
investigadores. Conviene no olvidar que en el Reino Unido, al no tener claro,-si iban o no a poder patentar sus
descubrimientos, mantuvieron en secreto gran cantidad de secuencias genéticas. Cuando decidieron patentarlas,
hicieron públicos sus trabajos”.
John Collins “se pronunció también a favor de la patentabilidad de los genes, ya que, como dijo, «lo que se
patenta son fórmulas aisladas y purificadas que no existen como tal en la naturaleza». Explicó que los requisitos
para patentar algo son que se trate de algo nuevo, que tenga una utilidad práctica y que sea una invención y no un
descubrimiento, es decir, que exista un proceso de creación”.
1994-1997: EEUU RENUNCIA A LA PATENTE DE GENES, PROBLEMAS ÉTICOS, DECLARACIÓN
UNIVERSAL SOBRE EL GENOMA Y LOS DERECHOS HUMANOS…
El 13 de Febrero de 1994 la renuncia de Estados Unidos a “patentar más de seis mil fragmentos de genes
humanos” es noticia. Se dice que “aunque la función y la utilidad práctica de casi todas ellas es desconocida por el
momento, los INH de EE.UU. pretendían reservarse durante los próximos diecisiete años los derechos de estas
secuencias, que quizá serían en el futuro la base de fármacos contra distintas patologías… Numerosos acreditados
investigadores se opusieron a esta práctica por entender que los genes humanos son patrimonio de la Humanidad. El
propio director del proyecto Genoma en Estados Unidos, el Nobel James Watson, dejó su cargo por este motivo. Sin
embargo, la solicitud del INH fue rechazada por la Oficina de Patentes y Marcas de Estados Unidos y, ayer, el
nuevo director de los INH, el premio Nobel de Medicina Harold Varmus, afirmó que este organismo no presentará
un recurso para conseguir la aprobación”.
Seis meses más tarde, las aplicaciones de la información que se va obteniendo con el desarrollo del
Proyecto hacen posible el siguiente titular: “Dieciocho enfermedades hereditarias se detectan ya con pruebas
genéticas”. “El diagnóstico precoz de una gran variedad de enfermedades hereditarias es el primer paso de la
medicina preventiva surgida con el proyecto Genoma Humano. Alrededor de cincuenta pruebas genéticas han sido
desarrolladas por los investigadores y los expertos consideran que a finales de siglo su uso será diario para detectar,
incluso antes de manifestarse, ciertos tipos de cánceres o la enfermedad de Alzheimer”.
En Mayo de 1995 el genoma se presenta como una “mina de oro” para las empresas farmacéuticas. En una
noticia a doble página se reconoce que “los orígenes puramente científicos del proyecto internacional sobre el
Genoma Humano constituyen hoy sólo un recuerdo. Las compañías farmacéuticas de todo el mundo, desde las
poderosas multinacionales hasta los más diminutos laboratorios, se han lanzado a la búsqueda de «El Dorado» del
código genético: el aislamiento de genes responsables de un gran número de enfermedades letales para la
Humanidad. La explotación de esta «mina de oro» oculta en la molécula de DNA proporcionará, a quien consiga los
mayores tesoros científicos, multimillonarios beneficios por la venta de fármacos y pruebas de diagnóstico, así
como por las patentes de futuras terapias”.
En Octubre de ese mismo año se adelanta que “en EEUU los científicos parecen haber entrado en la recta
final del proyecto Genoma Humano”, y se recoge que “la veloz identificación de genes ha suscitado los primeros
problemas éticos” ante la posibilidad de que sean utilizados por “compañías aseguradoras para discriminar a
personas, que pese a estar sanas, tienen un potencial riesgo de padecer patologías genéticas”.
Un año más tarde, “Cien científicos logran por primera vez un mapa con más de dieciséis mil genes. Se
trata del principal hito desde que empezó el Proyecto Genoma Humano”. Supone, asimismo, un “salto cualitativo y
cuantitativo en el desarrollo del proyecto” ya que la noticia es posible gracias al “desarrollo de bases de datos
específicas y la introducción de nuevas metodologías para cartografiar el DNA humano”. Por otro lado, “gracias a
este avance se podrá identificar con gran rapidez los genes responsables de millares de enfermedades hereditarias”.
Gracias a los mapas físicos y genéticos anteriores, “se ha conseguido identificar, entre otros, los genes «ApoE-4»
77
ENERO
2012
El proyecto genoma humano según la prensa escrita, para el “ciudadano medio” | Aida Pulido Vigil
involucrado en la aparición dé la enfermedad de Alzheimer; el «MLH-1», que causa tumores hereditarios de colon,
y el «FGFR-3», responsable de la acondroplasia”.
El 12 de Noviembre de 1997 se anuncia que “la Unesco aprueba su declaración universal sobre el genoma
y los derechos humanos. El documento concilia la libertad de investigación y la protección del individuo”. Se trata
de un “histórico documento internacional de bioética que concilia la libertad de la investigación y la protección del
patrimonio genético de la Humanidad. En 25 artículos, esta declaración establece los criterios éticos universales
para la investigación sobre los genes del ser humano, a la vez que protege contra posibles abusos, como la
clonación humana”.
1998-1999: CRAIG VENTER CREA UNA EMPRESA PRIVADA, CELERA GENOMICS, QUE LOGRARÁ
ANTES QUE EL PGH EL MAPA DEL GENOMA HUMANO
El 11 de Marzo de 1998 se afirma que “el proyecto sobre el genoma humano llega a su ecuador con
considerable retraso” Cuando el proyecto está llegando a “la mitad de los quince años previstos en un principio para
completar el mapa del Genoma Humano, científicos norteamericanos han empezado a cuestionar la posibilidad de
terminar esta difícil misión para el año 2005” pues, hasta el momento, sólo se ha secuenciado un 3% del genoma.
En palabras del “científico Craig Venter, del Instituto de Investigación Genómica de Maryland, todos los grupos
involucrados en este colosal proyecto «están retrasados, incluido el nuestro»”. Si Venter hubiera pronunciado esas
palabras meses más tarde su sentido habría cambiado. Habría cambiado en tanto que el 8 de Mayo comunica a
Collins, director del Proyecto Genoma Humano, la creación de Celera Genomics7, y propone que ésta y el proyecto
público compartan sus datos. Dos días más tarde, The New York Times recoge la noticia e insinúa los riesgos que
podría suponer “la posible posesión o el control de todo el genoma humano por una empresa privada sola”. ABC,
en cambio, no proporciona información al respecto. No obstante, la reacción del proyecto público al reto impuesto
por Venter con la creación de su empresa sí que es motivo de noticia. Así, uno de los titulares del 16 de septiembre
proclama que “El proyecto Genoma Humano se acelera para lograr el mapa completo en el 2003. Se adelanta en dos
años el objetivo por la competencia de estudios privados”. Tal adelanto, supone un “desafío ambicioso, ya que hasta el
momento sólo se ha acometido el 6 por ciento de los trabajos. Pero ahora todo son prisas debido a la competencia
directa de dos proyectos similares impulsados desde el sector privado… Al frente de uno de estos proyectos figura
el controvertido científico Craig Venter, quien en los últimos años ha conseguido secuenciar y descifrar los
genomas de varios microorganismos con amplio valor comercial o médico. Venter cree que puede completar el
mapa del genoma humano en sólo tres años”.
2000: 90% DEL GENOMA HUMANO SECUENCIADO
En Marzo se informa de que “EEUU rompe una negociación secreta con la empresa que descifra el
genoma humano”. La ruptura se debe a que Celera “que podría conseguir el mapa de todos los genes del ser
humano antes que el proyecto oficial… ofrecía su colaboración a cambio de derechos exclusivos”. A cambio
concretamente de tener, durante cinco años, los derechos comerciales exclusivos para distribuir la información.
Pasados siete días, las “Fuertes pérdidas de las empresas de biotecnología por la exigencia de Clinton y Blair de
informar públicamente sobre el Genoma Humano” son asunto de portada.
En el sumario del 7 de Abril bajo el titular “Una empresa estadounidense se acerca al fin del proyecto
genoma al descifrar el material genético de una persona” se adelanta la noticia: Celera, “que compite directamente
con el Gobierno de Estados Unidos y sus socios internacionales por descifrar el genoma de nuestra especie” ha
conseguido descifrar toda la secuencia de material genético de una persona. Se sitúa, por tanto, “muy cerca de
lograr su objetivo antes que el proyecto gubernamental, pese a que los trabajos de Celera comenzaron hace sólo un
año y el Gobierno estadounidense trabaja hacia el mismo objetivo desde 1990”.
78
La noticia enfatiza ya en el titular el hecho de que haya sido una empresa privada la institución que lo haya
conseguido. Este énfasis, según se dice una día después, no debe sorprender teniendo en cuenta la ausencia de
“reglas sobre la publicidad o privacidad que habrá de atribuirse a estos conocimientos”, que “hay muchísimo dinero
ENERO
2012
7
Venter en este momento no dió a conocer el nombre de la empresa. Lo hizo tres meses después.
Aida Pulido Vigil | El proyecto genoma humano según la prensa escrita, para el “ciudadano medio”.
en juego si se acaban patentando determinadas secuencias”. Ahora bien, el aprovechamiento de los resultados
tardará en llegar. Así, este mismo día otra de las noticias destaca ya en su titular que “Científicos españoles afirman
que se necesitarán décadas para entender y aprovechar la información del genoma”. Si bien el anuncio de Venter
“despejó todas las dudas sobre quién es el vencedor y quién el derrotado en la carrera del proyecto genoma
humano”, hay “mucha tela que cortar aún; y será entonces cuando puedan interpretarse y encontrar los tratamientos
a los numerosos hechos de la patología humana que aguardan solución”. “Ahora nos encontramos en el principio
de la recta final. Celera se enfrenta aún a las tareas más complicadas: situar en su orden correcto todas las unidades
de DNA descifradas y localizar en esa secuencia dónde están los genes y qué funciones cumplen. Entonces
terminará el proyecto y se habrá conseguido lo que el Premio Nobel Walter Gilbert denominó el «santo grial de la
genética». Pero también será el inicio de la llamada era postgenómica, en la que habrá que aprender a leer y
comprender ese gran libro de la vida, con el fin de obtener conocimientos que mejoren la salud de las personas.
Probablemente transcurrirán décadas de gran esfuerzo científico y financiero antes de que los beneficios sean
tangibles.
La consecución de este objetivo dependerá en gran medida de la colaboración entre el sector público y el
privado, que actualmente compiten ferozmente por descifrar el genoma humano. Venter y sus científicos necesitan
la información recopilada por los investigadores del proyecto oficial, tanto como el Gobierno de EE.UU. precisa de
la revolucionaria estrategia científica que ha aplicado este brillante y, a la vez, polémico investigador. Los esfuerzos
por llegar a un acuerdo se han esfumado en los últimos dos meses, en gran parte por las discrepancias sobre el
control de esta vital información biológica, pero también por rencillas y agravios acumulados desde que el sector
privado se lanzó a esta aventura”.
El éxito científico de la empresa de C. Venter parece indiscutible, el económico también. “Cinco grandes
laboratorios pagan sumas multimillonarias por la información privilegiada del genoma humano”, éste es el titular
que anuncia en portada la suscripción de cinco multinacionales farmacéuticas a las bases de datos de Celera
Genomics “previo pago de sumas superiores a los 8.000 millones de pesetas, para disponer de la información más
detallada y útil”. Si bien existe un compromiso “a permitir que la industria y los grupos académicos de
investigación puedan acceder gratuitamente a la secuencia de 3.000 millones de pares de bases del genoma humano,
el objetivo es lograr que finalmente se suscriban a las bases de datos de Celera, que contienen la información más
detallada y las herramientas informáticas necesarias «para analizarla a precios razonables», como explicó Venter en
la Cámara de Representantes de Estados Unidos”.
Ya en el mes de Junio, concretamente el día 26, uno de los titulares del día manifiesta: “Los primeros
borradores del genoma humano, hito fundacional de la nueva biomedicina. Clinton y Blair anunciaron el logro junto con
los directores de los proyectos público y privado”. “Gracias a un acuerdo de contenido no desvelado, los proyectos
público y privado zanjaron oficialmente ayer su enfrentamiento y se anunció la voluntad de cooperar en el futuro
para interpretar toda la información conseguida de forma independiente. El anuncio oficial realizado conjuntamente
en varias ciudades de Europa, Estados Unidos y Japón debe interpretarse como un hito de la ciencia aunque no
constituye el final de un ambicioso proyecto, sino el principio de una revolución biomédica que puede tardar
décadas en llegar…
El proyecto público, en el que ha intervenido un millar de científicos durante diez años, ha llegado a este
primer borrador empujado por la agresiva competencia de los investigadores de Craig Venter, que empezaron a
trabajar hace sólo dos años con una estrategia diferente
El investigador Francis Collins señaló que la cartografía del genoma humano abrirá una nueva era para
tratar una larguísima lista de enfermedades que hoy no tienen curación. Aunque muchos de estos, avances tardarán
aún años en llegar, dado que será necesario comprender este gran libro de instrucciones dé la vida humana, Collins
vaticinó una rápida proliferación de descubrimientos sobre las causas de la diabetes, la esquizofrenia, la enfermedad
cardiovascular y la esclerosis múltiple, entre otras dolencias graves. Craig Venter dijo que ahora se entra en «la fase
de interpretación» de toda la información biológica conseguida para descubrir su significado. Tras reafirmar que su
borrador supera en calidad al público, Venter se comprometió a hacer públicos sus datos en otoño”.
“Sin duda, la investigación8 de toda la información que contiene está destinada a revolucionar los tratamientos
8
79
ENERO
2012
Al margen de ella “han quedado países como España, que durante la década de los noventa no supieron ver la trascendencia de esta ambiciosa
El proyecto genoma humano según la prensa escrita, para el “ciudadano medio” | Aida Pulido Vigil
médicos, a través de fármacos adaptados al perfil genético de cada paciente, y terapias génicas que corten de raíz las
enfermedades. Llegará la era de la medicina preventiva. Entonces se empezarán a tratar trastornos años antes de que
aparezcan los primeros síntomas clínicos. Pero también serán años de incertidumbre y riesgo, porque la misma
información que servirá para curar podrá ser utilizada para discriminar a grupos y personas a la hora de acceder a
puestos de trabajo o, sencillamente, al solicitar una póliza de seguros”.
2001: PRIMERAS LECTURAS DEL “LIBRO DE LA VIDA”
En Enero de este año la secuenciación del genoma humano llega a la publicidad. Un anuncio hace uso del
siguiente eslogan: “Muy pronto podrá elegir la inteligencia de sus hijos. Vaya practicando con su coche… Hoy
conocemos el genoma humano, mañana quién sabe lo que podremos hacer con él. Lo que sí sabemos es que…”
El 12 de Febrero se anuncia en portada: “Revolución en el conocimiento científico del ser humano”. “Siete
meses después de que Tony Blair y Bill Clinton anunciaran el desciframiento del genoma humano, el consorcio
internacional de científicos del proyecto público y su rival privado, la empresa Celera, presentan hoy las primeras
descripciones precisas de nuestra dotación genética y lo que han aprendido en sus primeras lecturas de este
auténtico manual de instrucciones del cuerpo humano”.
El anuncio se aprovecha para difundir los conocimientos adquiridos hasta el momento. Uno de las noticias
en el día previo está dedica, en exclusiva, a lo que se considera un hallazgo clave, a saber, “que todos los miembros
de nuestra especie somos casi genéticamente idénticos. La similitud entre los genomas de dos personas elegidas al
azar sería del 99,99 por ciento” De hecho, “los estudios de Celera, que analizó el genoma de cinco individuos de
diferentes etnias, revelan que las personas de dispares grupos raciales pueden ser genéticamente más similares que
los individuos de una misma etnia”. En esta línea se recogen también tanto los beneficios que del Proyecto ya están
derivándose, como los que, previsiblemente, surgirán en el futuro. Concretamente se destaca que gracias a la
información obtenida hasta ahora con la secuenciación del genoma humano “la posibilidad de realizar test genéticos
para detectar la factible aparición de enfermedades hereditarias es ya una realidad… Sólo en Estados Unidos se
llevan a cabo unos cuatro millones de estas pruebas cada año”. Además, “cuando la información del genoma sea
bien conocida también serán una realidad los medicamentos «a la carta», diseñados específicamente para cada
persona. Los científicos y clínicos disponen ya de varias decenas de fármacos, basados en las investigaciones sobre
el genoma humano, pero en un futuro inmediato esta cifra se multiplicará de forma exponencial.”
La ocasión se aprovecha también para enfatizar la supremacía de Celera frente al proyecto público. “Craig Venter y
sus colaboradores lograron en prácticamente un año lo que había estado intentado el consorcio internacional desde
1990”. Concretamente, uno de los titulares del día anuncia que “Diez grupos de investigadores españoles se unen
para acceder a la valiosa información descubierta. Desarrollarán los nuevos “chips de DNA”, que revolucionarán la
investigación y diagnóstico del cáncer”. “La secuencia del genoma humano se hará pública hoy y quedará accesible
para toda la comunidad científica internacional. El proyecto público liderado por el Gobierno de Estados Unidos y
varios europeos introducirá toda la información en una base de datos de acceso gratuito. Por el contrario, Celera
obligará a empresas farmacéuticas y a las instituciones académicas a firmar un contrato de suscripción millonario”.
Tras su anuncio, el desciframiento continúa siendo una de las noticias principales del momento9. “«Hemos
aprendido a leer el libro de la vida», dice la televisión, la radio, los periódicos. Pero sólo hemos descifrado un
alfabeto. Aún no podemos identificar palabras, conceptos, ideas; queda mucho para que podamos entender frases,
párrafos, capítulos del folleto de instrucciones con el que la vida empieza a distinguirse del barro y la piedra de
Rosetta del basalto garabateado. Todo un mundo de esperanzas se abre a largo plazo sin más límites que la fe ni más
fronteras que las éticas”. “Llegará un día, seguramente no lejano, en que eso que se ha venido en llamar el mapa de
la vida se conocerá en todos sus detalles, con lo que la revolución en la Medicina y la Bioquímica habrá estallado
80
ENERO
2012
tarea científica y aún continúan sin un centro de investigación genómica”.
9
Se trata de “uno de esos acontecimientos que trascienden el campo informativo para entrar con todos los honores en el terreno de la historia”.
Se le concede, por tato, una importancia tal que el propio periódico dedica una de las noticias a informar a sus lectores sobre la cobertura
informativa permanente que le dedica en su página web. En ella ofrece la posibilidad de “conocer las últimas noticias relacionadas con el
desarrollo de las investigaciones, hacerse una idea más detallada sobre este avance científico y su significado, consultar la cronología completa
de la investigación y saber cuáles son sus principales objetivos para los próximos meses y años, así como las futuras aplicaciones prácticas del
descubrimiento científico”.
Aida Pulido Vigil | El proyecto genoma humano según la prensa escrita, para el “ciudadano medio”.
del todo: será posible conjurar todas las dolencias hereditarias y muchas que no lo son; la terapéutica será a la
carta, individualizada y a la medida del genoma de cada cual; se conocerán las propensiones de cada individuo a
contraer unos males con preferencia sobre otros, etcétera”.
La noticia se define como “una buena nueva, quizás uno de los mayores logros conseguidos por la
humanidad: el acceso al libro de la vida de la especie humana mediante la lectura completa de nuestro genoma. Una
obra casi titánica, comparada con la llegada del hombre a la luna, pero quizás con unas repercusiones más directas
para los humanos. La información obtenida es fundamental para mejorar nuestra calidad de vida, prioridad
fundamental según figura en los barómetros de consultas sociológicas”. Todo no son, sin embargo, buenas noticias.
Los enfrentamientos entre Celera y el proyecto público se mantienen. “La aparente concordia entre la empresa
Celera y el consorcio público internacional durante las semanas previas al histórico anuncio era sólo un
espejismo… La tensión entre estos dos grupos rivales resurgió finalmente en las distintas conferencias de prensa
celebradas simultáneamente en París, Tokio, Washington, Berlín y Londres, para explicar el alcance del
desciframiento del «libro de la vida»”. De hecho, alcanza tal intensidad que “la euforia de este momento histórico
se vio empañada por la tensión existente entre ambos grupos, ya que Celera se opone a que la totalidad de la
comunidad científica pueda hacer uso de tan valiosos datos”. “Los dos equipos científicos rivales llegaron a
cuestionar la calidad de sus diferentes borradores” reza uno de los titulares.
2002-2010: LA INVESTIGACIÓN CONTINÚA
La secuenciación y el ensamblaje del genoma humano ya han sido realizados. La anotación, en la que “los
científicos deben determinar en la secuencia dónde están situados los genes y qué funciones realizan”, “es la parte
más compleja” y está aún en proceso.
A lo largo de estos años la información relativa al Proyecto Genoma Humano sigue siendo objeto de
noticia. Es, incluso, noticia de portada en ocho ocasiones. La orientación de las mismas sigue consistiendo en
destacar la importancia de la información obtenida con el Proyecto, así como los descubrimientos y avances en los
que se trabaja y que se van produciendo. Se insiste, no obstante, que aún queda un largo camino por recorrer. Tal y
como se reconoce en Octubre de 2006 a propósito del desarrollo por parte de un grupo de científicos (de la
Universidad de Duke en EEUU) de un “test que predice con un 80% de fiabilidad cuál es la quimioterapia más
adecuada, según el perfil genético del tumor”; “la información del genoma humano abrió una nueva era de
fantásticas promesas para el conocimiento de la biología de nuestra especie y el tratamiento de sus enfermedades.
Algunos avances tardarán décadas en llegar; otros ya han empezado a demostrar la utilidad de ese maravilloso libro
de instrucciones que es el mapa del genoma humano. El diagnóstico precoz de enfermedades, gracias a las pruebas
de detección genética, han sido la aplicación más inmediata. Además de detectar el riesgo de padecer una
determinada enfermedad, el genoma será la base de las próximas generaciones de medicamentos que se adaptarán al
perfil genético de cada enfermo, reduciendo los efectos secundarios y mejorando la eficacia. En el caso del cáncer,
el poder elegir la quimioterapia más sensible a cada tumor ahorrará costes y evitará la pérdida de un tiempo que en
un enfermo oncológico resulta precioso”.
La imagen que la prensa escrita ha ofrecido del Proyecto Genoma Humano (a través de las
aproximadamente doscientas noticias que hasta el 1 de Enero de 2011 sobre él ha publicado10) ha sido, tal y como
hemos pretendido reflejar con aquellas que hemos seleccionado; la imagen de un proyecto de búsqueda del “santo
grial del ser humano”, de comprensión del código de la vida “para el bien de la humanidad”…; de “obra casi
titánica, comparada con la llegada del hombre a la luna, pero quizás con unas repercusiones más directas para los
humanos”, etc. De un proyecto inicialmente público que una empresa privada logra desarrollar con un margen de
tiempo mucho menor. De un proyecto que constituye el germen de problemas éticos y jurídicos. Polémico, además,
en tanto fuente de información transformable en cuantiosos beneficios económicos. Transformable en beneficios
económicos dados sus prometedores efectos en la prevención, cura y tratamiento de enfermedades. Efectos que, no
obstante, si bien en un principio se presentaban como fácilmente derivables de su consecución, hoy se considera
10
La búsqueda de noticias relacionadas con el rótulo “Proyecto Genoma Humano” en la hemeroteca de ABC arroja 203 resultados. Debe tenerse
en cuenta, no obstante, que este número no tiene porqué coincidir exactamente con el número de noticias en las que se hace alusión al Proyecto
pues puede ocurrir que una misma noticia se desarrolle en varias páginas y de lugar, por tanto, a dos o más resultados. Además, no siempre que
se tratan cuestiones relativas al Proyecto aparece éste mencionado.
81
ENERO
2012
El proyecto genoma humano según la prensa escrita, para el “ciudadano medio” | Aida Pulido Vigil
que, aún se harán esperar. Se trata de un “hito de la ciencia principio de una revolución biomédica que puede
tardar décadas en llegar”, “transcurrirán décadas de gran esfuerzo científico y financiero antes de que los
beneficios sean tangibles”, “hay mucha tela que cortar aún”.
Ésta es, a nuestro juicio, la imagen que del Proyecto Genoma Humano la prensa escrita ha presentado y, por
consiguiente, la concepción común sobre el mismo de la “ciudadanía media” española. Éste es el Proyecto
Genoma Humano para la escrita, para el “ciudadano medio”.
82
ENERO
2012
Juan Pedro Canteras Zubieta | La evolución del concepto de gen. Biología, ideología y sociobiología.
La evolución del concepto de gen. Biología, ideología y sociobiología. Juan Pedro Canteras Zubieta1 Resumen En este ensayo, trataré de explicar cómo se ha formado el concepto del gen, el recorrido que hasta él ha llevado y el estatuto ontológico que hoy quepa atribuirle. Primero ello habrá que explicar, aunque sea brevemente, el origen científico del concepto, para luego poder dar cuenta de sus posteriores desarrollos. En este camino encontraremos la influencia de elementos diversos, desde la evolución instrumental y conceptual de la biología hasta ideologías e intereses políticos. Creo poder repartir ese desarrollo en tres partes: (A) Una primera referida al origen científico del concepto, (B)una segunda que caracterizaremos de ideológica, y (C)una tercera protagonizada por la sociobiología. 1
Juan Pedro Canteras Zubieta. Nacido en Santander en 1988,
donde estudió el bachillerato de ciencias sociales en el IES La
Marina. Actualmente cursa 5º de Filosofía en la Universidad de
Oviedo.
83
ENERO
2012
Juan Pedro Canteras Zubieta | La evolución del concepto de gen. Biología, ideología y sociobiología.
La evolución del concepto de gen. Biología, ideología y sociobiología. Juan Pedro Canteras Zubieta2 ***
A. En un principio, el de gen es un concepto que deberíamos situar en el campo de la biología. Así, las
definiciones de manuales académicos y enciclopedias comunes son de este tipo:
“Gen: Unidad fundamental, fisica y funcional, de la herencia, que transmite información de una generación
a la siguiente; tramos de DNA compuesto de una región que se transcribe y una secuencia reguladora que
hace posible la transcripción”3
Si buscamos la entrada correspondiente en Wikipedia, encontramos la siguiente definición.
“Un gen es una secuencia lineal organizada de nucleótidos en la molécula de ADN (o ARN en el caso de
algunos virus), que contiene la información necesaria para la síntesis de una macromolécula con función
celular específica, normalmente proteínas pero también ARNm, ARNry ARNt.”
El gen aparecerá aquí en constelación con otros conceptos del tipo de nucleótido, codón, cromosoma,
secuenciación, síntesis proteica… Sin embargo, pronto descubrimos que este tipo de apariciones del concepto no es
el único, ni siquiera el más abundante. Así, por ejemplo, los genes aparecen en la actualidad en contextos no
exclusivamente biológicos, sino psicológicos (“genes egoístas”4), filosóficos (genes morales), sexuales (“genes
homosexuales”), o incluso teológicos (los genes como el “lenguaje de Dios”5). Es por ello que cabe preguntarse qué
tipo de entidad es el gen, y ello de forma diferente a la pregunta por el fémur o por el glóbulo rojo. Responder a la
pregunta por el fémur será indudablemente trabajo del biólogo o de su hermano práctico, el médico. Pero, ¿acaso el
biólogo tiene algún privilegio para hablar del egoísmo, de la homosexualidad o de Dios? Si, como se ha dicho en no
pocas ocasiones, los genes son el lenguaje de Dios, ¿acaso el teólogo no podrá reclamar esta entidad como
perteneciente a su especialidad, a la teología?
Pese a esta pluralidad de relaciones en las que los genes parecen estar hoy presentes, pese la infinidad de
2
Juan Pedro Canteras Zubieta. Nacido en Santander en 1988, donde estudió el bachillerato de ciencias sociales en el IES La Marina.
Actualmente cursa 5º de Filosofía en la Universidad de Oviedo.
3
Anthony Griffiths y colaboradores, Genética moderna, Editorial McGraw Hill – Interamericana, 1999.
4
En el mismo título de la obra de Richard Dawkins “El gen egoísta”, Salvat Ciencia, Barcelona, 2000.
5
En el mismo título del libro de Francis Collins “El lenguaje de Dios” 2006, Temas de hoy, Madrid.
85
ENERO
2012
La evolución del concepto de gen. Biología, ideología y sociobiología. | Juan Pedro Canteras Zubieta
discursos que los involucran, el origen histórico del concepto pertenece a la biología. No haremos aquí este
recorrido histórico, aunque sí señalaremos algunos de sus hitos para, después, poder dar alguna explicación al
estado de dispersión en que hoy hayamos este concepto. Mencionaré únicamente momentos clave como los
“elementos” de Mendel, los genes de Johannsen o la molécula de ADN de Watson y Crick.
Aunque Mendel acuñó sus famosas leyes antes de la existencia de la misma palabra “gen”, fue él quien,
con cierta base, postuló la existencia de alguna entidad material presente en el organismo que fuera causante de sus
rasgos hereditarios. Las leyes de Mendel informan de que, dentro de una generación, la presencia de algunos rasgos
físicos está repartida entre los individuos de acuerdo a ciertas proporciones que dependen de las características de
sus progenitores. En 1865, Mendel ignoraba las causas que subyacían a estas regularidades fenoménicas, pero
imaginó una entidad responsable, un tipo de minúsculo objeto físico al que llamó “elemente”. Así, se postuló por
vez primera un ente biológico responsable de la herencia, al cual se conocía por sus efectos pero del que nada
positivo podía decirse. Estas características serán, como veremos, una constante en la posterior evolución del
concepto.
El concepto de gen fue acuñado en 1909 por Wilhelm Johannsen, en el contexto de la recuperación de los
estudios mendeliano que se produjo a principios del siglo XX. El término ya contaba con otros antecedentes
(además de los elemente de Mendel): los determinantes de Weismann, los pangenes de De Vires o las gémulas del
mismo Darwin. Precisamente fue la falta de cargas semánticas lo que llevó a Johannsen a escoger esta sencilla y
neutral palabra: “gen”. Para él, los genes seguían siendo unos entes tan hipotéticos como para Mendel lo eran los
elemente. A los genes solo se los conocía ad consequentiam.
Diversos descubrimientos de gran importancia fueron poco a poco acotando la búsqueda. Los genes fueron
denunciando su presencia: primero en el “plasma germinal”, en el núcleo de la célula, después en los cromosomas
y, finalmente, en el ADN. El gran descubrimiento de Watson y Crick, la estructural de la molécula de ADN, pareció
poner a la biología a las puertas de la ya vieja meta: La determinación de qué sean los genes. En su autobiográfica
narración del descubrimiento, Watson nos cuenta la revelación que pasaría a la historia como el “dogma central” de
la biología molecular:
“En la pared sobe mi mesa pegué una hoja de papel en la que se leía ADN→ARN→proteína. Las flechas
no representaban reacciones químicas sino que representaban la transferencia de información genética de
las secuencias de nucleótidos en las moléculas de ADN a las secuencias de aminoácidos en las proteínas.”6
86
ENERO
2012
Este fue, posiblemente, el momento en el que la pregunta por el gen estuvo más cerca y a la vez más lejos
de ser respondida. Más cerca, porque ahora se conocía una entidad protagonista en los fenómenos de herencia, de
6
James D. Watson, “La doble hélice”, 2009 (3ª edición), Alianza, Madrid. Pag. 138.
Juan Pedro Canteras Zubieta | La evolución del concepto de gen. Biología, ideología y sociobiología.
estructura determinada y función biológica conocida. Más lejos, porque resultó que no había objeto tal como el gen,
no había ningún conjunto de entidades discretas que pudieran relacionarse término a término con los rasgos
externos hereditarios de un organismo. Sin embargo, el proyecto no se abandonó. Pese a que no hubiese entidades
concretas y diferenciadas, había una cadena que contenía información en un sencillo lenguaje (determinado por
Marshal Nierenberg y Heinrich Mathaei en 1961) que podía ser descifrado. Los genes, al fin, parecían haber sido
encontrados. Estaban en esa cadena de ADN, eran segmentos suyos. Pero obviamente, esta respuesta, lejos de
zanjar el problema, lo multiplicó ¿Qué secuencias contenían genes? ¿Qué secciones de esa cadena son las que
determinan la formación de los rasgos hereditarios del organismo? Lo cierto es que, como los anteriores, tal
concepto de gen ha quedado lejos de ser definitivo. No parece haber una correspondencia término a término entre
diferentes secuencias de la cadena de ADN y los diferentes rasgos hereditarios de los organismos.
En los estrictos límites de la biología molecular, los descubrimientos más recientes parecen alejarnos del
concepto de gen, más que ayudar a esclarecerlo. La investigación científica usa el de gen como un concepto parcial,
fragmentario, referido a contextos de experimentación muy concretos y que, desde luego, no siempre hace
referencia al mismo tipo de entidad. A diferencia de los cromosomas, los codones, las bases o los nucleótido, los
genes son entidades oscuras, más funciones o procesos que objetos; más una herramienta conceptual que una
entidad biológica. No se trata tanto de que el concepto de gen se vacíe de significado o que carezca de referencia; lo
que sucede más bien es que su significado es cada vez más amplio
(indeterminado) y sus referencias se
multiplican.
Sin embargo, no cabe duda de que el concepto de gen, al mismo tiempo, goza de una popularidad sin
precedentes. Importado desde el campo de la biología, el gen es reclamado para la explicación de fenómenos
religiosos, éticos, políticos y de todo tipo. Parece que la indeterminación que afecta a este concepto en su campo
científico original, lejos de marginarlo, lo dota de una enorme potencia. Tampoco debemos sorprendernos: cuanto
más indeterminado se halla un concepto, más flexible lo encontramos para introducirlo en discursos que le son
extraños; cuanta mayor es su oscuridad, más misterios podremos alojar en su interior.
Antes de entrar en la naturaleza y causas de esa expansión del concepto (que obviamente hallaremos en
contextos ya no biológicos sino sociológicos…), mencionaré algunas de las investigaciones que están a la base de la
confusión que afecta hoy a este concepto dentro de la biología.
***
El
dogma
de
la
biología
molecular
parece
altamente
insuficiente.
El
simple
esquema
ADN→ARN→proteína, cuando se observa en funcionamiento, parece retorcerse, cambiar de dirección, involucrar
a entidades imprevistas… Por tanto, por más que haya secuencias en la cadena de ADN que contengan información
87
ENERO
2012
La evolución del concepto de gen. Biología, ideología y sociobiología. | Juan Pedro Canteras Zubieta
referida a rasgos específicos de los organismos, la conexión entre esos segmentos y los rasgos en cuestión, rara vez
es directa, estable y unívoca. De hecho, predomina ampliamente una relación compleja, que se bifurca, se altera con
el tiempo y se deja influenciar por el entorno del organismo. En los mejores casos, las relaciones entre genes y
caracteres (genotipo y fenotipo) son unidireccionales, y van del fenotipo al genotipo (F(a)→G(a´) pero no
G(a´)→F(a), donde a es un rasgo fenotípico concreto y a´ es su secuencia de nucleótidos correspondiente). Es
decir, en el mejor de los casos, un rasgo fenotípico puede ser indicio seguro de la presencia de una determinada
combinación de nucleótidos, pero la presencia de la combinación no asegura que el organismo presente o vaya a
presentar ese rasgo fenotípico. Es entonces cuando la genética empieza a hablar de probabilidades, predisposiciones
y situaciones favorables. Los casos conocidos de correspondencia unívoca (F(a)↔G(a´)) son muy escasos y, de
hecho, la mayoría ni siquiera se acoge al modelo más débil que hemos descrito más arriba. Por tanto, más que este
esquema:
ADN→ARN→proteína (el dogma central)
el esquema que está funcionando es este otro:
Proteína´
ADN→ARN→
Proteína´´
Proteína´´´
…
E incluso este:
La falta de “elegancia” de la molécula de ADN, repleta de intrones, bloquea la posibilidad de un esquema
88
lineal para la genética. La cadena de ADN no prefigura las características del organismo, sencillamente porque por
sí misma no dice nada. Solo posteriores procesos de reconstrucción muy complejos pueden dar sentido biológico a
este compuesto de nucleótidos.
ENERO
2012
Juan Pedro Canteras Zubieta | La evolución del concepto de gen. Biología, ideología y sociobiología.
Aún más. El sentido de las flechas de aquel esquema puede invertirse, de modo que el ARN que se obtuvo
a partir una secuencia de ADN puede a su vez codificar nuevas secuencias de ADN (modelo de operón de Jaques y
Mond). El dogma de la biología molecular, hoy, se complejiza hasta convertirse en un galimatías no universalizable
y que debe concretarse para cada caso particular (para diferentes secuencias del ADN, para diferentes
transcripciones, para diferentes proteínas, para diferentes momentos de la evolución del organismo…)
Pero entonces, ¿qué gen atribuiremos a cada carácter heredable? Si la acción de los genes depende de otros
múltiples factores cuya complejidad arroja esquemas de este tipo, cómo asignar a un gen, a una secuencia de
nucleótidos, un carácter fenotípico concreto. Es más, esta situación nos pone ante un problema mayor: Si el gen es,
desde los orígenes de su acuñación hasta nuestros días, el agente causal de los rasgos hereditarios, en qué entidad
física deberemos localizarlo ¿En la secuencia del ADN o en la de ARN? ¿O en la transcripción o en el ARN
maduro? ¿En las simples secuencias o en combinaciones de secuencias transcriptoras con sus correspondientes
secuencias reguladoras?¿O acaso hay que localizarlo en una pluralidad de secuencias que se codeterminan
mutuamente, que dependen de factores ambientales y cuyas relaciones no son estables en el tiempo? Pero entonces
el concepto de gen se halla hoy más indeterminado que nunca. El dogma central de la biología molecular, aquél
sencillo esquema lineal que podía recorrerse en ambos sentidos, se desvanece y se mantiene únicamente como una
simplísima idealización que apenas conserva su valor pedagógico. Junto con el dogma central, la esperanza de
encontrar entidades localizadas y discretas causantes de los rasgos hereditarios (los genes), también se desvanece.
Esta amplísima complejidad en el camino que va del genotipo al fenotipo y viceversa, se pone de manifiesto en la
investigación con patrones de polimorfismos de longitud de de fragmentos de restricción (RFLPs). Estas
investigaciones están dedicadas, generalmente, a la búsqueda de secuencias concretas de ADN que estén asociadas
a enfermedades. Con enorme frecuencia, lo que sucede es que la enfermedad en cuestión aparece como asociada, no
a una, sino a distintas secuencias de nucleótidos, dispersas en los cromosomas. Pero además, una vez localizadas
estas secuencias, es habitual que aparezcan algunos individuos con los patrones de RFLP que las contienen, pero
que no muestran la enfermedad que supuestamente tales secuencias llevaban asociada. Esto muestra que el camino
de los nucleótidos a los caracteres, de un genotipo a un fenotipo, no es simple ni directo y que no es único. La razón
es obvia: en el recorrido de ese camino hay toda una pluralidad de otros entes y relaciones igualmente
determinantes. Pero entonces ¿habrá algo a lo que estrictamente podamos llamar gen en sentido clásico? ¿Un ente
biológico al que unívocamente y en cualquier contexto de investigación podamos señalar como un objeto bien
definido? Parece que estos objetos se desvanecen. La función atribuida al gen hay que ponerla en procesos
complejos, que involucran a múltiples entes y que sencillamente no pueden reducirse a la cadena de ADN ni a
fragmentos suyos. El concepto de gen, de hacer referencia a algo, apunta no a un objeto o entidad, sino más bien a
un conjunto de relaciones entre otros objetos, estos sí, bien definidos (cromosomas, nucleótidos, encimas,
ribosomas…).
La pregunta que debemos responder ahora es la siguiente: ¿Por qué un concepto que dentro de la ciencia
89
ENERO
2012
La evolución del concepto de gen. Biología, ideología y sociobiología. | Juan Pedro Canteras Zubieta
que lo gestó es tan débil, ha cobrado en otros ámbitos semejante fuerza? Como he intentado demostrar, no hay nada
en los estrictos límites de la biología o en la bioquímica que dé razón de ello. Es más bien en el contexto
sociológico donde encontraremos alguna respuesta, lo cual pondrá en evidencia las constitutivas directrices
sociológicas del conocimiento científico.
***
B. Comenzamos diciendo que, si bien el concepto de gen se gestó en el campo de la biología, durante el
siglo XX ha ido conquistando nichos diferentes. Estos pueden ir desde la filosofía (genes morales) hasta la teología
(los genes como un “lenguaje de Dios”). No pertenece a las ciencias la propiedad de abarcar la realidad toda. Las
ciencias más bien se caracterizan por restringirse a ámbitos concretos del mundo, los cuales van descubriendo y, a
la vez, construyendo. La física construye verdades de la máxima solidez, pero poco puede decir sobre fenómenos
como, pongamos por caso, una crisis financiera. La química es una ciencia de perfecta consolidación, pero no podrá
decir nada relevante sobre las virtudes artísticas de una pintura. Pertenece más bien a otro tipo de conocimientos la
característica de ser totalizadores. Quizá pudiéramos decir, sin tiempo para mayores explicaciones, que las formas
más comunes de conocimientos totalizadores son la religión, la ideología y la filosofía. La filosofía puede ser
filosofía del conocimiento, del arte, de la ciencia; filosofía política, moral… Su ámbito abarca cualquier otro ámbito
posible. Algo semejante ocurre con la ideología: si una ideología es lo suficientemente potente, se pronunciará
sobre cualquier realidad a la que se enfrente (ciencia, arte, moral...) La religión, por su parte, pretende organizar no
solo este mundo nuestro, sino también otros mundos del más allá. La religión es la instancia totalizadora por
excelencia.
Pero entonces, porqué ciencias como la biología (especialmente en su vertiente genética) tienden a
conquistar ámbitos ajenos al suyo, mostrando una verdadera voluntad de totalización. Argumentos y conceptos de la
biología son aducidos para explicar fenómenos que van desde la genialidad de un artista hasta la violencia desatada
en la guerra. Pero entonces, ¿no sucederá que la biología esta, a partir de ese momento, abandonando su forma
científica y adoptando algunas de aquellas formas totalizadoras que he propuesto? ¿Acaso la biología este
presentándosenos, en algunos discursos, más que como ciencia, como ideología, filosofía o religión?
No hay aquí espacio para establecer como se debiera las diferencias y relaciones entre religión, filosofía e
ideología. Baste con decir que este discurso pseudobiológico protagonizado por los genes no es una filosofía (pues
carece del criticismo y sistematismo o método que a esta caracterizan). Desde luego, no es ninguna religión, pues a
una religión cabría exigirle al menos algún tipo de deidad. Son más bien las características de la ideología las que
informan a este discurso pseudocioentífico. Efectivamente, este ha sido empleado, en no pocas ocasiones, para
90
explicar y legitimar órdenes políticos y medidas sociales, en un ejercicio claramente ideológico. Intentaré mostrar,
ENERO
2012
concepciones morales y convicciones sociales. Es decir, intentaré mostrar que la dispersión conceptual del gen
en adelante, cómo los discursos en los que el concepto de gen se involucra están poblados por juicios políticos,
Juan Pedro Canteras Zubieta | La evolución del concepto de gen. Biología, ideología y sociobiología.
posee directrices ideológicas.
La ideologización de la biología (ya ejercida en el darwinismo social) no es exclusiva de la genética, pero
la genética ha multiplicado y fortalecido este fenómeno. El concepto de gen posee virtudes que lo dotan de una
gran capacidad para introducirse en ciertos discursos ideológicos. La ideología concreta que acoge favorablemente
los conceptos y argumentos de la genética es el individualismo liberal, la ideología del capitalismo más primitivo,
basada en la desigualdad natural de los hombres y en las virtudes sociales de la competencia. A las nuevas formas
bajo las que este viejo discurso se presenta Richard Lewontin las llama “nueva derecha” (aunque el término
“derecha” quizá no sea el más acertado, pudiendo hablar mejor de “nuevo liberalismo” y, en el límite, de
“anarquismo liberal”). El que se describe aquí (y esto es lo importante) es un camino de ida y vuelta: El discurso
ideológico no solo toma de la biología ciertos argumentos y conceptos, sino que también opera sobre ellos, los
manipula y transforma, y los devuelve marcados con su impronta.
El mejor ejemplo de esto lo ofrecen los populares estudios que nos informan sobre ciertas determinaciones
genéticas o hereditarias de la conducta. Como vimos más arriba, los biólogos se encuentran con grandes problemas
a la hora de localizar segmentos de cromosomas que puedan ser propiamente llamados causantes de enfermedades
(o de otros rasgos estrictamente fisiológicos). Resulta paradójico que, siendo esto así, algunos investigadores no se
arredren a la hora de señalar genes causantes de realidades tan complejas como la homosexualidad o la conducta
criminal. Si la búsqueda de genes causantes de rasgos fisiológicos suele acabar en fracaso, la idea de un gen de la
violencia o de la inteligencia resulta ingenua e incluso ridícula.
Profundicemos en este discurso: Hablar de la conducta con pretensiones de cientificidad tiene, desde un
comienzo, serios problemas. Conductas hay de todo tipo, pero ¿de qué conductas hablan los genetistas? ¿De las
instintivas, de las etológicas, de las psicológicas, de las culturales…? Un breve repaso a la prensa más divulgativa
parece indicar que la selección de estas conductas responde a criterios azarosos o inexistentes. Pero a poca atención
que pongamos en ello descubrimos la presencia de constantes y recurrencias en los temas y el tratamiento. Resulta
sorprendente que las conductas que más denuncian su componente genético o hereditario aparentan ser el
alcoholismo, el tabaquismo, la homosexualidad, la criminalidad, la inteligencia... Se trata de un fiel reflejo de
nuestras obsesiones; y no de las obsesiones de la humanidad, sino de las obsesiones de nuestra sociedad occidental
moderna (especialmente la de EEUU, de donde provienen tales estudios en su mayoría). No hay probablemente
mejor ejemplo que este para mostrar la impronta con que los componentes sociales dejan marcadas a las
investigaciones científicas. Como dice Lewontin:
“Los europeos leen de izquierda a derecha, los semitas de derecha a izquierda y muchos asiáticos de arriba
abajo, y nadie ha sugerido que estas sean características raciales hereditarias. Sin embargo, caracteres
como la violencia, la deshonestidad o la inteligencia a menudo se han considerado hereditarios y asociados
91
ENERO
2012
La evolución del concepto de gen. Biología, ideología y sociobiología. | Juan Pedro Canteras Zubieta
a raza”7
Una de estas conductas a las que se buscó un determinante genético no hace muchos años fue la conducta
criminal, profusamente estudiada en la década de los 60 y hasta los 90. Uno de los supuestos descubrimientos,
descartado posteriormente por estudios más exhaustivos, fue el de la asociación entre las conductas criminales y la
anomalía cromosómica XYY. La anomalía en cuestión consiste en que un espermatozoide masculino (normalmente
XY) posee un cromosoma Y adicional (XYY), de modo que cuando fecunda a un óvulo, el embrión resultante
posee en su genoma un cromosoma Y adicional. Pues bien, las asociaciones que llevaban a considerar a la anomalía
XYY causante de la violencia criminal eran las siguientes: Puesto que la violencia es un eminente atributo
masculino y puesto que una de las especificidades masculinas más ilustres es la segregación de testosterona; la
testosterona es, de alguna manera, causante de la violencia. Puesto que las especificidades biológicas masculinas
se localizan en el cromosoma Y, la presencia de un cromosoma Y adicional produciría un aumento de testosterona
y, así, de tendencias violentas. Por su parte, la conducta criminal es conducta agresiva, por lo que un aumento
biológicamente condicionado de impulsos agresivos causa o favorece la criminalidad. No hace falta señalar la
presencia de contenidos ideológicos en esta argumentación. Probablemente, la mayor merma en la pretendida
cientificidad de la argumentación no sea la tosca caracterización de la masculinidad, sino el intento de
naturalización de un concepto histórico-cultural (jurídico): el de criminalidad o conducta criminal. Qué sea un
crimen y qué no depende de la jurisdicción desde la que se valora esa conducta. Un acto violento e incluso
homicida puede ser delictivo (si, por ejemplo, tiene el fin del robo) o puede ser heroico (como cuando el héroe de
una novela acaba con el villano) Un acto violento puede incluso convertirse en deber profesional y cívico amparado
por la ley (como en ciertas acciones policiales o militares). Por tanto, hablar desde la biología del crimen o de la
conducta criminal constituye un fundamental error de nivel o de categoría. Incluso si la testosterona fuese una
causante de actos violentos (lo cual está por demostrar), ello no nos diría nada sobre la criminalidad, pues la
testosterona estaría involucrada tanto en los actos de un militar que cumple las órdenes de un gobierno, como en los
de un criminal condenado a muerte por ese mismo gobierno. No se trata solo de que la criminalidad no tenga, de
hecho, condicionantes biológicos; se trata de que no puede tenerlos por la propia naturaleza de su concepto. Entre
las conductas histórico-culturales y los elementos biológicos en ella involucrados hay un cambio de escala que
bloquea la posibilidad del reduccionismo pangenetista. Podemos decir que ello impide, al menos para la crítica
filosófica, la expansión del concepto de gen hacia aquellos campos.
En buena medida, el éxito de estas publicaciones proviene, como dijimos, de nuestras propias obsesiones.
Sus objetos de estudio son los puntos calientes de nuestra sociedad. No resulta extraño que esta temática capte la
atención del público y, así, de los editores. Pero probablemente haya algo más. Si la criminalidad o el alcoholismo
92
ENERO
2012
son problemas biológicos y no sociales, las administraciones políticas cuentan con una exculpación inapelable ante
ciertas situaciones de las que, de otra manera, serían responsables. Al fin y al cabo, más allá de las políticas que las
7
R. C. Lewontin, “No está en los genes”, 1987, Crítica, Barcelona. Pag. 165.
Juan Pedro Canteras Zubieta | La evolución del concepto de gen. Biología, ideología y sociobiología.
instituciones adopten siempre latirá una terca naturaleza humana con sus virtudes y sus defectos. La ideología que
estos estudios promueven no incomoda en absoluto al poder, y por ello no resulta extraño que la investigación en
materia genética cuente con semejantes desembolsos por parte de gobiernos como el de EEUU. El discurso del
reduccionismo genético no es contrario a la ideología más liberal y, de hecho, le brinda un fuerte asidero ideológico
en determinadas situaciones. En las argumentaciones del determinismo genético, la importancia del entorno y de los
medios a disposición de los individuos queda relegada a un segundo plano y, así, las administraciones liberadas de
responsabilidad.
***
C. Esta ideología que tan exitosamente ha arraigado en occidente y muy especialmente en EEUU, no se ha
limitado a extrapolar conceptos y argumentaciones biológicas a campos sociológicos, políticos o jurídicos, sino que
hoy se halla sumida en un gran proceso de sistematización y escolastización. Me estoy refiriendo al proyecto de la
sociobiología, autoconcebido él mismo como “la nueva síntesis”. Así, desde E.O.Wilson hasta Steven Pinker,
muchos autores han tratado de articular un concepto de naturaleza humana en claves genéticas. La expansión del
campo biológico pretende ser aquí absoluta, hasta integrar el concepto del gen en todo aspecto humano posible. Las
bases de este proyecto están claras: El hombre es un animal más y como tal ha sido moldeado por la selección
natural. Esta selección ha operado como una selección de los genes óptimos, que son los que poseían los
individuos mejor adaptados y que más se han reproducido. Los genes más adaptativos han ido aumentando su
presencia generación tras generación y los genomas del presente son el resultado de ese proceso. La historia
cultural humana es insignificante si se mide a escala biológica, por lo que el cambio de condiciones que nuestros
artificios culturales han supuesto no ha podido dar lugar a cambios genéticos significativos.
La conclusión es obvia: Los seres humanos del presente, pese a habitar un mundo completamente
intervenido por la cultura, poseen un organismo adaptado al medio de sus antepasados primitivos. La clave (y la
trampa) de esta argumentación es la de extender la acción de esa selección natural a todo lo humano, desde los
dientes caninos hasta la (supuesta) tendencia supersticiosa o religiosa de nuestra psicología; desde la posición
erguida de la especie hasta el carácter militar de nuestras formas de agrupación política. La sociobiología intenta
sistematizar ese conjunto vago de creencias de apariencia científica que formaban la ideología que hemos descrito
en el punto 2.
Hoy podemos decir que la sociobiología es un conocimiento con un alto grado de organización
institucional, hallándose presente en las universidades y con amplia representación en la oferta de publicaciones
divulgativas. Internamente, tiene también una considerable organización, contando con sus clásicos
(recurrentemente citados), con sus problemas tipo, con un acervo conceptual propio y con sus manuales de
referencia. Pero ¿de qué tipo de conocimiento estamos hablando? Autoconcebida como ciencia, traspasada por
93
ENERO
2012
La evolución del concepto de gen. Biología, ideología y sociobiología. | Juan Pedro Canteras Zubieta
problemas filosóficos y sospechosa siempre de militancia ideológica, la sociobiología es una disciplina enigmática.
En su centro: el concepto de gen que estamos rastreando.
En la dispersión del concepto de gen que he intentado describir en el punto 2 encontramos algunas
características propias de la ideología. Ahora, esta disciplina sistemática y con pretensiones totalizadoras nos
muestra algunos atributos propios de la filosofía. De hecho, muchos de los problemas a resolver que se pueden
observar en los libros de sociología pertenecen a la tradición filosófica: la libertad humana, la relación entre
hombres y animales, la naturaleza humana, los fundamentos de los códigos morales… Pero si la ideología
biologicista contenía en su seno el fundamental problema de no poder naturalizar los problemas histórico-sociales,
la sociobiología se topará con un problema análogo: el de no poder naturalizar los problemas filosóficos. Y ello
porque, al igual que los problemas sociales, los problemas filosóficos tienen su textura propia y suponen, respecto a
los problemas de la ciencia, un insalvable cambio de escala.
Ningún fragmento de cromosoma, ninguna secuencia de nucleótidos y ningún concepto científico de gen,
pueden cerrar el problema, por ejemplo, de la libertad humana. Las razones son múltiples, pero quizá la más
importante es la de que los problemas filosóficos son problemas conceptuales. Es decir, la propia discusión
filosófica refunde y vuelve a forjar los conceptos clave una y otra vez en cada solución que va ofreciendo. La
libertad humana no es lo mismo para el estoico que para el kantiano. Cuando E.O.Wilson afirma que el hombre
tiene una tendencia biológica a la libertad (razón en la que basa el fin de los modos de producción esclavista8) ¿A
qué libertad se refiere? ¿A la del estoico o a la del kantiano? Acaso Wilson tenga que refundir el concepto,
emprender un análisis de la idea de libertad antes de dar un paso; es decir, hacer filosofía. Pero ello sería tanto
como abandonar sus pretensiones de cientificidad y empirismo. Los sociobiólogos hablan de la libertad humana, e
incluso de la naturaleza humana, como si estos conceptos hicieran referencia a meros objetos del mundo y como si
no hubiese más que comenzar a describirlos. Pero lo cierto es que estos no son objetos del mundo, sino conceptos
filosóficos que solo cobran sentido en relación con otros conceptos filosóficos, en el interior de un discurso que no
es ni científico ni empírico.
Por sus pretensiones de constituirse en un saber total y por su estructura sistemática, la sociobiología se
asemeja a la filosofía. Pero para usar la distinción de Gustavo Bueno, se trataría ésta no solo de una filosofía falsa,
sino de una falsa filosofía. Y en el mismo sentido, ante el pretendido carácter científico que esgrime, podría decirse
de esta disciplina que no solo se trata de una ciencia falsa, sino de una falsa ciencia.
La sociobiología ha recibido, en cualquier caso, una acogida espléndida por parte de públicos de lo más
94
ENERO
2012
diverso. Es el prestigio de las ciencias naturales lo que quizá esté a la base de este fenómeno. Cada sociedad tiene
más o menos definidos sus criterios de legitimación, sus fuentes de verdad. Si bien en otro tiempo todo discurso
8
Eduard O. Wilson, “Sobre la naturaleza humana”, 1980, Fondo de cultura económica, Mexico. Pags. 120-123.
Juan Pedro Canteras Zubieta | La evolución del concepto de gen. Biología, ideología y sociobiología.
relevante tuvo que ponerse al amparo de criterios religiosos para poder ser pronunciado, hoy es el modelo científico
el que garantiza la validez de las afirmaciones.
Algunas ciencias del espíritu o ciencias humanas (como la mayoría de la economía o algunas escuelas de
historiadores) emprendieron hace ya mucho tiempo un camino hacia la naturalización, hacia la cuantificación,
medición y matematización de sus discursos. La sociobiología parece haber escogido un atajo más abrupto. En vez
de forzar a la sociología para hacerla pasar por el aro de las ciencias naturales, ha extendido los límites de una
ciencia natural bien consolidada hasta colonizar desde ella campos humanísticos. Dicho de otro modo: La
sociobiología, en vez de naturalizar una ciencia humana ha “humanizado” una ciencia natural. La operación ha sido
un éxito y la recepción social mayor de la esperada por sus propios autores. Esta “nueva síntesis” pronto ha
conquistado las sedes sociales más importantes de producción y difusión de conocimiento, desde la universidad
hasta las editoriales. Pero por más que su cristalización institucional sea cierta, la sociobiología como proyecto
totalizador (la nueva síntesis) está presa de los viejos problemas del reduccionismo. El pangenetismo, bajo esta
nueva formulación (ciertamente más elaborada), denuncia de nuevo sus tensiones internas.
***
En estas páginas he intentado recorrer el despliegue histórico del concepto de gen, desde su origen
biológico hasta sus actuales irrupciones en discursos políticos, morales, jurídicos… Esta tarea acude tanto al
análisis sociológico (pues debe encontrar las sedes sociales donde se gestan los conceptos) como al epistemológico
y gnoseológico (para poder hacer algún análisis de esos conceptos) y entra así en el ámbito de la sociología del
conocimiento. La dimensión filosófica se hace aquí incancelable, si bien nunca se pierde de vista el arraigo
sociológico del problema.
En un primer momento, se describió el estado actual del concepto de gen dentro de la biología, donde lo
encontramos debilitado aunque no impertinente. El concepto de gen se presenta, en la ciencia que lo gestó, como
desdibujado, y parece cobrar sentido pleno solo con referencia a ámbitos de investigación muy concretos. El gen, en
las últimas investigaciones, más que hacer referencia a un objeto físico bien definido parece desplegarse en
relaciones muy complejas, que involucran a una pluralidad de objetos y que nos son, en buena medida,
desconocidas.
A continuación, se describió la aplicación de este concepto a problemas tradicionalmente no biológicos.
Desde los años 60 hallamos el concepto de gen, por ejemplo, en la explicación de las conductas sociales. A pesar de
la debilidad que el concepto adquirió en su campo original (y quizá gracias a ello), este mostró gran fecundidad en
discursos sociales, políticos y jurídicos. A este segundo momento de la historia del concepto lo caractericé como
ideológico, por su involucración en justificaciones políticas.
95
ENERO
2012
La evolución del concepto de gen. Biología, ideología y sociobiología. | Juan Pedro Canteras Zubieta
Finalmente, he creído ver en la fundación de la sociobiología un tercer movimiento del concepto,
consecuencia del anterior pero diferenciable de él. Con esta nueva disciplina, que arranca en los años 80, el
concepto de gen ha sido puesto en el centro de un gran proyecto reduccionista que pretende dar una explicación
científica a todas las dimensiones humanas (religiosas, militares, psicológicas, afectivas...). Este momento del
concepto posee características filosóficas, en tanto que la sociobiología se acoge a cierto sistematismo y quiere
configurarse como saber totalizador. Su autoconcepción cientificista la pone, no obstante, ante los problemas del
reduccionismo de los que no parece poder librarse.
Para concluir, insistiré en la naturaleza de esta evolución que he descrito: No se trata simplemente de que
un concepto científico, gen, sea secuestrado por discursos ideológicos, o por una disciplina reduccionista y
totalizadora. Puesto que el concepto mantiene, a través de sus dispersiones, alguna unidad, el empleo ideológico del
mismo no pasa inadvertido a la ciencia que lo gestó y que lo sigue empleando. Si el concepto de gen recibe un
sesgo ideológico, la biología genética no permanece inmune a esta distorsión. De hecho, si el concepto de gen
ocupa hoy un lugar central en biología, ello no se debe, probablemente, a causas endógenas a la propia ciencia,
sino a todo este proceso exógeno que he intentado organizar. Las ciencias, sin detrimento de su especial estatuto
gnoseológico, son porosas al entorno en que crecen y que las posibilita. De hecho, solo acudiendo a este entorno,
cabe explicar su naturaleza, que por más lógica que se nos presente, no deja de ser material.
BIBLIOGRAFÍA:
FOX KELLER, Evelyn: El siglo del gen, cien años de pensamiento genético (2000), Ediciones Península,
Barcelona, 2002.
LEWONTIN, Richard, ROSE, Steven y J. CAMIN, Leon: No está en los genes, racismo, genética e ideología
(1984), Editorial Crítica, Barcelona, 1987.
HUBBERD, Ruth y WALD, Elijah: El mito del gen (1997), Alianza Editorial, Madrid, 1999.
O.WILSON, Edward: Sobre la naturaleza humana (1979), Fondo de cultura económica, México, 1980.
D. WATSON, James: La doble hélice (1968), Alianza Editorial, Madrid, 2009.
96
ENERO
2012
La Fotografía 51: un ejemplo de cooperación y competencia en la ciencia | Carlos González Sánchez
La Fotografía 51: un ejemplo de cooperación y competencia en la ciencia Carlos González Sánchez Photograph 51: A case of cooperation and competition in science. This article focuses on the problems and
issues derived from the analysis of the well-known Photograph 51. This analysis will lead us to deal with several
approaches to the photograph, which could be considered the subject matter of study under the scope of varied
disciplines -sociology, gnoseology and gender studies. Taking the concept of symploké as basis for the purpose of
my essay, the multiple connections and disconnections (internally and among these disciplines) will be developed.
El presente trabajo se propone analizar las distintas circunstancias que rodearon y propiciaron el
“descubrimiento” de la doble hélice. Dicha tarea (de desarrollarse en su totalidad) desbordaría las dimensiones
propuestas y exigiría mucho más tiempo y capacidad de la requerida para el mismo; por todo ello, el objetivo del
trabajo va a ser limitado en torno a la foto 51, la célebre foto patrón B de ADN obtenida por Rosalind Franklin en
1952. Esta foto tuvo significativa relevancia (a veces exagerada desde la perspectiva pedagógica) en la consecución
del modelo de doble hélice y la imposición del mismo frente a otros modelos helicoidales, presentes en las posibles
explicaciones de la estructura molecular del ADN en aquel momento.
Como ya he señalado, la atribución de importancia a la Foto 51 resulta, a veces, desmesurada dentro del
proceso de “descubrimiento” de la estructura molecular de doble hélice del ADN, pero esto no debe hacernos perder
el interés en su estudio, sino todo lo contrario. La foto 51 es centro de problemas gnoseológicos, sociológicos e
incluso tema prominente en el análisis de la ciencia dentro del enfoque de los estudios de género: la polémica en
torno al papel de Rosalind Franklin y la marginación que sufriera en la retribución de méritos, tanto a nivel social
97
como académico (problema que, por cuestión de espacio y objetivos del presente trabajo, solo podremos mencionar
superficialmente, sin poder posicionarnos ante el mismo). Trataré de ejercer, en el máximo de mis posibilidades,
ENERO
2012
Carlos González Sánchez | La Fotografía 51: un ejemplo de cooperación y competencia en la ciencia
una teoría gnoseológica que sea lo más cercana, dentro de mi bagaje filosófico, a una gnoseología operacionalista y
materialista, la cual se aleja de adecuacionismos, teoreticismos o descripcionismos. En una gnoseología aplicada de
tal modo al caso que nos ocupa, creo que obtendremos unos resultados muy provechosos en el análisis de la
fotografía 51.
Llegados a este punto he de someter a autocrítica, o meramente puntualizar la elección de este
acontecimiento como centro del presente trabajo; esta elección no se debe a una especial consideración de la foto
51, ya sea como un corte o una mayor significación respecto a otra serie de fotografías de la molécula de ADN de
patrón B; tan sólo he usado dicha fotografía como un punto de referencia en torno al cual pueda pivotar y
coordinarse este texto. Por un lado el valor gnoseológico de dicha fotografía ha de ser matizado, tan sólo se
encuentra dentro de una dinámica de ensayo y error, dinámica la cual pertenece a un proceso de acercamiento, de
búsqueda, de evidencia visual que pudiera seleccionar un modelo de estructura helicoidal, en el lado contrario su
valor histórico y sociológico puede ser ensalzado.
Esta fotografía es centro de toda una serie de procesos de cooperación y competencia que tuvieron lugar
alrededor del estudio y “descubrimiento” de la estructura de la doble hélice de ADN. Recelos y alianzas dentro de
una serie de nombres Gosling, Franklin, Wilkins, Watson… que no fueron baladíes en el desarrollo de sus modelos
helicoidales (y que pueden resultar para el investigador de lo más interesante, como si de una novela de espionaje y
contraespionaje se tratara, salvando las distancias, puesto que no nos encontramos ante un ejemplo análogo al de
guerra fría).
Antes de nada centrémonos en la definición y la importancia que le concede una enciclopedia virtual como
Wikipedia a la foto 51: “Foto 51 es el sobrenombre dado a una imagen del ADN obtenida por la técnica de
difracción de rayos X , tomada por Rosalind Franklin en 1952 que supuso una prueba fundamental para identificar
la estructura del ADN. La foto fue tomada por Franklin mientras trabajaba el grupo de Sir John Randall en el King’s
College de Londres.
La ‘X’ en la imagen corresponde al perfil en forma de zig-zag de la hélice. Cuando los rayos X se
proyectan a través de una muestra de ADN, se difractan obteniendo los zigs y los zags alternos de la hélice en
forma de X. El patrón de capas lineadas en la parte inferior de la X muestran la estructura de doble hélice. LA
imagen también facilita el cálculo de las dimensiones del ADN: EL radio de la hélice es de un nanometro, que a
cambio muestra que las bases están dentro de la hélice, y el esqueleto de azúcar-fosfato en el exterior” (Wikipedia
2010, http://en.wikipedia.org/wiki/Photo_51).
98
Debemos ser precavidos ante tal definición, no sólo por el carácter relativo que tienen los artículos y
ENERO
2012
definiciones en Wikipedia (por su política abierta y acumulativa es muy vulnerable a cualquier boicot o ataque
La Fotografía 51: un ejemplo de cooperación y competencia en la ciencia | Carlos González Sánchez
vandálico), pese a ello, esta definición nos sirve como definición tipo ante cuestiones científicas, sociológicas o
gnoseológicas en cualquier enciclopedia, donde se hace más hincapié en la anécdota que una explicación interna,
bien estructurada, entre sus artículos.
Dirijamos nuestras miradas ahora hacia a un análisis más exhaustivo de las circunstancias que rodearon la
realización de la fotografía y los motivos que la dotan o no de cierta importancia: “Nos encontramos en la
primavera de 1952, Franklin y Gosling se están dedicando a tomar fotografías de prueba de ADN, el método usado
es breve exposición a 75 % de humedad relativa con la microcámara Phillips. En este periodo también probaron un
nuevo caballete inclinable especial, que les servía para detectar repeticiones de gran angular a lo largo del eje de la
fibra.
El 18 de abril, Franklin se encuentra con una fotografía de una fibra cristalina que mostraba una orientación
doble. […]” (El camino hacia la doble hélice, Pág. 522)
Esta orientación doble se convierte en un primer indicio que lleva a Franklin a cuestionar, frente a Crick y a
Watson en la Royal Society del 1 de mayo, la estructura en hélice del ADN: “sus datos decían que su ADN no era
una hélice” (La doble hélice, Pág. 122).
Resulta paradójico que en los días siguientes a la convención Franklin obtuviera una radiografía de una fibra
que antes había dado como resultado un patrón cristalino, pero que había cambiado hasta dar lugar al patrón
húmedo (patrón B). La consecución de este logro, incluso al 75 % de humedad, fue, relativamente, pasado por alto
por la propia Franklin en este momento. Posiblemente una de esas fotografías obtenidas era la famosa fotografía 51,
una excelente fotografía de patrón B, la misma que posteriormente llegaría hasta las manos de Watson.
¿Pero por qué Franklin y Gosling no abandonaron la postura antihelicoidal después de la obtención de estas
fotografías de patrón B? ¿Es entonces cierto como defendería Wilkins posteriormente (en 1972) que dichas
fotografías fueron un mero encuentro fortuito? Para resolver estas preguntas es de interés los motivos que Olby
aporta para este suceso: “Podría parecer que si la fibra de ADN consta de hélices cilíndricas empaquetadas en
paralelo al eje de la fibra, la localización de puntos en los sectores de la izquierda y la derecha de diagrama defería
confirmar esa simetría radial. Pero cuando Franklin y Gosling empezaron a describir el patrón A, encontraron
ambigüedades que en su momento les condujeron a adoptar una postura antihelicoidal. En abril, se describió un
caso de orientación doble que emplearon para comprobar la fiabilidad de su descripción. La doble orientación en sí
misma no es incompatible con la estructura helicoidal, pero cuando clasificaron los resultados éstos parecían refutar
la supuesta simetrñia radial de las intensidades” (El camino hacia la doble hélice, Pág. 523).
“La argumentación antihélice presentada por Franklin en una reunión de aquellos miembros de nuestro
99
ENERO
2012
Carlos González Sánchez | La Fotografía 51: un ejemplo de cooperación y competencia en la ciencia
laboratorio que se ocupaban del ADN, no se basó en la doble orientación, sino en las ideas de que la reflexión hkl
poseían una marcada tendencia a ser más intensas que las reflexiones hkl. Tal como se presentaron los datos, éstos
no podían ser compatibles con una estructura helicoidal” (Wilkins, 1972).
Esto fue debido a que tanto Franklin como Gosling pasaron por alto la posibilidad de que el diagrama de
fibra de moléculas helicoidales dispuestas en paralelo pudiese dar la apariencia de asimetría radial.
Franklin trabajaba con modelos donde se consideraba la existencia de tres hélices distintas de 11 Å de
diámetro que discurrían juntas, con los centros de los grupos de las tres separados entre sí por unos 20 Å. Pero los
datos de Franklin contradecían ese modelo, en lugar de obtener los 11 Å de diámetro obtuvo 13,5 Å. Ciertos
prejuicios antihelicoidales o simplemente problemas para barajar la idea, impidieron que Franklin barajara el
modelo de doble hélice que explicaba un diámetro hipotético de 14 Å.
Todo esto resulta aún más sorprendente al saber que la propia Franklin había escrito ese mismo año: “Los
resultados sugieren una estructura helicoidal [que debe estar muy estrechamente consolidada] que probablemente
contenga 2, 3 o 4 cadenas de ácido nucleico coaxiales por unidad helicoidal y tenga situados los grupos fosfato
cerca del exterior” (Franklin, 1952, Pág. 4). Esta cuestión ya ha sido objeto de múltiples análisis y teorías al
respecto, me adscribo a las posibles razones que de nuevo Olby nos ofrece: “¿Cómo es posible que Franklin se
saliera por esta tangente antihelicoidal en mayo de 1952 cuando había escrito en febrero del mismo año? […]
Franklin era una cristalógrafa estructural profesional que desconfiaba de la conjetura intuitiva y que
pretendía resolver la estructura por métodos directos, es decir, sin introducir supuestos en forma de estructuras
hipotéticas. No estaba en contra de las hélices como tales, sino en contra de asumir hélices cuando los datos, en su
opinión, eran insuficientes. Esta actitud respondía a sus propias inquietudes como investigadora y a su admiración
por Bernal, a cuya conferencia “Consideraciones sobre el estado actual de la estructura de las proteínas”, asistió
Franklin en el marco del Congreso Internacional de Cristalografía de 1951. Las notas que tomó en estas conferencia
de muestran que el mensaje de Bernal le impresionó. Bernal dijo que la aproximación de Pauling consistía en
aplicar los conocimientos químicos a la construcción de estructuras, y después emplearlos datos radiológicos como
elemento de contraste. Este era un enfoque deductivo y especulativo. En las etapas iniciales estaba justificado,
escribía Franklin, “ha llegado el momento de examinar a fondo la evidencia y los supuestos –de ello depende hallar
la solución o una solución”. Bernal contraponía el método deductivo de Pauling al método empírico inductivo de
derivar tipos de cadenas a partir de secciones de Patterson” (El camino hacia la doble hélice, Pág. 528).
100
Esta escrupulosidad en su actividad investigadora podría suponer (sobre todo para un investigador,
gnoseólogo o sociólogo de corte más especulativo) un grave contratiempo en el desarrollo y posterior aceptación
ENERO
2012
del modelo de doble hélice. Pero desde una posición gnoseológica, como la que se practica en este trabajo (ni
La Fotografía 51: un ejemplo de cooperación y competencia en la ciencia | Carlos González Sánchez
adecuacionista, ni descripcionista, ni teoreticista) es objeto de análisis y, por qué no decirlo, de alabanza: el
abandono por parte de Franklin de aquella fotografía de la forma B (la fotografía 51), que con tan buen resultado
había obtenido, a favor de centrarse en el estudio de la forma A. Debemos observar lo exhaustivo que podía llegar a
ser el proceso de esta investigación, sólo tras haber agotado todas las vías de investigación y posibilidades de la
forma A, se decidiría volver a la forma B. Una actitud investigadora que responde a ciertos presupuestos
gnoseológicos que funcionan tras de ella (el hecho que sea consciente o no, nos es indiferente).
Dejando a un lado la autojustificación que pudiera dar Franklin a tales acontecimientos, es posible observar
como externalizó estos presupuestos en su conducta: no hipostasió el modelo de doble hélice pese a que una serie
de muestras conseguieran cuadrar de forma óptima bajo dicho modelo; estas muestras conformaban una anomalía y
una distracción respecto al análisis inconcluso del patrón A en el que se hallaban inmersos. “Si A no era helicoidal,
no era nada razonable suponer que B pudiera serlo” (Wilkins, 1972)
Este último punto no está exento de polémica y diversidad de opiniones: que Franklin retomara la forma B
de la obtención de radiografías justo 10 meses después, es visto por muchos como una coincidencia (tan sólo una
semana después de la visita de Watson con el manuscrito de Pauling sobre su modelo helicoidal triple). El propio
Crick y Klug se inclinan por pensar lo contrario, el agotamiento del estudio de la forma A, y no la visita y la
defensa de Pauling de las hélices de ADN, le habría llevado de forma irremediable a retomar el estudio de la forma
B. En mi opinión, ambos factores favorecían una misma decisión, y mostrarlos como una contradicción solo puede
tener un valor psicológico o competitivo, fuera como fuese, el camino ya estaba marcado.
Mientras, al otro lado del Atlántico Pauling desarrollaba un modelo helicoidal de tres hélices, su decisión de
trabajar sobre el ADN en 1952, no sólo se debía al estudio que se estaba realizando en King’s por parte de Franklin,
Goslin o Wilkins entre otros. En opinión de Robert Olby, “Edward Ronwin y su extraordinario trabajo” que
apareció en el Journal of the American Chemical Society en noviembre de 1951, ayudaron en esa decisión.
Para concluir el periplo de la fotografía 51, y la importancia relativa que esta tuvo en el desarrollo del
modelo de doble hélice, acudiré al último y más célebre capítulo de su vida como curso operatorio, previo al cierre
parcial que supuso el “descubrimiento” de la doble hélice dentro de la biología (dando lugar a la bioquímica y a la
biología molecular). Este capítulo no es otro que la visita de Watson a King’s y su visualización de la fotografía 51.
Franklin no ocultaba sus recelos hacia Watson y su modelo helicoidal, celos motivados (entre otras razones)
por el interés de ambos por el trabajo de Corey, y las respuestas desiguales que obtuvieron de este. Por tanto ante la
visita de Watson a King’s fue Wilkins el que secretamente le enseño un excelente patrón de difracción de la forma B
del ADN, posiblemente no fuera otro que el de Franklin.
101
ENERO
2012
Carlos González Sánchez | La Fotografía 51: un ejemplo de cooperación y competencia en la ciencia
“Watson ni siquiera conocía la existencia de esta forma de ADN hasta aquel último viernes de enero, aunque
Franklin había notificado su existencia y mostrado una radiografía bastante pobre de la misma en 1951 en presencia
de Watson. Esta fotografía de 1952 ofrecía el ejemplo más sencillo y notable de un patrón de difracción helicoidal
que se había visto nunca. […] No era de extrañar que Watson se quedara “con la boca abierta” y empezar a
“temblarle el pulso” ” (El camino hacia la doble hélice, Pág. 558).
Como hemos analizado, la importancia de una fotografía en concreto por encima de todo un curso de
operaciones: experimentación, cooperación, competencia… puede desviarnos de un asunto de vital importancia. La
fotografía 51, como objeto individualizado ha de verse sometido a una atención historiográfica superior al que
desde la gnoseología o la sociología podría ejercerse. Pese a ello, no podemos pasar por alto la importancia de la
técnica, y en este caso la obtención de radiografías a escalas tan diminutas, para el desarrollo de la ciencia. El
binomio ciencia y tecnología componen una estructura difícilmente separable, y en esta ocasión se ve de nuevo que
no podemos más que realizar una disociación, porque su separación real es imposible. Las circunstancias que
rodean a la obtención de pruebas, o datos en un laboratorio, son fruto de todo un desarrollo técnico que a su vez
puede depender de otras técnicas o ciencias (lo que a veces ha venido a llamarse una distinción entre técnica y
tecnología).
La foto 51, ha sido “bautizada” con nombre y apellidos por su importancia como anécdota, pero la
existencia de fotografías de ADN de patrón B, no es una anécdota, es una necesidad gnoseológica, que posibilitan la
construcción del modelo de doble hélice. La palabra “descubrimiento”, que he entrecomillado durante la totalidad
del presente trabajo, esconde una serie de connotaciones adecuacionistas y descripcionistas con las que se ha de ser
muy cauteloso (pese a todo me veo obligado a usar dicha palabra por no forzar el lenguaje, aunque no sin los
siguientes matices). El uso con el que se ha querido utilizar en el presente ensayo no es otro que el de construcción,
construcción que se obtiene por medio de la coordinación de múltiples cursos operatorios presentes en el momento
de la misma. No estamos tratando de una construcción o creación ex nihilo, los materiales de los que se parte son
producto a su vez de múltiples cursos operatorios. Una estructura red, que sin duda, posibilitó el “descubrimiento”
de la doble hélice, como esta, a su vez, dio lugar al nacimiento de la biología molecular dentro del campo de la
biología. Procesos de regresus y progresus que nos imposibilita dejar de lado estos desarrollos técnicos en el
análisis gnoseológico de los desarrollos científicos.
Por último desde una perspectiva sociológica, puede resultar muy interesante el seguimiento de la
aparición y uso de la fotografía 51. Si desde la gnoseología, el bautizo de dicha fotografía resulta una ceremonia
vacua, pues la importancia de la misma se puede disociar de su concreción, en sociología resulta casi imposible esta
102
operación: que la fotografía 51 fuera centro de recelos y secretos o de armonía y coordinación, en definitiva de
competencia o cooperación (ya sea entre investigadores, o entre modelos e hipótesis, aunque estos últimos sean
ENERO
2012
inseparables del investigador que los desarrolla o defiende) es un asunto a tener en cuenta.
La Fotografía 51: un ejemplo de cooperación y competencia en la ciencia | Carlos González Sánchez
Las divergencias que se observan en los estudios, hipótesis y modelos de Watson y Crick, King’s o Pauling
no son casuales. Todos ellos optaron por métodos y campos experimentales distintos que respondían a distintos
propósitos y a su vez dieron lugar a distintas conjeturas respectivamente. Llegados a este punto debemos ser
tajantes, tenemos que negar la simplificación que supone ver sus correspondientes trabajos como: o bien una fuente
de discrepancias y diferencias insalvables, o bien un proceso racional armónico preestablecido. Fue la cooperación
en determinados momentos, al igual que la diversificación en otros, la que posibilitó los avances que se producían
constantemente en el desarrollo de los modelos que intentaban explicar la estructura y la composición del ADN.
Que la fotografía 51 fuera objeto de este tipo de interacciones no puede verse de otra forma. Ni siquiera
para los propios implicados en aquellos acontecimientos está clara la intención de Franklin por ejemplo. ¿Pretendía
ocultar realmente a Watson la fotografía o era consciente de que Wilkins se la iba a mostrar? Las respuesta nos es
ya indiferente, los acontecimientos mandan y el hecho de que King’s compartiese dicha foto con Watson
seguramente facilitó el desarrollo del modelo de la doble hélice.
Para otro momento hemos de posponer el introducirnos en otro tipo de cuestiones, me estoy refiriendo, en
este caso, al debate que suscita este episodio para la teoría de género. Polémicas en torno a Rosalind Franklin y la
retribución de mérito que la ciencia como institución social realiza o no, no pueden analizarse fugazmente,
principalmente porque desbordan y difieren de las pretensiones del presente trabajo. Ello no hace que susciten
menos interés acontecimientos como que no se pudiera entregar el premio Nobel a Franklin (dicho premio no se
puede recibir post-mortem). Pero como ya he apuntado, para este trabajo, eso es harina de otro costal.
Bibligrafía:
Olby, Robert, El camino hacia la doble hélice, Alianza Editorial, 1991, Madrid.
James D. Watson, La doble hélice, Plaza & Janés, 1999.
Bueno, Gustavo, Teoría del cierre categorial, Vols. I-V, Pentalfa, Oviedo, 1991-1993
103
ENERO
2012
Marina Merino Sabando | Genética de Poblaciones.
Genética de poblaciones Marina Merino Sabando 1
Resumen Aunque la genética de poblaciones ha sido acusada de “racista”, este trabajo muestra que muchos genetista como L.L. Cavalli‐Sforza plantean proyectos que van en dirección contraria. El Proyecto Genoma Humano no muestra que la especie humana esté separada en razas, ni mucho menos que de los datos genéticos se puedan derivar planes políticos. Al contrario, lo único que se puede reprochar desde la sociología del conocimiento a la genética de poblaciones es que su éxito ha restado financiación a otros proyectos no menos interesantes. 1
Nació en Barcelona en 1988 pero pronto se trasladó a Miranda
de Ebro (Burgos), donde además de sus estudios obligatorios,
cursó el Bachillerato en la modalidad de Humanidades.
Actualmente cursa 5º de Filosofía en la Universidad de Oviedo.
Abstract Although population genetics is a discipline that has been accused of ʺracistʺ, this paper shows that many geneticists like L.L. Cavalli‐Sforza projects that will arise in the opposite direction. The Human Genome Project does not show that the human species is separated into races, much less that of genetic data may derive political plans. In contrast, the only thing you can blame the sociology of knowledge in population genetics is that its success has reduced funding for other projects not less interesting. 105
ENERO
2012
Marina Merino Sabando | Genética de Poblaciones.
Genética de poblaciones Marina Merino Sabando2 Introducción.
Este trabajo será de carácter informativo, el tema principal es la Genética de Poblaciones como ejemplo
de disciplina centrada en el estudio de los genes humanos, para mostrar la importancia y dificultad de dicha
disciplina veremos tres ejemplos de proyectos, unos ya pasados, aunque con un carácter muy actual, y otros futuros,
con grandes ambiciones y perspectivas. En un primer lugar situamos el Proyecto Genoma Humano, en segundo
lugar el Proyecto de Diversidad del Genoma Humano, y por último, el Proyecto mil genomas.
Genética de Poblaciones.
El estudio de la Genética de Poblaciones comienza por definir que es una población desde una perspectiva
genética. En primer lugar, una población está constituida por individuos de la misma especie, por lo que entre ellos
es posible el intercambio de genes. Podemos definir una población como un conjunto de individuos, de la mima
especie, que comparten o hayan compartido ascendientes, de forma que todos tienen un cierto parentesco, y entre
los cuales hay o pueden realizarse apareamientos. La última parte de esta definición implica que los individuos de
una población comparten un mismo territorio. Si una población se divide en dos grupos de individuos que ocupan
territorios diferentes, de forma que entre los grupos no hay posibilidad de apareamiento, podremos hablar de dos
poblaciones.
Así los miembros de una población por tener ascendientes comunes, tienen entre sí una semejanza
genética mayor que entre individuos de diferentes poblaciones; y por el hecho de aparearse entre sí, comparten
unos mismos genes, un acervo genético común. De ahí que también se pueda definir una población por el conjunto
de los genes de sus individuos.
A lo largo de las generaciones, el individuo muere, es efímero, pero la población de perpetua en sus
descendientes. En realidad, si miramos una población a lo largo del tiempo, lo que se perpetúa son sus genes, los
cuales permanecen aunque cambiando de individuos en cada generación. En definitiva, el estudio de una
población es el estudio de sus genes a lo largo del tiempo.
107
2
Nació en Barcelona en 1988 pero pronto se trasladó a Miranda de Ebro (Burgos), donde además de sus estudios obligatorios, cursó el
Bachillerato en la modalidad de Humanidades. Actualmente cursa 5º de Filosofía en la Universidad de Oviedo.
ENERO
2012
Genética de Poblaciones | Marina Merino Sabando
Desde una perspectiva genética lo interesante es ver cuál es la composición genética de las poblaciones
(valorando el tipo y frecuencia de los distintos alelos de cada gen), cómo los alelos de diferentes genes se organizan
y distribuyen entre los miembros de la población, y qué cambios ocurren a lo largo del tiempo (la evolución de una
población es simplemente la modificación de su acervo genético examinado en el conjunto de sus individuos).
La experiencia y los conocimientos genéticos nos dicen que es muy improbable que una población
mantenga estables las frecuencias de sus alelos, y la distribución de éstos en los individuos, generación tras
generación. Por una parte porque ocurren mutaciones en el ADN que alteran los genes apareciendo nuevos alelos,
por otra parte, porque no todos los individuos de una población se reproducen, hay siempre una cierta mortalidad y
un elemento de azar que influye en cuántos y cuáles de los individuos llegarán a pasar sus genes a la siguiente
generación.
Si algo ha llamado la atención de los estudiosos de la vida es la amplia diversidad de formas vivientes que
pueblan nuestro planeta, y desde el antiguo hombre ha dedicado sus esfuerzos a clasificar esta diversidad en
especies, géneros, familias, etc., y a entender cómo se genera y cómo se mantiene. También la diversidad puede
observarse entre los individuos de una población, y a niveles de observación muy diferentes. Entre personas, por
ejemplo, encontramos claras diferencias en rasgos faciales, medidas antropométricas, tensión arterial, grupos
sanguíneos, huellas dactilares, tono de voz, etc., que nos permiten identificar cada individuo de entre el conjunto de
la población, incluso diferenciarlo de los individuos con los que más genes tiene en común: padres, hermanos,
hijos.
La diversidad que observamos es fenotípica, y en gran parte es un reflejo de una diversidad genética, esto
es, de la existencia de diferentes composiciones genéticas o genotipos entre los miembros de las poblaciones. La
diversidad genética también se denomina variación genética, y medirla y entender cómo se genera, cómo se
mantiene y cómo evoluciona es el fin primordial de la genética de poblaciones.
La variación genética entre los miembros de una población debe entenderse como que los individuos,
aunque llevan los mismos genes, llevan diferentes alelos en ellos. La variación genética puede estudiarse en niveles
muy diferentes. El más fácil es la diversidad visible, la fenotípica, que nos orienta acerca de la diversidad genética.
Otro tipo de variación genética no es visible, es la denominada variación escondida o criptica que puede
examinarse a nivel de genes o de ADN.
La variación fenotípica visible es la más fácil de observar: los rasgos de la cara, el color de los ojos, el tipo
108
de pelo, etc., son caracteres visibles que nos informas de una variación genética subyacente. La variación criptica se
utiliza porque en organismos diploides, muchos alelos son recesivos, y en heterocigosis quedan ocultos por el alelo
ENERO
2012
dominante. Para verlos, es preciso que aparezcan en doble dosis, en homocigosis, una forma de observar esta
Marina Merino Sabando | Genética de Poblaciones.
variación oculta es forzar la aparición de homocigotos.
Proyecto Genoma Humano.
El Proyecto Genoma Humano (PGH) fue un proyecto internacional de investigación científica con el
objetivo fundamental de determinar la secuencia de pares de bases químicas que componen el ADN e
identificar y cartografiar los aproximadamente 20.000-25.000 genes del genoma humano desde un punto de
vista físico y funcional.
El genoma humano es la secuencia de ADN de un ser humano. Está dividido en 24 fragmentos, que
conforman los 23 pares de cromosomas distintos de la especie humana. El genoma humano está compuesto por
aproximadamente entre 25000 y 30000 genes distintos. Cada uno de estos genes contiene codificada la información
necesaria para la síntesis de una o varias proteínas (o ARN funcionales, en el caso de los genes ARN). El "genoma"
de cualquier persona (a excepción de los gemelos idénticos y los organismos clonados) es único.
Conocer la secuencia completa del genoma humano puede tener mucha relevancia en cuanto a los estudios
de biomedicina y genética clínica, desarrollando el conocimiento de enfermedades poco estudiadas, nuevas
medicinas y diagnósticos más fiables y rápidos. Sin embargo descubrir toda la secuencia génica de un organismo no
nos permite conocer su fenotipo. Como consecuencia, la ciencia de la genómica no podría hacerse cargo en la
actualidad de todos los problemas éticos y sociales que ya están empezando a ser debatidos. Por eso el PGH
necesita una regulación legislativa relativa al uso del conocimiento de la secuencia genómica, pero no tendría por
qué ser un impedimento en su desarrollo, ya que el saber en sí, es inofensivo.
El debate público que suscitó la idea captó la atención de los responsables políticos, no solo porque el
Proyecto Genoma Humano era un gran reto tecnocientífico, sino por las tecnologías de vanguardia que surgirían,
así como porque el conocimiento obtenido aseguraría la superioridad tecnológica y comercial del país.
En 1984 comenzaron las actividades propias del PGH, coincidiendo con la idea de fundar un instituto para
la secuenciación del genoma humano por parte de Robert Sanshheimerm, en ese momento Rector de la Universidad
de California. De forma independiente el Departamento de Energía de Estados Unidos (DOE) se interesó por el
proyecto, al haber estudiado los efectos que las actividades de sus programas nucleares producían en la genética y
en las mutaciones.
En su comienzo, el Proyecto Genoma Humano, enfrentó a dos clases de científicos: de un lado, los
biólogos moleculares universitarios y del otro, biólogos de institutos de investigación del Instituto Nacional de
Salud, organismo estatal que percibía grandes sumas económicas federales destinadas a la investigación. Si bien el
109
ENERO
2012
Genética de Poblaciones | Marina Merino Sabando
enfrentamiento se basó en la preocupación de ambos científicos por la magnitud y los costos de la empresa a llevar
a cabo, existían sobre todo discrepancias para definir las vías más adecuadas a la hora de lograr los objetivos
fijados. Solo debemos observar los 28.2 millones de dólares destinados al periodo 88-89 para ubicarnos
“materialmente”. Por su parte, los Estados Unidos se comprometieron a destinar parte de los fondos económicos del
proyecto al estudio de los aspectos éticos y sociales del PGH.
James Watson asumió en 1988 la dirección ejecutiva de la Investigación del Genoma Humano en el NIH
(Instituto Nacional de Salud). Al asumir el cargo, firmó un acuerdo de cooperación con el DOE mediante el cual
ambas instituciones se ayudarían mutuamente. De esta forma el PGH comenzó con el liderazgo del NIH en lugar
del DOE. El interés internacional por el proyecto creció de forma notable, motivado fundamentalmente por no
quedar por detrás de Estados Unidos en un tema de tanta importancia. Para evitar repeticiones y solapamientos en
los logros, se creó HUGO (Organización del Genoma Humano) encargado de coordinar los trabajos de
investigación.
En 1990 se inauguró definitivamente el Proyecto Genoma Humano calculándose quince años de trabajo.
Sus objetivos principales en una primera etapa eran la elaboración de mapas genéticos y físicos de gran resolución,
mientras se ponían a punto nuevas técnicas de secuenciación, para poder abordar todo el genoma. Se calculó que el
PGH americano necesitaría unos 3000 millones de dólares y terminaría en 2005. En 1993 los fondos públicos
aportaron 170 millones de dólares, mientras que la industria gastó aproximadamente 80 millones. Con el paso de
los años, la inversión privada cobró relevancia y amenazó con adelantar a las financiaciones públicas
En 1994 Craig Venter funda, con un financiamiento mixto, el Instituto para la Investigación Genética
(TIGR) que se dio a conocer públicamente en 1995 con el descubrimiento de la secuencia nucleotídica del primer
organismo completo publicado, la bacteria Haemophilus influenzae con cerca de 1740 genes (1.8 Mb). En mayo de
1998 surgió la primera empresa relacionada con el PGH llamada Celera Genomics. La investigación del proyecto se
convirtió en una carrera frenética en todos los laboratorios relacionados con el tema, ya que se intentaba secuenciar
trozos de cromosomas para rápidamente incorporar sus secuencias a las bases de datos y atribuirse la prioridad de
patentarlas.
El 6 de abril de 2000 se anunció públicamente la terminación del primer borrador del genoma humano
secuenciado que localizaba a los genes dentro de los cromosomas. Los días 15 y 16 de febrero de 2001, las dos
prestigiosas publicaciones científicas americanas, Nature y Science, publicaron la secuenciación definitiva del
Genoma Humano, con un 99,9% de fiabilidad y con un año de antelación a la fecha presupuesta. Sucesivas
110
secuenciaciones condujeron finalmente al anuncio del genoma esencialmente completo en abril de 2003, dos años
antes de lo previsto. En mayo de 2006 se alcanzó otro hito en la culminación del proyecto al publicarse la secuencia
ENERO
2012
del último cromosoma humano en la revista Nature.
Marina Merino Sabando | Genética de Poblaciones.
Desde el principio de la investigación, se propuso desarrollar el PGH a través de dos vías independientes,
pero relacionadas y ambas esenciales:
Secuenciación: se trataba de averiguar la posición de todos los nucleótidos del genoma (cada una de las
cuatro posibles bases nitrogenadas típicas del ADN).
Cartografía o mapeo genético: consistía en localizar los genes en cada uno de los 23 pares de cromosomas
del ser humano.
El Genoma humano está compuesto por aproximadamente 30.000 genes, cifra bastante próxima a la
mencionada en el borrador del proyecto, publicado en el año 2000, ocasión en la que las genes oscilaban entre
26.000 y 38.000. Otra peculiaridad del PGH es que la cifra de genes humanos es solo dos o tres veces mayor que la
encontrada en el genoma de Drosophila, y cualitativamente hablando, existen genes comunes a los de bacterias y
que no han sido hallados en nuestros ancestros.
Los humanos poseen un número similar de bases nitrogenadas - alrededor de 3 millones y cerca de 3.000
megabases - similar al de otros vertebrados como las ratas e otros que también son afectados.
En estos momentos son una realidad las bases de datos donde se almacena toda la información surgida del
Proyecto Genoma Humano. Si accedemos a Internet podremos conocer libremente aspectos de alto interés en la
comparación entre genomas de distintas especias de animales y plantas. Gracias al uso libre de este conocimiento es
posible determinar la función de los genes, así como averiguar cómo las mutaciones influyen en la síntesis de
proteínas.
Para terminar, se puede afirmar que el objetivo relacionado con el estudio de la ética del PGH es un tema
de gran controversia actual, y ha necesitado de grandes sumas de dinero estatales así como de un importante trabajo
de laboratorios e investigadores. Todo esto ha provocado un deterioro del apoyo a otros proyectos de investigación
no menos importantes, que se han visto muy afectados o incluso cancelados.
Proyecto de Diversidad del Genoma Humano.
Cavalli-Sforza, está impulsando la idea de realizar una investigación destinada a comprender la variación
genética humana y a reconstruir la historia de las poblaciones humanas en los últimos 100.000 años de
nuestra especie. Este Proyecto de Diversidad del Genoma Humano (PDGH) implica una multitud de disciplinas
(genética, arqueología, lingüística, antropología, etc.) para dar cuenta de la evolución reciente de la humanidad,
reconstruir las grandes migraciones de grupos, la distribución de las poblaciones y culturas, etc. Una de las
111
ENERO
2012
Genética de Poblaciones | Marina Merino Sabando
estrategias consiste en la toma de muestras de ADN de una serie de poblaciones y etnias, con un posterior estudio
comparativo de polimorfismos moleculares. Se pretende estudiar muestras correspondientes al 10% de las 5000
poblaciones lingüísticas diferenciadas que existen, con el objeto de ver si existen correlaciones (y en su caso, cómo
se han producido) entre la diseminación cultural y la genética. Según sus impulsores, el PDGH dará una rica visión
de la variedad de recursos genéticos de nuestra especie, y junto con los datos del PGH convencional, facilitará la
comprensión del fundamento genético de la susceptibilidad o resistencia a distintas enfermedades, incluidas las
infecciosas, comprender mejor el papel de la selección y el de la deriva genética.
Algunos colectivos y medios de comunicación han lanzado acusaciones de "racismo" contra este Proyecto,
pero para Cavalli-Sforza nada está más lejos de sus propósitos. De hecho, piensa que con él se va a llamar la
atención de las reclamaciones de ciertas tribus para que se les ayude a sobrevivir y conservar sus culturas. Ningún
genético serio actual mantiene la idea de que la especie humana esté separada en razas, ni mucho menos que de los
datos genéticos se puedan derivar planes políticos. Además la propia trayectoria profesional de Cavalli-Sforza
demuestra su compromiso contra el racismo.
Un comité ad hoc de la UNESCO está emitiendo informes para que el PDGH se amolde a una serie de
criterios éticos y sociales. Los principales temas que se están evaluando son:
•
Consentimiento informado a los individuos y poblaciones implicados. El PDGH contiene, según los
miembros del comité de la UNESCO, algunas de las medidas más detalladas y sofisticadas que se hayan
propuesto nunca para obtener ese consentimiento informado.
•
Comercialización de los posibles resultados de la investigación: la UNESCO recomienda que este tema
forme parte de las cláusulas del consentimiento informado y de acuerdos de cooperación. Es decir, se
prevé que parte de los beneficios económicos reviertan en las comunidades indígenas.
•
La financiación debería ser pública y de entidades sin ánimo de lucro. No se debe aceptar la financiación
de empresas, para evitar todo posible conflicto de intereses.
•
Eugenesia y racismo. El racismo es una actitud mental, no una consecuencia de ningún dato biológico. Hay
que tomar medidas para evitar que nadie saque conclusiones sociales y políticas de meros datos de
polimorfismos genéticos en las poblaciones humanas.
Proyecto mil genomas.
Este proyecto es una iniciativa sin precedentes para analizar el material genético de mil individuos
112
anónimos de todo el mundo. El objetivo de esta inmensa base de datos, que estará disponible para la comunidad
científica de manera gratuita a través de Internet, es lograr una fotografía lo más detallada posible de la
variación genética del ser humano.
ENERO
2012
Marina Merino Sabando | Genética de Poblaciones.
Aunque dos individuos comparten el 99% de su material genético, esa pequeña fracción que les separa esconde la
clave de la diversidad humana y podría explicar la propensión de algunas personas a ciertas enfermedades, su
respuesta a determinados fármacos o incluso la reacción de su organismo a factores medioambientales.
La iniciativa de los mil genomas, que se prolongará durante tres años en dos fases diferentes, tiene su
origen en los resultados que ya ha arrojado el trabajo del Consorcio Internacional HapMap, que ha identificado
hasta ahora cien regiones del genoma relacionadas con el riesgo a sufrir enfermedades como la diabetes, la
degeneración macular asociada a la edad, o los tumores de próstata y de mama. Ya no se trata de descifrar el
genoma humano, sino de desvelar las claves que diferencian a un individuo de otro.
Con este nuevo proyecto, anuncian los científicos participantes, se pretende obtener un mapa aún más
detallado de la variabilidad genética humana.
El proyecto, que costará alrededor de 30-50 millones de dólares (entre 20 y 35 millones de euros) consta de
dos fases. En la primera, de un año de duración, se llevarán a cabo tres proyectos piloto que permitirán a los
científicos decidir por dónde empezar a construir su mapa de las diferencias genéticas, de la manera más eficiente
posible y aprovechando al máximo los avances tecnológicos a su alcance. Sólo en la segunda fase del proyecto (ésta
de dos años de duración) se analizará el genoma completo de los 1.000 individuos, a un ritmo nunca visto antes.
El proyecto será financiado mayormente por el Instituto Wellcome Trust Sanger en Hinxton, Inglaterra, el Instituto
Genómico de Pekín, en Shenzhen, China, y el Instituto Nacional de Investigación del Genoma Humano (NHGRI),
uno de los Institutos Nacionales de la Salud (NIH), en Estados Unidos.
Bibliografía.
Genética de las poblaciones humanas, Cavalli-Sforza, Ed. Omega 1981.
Apuntes seminarios de Genética, Pablo Infiesta, 2010.
www.ugr.es
www.elmundo.es
www.solociencia.es
www.wikipedia.es
113
ENERO
2012
Anais Fernández Criado | Los cultivos transgénicos: una visión sociológica.
Los cultivos transgénicos: una visión sociológica Anais Fernández Criado1 Resumen Los organismos modificados genéticamente (OMG) son aquellos seres vivos cuyo ADN ha sido modificado por voluntad humana. En este ensayo mostraremos el desarrollo de los OMG cultivados para alimentación, utilizando para dar coherencia a nuestro estudio la Teoría del Actor‐Red. Así, nos preocuparemos por detectar los actores sociales implicados, los intereses que se van creando y las relaciones que los unen, y veremos cómo estos elementos van conformando una red cuya estabilidad nunca podrá estar asegurada. Palabras clave: OMG, Teoría del Actor‐Red, Sociología. 1
Nacida en Avilés en 1988. Diplomada en Magisterio.
Actualmente estudia 5º de Filosofía en la Universidad de Oviedo.
Abstract Genetically Modified Organisms (GMO) are beings whose DNA has been alterated because of human interests. This essay will try to show how the development of GMO grown for alimentation was by using –in order to give coherence to our study‐ the Actor‐Network Theory. Thus, we will detect the actors involved, the interests they are creating and the relationships established between the actors, and we will see how those elements create a network whose stability can never be assured. Key worlds: GMO, Actor‐Network Theory , Sociology. 115
ENERO
2012
Anais Fernández Criado | Los cultivos transgénicos: una visión sociológica.
Los cultivos transgénicos: una visión sociológica Anais Fernández Criado2 Introducción. ¿Qué nos proponemos?
En este ensayo desarrollaremos una visión sociológica del fenómeno de los cultivos transgénicos. Para que
nuestro análisis esté mejor organizado seguiremos la teoría del actor red (que designaremos a partir de ahora con
“ANT”, sus siglas inglesas). La ANT posee dos grandes ventajas para la comprensión del tema que nos ocupa. Por
una parte, incluye en el elenco de actores de los que depende la constitución del hecho social a los actores no
humanos. Y por otra parte, enfatiza cómo los actores se esfuerzan por imponer su propia definición del problema
que se está tratando.
Intentaremos que nuestra adhesión a la ANT sea fructífera, incluso antes que rigurosa (si es que cabe
hablar de rigor dentro de una teoría tan amplia). Podría criticársenos que nuestros actores serán colectivos
exageradamente amplios. Pero lo son porque el caso de los transgénicos tiene escala mundial, y nos hemos visto
obligados a escoger entre definir actores muy grandes o definir un número muy grande de actores, y nos ha
parecido más esclarecedor lo primero. En nuestra exposición iremos introduciendo sucesivamente a los diversos
actores. Esto no debe entenderse como un ordenamiento cronológico: somos conscientes de que no se puede
entender a ningún actor al margen de las relaciones que mantiene con todos los demás. Si por el estilo de exposición
en algún momento parecen aislados, esperamos que sea un efecto subsanado al final.
Los transgénicos son seres vivos en cuyo material genético se han introducido secuencias de bases
mediante procedimientos artificiales de laboratorio. El objetivo de realizar esta labor es crear individuos que posean
características diferentes a las que son habituales en la especie a la que pertenecen (llegando incluso a crear
individuos que no pertenecen a ninguna de las especies existentes anteriormente). Las características concretas que
se “implantan” serán unas u otras según los intereses para los que se esté creando ese ser vivo concreto. En la
creación y difusión de los transgénicos entran en juego con muchísima fuerza los factores sociales, que guían el
qué, el cómo y el por qué de los organismos modificados genéticamente (en adelante, OMG).
1. La creación. Actor 1: las empresas de transgénicos.
La empresa responsable del nacimiento del negocio de los vegetales transgénicos fue Monsanto, que
acabaría siendo una de las multinacionales más importantes dedicadas a los OMG y sentando en buena medida las
2
117
ENERO
2012
Nacida en Avilés en 1988. Diplomada en Magisterio. Actualmente estudia 5º de Filosofía en la Universidad de Oviedo.
Los cultivos transgénicos: una visión sociológica | Anais Fernández Criado
bases del juego. Monsanto ejemplifica como nadie la postura del que denominaremos “actor 1”: las empresas
creadoras de OMGs.
Monsanto no surgió como empresa biotecnológica. Ya existía anteriormente como fabricante de herbicidas
y de otros productos químicos (fue una de las empresas fabricantes del Agente Naranja utilizado durante la guerra
de Vietnam). En los años anteriores a su avance por la senda de los transgénicos, uno de sus productos estrella era el
herbicida Roundup (a partir de 1976). El Roundup, cuyo principio activo es el glifosato, es capaz de matar a las
plantas porque bloquea las vías por las cuales estas crean los aminoácidos que necesitan para seguir viviendo. Por
supuesto, el Roundup no posee la “inteligencia” necesaria para discriminar entre las plantas que el granjero desea
cultivar y aquellas que quiere aniquilar. Las mata a todas por igual, así que la pericia del cultivador será
indispensable para su éxito.
Monsanto poseía la patente del glifosato, así que ninguna otra empresa podía comercializar este herbicida,
muy utilizado por ser teóricamente menos dañino para los mamíferos que herbicidas anteriores. Las ganancias eran
grandes. Pero las patentes no se otorgan indefinidamente, sino que caducan. La patente del glifosato caducaba en
2001, y partir de entonces el Roundup sería sólo uno más en la pluralidad de glifosatos fabricados por diversas
empresas. La cada vez mayor cercanía de la fecha de caducidad de la patente pudo ser uno de los motivos que
movieron a Monsanto a buscar nuevos campos en los que expandirse. Y crearon vegetales transgénicos, empezando
sus investigaciones con petunias y plantas de tabaco.
2. La permisión. Actor 2: Los Gobiernos.
En 1987 el Gobierno Estadounidense permitió que se sembrasen campos para probar tomates modificados
genéticamente. Los Gobiernos de los diferentes países van a ser nuestro “actor 2”. Aquí vemos que la relación que
mantienen con el actor 1 es de censura y de esperanza. Poseen el poder de estorbar a los intereses del actor 1, pero
también están interesados por sus éxitos. Sus intereses son económicos, como eran los del actor 1, pero no son
únicamente económicos. Está en juego la estabilidad del país, y la mejora o empeoramiento de sus condiciones de
vida.
El actor 1 logró interesar, enrolar y movilizar al actor 2. En 1995, el Gobierno de EEUU permitió a
Monsanto comercializar sus patatas NewLeaf protegidas frente a insectos, su algodón Bollgard protegido frente a
insectos y su soja Roundup Ready protegida frente a… Roundup3.
118
ENERO
2012
3
El relato de cómo se logró crear semillas inmunes al glifosato tiene tintes casi novelescos. Los científicos de Monsanto encontraron en una
poza de tratamientos residuales tras una planta manufacturera de Roundup un microbio que vivía entre los limos contaminados por este
herbicida. Multiplicaron al microbio superviviente y transmitieron su deseado gen. Lo llamativo de este procedimiento es que exigía la previa
existencia y éxito del Roundup para la creación de organismos resistentes a él. Seres que no están siendo controlados por el ser humano se
Anais Fernández Criado | Los cultivos transgénicos: una visión sociológica.
La soja no fue el único producto creado por Monsanto para ser inmune a su herbicida estrella. También
fabricaron colza Roundup Ready, algodón Roundup Ready y maíz Roundup Ready. En ocasiones, esta resistencia al
herbicida se combinaba con resistencia a insectos y otras plagas. No resulta complicado ver hasta qué punto la
maniobra de crear productos inmunes al glifosato era una hábil estrategia. Tanto las ganancias producidas por la
venta de las semillas Roundup Ready como las producidas por la venta del Roundup (único glifosato
comercializable hasta la caducidad de la patente, en 2001) irían a parar a la misma empresa. El círculo se cerraba.
A una empresa le beneficia que el uso de sus productos repercuta en un mayor uso de sus productos. Una
vez introducidos en la mecánica del uso de semillas transgénicas, los agricultores tendrían que seguir inyectando
dinero a la empresa que se las suministró para conseguir aquellos productos claves para mantener la máquina en
funcionamiento. Hablemos ahora de los agricultores.
3. El cultivo. Actor 3: los agricultores
Los intereses de los agricultores (nuestro actor 3) en lo referente a los OMGs no están dados. El actor 1
interesa al actor 3 de una determinada manera para alistarlo y enrolarlo. Los intereses que pone como centrales para
ello son simplificar su oficio y ganar dinero. “En qué consiste ser agricultor” queda redefinido bajo estos
parámetros. Se intenta que para el actor 3 la independencia y la libertad de los granjeros para guardar semillas de
una cosecha para la siguiente y de utilizar en sus campos las técnicas que deseen no sean intereses.
Observemos que la pericia necesaria para desarrollar bien su trabajo se diluye: cuando lo que cultiva son
semillas Roundup Ready, sus conocimientos anteriores sobre la cantidad máxima de Roundup que era posible
utilizar sin dañar su cosecha y la forma adecuada de maximizar su efecto minimizando sus daños se muestran
irrelevantes. “Regar” la cosecha indiscriminadamente con Roundup pasa de ser una práctica torpe e insensata a ser
un procedimiento lícito e incluso deseable. Lo que antes era una cuestión de habilidad es redefinido por el actor 1
como un problema científico, y esto le permite erguirse casi mesiánicamente ante el actor 3. Las compañías
creadoras de alimentos transgénicos meten la siembra en el laboratorio, y luego el laboratorio en la siembra.
Tras el éxito del interesamiento del actor 3 por parte del actor 1, lo que antes dependía de los
conocimientos de los agricultores pasa a depender de productos que el actor 3 tiene que comprar al actor 1, y esto
provoca una mayor dependencia del agricultor respecto de la empresa que le suministra semillas y agroquímicos.
La relación entre el actor 1 y el actor 3 no finaliza con la compra de estos productos por parte del actor 3.
El actor 1 le somete a requerimientos legales que hacen más rentable su negocio. Por ejemplo, prohíbe al actor 3
adaptan a creaciones del ser humano, y este vuelve la vista a las adaptaciones que la naturaleza ha hecho a sus espaldas para crear a partir de
ellas nuevos productos técnicos, que indudablemente darán lugar a nuevas adaptaciones, en una selección que sólo en una pequeña medida es
selección natural.
119
ENERO
2012
Los cultivos transgénicos: una visión sociológica | Anais Fernández Criado
guardar sus semillas de un año para otro (lo que le obliga a comprárselas al actor 1 año tras año, produciéndole
siempre beneficios4). Otro ejemplo claro es cuando Monsanto prohíbe tratar sus recién compradas semillas
Roundup Ready con otro glifosato que el suyo (tras la caducidad de la patente).
Jorge Riechmann (Riechmann, 2000, p. 32) ve en la estrategia utilizada por del actor 1 un intento de
convertir a los transgénicos en una teoría atrincherada, de la que ya no se podría prescindir. Incluso sin llegar a este
punto, está claro que lo que el actor 1 está intentando hacer aquí es estabilizar la red de manera que le resulte
máximamente ventajosa. La dependencia irreversible del actor 3 respecto de sus productos satisfaría plenamente
sus intereses.
4. Una fuerza enfrentada de creación de opinión. Actor 4: los grupos ecologistas
La mención a finales del apartado anterior de Jorge Riechmann nos es útil para introducir en nuestro
esquema a los grupos ecologistas, que serán nuestro actor 4. En esta red sus intereses se oponen a los del actor 1, y
en ciertas ocasiones también al actor 2, considerando que le exige demasiado poco al actor 1 para aprobar sus
productos. A pesar de que en ocasiones no rechaza de pleno los OMGs (podrían llegar a curar enfermedades, por
ejemplo), sí apela al principio de precaución a la hora de tratarlos, y considera que en la actualidad se está actuando
de forma temeraria. El actor 4 presenta estudios que muestran que los OMGs son poco eficientes, peligrosos para la
salud y, ante todo, un negocio que roba poder a la sociedad. En buena medida, este actor se mueve a un nivel
político.
Las críticas ecologistas se dirigen con fuerza contra la noción de “equivalencia sustancial”. Es un concepto
utilizado para valorar los riesgos del OMG frente a los del organismo sin modificar. Para la Administración de
Alimentos y Fármacos de EEUU (que estaría dentro del actor 2, en concreto de la sección estadounidense del actor
2, que fue la que permitió el cultivo de transgénicos en un principio) si tras hacer una comparación de sus
características químicas, si son similares y no se están generando sustancias tóxicas conocidas, se consideran
“genéticamente equivalentes” y no hay motivo para separarlos de los organismos no transgénicos (lo cual beneficia,
o al menos no perjudica, a los agricultores que siembren OMGs en vez de alimentos sin modificar)
4
Una ley se puede incumplir. Para blindarse frente a la posibilidad de que los agricultores incumplan los acuerdos, la Delta and Pine Land
Company (una de las compañías de semillas de EEUU) patentó, en 1998, la “Tecnología terminator”, que hace que las semillas sean
perfectamente comestibles, pero que no germinen, con lo que no se podrían guardar de una cosecha para la siguiente. La Delta and Pine Land
Company fue adquirida poco después por Monsanto.
120
ENERO
2012
El rechazo del público a la “Tecnología terminator” hizo que en 1999 Monsanto prometiese no utilizar esta tecnología. Pero ya se han registrado
al menos 24 patentes de tecnologías con efectos similares a la “terminator” por parte de otras empresas de biotecnología: Astra-Zeneca patentó
las “Plantas yonquis”, que sólo pueden crecer si en su medio hay una determinada combinación de elementos químicos; Novartis patentó
procedimientos que hacen a las plantas especialmente vulnerables a virus y bacterias de los que normalmente estarían protegidas, y que para
sobrevivir necesitan un cóctel químico que la propia Novartis comercializa.
Estas tecnologías tienen ventajas claras para el actor 1, pero son poco populares porque chocan con algunos de los argumentos dados por el
propio actor 1 para hacer popular y deseable su labor, con el fin de conseguir la aprobación del actor 2 y, sobre todo, del actor 5.
Anais Fernández Criado | Los cultivos transgénicos: una visión sociológica.
Los ecologistas denuncian que no se haga un seguimiento a largo plazo de los OMGs, para tener
controlados sus riesgos. Para el actor 4, los productos transgénicos serían más similares a un aditivo que a un
producto natural. En este sentido, se oponen a la sección del actor 1 antes mencionada, pero estarían de acuerdo con
los gobiernos de los países europeos que miran con recelo a los alimentos transgénicos.5
El actor 1, que también intenta crear opinión, esgrimía como una de las grandes virtudes de los OMGs que
logran reducir el uso de pesticidas, lo cual repercute favorablemente en el medio ambiente (en una maniobra
complicada que le obliga a admitir que sus propios agroquímicos no son inocuos). Sin embargo, el actor 4 señala
que hacen que el uso de herbicidas, en vez de disminuir, aumente, ya que aumenta la tolerancia de las malas hierbas
hacia ellos por el uso excesivo que se hace de ellos. Si tu huerta tiene semillas modificadas para ser resistentes al
glifosato, puedes regarla con Roundup sin preocuparte por la salud de tu cosecha. Incluso, el actor 1 ha pedido
autorización al actor 2 para que le permitan residuos de herbicidas más altos en los alimentos transgénicos.
Hemos visto que el actor 1, el 2 y el 4 intentaban crear opinión. Al actor 3 también le conviene que la
opinión que se tenga de sus productos sea buena. Centrémonos ahora en aquellos en quienes todos quieren influir y
cuya aprobación todos desean: los consumidores.
5. La segunda compra. Actor 5: los consumidores.
Del consumidor depende el éxito del mecanismo. Si el comprador final tiene miedo al producto y no lo
compra, el actor 3 habrá fracasado y el actor 1 no volverá a venderle sus productos. Los consumidores serán
animales racionales a la par que emocionales. Conscientes de su finitud y vulnerabilidad, no ingerirán nada de lo
que se sospeche que pueda disminuir su esperanza de vida… a menos que tenga muy buen sabor.
En Europa la acogida de los alimentos transgénicos fue muy diferente a la de EEUU. La causa, además de su
acerbo cultural, era el recuerdo muy cercano de la enfermedad de las vacas locas y los pollos con dioxinas, que
habían sensibilizado a la población acerca de los peligros de las técnicas alimentarias descontroladas (en el
Reino Unido el rechazo a los OMGs fue frontal). En algunos países europeos se crearon “conferencias de
ciudadanos”: asambleas de ciudadanos escogidos al azar para mostrar su opinión sobre los alimentos
transgénicos, tras ser informados exhaustivamente sobre el asunto. En Francia, en los años ’90, se celebró una
5
No existe una visión homogénea en Europa acerca del tema de los transgénicos, e incluso dentro de un mismo país la opinión puede variar a lo
largo del tiempo (por ejemplo, en Francia). España es el país europeo más favorable a los transgénicos.
Sí se puede afirmar que, en términos generales, se los observa con mayor desconfianza que en su país natal (incluso, en los años 90 algunas
siembras de transgénicos fueron destruídas por grupos ecologistas). El actor 3 estadounidense que ya estaba cultivando transgénicos, se
encontraba con dificultades para exportarlos a Europa, y esto le hacía replantearse su uso de estas tecnologías. Un rechazo unánime y firme de
Europa hacia los OMGs podría hacer que en EEUU también dejasen de cultivarse.
El gobierno estadounidense presiona a los gobiernos europeos para que acepten los transgénicos. Vemos que dentro del actor 2 se observan
discrepancias, y esto no es ni dañino para nuestro análisis ni una consecuencia de la amplitud de los actores. Siempre y cuando un actor sea un
colectivo y no un único individuo (situación habitual en los análisis en ANT), podrán existir confrontaciones y choques en su interior, avanzando
los interesamientos y enrolamientos a un ritmo distinto.
121
ENERO
2012
Los cultivos transgénicos: una visión sociológica | Anais Fernández Criado
que comenzó con un fuerte escepticismo, pesimismo y rechazo por parte de los ciudadanos frente a los OMGs.
En las conclusiones finales, los ciudadanos cedieron en buena medida. Bill Lambrecht retransmite su visión
sobre los intereses de los ciudadanos europeos a la vez que se hace eco de las palabras de uno de estos
ciudadanos, llamado François Rey (Lambrecht, 2003, p.254):
Rey presenta una idea que considero que es crítica en el pensamiento público sobre la ingeniería genética.
- Al final, si mejora el sabor y las cualidades de los vegetales, podríamos estar a favor – dice. Su comentario me
reafirma que la resistencia que detecté en Europa puede superarse si y cuando la industria tenga éxito en la
oferta de productos que beneficien a los consumidores
En un principio, las tecnologías del actor 1 se centraban en convencer al actor 3, que era su cliente en
primer grado. Pero el actor 3 se debe a sus propios clientes, al actor 4
Además de tener en sus manos el éxito económico del producto, en los países democráticos el actor 5
posee una fuerte influencia sobre el actor 2. Las entidades gobernantes tienen que rendir cuentas de sus actos a sus
gobernados. Por supuesto, la influencia va en las dos direcciones: el actor 2 posee la capacidad de tranquilizar y
convencer al actor 5. El que un producto haya sido aprobado por los organismos pertinentes inspira confianza. Sin
embargo, también escuchará al actor 4, si este logra hacerse oír.
La ANT defiende que los intereses de cada uno de los actores implicados se crean por las interrelaciones
que mantiene con los demás actores. Creemos que esto es cierto, pero sólo hasta cierto punto. Hay unos intereses
base que los otros actores no van a querer ni tampoco van a lograr modificar. En el caso del actor 1, este interés es
ganar dinero. En el caso del actor 5, este interés es sobrevivir y disfrutar. Estos intereses se “heredan” del estado de
cosas anterior a la creación de la red y se asumen como reglas del juego, por su gran inercia histórica. Han llegado a
un punto de estabilización tal por la participación de ese mismo actor en otras redes de relaciones que no merece la
pena negociarlo.
6. Los transgénicos: actor protagonista
Hasta ahora, hemos evitado intencionadamente centrar nuestro análisis en el que quizás sea el actante
principal: los alimentos transgénicos. Lo hemos hecho para aprovechar como colofón su fuerza explicativa, que es
mucha aunque pueda parecer insulso. Como al alimento transgénico se le interesa, involucra y moviliza a la fuerza,
esto puede hacernos pensar que está bajo control humano y que el actor humano que más poder posea logrará que
122
los alimentos transgénicos apoyen incondicionalmente sus intereses. Pero nada más lejos de la realidad.
ENERO
2012
Anais Fernández Criado | Los cultivos transgénicos: una visión sociológica.
Hemos visto que la noción de equivalencia sustancial, defendida por la Administración de Alimentos y
Fármacos de EEUU, se esforzaba en igualar a los alimentos transgénicos con los alimentos convencionales. Otros
grupos dudaban seriamente de tal equivalencia sustancial, especialmente los ecologistas, que eran de la opinión de
que se trataba de sustancias peligrosas que deberían ser prohibidas. Uno y otro actor intentaba definir desde su
punto de vista el asunto que se estaba tratando, imponer su visión a los demás actores.
¿Cuál de las dos visiones es la correcta? Es difícil decirlo. Poseemos una gran incertidumbre acerca de las
consecuencias sobre la salud de los alimentos transgénicos. También poseemos incertidumbre acerca de los aditivos
alimentarios, y acerca de los alimentos convencionales. Nuevos alimentos pueden suponer nuevos peligros, o puede
que no. Es muy complicado elaborar una estimación de riesgos adecuada, no hay manera de conseguir datos
suficientes.
El significado de los alimentos transgénicos está siendo constantemente negociado. Se concreta en
polémicas como el debate sobre el etiquetado: ¿se debe indicar en la composición de un producto si se han
empleado OMGs? El no-etiquetado se defiende desde la presuposición de que los transgénicos son equivalentes
sustancialmente a alimentos “naturales”, y el etiquetado desde la creencia de que tal equiparación no es oportuna, o
de que al menos el consumidor debe poder elegir productos no transgénicos.
Al igual que en el caso expuesto por Callon de las vieiras de la Bahía de St. Brieuc, los alimentos
transgénicos (que, en adelante, serán nuestro actor 0) pueden rebelarse contra los intereses de sus explotadores. En
este caso que nos ocupa, tal rebelión tendría un significado profundo: se rebelaría la creación frente al creador, la
incognoscible naturaleza frente a su iluso manejo, la verdad frente a la apariencia que los poderosos intentan
establecer como indiscutible. La fuerza del en-sí se vería a través del para-nosotros por un segundo, inefable pero
nítida, antes de que los demás actores se enfrascasen en una nueva negociación tácita de su significado.
6. Conclusiones
Hemos estado explorando a grandes rasgos las relaciones que unen a los diferentes actores implicados en
el tema de los transgénicos, y los intereses que se van creando durante estas relaciones. Las relaciones conforman
una red tupida, y dependiente de otras redes (como la establecida ante la enfermedad de las vacas locas, que influyó
profundamente en la acogida de los transgénicos en Inglaterra). Cabe preguntarse si la red generada por los cultivos
transgénicos es estable, es decir, si resultaría complicado deshacerla y cambiar el mapa actual de relaciones entre
actores. Nosotros creemos que no es estable, aunque ahora mismo se cultiven y se consuman transgénicos.
Los alimentos transgénicos son los actores que poseen una mayor fuerza para desestabilizar la red, a través
de su relación directa con uno de los intereses innegociables del actor 5: sobrevivir. Supongamos que nos
encontramos en la situación deseada por el actor 1: el actor 2 le permite comercializar sus productos al actor 1 y
123
ENERO
2012
Los cultivos transgénicos: una visión sociológica | Anais Fernández Criado
contribuye a crear una buena opinión en el actor 5; el actor 3 ha sido eficazmente interesado y utiliza las técnicas
proporcionadas por el actor 1; el actor 5 está satisfecho ante los OMG y consume los productos que el actor 3 le
proporciona sin importarles que sean transgénicos, considerando exageradas las críticas del actor 4. Aún así, aún en
esta situación aparentemente muy estable, el actor 0 puede enfermar repentina y letalmente a cierto número de
humanos o animales. Esto desestabilizaría completamente la red, pudiendo llegar a invertir la situación hasta tal
punto de que se formase una red opuesta a esta, que chocaría con los intereses del actor 1 en lo referente a los
transgénicos (aunque, en el caso de empresas como Monsanto, podrían seguir obteniendo grandes beneficios a
través de la venta de herbicidas, plaguicidas, fertilizantes y otros agroquímicos).
La red también se puede desestabilizar por otros puntos. Los ecologistas niegan que cultivar plantas
transgénicas sea más rentable para los agricultores que cultivar plantas no modificadas. Si esto es así, o si tras cierto
tiempo esto llega a ser así, el actor 3 se desinteresará, y dejará de comprar semillas al actor 1, volviendo a la
situación en la que estábamos antes de la invención de los transgénicos. Esto podrá suceder, por supuesto, si al actor
5 tolera desapasionadamente los cultivos transgénicos, pero no si el actor 5 los prefiere a los alimentos no
transgénicos (por el “mejor sabor y cualidades de los vegetales”). En caso de que los prefiriese, el actor 3 se vería
presionado por sus clientes para cultivar OMGs.
En nuestro análisis hemos obviado el papel de los intermediarios y de las industrias que procesan los
alimentos, en aras de simplificar en la medida de lo posible un fenómeno tremendamente complejo. En un análisis
más extenso sería interesante incluirlos. Incluso con estas limitaciones, podemos ver que la desestabilización de la
red, al igual que su estabilidad, depende no de un único actor, sino del conjunto entero de las relaciones. Incluso en
el caso de la rebelión del actor 0, la red podría no desestabilizarse si el actor 2 silenciase los problemas, por
ejemplo, o si el actor 5 se hubiese acostumbrado tanto a los transgénicos que considerase que cualquier
inconveniente generado por ellos debería ser tolerado como un mal menor, un riesgo que hay que correr.
La red es capaz de amortiguar los movimientos que se producen en uno de sus nodos, pero a día de hoy, tal
como están establecidas las relaciones, parece menos probable que las rebeliones se amortigüen y más probable que
perturben la red y la modifiquen o disuelvan. Es por eso por lo que no se puede afirmar que la red de los cultivos
transgénicos sea, a día de hoy, una red estable.
124
ENERO
2012
Anais Fernández Criado | Los cultivos transgénicos: una visión sociológica.
7. Bibliografía y webgrafía
ANDERSON, Luke (2001). Transgénicos. Ingeniería genética, alimentos, y nuestro medio ambiente. Gaia, Madrid.
LAMBRECHT, Bill (2003). La guerra de los alimentos transgénicos. RBA, Barcelona.
LATOUR, Bruno (1983). "Give Me a Laboratory and I will Raise the World", en: K. Knorr-Cetina y M. Mulkay
(eds.), Science Observed: Perspectives on the Social Study of Science. Sage, Londres, pp. 141-170.
Consultado desde http://www.bruno-latour.fr/articles/article/12-GIVE%20ME%20A%20LAB.pdf
RIECHMANN, Jorge (2000). Cultivos y alimentos transgénicos. Una guía crítica. Los libros de la catarata, Madrid.
http://www.monsanto.com/whoweare/Pages/monsanto-history.aspx
125
ENERO
2012
Mikel Rascón Muñóz | Sobre lo que no está en los genes.
Sobre lo que no está en los genes Mikel Rascón Muñóz Universidad de Oviedo A Pablo, por enseñarme que la humildad ha de conservarse
sin que nos pese nuestro carácter.
Resumen El determinismo biológico de la inteligencia comienza a escala molecular con la falsa atribución de dos poderes al ADN, a saber, el poder de autorreproducirse y el poder de actuar por si mismo. Esta caracterización del ADN supone una hipóstasis de la célula en la que se privilegia la parte en la que reside la información respecto a la que ejecuta. Es un claro paralelismo con el prestigio que ostentan los trabajos de mayor actividad y la escasa consideración social de los trabajos físico‐manuales. El determinismo biológico de la inteligencia ha encontrado su apoyo desde el nacimiento de la Genética moderna en la Teoría Hereditarista de la Inteligencia (T.H.I).La THI surge con la intención supuesta de explicar las clases sociales. Posteriormente se ha centrado más en la pregunta por la diversidad humana. Pero siempre ha tomado como presupuesto la idea de que la posición social está íntimamente ligada con la inteligencia. Esta adoptó la forma de la “inteligencia general” que bajo la medida de los test de C.I. pareció ser mensurable. La propia metodología de la T.H.I. desmiente la posibilidad de la cosificación de la inteligencia y destapa su estructura circular. Aún así, hoy en día, la T.H.I. tiene gran empuje social y mediático. Hemos analizado dos casos concretos de actualidad tratando de dar nuestra opinión. La comunidad puede tener intereses distintos a los de la sociedad y debe revertir en esta de manera que la sociedad y la ciencia tengan una idea de la inteligencia más abierta ante los casos que hemos presentado y los que en el futuro puedan presentarse Abstract Biological determinism of intelligence begins at the molecular level with the false attribution of two branches of the DNA, namely, the power of self‐replication and the power to act for himself. This characterization of DNA is ahypostasis of the cell in which a party is privileged information that resides onthe running. It is a clear parallel with the prestige they have more work activity and low status of physical and manual work. Biological determinism of intelligence has found support from the birth of modern genetics hereditarian theory of intelligence (THI). The THI called up in order to explain the social classes. Later it has focused more on the question of human diversity. But he has always taken for granted the idea that social position is closely linked with intelligence. This took the form of ʺgeneral intelligenceʺ that under the measure of IQ tests appeared to be measurable. Methodology itself T.H.I. denies the possibility of reification of intelligence and uncover its circular structure. Still today, the T.H.I. has great social and mediapush. We analyzed two specific cases currently trying to give our opinion. The community may have interests different from those of society and must be reversed so that in this society and science have an idea of intelligence more open to the cases we have presented and which may arise in the future 127
ENERO
2012
Mikel Rascón Muñóz | Sobre lo que no está en los genes.
Sobre lo que no está en los genes Mikel Rascón Muñóz Universidad de Oviedo A Pablo, por enseñarme que la humildad ha de conservarse sin que nos pese nuestro carácter.
Introducción
Asusta pensar los caminos futuros que seguirá la ciencia. Pero en ocasiones este miedo viene propiciado
sólo por el desconocimiento mismo de la materia que estamos tratando. No es extraño, por tanto, que un filósofo
estudie de primera mano el desarrollo de las investigaciones del Proyecto Genoma Humano a fin de evitar que nos
cieguen la vista ciertos prejuicios.
Gracias a la Biología Molecular, la Biología ha sido una de las ciencias más fructíferas en la segunda mitad
del siglo XX. Por contrapartida, como efecto negativo de este éxito, la biología moderna, según el biólogo y
genetista Richard Lewontin, se ha puesto una sotana blanca de científico y ha catequizado a la opinión pública.
Según él, es del todo falsa la justificación del Proyecto Genoma Humano que nombra al ADN como el “santo grial”
de la biología. Algunos biólogos han dado a entender que a partir del ADN podríamos reconstruir a una persona y
que todos los compartimentos y rasgos propios de cada persona vienen determinados por este. Incluso aquellos
autores que no mantienen tan descarnadamente esta opinión, caen reiteradamente en el error de afirmar que el ADN
es usado por la maquinaria de la célula para determinar qué secuencia de aminoácidos ha de formarse dentro de una
proteína, y cuándo, y dónde se ha de hacer la proteína.
Las proteínas de la célula están hechas por otras proteínas y sin esa maquinaria formada de proteínas no se
puede hacer nada. Nosotros heredamos además de genes hechos de ADN, una intrincada estructura de maquinaria
celular formada por proteínas. De igual forma que no podemos entender cómo es o será una persona si no tenemos
en cuenta su educación, su ambiente o el ambiente de la madre o del feto mismo, de igual manera decimos, no
podemos entender la herencia atribuyéndole tanto poder a un sólo componente: el ADN. Esta equivocación
constituye un primer error, ya en la escala celular, que tendrá consecuencias cuando hablemos del organismo o del
ser humano. Esta fe en el ADN denota, según Lewontin, la superioridad del trabajo mental sobre el físico. Los
juicios propios del científico quedan plasmados en la interpretación y difusión mediática de los procesos biológicos,
a pesar de que, los intereses particularistas no deberían entrar en juego en el Proyecto Genoma humano; sobre todo
,si tenemos en cuenta que gran parte de los 90.000 millones de dólares de presupuesto inicial salieron del
contribuyente.
129
ENERO
2012
Sobre lo que no está en los genes | Mikel Rascón Muñóz
En la actualidad las polémicas se centran en el asunto de las patentes. La postura de Europa al respecto no
es clara. Las nuevas tecnologías van por delante del derecho y quizás la Unión Europea no quiera ponerse
cortapisas que puedan dificultar estar, en un momento dado, a la cabeza de las nuevas aplicaciones tecnológicas.
Podemos observar esta falta de coherencia o de hipocresía en la directiva 98/44/CE del parlamento europeo y del
consejo del 6 de julio de 1998 relativo a la protección jurídica de las invenciones tecnológicas. A pesar de su
antigüedad, la directiva 98/44 sobre la protección jurídica de las invenciones biotecnológicas, sigue vigente. En ella
se sostiene que no se permitirá que entidades privadas hagan la patente de los genes tal y como se encuentran en la
naturaleza. Y sí a las patentes, si los genes han sido aislados de su medio natural por procedimientos técnicos.
Habría aquí que aclarar, ¿Entendemos en esta directiva que por naturaleza se refiere al ser humano o al cromosoma?
Si entendemos el ser humano, sería muy fácil privatizar cualquier parte del cuerpo. Sólo con sacar esa parte de su
cuerpo ya valdría. Si entendemos por naturaleza el cromosoma, habría que aislar los genes construyendo una
librería genómica que contiene miles de fragmentos de ADN y después identificar cada gen. Probablemente sea la
segunda opción a la que se están refiriendo estas directivas y lo que traten de promover no sea más que el interés
del sector privado hacia este arduo trabajo. Pero la polémica sigue, día a día, alimentándose entre pleitos
internacionales y nacionales. Nosotros diferenciamos en este trabajo entre la ideología subyacente al Proyecto
Genoma Humano y los usos tecnológicos que nazcan de este proyecto que, obviamente, serán mejores cuanto más
vayan dirigidos a promover una sociedad igualitaria. Así nos centraremos en esta ideología que como tantos y
tantos autores creen (Nelkin, Tancredi, Keller, Lewontin, etc) es en donde radica el verdadero valor del Proyecto
Genoma Humano. Esta ideología no es otra que la del determinismo biológico, que se ha visto marcado desde la
aparición de la genética como ciencia moderna, por la Teoría Hereditarista de la Inteligencia .Algunos de los
mensajes lanzados en el siglo XIX siguen vivos hoy. Hagamos un recorrido histórico:
Francis Galton puede ser considerado el pionero de la Teoría Hereditarista de la Inteligencia (T.H.I.). La
pregunta que se hacía Galton en Hereditary Genius (1869) era la siguiente: ¿Por qué existen las clases sociales? Él
creía ser capaz de hacer una clasificación de las personas en función de su ”valor cívico”, clasificación que
coincidiría con la de las clases sociales. El origen de la T.H.I. nos resulta iluminador porque en el siglo posterior los
defensores de dicha teoría tratarán de explicar ya no la sociedad sino la diversidad humana y al termino de las
investigaciones se propondrán medidas tecnológicas que insistirán en la necesidad de perpetuar las clases sociales
en virtud de la “aptitud natural”(“valor cívico”) de los ciudadanos. El punto de llegada coincide con el punto de
salida. Para Galton la sociedad es el lugar donde ha cristalizado la diversidad humana de forma que los elementos
más inminentes han emergido generacionalmente como la clase poderosa y los menos inteligentes se han
precipitado al fondo por el propio peso de su “predestinación genética”. Así contemplada, la sociedad aparece como
una meritocracia pura. Es curioso que a pesar de los diagnósticos más o menos optimistas, lo que parece subsistir es
130
que el grado máximo de igualdad en la sociedad ya se ha cumplido y en lo restante toca solo maximizar los
beneficios del estudio de la naturaleza humana.
ENERO
2012
Mikel Rascón Muñóz | Sobre lo que no está en los genes.
El precedente inmediato histórico de la Teoría Hereditarista es el Darwinismo Social. Piénsese que Darwin
había publicado su teoría de la evolución de las especies sólo diez años antes de que viera la luz el Hereditary
Genius de Galton. El Darwinismo social, como sabemos, proponía la supervivencia de los más fuertes aplicada al
ámbito ya no de la naturaleza sino de la “naturaleza social”.Este es el marco general que da forma a las teorías
posteriores del hereditarismo de la inteligencia. Para Darwin el motor de la Historia natural se encontraba en la
interacción de la lucha por la supervivencia y de la variabilidad de la especie. Pero esta última no era más que
reconocida ante la imposibilidad de ser explicada. Un acercamiento a esta explicación vino de la mano del
redescubrimiento de las leyes de Mendel a principios del siglo XX que supondrá el comienzo de la genética
moderna. En Inglaterra hubo una polémica entre aquellos teóricos hereditaristas que optaban por la biometría y el
movimiento eugenésico, y aquellos que optaban por el mendelismo. La escuela biométrica suponía un Darwinismo
estricto en el que la evolución era entendida como un proceso continuo, sin saltos. Para el mendelismo la evolución
se producía de forma discontinua. Los genes responsables de la inteligencia podrían estar dormitando como los
genes de los guisantes de Mendel y saltarse varias generaciones, apareciendo la genialidad de forma imprevista. No
es raro que para W. Bateson uno de los defensores del mendelismo, la eugenesia supusiese un interesado
instrumento de la clase media. Fue así como se polarizaron posturas que rebasaban el ámbito de la biología y que
conformaban dos maneras distintas de entender la sociedad. Una solución que pretendía conciliar ambos bandos fue
la que dio Fischer. La varianza genética puede descomponerse en varianza genética aditiva y varianza genética no
aditiva. Esta versión supondrá un refinamiento en la teoría hereditarista de la inteligencia. No obstante, pesarán
sobre ella los mismos errores que se habían cometido en el pasado: lo hereditario sigue viéndose como
inmodificable y la desatención hacia aquello que precisamente habría que aclarar, a saber, los efectos de la
diversidad ambiental sobre la inteligencia.
Todos estos ditirambos de la T.H.I. desembocaron finalmente en la promulgación en el Reino Unido de la
Buttler Education Act (1944).Uno de los mayores responsables de la promulgación de esta ley fue Ciryl Burt quien
por primera vez hizo uso de la teoría multifuncional de la herencia aplicada a la inteligencia. La ley de 1944
imponía un examen llamado 11+ que se pasaba a los alumnos de 11 años. Tras él, el 20% eran enviados a los
Grammar Schools donde se recibía instrucción conducente al ingreso en la universidad, y el 80% restante quedaba
destinado a los Technical Schools o a los Modern Schools donde no se les impartía una preparación para la
educación superior. Lo que afirman los factorialistas es que el factor más importante para determinar el rendimiento
escolar es la “inteligencia general” y que a los 11 años ya se puede calcular el grado de inteligencia de esta. La ley
de 1944 estaba de acuerdo con esto pero además matizaba que la selección se realizara también a partir de la
valoración de los maestros.
En la década de los setenta tras unas décadas de bonanza de las posturas ambientalistas, resurge con fuerza
la T.H.I. En 1969, Arthur Jensen publicó un artículo de 123 páginas llamado “How much can we Boost IQ and
Scholastic Achievement?” (“¿Cuánto podemos mejorar el C.I. y el rendimiento académico?”). Este artículo sin
131
ENERO
2012
Sobre lo que no está en los genes | Mikel Rascón Muñóz
proponer nada pero adaptándose al análisis de problemas vigentes resultó ser un best seller. La discriminación
racial, la educación compensatoria y las diferencias sociales estaban ahora en el punto de mira de la T.H.I. y esta
volvía a demostrar su capacidad a la hora de justificar ciertas decisiones políticas.
Hasta aquí hemos hecho un recorrido a través de los hitos de la T.H.I., remontándonos a su origen.
Posteriormente veremos cuáles son esas ”decisiones políticas”, o lo que es lo mismo, qué usos tecnológicos se han
producido gracias a la tan invocada inteligencia. Pero antes quisiéramos detenernos para mostrar cómo la
inteligencia en sí misma supone ya una tecnología, o un artefacto cuya confección está estrechamente ligada a
presupuestos metodológicos muy concretos.
Galton fue el pionero de la T.H.I. pero quien proporcionó el útil más provechoso para la valoración de la
inteligencia fue Alfred Binet. Curiosamente este último siempre se opuso a la cosificación de la inteligencia y era
plenamente consciente que lo que entendemos como tal es en gran parte un constructo cultural. En 1904, el ministro
de Instrucción Publica de Francia creó una comisión para analizar la problemática que representaban los niños
retardados que era como se les llamaba entonces. Esta comisión de la cual formaba parte Binet, decidió someter a
examen médico-pedagógico a los niños retardados. Así surgió el sistema por el que se describiría y mediría la
inteligencia según lo que ellos llamaban el “método psicológico”. La escala de Binet era un conjunto de tareas
ordenadas por su grado de dificultad de acuerdo con la edad de los niños. A partir de entonces este método irá
perfeccionándose. Wilhelm Stern fue quien introdujo el concepto de “cociente mental” como la razón aritmética
entre la edad mental y la edad cronológica. Para Binet, los usos posteriores que se hicieron de este concepto le
hubieran parecido una traición. Simon, el más estrecho colaborador de Binet, así lo manifestó. El propósito era
discriminar si un niño era normal o atrasado, fuera de este objetivo no tenía sentido hablar de cociente intelectual.
De igual forma, los test de C.I. se utilizaron a gran escala en Estados Unidos para el reclutamiento del ejercito
norteamericano durante la primera guerra mundial. El objetivo era tener un patrón que permitiera no mandar a la
guerra a una persona deficiente. Cuando la escala disminuye y deseamos saber, gracias al test, qué lugar de la
sociedad debe ocupar cada persona, nos extralimitamos porque obviamos el humilde cometido para el que se
elaboró. Pero la cosa no sería grave si el cociente intelectual pudiera mejorarse. A.J ensem en su famoso artículo de
1969 creía que podía mejorarse nada o muy poco. Reiteradamente los autores hereditaristas de la inteligencia
coinciden en las pocas esperanzas de mejora del cociente intelectual. Veamos por qué:
Analizando estructuralmente la metodología básica adoptada por la T.H.I. encontramos que responde a una
función. Como en cualquier otra función utilizada en psicología experimental, las variables pueden ser
independientes, dependientes o intervinientes. Pues bien, la variable independiente (“aquella que el experimentador
132
manipula o selecciona para que un cambio en la misma produzca o de lugar a otra variable, la dependiente”(Cerezo,
Lujan.1989.p.202)) queda representada por lo genético entendido como una variación continua; la variable
ENERO
2012
dependiente queda fijada como la conductual (C.I.),y por último, el ambiente supondrá sólo la variable
Mikel Rascón Muñóz | Sobre lo que no está en los genes.
interviniente. Definimos ésta como aquella que “modula la relación causal hipotética entre variable dependiente en
el sentido de introducir condiciones que afecten dicha relación bien de un modo secundario (i.e.,para cambios
estadísticamente no significativos a lo largo de todo el recorrido de la variable dependiente) o en casos
excepcionales(…)(idem)).Esta variable interviniente es entendida además como una variable dicotómica (o todo o
nada).Esto es erróneo porque no podemos aceptar que, por ejemplo, entre miembros de una misma familia que haya
vivido en el mismo hogar, la variable interviniente permanezca en off porque sencillamente su ambiente no puede
reducirse a estar durmiendo bajo un mismo techo. Tampoco podemos dar por supuesto que, por ejemplo, dos
gemelos monocigóticos que hayan vivido separados, hayan tenido un ambiente completamente diferente,
manteniendo la variable interviniente en on. Deberíamos antes analizar qué situación familiar han tenido, qué tipo
de atención escolar, etc. Estos son el tipo de problemáticas que el hereditarismo de la inteligencia despreciaría en
virtud de sus presupuestos metodológicos. El ambiente no puede ser a priori un factor accesorio o accidental entre
herencia y conducta. Como vemos el hereditarista de la inteligencia termina afirmando aquello que supuso para
investigar la inteligencia. A menudo para la T.H.I. el factor ambiente constituye sólo un auxilio al que recurrir
cuando las cuentas no le salen. Las decisiones políticas que de estos análisis se deducen han marcado gran parte del
siglo pasado. Aunque fuera cierto que la sociedad se divide en clases sociales según la inteligencia de sus habitantes
quedaría todavía por argumentar qué nos hace no intentar paliar esas diferencias naturales y sociales de los
hombres. Las argumentaciones aquí suelen entrar en el terreno político. Siempre se puede amenazar, por ejemplo,
con que el enemigo posee una organización más fuerte de sus recursos humanos. Una crisis puede ser un buen
momento para el reajuste de las necesidades del propio sistema.
En general podemos distinguir tres tipos de propuestas que se derivan de la T.H.I.: nihilismo
intervencionista, eugenesia y optimización de los recursos humanos.
El nihilismo intervencionista se caracterizaría por la no intervención del estado sobre la sociedad. Este
intervencionismo supone un radical intervencionismo, a su vez, a favor de la libre competencia del mercado. Esta es
la postura fundamental en la que se basó el primer liberalismo económico. En la actualidad puede ir dirigido a
terminar con parte de la educación obligatoria, la gratuidad de la asistencia sanitaria, etc.
El movimiento eugenista se singulariza por una intervención más directa. Podemos distinguir tres tipos de
eugenesia: eugenesia selectiva, eugenesia transformadora, y la ingeniería biológica. La eugenesia selectiva consiste
en aplicar a la especie humana las mismas técnicas que se han venido aplicando a los animales y plantas. La
eugenesia transformadora trata de mediar en el ADN recombinante de los seres humanos quitando o poniendo genes
(ingeniería genética).La ingeniería biológica supone producir alteraciones en los humanos sin alterar su ADN
(operaciones quirúrgicas, cultivo de órganos, etc).
Por último, la optimización de los recursos humanos hace referencia a la transformación del sistema (
133
ENERO
2012
Sobre lo que no está en los genes | Mikel Rascón Muñóz
igualitarista, según los hereditaristas) de modo que se obtenga una mayor rentabilidad.
Nos gustaría, a continuación, ofrecer dos casos reales controvertidos, para reflexionar si estamos ante dos
ejemplos de eugenesia, si es positiva su aplicación y qué tratamientos de la cuestión deberíamos hacer.
El primer caso surge del presente de España. La amniocentosis es un análisis que se realiza a la
embarazada entre la semana trece de gestación y la dieciseis. Detecta sobre todo el síndrome de Down. Este análisis
se generalizó en 1983. La ley del aborto(1985)posibilita, a su vez, la interrupción del embarazo hasta la semana
veintidós en el caso de que el feto venga con malformaciones. Como resultado, en el 2006, 2875 personas
decidieron abortar. Estamos tratando entonces con una tecnología en manos del estado y que posibilita la mejora de
la especie humana en el territorio en el que tiene vigor. Presentado de esta forma nos hace recordar la política
eugenésica nazi. Sin embargo, creemos que una vez se extienda la posibilidad de evitar el sufrimiento de nuestros
hijos no podemos privar a una madre de que elija abortar. La diferencia entre estas medidas y las adoptadas por la
alemania nazi residen en la noción de “mejora” que tengamos. La mejora hitleriana pasaba por una idea metafísica
del genero humano y representaba los intereses de unos pocos, excluyendo los derechos de los demás. Por ello
entendemos que la ciencia debe ir acompañada de un principio universalista y debe tener en cuenta la mejora de las
condiciones sociales y de la calidad de vida. El síndrome de Down lleva asociado no solo la inactividad de una
parte del cerebro si no que además existe el riesgo de enfermedades cardiovasculares graves asociadas. La salud del
cuidador es también importante y es obvio que criar a una persona con síndrome de Down requiere un sacrificio
extraordinario. Esto son partes que toda filosofía de la ciencia que se precie no debería olvidar. Para nosotros este
sería un caso en el que la aplicación de la eugenesia resulta positiva. La elección de la madre, en todo caso, debe ir
acompañada de una información exhaustiva y un tiempo de reflexión.
El segundo ejemplo es si cabe más difícil de analizar. Es el caso de James Edward Whittaker-Willians. Un
hombre de 49 años afectado por la enfermedad de Humtington, acusado de besar a una chica de 30 años con
severos problemas de aprendizaje. Según la “Ley de delitos sexuales de 2003” de Inglaterra, los besos y abrazos son
considerados sexuales y afirma, dicha ley, que las personas con problemas de aprendizaje son incapaces de dar su
consentimiento independientemente de que el acto implique coacción o no. Aquí estamos tratando con una vida
inmersa en una cultura. Debemos recordar que la enfermedad de Huntington se caracteriza por un trastorno
neuropsiquiátrico que aparece entre los 30 y 50 años. Suele llevar aparejada, además de lo que podríamos llamar
degeneración de la inteligencia, movimientos espasmódicos involuntarios y puede seguir caminos muy diversos por
lo que deberíamos atender al informe pericial psicológico que de esa persona se pueda hacer. En ningún caso
debería prevalecer un concepto de la vida que impida a dos personas con raciocinio mínimo relacionarse. La línea
134
es muy delgada. ¿Podrían servir los test de C.I. en este caso? A nuestro entender el peritaje psicológico puede y
debe examinar a las dos personas en concreto pero aunque fuera capaz de catalogar perfectamente a estas personas
ENERO
2012
a través de los ítems de los tests de C.I., los verdaderos problemas a los que esos dos ciudadanos día a día se van a
Mikel Rascón Muñóz | Sobre lo que no está en los genes.
enfrentar son de una índole muy distinta. El contexto más cercano a esos individuos determina la capacidad de
adaptación que estos tengan y esto es tanto como decir que determina su estado de salud y a la postre, y en
definitiva, su estado mental. La constitución de la OMS define la salud como”un estado de completo bienestar
físico, mental y social” (1).La salud social podríamos definirla de muchas formas, algunas podrían ser estas:la
aceptación por parte de los demás de la propia individualidad y dignidad humana; o la capacidad de llevar a cabo un
trabajo o una labor que provenga a la comunidad positivamente. O de una forma más sintética aún podemos
definirla como la capacidad y posibilidad de realización del ser humano.
La salud mental o el nivel de inteligencia del Señor Whittaker-Willians depende para nosotros de el ámbito
de la pequeña comunidad en la que se desenvuelva. Los ítems conectan a quien examina con patrones culturales de
la gran sociedad pero obvian la capacidad de desenvolverse en el ámbito de la pequeña comunidad. No significa
esto, que podamos solucionar o evaluar el caso teniendo en cuenta el C.I. de la comunidad en la que viva esta
pareja. No es tan sencillo. Las necesidades de afecto y sexo de esas dos personas pueden estar normalizadas y no
suponer un agravio ni hacia ellos mismos ni hacia nadie más.Una cuestión muy distinta es que esta pareja tenga la
posibilidad de reproducirse. Creemos que perfectamente podría impedírseles esta posibilidad y no nos parece que
atente contra su dignidad. Suponiendo que estos padres pudieran cuidar de sus hijos, si los hijos nacieran con las
mismas peculiaridades de sus padres nada les aseguraría que las condiciones de existencia de sus padres vayan a ser
las mismas. Podrían darse cambios en la comunidad que hagan a estos futuros hijos estar desarmados, desnudos
ante las dificultades de la nueva situación. Aquí hemos querido oponer quizás demasiado atrevidamente pero a
modo explicativo, la idea de sociedad contra la idea de comunidad. La razón o Inteligencia que deriva de los test de
C.I. tiene que ver para nosotros, con un mundo cambiante, con el mundo en el que las aptitudes son necesarias para
la supervivencia. El mundo de la inteligencia abstracta es el que trata de cuantificar dichos tests. La idea de
comunidad tiene para nosotros un carácter más fijo y espacio-temporal. Es el espacio y el tiempo en el que se
desarrolla la vida humana de un individuo concreto. El poder político se caracteriza por la previsión y requiere para
sí individuos que puedan desenvolverse y ser más fuertes en contextos múltiples. Pero esto no puede servir de
coartada para despreciar a aquellos individuos que viven dispuestos de sus propias actitudes en el mundo concreto
de su pequeña comunidad.
Con estos dos casos clínicos hemos querido expresar aquellas cuestiones más amplias filosóficas, que no
debemos dejar de un lado. Respecto al Alzheimer y a la enfermedad de Huntington ya hay investigaciones dentro
del proyecto Genoma Humano abiertas. El Alzheimer puede ser diagnosticado mediante la amniocentesis. La visión
de los médicos hacia el aborto en nuestros tiempos ha cambiado y hoy está prácticamente aceptado. Respecto a la
enfermedad de Huntington ,en 1993 se consiguió aislar el gen que provoca esta enfermedad localizada en el
cromosoma 4, y en lo que se han ido desarrollando las investigaciones posteriores ha sido fundamentalmente en
conocer las razones que hacen que la enfermedad se manifieste de forma tardía, y muchas lineas están dirigidas a
encontrar un tratamiento y una cura. Si el tratamiento que pueda aparecer se da bajo la forma de la “medicina
135
ENERO
2012
Sobre lo que no está en los genes | Mikel Rascón Muñóz
predictiva” serviría lo dicho en el primer caso(el de la amniocentosis).Si el tratamiento se diera bajo la forma de una
“terapia farmacológica” o bien una “terapia génica” en la que se introdujeran o modificaran genes del individuo,
habría que tomar en consideración lo dicho en el segundo caso.
BIBLIOGRAFÍA:
Lopez Cerezo,J.A.;Lujan Lopez,J.L.,El artefacto de la inteligencia(1989).
Varela Alvarez,Violeta.”Sociobiología”El Catoblepas nº14,abril 2003.
Enfermedad de Huntington.es.wikipwdia.org/Wiki/enfermedad_de_huntington.13nov,2003.
Síndrome de down.es.wikipedia.org/Wiki/syndrome de –Down.17nov,2010.-Lewontin,Richard.Texto,apuntes de
clase.cap.”el sueño del genoma humano”.
Directiva 98/44/CE del parlamento europeo y del consejo relativa a la protección jurídica de las invenciones
tecnológicas.www.wipo.int/edocs/mdocs/tk/es/wipo…/wipg.tkf-ic-18-main.,18 dic.,2010.
“Jail sentence for kiss and cuddle Man”. www.huntspost.co.uk/content/h… a8%3A31%3A073., Hunts post,29 sep
,2005 .
“Proyecto genoma Humano.”es.wikipedia.org.wikipryecto_genoma_humano.,14 dic 2010.
“aislamiento
de
un
gen
de
un
cromosoma
celular”.
laguna.fmedia.unam.mx/…/aislamiento%20gen%20cromosoma.html.,17 sep,2003.
“Polémica por la patentación de genes” www.techmez.com/.../polémica_por_la_patentación_de_genes/. 28mayo
2009.
(1)OMS.salud.www.who.int/entity/peh-emf-research/agenda/…/index.html. 1dic,2010.
136
ENERO
2012
Paloma Nido Suárez | Praxis Humana.
Praxis Humana Paloma Nido Suárez 1
Resumen El propósito de este escrito es hacer una revisión sobre los consecuentes y las controversias que la descripción del genoma humano plantea. Para esta finalidad se hará referencia a tres perspectivas o disciplinas que tienen una gran importancia en esta materia: la sociobiología, la genética de la conducta y el determinismo genético en la búsqueda de una conclusión que determine si la práctica humana es un producto de una herencia genética, producto de un entorno social o de una combinación de ambos. 1
Nacida en Trevías el 16.02.1987 y residente en Barcia, Valdés.
Cursó estudios de Bachillerato de Ciencias de la Naturaleza y de la
Salud en el Instituto Carmen y Severo Ochoa de Luarca.
Licenciada en Filosofía por la Universidad de Oviedo, actualmente
está cursando el Master Universitario de Profesorado de
Enseñanza Secundaria, Bachillerato y Formación Profesional , y
quinto curso de la Licenciatura en Antropología Social y Cultural
en la U.N.E.D (centro asociado de Gijón).
Abstract The purpose of this writing is to make a revision over the consequents and controversies that human genome description raised. For this finality, one will refer to three perspectives or disciplines that have a great importance in this matter: Genetics of the Conduct, Genetics Determinism and Sociobiology in the search of a conclusion that determines if human practice is a product of a genetic inheritance, a product of a social environ or a result from combination of both of them. 137
ENERO
2012
Paloma Nido Suárez | Praxis Humana.
Praxis Humana Paloma Nido Suárez2 INTRODUCCIÓN.
Desde la publicación de la secuenciación del Genoma Humano el 12 de Febrero del 20013, en los últimos
años, se ha dado una reactivación del viejo debate sobre la libertad del individuo, si es posible o no que la
constitución genética pueda determinar su comportamiento y de ser así cómo lo hace. A partir de esta cuestión, son
frecuentes las proclamaciones de haber encontrado una base genética para rasgos de conducta complejos como
puede ser el alcoholismo, la depresión o incluso la homosexualidad. Produciéndose de este modo la divulgación de
una visión simplista a cerca de la relación existente entre genes y conducta.
Casi siempre coincidiendo con crisis económicas y sociales cíclicas a gran escala, han proliferado
planteamientos de carácter ideológicos, insolidarios y antisociales, que parecen entretener a la población situando la
pertenencia a una determinada raza como causa de la pobreza, marginación, delincuencia o subdesarrollo de una
nación; como sería el caso del artículo publicado por Arthur Jensen en 1969, donde sugiere que las diferencias
entre el coeficiente intelectual medio de negros y blancos podrían ser debidas (en parte) a las diferencias genéticas
existentes entre ambas razas; u otros que analizan patrones de continuidad genética entre especies y por tanto de
Heredabilidad y determinación, como es el caso de investigaciones cuyo objeto de estudio es la comunidad de
acciones entre los chimpancés y el ser humano (por ejemplo, ambos dan besos). Estudios de este tipo, amenazaron la
continuidad de la genética de la conducta como disciplina en los 70s, aunque en los 80s se producirá una aceptación
de esta disciplina, debido a la aparición de resultados que parecían indicar una evidencia de influencia hereditaria en
la conducta humana.
Mediante este ensayo, se pretende dar una visión global a cerca de las disciplinas (al menos parte de ellas)
que se dedican al estudio del comportamiento y de la conducta del ser humano, así como también cuáles son las
principales tesis que mantienen, su importancia y problemas que suscitan. Esta tarea será desarrollada desde la
perspectiva del materialismo histórico, esto es, entendiendo que la concepción de las ciencias que surgen tras las
obras de T. Kuhn e I. Lakatos y que suponen un cambio de visión sobre este tema (tras la revolución científica), son
producto de la influencia cultural de una realidad histórica cambiante. Considerando la filosofía como la única
disciplina capaz de dar una definición completa de la idea de hombre, por ser un saber de segundo grado constituido
2
Nacida en Trevías el 16.02.1987 y residente en Barcia, Valdés. Cursó estudios de Bachillerato de Ciencias de la Naturaleza y de la Salud en el
Instituto Carmen y Severo Ochoa de Luarca. Licenciada en Filosofía por la Universidad de Oviedo, actualmente está cursando el Master
Universitario de Profesorado de Enseñanza Secundaria, Bachillerato y Formación Profesional , y quinto curso de la Licenciatura en
Antropología Social y Cultural en la U.N.E.D (centro asociado de Gijón).
139
ENERO
2012
Praxis Humana | Paloma Nido Suárez
sobre otros saberes previos que trabaja con ideas (no abarcables enteramente por ninguna otra disciplina) y que
construye sistemas filosóficos, será esta disciplina la plataforma en que nos apoyamos.
1.
LA GENÉTICA DE LA CONDUCTA.
A diferencia de lo que se pueda presuponer inicialmente, la genética de la conducta como disciplina se
interesa en los factores genéticos y ambientales que dan origen a las diferencias presentadas principal y casi
únicamente entre individuos, teniendo poco que decir sobre las causas de las diferencias entre grupos por tres
motivos: a)las diferencias entre grupos no son sustanciales, b) las diferencias entre individuos interesan más debido
a que los problemas relevantes de una sociedad suelen implicar diferencias individuales, y c) algunas diferencias
entre individuos pueden tener una clara influencia genética, mientras que otras serían inabarcables sin atribuir un
papel fundamental a la educación y las condiciones ambientales4. Las aportaciones de la genética de la conducta, no
deberían de ser asemejadas con los de la genética molecular sin más, se tiende a pensar que los genes influyen
directamente en nuestro comportamiento, pero el asunto es bastante más complejo.
Normalmente cuando se habla de las bases genéticas de una enfermedad, se está haciendo alusión a genes
asociados a una determinada patología, pero no existen genes específicos de un tipo de comportamiento particular;
de hecho hay estudios que sugieren la presencia de factores genéticos implicados de algún modo en el alcoholismo,
lo cual no significa que un gen induce a su portador a consumir alcohol (si puede ocurrir que estos influyan sobre la
sensibilidad individual al alcohol en el sentido de que unos han de beber más que otros individuos para llegar al
estado de ebriedad). Este tipo de efectos producidos por los genes sobre la variabilidad individual son indirectos y
representan los efectos que difieren de un individuo a otro interactuando a su vez con el entorno (luego, los genes no
serían determinantes de la conducta en este sentido); aunque sí es cierto que en determinadas afecciones alteraciones
de un solo gen determinarían la aparición de rasgos fenotípicos (enfermedades hereditarias) que aún en este caso, no
serian directos sus efectos sobre la conducta del individuo.
Una cosa son las bases genéticas de enfermedades hereditarias (deterministas en algunos casos) y otra muy
diferente las bases genéticas de la conducta, donde la relación entre genes y fenotipo sería mediada por muchas
relaciones e interacciones con otros factores.
Para R. Plomin, otro factor de gran importancia es que cuando se habla de influencia genética de la
conducta en esta disciplina, se está haciendo alusión a las diferencias genéticas individuales y las diferencias de
140
comportamiento de estos individuos dentro de una sociedad o población dada, produciéndose un cambio en los
resultados si la población varían; pero no reside en la persistencia de diferencias genéticas el que un individuo sea o
ENERO
2012
Paloma Nido Suárez | Praxis Humana.
actué de una forma u otra, sino que esto tendrá que ver con acciones educativas y ambientales.
Numerosos estudiosos consideran que la genética de la conducta (o de la praxis humana), proporciona la
mejor evidencia disponible a cerca de la importancia del ambiente a la hora de explicar las diferencias individuales.
La genética, como disciplina considerada científica desde la aparición de las Leyes de la Herencia de Mendel
(publicadas en 1865 e ignoradas hasta su redescubrimiento en el 1900)5, investiga de qué manera la herencia
biológica es transmitida de generación en generación. Lo que se denomina genética molecular, que es algo diferente
a lo denominado como biología molecular, comenzará a tener éxito en 1953 gracias al descubrimiento de la doble
hélice del A.D.N. La regulación de la expresión génica se volverá un tema central en la década de los sesenta y
setenta (cuando esta ya podría ser controlada y manipulada mediante la ingeniería genética). Pero no será hasta la
aparición del Proyecto Genoma Humano, ya en puertas del siglo XXI, cuando realmente pase a convertirse en un
tema tan controvertido.
Los humanos nos distinguimos del resto de animales por el uso del comportamiento aprendido frente al
instintivo. Con la llegada de esta proeza consistente en ser capaces de secuenciar por completo el genoma de una
persona intentando explica esto, al modo como M. Harris lo hace en su obra Introducción a la Antropología general.
Esto llevará a la búsqueda dentro del genoma del individuo de la determinación de las capacidades humanas básicas,
sobre la base de las potencialidades humanas biológicamente determinadas y que permiten que la historia de los
individuos y las sociedades estén esencialmente abiertas al cambio. Intentando explicar esto al modo en que M.
Harris lo hace en su obra Introducción a la antropología general, sería cierto que la biología puede afirmar la
existencia de potencialidades en el ser humano, pero resulta imposible poder dar una explicación a la variabilidad
humana si no se tiene en cuenta que el individuo se desarrolla dentro de una sociedad y de un contexto histórico y
cultural que les hace desarrollar o ejecutar una potencialidad en lugar de otra. Esta importancia de la sociedad y el
contexto en el que se desarrolla el individuo no ha de ser confundida con una corriente ambientalista, ya que el
comportamiento del sujeto no está siendo considerado únicamente como fruto de las condiciones de su entorno a las
que ha sido sometido durante su vida; sino que se considera que la influencia recibida de estas tiene gran
importancia para su desarrollo como ser humano; así como tampoco puede ser considerada como un determinismo
estricto, aunque considere que existe alguna forma de determinismo material, que el denominará probabilístico.
“El comportamiento humano no está en general fijado por los genes, muestra un extraordinario grado de
plasticidad
fenotípica, se adquiere durante el proceso de socialización, por la enseñanza recibida de otros
6
individuos ”.
141
ENERO
2012
Praxis Humana | Paloma Nido Suárez
2.
PATRONES CONDUCTUALES, EL DETERMINISMO GENÉTICO.
El determinismo genético (innatismo), en cambio, parece tratar de la forma en la que el A.D.N determina el
comportamiento humano y como consiguiente también la dinámica de la sociedad, y se basa en un doble “préstamo
epistemológico”: a) mantiene que el comportamiento humano está genéticamente programado, y b) que la suma de
los comportamientos individuales genera la naturaleza (y por tanto la dinámica) de la sociedad7. Dentro de lo que se
entiende como tendencias deterministas de la genética, estarán disciplinas como es el caso de la Sociobiología, que
será definida como otro tipo más de determinismo por autores como R. Lewontin y S. Jay Gould, quienes en su
artículo clásico de 1979, consideran que esta es una perspectiva que anula toda posibilidad de libertad de elección
del individuo y la relacionan con el darwinismo social, las mediciones del coeficiente intelectual y otras cuestiones
que serán origen de controversias causadas por su aplicabilidad a problemas humanos con alta carga ética.
R. Herrnstein publica junto a C. Murray en 1994 una obra llamada The Bell Curve, que consigue poner de
nuevo en auge los temas de la determinación genética de las habilidades sociales (como el caso del coeficiente
intelectual), que fracasará estrepitosamente al mantener la tesis de la existencia de diferencias de base genética en la
capacidad intelectual de grupos sociales distintos, recomendando “encarrilar” ya a los individuos en función de sus
potencialidades innatas, ya desde la primera fase de escolarización (esta obra fue muy criticada ante el temor de que
ideas de este tipo pudiesen llegar a conformar decisiones políticas y sociales); y llevó incluso a que algunos autores
definan el determinismo como una clase o especie de dogmatismo, en el sentido en el que las tesis que mantienen y
defienden no han sido validadas científicamente, además de ser dudosamente apreciables. Manifestando el carácter
absurdo de basar la elaboración de políticas sociales basándose en la genética (en palabras de P. Conrad8, hay que
evitar solucionar problemas “medicalizando” las conductas que se estiman anómalas o antisociales, evitando que
problemas no-médicos pasen a ser tratados como si lo fueran. Este fenómeno parece haberse dado en la segunda
mitad del siglo pasado con bastante frecuencia, en gran medida gracias al determinismo).
Esta disciplina, se basa principalmente en tres rasgos fundamentales para apoyar la noción del
determinismo genético:
a)
Universalidad de rasgos; la universalidad de un rasgo cultural, comprueba su naturaleza genética.
La refutación de este rasgo consiste en que este se trata de un argumento circular que confunde la
observación con la explicación.
b)
Continuidad genética; los rasgos similares entre algunos animales y los seres humanos, son prueba
de una continuidad genética en la evolución de los unos a los otros. Este rasgo es refutado alegando que es
circular y que consiste en que se atribuyen por analogía características humanas a los animales, y luego se
142
descubre en ellas un vinculo genético.
ENERO
2012
Paloma Nido Suárez | Praxis Humana.
c)
Personalidad heredada; comunidad de características del tipo de temperamento, talentos y
preferencias entre parentelas. Nuevamente, la refutación consistirá en decir que es un argumento
R. Lewontin en su artículo A Story in Textbooks (1991), desarrolla estos argumentos y sus contundentes
refutaciones, consistentes en demostrar que todos los rasgos están constituidos por argumentos circulares en los que
se confunde la observación con la explicación y la atribución de categorías humanas a los animales buscando luego
en ellas descubrir mediante analogías un vínculo genético.
Lewontin concluye que no hay ninguna prueba de que el A.D.N determine el comportamiento humano, y
por tanto es inconcebible que sea el regulador de las dinámicas sociales; pero con el descubrimiento del A.D.N, la
idea de un código genético, da luz a la esperanza de encontrar en él la raíz del comportamiento del ser humano;
siendo esta inversamente proporcional al avance del mapeado del código. Considera que el determinismo genético
cobra gran popularidad por su capacidad para producir una liberación del ser humano de la necesidad de cambiar su
vida personal y las dinámicas de su sociedad, ya que si el comportamiento del individuo estuviese determinado
genéticamente, también lo estaría la configuración de nuestra estructura social, siendo por tanto inútil intentar
cambiar o transformar esta (justificando de este modo que una sociedad sea egoísta, violenta, etc).
Para I. Eibl-Eibesfeldt9 el comportamiento y las capacidades humanas, tendrían que ver con la genética(en
el sentido en que se presentarían disposiciones de comportamiento y capacidades de percepción como algo innato;
no siendo los modos de comportamiento, sino las estructuras orgánicas los que lo sustentarían) sin poder ser
reducibles a ellas. Considera como un rasgo característico de la especie humana, la amplia gama de modos
conductuales que permite la elección entre múltiples opciones.
3.
LA SOCIOBIOLOGÍA.
Para disciplinas como la psicología social, la sociobiología resulta de interés debido a que postula la posible
comprensión de la actividad social humana a partir de los principios implicados en la conducta social animal y desde
una perspectiva bioevoloucionista. El presupuesto a cerca de la existencia de un gen egoísta, causante del carácter
competitivo que caracteriza la vida en sociedad desde tiempos inmemoriales, constituye una hipótesis que suscita
gran interés.
C. Darwin, supuso que el principio de la selección natural podría ser aplicable a todos los individuos,
siendo todo rasgo heredable y conservado en una especie durante generaciones, si este fuese determinante para la
supervivencia (los rasgos que no fuesen importantes desaparecerían con el tiempo). De acuerdo con esto, la
selección natural favorecería a individuos poseedores de ciertos caracteres genéticos que serían la base de la
143
ENERO
2012
Praxis Humana | Paloma Nido Suárez
constitución de las capacidades conductuales de las que dependiera su supervivencia.
La sociobiología encontrará su punto fuerte en la presuposición de que todo comportamiento es una
estrategia de carácter evolutivo que procura maximizar el éxito reproductivo y la perduración de la sociedad de la
especie10 (incluyendo todo tipo de constructo social como puede ser la presencia de creencias místicas o religiosas,
la xenofobia, la división de los roles sexuales…). Constituyéndose así la selección genética natural en la modeladora
de los rasgos en los individuos y permitiendo por tanto (según sus presupuestos) el estudio de la estructura
normativa, el comportamiento individual y el sistema de valores como órganos o extensiones de los genes que son
fruto de la adaptación al medio de estos. Según E. Wilson (en su obra Sociobiología, 1975) los sociobiólogos buscan
la identificación de comportamientos que provocan la transformación de la sociedad, de dos maneras diferentes: a)
mediante la determinación de reglas sobre el comportamiento humano, y b) comparando al hombre con otras
especies, con la finalidad de identificar genes que subyazcan del comportamiento social humano.
Podría decirse que los principales estudios en los que se centra la sociobiología son en los que hacen un
análisis del altruismo (Wilson lo considera como el problema central de la sociobiología, por considerarse que este
pudiera ser contrario a la reproducción), el sexo y la agresión haciendo referencia al comportamiento animal y
humano.
La sociobiología, como cualquier otra disciplina posee defensores y detractores. Entre los defensores
destaca el papel de M. Ruse (a parte, claro está, del de Wilson) quien considera que existen grandes evidencias
científicas a favor de la sociobiología (y justifica esta postura con la complejidad del comportamiento social de los
insectos que poseen de manera innata sin ningún tipo de interacción con el medio ambiente, lo cual ha de ser
indudablemente genético). Pero también es importante resaltar el hecho de que Wilson, admite:
“La biología es la clave de la naturaleza humana y las ciencias sociales no pueden permitirse ignorar sus
principios establecidos. Pero las ciencias sociales son potencialmente mucho más ricas en contenido11”
Entre los detractores destacarán S. Gould, R. Lewontin y M. Sahlins, quienes considerarán que los
sociobiólogos intentan demostrar la universalidad de la selección natural optimizadora como la explicación de todas
las características de todos los organismos (en palabras del propio Lewontin) y que para la sociobiología, la
organización social no es nada más que el resultado conductual de la interacción de organismos que tiene
inclinaciones biológicamente fijadas. Para diversidad de autores del mismo pensar, la sociobiología no sería más
que otra forma de determinismo genético o incluso de idealismo.
144
ENERO
2012
Paloma Nido Suárez | Praxis Humana.
4.
CONCLUSIONES.
De acuerdo con la perspectiva enunciada en el índice, y en términos de G. Bueno, la cultura objetiva no
puede ser explicada en términos de comportamiento etológico, ni agotada por las ciencias biológicas. No siendo
posible desarrollar la pretensión de la sociobiología de reducir el análisis de los cambios sociales a la constitución
biológica de los individuos que la conforman (no se da un vínculo demostrable científicamente entre la pertenencia a
una determinada raza y una conducta que sea común a esa raza). Así como tampoco, por tanto, puede hacerse
desaparecer la libertad del individuo bajo el postulado de que toda la praxis humana está reducida a la información
genética que reside en nosotros y se va desarrollando desde el momento de la fecundación.
Así también, otra cuestión a tener en cuenta es que, el comportamiento social humano tiene poco que ver
con el comportamiento que entre animales pueda considerarse social; principalmente porque el comportamiento de
los animales está guiado por el instinto, y en nuestro caso, la inteligencia y el raciocinio nos han llevado a otro plano
diferente (al plano del animal racional).
Los seres humanos somos conscientes de nosotros mismos, en la medida en la que a la hora de tomar una
decisión, somos conscientes de las razones por las que optamos por comportarnos de una manera y no de otra
(tenemos libertad de praxis trascendiendo los instintos animales). De esta forma, aun admitiendo el
condicionamiento biológico de nuestro comportamiento social, no pueden ser aplicadas las mismas categorías para
referirse al mundo humano y al mundo animal. Podría decirse categóricamente que no existe una predeterminación
genética en los individuos, sino más bien una predisposición heredable y que se correspondería con tener mayores
dotes para el desarrollo de unas u otras acciones que otros individuos.
La herencia genética y el entorno ambiental en el que se desarrolla un individuo, no son entidades
autónomas que actúen de forma independiente sobre el sujeto, sino que sería la interacción que se produce entre
ambas, la que daría como resultado la praxis humana, y por tanto permitiría el ejercicio de la libertad del individuo.
5.
1
NOTAS:
12 de Febrero de 2001, se publica al mismo tiempo la secuenciación del genoma por parte de la empresa Celera
Genomics (a la cabeza de la cual se encuentra Craig Venter) en la revista 'Science' y por parte de la empresa pública
(que EE.UU había creado para investigar sobre esto) en la revista 'Nature'.
2
R.PLOMIN, J.C DE FRIES, G. E. McCLEARN y P.McGUFFIN, Genética de la conducta, Ariel Ciencia,
2ªedición, 2009.
3
Mendel formula sus leyes de la herencia en el marco teórico de lo que en su tiempo se entendía como estudio
botánico y zootécnico de la hibridación (mezcla de progenies, razas y castas) y pretendía mejorar el conocimiento de
145
ENERO
2012
Praxis Humana | Paloma Nido Suárez
la transmisión de los caracteres observables, tanto en los qu ese quería conservar la progenie, como en los que se
intentaba eliminar o mejorar.
4
J.A ABRISQUETA, Perspectivas Actuales de la Genética Humana (pág.8)
5
Aunque no solo existe un tipo de determinismo; existen varios y no todos sostienen el determinismo Social a nivel
individual.
6
P. CONRAD. The medicalization of society. On the transformation of human conditions into treatable disorders.
(2007).
7
I. EIBL-EIBESFELDT, El hombre preprogramado: lo hereditario como factor determinante en el
comportamiento humano (1977) versión española de Pedro Gálvez.
8
A diferencia de Darwin, cuyo interés se centraba a nivel individual, para la sociobiología el interés se encuentra en
poder explicar la evolución de la organización social, en base a la genética.
9
E. O. Wilson, Sobre la naturaleza humana, FCE, México, 1980, pág. 30.
6.
BIBLIOGRAFÍA.
Abrisqueta, José Antonio. Perspectivas actuales de la genética humana (C.S.I.C, centro de investigaciones
biológicas).
Bonilla Suárez, Uriel; Gonzalez Penalva, Carlos; Infiesta Molleda, Pablo J y Pérez Bacigalupe, Diego.
Sociobiología e ideología (Colección Cortinas de Humo, 1).
Harris, Marvin. Introducción a la antropología general (2004, 7ª edición).
Infiesta Molleda, Pablo J. Apuntes curso 2010-2011 facilitados en el aula.
Lewontin, Richard, Rose, Steven y Kamin. No está en los genes (Crítica 1997).
Wilson, Edward. Sobre la naturaleza humana (1980).
Fragmentos de texto visualizados en la red:
Ginnobili y Blanco, Gould y Lewontin contra el programa evolucionista, elucidación de críticas, (2007, São
Paulo).
Lewontin. A Story in Textbooks (1991).
Soutullo. Biología, cultura y ética; “crítica de la sociobiología humana”.
146
ENERO
2012
Sandra Sánchez Sánchez | El problema de la Retinosis Pigmentaria en estudios genéticos desde el Marco Social.
El problema de la Retinosis Pigmentaria en estudios genéticos desde el Marco Social Sandra Sánchez Sánchez1 Resumen La Retinosis Pigmentaria es un conjunto de enfermedades oculares de carácter degenerativo y en la mayoría de los casos hereditario inmersa en la sociedad cuyo grupo nuclear para un estudio sociológico es la familia desde el punto de vista genético. Las soluciones a este grupo de enfermedades son aún pocas e imprecisas, siendo necesaria la participación de las familias en estudios genéticos. Las soluciones futuras puede que no lleguen a tiempo para los enfermos de hoy en día. La pregunta es: ¿Por qué se someten a unas pruebas que puede que no les den soluciones? ¿Qué Instituciones están involucradas en todo este proceso? ¿Cuáles son los puntos fuertes y débiles de los estudios científicos genéticos? 1
Nació en Avilés, Asturias, el 10 de Enero de 1987. En el 2006
obtuvo el Título de Bachiller en la modalidad de Humanidades y
Ciencias Sociales. En 2011 ha obtenido el título de Licenciado en
Filosofía.
Abstract Retinitis Pigmentosa is a set of ocular diseases. Its diagnostic is degenerative and in many cases hereditary. The family from the genetic point of view is the nuclear group in order to make a sociological study. There are few solutions and solutions are imprecise, too. Genetic studies are needed to find solutions in the future, but nowadays, people who are affected can’t see those solutions. The questions are: Why does affected people do the genetic studies? What institutions are involved in this process? Which are the strengths and weaknesses of genetic studies? 147
ENERO
2012
Paloma Nido Suárez | Praxis Humana.
El problema de la Retinosis Pigmentaria en estudios genéticos desde el Marco Social Sandra Sánchez Sánchez2 Introducción.
Vamos a trabajar con una enfermedad, la Retinosis Pigmentaria, por ser una enfermedad que, en la mayoría
de los casos, se adquiere por herencia genética. Cómo las asociaciones trabajan, ayudando a los afectados.
Trataremos cómo son los casos en los que la enfermedad aparece genéticamente, que terapias y soluciones a largo
plazo se han planteado. Lo más importante es ver si estas soluciones, a largo plazo planteadas, tienen algo de
idealismo camuflado, de modo que dan esperanzas infundadas o es cierto que es un buen estudio. Si se formula esta
pregunta es porque la retinosis es una enfermedad degenerativa, que no tiene vuelta atrás. Por tanto, las soluciones
futuras puede que no sirvan para los enfermos de hoy en día, y, entonces, cabe preguntarse: ¿Tienen los enfermos
total conciencia de que las soluciones serán para los futuros seres humanos que nazcan? ¿Los enfermos se someten
a los diagnósticos genéticos, por altruismo, por falta de información o por una esperanza que proviene del idealismo
de que la ciencia puede solucionarlo todo?
Todo esto es lo que plantearemos intentando señalar los puntos fuertes y débiles de los estudios científicos
genéticos, desde una explicación precisa de lo qué es esta enfermedad.
1. ¿Qué es la Retinosis Pigmentaria y cuál es la afección? ¿Cuál es el número de personas que la sufren
en España?
La Retinosis Pigmentaria es una enfermedad ocular de carácter degenerativo y hereditaria que produce una
grave disminución de la capacidad visual. Dado su carácter degenerativo, en la mayoría de los casos acaba su
proceso en ceguera. Es una enfermedad que se manifiesta en la adolescencia, puesto que su progreso degenerativo
alcanza el grado de degeneración adecuado para detectarse en esta etapa.
La retinosis es degenerativa porque la pérdida visual progresa con el tiempo. Tanto el campo visual como la
agudeza visual van reduciéndose paulatinamente a lo largo de la vida. No se trata de un fenómeno repentino, ni
lineal.
La enfermedad en cada persona tiene una evolución diferente, en algunas personas la degeneración avanza
muy rápido, en otras muy lento, y otras sufren periodos de degeneración muy rápidos, pero tienen otros periodos en
los que la enfermedad se estanca y avanza muy lentamente.
También es necesario decir que aunque en nuestro trabajo en la mayoría de los casos tratemos la Retinosis
Pigmentaria como una totalidad, es decir, una sola enfermedad, la Retinosis Pigmentaria en realidad son un grupo
de enfermedades hereditarias cuya afección es la misma: pérdida primaria y progresiva de los fotorreceptores, que
son los conos y bastones; y secundariamente de otras células retinianas. Puede afectar exclusivamente al ojo, de
modo que será Retinosis Pigmentaria no sindrómica o puede que se agrupe a otros síntomas que ya no tengan que
ve con el ojo y en este caso será Retinosis Pigmentaria sindrómica.
Hay varios síntomas que tienen las personas afectadas con esta enfermedad:
149
2
Nació en Avilés, Asturias, el 10 de Enero de 1987. En el 2006 obtuvo el Título de Bachiller en la modalidad de Humanidades y Ciencias
Sociales. En 2011 ha obtenido el título de Licenciado en Filosofía.
ENERO
2012
El problema de la Retinosis Pigmentaria en estudios genéticos desde el Marco Social |Sandra Sánchez Sánchez
−
Ceguera nocturna: Es la primera manifestación de la enfermedad y durante muchos años puede
ser la única. Dado que la enfermedad es de carácter genético, se puede tener el rasgo genético de modo
dominante o recesivo. Si se tiene el rasgo genético de modo dominante, entonces la ceguera nocturna
aparecerá a partir de los 20 años. Si el rasgo genético es recesivo, entonces la ceguera nocturna se
manifestará ya en la primera década de vida. También se manifestará en la primera década de vida si la
enfermedad está asociada con el cromosoma X.
Este síntoma se manifiesta de dos maneras diferentes: (1) Por la disfunción de los bastones; se observa
mala visión en los ambientes con poca iluminación, ya que el ojo no se acostumbra a la penumbra pasado
un tiempo. (2) Por la disfunción de los conos; hay una dificultad transitoria que consiste en que no es
posible que el afectado distinga objetos al pasar de un ambiente iluminado a otro de baja iluminación. El
tiempo de transición que necesita el ojo para acostumbrarse al nuevo entorno poco iluminado aumenta
mucho.
−
Reducción progresiva del campo visual: Hay una perdida de visión periférica. Es la llamada
visión túnel o visión en cañón escopeta, en fases avanzadas de la enfermedad. Esto no permite ver objetos
circundantes.
−
Disminución de la visión: Es la fase más avanzada de la enfermedad, dado que es el último
síntoma que aparece. se altera la percepción de los colores, si la agudeza visual es menor de 5/10.
Los signos clínicos:
Los hallazgos oftalmoscópicos más característicos son: pigmentación retiniana de tipo espículas óseas,
atenuación arteriolar y palidez del disco óptico. También se observan con frecuencia lesiones en la retina
central.
Otras manifestaciones oculares son: miopía, cataratas subcapsulares posteriores y cambios degenerativos del
vítreo. Con menos frecuencia se puede observar queratocono, glaucoma o drusas del nervio ópticoi.
El número de personas que sufren en España algún tipo de Retinosis Pigmentaria supera las 15.000
personas, además se estima que 60.000 personas son portadoras de los genes defectuosos y pueden transmitir esta
enfermedad a sus hijos.
2. ¿Cuál es la causa de la Retinosis Pigmentaria?
No se conocen aún cuales son los patogénicos de esta enfermedad. Sí se conocen una serie de genes
específicos que se pueden relacionar con la Retinosis Pigmentaria. Sin embargo, no hay una teoría científica aún
que muestre porque genes mutados asociados con los bastones o con el epitelio pigmentario de la retina llevan a la
desestructuración de los fotorreceptores (conos y bastones).
Vamos a acercarnos a la enfermedad desde la escala genética que es la específica de nuestro trabajo.
Dado que la Retinosis Pigmentaria es una enfermedad hereditaria, hay que acudir a los genes para buscar
una correcta causa(s) genética(s) de la enfermedad. El problema, es que dado que la Retinosis Pigmentaria es, como
decíamos, un conjunto de enfermedades, hay casos muy diferentes y los casos hereditarios también lo serán. Hay
básicamente tres maneras de heredar la enfermedad:
150
ENERO
2012
Retinosis Pigmentaria Autosómica Dominante:
En estos casos es un padre o una madre él/la afectado/a. En cada embarazo habrá un 50% de posibilidades de
que el hijo, fruto de la relación herede Retinosis Pigmentaria. Si los hijos no han heredado la enfermedad, no la
transmitirán a su descendencia. Esta forma de heredar la enfermad constituye entre el 15% y el 25% de los
Paloma Nido Suárez | Praxis Humana.
afectados por Retinosis Pigmentaria.
Retinosis Pigmentaria autosómica recesiva:
En este caso los padres son portadores pero no padecen la enfermedad. Esto sucede porque tienen cada uno
una única copia de gen con la mutación que causa la enfermedad. Si un hijo hereda de sus padres las dos copias de
los genes mutados, entonces padecerá la enfermedad. Si los hijos sólo heredan una, no padecerán la enfermedad
pero serán portadores de ella. Aunque el riesgo de transmitirla es muy débil, salvo en el caso de que su pareja sea
consanguínea. El riesgo de una pareja de este tipo de tener hijos con Retinosis Pigmentaria es del 25%. Este es el
modo de herencia del síndrome de Usher, desorden en el que la retinosis se asocia a un defecto de audición.
Retinosis Pigmentaria recesiva ligada al sexo:
En esta forma de transmisión, serán las mujeres las únicas transmisoras, pero sin padecerla. Esto es así
porque en uno de sus cromosomas X tienen una copia de un gen mutado. Los hijos que hereden dicho cromosoma
la padecerán. Las hijas, al ser XX, tendrán otra copia del gen sin la mutación. Hay un 50% de posibilidades de que
los hijos varones padezcan la enfermedad y un 50% de posibilidades de que las hijas sean portadoras sanas de la
enfermedad. Además, toda hija de padre con Retinosis Pigmentaria será portadora sana de la enfermedad. Si en una
familia una mujer tiene un hijo con Retinosis Pigmentaria y otro familiar varón, entonces esa mujer será portadora
sana de la enfermedad.
Retinosis Pigmentaria esporádica:
En la mayoría de los casos, casi la mitad, la Retinosis Pigmentaria es un caso esporádico o único en la
familia. Es difícil en este tipo de casos determinar como posibilita la transmisión de la enfermedad con un único
miembro que la padece. Los casos pueden ser del tipo recesivo, o bien del tipo dominante en las que no existe una
clara historia familiar que determine las enfermedades de los antepasados, y en la que la Retinosis Pigmentaria de
uno de sus padres no sea severa o tenga un inicio más tardío de lo normal. O se puede especular que sea una nueva
mutación.
2. 1. Sobre la herencia y el problema de la heterogeneidad.
El gran problema que conlleva que la Retinosis Pigmentaria es que al ser un grupo de enfermedades hay
muchísimos genes implicados, cuyas mutaciones hacen aparecer la enfermedad. A día de hoy se conocen más de
100 genes implicados en la enfermedad, que se heredan desde las diferentes maneras que vimos antes. No todos los
genes implicados conllevan la misma gravedad de la enfermedad.
La importancia de la herencia consiste exactamente en su estudio en familias particulares. Si se conoce la
historia clínica familiar en su conjunto es más fácil averiguar cuál o cuáles son aquellos genes que sufren una
mutación y cuáles son las futuras probabilidades de que dichos genes mutados se transmitan y cómo será dicha
herencia, es decir, cuál será el tipo de herencia que sufrirá en un futuro la posible descendencia.
Otro problema es el de la heterogeneidad genética que consiste en que un mismo gen puede causar distintos
tipos de degeneraciones y una misma degeneración se puede haber dado por una alteración en distintos genes.
Esto nos muestra que es muy difícil dar con un análisis genético claro. En primer lugar porque aunque se
conozcan más de 100 genes, no se sabe exactamente cuál es su función y por tanto como una mutación en ellos
puede hacer que se desarrolle la enfermedad. En segundo lugar, no se sabe cuáles son las combinaciones de genes
mutados exactas que dan pie a que aparezca la enfermedad. Por último no se puede afirmar con certeza cuando nos
enfrentamos a una degeneración si ésta está perpetrada por un solo gen mutado o han sido varios los que en su
conjunto han dado lugar a la degeneración. Además, cuando nos enfrentamos a varias degeneraciones se hace aún
más complicado dar una conclusión acertada.
151
ENERO
2012
El problema de la Retinosis Pigmentaria en estudios genéticos desde el Marco Social |Sandra Sánchez Sánchez
2. 2. Terapia génica y diagnósticos genéticos.
La idea de una terapia génica es algo que se baraja para curar la Retinosis Pigmentaria. Consistiría en corregir las
mutaciones de las células dañadas mediante la sustitución del gen(es) alterado(s) por otro(s) sano(s). Sin embargo,
dado el problema de la heterogeneidad genética y de que hablamos de un grupo de enfermedades, cuando hablamos
de la Retinosis Pigmentaria es muy difícil llevar a cabo este tipo de solución para la enfermedad. No ya por la
dificultad de sustitución de los genes afectados, sino por escoger adecuadamente cuales son los genes dañados para
poder sustituirlos. Es por ello que la línea de investigación que hoy en día se persigue es hacer tratamiento
genéticos de las familias, como veíamos en el punto anterior, para reconocer los genes que implican el desarrollo de
la enfermedad en cada familia.
A través de un estudio genético familiar es posible adelantar un diagnóstico antes de los primeros síntomas
de la enfermedad. Así como saber de los miembros de una familia cuáles están sanos y no van a desarrollar la
enfermedad, cuáles están sanos pero son portadores de una mutación o varias que pueden transmitir por medio de la
herencia genética y hacer diagnósticos prenatales. Esto contribuirá a prevenir la enfermedad. El valor fundamental
es que con los estudios de las familias se podría hacer una clasificación de las alteraciones genéticas básicas para
entender el desarrollo de la enfermedad y para diagnosticar la enfermedad cada vez antes.
Razones principales por las que hacer un diagnóstico genéticoii:
-
Se conoce quienes son los portadores sanos de la enfermedad y quienes son las personas libres de
genes dañados.
Se verifican los diagnósticos de las personas que no se ajustan inicialmente al diagnóstico de
Retinosis Pigmentaria.
Se puede ofrecer asesoramiento genético.
Se puede desarrollar la labor investigadora
Lo importante del análisis genético familiar es establecer el patrón de herencia y saber si existe
consanguinidad familiar. La Retinosis Pigmentaria Autosómica Dominante y la Retinosis Pigmentaria autosómica
recesiva ligada al sexo tienen la capacidad de transmitirse con gran éxito a lo largo de generaciones, por lo tanto es
importante estudiar los árboles genealógicos completos.
Lo importante, según investigadores y afectados, es encontrar portadores de genes dañados ya que así se
previene el riesgo de transmisión.
Según el modelo de herencia se puede sospechar que gen(es) son los que están implicados en una familia.
Por lo tanto, tomando muestras de sangre de cada miembro de la familia se harán las lecturas de los genes de los
cuales se sospeche que tienen una mutación o están alterados. Cuando se reconoce que gen o genes están dañados
se puede hacer un diagnóstico de la familia y las posibilidades de transmisión a las futuras generaciones. Sin
embargo, cada gen conocido explica muy pocas familias y en cada familia el gen que causa la patología es distinto.
Para el diagnóstico genético se usan ensayos automatizados mediante el sistema APEX (arrayed primer
extensión) que inmoviliza sobre un soporte sólido inerte (chip) los fragmentos de ADN que contienen las
mutaciones descritas en 13 genes arRP. Los fragmentos de ADN se comparan por hibridación con el ADN del
paciente y así se determina si existe mutación. Pero mediante este proceso sólo se pueden diagnosticar mutaciones
ya conocidas (que son las que contiene el chip).
152
ENERO
2012
Un nuevo proyecto de diagnóstico indirecto automatizado de 22 genes arRP y LCA requiere partir de una
familia, no de individuos aislados y su objetivo consiste en separar aquellos genes que no causan Retinosis
Pigmentaria para después, mediante un diagnóstico ya directo, analizar aquellos genes en los que puede haber
mutaciones que provoquen Retinosis Pigmentaria. Con este enfoque diferente se intentarán encontrar genes nuevos
que produzcan Retinosis Pigmentaria.
Paloma Nido Suárez | Praxis Humana.
También es posible, cuando se reconoce la mutación, hacer un diagnóstico genético preimplatacional para
aquellas familias que deseen tener hijos pero tengan la dificultad de ser portadores de la enfermedad o afectados. La
definición adecuada sería: un conjunto de procedimientos destinados al diagnóstico de un defecto genético,
mediante la biopsia y análisis in Vitro de una célula embrionaria, con el objetivo de evitar la transmisión de una
enfermedad hereditaria a la descendencia en parejas con historial de riesgoiii. Mediante fecundación in Vitro se
obtienen varios embriones y en el primer estadio, cuando los embriones tienen de 4 a 8 células, se escogen aquellos
que no sean portadores de la mutación. Es la mejor opción puesto que la otra alternativa era el diagnóstico prenatal.
Con el análisis preimplantacional el diagnóstico se hace antes del embarazo y, además, hay una reducción de las
posibilidades de que el feto sea portador de la enfermedad y, por tanto, también reduce las posibilidades de tener
que interrumpir el embarazo. Las posibilidades de que la descendencia sea sana al término de un embarazo son
superiores al 99%.
En el caso de la Retinosis Ligada al sexo Recesiva se escoge el sexo ya que la técnica de reconocimiento de
la presencia del cromosoma Y se puede hacer sin necesidad de buscar el gen responsable de la enfermedad. Pero en
estos casos las parejas renunciarán a tener hijos varones y hay un 50& de posibilidades de que las hijas sean
portadoras. Con el análisis preimplantacional se seleccionarán embriones sanos con independencia de si son de sexo
masculino o femenino y, además, ya no continuaría la transferencia de la enfermedad a las siguientes generaciones.
Sin embargo, el problema de esta técnica es que se tiene que conocer con exactitud la alteración genética que
produce la Retinosis Pigmentaria.
La terapia génica es prácticamente imposible a día de hoy, sin embargo, se cree que cuando se pueda
manipular los genes para corregir mutaciones a nivel molecular, se podrá utilizar la información celular con fines
terapéuticos a partir de los diagnósticos familiares.
3.
El problema de la creación de terapias.
El problema básico que encuentran los grupos de investigación ante una posible terapia no es otro que un
obstáculo social. Los proyectos de investigación se enfrentan a la propiedad industrial. Esto ocurre porque el
desarrollo de un fármaco puede tardar de 10 a 12 años de media y además necesita de una gran financiación
(estamos hablando de millones de euros) antes de tratar (experimentar) con los pacientes incluso. En todo ensayo
clínico se exige que haya varias fases (ensayos preclínicos, ensayos clínicos Fase I y ensayos clínicos Fase II y
ensayos clínicos Fase III) y en estos se pide el mínimo riesgo posible y, posteriormente, asegurar un mínimo de
eficacia.
La financiación de más coste es aportada por las farmacéuticas. Pero sólo se harán cargo las farmacéuticas
de estos grandes gastos si mediante patentes y otros títulos de propiedad industrial, les pertenecerá en exclusiva a
ellas la explotación del futuro medicamento, durante algunos años.
El problema es que los grupos de investigación que hayan publicado sus observaciones, cosa que ocurre con
mucha normalidad para estabilizar la situación laboral de los investigadores y promocionarlos y conseguir aún más
financiaciones para sus futuras investigaciones, es que ya no podrán utilizar terapéuticamente su trabajo. Ante los
datos publicados muchos otros investigadores tendrán acceso a ellos y podrán también crear proyectos de terapias,
con lo cual las farmacéuticas al no tener el monopolio de un medicamento no financiarán su investigación. Los
propios investigadores reconocen que muchas terapias se pueden estar perdiendo por la falta de financiación de las
farmacéuticas.
4.
Implicaciones Sociológicas y Filosóficas. Conclusiones.
Vamos ahora a tratar el tema de la Retinosis Pigmentaria trascendentemente, puesto que hasta ahora hemos
hablado de la enfermedad inmanentemente: causas, terapias, etc. En primer lugar, vamos a registrar algunas de las
instituciones relacionadas con la Retinosis Pigmentaria según nuestros datos. Posteriormente vamos a registrar cuál
es la unidad social determinante en esta enfermedad. Finalmente, vamos a desarrollar una serie de cuestiones acerca
del juicio que proponemos aquí después de todos estos datos y una serie de conclusiones respecto de ellos.
153
ENERO
2012
El problema de la Retinosis Pigmentaria en estudios genéticos desde el Marco Social |Sandra Sánchez Sánchez
Las instituciones principales implicadas con la Retinosis Pigmentaria y otras enfermedades asociadas con
ella con las diferentes asociaciones de Retinosis Pigmentaria de ámbito local. En total son dieciocho las
asociaciones cada una con sus miembros asociadosiv. A su vez, estas asociaciones están coordinadas desde FARPE
que es la Federación de Asociaciones de Retinosis Pigmentaria de España, que las contiene a todas ellas. FARPE
trabaja conjuntamente con FUNDALUCE que es la Fundación Lucha Contra la Ceguera. FARPE tiene entre sus
propósitos promover la investigación médico-científica, favorecer la captación de recursos y la cooperación entre
los grupos de asistencia, y además, impulsar la asistencia sanitaria a los afectados. La labor de las asociaciones de
las comunidades autónomas tiene más un carácter de divulgación de la enfermedad para promover la toma de
conciencia individual y colectiva. Ofrecen a los afectados, servicio de orientación, asesoramiento y sensibilización.
Además, las asociaciones tienen personal profesional y voluntario que ayuda a las personas con Retinosis
Pigmentaria y enfermedades asociadas, que es coordinado por la FARPE. Se atiende a los afectados y posibles
afectados indicándoles qué deben hacer según su situación. El principal objetivo científico de la FARPE es realizar
el diagnóstico genético con la realización de árbol genealógico familiar (de afectados y portadores) de todas las
generaciones posibles además de dar ayudas para la investigación a diferentes grupos de investigadores. A su vez
FUNDALUCE recibe donativos públicos y privados. La ONCE, Organización Nacional de Ciegos Españoles es
otra de las instituciones implicadas con la Retinosis Pigmentaria. Su implicación consiste en la prestación de
servicios sociales para las personas ciegas o con deficiencia visual grave. Busca la autonomía de sus afiliados en los
ámbitos de la vida generales: social, laboral y familiar. La ONCE nació en España el 13 de diciembre de 1938, con
el fin de poder dar un trabajo a las personas discapacitadas por ceguera total o parcial, mediante un decreto se
otorgó la explotación del cupón prociegos a aquellos que estuviesen afiliados a la ONCE. Miles de personas hoy en
día juegan el cupón. Mediante la ONCE, posteriormente se consiguieron nuevos puestos para los ciegos, además de
centros de formación, de modo que los propios afiliados contasen con otras posibilidades aparte de la de ser
vendedores. Muchos de los afectados por la Retinosis Pigmentaria trabajan en esta organización, principalmente
como vendedores. El hecho de tener en España una organización como la ONCE hace que sociológicamente el
tema de la ceguera se mantenga en auge siendo determinante para la aparición posterior de instituciones de
enfermedades de ceguera específicas y no sólo estas, pues la ONCE, a día de hoy, también tiene entre sus afiliados
personas con otras discapacidades.
La unidad social mínima relevante para un estudio sociológico de la Retinosis Pigmentaria es la familia. Por
ser una enfermedad hereditaria en la que los estudios genéticos son tan importantes, los individuos enfermos o
portadores por separado no tienen un interés tan importantev. Los investigadores al enfrentarse a la investigación de
la búsqueda de los genes que implican la Retinosis Pigmentaria, por ser un grupo de enfermedades y por el
problema de la heterogeneidad genética, tienen que basar sus investigaciones a escala familiar. Las diversas
Asociaciones de Retinosis Pigmentaria de España tienen entre sus miembros a familias completas que facilitan sus
datos genéticos para las investigaciones científicas. No se conocen aún todas las mutaciones de los genes mediante
los que aparece la enfermedad. Esto hace que los estudios genéticos de muchas familias no tengan una solución
acertada acerca de cuál(es) gen(es) están alterados. Además, la cantidad de genes asociados a esta enfermedad hace
de cada familia un caso específico de estudio, con lo cuál, en cuanto al estudio genético es muy difícil hacer de él
un estudio general. Además de que en muchos casos la Retinosis Pigmentaria va asociada a un grupo de
enfermedades más ampliovi, con lo que se hará más difícil el estudio genético aquí. Tampoco habrá una solución
general para el grupo de enfermedades que componen la Retinosis Pigmentaria, sino que cada grupo de familias
asociadas con uno o varios genes tendrán que ser tratadas de manera diferente. De ahí el interés por hacer un árbol
genealógico familiar de todas las generaciones posibles. Cuantas más familias se presten a los análisis genéticos,
más probabilidades hay de avanzar científicamente en la enfermedad.
154
ENERO
2012
Después de todo lo anteriormente dicho, podemos enfatizar que en la Retinosis Pigmentaria el todo no es la
suma de las partes, sino que cada enfermedad es demasiado específica con respecto a las demás. Además, la génesis
de la enfermedad según a que gen o genes esté asociada es muy diferente en cada caso. Cuando se obtuviese la
totalidad de genes asociados con este grupo de enfermedades, habría que hacer una clasificación en grupos de
familias que tuviesen genes dañados compartidos y hacer funciones respecto de qué enfermedad específica de la
Retinosis Pigmentaria está asociada a cada familia. De este modo tendríamos una posible clasificación en la que
enclasar cada gen o grupo de genes con el tipo de enfermedad de la Retinosis Pigmentaria. Sin embargo, el
problema consiste precisamente en encontrar todos los genes dañados asociados con la enfermedad. La
heterogeneidad genética núcleo de la Retinosis Pigmentaria hace de esta enfermedad una de las más difíciles de
Paloma Nido Suárez | Praxis Humana.
investigar. Del mismo problema se extrae que haya que estudiar muchas familias para poder encontrar los genes, la
necesidad del gran grupo de gente que se necesita para las investigaciones científicas surge también el problema de
dar cuenta con soluciones genéticas para la enfermedad.
Hay otros problemas asociados que también son importantes. La necesidad del estudio genético familiar,
hace que se reduzca el número de casos posibles para estudiar. No todos los miembros de cada familia están
dispuestos a hacerse análisis genéticos y, por ello, los resultados genéticos no son tan específicos como se quisiera.
También está el hecho de que hoy en día los análisis genéticos se centran en familias nucleares (padres e hijos) en
donde no se tiene constancia del historial clínico de los antepasados y en donde, si los abuelos ya han fallecido los
estudios genéticos tampoco son tan específicos como se desea. Esta es otra de las razones por las cuales
entendemos que la familia es la unidad mínima social relevante para el estudio sociológico de esta enfermedad.
Por no mencionar un problema genérico de todo lo que tiene que ver con el tema del genoma humano que es
que a pesar de que ha secuenciado, muchos de los genes que de él se conocen aún no se sabe cuáles son sus
funciones, entre ellos puede que genes relacionados la retina y sus procesos.
También tenemos el problema de las patentes que es el derecho de propiedad industrial que hace que las
farmacéuticas no quieran hacerse cargo del coste las financiaciones. Esto hace desaparecer opciones de terapias
tanto de tipo génico como mediante fármacos u otras opciones y hacen que las investigaciones científicas se vayan
por otros derroteros.
Otro problema es el de la metodología de la investigación. ¿Qué investigar primero la enfermedad en su
totalidad y dando cuenta de todo lo que la favorece (incluyendo el amplio estudio genético) o buscar soluciones
respecto de lo que se conoce de la enfermedad; o bien una tercera opción, intentar buscar soluciones e investigar a
la vez la Retinosis Pigmentaria para ir aumentando la información que tenemos sobre ella? Parece que se ha tendido
hacia esta tercera opción, aunque no podemos afirmar si esto ha sido decidido o casualmente la estrategia funciona
así. Me aventuraría a decir que no se ha decidido nada por la cantidad de grupos heterogéneos relacionados con la
enfermedad, asociaciones, federaciones y grupos de investigación. Sin embargo, tampoco diría que ha sido tomada
casualmente esta metodología porque hay muchas personas (familias enteras incluso) implicadas en las
investigaciones científicas; bien porque son sujetos de estudio o han ofrecido donativos para las causas relacionadas
con la Retinosis Pigmentaria. Por no hablar de las asociaciones y empresas que financian los proyectos de
investigaciónvii. Por tanto, sino apareciesen investigaciones relacionadas con posibles soluciones o terapias para la
Retinosis Pigmentaria, que además se pudieran comercializar, las personas estarían menos dispuestas a participar en
análisis genéticos. Tampoco se recibirían tantos donativos, privados, públicos o particulares.
Por último vamos a tomar las cuestiones que nos hacíamos en la introducción. ¿Tienen los enfermos total
conciencia de que las soluciones serán para los futuros seres humanos que nazcan? ¿Los enfermos se someten a los
diagnósticos genéticos, por altruismo, por falta de información o por una esperanza que proviene del idealismo de
que la ciencia puede solucionarlo todo?
En primer lugar, no creo que enfermos o personas portadoras se sometan a los diagnósticos sin la
información necesaria. Los diagnósticos genéticos son para encontrar qué genes están afectados por mutaciones. En
el caso de diagnósticos genéticos familiares son para buscar, además, mujeres portadoras de la enfermedad. Sin
embargo, los diagnósticos genéticos no ofrecen una solución, ni inmediata ni mediata para la mayoría de los casos,
sólo es un análisis para catalogar qué genes dañados están implicados y ver qué personas de la familia son
portadores y cuales están enfermas y cómo.
La cuestión va encaminada a erradicar la enfermedad escogiendo nuestra herencia. Es decir, eligiendo la
carga genética de nuestros hijos. También, muchas de las personas que sean enfermas o mujeres portadoras podrán
decidir no tener hijos para no traer al mundo personas enfermas o utilizar técnicas como el diagnóstico
preimplantacional, en el caso de que se conozca el gen o genes asociados con la enfermedad en su familia. La
familia goza de todo el peso en el caso de los estudios genéticos. Un individuo que se somete a las pruebas
genéticas sabe que en muchos casos lo máximo a lo que puede aspirar es a conocer aquellos genes en los que está la
mutación que hace que aparezca la enfermedad. Sin embargo el interés de los afectados respecto de las pruebas
155
ENERO
2012
El problema de la Retinosis Pigmentaria en estudios genéticos desde el Marco Social |Sandra Sánchez Sánchez
tiene varias razones. En primer lugar, no hay altruismo a la hora de hacerse un estudio genético; dado que el
reconocimiento de los genes que conllevan una mutación puede ayudar a erradicar la enfermedad en los hijos de los
afectados, manteniendo un control, incluso, desde antes del embarazo. En el caso de familias con hijos pequeños ya
afectados, la solución siendo a largo plazo se encamina a erradicar la enfermedad de los niños de la familia en un
futuro. De ahí que las organizaciones mantengan unidas a todas las familias exponiendo mensajes de esperanza y de
nuevos avances, que llegan con cuentagotas.
Más bien, el mensaje de FUNDALUCE y las asociaciones es un mensaje doble, por un lado, a nivel
individual estoico, la enfermedad es muy dura pero se puede sobrellevar y por otro lado a nivel global hay una
esperanza casi irracional del progreso de la ciencia en crear una solución (que, en realidad, serían soluciones) para
la ceguera. Algo que como hemos visto aquí es muy difícil, por la amplitud de problemas que conlleva la
investigación de esta enfermedad. Además, estamos hablando siempre desde el marco nacional español. En otras
partes del mundo apenas se conoce dicha enfermedad y menos aún las personas se pueden costear los gastos de
análisis genéticos, ya que no hay asociaciones que las costeen y sólo personas de bastantes recursos pueden hacerlo.
Con lo cual, en el mundo globalizado en el que vivimos, con familias multiculturales, será muy difícil hacer un
completo análisis de la enfermedad. Son muy pocas familias las que acceden a los diagnósticos genéticos, con lo
cuál la información que de ellos obtenemos no es suficiente. Por lo tanto, habría que plantearse si los estudios
genéticos son tan importantes como parece o habría que intentar buscar otras soluciones alternativas, que de hecho
existen y se están probando. La Retinosis Pigmentaria es degenerativa y aunque se solucionase el problema de la
retina y de los fotorreceptores, no se saben aún que posibilidades hay de que las conexiones cerebrales asociadas a
la vista desde la luz recibida por el nervio óptico pudiesen formatearse de nuevo en imágenes. Se cree que en
algunos casos no seria posible recuperar la vista, y desde luego, no se cree que se recupere al 100%. Con lo cual
parece que las soluciones que tienen que ver con la genética asociada a la Retinosis Pigmentaria no son para los
hombres de hoy en día.
i
Artículo extraído de “Retinosis Pigmentaria. Guía informativa”. Editada por la Asociación de Retinosis Pigmentaria de Navarra.
Conferencia ¿Es útil detectar a los portadores de retinosis pigmentaria? Goldaracena, Begoña. Curso de Retina Organizado por la Facultad de
Medicina de la Universidad de Navarra.
iii
GALLARDO, Dominique y VIDAL, Francisco. Diagnóstico genético preimplantacional de enfermedades hereditarias. Aplicación a la
Retinosis Pigmentaria. Revista Visión nº 30 EDITA: FARPE (Federación de Asociaciones de Retinosis Pigmentaria de España).
iv
Las asociaciones a nivel local son: 1) A. A. R. P. Asociación Andaluza de Retinosis Pigmentaria. 2) A. A. R. P. Asociación Aragonesa de
Retinosis Pigmentaria. 3) A. A. R. P. Asociación Asturiana de Retinosis Pigmentaria 4) Asociación Canaria de Retinosis Pigmentaria 5) A. C.
A. R. P. Asociación Cántabra de Afectados por Retinosis Pigmentaria. 6) Asociación de Castilla-La Mancha. 7) A. C. L. A. R. P. Asociación
Castellano Leonesa de Afectados por Retinosis Pigmentaria 8) A. A. R. P. C. Asociación de Afectados por Retinosis Pigmentaria de Catalunya.
9) A. E. R. P. Asociación Extremeña de Retinosis Pigmentaria 10) A. G. A. R. P. Asociación Gallega de Afectados por Retinosis Pigmentaria.
11) Asociación de Murcia. 12) A. R. P. N. Retina Navarra. 13) A. A. R. P. C. V. Asociación de Afectados por Retinosis Pigmentaria de la
Comunidad Valenciana 14) Asociación de Afectados por Retinosis Pigmentaria de Alicante. 15) Asociación de Afectados de Retinosis
Pigmentaria de Euskadi. 16) Asociación Retina Madrid. 17) Asociación de Afectados por Retinosis Pigmentaria de Giupúzcoa. 18) Asociación
Cántabra de Afectados por Retinosis Pigmentaria.
v
Nuestro trabajo ha enfatizado el nivel genético de la enfermedad, aunque en otros enfoques de trabajo de la enfermedad y otras posibles
terapias no génicas podría ser el individuo podría ser más importante que la familia.
vi
Entre estas enfermedades está el Síndrome de Bardet-Biedl y el Síndrome de Usher, las cuales sólo vamos a mencionar puesto que se salen del
estudio específico de nuestro trabajo.
vii
En el año 2008 entre el 1 de mayo y el 31 de octubre, FUNDALUCE recibió 19. 515,07 €, de los que los donativos privados fueron 9.955,07 €
y 3.560 € de entidades públicas y privadas. Datos recogidos de la Revista Visión nº 33. que edita FARPE. ii
156
ENERO
2012
Adrián J. Carbajales Terés | La ideología en torno a la genética en la ciencia-ficción.
La ideología en torno a la genética en la ciencia‐ficción Adrián J. Carbajales Terés Resumen Que el Proyecto Genoma Humano no está libre de controversia ideológica se ve bien a través de su incorporación de su temática al género de la ciencia ficción. En 1990, arranca el PGH y Michael Crichton escribe Parque Jurásico, novela en la que un acaudalado empresario recupera ADN de dinosaurios a partir de mosquitos conservados en ámbar y crea un zoo en el que se exhiben. Se repite en este caso el tópico de la crítica ideológica según el cual al científico se le acaba yendo de las manos su propia creación como en Frankenstein. El hecho de que en 1993 Steven Spielberg la llevará al cine, produciendo la película que por aquel entonces consiguió las mayores ganancias de la historia, sólo muestra que la crítica ideológica es más rentable literariamente que el tópico ideológico positivista como en el videojuego de estrategia Civilization: Call to Power, donde el Proyecto Genoma Humano juega el mismo papel que Chichen Itza, la Academia de Confucio o el Laboratorio de Edison. Sus efectos son los siguientes: la civilización que descodifique el Genoma recibe un aumento del diez por ciento de la natalidad, y aumenta también la fuerza de sus unidades. Abstract That the Human Genome Project is not free of ideological controversy is either through incorporation of its subject to the genre of science fiction. In 1990, started the HGP and Michael Crichton wrote Jurassic Park novel in which a wealthy businessman recovered dinosaur DNA from mosquitoes preserved in amber and make a zoo in which are exhibited. Repeated in this case the topic of ideology critique according to which the scientist is just getting out of handhis own creation as Frankenstein. The fact that Steven Spielberg in 1993 to film producing the film at that time got the biggest profits in history, only shows that ideological critique is literally more profitable than the positivist ideological topic in the strategy game Civilization : Call to Power, where the Human Genome Project plays the same role as Chichen Itza, the Academy of Confucius or the Edison Laboratory. Its effects are: the civilization that decode the genome receives a ten percent increase in the birth rate and also increases the strength of their units. 157
ENERO
2012
Adrián J. Carbajales Terés | La ideología en torno a la genética en la ciencia-ficción.
La ideología en torno a la genética en la ciencia‐ficción Adrián J. Carbajales Terés INTRODUCCIÓN:
El tema a tratar en este pequeño ensayo, aunque sobre una cuestión aparentemente de poca importancia
respecto a otras cuestiones relacionadas con el Proyecto Genoma Humano, pudiendo ser acusado de superficial o
superestructural, no es ni mucho menos sencillo o irrelevante.
Trataremos, a continuación, de analizar cómo el desarrollo de la biología ha conformado ideas que han
influído directamente en obras de ciencia-ficción, y cómo éstas influyen a su vez en la visión que la sociedad,
incluídos los propios científicos, poseen sobre los temas a tratar. Para ello, haremos un breve recorrido por la
historia de este género y su relación con la biología desde sus inicios en la literatura, para luego esbozar también
su papel en la cultura de masas y la prolífica explotación de la temática durante el desarrollo del Proyecto
Genoma Humano.
¿QUÉ ES LA CIENCIA FICCIÓN?:
En un primer lugar debemos definir qué es la ciencia ficción. Hay múltiples definiciones, siendo una de
las más comunes la que podríamos resumir como “rama de la literatura fantástica que relata viajes extraordinarios
o historias ambientadas en el futuro”. Esta definición altamente confusa (¿qué tienen que ver los viajes
extraordinarios con las historias ambientadas en el futuro?) no permite distinguir la ciencia ficción de otros
géneros anteriores, como el fantástico, u otros posteriores, como el steampunk, que al menos intuitivamente
concebimos como esencialmente diferentes. Tampoco atenderemos únicamente a una cuestión de nomenclatura,
pues cuando se acuña el término ciencia-ficción (en los años 20 por el escritor Hugo Gernsback) ya es para aludir
a un género literario antes existente. Para encontrar la nota diferencial del género debemos recorrer, al menos
brevemente, su historia, atendiendo a lo que desde múltiples interpretaciones está incluído en ella.
Es común atribuir la fundación del género a Luciano de Samósata (125-192 d.C.), que en Relatos
verídicos presenta un viaje en barco a la luna, catapultado por una tromba de agua al espacio exterior. Sin
embargo este relato es en realidad una parodia de los relatos de marinos, llevando al absurdo las fantásticas
historias que se presentaban como verdaderas. ¿Acaso la ciencia ficción es una comedia de ambientación
fantástica? No podemos considerar esta obra como la fundadora de la ciencia ficción, pues lo único que se
159
encuentra en ella es ficción, no estando la ciencia por ningún lado. La confusión puede deberse a que,
groseramente, puede considerarse la obra de Luciano precedente de De la Tierra a la Luna de Julio Verne (1865),
ENERO
2012
La ideología en torno a la genética en la ciencia-ficción | Adrián J. Carbajales Terés
pero la diferencia entre ambas es esencial. En su obra, Verne estudia y explicita cuestiones físicas como qué
tamaño debe tener el cañón con el que enviar al espacio la nave-bala, cuanto explosivo debe colocarse en él y
dónde debe fabricarse (acertando al situar el mejor lugar para el despegue de suelo americano en Florida). Así
vemos que la rigurosidad científica de la obra de Verne es notable (aunque no tiene en cuenta el efecto producido
por la fuerza de la aceleración en los tripulantes), mientras que Luciano de Samósata no podía apelar a tales
cuestiones, simplemente porque en su época no había ciencias empíricas en sentido estricto.
Por lo tanto la ciencia ficción, como tal, no puede existir hasta finales del siglo XVII y es, como veremos
a continuación, a primeros del siglo XIX cuando los importantes cambios sociales producidos por la Revolución
Industrial llevan a literatos a preguntarse por las consecuencias de los futuros avances científicos.
Cuando a finales del siglo XVIII el médico, fisiólogo y físico italiano, Luigi Galvani, mostró las
contracciones producidas por la electricidad en cadáveres de animales, mediante máquinas eléctricas y botellas de
Leyden, se estableció un puente entre la física y el mundo orgánico por el que la vida empieza a perder la
naturaleza misteriosa que se le atribuía. Este descubrimiento pronto cala en todos los estratos de la sociedad,
llegando a correr el rumor de que Erasmus Darwin había conseguido dar vida a unos fideos mediante descargas
eléctricas.
Cuando Mary Shelley (1797-1851), hija de acomodados filósofos, oye a Lord Byron plantear estas
cuestiones, no tarda en escribir Frankenstein o el moderno Prometeo (publicada en 1818), obra en la que plantea
los problemas que podría conllevar el desarrollo de las ciencias si éstas permiten manipular la vida. Su modo de
plantearlo no es, ciertamente, muy original, ya que lo hace desde una perspectiva teológica, muy similar a la del
mito hebreo del Gólem: Si creamos vida, tal como lo hizo Dios (Victor Frankenstein no “crea” la vida, pero
tampoco reanima un cuerpo cualquiera, sino que produce uno con sus propias manos), ésta puede volverse contra
nosotros como nosotros podemos volvernos contra Dios. Pero a pesar de que la filosofía desde la que Shelley
escribe el libro no es nueva, si lo es el problema a tratar literariamente: las consecuencias de los posibles
desarrollos de las ciencias.
Así tenemos la obra de Shelley como fundadora de la ciencia ficción, pues posee una característica nunca
antes dada en la literatura, y que podemos considerar como parámetro para juzgar si posteriores obras son ciencia
ficción o no. Así no consideraremos ciencia ficción subgéneros de la fantasía nacidos precisamente bajo influencia
de la ciencia ficción, como la space opera (aventuras de ambientación futurista, pero cuyo argumento no
160
cambiaría sustancialmente si sustituyéramos las naves espaciales por dragones) o el steampunk (que trata
consecuencias de los ya imposibles desarrollos de las ciencias y las técnicas, como la existencia del éter o la
posibilidad de fabricar avanzados autómatas a vapor).
ENERO
2012
Adrián J. Carbajales Terés | La ideología en torno a la genética en la ciencia-ficción.
DOS
PUNTOS
DE
VISTA
SOBRE
LA
MANIPULACIÓN
DE
LA
VIDA ANTES
DEL
DESCUBRIMIENTO DEL ADN:
En 1896 el escritor y socialista utópico Herbert G. Wells publica La isla del Doctor Moreau, obra en la
que un científico, desacreditado por sus crueles experimentos con animales, se exilia a una isla donde puede
actuar con libertad. Allí, mediante cirugía consigue dar forma humanoide a múltiples animales, y mediante
hipnotismo los dota de una inteligencia matemática y lingüística rudimentarias, sustituyendo los instintos por
condicionamientos. De nuevo tenemos aquí el mito del Gólem, pues Moreau se autoproclama dios de la isla
(incluso dicta unos mandamientos) y las criaturas a las que manipula acaban volviéndose contra él y asesinándolo.
Excepto por su crítica a las instituciones religiosas (aunque las muestra como necesarias para mantener el control
social, debiendo seguir con la pantomima el protagonista tras la muerte de Moreau, para así sobrevivir), parece
que no supone gran novedad respecto a Frankenstein, cayendo en la defensa de los mismos valores. Pero en su
relato alude a nuevos desarrollos de las ciencias, abandonando el galvanismo por teorías más refinadas. Durante el
siglo XIX la cirugía aparece como victoriosa, pues su integración en la medicina con las teorías microbianas y el
desarrollo de anestésicos abre un nuevo mundo de posibilidades. El hipnotismo, aunque ahora sea muy
cuestionable su cientificidad, fue también estudiado por numerosos médicos en el siglo XIX, influídos por las
teorías mesmeristas del magnetismo animal (el cirujano escocés James Braid, el terapeuta francés Liébeault
Ambroise Auguste o el también francés y considerado como uno de los fundadores de la neurología Jean-Martin
Charcot). Además, en la sustitución de los instintos por condicionamientos podemos ver el germen del
conductismo (en la misma década en la que Pavlov formuló la ley del reflejo condicionado) y en la ruptura de la
frontera entre humanos y animales una anticipación de la psicología comparada de principios del siglo XX,
antecedente directo de la etología.
Más de treinta años después, el escritor anarquista Aldous Huxley publica Un Mundo Feliz (1932), obra
crítica con la nueva sociedad industrial fordista. En ella presenta una distopía futura, en la que el Estado Mundial
formado en el siglo XXI produce en cadena incluso a los seres humanos. Como si la sociedad fuera una colonia de
insectos, los individuos son cultivados en enormes fábricas, especializándolos para el trabajo que desempeñarán
en el futuro, con métodos como cortar al feto el suministro de oxígeno para que desarrolle una menor inteligencia.
Aquí tenemos un nuevo punto de vista, en el que es el propio Estado, y no el científico individual, el que utiliza la
ciencia para conformar el mundo a su voluntad. No criticando la ciencia, sino el uso técnico que se le da en los
sistemas de producción capitalista y socialista, no podemos negar la semejanza de esta distopía con la crítica de la
primera generación de la Escuela de Frankfurt a la razón instrumental, la cual comienza ese mismo año a
desarrollar su programa de investigación bajo la dirección de Max Horkheimer.
161
ENERO
2012
La ideología en torno a la genética en la ciencia-ficción | Adrián J. Carbajales Terés
LA GENÉTICA Y LA CULTURA DE MASAS. UN CASO PARADIGMÁTICO:
Para sobrevivir a la dura competencia, las grandes compañías productoras de la cultura de masas siempre
están ávidas de nuevas ideas para sus relatos, y por ello es común que tomen como referencia los nuevos
desarrollos científicos. Un caso que merece un exhaustivo análisis, pero del que sólo estableceremos unas líneas
generales, el caso de los cómics de X-Men y sus incontables spin-offs, pues durante sus casi cincuenta años de
existencia (con publicación ininterrumpida todos los meses excepto entre los años 1970 y 1975) sus historias han
estado ligadas a la visión que en cada momento histórico se tenía de la genética.
En los años sesenta, con la nueva oleada de cómics de superhéroes (tras la crisis producida por la férrea
censura llevada a cabo desde 1954, tras la publicación de La seducción del inocente del psicoanalista Fredric
Wertham) los autores trataban de encontrar nuevas ideas para contar historias originales. Tradicionalmente los
superhéroes resultaban de una mezcla de géneros, siendo sus extraordinarias capacidades oríginadas bien por
medios tecnológicos (Batman), químicos (Capitán América) o numinosos (Superman), pero, tras la Segunda
Guerra Mundial y la aparición del miedo a la energía nuclear, el orígen radiactivo comienza a dominar la escena
(Hulk, Spider-Man… sin explicitar que la radiactividad produce una transformación genética). Entonces es
cuando Stan Lee, autor intelectual de estos últimos, plantea la publicación de una colección sobre un grupo de
jóvenes mutantes, cuya genética única les dota de increíbles poderes. Mientras que los X-Men eran guiados por
Charles Xavier, que les enseñaba a utilizar sus dones “para defender un mundo que les odia y les teme”, un
antiguo amigo de Xavier, Erik Magnus, trataba de tomar el lugar que creía le correspondía en la jerarquía social
como el homo superior que era.
Así, se publica el primer número de la colección en 1963, un año después de que James Watson reciba el
premio Nobel por sus investigaciones sobre el ADN. En un malentendido evolucionismo, Lee presenta un salto en
la evolución que produce una nueva especie, según algunos destinada a sustituir a la humanidad. Tomando como
ejemplo el modelo de la lucha por los derechos de los afroamericanos, Lee establece analogías implícitas entre el
Profesor X y Martin Luther King y entre Magneto y Malcolm X, siendo la posición de éste último demasiado
aterradora para el americano medio de raza blanca.
Con el paso de los años esta analogía mutante/afroamericano se va perdiendo, pero aparece otra aún más
influída por presupuestos biologicistas. Cuando en 1983 se comienza a insinuar la existencia de un superhéroe
homosexual, Estrella del Norte, no es ni mucho menos coincidencia que se esté hablando de un mutante. John
162
Byrne, responsable de la idea, confiesa haber leído en la revista Scientific American que se estaban encontrando
pruebas de que la homosexualidad tenía un origen genético y no social, y que por tanto le pareció lógico que
quien portara el gen X también pudiera portar el “gen gay”. Esta nueva analogía entre mutantes y homosexuales
ENERO
2012
continuaría a lo largo de los años noventa, apareciendo en las historias una nueva enfermedad, el “virus del
Adrián J. Carbajales Terés | La ideología en torno a la genética en la ciencia-ficción.
legado”, similar al sida. Cuando en un primer momento afecta únicamente a los mutantes es ignorado por los
medios de comunicación, pero tras empezar a afectar a humanos se produce una gran alarma social.
Pero lo más curioso y significativo para encontrar relaciones entre el desarrollo de la genética y el auge
de esta temática en la ficción es que, en 1991, a la vez que se inicia el proyecto de secuenciación del genoma
humano, X-Men consigue el récord Guiness al cómic más vendido de la historia, llegando un ejemplar de octubre
de ese año nada menos que a los ocho millones de ventas en menos de tres meses, lo que es más increíble aún si
tenemos en cuenta que ese mismo mes se publicaron otra media docena de títulos relacionados con el tema. No
podemos atribuir tal récord únicamente a la influencia de los avances científicos, pero sin duda existe alguna
relación.
CIENCIA FICCIÓN DURANTE EL PROCESO DE SECUENCIACIÓN:
Durante la década de los noventa, paralelo a la secuenciación del genoma, el auge de la temática genética
en la ciencia ficción es obviamente indiscutible, llegando además mediante el cine a conformar ideas al respecto
en una inmensa parte de la población. Esto puede ser ejemplificado con el siguiente listado de obras sobre la
cuestión:
En 1990 Michael Crichton escribe Parque Jurásico, novela en la que un acaudalado empresario recupera
ADN de dinosaurios a partir de mosquitos conservados en ámbar (en el cual realmente no se conserva) y crea un
zoo en el que se exhiben. Cómo no, se repite aquí el tópico según el cual al científico se le acaba yendo de las
manos su propia creación. En 1993 Steven Spielberg la llevará al cine, produciendo la película que por aquel
entonces consiguió las mayores ganacias de la historia (siéndole arrebatado el puesto en 1997 por Titanic) y de la
que nacen dos secuelas.
En 1996 se lleva de nuevo La isla del Doctor Moreau al cine, modificando la historia para que concuerde
con las nuevas teorías biológicas. Así se mantienen las pretensiones de la novela de basarse en la ciencia, pues si
un siglo después de ser escrita se elaborara una versión en la que se sigue hablando de cirugía e hipnotismo
estaríamos en un género más cercano al steampunk.
Pero la visión teológica clásica, repetida en la ciencia ficción desde Frankenstein o el moderno
Prometeo, no es la única. En 1997 se estrena Gattaca, la mayor crítica hecha hasta ahora al Proyecto Genoma
Humano mediante el lenguaje cinematográfico. En esta película se presenta un futuro cercano en el que la
humanidad está dividida en válidos (aquellos cuyos genes han sido artificialmente seleccionados) e inválidos
(hijos naturales), estando los trabajos de relevancia disponibles únicamente para los válidos. Además de esta
crítica a las posibles consecuencias sociales del control de los caracteres, se muestra escéptica acerca de la
163
ENERO
2012
La ideología en torno a la genética en la ciencia-ficción | Adrián J. Carbajales Terés
posibilidad de ejercer realmente este control: Vincent, el protagonista “inválido”, apuesta con su hermano válido
quién consigue nadar más lejos, lo que lleva a que su hermano se fatigue en exceso y muera ahogado. Aunque tal
sistema de selección se implantara no sería absolutamente determinable, pues hay factores que se escapan del
control del biólogo (no todo en el hombre es biología).
También nos encontramos con otras perspectivas, como el optimismo cientificista del positivismo. En el
videojuego de estrategia Civilization: Call to Power, una de las Maravillas que se puede producir es,
precisamente, el Proyecto Genoma Humano, al mismo nivel que Chichen Itza, la Academia de Confucio o el
Laboratorio de Edison. Sus efectos son los siguientes: la civilización que descodifique el Genoma recibe un
aumento del diez por ciento de la natalidad, y aumenta también la fuerza de sus unidades. A pesar del simplismo
necesario para formalizar en unas reglas básicas el efecto de las distintas Maravillas, la ingenuidad con la que se
plantea la cuestión es inexcusable.
Una cuestión reseñable aquí es la versión fílmica de X-Men (2000), que no cambia ni un ápice el
planteamiento de los cómics escritos cuarenta años antes, mostrando que su historia está más vigente que nunca,
mientras que Spider-Man (estrenada en el 2002, debido al retraso ocasionado por la decisión de sustituir las
escenas en las que apareciera el World Trade Center) cambia la picadura de una araña radiactiva, más propia de
los tiempos de la Guerra Fría, por la de una araña diseñada mediante ingeniería genética.
DESENCANTO Y ORIENTACIONES FUTURAS:
Con la llegada del final del Proyecto Genoma Humano y la falta de los resultados prácticos inmediatos
que se prometían, la ciencia ficción tiende a buscar inspiración en otros temas, centrándose en cuestiones que
comienzan a preocupar más al público, producto del Nuevo Orden Mundial existente tras el 11-S. Así se centran
en la tecnología aplicada a la detención preventiva (Minority Report, 2002), en las grandes catástrofes producidas
por enemigos externos, prestando atención a sus efectos en la población civil (la nueva versión de La guerra de
los mundos, 2005) o en el ecologismo (Wall-E, 2008, y Avatar, 2009). A su vez los nuevos juegos de la saga
Civilization olvidan el Proyecto Genoma Humano y se centran en la tecnología militar y la investigación espacial
(puede que por estar los autores desencantados ante la falta de aumento de la fuerza y la natalidad que creían
consecuencia de la secuenciación del ADN humano). Michael Crichton, autor que ya mencionamos por su obra
Parque Jurásico, escribe en 2006 la novela Next, mucho más crítica con los laboratorios de investigación genética
y las grandes corporaciones farmacéuticas, a las que se acusa de utilizar contínuamente argucias y vacíos legales
164
para imponer sus intereses, principalmente sus derechos de propiedad intelectual sobre los genes descubiertos.
Entonces ¿qué esperar en un futuro próximo de esta explotación de la biología en la ficción? Tal vez su
ENERO
2012
influencia vaya disipándose, como la de la radiactividad tras el fin de la Guerra Fría, y pronto la ciencia-ficción de
Adrián J. Carbajales Terés | La ideología en torno a la genética en la ciencia-ficción.
los años noventa resulte ingenua, o tal vez nuevos descubrimientos provoquen una nueva oleada de biologíaficción. Aunque en las artes siempre existan excepciones a la regla, podemos ver un fuerte vínculo entre el
desarrollo de éstas y de la sociedad, y como esperamos haya quedado claro en este breve ensayo, especialmente
entre la ciencia-ficción y el desarrollo de las ciencias.
BIBLIOGRAFÍA:
Crichton, M. (1990): Parque jurásico, Barcelona, Debolsillo, 2003.
Crichton, M. (2006): Next, Barcelona, Debolsillo, 2008.
Daniels, L. (1991): Marvel. Cinco fabulosas décadas de comics, Barcelona, Planeta-DeAgostini, 1996.
Huxley, A. (1932): Un mundo feliz, Barcelona, Plaza & Janés, 1999.
Luciano de Samósata: Relatos verídicos, en la recopilación Relatos fantásticos, Madrid, Alianza Editorial, 1998.
Shelley, M. (1818): Frankenstein o el moderno Prometeo, Madrid, Siruela, 2000.
Verne, J. (1865): De la Tierra a la Luna, Madrid, Edimat Libros, 2003.
Wells, H. G. (1896): La isla del doctor Moreau, Madrid, Anaya, 1990.
Wertham, Fredric (1954): Seduction of the Innocent, Main Road Books Inc, 1996.
FILMOGRAFÍA:
Avatar de James Cameron (2009), Twentieth Century Fox Film Corporation.
Gattaca de Andrew Niccol (1997), Columbia Pictures Corporation.
La guerra de los mundos de Steven Spielberg (2005), Paramount Pictures.
Minority Report de Steven Spielberg (2002), Twentieth Century Fox Film Corporation.
Parque Jurásico de Steven Spielberg (1993), Universal Pictures.
Spider-Man de Sam Raimi (2002), Columbia Pictures Corporation.
Wall-E de Andrew Stanton (2008), Pixar Animation Studios.
X-Men de Bryan Singer (2000), Twentieth Century Fox Film Corporation.
165
ENERO
2012
Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.
El genoma humano en el derecho de patentes. Rodrigo Cocina Díaz1 Resumen En este artículo se analiza brevemente el concepto legal de patente y su relación con los desarrollos tecnológicos derivados del estudio del genoma humano, tratando de examinar críticamente los fundamentos de la legislación vigente al respecto. Se concluye que las disposiciones legales sobre la patentabilidad de este tipo de desarrollos son muy problemáticas debido a la ambigüedad de los conceptos que manejan, el particular los relacionados con las condiciones de patentabilidad de las invenciones. 1
Nació en Luarca, Asturias, en 1984. Obtuvo el título de
Bachillerato en el I.E.S. Alfonso II de Oviedo en 2006 y desde
2011 es Licenciado en Filosofía por la Universidad de Oviedo.
Abstract This paper is a brief analysis of the legal concept of patent and its relationship with the technologies that the study of human genome makes possible, trying to do a critical exam of the basis of current laws about it. The conclusion is that legislation on the patentability of this technologies is highly problematic, due to the ambiguity of the concepts involved, in particular those related with the necessary conditions that a new invention must accomplish to be patentable. 167
ENERO
2012
Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.
El genoma humano en el derecho de patentes. Rodrigo Cocina Díaz2 Una de las problemáticas más recurrentes cuando se trata el tema del genoma humano es la relativa a las
condiciones bajo las cuales se puede considerar el conocimiento y las tecnologías derivadas de los estudios
genéticos como algo susceptible de ser patentado y de generar por tanto derechos de propiedad industrial. Para
abordar este tema trataremos brevemente los dos conceptos del título y sus posibles implicaciones, para luego
acercarnos a la problemática que puede generar su interacción.
El genoma humano.
El uso del término de origen griego “genoma” como concepto de la biología no es nuevo. Fue adoptado
por primera vez en 1920 por el botánico Hans Winkler. Hace referencia a la totalidad de la información hereditaria
de un organismo, incluyendo tanto los genes que contienen información necesaria para la síntesis de
macromoléculas, como el llamado ADN no codificante, cuyas funciones no han sido determinadas claramente.
Aunque el conocimiento del funcionamiento de los genes y las técnicas de manipulación genética basadas en él se
desarrollaron a lo largo del siglo XX (principalmente en la modificación de especies animales y vegetales
destinadas al consumo), es a finales del siglo cuando el concepto de genoma comienza a popularizarse entre el
público no especializado, debido al impacto mediático que supuso el llamado Proyecto Genoma Humano (en
adelante PGH), que trataba de elaborar un mapa prácticamente completo de la estructura genética de unos sujetos
de estudio. Sobre todo a partir de la publicación de los resultados del proyecto en las revistas Nature y Science, en
febrero de 2001, comenzó una oleada de especulaciones y expectativas más o menos realistas acerca de lo que
supondría el conocimiento de la secuencia genética humana y su posible manipulación. Desde posiciones
ingenuamente fisicalistas o simplemente propagandísticas, se insinuaba o incluso se afirmaba con rotundidad que la
ciencia había desvelado con el PGH la esencia de lo humano. También se afirmaba que con éste conocimiento la
humanidad podría trascender las arbitrariedades naturales de su herencia genética y se libraría de las enfermedades
y males asociados a ella. A su vez, surgieron desde diversos ámbitos temores y críticas a un conocimiento que se
presentaba como la última panacea científica. Éstas críticas normalmente iban referidas a las consecuencias
socialmente indeseables de la eugenesia a escala global, la clonación etc. En suma, el debate especulativo derivó en
algunos casos en problemas que, sin negarles su interés, podríamos llamar “de ciencia ficción”, ya que los
resultados del PGH por si mismos no dan pie a tales expectativas, que probablemente fueron en parte alimentadas
por los propios científicos interesados en que se diera a los proyectos derivados del PGH una importancia prioritaria
2
Nació en Luarca, Asturias, en 1984. Obtuvo el título de Bachillerato en el I.E.S. Alfonso II de Oviedo en 2006 y desde 2011 es Licenciado en
Filosofía por la Universidad de Oviedo.
169
ENERO
2012
El genoma humano en el derecho de patentes | Rodrigo Cocina Díaz
en la asignación de fondos públicos o inversiones privadas. Las aplicaciones prácticas del conocimiento derivado
del PGH no son, al menos por el momento, ni tantas ni de tanta importancia como se pretendía. Esto es debido tanto
a la falta de conocimiento específico sobre muchos de los factores que intervienen en el funcionamiento de la
codificación genética, como al poco desarrollo de instrumental técnico eficaz para la manipulación del genoma.
Tener una representación o un mapa de algo no implica conocer todos los entresijos del funcionamiento de aquello
que en él se representa, ni la libertad absoluta para su manipulación. Además, la genética no es el único factor que
afecta al desarrollo de un organismo, ya que los factores llamados ambientales en sentido amplio tienen gran
importancia.
Pese a éstas limitaciones, han ido surgiendo aplicaciones basadas en la información del genoma humano,
sobre todo en medicina preventiva, aunque también en otros ámbitos (“niños a la carta” etc.), aunque las terapias
génicas, basadas en lo introducción o extirpación de determinados genes en el paciente aún no están muy
desarrolladas. Son éste tipo de aplicaciones biotecnológicas las que se considera que pueden ser susceptibles de ser
patentadas, y no la secuenciación o mapa del genoma en bruto, que por sí sólo no tiene ninguna utilidad y fue
declarado por la UNESCO patrimonio de la humanidad. Ésto permitiría en principio que cualquier laboratorio
pueda utilizar la información del PGH para desarrollar y patentar conocimiento y tecnologías derivadas de ella.
También permite la utilización de la información del PGH por parte de empresas dedicadas a recopilar y ordenar
esta información para venderla una vez procesada. A continuación trataremos el concepto legal de patente para ver
cómo se han encajado las aplicaciones biotecnológicas en él.
El concepto legal de patente.
La patente es un derecho otorgado por el Estado o por una institución internacional a un inventor o un
titular secundario. Este derecho impide que terceros hagan uso de la invención patentada sin el consentimiento del
titular, que es libre de cederlo o comerciar con él. Una patente supone por tanto el monopolio en el uso de una
invención concedido por un tiempo limitado, que actualmente es de veinte años según las normas de la OMC. La
función socioeconómica que se atribuye al derecho de patente es la estimulación del desarrollo tecnológico por la
vía de la inversión privada con fines comerciales, haciendo que ésta resulte rentable para el inversor mediante la
concesión de un monopolio. Aunque también existe la opinión de que los monopolios de patentes lo que consiguen
es ralentizar el desarrollo tecnológico, ya que los inversores se limitarían a explotar sus patentes a veinte años y no
favorecerían nuevas vías de investigación que podrían entrar en competencia con las anteriores tecnologías.
Probablemente haya algo de cierto en ambas posturas.
170
En la generalidad de las legislaciones sobre patentes se establecen tres requisitos básicos para la
patentabilidad de un desarrollo tecnológico: la actividad inventiva, la novedad y la aplicabilidad industrial. Son tres
ENERO
2012
conceptos problemáticos que habrá que examinar críticamente si se pretende una perspectiva sobre el asunto que no
Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.
sea meramente legalista.
El criterio de patentabilidad que se maneja por lo general en las oficinas de patentes es similar. Aquí
examinaremos la legislación española al respecto, que por lo demás es bastante uniforme con la de otros países.
Según el artículo 4 de la ley 11/1986 de Patentes de Invención y Modelos de utilidad, que sigue vigente, “son
patentables las invenciones nuevas, que impliquen actividad inventiva y sean susceptibles de aplicación industrial,
aun cuando tengan por objeto un producto que esté compuesto o que contenga materia biológica, o un
procedimiento mediante el cual se produzca, transforme o utilice materia biológica.”
El concepto de actividad inventiva no está claramente especificado, y decir que es un requisito para la
invención patentable parece tautológico (la invención requiere de actividad inventiva). Si consultamos la web de la
Oficina Española de Patentes y Marcas (OEPM), parece que este requisito se asimila al de “novedad no obvia”:
“Para que una idea sea considerada una invención, al menos una parte significativa de su tecnología debe ser
completamente novedosa (es decir, nueva). No deben existir pruebas de que este aspecto novedoso de su idea se
haya descrito con anterioridad, ni se haya usado para el mismo fin. Una idea puede ser una invención si las
tecnologías existentes se combinan de forma novedosa, o se usan de una forma novedosa. Para ser considerada
una invención, una idea debe suponer una actividad inventiva. […] La actividad inventiva debe ser no-obvia, esto
es, que no se le ocurriría fácilmente a un experto en la tecnología correspondiente.”
Según esta oficina, el criterio de discernimiento de la invención novedosa requiere un examen del “estado
de la técnica”, es decir, comprobar que el desarrollo tecnológico aspirante a ser patentado no se haya utilizado con
anterioridad para el mismo fin, haya sido o no patentado o comercializado con anterioridad. También se requiere
que dicho desarrollo no sea obvio y que sirva a algún fin, que tenga alguna utilidad.
Se considera entonces que para que algo sea patentable, debe suponer una novedad respecto a lo anterior.
Pero el concepto de invención novedosa es oscuro, ya que parece remitir al concepto teológico de “creatio ex
nihilo”. En sentido absoluto, ninguna invención es novedosa, ya que todas ellas dependen de cursos históricos y
desarrollos precedentes, los cuales pueden ser ajenos al inventor. La novedad es por tanto un concepto relativo y
discutible. Añadir la condición de “no obvio” aclara poco la cuestión, máxime cuando se define según el criterio de
“que no se le ocurriría fácilmente a un experto en la tecnología correspondiente”. La facilidad es un criterio
subjetivo, que depende del conocimiento y las destrezas de que se disponga. Esto suscita varias cuestiones: ¿se
supone aquí un “experto” ideal que tenga el máximo de destrezas y conocimiento disponibles? ¿O se está hablando
más bien de un experto tipo, o mediocre? ¿A quién acudiremos para saber si algo es o no obvio? Si lo que se patenta
es una tecnología que antes no se conocía, ¿quién puede ser experto en ella? La mayoría de las invenciones resultan
obvias una vez que se conoce su funcionamiento, no hay en ellas un principio inefable que las haga
incomprensibles. Al examinar un desarrollo tecnológico novedoso y comprender su funcionamiento lo más
171
ENERO
2012
El genoma humano en el derecho de patentes | Rodrigo Cocina Díaz
probable es que resulte obvio, por lo que este criterio es de dudosa utilidad.
Detrás de estas ambigüedades lo que parece encontrarse es una idea metafísica del desarrollo tecnológico,
que pende de la suposición de un intelecto individual creativo que se manifiesta en algunas mentes, las cuales
adquieren el poder de crear novedades no obvias. Da la impresión que existe una arbitrariedad inherente en la
atribución personal e individual de la patente de un desarrollo tecnológico, que es entendido como un acto de
creación individual aislado, independiente de las condiciones sociales e históricas.
Otro aspecto problemático del concepto legal de invención es el requisito de que el desarrollo tecnológico
en cuestión sirva a algún fin, es decir, que tenga alguna utilidad o que satisfaga alguna necesidad. Pero la utilidad
no es algo unívoco, ya que las necesidades humanas no son invariables ni se pueden enumerar fácilmente, con la
excepción quizá de unas cuantas necesidades básicas. Es más, las invenciones no sólo producen la satisfacción de
necesidades, sino también a veces las necesidades mismas, que son un producto histórico y cultural. Por ejemplo, la
necesidad de ver televisión, reconocida en el momento en que el aparato se considera patentable, no precede a la
invención del mismo, sino que surge con él.
El requisito de aplicabilidad industrial no es en principio tan problemático como los anteriores, aunque en
relación con los desarrollos médicos tiene un estatuto legal que resulta llamativo por su aparente abitrariedad, ya
que según la ley 11/1986 de patentes, “no se considerarán como invenciones susceptibles de aplicación industrial
los métodos de tratamiento quirúrgico o terapéutico del cuerpo humano o animal ni los métodos de diagnóstico
aplicados al cuerpo humano o animal. Esta disposición no será aplicable a los productos, especialmente a las
sustancias o composiciones ni a las invenciones de aparatos o instrumentos para la puesta en práctica de tales
métodos”. Al parecer la ley española no contempla la patente de métodos de tratamiento médico, ya que no los
considera susceptibles de aplicación industrial. Considerar los métodos cómo previos y separables de los productos
no tiene mucho sentido. Parece que se considera el método como una entidad abstracta y formal, que no requiere de
condiciones materiales para su diseño y ejecución. No sólo las técnicas y el conocimiento teórico sistemático son
elementos conformadores de los métodos de tratamiento médico, también lo son los instrumentos y las sustancias
(entre otros factores), por lo que bien podrían considerarse no patentables. Pero esto neutralizaría el posible efecto
estimulador de las patentes en la investigación médica, que es en principio el campo más relevante al que pueden
contribuir las investigaciones derivadas del PGH.
Recapitulando lo anterior, podemos concluir que el concepto de invención patentable, pese a tener estatuto
172
legal efectivo, no es ni mucho menos un concepto claro y distinto. Por ello no es de extrañar que las disposiciones
legales relacionadas con las patentes puedan parecer en muchos casos arbitrarias, dado lo complejo del asunto.
Complejidad que es aún mayor en el caso de las patentes relacionadas con el genoma humano, que es lo que
ENERO
2012
trataremos a continuación.
Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.
La patentabilidad de los desarrollos del PGH.
Cómo hemos señalado, la condición de patentabilidad de una invención depende de los requisitos de
novedoso, útil y aplicable industrialmente. Teniendo en cuenta esto, patentables serían en principio todos aquellos
desarrollos biotecnológicos basados en el genoma humano que supongan una novedad y que se consideren de
utilidad, excluyendo los métodos con aplicaciones médicas que no se considerarían aplicaciones industriales.
Además, se excluyen en la ley citada “las invenciones cuya explotación comercial sea contraria al orden público o
a las buenas costumbres”. En relación a las biotecnologías humanas, se considera que están fuera de la ley y de la
ética, y por tanto no son patentebles, los siguientes usos (en el Artículo 5):
1) Los procedimientos de clonación de seres humanos.
2) Los procedimientos de modificación de la identidad genética germinal del ser humano.
3) Las utilizaciones de embriones humanos con fines industriales o comerciales.
4) El cuerpo humano, en los diferentes estadios de su constitución y desarrollo, así como el simple descubrimiento
de uno de sus elementos, incluida la secuencia o la secuencia parcial de un gen.
Sin embargo, en el mismo artículo, se señala que sí es patentable “un elemento aislado del cuerpo humano
u obtenido de otro modo mediante un procedimiento técnico, incluida la secuencia total o parcial de un gen aún en
el caso de que la estructura de dicho elemento sea idéntica a la de un elemento natural.”
Examinemos ahora estas precisiones legales y sus posibles razones.
La clonación de seres humanos es uno de los temas que más preocupación parece despertar en la sociedad,
como muestra la legislación vigente en España desde el año 1986, que excluye esta práctica cuando ni siquiera
estaba clara su posibilidad técnica. Esto no deja de ser curioso si consideramos que existen clones naturales (los
gemelos univitelinos) y que normalmente esto no se considera moralmente problemático. Recientemente se ha
legalizado explícitamente en España y otros países la llamada “clonación terapeútica”, es decir, aquella que no está
destinada a la producción de un organismo completo, sino a la de partes que funcionarían a modo trasplantes
diseñados a medida para el paciente. Aunque esta aplicación, al ser de tipo terapeútico, podría quedar excluida
como patentable. En cuanto a la clonación reproductiva de organismos humanos completos, está prohibida en la
mayoría de los países, aunque en algunos no existe legislación específica al respecto.
Las razones de esta prohibición explícita de la clonación reproductiva no están muy claras, aunque una de
ellas puede ser que el estatuto legal y moral de un clon artificial humano se considera problemático. Esto no puede
tener que ver con la artificialidad de su concepción, ya que a los niños fecundados “in vitro” no se les cuestionan su
173
ENERO
2012
El genoma humano en el derecho de patentes | Rodrigo Cocina Díaz
identidad y sus derechos. Puede que la razón tenga que ver con la consideración del genoma como lo esencial del
ser humano individual, o su principio constitutivo inalienable. Esta concepción conduce a la idea de que clonar a un
ser humano es acabar con su individualidad esencial, al duplicar su especificidad. Aquí se hace patente un
reduccionismo fisicalista, que no tiene en cuenta que en la constitución de un individuo intervienen muchos más
factores que su código genético, y que es imposible que dos individuos sean exactamente iguales sólo por que
compartan en mismo genoma. Están funcionando una naturalización y también una sacralización de la idea de
individuo. Desde un punto de vista práctico, y teniendo en cuenta que la falta de legislación en muchos países
posibilitaría legalmente la clonación reproductiva, parece que lo más sensato sería especificar legalmente que los
derechos de una persona concebida de forma natural son idénticos a los de una persona clonada, para tratar de
garantizar su dignidad en el caso de que la clonación sea llevada a cabo, ya sea por ausencia de legislación o
directamente de manera ilegal.
También es posible que la razón de la prohibición sea la posibilidad de usos de la clonación peligrosos para
el orden público. Pero según ese razonamiento se deberían prohibir gran parte de los desarrollos tecnológicos, ya
que muchos de ellos pueden utilizarse de esta manera, algunos de una forma mucho más clara que la clonación,
como por ejemplo las armas en general, que no por ello dejan de ser desarrolladas legalmente en muchos países que
prohíben la clonación. Parece que se estuviera pensando en la creación de un ejercito de clones o cuestiones
semejantes, que rozan el delirio.
La prohibición de los procedimientos de modificación de la identidad genética germinal del ser humano
implica que las terapias génicas se han de limitar a modificaciones que no sean transmisibles de una generación a
otra. La razón de esto también es difícil de comprender. Posiblemente esté relacionada con una sacralización del
“orden natural”, que el ser humano no debe alterar por las terribles consecuencias que supondría. Pero no hay
razones objetivas para pensar que una modificación transmisible a la siguiente generación va a desencadenar la ira
de la naturaleza. Una modificación limitada a un sólo individuo también es una alteración de un orden preexistente
y no se prohíbe. Esta ley institucionaliza la idea de separación entre naturaleza y cultura, prohibiendo que la técnica
se inmiscuya en los asuntos que pertenecen a la supuesta esencia de lo natural, al menos en lo tocante a la
naturaleza humana.
Como hemos visto, es legal patentar procedimientos para generar elementos aislados del cuerpo, que
pueden incluso ser idénticos a los naturales. Pero por otra parte podrían excluirse como patentables los desarrollos
terapeúticos si los consideramos inseparables de los métodos que los posibilitan. Además, es condición para la
174
concesión de una patente que la tecnología en cuestión tenga aplicación industrial. Según este razonamiento, los
desarrollos biotecnológicos humanos legales y patentables serían los que involucran la fabricación de partes del
cuerpo humanas que se utilicen en algún tipo de industria no médica. Es difícil imaginar que tipo de desarrollos
ENERO
2012
pueden cumplir estas condiciones.
Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.
En conclusión, parece que la legalidad y la patentabilidad de las tecnologías derivadas del conocimiento
del PGH es muy restringida. La ambigüedad y arbitrariedad del concepto de invención patentable propicia que se
legisle sobre el tema desde criterios poco consistentes, y las disposiciones vigentes parecen obedecer más a
prejuicios metafísicos y concepciones esencialistas sobre el ser humano que a criterios realistas o prácticos. Con
esto no queremos decir que deba ser legalizado por sistema todo desarrollo tecnológico a partir del PGH, pero sí
que quizá deban revisarse los criterios empleados a la hora de definir su estatuto legal.
Fuentes:
Horacio Rangel Ortiz, artículo El genoma humano y el derecho de patentes en Jurídica. Anuario del Departamento
de Derecho de la Universidad Iberoamericana, nº 31, 2001. Disponible en
http://www.juridicas.unam.mx/publica/librev/rev/jurid/cont/31/pr/pr0.pdf
Ingrid Brena Sesma y Carlos María Romeo Casabona, Código de Leyes sobre Genética (Tomo I), Comares, Bilbao,
1997. Disponible en http://www.bibliojuridica.org/libros/libro.htm?l=2292
Ley 11/1986, de 20 de marzo, de Patentes en Boletín Oficial del Estado
http://www.boe.es/aeboe/consultas/bases_datos/doc.php?id=BOE-A-1986-7900
Oficina Española de Patentes y Marcas
http://www.oepm.es
175
ENERO
2012
Ana Álvarez- Acevedo Martínez | ¿Juegan los genes algún papel en la guerra de género?
¿Juegan los genes algún papel en la guerra de género? Ana Álvarez‐ Acevedo Martínez1 Resumen El asunto de las diferencias entre los hombres y las mujeres tiene una gran importancia en nuestras sociedades. Las nuevas teorías sociológicas apuestan por una explicación naturalista de dichas diferencias y ello va a traer consigo una serie de consecuencias prácticas, como algunas controversias con autoras feministas o ciertos posicionamientos ante determinadas medidas como, por ejemplo, las leyes de paridad dentro del mundo laboral. Este breve artículo será una exposición meramente descriptiva de estos puntos de vista. 1
Nacida en León en mayo de 1988. Estudió el Bachillerato de
Ciencias de la Salud en el IES Padre Isla de la misma ciudad.
Licenciada en Filosofía por la Universidad de Oviedo en 2011,
actualmente está cursando el Master Universitario de Profesorado
de Enseñanza Secundaria, Bachillerato y Formación Profesional
en la misma Universidad de Oviedo.
Abstract The matter of the differences between man and women is of great importance in our societies. New sociological theories take a naturalist stance of the said differences which brings with it a series of practical consequences such as some controversies concerning feminist writers or certain attitudes in the face of certain measures such as the laws of equality in the labour market. This brief article will be a mere descriptive account of these points of views. 177
ENERO
2012
Ana Álvarez- Acevedo Martínez | ¿Juegan los genes algún papel en la guerra de género?
¿Juegan los genes algún papel en la guerra de género? Ana Álvarez‐ Acevedo Martínez2 I.- Introducción
Hace unos meses iba caminando por el Fnac echando un vistazo a los diferentes libros distribuidos por las
estanterías. Al pasar por la sección de psicología una serie de libritos llamaron mi atención. Se trataba de pequeños
escritos de Allan y Barbara Pease. En ellos, el matrimonio australiano parece recurrir a investigaciones científicas
para recalcar la diferencia entre los hombres y las mujeres. Sin embargo, no fue el contenido lo que llamó mi
atención, sino los títulos de los libros, tales como: Por qué los hombres no escuchan y las mujeres no entienden los
mapas, Por qué los hombres no se enteran y las mujeres necesitan siempre más zapatos o Por qué los hombres
quieren sexo y las mujeres necesitan amor.
Estos títulos no son más que una muestra de la generalidad con la que se tratan estos temas. Ambos sexos
son vistos como radicalmente opuestos y hay una tendencia a atribuir ciertos adjetivos a uno y a otro. Por ejemplo,
cuando hablamos de agresividad, fuerza, dominación, competitividad, promiscuidad, descaro, valor o temeridad
tendemos a atribuir estas características a los hombres y, en cambio, la belleza, la intuición, la delicadeza, el recato,
la vulnerabilidad, el sentimentalismo o la debilidad parece que cuadran mejor con el prototipo femenino.
Son numerosos los tópicos que abarcan la diferenciación de género, y no se reducen al ámbito del carácter,
sino que también se pueden asociar a otros ámbitos de la vida cotidiana: oficios, hobbies, vestimenta, conductas
sexuales… Estamos cansados de ver la típica imagen del hombre celebrando un gol frente a la mujer celebrando las
rebajas, el niño jugando con un camión y la niña con una muñeca. Parece que oficios como minero, mecánico pero
también científico o empresario son asociados más a los hombres y empleos como secretaria, enfermera o maestra
se asocian al género femenino. Tendemos a pensar que las mujeres trabajan mejor con personas y los hombres con
cosas. Al hombre le asociamos el gusto por el deporte, los coches, la electrónica…y a la mujer el gusto por la moda,
los encuentros sociales, la decoración…
En nuestra cultura están incrustados numerosos tópicos en torno al asunto de los hombres y las mujeres y
sus diferencias, ahora bien, ¿son meros tópicos o tienen una base real? Nadie puede negar que algunas diferencias
estén presentes, pero ¿son naturales o son una construcción social? ¿Dónde debemos buscar a la hora de
preguntarnos por su génesis, en la naturaleza o en la cultura?
A lo largo del siglo pasado, y sobre todo con la influencia de los puntos de vista feministas, parece que
quedaba superada la idea religiosa de que la diferenciación entre los dos sexos era una cosa natural y que el rol
2
Nacida en León en mayo de 1988. Estudió el Bachillerato de Ciencias de la Salud en el IES Padre Isla de la misma ciudad. Licenciada en
Filosofía por la Universidad de Oviedo en 2011, actualmente está cursando el Master Universitario de Profesorado de Enseñanza Secundaria,
Bachillerato y Formación Profesional en la misma Universidad de Oviedo.
179
ENERO
2012
¿Juegan los genes algún papel en la guerra de género? | Ana Álvarez- Acevedo Martínez
social de ambos era el que les correspondía dadas sus características innatas. Los tópicos que he señalado en los
párrafos anteriores son explicados desde un punto de vista cultural. A lo largo de los siglos nuestra cultura y
nuestras costumbres han determinado nuestra manera de actuar y nuestra manera de vernos a nosotros mismos. Las
mujeres no nacen con una tendencia hacia la moda o los hombres hacia la electrónica, dichos clichés no son más
que una construcción social arraigada en nuestra cultura.
Sin embargo, hace unos años han surgido una serie de teorías que apuestan por una interpretación
naturalista. Agotada ya la explicación religiosa de la naturaleza humana, sostienen que las diferencias biológicas
entre ambos sexos determinan las diferencias de pensamiento y acción. Estas diferentes teorías se engloban bajo
una nueva disciplina que está dando mucho que hablar: la sociobiología.
Numerosos autores ven en la sociobiología una nueva ciencia capaz de dar explicación empírica a las
diferencias entre hombres y mujeres mientras que otros piensan que más que un avance se trata de una regresión,
una excusa para que los roles de género permanezcan siempre presentes en nuestras sociedades.
Mi propósito en este escrito, lejos de cualquier tipo de posicionamiento por mi parte, es hacer una breve
exposición de la teoría sociobiológica enfocada hacia el asunto del género y afrontar un caso práctico desde esta
visión. Para ello, tendré que comenzar haciendo una descripción biológica básica de la diferenciación sexual.
II.- Biología.
El sustrato material que asegura la continuidad de los ciclos vitales está formado por las células
germinales. La línea germinal es la que conecta los ciclos vitales y lo hace a través de la reproducción. La
reproducción puede ser sexual o asexual. En el caso del ser humano la reproducción es sexual.
Hay tres tipos de reproducción sexual: la bisexual (entre dos individuos, cada uno con un tipo diferente de
gametos), el hermafroditismo (un individuo produce dos tipos diferentes de gametos, y la reproducción puede darse
mediante la autofecundación o mediante el cruce, que requiere dos individuos) y la partenogénesis (es
monogamética). El ser humano y el resto de mamíferos se reproducen bisexualmente, lo cuál requiere dos
parentales con dos tipos de gametos diferenciados que requieren a su vez órganos genitales diferenciales.
Estamos pues, trazando las líneas generales de lo que empieza a ser una diferenciación sexual entre
180
individuos de la misma especie. Existen dos vías de diferenciación sexual: la dependiente de factores ambientales y
la cromosómica.
ENERO
2012
Un ejemplo del primer caso serían los reptiles en los que la diferenciación sexual va a depender de la
Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.
temperatura. En las tortugas, los huevos desarrollados por debajo de los 28ºC van a dar lugar a machos y
prácticamente todos los desarrollados por encima de esta temperatura van a dar lugar a hembras. Esto implica que
los factores ambientales (por ejemplo los cambios climáticos) van a afectar mucho a este tipo de especies.
La diferenciación sexual cromosómica va a darse debido a que la fecundación se produce por la
combinación de cromosomas sexuales. En el caso de los mamíferos, como bien sabemos, los cromosomas sexuales
de las hembras son: XX y los de los machos son: XY.
Esta pasa por tres fases: la determinación (que es la decisión de cómo se pone en marcha un macho o una
hembra, ocurre en el momento de la fecundación cuando se combinan los elementos X e Y), la diferenciación
sexual primaria o gonadal (en la que hay una gónada primitiva no diferenciada que va a formar los conductos del
testículo o las células del óvulo) y por último la diferenciación sexual secundaria o fenotípica, que es dependiente
de las hormonas. Puede ocurrir, por tanto, que la determinación sexual fenotípica no se corresponda con la
genotípica. Esto ocurre en los denominados intersexos. Hay individuos cuya composición genética es una (por
ejemplo, un individuo con los cromosomas XX) pero en ella se han entrecruzado ciertos genes que hacen que se
segreguen hormonas responsables de que el individuo se desarrolle por la vía contraria (en este caso, que desarrolle
testículos, barba…).
Por lo tanto, la diferenciación de sexos es más compleja de lo que cabe esperar. Las hormonas juegan un
gran papel, y estas no solo influyen en la fisiología de un organismo sino que también influyen en su
comportamiento.
Podemos decir, por tanto, que la biología establece unos límites claros entre el sexo masculino y el
femenino (salvo en casos fronterizos, como los intersexos, que son muy poco frecuentes). Las hembras cuentan con
dos cromosomas X, mientras que el genotipo masculino es: XY.
El aparato reproductor de ambos es radicalmente diferente. Las gónadas femeninas (ovarios) producen los
óvulos. Los óvulos son las células más voluminosas del cuerpo humano y son las portadoras de la información
genética. Se forman de manera periódica en un proceso llamado ovulación, que es una de las fases del ciclo
menstrual. En el ser humano este ciclo dura aproximadamente veintiocho días y la ovulación tiene lugar hacia el día
catorce. Los pocos días próximos a la ovulación constituyen la fase fértil de la mujer. En cada ovulación solamente
se libera un óvulo. Una mujer puede esperar producir aproximadamente unos 400 óvulos a lo largo de su vida, de
los cuáles un máximo de 20 pueden convertirse en vida.
Sin embargo, las gónadas masculinas (los testículos) producen espermatozoides, que también son
portadores de información genética. Su tamaño es ínfimo en comparación con el de los óvulos (el óvulo humano es
181
ENERO
2012
¿Juegan los genes algún papel en la guerra de género? | Ana Álvarez- Acevedo Martínez
ochenta y cinco mil veces más grande que el espermatozoide humano), En el caso de los seres hombres, el volumen
promedio de semen de una eyaculación es de 1,5 a 5 ml y la densidad normal de los espermatozoides en el semen
varía de 50 a 150 millones por ml, por lo que cada eyaculación contiene entre 75 y 750 millones de
espermatozoides. Son los espermatozoides los que fecundan al óvulo para dar lugar al zigoto, y es la mujer la que
gesta en su interior al embrión hasta que da a luz y la que ha de amamantarlo posteriormente, lo cuál trae consigo
infinidad de consecuencias, su cuerpo dispone de mecanismos para llevar a cabo estas funciones, mecanismos que
con los que el hombre no cuenta.
Como hemos visto, anatómica y fisiológicamente el cuerpo del hombre es muy diferente al de la mujer.
Pero, ¿estas diferencias biológicas afectan a las conductas psicológicas y sociales de los individuos? ¿La forma del
cuerpo humano determina su pensamiento y su acción? Según la sociobiología las respuestas son afirmativas.
III.- Sociobiología.
La sociobiología es una disciplina que da una explicación natural al comportamiento humano. Para
entender este punto de vista hay que tener en cuenta ciertos presupuestos. Desde la sociobiología, los seres
humanos somos seres moldeados por la selección natural. Durante 90% de nuestra historia evolutiva, hemos vivido
organizados en bandas de cazadores-recolectores, luego, la selección natural ha actuado sobre la especie
favoreciendo la supervivencia de sus individuos bajo estas condiciones. Lo que podríamos denominar “historia
cultural” del ser humano ha trastocado de manera radical el medio bajo el cual este habita, pero dados los propios
mecanismos de la evolución no se puede hablar de “evolución cultural”. Nuestras disposiciones genéticas
responden a la adaptación a un medio distinto del que vivimos, pero ello no hace que estas disposiciones genéticas
desaparezcan. Estos principios son aplicables y aplicados al tema de este artículo.
Pues bien, en todas las sociedades hay una fuerte diferenciación entre lo masculino y lo femenino y esto es
innegable. Ignorar el género sería ignorar una parte de la condición humana (Steven Pinker, 2003), las diferencias
entre hombres y mujeres afectan a todos los aspectos de nuestra vida. Pero, ¿por qué se dan estas diferencias? Por lo
general, la respuesta a esta pregunta no proviene de ninguna instancia cultural, aunque lo que sí que es cultural son
las manifestaciones de estas diferencias en las distintas sociedades y las distintas épocas (por ejemplo, la forma de
peinarse o la forma de vestir). Sin embargo, en la base de estas manifestaciones culturales, hay diferencias
biológicas que la genética y la teoría de la evolución sí pueden explicar.
182
La especialización sexual es el fundamento biológico de la diferencia. Las consecuencias del diformismo
gamético se extienden a toda la biología y a toda la psicología. Como hemos visto en el apartado anterior, un óvulo
es grande y costoso, es algo preciado, una inversión a proteger por parte de la mujer. Sin embargo los
ENERO
2012
espermatozoides son pequeños y baratos, la inversión es mínima. Esto trae consigo consecuencias inmediatas.
Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.
El macho puede permitirse derrochar sus espermatozoides. El macho puede inseminar a varias hembras
solamente si impide que otros machos lo hagan. Por tanto, los machos compiten entre ellos. La estrategia es
diferente en el caso de las hembras. Estas protegen celosamente su gran inversión. Dado que cada óvulo puede ser
inseminado solo una vez, va a ser un solo macho el que lo consiga, por lo que la hembra no compite sino que elige.
Este conflicto de intereses entre los sexos es una propiedad de la mayoría de las especies animales. Debido a que las
presiones adaptativas en ambos casos son diferentes, su evolución es diferente.
Estas diferencias biológicas tienen otras consecuencias. En casi todos los mamíferos en general y
sobretodo en casi todos los primates, la gestación y la cría son casi exclusivas de las hembras, hecho que es
totalmente comprensible si tenemos en cuenta que un macho nunca puede estar seguro de que la cría sea
descendiente suyo y dado que el desarrollo del feto se produce en el interior de la madre y a costa de su organismo.
El macho poco puede hacer al respecto. Además, un macho siempre puede abandonar a la cría o a la hembra
mientras que esta no puede abandonar al feto mientras está en su interior.
Sin embargo, en los casos en los que la prole sea vulnerable sin la presencia del padre y que exista la
posibilidad de aprovisionar a la prole con alimentos concentrados se produce un cambio de las reglas, puesto que
las hembras no se limitarán a elegir al macho sino que también competirán por el que esté dispuesto a una mayor
cooperación o a suministrarle mayores recursos.
El cambio de reglas afecta también al macho, cuyos celos no se dirigen solo a los otros machos sino
también a las hembras. Este tiene que asegurarse de no invertir en una progenie que no sea la suya, por lo que
estrategias como la actividad sexual constante, el acoso, la persecución, la vigilancia… se convierten en efectivas.
Cualquier gen que predispusiera a un macho a ser burlado o a una hembra a recibir menos ayuda por su parte
hubiera sido eliminado rápidamente, sin embargo, cualquier gen que hubiera permitido dejar a más hembras
embarazadas por parte del macho sería dominante.
En el caso de los seres humanos ocurre lo mismo. Somos mamíferos y la inversión de la mujer (óvulo)
siempre es mucho mayor que la del hombre (espermatozoide), además las crías humanas requieren numerosos
cuidados por lo que es latente la importancia de la ayuda del padre a la hora de la cría de sus hijos.
Una vez desarrollada esta teoría, volvamos a los tópicos mencionados en la introducción. Desde este nuevo
punto de vista, podemos cuestionarnos lo siguiente: ¿se puede dar una explicación natural a dichas características
atribuibles a los diferentes sexos o por el contrario son solo clichés culturales? Como ejemplo ilustrativo mentaré
alguno de ellos:
- La agresividad masculina: Un macho puede aparearse con muchas hembras evitando que otros lo hagan,
183
ENERO
2012
¿Juegan los genes algún papel en la guerra de género? | Ana Álvarez- Acevedo Martínez
por ello los machos tienen que competir. Los más fuertes y agresivos se reproducirán más, transmitiendo
sus genes rápidamente. Las hembras son las portadoras de la mayor inversión, estas no han de competir en
tal medida. Las más agresivas no se aparearán más que las menos agresivas. La agresividad no pertenecerá
privilegiadamente al género femenino.
- La promiscuidad: La estrategia de un macho para aumentar su descendencia es procrear tanto como
pueda al tiempo que cuida al menos de parte de su prole aumentando sus posibilidades de sobrevivir. La
promiscuidad masculina es favorecida por la selección natural. Las hembras no aumentan su prole por
aumentar su número de relaciones sexuales. Una hembra siempre contará con pretendientes, de los que
solo uno inseminará su óvulo, luego la selección natural no favorecerá la promiscuidad de las hembras,
sino su selectividad, la justa valoración de sus pretendientes.
- La dominación: Los machos humanos participan del cuidado de los hijos. Por tanto, genéticamente han
desarrollado mecanismos para no ser burlados, para no invertir en otra progenie que la suya: preocupación
por las actividades de la hembra, por su localización, por su actitud frente a otros machos. Puesto que los
machos invierten, las hembras compiten por los mejores machos (pero en mucha menor medida). Por ello
las hembras serán también celosas, pero de otro modo: la razón no es evitar la procreación del macho con
otras hembras, sino que este dedique sus esfuerzos a proteger otra prole diferente.
Esta visión de las diferencias de género incomoda a mucha gente dado que vuelve a apelar a la naturaleza
para explicar las diferencias de género. El género femenino ha sufrido a lo largo de los años cierta dominación que
ha sido justificada precisamente por la disposición natural de cada uno. Los hombres son más aptos por naturaleza
para realizar ciertas actividades (por ejemplo las deportivas) mientras que las mujeres por naturaleza son más aptas
para otro tipo de tareas (por ejemplo las domésticas). Sin embargo, los datos aportados por la sociología son
meramente informativos. En un principio, esta disciplina no entra en las implicaciones morales que dichos datos
puedan tener. El que alguien tenga cierta tendencia agresiva no justifica las conductas agresivas.
Además, hay que decir, llegados a este punto, que la posibilidad de que los hombres y las mujeres sean
psicológicamente distintos no implica que unos u otros deban ser discriminados por ello. Diferencia no implica
desigualdad.
La neurocienca, la genética, la psicología y la etnografía documentan unas diferencias de sexo que casi con
184
toda seguridad tienen su origen en la biología humana, pero estas diferencias no tienen por qué desembocar en
diferencias ético-políticas. Es más, la igualdad ético-política no solo no está reñida con lo dicho sino que puede
hallar su sustento en ello (como veremos en el ejemplo práctico).
ENERO
2012
Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.
IV.- ¿Sociobiología versus feminismo?
Es de saber, que hasta aproximadamente los años sesenta3, el estatus de la mujer en nuestras sociedades
dejaba mucho que desear. Sus disposiciones sociales eran limitadas puesto que se las consideraba como
subordinadas a los hombres. Las mujeres eran vistas como madres y amas de casa y estaban sometidas a la
discriminación por parte del sexo opuesto. Su liberación ha sido uno de los mayores logros del siglo pasado. Dicho
logro puede atribuirse a la ideología que se respiraba a principios de siglo, ideología que condujo a la abolición de
la esclavitud, las luchas en contra del racismo… Las minorías sociales empezaban a tener voz, y una de estas eran
las mujeres. Además, los avances tecnológicos permitieron que la cría de los hijos no fuera de dedicación exclusiva
para sus madres, estas empezaron a contar con ciertas comodidades las cuáles permitieron que la división de
trabajos entre el hombre y la mujer a la hora de cuidar y educar a los hijos no fuera tan tajante. Pero, sin lugar a
dudas, el feminismo es la principal causa de la liberación y progreso de las mujeres.
La primera ola de feminismo surgió a mediados del siglo XIX y duró hasta los años veinte del siglo
pasado, cuando las mujeres consiguieron en EEUU el derecho a voto. Sin embargo, fue la segunda ola, la que
floreció en los años sesenta, la que desveló la discriminación sexista en las empresas, el trabajo y otras
instituciones. Uno de sus mayores méritos, fue sacar a la luz problemas que parecían de ámbito privado (como la
división del trabajo del hogar o la violencia de género) y convertirlos en problemas de carácter público.
Parece que las visiones feministas son radicalmente opuestas a los principios de la sociobiología. ¿Por qué
todos los hombres nacen libres y todas las mujeres nacen esclavas? La explicación de la mayoría de las feministas
es de corte marxista o posmoderno. La superioridad masculina es solo una adquisición cultural que hemos de
desechar, y solo así la mujer podrá emanciparse. Hasta que no dejemos de dar a nuestras niñas muñecas o cocinitas
para que jueguen, estas no se darán cuenta de que son igual de capaces que los hombres para realizar cualquier
actividad y no tienen por qué dedicarse exclusivamente a las labores domésticas.
Se cree que el feminismo se opone a las ciencias de la naturaleza humana. Hay quien sostiene que las
creencias que sostienen numerosos científicos acerca de que el cerebro de los hombres y las mujeres difieren desde
el momento en el que nacen, se han utilizado durante mucho tiempo para justificar el trato desigual hacia las
mujeres. Esta idea está muy extendida, sin embargo, hay que hacer un par de aclaraciones al respecto.
En primer lugar, el feminismo es un movimiento que, lejos de ser una ideología homogénea, engloba un
conjunto de corrientes muy diversas, por lo que es más correcto hablar de “feminismos” que de “feminismo”.
185
3
Por supuesto la época varía mucho dependiendo de las diferentes sociedades. Los sesenta son remarcables por el surgimiento de los
movimientos feministas en EEUU que se extendieron al resto de Occidente.
ENERO
2012
¿Juegan los genes algún papel en la guerra de género? | Ana Álvarez- Acevedo Martínez
La filósofa Christina Hoff Sommers hace una distinción entre dos escuelas de feminismo que en el caso
que nos compete resulta muy útil, y que Peter Singer no duda en reseñar para ilustrar contra qué tipo de feminismo
irían las teorías sociobiológicas.
Pues bien, se puede hablar de feminismo de la igualdad que es el que combate las injusticias ligadas a la
discriminación entre sexos. Dicho feminismo fue el que guió la primera ola y lanzó la segunda. Este tipo de
feminismo se situaría en el ámbito de la moral y, sin meterse en cuestiones empíricas relacionadas con la psicología
o con la biología, defiende una igualdad de trato y de derechos para los hombres y las mujeres.
En cambio, es el llamado feminismo de género el que es más notorio y conocido, Aboga por las
explicaciones de corte cultural para criticar la dominación que ejercen los hombres sobre el género femenino, los
bebés se transforman después de su nacimiento en las personalidades de género de macho y hembra, una de las
cuales va a esclavizar a la otra. Las diferencias entre hombres y mujeres, desde este punto de vista, no tienen nada
que ver con la biología sino que son construcciones sociales. Además, la única motivación social del ser humano es
el poder y la sociedad solo puede ser entendida en estos términos. Este juego de poder no se da a escala individual
sino que se da entre grupos sociales, así, en este caso, es el grupo masculino el que ejerce el poder sobre el grupo
femenino,
Claramente se puede ver a qué tipo de autoras irritan las nuevas teorías naturalistas como las de Pinker.
Ello no implica que la sociobiología sea contradictoria con el feminismo o apoye la discriminación entre sexos
puesto que, ni el feminismo de género representa a toda la corriente feminista, ni mucho menos representa a todas
las mujeres.
Donna J. Haraway es un claro ejemplo de feminismo de género. La autora sostiene que la ciencia se ocupa
del conocimiento y del poder. Para ella, hoy en día, la ciencia natural define el lugar del ser humano en la
naturaleza. Las ciencias naturales, al construir una idea de naturaleza, ponen límites a la historia y a la formación
personal. La sociobiología, en este caso, es la ciencia de la reproducción capitalista por excelencia. Con E. O.
Wilson (autor al que se considera padre de la sociobiología), la biología ha pasado de ser una ciencia de organismos
sexuales a ser una ciencia de ensamblajes genéticos reproductores según Haraway. Antes de la Segunda Guerra
Mundial, la psicología evolutiva se centraba en la idea de evolución ignorando la idea de las poblaciones, se
utilizaba la genética para dar cuenta de las capacidades individuales. Sin embargo, la revolución de las
comunicaciones posteriores cambió la estrategia del control desde el organismo al sistema, del individuo al grupo
186
social. Y la mejor manera de ejercer esa dominación es mediante el concepto de selección natural, El grupo no actúa
como un superorganismo, análogo a un individuo, sino que el cálculo genético de la sociobiología se refiere a la
estrategia de maximización de genes y las combinaciones de estos. El gen se convierte en una suerte de noúmeno
ENERO
2012
para estos autores. Los genes son máquinas de conducta. El sexismo aparece en la racionalización de los papeles
Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.
sexuales, que es algo que está predispuesto genéticamente.
Hay una clara colisión entre este feminismo y la ciencia. Hay autores afines a la sociobiología que
sostienen que precisamente este tipo de conclusiones hacen que un gran número de mujeres no se consideren
feministas. Pero, ¿por qué se tiene tanto miedo a afirmar que las mentes de los hombres y de las mujeres no son
iguales? El temor apunta realmente a que la diferencia implique desigualdad. Pero esto desde una perspectiva
genética es insostenible porque, en realidad, estar en el cuerpo del macho o estar en el de la hembra son ambas
buenas estrategias, ambos cuerpos son diseños biológicos igualmente aptos y con la misma eficacia para la
supervivencia. El macho tiene las mejores adaptaciones para tratar los problemas del macho y la hembra para tratar
los de la hembra. Además, muchos de los rasgos psicológicos que con relevantes para el ámbito público (como
pueden ser la inteligencia) son iguales en términos medios para los hombres y para las mujeres. Ideas como las de
“papel adecuado” o “lugar natural” dentro de la sociedad no tienen sentido científico, como muchas feministas de la
diferencia creen, y no pueden servir como razón para restringir la libertad de ninguno de los sexos.
Como ya he señalado anteriormente, esta visión no implica que no haya diferencias de sexo que no tengan
que ver con la biología, pero no todas estas diferencias son atribuibles a construcciones sociales. Los sociobiólogos
dan una serie de argumentos basados en observaciones empíricas que refutan la idea de que la diferenciación sexual
es una característica arbitraria de nuestra cultura. Enumeraré algunos de ellos:
- En primer lugar, en todas las culturas (y no solo en la occidental) se considera que hombres y mujeres
tienen naturalezas distintas, y en todas hay una división del trabajo en función del sexo.
- Además, las diferencias psicológicas entre ambos sexos son las que supondría un psicólogo evolutivo si
solo conociera la anatomía y la fisiología. Las diferencias físicas, en el reino animal, en mayor o menor
medida, marcan una serie de diferencias en el modo de actuación (como he señalado en el punto III.).
Muchas de estas diferencias se encuentran en otros primates y mamíferos, no son exclusivas del ser
humano.
- Genetistas han descubierto que la diversidad del ADN en la mitocondria de las diferentes personas (que
ambos sexos heredan de la madre) es mucho mayor que la diversidad de ADN en los cromosomas Y (que
los hombres heredan del padre) lo cuál indica que durante muchos años los hombres tuvieron una mayor
variación en su éxito reproductor que las mujeres. Algunos hombres tenían muchos descendientes y otros
ninguno. Estas son las condiciones que causan la selección sexual, en la que los hombres compiten por
oportunidades para aparearse mientras las hembras eligen a los de mejor calidad.
- Uno de los mecanismos del cuerpo humano causa que los cerebros de los niños y de las niñas se separen
187
ENERO
2012
¿Juegan los genes algún papel en la guerra de género? | Ana Álvarez- Acevedo Martínez
durante el desarrollo. Las hormonas son los catalizadores que dan el pistoletazo de salida a las diferencias
de género dinámicas (Susan Pinker, 2008). El cromosoma Y va a segregar una serie de hormonas
característicamente masculinas (andrógenos) que influirán a lo largo de la vida del chico al igual que van a
influir las femeninas (estrógenos) en la vida de las chicas. Las hormonas son muy importantes, la variación
del nivel de testosterona en los hombres guarda relación con la libido, la autoconfianza y el sentimiento de
dominación. El estado psicológico de la persona puede afectar a los niveles de testosterona y viceversa y
parece que esta relación es causal (por ejemplo, a las mujeres que quieren realizarse un cambio de sexo,
cuando se les suministra testosterona, mejoran en tests de rotación mental y empeoran en los de fluidez
mental). Los andrógenos tienen efectos permanentes en el cerebro en desarrollo, pero solo pasajeros en el
cerebro del adulto. En el caso femenino, la fuerza y la debilidad cognitivas de las mujeres varían según la
fase de su ciclo menstrual.
- Si tomáramos un bebé varón y le hiciéramos un cambio de sexo haciendo que sus padres le educaran
como si fuera una chica, la balanza favorecería a la explicación social si el niño tuviera la mente de una
niña normal y se decantaría por la explicación biológica si el niño se sintiera atrapado en un cuerpo que no
le corresponde. Pues bien, este experimento se ha realizado en la vida real con niños que nacieron sin pene
y recibieron una educación orientada al género femenino. Todos los niños mostraron tener actitudes e
intereses típicamente masculinos.
- Las personas afectadas por el síndrome de Turner (un caso de intersexo) tienen solo un cromosoma X.
Estas personas actúan como mujeres y parecen mujeres dado que el plano corporal por defecto entre los
mamíferos es el femenino. Las mujeres con este síndrome difieren psicológicamente en función de si
recibieron el cromosoma X de la madre o del padre.
- Por último, cabe decir que hoy en día en numerosas sociedades avanzadas, la educación y el trato que
reciben los niños y las niñas por parte de sus padres no es diferente y sin embargo las diferencias entre los
sexos existen. Tampoco se puede pensar que estas diferencias provienen de que observen la
“masculinidad” en las conductas de los padres y la “feminidad” en la de las madres (existen parejas de
homosexuales criando a niños que actúan como el resto).
Debido a este tipo de observaciones, parece ilícito pensar que la única diferencia entre chicos y chicas se
encuentra en sus genitales y que, por lo demás, son idénticos. Muchas diferencias de sexo pueden tener raíz
188
biológica, pero esto no implica la superioridad de un sexo sobre otro, o que las diferencias se produzcan en todas las
personas y en todas las circunstancias, puesto que existen grandes disparidades entre los sujetos individuales. No
está justificada la discriminación de una persona basada en el sexo ni que esta se vea obligada a hacer las cosas
ENERO
2012
típicas de su sexo.
Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.
Sin embargo, sería muy ingenuo que estos desajustes no tengan consecuencias. En el siguiente apartado se
verá como este asunto está inmiscuido en nuestras prácticas sociales. El ejemplo práctico es el de las políticas de
paridad de género relacionadas con la diferenciación sexual en el terreno laboral.
V.- El mundo laboral y el género.
Unas de las principales injusticias a las que se enfrentan las mujeres hoy en día es a la brecha de género en
los salarios y a lo que se denomina “techo de cristal” que impide que las mujeres asciendan a puestos de poder en
sus trabajos. Un hecho destacable es que, pese a que las chicas conforman más de la mitad de los alumnos
universitarios (y más o menos la mitad de los alumnos especializados en ciencia), es difícil ver a una mujer en un
alto cargo y estas son menos del 20% de la población activa en el campo de la ciencia. Se puede decir que la
diversidad en el mundo laboral no es un hecho dentro de nuestras sociedades. La visión general acerca del asunto
apunta a que todo desajuste estadístico del número de hombres y de mujeres en el trabajo o en sus ingresos apunta a
un prejuicio de género.
Numerosas medidas políticas y económicas se han desarrollado en esta dirección, bajo el supuesto de que
la única manera de paliar este desequilibrio es mediante la garantía de que en todo trabajo y en todo campo la
división entre hombres y mujeres sea “mitad y mitad”. Así se justificaría paridad de género como medida de justicia
social.
Sin embargo, hay un problema en este tipo de análisis y es que la desigualdad en el resultado no se puede
aducir como prueba de la desigualdad de oportunidades, al menos que los grupos que se comparen sean idénticos en
todos sus aspectos psicológicos, pero ya hemos visto que esto no es así. Hay una interpretación acerca de por qué
se produce la brecha de género que es más acorde a la verdadera naturaleza humana y que defiende en todo
momento el trato justo hacia las mujeres y la igualdad de oportunidades proponiendo remedios más efectivos para
la desigualdad de género en el trabajo.
La cuestión a tratar en este punto no es si las mujeres están más o menos cualificadas para ser científicas o
ocupar grandes cargos en empresas, puesto que la respuesta va a ser que unas sí y otras no, La cuestión a tratar es si
las proporciones de hombres y mujeres cualificados han de ser o no idénticas.
Dadas las pruebas (algunas biológicas, otras culturales y otras mixtas) de las diferencias de género no es de
extrañar que la distribución de virtudes y defectos (dominio del lenguaje, ansia de superación, competitividad,
estrés…) entre hombres y mujeres no sea idéntico. Así, si asociamos la distribución de rasgos de cada persona con
la distribución de demandas de empleo, es casi imposible que el porcentaje de hombres y de mujeres en cada
189
ENERO
2012
¿Juegan los genes algún papel en la guerra de género? | Ana Álvarez- Acevedo Martínez
profesión sea idéntico. Si una sociedad, como las sociedades en las que vivimos, ofrece más trabajos de alta
remuneración que requieren virtudes típicamente masculinas, es posible que los hombres se vean beneficiados por
ello. Hoy en día la brecha favorece a los hombres. Esto no implica que no haya ambos sexos en todos los tipos de
trabajo pero las cantidades serán diferentes. No todas las diferencias de sexo en las profesiones están causadas por
barreras discriminatorias.
En muchas profesiones, las diferencias de habilidad pueden desempeñar cierto papel. Las mujeres tienen
más habilidades sociales y comunicativas que los hombres y también saben calcular mejor el impacto que tienen
sus palabras y sus acciones sobre los demás. Los hombres, en cambio, tienen mayores habilidades a la hora de
manipular mentalmente objetos tridimensionales. Esto basta para dar cuenta de que no haya un 50% de
representantes de ambos sexos en cada tipo de trabajo.
Otro factor que puede situar a los sexos en trayectorias laborales distintas es sin duda las preferencias de
cada uno. Susan Pinker, psicóloga evolutiva, analizó a pacientes con problemas en su infancia que luego resultaron
ser personas con una carrera exitosa. La autora destaca las diferencias de género en su estudio. A través de historias
de mujeres y hombres reales, llegó a la conclusión de que en la infancia hay una diferencia entre las capacidades de
los niños y de las niñas, académicamente hablando, y esta diferencia es favorable para el género femenino, No
obstante, la diferencia se invierte si nos fijamos en los resultados posteriores a la hora de ocupar puestos de trabajo
de alta remuneración y de alto poder. Se dio cuenta de que muchas mujeres escogen profesiones en las que la
experiencia (la interacción, la enseñanza, el apoyo psicológico) es un fin en sí misma. Acaban ganando menos que
los hombres y escogen trabajos que les permiten combinar la carrera profesional con la vida familiar. Al tomar estas
decisiones, las mujeres parecen otorgar menos peso al valor de mercado de sus elecciones y más a otros factores,
como la flexibilidad, la satisfacción laboral o la diversión. Como promedio, los hombres dan más importancia a su
estatus, su salario y su riqueza y están dispuestos a trabajar más horas y sacrificar otras partes de su vida.
Las madres, por ejemplo, están más unidas a sus hijos que los padres. Así ocurre en todas las sociedades
del mundo y así puede decirse que ha ocurrido desde que se desarrollaron los primeros mamíferos. De este modo,
aunque los dos sexos valoran el trabajo y valoran a los hijos, el diferente peso que le dan al valor puede llevar a las
mujeres, más a menudo que a los hombres, a tomar decisiones profesionales que les permitan estar más tiempo con
sus hijos.
Por tanto, la igualdad de oportunidades para los hombres y las mujeres no tiene por qué conducir a un
190
resultado matemáticamente idéntico a la hora de desempañar ciertos trabajos. La proporción de géneros al 50% no
existe en ningún sitio. En general, las economías más ricas suelen presentar mayores diferencias entre las
disciplinas que escogen las mujeres y las que escogen los hombres. Las políticas que garantizan la igualdad de
ENERO
2012
oportunidades, uno de los principios básicos de la democracia, no garantizan la igualdad de resultados.
Rodrigo Cocina Díaz | El genoma humano en el derecho de patentes.
Esto no implica que la discriminación sexual haya desaparecido ni mucho menos que esta esté justificada,
lo que ocurre es que las brechas de género en sí mismas nada dicen acerca de ella.
Las políticas de paridad cuyo objetivo es la igualdad de resultados tienen ciertas ventajas, como que
pueden ser capaces de neutralizar la discriminación que aún existe contra las mujeres, pero tienen también ciertos
costes. Uno de los costes más importantes es la ineficacia, puesto que esta se puede derivar del hecho de que las
decisiones de empleo no se basan en el ajuste entre las exigencias de un trabajo y los rasgos de la persona sino que
se basan en otros factores (el sexo). Lo paradójico del asunto es que ciertos de estos costes son perjudiciales para
las mujeres, por ejemplo, el hecho de que se de una oportunidad a una mujer solo porque es una mujer hace que
todo el mundo se cuestione el que esta esté donde esté.
Si los niños y las niñas son, en general, distintos biológica y evolutivamente ya desde el principio, ¿no es
lógico pensar que estas diferencias afectarán más adelante a la hora de escoger? El hombre y la mujer no son
simétricos o iguales, no son intercambiables, y el reconocer que existan diferencias de género no implica la
discriminación por parte de uno hacia el otro.
Este reconocimiento no implica que las mujeres tengan que carecer de oportunidades que se les ofrecen a
los hombres dentro del mercado laboral. Es más, nos puede servir para justificar ciertas políticas de protección de la
mujer. Por ejemplo, si somos conscientes del hecho biológico de que las mujeres son las que tienen que dar a luz y
amamantar a sus hijos, somos conscientes de la necesidad de medidas como las bajas por maternidad, las
subvenciones para el cuidado de los hijos…
Además, son los hombres y las mujeres, y no el sexo masculino ni el femenino, quienes
prosperan o sufren, y son estos los que están dotados de unos cerebros que les dan valores y una
capacidad para tomar decisiones. Estas decisiones han de ser respetadas. La paridad de género como
medida de justicia social impide en muchos casos que mujeres y hombres realicen el trabajo que
más les guste, si las mujeres deciden ser maestras y no ingenieras, ¿por qué hemos de obligarlas a
que realicen ambos trabajos?
Desde el punto de vista de la sociobiología, existen diferencias de sexo innegables y estas tienen un
correlato biológico y no solo cultural. Estas no pueden ser utilizadas para justificar políticas discriminatorias pero
tampoco se puede intimidar a las mujeres y hombres para que hagan algo que no quieren hacer. La igualdad de
derechos y oportunidades es innegable, pero esta igualdad no implica igualdad de resultados. Hombres y mujeres,
para bien o para mal, no son intercambiables.
191
ENERO
2012
¿Juegan los genes algún papel en la guerra de género? | Ana Álvarez- Acevedo Martínez
VI.- Bibliografía
HARAWAY, Donna J., Ciencia, cyborgs y mujeres. La reinvención de la naturaleza, Madrid, Ediciones Cátedra SA,
1995.
MOYES, Cristopher D., SCHULTE, Patricia M., Principios de Fisiología Animal, Madrid, Pearson Educación SA,
2007.
PINKER, Steven, Cómo funciona la mente, Barcelona, Ediciones Destino SA, 2001.
PINKER, Steven, La tabla rasa. La negación moderna de la naturaleza humana, Barcelona, Ediciones Paidós
Ibérica SA, 2003.
PINKER, Susan, La paradoja sexual. De mujeres, hombres y la verdadera frontera de género, Barcelona, Ediciones
Paidós Ibérica SA, 2009.
WILSON, Edward O., Sobre la naturaleza humana, México, Fondo de Cultura Económica, 1980.
192
ENERO
2012
Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?
La biología molecular: ¿revolución o cierre? Alberto Hidalgo Tuñón Universidad de Oviedo Resumen El surgimiento de la biología molecular en la frontera que separa la teoría genética y la bioquímica constituye un buen banco de pruebas para distintas estrategias metacientíficas. El teoreticismo de las revoluciones científicas de Thomas S. Kuhn propende hacia un constructivismo social que no sirve para dar cuenta de la posible verdad y corrección del teorema de la doble hélice. El enfoque semántico (desarrollado por J. Sneed, W. Stegmüller, U Moulines, etc.), aunque pretende adecuar sus análisis a los contenidos estructurales y al significado de los teoremas científicos, acaba disolviendo éstos en meras correspondencias formales. La teoría del cierre categorial, en cambio, se adscribe a un constructivismo circularista que permite entender los dogmas sobre la estructura del ADN como si fueran identidades sintéticas materiales sin desdeñar por ello los aspectos pragmáticos, históricos y sociales, que valoran en su justa medida las aportaciones del grupo Fago, de Watson y Crick, de Pauling o de las universidades implicadas. Abstract The emergence of molecular biology at the border that separates the genetic and biochemical theory provides a good testbed for various strategies meta‐
scientific. The theoretism of Scientific Revolutions by Thomas S. Kuhn tends towards social constructivism does not serve to account for the possible truth and correctness of the double helix’s theorem. The semantic approach (developed by J. Sneed, W. Stegmüller, U. Moulines, etc.), although seeks to adapt its analysis to the structural content and meaning of scientific theorems, they eventually dissolve them into formal correspondences. The theory of categorical closure, however, is attached to a circular constructivism for understanding the dogmas of the structure of DNA as identical synthetic materials without thereby neglecting the pragmatic aspects, historical and social, that value into perspective the contributions of Phage group, Watson and Crick, Pauling or the universities involved. 193
ENERO
2012
Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?
La biología molecular: ¿revolución o cierre? Alberto Hidalgo Tuñón Universidad de Oviedo «El mirífico orto» de la biología molecular —como diría un orteguiano—, acaecido según parece hace
poco más de treinta años, constituye un buen banco de pruebas para toda teoría postpopperiana de la ciencia con
pretensiones de explicar la génesis o el contexto de descubrimiento de una nueva ciencia o especialidad académica.
Abundantes documentos y testimonios tanto sobre los aspectos teóricos y epistemológicos como sobre los
acontecimientos institucionales, sociológicos e incluso psicológicos permiten arrojar sobre los datos una luz no por
intensa menos deslumbrante. Puesto que el descubrimiento de la estructura del ADN, plasmada en el modelo de la
doble hélice de James Watson y Francis Crick, se considera habitualmente el acontecimiento decisivo que vino a
«revolucionar» la biología moderna, pues proporciona una explicación convincente de la forma en que está
organizada y la manera en que funciona y se automultiplica la materia viva, no es extraño que sociólogos e
historiadores hayan focalizado sus instrumentos analíticos en la dirección apuntada por estos dos personajes. En
particular, el fascinante relato de James Watson en The double helix (1968) alienta una interpretación contingentista
y socio-histórica sobre los orígenes y constitución de la biología molecular que no se compadece para nada con las
metodologías justificacionistas que pretenden desvelar la lógica subyacente de los descubrimientos científicos.
«Como espero que este libro muestre —asegura Watson en el «prefacio»— la Ciencia rara vez avanza en
el sentido recto y lógico que imaginan los profanos. En lugar de ello, sus pasos hacia delante (y, a veces, hacia
atrás), suelen ser sucesos muy humanos en los que las personalidades y las tradiciones culturales desempeñan un
importante papel» (ib).
Incluso el criterio epistemológico más profundo que parece guiar su relato, «que la verdad, una vez
hallada, ha de ser sencilla además de bella», es decir, el clásico criterio de simplicidad, queda reducido al papel de
una mera «convicción» personal fruto exclusivo de una «arrogancia juvenil».
1. La interpretación kuhnniana: ¿matriz disciplinar o ejemplar?
Aunque Thomas Kuhn en su calidad de riguroso historiador de la ciencia, que lo es, no se ha ocupado
directamente de la constitución de la biología molecular ni se ha pronunciado sobre su carácter revolucionario, en la
nota 5 de sus Second Troughts on Paradigms (1974) ha concedido sus bendiciones a la interpretación de la misma
realizada por M. C. Mullins tanto en su tesis doctoral (1966), como, sobre todo, en su artículo de Minerva (1972),
en el que reorganiza en términos de «revolución científica», «éxito del paradigma» y «ciencia normal los detallados
estudios histórico-sistemáticos de G. S. Stent (1968, 1971). Lo que Kuhn aprecia en Mullins es la utilización de
complejas técnicas empíricas de carácter sociológico que le permiten localizar fehacientemente la comunidad
científica o «colegio invisible» de los biólogos moleculares. Al segundo Kuhn esta premisa empírica le parece
La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón
imprescindible para establecer el significado del propio concepto de paradigma. Cabe incluso sospechar que los
Second Thoughts se inspiran en los trabajos sociológicos de Mullins, D. J. S. Price y otros como única alternativa
viable para conservar lo que de valioso pudiera quedar en su primitiva noción de paradigma tras las encarnizadas
críticas de que fue objeto La estructura de las revoluciones científicas (1962).
Como es bien sabido —aunque muchos siguen utilizando alegremente la gratificante terminología de
«paradigmas» y «revoluciones»— Kuhn ha reconocido en 1974 la esencial ambigüedad que vicia su utilización del
término «paradigma». Tras los desapasionados análisis de Dudley Shapere (1964,1966) y Margaret Master (1970)
se ha visto obligado a proponer dos conceptos nuevos, menos confusos para sustituirlo adecuadamente: matrices
disciplinares y ejemplares. Una «matriz disciplinar» viene a ser el conjunto de presupuestos compartidos que
explican el carácter relativamente aproblemático de la comunicación profesional y la relativa unanimidad de juicio
dentro de una comunidad científica. Entre los componentes de la matriz Kuhn destaca tres que considera esenciales
para el funcionamiento cognoscitivo del grupo: generalizaciones simbólicas (componentes formales o
formalizables, cuasitautológicos), modelos (o conjunto de analogías preferidas de carácter ontológico y heurístico)
y ejemplares (o soluciones «paradigmáticas» de problemas tipo concretos aceptadas por el grupo). En sentido
estricto el término paradigma debe asimilarse exclusivamente a esta última noción de ejemplar. De ahí que ahora la
«ciencia normal» consista básicamente en la adquisición de ejemplares estandarizados en el seno de la comunidad
científica, proceso al que Kuhn dedica extensos análisis de lo que muy bien podría catalogarse como psicología
genética del pensamiento científico.
De acuerdo con esta nueva conceptualización puede inquirirse legítimamente en qué se cifra ahora un
cambio revolucionario. Kuhn parece emitir dos respuestas diferentes. Por un lado se nos dice que «las alteraciones
que se producen en cualquiera de los componentes de una matriz disciplinar pueden dar lugar a cambios del
comportamiento científico que afectan tanto a la materia particular de las investigaciones de un grupo como a sus
patrones de verificación» (1974). Pero, acto seguido, renuncia a defender una tesis tan general, tal vez porque
muchos de esos cambios pueden catalogarse como desarrollos científicos normales. Más específicamente en la nota
14 del mismo trabajo aventura la sospecha de que «las revoluciones científicas pueden distinguirse de los
desarrollos científicos normales en que las primeras requieren, cosa que no sucede con los segundos, la
modificación de las generalizaciones que habían sido consideradas anteriormente como cuasi-analíticas» (ib), es
decir, de las generalizaciones simbólicas1.
196
ENERO
2012
1
Omito en el texto cualquier referencia a las distintas reconstrucciones formales de que han sido objeto en la última década las ideas de Kuhn.
Las ejecutadas por los teóricos de la ciencia adscritos al llamado enfoque semántico (Sneed, 1971; Stegmüller, 1973), partidarios de la
autodenominada concepción estructuralista no-enunciativa de las teorías, no obstante, han sido valoradas elogiosamente por el propio Kuhn
(1977): «Stegmüller... ha entendido (mis trabajos) mejor que cualquier otro filósofo que se haya detenido en sus análisis». En la medida en que
tales reconstrucciones han influido en las posiciones epistemológicas de Kuhn antes de 1975 y han contribuido a elucidar y racionalizar sus
planteamientos, parece obligado justificar esta omisión. Aunque para los propósitos de este trabajo bastaría aducir su irrelevancia defacto para la
biología molecular, voy a explicitar las razones de fondo que me inducen a pensar que tal irrelevancia no es coyuntural.
En primer lugar, recuérdese que el aparato conceptual estructuralista exige como precondición para su aplicabilidad la axiomatización de una
teoría por parte de los propios científicos. Este no es el caso de la biología molecular. No es casual que hasta ahora los estructuralistas
semánticos se hayan limitado al estudio de teorías físico-matemáticas altamente desarrolladas, en especial la mecánica de partículas y la
Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?
Pues bien, al margen del poco éxito que los últimos desarrollos de Kuhn han tenido para zafarse de las
objeciones de sus críticos —y no por falta de conmensurabilidad (F. Suppe, 1974) — está claro que la pregunta de
si la biología molecular constituye o no una auténtica «revolución» debe plantearse en términos de si ha habido o
no un cambio de matriz disciplinar de las ciencias biológicas o un simple cambio de ejemplares. La tesis que
mantengo en esta primera parte es que la biología molecular no ha implicado cambios relevantes en la matriz
disciplinar de las ciencias biológicas ni por lo que respecta a las generalizaciones simbólicas desde que Shleiden y
Schwann establecen en 1838 la teoría celular (presencia de células en todos los organismos vivos, continuidad
genética de la materia viva, explicación de las funciones a partir de las estructuras subyacentes, etc.), ni por lo que
respecta a los modelos ontológicos de la bioquímica, en particular (que siguen siendo de carácter básicamente
mecanicista y reduccionista). Quizá el único cambio destacable concierne al nivel de resolución en el que se estudia
la materia viva, es decir, el nivel molecular2. Pero tal cambio parece atribuible también a la bioquímica,
termodinámica (cfer. Moulines, 1982). No conozco aplicación alguna de este enfoque a teorías biológicas, pese a que algunos desarrollos de la
teoría de sistemas y, sobre todo, la axiomatización de la genética efectuada por J.H. Woodger habrían allanado el camino suficientemente para tal
aplicación. Tan estricta exigencia formal no es una objeción de principio, pero supone un hándicap respecto a teorías de la ciencia, como el cierre
categorial, cuyo aparato conceptual más flexible le permite analizar teorías científicas más «blandas», i. e., no axiomatizadas.
Es posible que, en breve, los semánticos aborden teorías biológicas. Pero este hecho no modificaría la validez de las opiniones vertidas en el
texto respecto a Kuhn, porque, en segundo lugar, su concepción es independiente del enfoque de Sneed. Es cierto que ambos han entrado en
contacto y que tal contacto parece armónico por el momento. Pero me parece que los estructuralistas salvan los conceptos kuhnianos de
interpretaciones sociológicas a lo Mullins en base a un reduccionismo metacientífico. El propio Stegmüller no se cansa de repetir en sus últimos
escritos (1979, 1982) que «no hay conexión obligatoria y lógica alguna» entre la nueva corriente semántica y la interpretación de Kuhn. La
reconstrucción de sus ideas sólo es un «resultado secundario», no perseguido ni previsto apriori en su teoría de la ciencia. Por tanto, arguye
frente a los críticos, lejos de ser la mera aplicación ad hoc de un aparato formalista destinado a salvar la filosofía de la ciencia de Kuhn, se trata
de una nueva teoría de la ciencia que goza de una amplitud y una potencia superiores, pues además de explicar la estructura lógica de las teorías
científicas recoge los elementos dinamicistas y pragmáticos subrayados en sus estudios históricos. Esta extraña mamalgama de independencia
(verbal) y reduccionismo (efectivo) deberá aclararse metacientíficamente algún día. Entre tanto, a despecho de sus versallescos intercambios, la
independencia parece convertirse en conflicto. Kuhn no acepta la central distinción entre términos teóricos y no-teóricos y discrepa
profundamente del análisis semántico sobre su concepto de «inconmensurabilidad». Y no se trata de un conflicto menor, pues la
inconmensurabilidad resulta el criterio central para detectar «revoluciones». La mecánica clásica sigue pareciéndole a Kuhn irreducible a la
teoría de la relatividad y los procedimientos semánticos habilitados para la reducción puramente circulares (1977). En tercer lugar, la
discrepancia se acentúa cuando se pasa al análisis de ejemplos históricos concretos. El caso de la biología molecular podría resultar
«paradigmático». Si he captado correctamente el sentido de la concepción estructuralista me parece que el descubrimiento de la estructura del
ADN, a la luz de la información proporcionada en el texto, podría interpretarse intuitivamente como un caso prototípico de transformación de un
modelo parcial potencial (perteneciente al conjunto Mpp, si se pudiera formalizar eventualmente) en un modelo parcial de carácter empírico
(perteneciente a Mp) más dos condiciones de ligadura nuevas con términos bioquímicos y genéticos. Esto significa una nueva especialización de
la biología y el cambio operado podría entenderse como una ampliación de la red teórica, a lo sumo, pero sin modificación del núcleo teórico
(N). Por tanto, según el enfoque semántico, no habría aquí cambio revolucionario alguno en contra de la opinión de Mullins. Sería interesante
que los estructuralistas se decidieran a definir el predicado «teoría biológica», porque obligarían a Kuhn a salir de la nebulosa indeterminación a
que conduce la doble definición citada en el texto de «revolución científica». Por añadidura, ayudarían a los biólogos a resolver sus propias
perplejidades de demarcación con sus poderosas herramientas conjuntistas. En cualquier caso, no es mi propósito polemizar aquí con el enfoque
semántico. Mientras no se pronuncien sobre la biología molecular, me parece que procede omitir prudentemente sus desarrollos kuhnianos.
Para una visión crítica del concepto de «revolución» en términos también semánticos y conjuntó las que llega a resultados similares en el caso de
la biología molecular vide Bunge (1982, 1983).
2
El concepto «nivel de resolución» ha de entenderse aquí en un sentido gnoseológico y analítico. Debe distinguirse de su inverso (nivel de
organización o de integración) frecuentemente utilizado en la biología sistémica con fuertes connotaciones ontológicas. Técnicamente el
concepto guarda estrechas analogías con la capacidad de resolución de los aparatos o instrumentos científicos: microscopios electrónicos,
centrifugadoras, etc. El aparato teórico de la biología molecular permite analizar estructuras más finas (primarias: la secuencia de los ácidos
aminados) que cualquier otra disciplina biológica, incluyendo la genética. La concepción instrumentalista de las teorías vería, sin duda, un
cambio en el nivel de resolución como un cambio teórico significativo. Pero para Kuhn (1977) un mero cambio de nivel no implicaría por sí solo
una «revolución» científica, salvo que fuera acompañado de cambios semánticos en los términos: la inconmensurabilidad semántica (y no la
reducción) induciría entonces un desalojo teórico revolucionario. La pregunta pertinente en este caso parece ser: ¿qué cambios semánticos ha
operado la biología molecular? Sugiero que la cuestión debería explorarse en una dirección doble: (a) La primera viene exigida por la
introducción de un lenguaje informativista en biología a través de la genética molecular hacia los sesenta. Se había, en efecto, de «replicación»,
«transcripción» y «traducción» de la información genética, así como de «código» y «expresión» genéticas. ¿Implica esta terminología
informativista una nueva teoría genética pivotada sobre el dogma central con una semántica distinta de la acoplada a la bioquímica y a la
genética mendeliana o se trata de una metáfora prescindible? El problema gnoseológico no reside en la homologación o no del concepto de
información, sino en su capacidad explicativa de los fenómenos biológicos. Aun reconociendo con Lwoff (1962, 1965) que la información en
biología se refiere a «la secuencia específica de los ácidos nucleicos en el material genético» y que, por tanto, «el cálculo de la negentropía
197
ENERO
2012
La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón
denominación utilizada por primera vez en 1903 por Neuberg, un año después de que Fischer y Hofmeister
demuestran que las proteínas son polipéptidos y 34 años después de que Miescher descubriera el ADN en 18693. En
este sentido, Mario Bunge (1982) ha observado correctamente que «si aceptamos las ideas de Kuhn... Crick y
Watson, que trabajaban dentro de un determinado paradigma construido por otros y sobre un problema propuesto
por otros» estaban ocupados en modestos proyectos de ciencia normal, es decir, estaban rellenando agujeros4 .
Puede admitirse, sin embargo, que la biología molecular implica cambios de ejemplares o soluciones
paradigmáticas para problemas tipo. Pero estos cambios son tan débiles que difícilmente podrían considerarse
198
ENERO
2012
utilizando las fórmulas de Shannon no se aplica en absoluto al ser vivo», queda por aclarar el estatuto gnoseológico de estos términos
informativistas supuestamente específicos en el seno de las ciencias biológicas. Esta cuestión puede parecer demasiado especulativa y cae fuera
de los propósitos de esta comunicación; pero biólogos hay que se sienten incómodos con la terminología e intentan ignorarla, (b) La segunda
dirección que sugiero es más sustantiva y conecta de lleno con el tema abordado en el texto. Podría formularse brevemente así: ¿qué significa
epistemológicamente la afirmación, por ejemplo, de que la biología molecular ha logrado integrar la bioquímica con la genética? El problema
semántico consiste ahora en determinar a qué cuerpo teórico pertenecen los términos, leyes, principios y demás constructos aportados por la
biología molecular. Ello nos remite directamente al tema de la unidad interna de la bioquímica y al de sus relaciones con el resto de las
disciplinas biológicas (cfer. nota 3).
3
. Si la biología molecular quedase confinada a ser un mero desarrollo de la bioquímica, como pretenden muchos bioquímicos, no estaría
justificada la parafernalia «revolucionaria» de que se acompaña habitualmente su advenimiento. Este es el sentido polémico de la afirmación del
texto. Pero, acto seguido, debo advertir que en la medida en que los avances de nuestro conocimiento sobre las bases moleculares de la genética
«han afectado profundamente a todos los campos de la Biología» (Lehninger, 1981), tal desarrollo, aunque no pueda describirse adecuadamente
como una «revolución kuhniana», parece desbordar los parámetros de la bioquímica clásica. Aun cuando el «nivel de resolución» de la biología
molecular (las macromoléculas) sea abordable desde la bioquímica, algunos miembros de esta comunidad abrigan temores no del todo
injustificados. Del mismo modo que el surgimiento de la bioquímica arrinconó a los antiguos especialistas en química orgánica en el estrecho
campo tecnológico de la polimeración de plásticos, la biología molecular podría convertir a la bioquímica clásica en una ciencia auxiliar
reducida a estudiar fenómenos bioenergéticos (el ciclo de ATP), vitaminas y enlaces de fosfato. Pues bien, aunque así fuera, me parece que los
conceptos kuhníanos de «revolución» y «paradigma» no servirían para dar cuenta de esta situación ni desde un punto de vista genético, ni desde
un punto de vista estructural. Más adelante discuto en el texto la inadecuación genética de la reconstrucción de Mullins. Permítaseme discutir
aquí la inadecuación estructural del esquema de Kuhn.
Estructuralmente sólo habría «revolución» en el sentido de Kuhn si, además de constituirse en un nuevo campo, la biología molecular vaciase de
significados algunas teorías biológicas vigentes (eminentemente la genética) al proponer alternativamente un sustituto teórico, cuyos términos
fueran inconmensurables respecto a las teorías estándar. Este esquema de sustitución no es, sin embargo, el único concebible estructuralmente
para articular la noción de integración mencionada atrás (nota 2). Moulines (1982), por ejemplo, distingue cinco esquemas de lo que él llama
«relaciones inter-teóricas» diádicas y señala acertadamente que toda discusión epistemológica parece concentrarse «en la dicotomía:
incompatibilidad versas reducción». Utilizando su nomenclatura vale decir que nadie ha presentado para el caso que nos ocupa esquemas
estructurales de incompatibilidad, ni en el sentido (1) T∩ T’ = ø, ni en el (2) ╣eεT, ╣e’εT 3e's T’:e—>-e\ únicas capaces de otorgar sentido
estructural a una «revolución kuhniana» (ya he indicado que la reconstrucción de Mullins sólo tiene significado genético y sociológico, pero no
estructural). En cambio, Ruse (1973), siguiendo a Benzer (1962) y otros sostiene que la reducción de la genética mendeliana a la genética
molecular (esquema (4) T ╞ T’ de Moulines) «ha sido rigurosamente realizada», pese a la falta de formalización completa de ambas disciplinas.
Entre los biólogos, sin embargo, lo más frecuente parece ser el esquema (3) T= T’, que Moulines considera poco interesante por tratarse de una
«identidad camuflada». Propongo llamar a este esquema «esquema de yuxtaposición» y valorarlo metateóricamente en su justa medida. Si
biólogos como Dobzhansky (1970), Ayala y otros (1977), etc. parecen no tener reparos en mezclar segmentos de ADN en el curso de
investigaciones sobre genes y en las discusiones esencialmente biológicas, no es tanto porque consideren idénticos los conceptos moleculares y
los biológicos, cuanto porque les resulta empíricamente ventajoso trabajar con ambos sin plantearse engorrosos problemas epistemológicos:
«Hay que distinguir entre los instrumentos y las preguntas o hipótesis» nos decía hace poco Ayala (1983) para justificar esta yuxtaposición. Pero
la misión del epistemólogo me parece que no reside en recriminar al científico su ingenuidad gnoseológica cuanto en analizar sus prácticas
habituales. Tal vez el esquema de yuxtaposición resulte ser una mera apariencia que recubre una práctica más compleja y que se origina cuando
se postula apriori que la relación inter-teórica debe ser diádica. y los únicos elementos interesantes gnoseológicamente en la ciencia, las teorías.
En el caso de la biología molecular ensayaré un esquema de relación poliádico de confluencia (genética y estructural a un tiempo), en el que se
articulan no sólo teorías, ni sólo aplicaciones con sus correspondientes condiciones de ligadura (o «reglas de correspondencia»), sino también
aparatos, técnicas y otras configuraciones, cuyo resultado es un conjunto de elementos heterogéneos entre los que destaca un «teorema» o
«célula gnoseológica», que tiene implicaciones relevantes para el marco teórico completo de las ciencias biológicas. No creo que esta
formulación intuitiva gane mucho si la formalizo en términos conjuntistas así: T¡ ∩ A¡ ∩ R„ ∩ /,„ ∩ Chh ≠ ø, ╣e ε E & E c MTCB.
En cambio, confío en que las declaraciones y críticas del texto ayuden a entender mi argumentación.
4
Bunge (1983) aclara sus diferencias con Kuhn, cuando niega la existencia de dos tipos de períodos en la historia de la ciencia: «la investigación
normal y la extraordinaria se dan al mismo tiempo». La investigación extraordinaria, a su vez, puede dar lugar a un avance decisivo
{breakthrough) o a una revolución epistémica. La genética molecular es un breakthrough, que supone el marco conceptual previo de la genética
clásica. Aunque coincidamos en considerar la biología molecular como un avance decisivo esta recategorización puramente formal y denotativa
no resuelve los problemas que estamos debatiendo. Por lo demás, Bunge muestra una radical intolerancia hacia las ideas de Kuhn. Lo curioso de
la cita del texto es que coincide en el diagnóstico con los demás semánticos aliados de Kuhn, en contra precisamente de las apreciaciones
sociológicas de Mullins. Hay en Kuhn una ambigüedad esencial.
Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?
revolucionarios, ni rupturistas. De hecho, habría que admitir que toda ciencia se ve continuamente convulsionada
por micro-revoluciones de esta índole5 . Tan revolucionaria puede considerarse la doble hélice como la estructura en
hélice-a propuesta por Pauling y Corey en 1950 para las a-queratinas, que en cierto sentido parecen pertenecer al
mismo tipo de soluciones estandarizadas, máxime si tenemos en cuenta la obvia conexión que Watson admite entre
ambos descubrimientos. En suma, los nuevos conceptos de Kuhn parecen tan incapaces de explicar la génesis de
una nueva ciencia o especialidad académica, como su antiguo concepto de paradigma6. Pero antes de proponer un
esquema alternativo, exploremos la vigorosa interpretación de Mullins.
2. El grupo «fago» y la polémica sobre los orígenes de la biología molecular.
Es tan grande la evidencia sociológica a favor de que ha nacido una nueva disciplina (creación de cátedras
y departamentos, fundación de revistas especializadas, celebración de Congresos, confección de manuales, etc.) en
torno al descubrimiento de la estructura del ADN que esta premisa empírica puramente institucional parece exigir
una justificación metateórica. Mullins, que así lo constata, se acoge al exitoso expediente de Kuhn. Pero percibe
inmediatamente que no puede atribuir carácter revolucionario a un descubrimiento como el Watson y Crick, toda
vez que, apenas conseguido, es publicado en Nature con la recomendación de Sir Lawrence Bragg, los plácemes de
sus jefes inmediatos en el Cavendish (Max Perutz y John Kendrew) y el apoyo adicional del grupo de
investigadores del King's College de Londres (Maurice Wilkins y Rosalind Franklin), cuyas fotografías obtenidas
con las técnicas de difracción por rayos X aportaron la evidencia empírica necesaria. Tan rápida aceptación obliga a
Mullins a reconstruir la génesis del supuesto paradigma triunfante para el que el descubrimiento de la estructura
helicoidal del ADN suponía sólo el espaldarazo confirmatorio. Hacía falta encontrar un período revolucionario
previo con cambios de envergadura, disidencias respecto a los patrones tradicionales de investigación y novedades
de enfoque.
Esquemáticamente Mullins distingue 4 períodos sucesivos, en los que trata de descubrir características
intelectuales y sociales específicas:
(a)
Entre 1935 y 1945 se habría producido, según Mullins, la definición del nuevo paradigma a través de
la creación de un grupo de trabajo centrado en torno a la figura de Max Delbrück, un físico proclive a la biología
cuantitativa, quien en 1935 había escrito en colaboración con los biólogos Timofieff y Zimmer un artículo
interdisciplinar sobre la estructura y mutación de los genes. Después de emigrar en 1937 al CalTech de California,
este alemán antirreduccionista y negativamente predispuesto hacia la bioquímica, que juzgaba inútil, se pone en
5
Para una crítica del concepto de «microrrevolución» vide Toulmin (1970, 1972), quien reconduce su significado como «unidades de innovación
científica» a un marco evolucionista.
6
También aquí la afirmación del texto tiene sentido polémico. No prejuzga que la biología molecular constituya la génesis de una nueva ciencia
o disciplina académica. Pero los kuhnianos que así lo mantienen, como Mullins, no lograrán mucha más ayuda en los segundos pensamientos de
Kuhn que en los primeros.
199
ENERO
2012
La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón
contacto con el bacteriólogo de origen italiano Salvador Luria para crear un grupo de investigación disperso y sin
existencia oficial dedicado a estudiar bacteriófagos.
Aunque hombres como Anderson, Lwoff, Adams, Hershey, Doermann, Monod y otros formaron parte
del grupo inicial carecían de orientaciones metodológicas unitarias e, incluso, diferían respecto a sus creencias
epistemológicas. Pero lograron una coordinación parcial cuando un grupo de ellos decidió en 1944 concentrar sus
esfuerzos en un solo grupo de fagos (la serie T) y en una sola bacteria (la Escherichia colí).
(b)
Según Mullins entre 1945 y 1953 se habría producido una fuerte red de comunicaciones (network),
cuya cristalización sociológica en las escuelas de verano de Cold Spring Harbor es analizada minuciosamente,
tanto por lo que respecta a los asistentes y reclutas (Watson, Delbucco, Evans, Weigle, etc.) como a la formación de
núcleos de investigación conectados con la red en diversos países (v.g.el Instituto Pasteur con André Lwoff, Elie
Wollman, Francois Jacob, etc., o el Instituto de Física en Ginebra de Kellenberger). Desde el punto de vista
intelectual se prima la investigación de las funciones genéticas, se afinan los procedimientos experimentales y se
obtienen resultados espectaculares, que incrementan la solidaridad del grupos. En particular, Alfred D. Hershey y
Martha Chase demuestran en 1952 que no es el envoltorio proteico del bacteriófago T2, sino su ADN quien tiene
funciones genéticas y reproductivas; al año siguiente Watson, el «niño prodigio» del grupo, sugiere que el ADN se
dispone estructuralmente en una doble hélice, en la que la purina de una cadena está ligada a la piramidina de la
cadena gemela.
c)
A partir de 1954 la solidaridad del grupo se fortalece, formando una especie de «capilla» cerrada, que
Mullins denomina cluster. Estadísticamente este enjambre consta de 111 miembros, de los que 15 constituyen un
núcleo fijo con una permanencia superior a 10 años, mientras en la periferia se localizan 59 colaboradores
ocasionales que sólo aportan una comunicación puntual. Esta fluida estructura favorece una fuerte actividad,
sociológicamente centralizada por el servicio de información Phage, que filtra la información pertinente. Decrece el
reclutamiento, pero se incrementa el grado de conciencia colectiva acerca de la especificidad de sus investigaciones
y del estilo peculiar del grupo. La formulación del dogma central en 1956 por parte de Crick de que la información
genética transita en la dirección ADN-ARN-Proteína, y nunca en el sentido inverso, centró las investigaciones del
grupo tendentes a precisarlo y confirmarlo. Según Mullins, esta fase dogmática es la más fecunda en contribuciones
precisas y culmina en 1962.
d) Cuando en 1962 John Kendrew y Max Perutz reciben el Premio Nobel de química, al tiempo que
200
ENERO
2012
Watson, Crick y Wilkins son laureados con el de Fisiología y Medicina, se inicia, según Mullins, el período
«académico»: la biología molecular se convierte en una especialidad reconocida, organizada e institucionalizada. El
éxito obtenido cierra el ciclo del grupo fago, cuya imagen distintiva se disuelve definitivamente en 1966 tras el
Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?
galardón concedido al núcleo del Instituto Pasteur. Constituido el paradigma triunfante sólo queda el trabajo
rutinario, el lento encaje de las piezas del puzzle, cuyas líneas maestras habían sido trazadas por Delbruck mucho
antes.
No cabe duda de que la reconstrucción de Mullins es ingeniosa, pero sumamente objetable tanto por
razones generales como por cuestiones de detalle. Aunque pueda valorarse positivamente en tanto que ejercicio
empírico de localización de una línea de investigación7 , esta justificación de los orígenes de la biología molecular
resulta
históricamente
arbitraria,
analíticamente
confusa
y
filosóficamente
insuficiente
(amén
de
metacientíficamente irrelevante).
Es históricamente arbitraria porque la misma historia puede contarse y ha sido contada de manera distinta,
con personajes y orientaciones diferentes, de modo que el grupo fago no sólo pierde protagonismo, sino que deja de
ser interesante por sí mismo. El cristalógrafo e historiador social de la ciencia John D. Bernal (1964), por ejemplo,
atribuye a W. T. Astbury el origen de la biología molecular, quien en 1932 había iniciado el estudio estructural de
los ácidos nucleicos mostrando que los cuatro nucleóticos A, G, C, T (U en el RNA) se apilan como monedas en
ángulos rectos al eje de la hebra. Por añadidura, Atsbury habría recibido el primer reconocimiento oficial al ser
designado profesor de Estructura Biomolecular en 1945, detalle nada deleznable sociológicamente. Desde esta
perspectiva estructuralista, los protagonistas son cristalógrafos y químicos antes que físico y bacteriólogos; y más
que los acuerdos tácitos o explícitos de un grupo interesa historiar los descubrimientos y técnicas que hicieron
posible dilucidar la estructura de los ácidos nucléicos. Entre las técnicas destaca Bernal la «ultracentrifugadora»
(10.000 r. p. seg.) diseñada por el químico sueco Theodor Svedverg en la década de los veinte, por cuanto sirvió
para determinar los pesos moleculares de una serie de proteínas a partir de la velocidad de sedimentación de sus
componentes; los análisis espectográficos por difracción de rayos X ejecutadas por Kendrew desde 1946 sobre
proteínas cristalizadas; y los análisis cromatográficos sobre el papel desarrollados por Archer Martin y Richard
Synge a partir de 1941.
La hipótesis química de Emil Fischer sobre las cadenas de aminoácidos que constituyen las proteínas se
engarza ahora sin solución de continuidad con los trabajos de Frederick Sanger sobre el orden de los aminoácidos
de 1946 y 1952, así como con el análisis químico de Erwin Chargaff, «uno de los padres de la criatura», cuyas
reglas sobre la equilibración del número de purinas y piramidinas (A = T; G = C) constituyen el precedente
inmediato de la hipótesis de Watson-Crick.
Pero no se trata sólo de contraponer polémicamente estas dos versiones sobre los orígenes de la biología
molecular. La ceremonia de la confusión continua y en ella han oficiado, entre otros, el propio Chargaff (1971),
Mirsky (1968), Asimov (1969), Wyatt (1972), Thuillier (1972), Hess (1970), etc. Chargaff y Mirsky, por ejemplo,
7
En el sentido de Bunge (1982).
201
ENERO
2012
La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón
coinciden en subrayar el papel de hilo conductor que las hipótesis e investigaciones en torno a las funciones
genéticas del ADN tienen para la constitución de la disciplina denominada «genética molecular». Desde los
descubrimientos de Miescher en el siglo XIX hasta los dogmas de Francis Crick en 1956 una misma línea de
trabajo tendente a desvelar «el secreto de la vida» pondría en conexión la obra de químicos y bioquímicos como
Albrecht Kossel, Phoebus Levene, AlexanderTodd, Robert Feulgen, Torbjórn Caspersson, el propio Alfred Mirsky,
Oswald Avery, Severo Ochoa, etc. El enciclopédico divulgador Isaac Asimov, que lo abarca todo, adopta, por su
parte, una visión «acumulativista» similar cuando ubica lógicamente la exposición de los ácidos nucleicos dentro
del capítulo sobre la célula justo tras el estudio que dedica a la investigación sobre los cromosomas y los genes8. En
cambio Wyatt interesado también en destacar el valor de la biología molecular para la reproducción genética, pero
no menos inclinado a observar los fenómenos sociológicos de trasmisión y diseminación científica, coloca el
«cambio decisivo de paradigma» en 1944, fecha en que Avery y sus colaboradores (Colin MacLeod y Maclyn
McCarty) publican su trabajo sobre neumococos demostrando que la transmisión de caracteres hereditarios se
efectúa a través del ADN. Ignorado por los genéticos y ante la ceguera de los bacteriólogos como Luria, el
descubrimiento de Avery sólo cobrará carta de naturaleza e importancia en 1956 simultáneamente a la admisión del
dogma central de la biología molecular.
No dispongo de espacio para análisis comparativos más extensos. Pero parece claro que a las distintas
versiones históricas esbozadas subyacen diferentes concepciones sobre la ciencia y su historia. Con todo, mi
argumento para tildar de históricamente arbitraria la reconstrucción de Mullins se basa no sólo en que ha sido
contestada por historiadores «materialistas» como Bernal que colocan consecuentemente las innovaciones teóricas
(superestructurales) al amparo de innovaciones tecnológicas (estructurales) previas, o por historiadores
«acumulativistas» como Asimov (y eventualmente Chargaff y Mirsky), para quienes no existen problemas
gnoseológicos de demarcación, bien sea porque la ciencia es una, bien sea porque no les importa tanto la existencia
de fronteras administrativas cuanto la presencia de problemas o enigmas científicos a resolver. La arbitrariedad
reside, sobre todo, en el hecho de que los propios «rupturistas» como Wyatt, que hipotéticamente debieran mantener
una concepción sociológica similar sobre los orígenes de una disciplina científica, no aceptan la versión de Mullins
y Stent. El argumento abunda, por lo demás, en la laxitud epistemológica de los esquemas de Kuhn, incluso para
dar cuenta de la historia de la ciencia.
Quizá no debiera extrañar la polémica en torno a los orígenes de la biología molecular —siempre hubo
disputas de prioridad en la ciencia—, sino que se suscite justo en el momento en que se produce su consagración
definitiva. He aquí un tema sustantivo para los sociólogos de la ciencia como Mullins, quien más que intervenir
militantemente en la polémica debiera haber intentado determinar las conexiones institucionales subyacentes en
202
ENERO
2012
8
No es irrelevante recordar las repetidas confesiones tanto de Watson (1968) como de Crick en el sentido de que su interés por el ADN estaba
alimentado por el deseo de descubrir qué eran y cómo actuaban los genes, i. e., por descubrir «el secreto de la vida».
Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?
cada una de las reconstrucciones históricas, obviamente interesadas9. Lo que sí resulta epistemológicamente
sorprendente es la unanimidad con que se acoge la hipótesis de Watson-Crick y la rapidez con que prende en la
comunidad de biólogos (en especial los bioquímicos), pese al papel marginal y la peculiar personalidad de sus
autores en la misma. ¿No está pesando más la verdad y fecundidad de la hipótesis, captada inmediatamente por los
especialistas, que los merecimientos académicos de sus autores o que su adscripción a una determinada escuela a
línea? La profundidad, coherencia, elegancia, sencillez, evidencia, fecundidad y corrección que diversos autores
atribuyen al modelo de replicación genética no se explica recurriendo a su génesis histórica, sociológica o
psicológica, porque son valores que transcienden esas categorías externas. Creo que la pregunta
gnoseológicamente relevante, que la reconstrucción que Mullins es incapaz de responder en términos kuhnianos,
concierne al estatuto de las hipótesis de Watson-Crick puedan tener dentro del campo de las ciencias biológicas.
Por lo demás, estas consideraciones obscurecen por sí solas la supuesta claridad analítica de la
reconstrucción de Mullins. La confusión de Mullins reside en que no explica la constitución de la «biología
molecular» como paradigma o diciplina autónoma, sino a lo sumo la disolución de un grupo de trabajo en el seno
de una ciencia ya institucionalizada: la bioquímica. En particular, no rinde cuentas sobre cuál sea el campo de la
biología molecular y es incapaz de explicar la dualidad teórica que aún hoy parece subsistir en su seno, como
sagazmente acierta a formular el propio Kendrew (1967,1970): «los biólogos moleculares no tienen entre ellos
mismos unanimidad sobre la naturaleza del tema». Como se sabe, en la biología molecular confluyen dos tendencias
o escuelas, cuyos intereses divergentes parecen desgajarla internamente: la tendencia estructuralista, interesada por
el aspecto geométrico tridimensional de la doble hélice del ADN y propensa a disolver los estudios sobre la
configuración estereométrica de las moléculas biológicas en la rama clásica de la bioquímica que se ocupa de ellas
desde una perspectiva reduccionista; y la tendencia informativista que atiende a los aspectos topológicos y al papel
de los pares de bases azoadas en el mecanismo genético de la replicación desde una perspectiva unidimensional, pues
para entender cómo se almacena y se trasmite la información basta determinar la ordenación de las secuencias. De
nuevo, el problema gnoseológico parece residir en comprender la naturaleza de esa confluencia. La definición ad
hoc (Asimov, 1972) de la biología molecular como el campo en que confluyen dos ciencias anteriores (la
bioquímica, entendida como el estudio de las reacciones químicas que tienen lugar en el tejido vivo, y la biofísica,
reducida al estudio de las fuerzas y fenómenos físicos implicados en los procesos vivos) no resuelve el problema.
En realidad, la literatura molecular oferta más de una docena de definiciones alternativas y a nadie se le oculta que
los biólogos manejan el concepto de información de manera muy diferente a como lo manejan los físicos. Como ha
señalado Jacob (1970), aunque la biología ha demostrado que no existe ninguna entidad metafísica que se esconda
detrás de la palabra «vida», no puede reducirse a física a causa de su carácter integrador (el integron) y organizado.
9
Una de las mayores ambigüedades que han contribuido a desprestigiar los concepos metacientíficos de Kuhn es el curioso fenómeno de
explotación ideológica de que han sido objeto. Con mucha frecuencia «paradigma» y «revolución» se utilizan en un sentido apologético y
justificatorio, más que en un sentido analítico y crítico.
203
ENERO
2012
La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón
Por último, no haría falta insistir en que la reconstrucción de Mullins es filosóficamente insuficiente
(además de gnoseológicamente irrelevante, como hemos mostrado reiteradamente), sino fuese por el carácter
parodójico que atribuye al papel desempeñado por Delbrück. Resulta que «el alma del grupo fago» mantiene una
posición semi-vitalista que los resultados bioquímicos del grupo vienen a desconfirmar palmariamente. Thuillier
(1972), quien ha analizado este extremo con cierto detalle, termina resolviendo la paradoja providencialmente en
base a que «la ciencia escribe derecho, pero con renglones torcidos». Tal solución, filosóficamente insatisfactoria,
no repara en el «insignificante» detalle de que Watson era discípulo de Luria y fue orientado por éste hacia la
bioquímica cuando le envía a Copenghague a estudiar con Hermán Kalckar. Lo mínimo que cabe exigir a un
«paradigma emergente» es una cierta coherencia interna entre sus cabezas de serie por lo que se refiere a los
supuestos filosóficos últimos y orientaciones metodológicas básicas.
3. Un esquema alternativo desde «el cierre categorial».
En la teoría del cierre categorial de Gustavo Bueno (1976) se han elaborado algunos conceptos que me
parece pueden rendir cuenta de la situación creada por la llamada biología molecular. Los conceptos clave que voy
a usar son los de «contexto determinante», «teorema» o «célula gnoseológica» y «proceso de confluencia». Me
consta que en la elaboración de estas nociones, G. Bueno no estabainteresado en problemas biológicos, ni mucho
menos de biología molecular, sino trabajando con problemas gnoseológicos de geometría y física.
Pues bien, la hipótesis de trabajo que mantengo (y que en los límites de esta comunicación no puedo
defender en profundidad) es que el descubrimiento de la estructura helicoidal del ADN es un «teorema» (o «célula
gnoseológica») de carácter modulante, cuyo contexto determinado se mantiene dentro de los márgenes de la
bioquímica, aun cuando el proceso de confluencia que lo genera y posibilita desborda histórica y
gnoseológicamente este marco, pues implica desarrollos teóricos y tecnológicos en otras ciencias, cuya incidencia
en el campo de las ciencias biológicas, aunque espectacular, es sólo oblicua10
Esta tesis es sólo una consideración parcial del «hito revolucionario» que convulsionó este campo de
investigación. Pero teóricamente la hipótesis del operon de Jacob-Monod, el descifrado del código genético (Crick,
Niremberg, Ochoa) y otros muchos desarrollos que ni siquiera se mencionan en este breve texto polémico tienen
tanta o más importancia. El significado de la tesis tan condensadamente formulada sólo puede entenderse en el
marco de la teoría del cierre categorial, pues presupone toda su gnoseología general sintética. No obstante, quizá
10
204
ENERO
2012
Al tratarse de una comunicación a un Congreso se condensaba en este párrafo una interpretación que se prometía explicar en un artículo
posterior más amplio que nunca apareció. Se decía allí que «Próximamente aparecerá en El Basilisco una argumentación más completa sobre el
estatuto gnoseológico de la Biología molecular». En su defecto, no obstante, explicaba en una larga nota «la tesis formulada en el texto», que en
esta ocasión merece ser trasladada literalmente al texto principal.. La hipótesis de la doble hélice es sólo una consideración parcial del «hito
revolucionario» que convulsionó este campo de investigación. Pero teóricamente la hipótesis del operon de Jacob-Monod, el descifrado del
código genético (Crick, Niremberg, Ochoa) y otros muchos desarrollos que ni siquiera se mencionan en este breve texto polémico tienen tanta o
más importancia. El significado de la tesis que formulo en cursivas en el texto condensadamente sólo puede entenderse en el marco de la teoría
del cierre categorial, pues presupone toda la gnoseología general sintética.
Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?
ayude a su comprensión una breve exégesis de sus tres aserciones fundamentales:
(a) Que el descubrimiento de la estructura helicoidal del ADN es un teorema modulante de las ciencias
biológicas significa desde la perspectiva del cierre categorial que nos hallamos ante un fragmento unitario,
complejo e internamente consistente de ciencia, susceptible de conectarse con cuerpos de conocimiento cerrados
más amplios, pero cuya estructura gnoseológica reproduce ella misma a escala elemental un cierre operatorio. La
teoría del cierre categorial acepta definir una ciencia como «un conjunto o sistema de teoremas», pero siempre que
se corrijan inmediatamente las connotaciones formalistas o hipotético-deductivas que el término lleva aparejado en
la literatura metacientífica estándar. Un teorema no es principalmente una consecuencia o conclusión derivada
formalmente de algún conjunto de axiomas primitivos, aun cuando esta componente proposicionalista, abstracta,
lógico-formal desempeñe en ocasiones un papel preponderante (señaladamente en las llamadas ciencias formales).
En su sentido gnoseológico o lógico-material un teorema es una «configuración» compleja que se construye (no se
deduce simplemente) a partir de un conjunto de figuras más elementales o lineales que se sintetizan formando una
pieza autónoma. Todo teorema es el resultado de un proceso de confluencia material y específico, en el que está
implicado un contexto determinante (cfer. infra) por respecto al cual se constituye como contexto determinado. En
este sentido decir que «una ciencia es un conjunto de teoremas no significa que sea un discurso de deducciones en
cascada, sino una confluencia de remolinos que se interfieren, pero que mantienen su autonomía formal» (Bueno,
1976). Los teoremas son ciencia ya organizada y su enorme grado de complejidad aconsejaría quizá utilizar otra
terminología metafórica menos ligada a las ciencias formales. G. Bueno (ib.) propone denominarlos «células
gnoseológicas», pero esta metáfora auto-referente quizá pueda resultar gödelianamente paradójica en este contexto.
En todo caso, el rasgo más característico de los teoremas consistente en que necesariamente incorporan modi
sciendi (definiciones, clasificaciones, demostraciones y modelos) en proporciones variables, variabilidad que sirve
de criterio distintivo para una tipología. Entre los teoremas materiales destacan dos tipos: los clasificatorios (v. g. el
teorema de los poliedros regulares) y los modulantes (v. g. teorema de la gravitación de Newton). Estos últimos se
caracterizan porque su contenido fundamental consiste en un modelo exportable homológícamente a otras «células»
del mismo organismo categoría!, vale decir, a otros sistemas del mismo sistema científico.
Creo que estas, aunque prolijas, necesarias puntualizaciones permiten aclarar de modo intuitivo el sentido
de nuestra tesis. El teorema de la doble hélice reformula a nivel molecular el principio de la continuidad genética de
la materia viva (de ahí sus importantes implicaciones biológicas) y reconstruye empíricamente el principio
fisiológico de la correlación estricta entre estructura y función. Pero no es una mera consecuencia deductiva de tales
principios, porque, aunque es lógicamente congruente con ellos, los desarrolla de forma novedosa y consistente.
Baste recordar para aclarar este extremo la discusión genética suscitada en la prueba del teorema sobre los posibles
mecanismos de duplicación de ADN compatibles lógicamente con el principio de continuidad: el conservativo, el
semiconservativo y el dispersivo (Lehninger, 1981; Lwoff, 1962; etc.). El razonamiento que conduce a declarar
probada la replicación semiconservadora postulada por Watson y Crick (1953b) de las dos hebras complementarias
205
ENERO
2012
La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón
de ADN no se agota en la mera deducción formal de posibilidades lógicas, que constituye un primer tramo
completamente esencial y gnoseológicamente ininteligible desde la metodología científica estándar. El peso de la
demostración reposa ciertamente en el tramo empírico aportado por los experimentos de Cyrus Levinthal en 1956
sobre bacteriófagos y, más concluyentemente aún, por la serie de resultados obtenidos al año siguiente por
Meseíson y Sthal sobre cepas de E. coli marcadas con nitrógeno «pesado». Pero quienes interpretan estos
desarrollos como un «experimento crucial» para una hipótesis más o menos audaz olvidan, entre otras cosas, el
tramo deductivo del argumento que otorga sentido gnoseológico a las alternativas y simplifican arbitrariamente la
cuestión. Es cierto que a veces se catagoriza pragmáticamente el teorema de la doble hélice como la «hipótesis» de
Watson-Crick, pero no menos frecuentemente se habla del «modelo» helicoidal, de la «ley» de la replicación, de la
«explicación» o del «descubrimiento». El concepto de «teorema» antes explicado permite aclarar este galimatías
terminológico gracias a su complejidad tridimensional. Una reubicación exacta de los múltiples componentes que la
compleja construcción de Watson-Crick conlleva excedería obviamente las dimensiones de este trabajo. Por eso voy
a limitarme a esbozar por qué considero modulante al teorema Watson-Crick, en el supuesto de que lo sea. Me
parece que los componentes modélicos son decisivos en este teorema, no sólo porque sobre su plantilla se han
confeccionado las explicaciones más convincentes sobre la estructura nuclear a las procariotas, así como las
referidas a los genomas de las eucariotas. Por añadidura, la estructura helicoidal ha permitido descifrar el código
genético, su transcripción en el ARN mensajero y la traducción biosintética en los ríbosomas; en particular, los
codones de los ARNt se asocian sucesiva y antiparalelamente con la cinta del ARNm de acuerdo con el modelo
purína-piramidina del ADN para generar toda clase de proteínas. Los parámetros estructurales de muchos de los
mecanismos bioquímicos implicados en la actividad celular obedecen al mismo modelo de enlaces covalentes
fosfodiéster 3'-5' postulados por Watson y Crick (1953a) para explicar la estabilidad de cada una de las hebras o al
de los débiles puentes intercatenarios de hidrógeno utilizados para explicar su flexibilidad duplicativa. Asociaciones
hidrofóbicas y enlaces de hidrógeno no covalentes constituyen también el modelo básico para explicar la
morfogénesis tridimensional de la mayoría de las grandes bioestructuras, macro y supramoleculares. Por si fuera
poco, ha proporcionado, en palabras de Monod (1970) «una teoría física de la herencia» que dota de significado y
certidumbre a la teoría de la evolución selectiva, cuya validez hasta entonces era puramente fenomenológica, no
esencial. A través de esta simbiosis ha comenzado a señorear todas las ramas de la biología. Aunque «la teoría del
código genético» es más amplia que el teorema que estamos considerando, no parece exagerado afirmar que si
aquella constituye «la base fundamental de la biología» éste aparece como el modelo más exportado a todas las
ramas de esta ciencia. No cabe duda de que el problema crucial de la biología moderna consiste en explicar el
tránsito de la materia inorgánica a la materia viva. Pues bien, la hipótesis génica sobre el origen de la vida
enunciada por H. Muller en 1929 sin demasiado éxito, ha encontrado en este teorema el modelo preciso que permite
su revitalización, hasta el punto de constituir la alternativa teórica más fuerte a las hipótesis proteicas de Oparin
206
ENERO
2012
(coacervatos) y Fox (microesferas protenoides). Si la doble hélice es un teorema como pienso, la exportación
masiva de sus modelos constituyentes hace inevitable su adscripción a la clase de los teoremas modulantes11.
11
El propio Proyecto del Genoma Humano, que estaba analizando Pablo Infiesta, puede considerarse en cuanto a su objetivo de descifrar la
Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?
(b) Que el contexto determinado de este teorema consiste en una organización de elementos analíticamente
servidos por la bioquímica es, quizá, la afirmación más audaz que contiene nuestra tesis desde nla perspectiva del
cierre categorial. Remite a la sutil y central cuestión de la relación (dialéctica) entre contextos determinantes y
contextos determinados, que juega un papel decisivo tanto para la demarcación de la ciencia respecto a otros
procesos operatorios constructivos no científicos, como, sobre todo, para la determinación de los principios de las
ciencias como métodos internos de su cierre categorial. Según G. Bueno (1976) toda ciencia se nos presenta in
medias res como campos empíricos organizados sintéticamente en formaciones y figuras características. Así, por
ejemplo, el campo de la biología, antes del advenimiento de la biología molecular, se nos ofrece sintéticamente
como un conjunto de formaciones heterogéneas, pero mutuamente relacionadas de diversas formas, en particular
por las relaciones postuladas en la teoría de la evolución: especies, organismos, sistemas funcionales, células,
mitocondrias, genomas, genes, etc. Estas clases heterogéneas de figuras que mantienen entre sí regularidades en
proporciones más o menos definidas constituyen grosso modo el contexto determinante de una ciencia globalmente
considerada, en la medida en que son el punto de arranque sintético de toda investigación. Por supuesto, una línea
de investigación concreta selecciona algunas de estas clases como contexto determinante específico. En cualquier
caso, ¿cuál es entonces el contexto determinado? El que resulta del análisis regresivo de esas figuras sintéticas en
sus constituyentes. El contexto determinado define un campo operatorio abstracto, cuva estructura analítica filtra o
segrega aquellos términos, relaciones y operaciones características con las cuales resulta posible reconstruir
esencialmente las figuras de partida. No se vea en esta grosera simplificación una mera descripción alambicada de
los procesos inversos de análisis y síntesis estándar. El quid diferencial reside en que cuando se toma la estructura
analítica del contexto determinado como punto de arranque, convirtiéndolo así en determinante, la cosa no funciona
y las figuras básicas aparecen como «gratuitas», porque a partir del campo abstracto en que se resuelven
necesariamente no se llega a reconstruirlas sin ciertas claves que reconduzcan la construcción ¿Qué claves están
presentes en los contextos determinantes para que filtradas analíticamente se reproduzcan o reconstruyan como
contextos determinados? No se trata de una clave metafísica, ni psicológica, sino estrictamente gnoseológica:
consiste en los principios de identidad que están presentes objetivamente en las figuras básicas de partida y que.
aunque
en
el
análisis
quedan
al
descubierto,
poseen
una
irrenunciable
estructura
sintética12.
Pero veamos ya cómo se aplica este entramado conceptual, cuyas ramificaciones principales ni siquiera
han sido sugeridas, al caso que nos ocupa. Me parece que el contexto determinante específico de la doble hélice
viene dado por las preocupaciones genéticas de sus autores y en este sentido no es casual que la biología molecular
haya encontrado su campo específico de aplicación en la genética. Muchos prefieren hablar de «genética
molecular» simplemente y antes (notas 2 y 3) hemos discutido el significado de la fórmula usual que atribuye a la
biología molecular el logro de haber integrado la bioquímica con la genética. La pregunta por la «naturaleza de los
secuenciación como la mejor demostración del carácter modulante del teorema que se defiende en este texto
12
En este punto se hacía un inciso del que puede prescindirse aquí : « Creo que el actual callejón sin salida en que parecen hallarse las
investigaciones bioquímicas sobre el origen de la vida, que han provocado el espectacular éxito de la hipótesis de la panspermia remozada por
Fred Hoyle como «vía de escape» aceptada por el propio Crick, ilustra claramente, como veremos, la situación gnoseológica descrita.»
207
ENERO
2012
La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón
genes» que guiaba al joven Watson le conduce en compañía de Crick, convencido tempranamente por Schrodinger
«de que los genes eran los componentes clave de las células vivas», hacia la bioquímica, materia que el primero no
dominaba en absoluto incluso después de la formulación del teorema, si hemos de hacer caso al testimonio de
Chargaff y al suyo propio. ¿Cuál es la clave entonces que les conduce tan certeramente a filtrar analíticamente los
términos, relaciones y operaciones básicas que precisan para su reconstrucción del material genético? Naturalmente
este proceso operatorio de los sujetos gnoseológicos, tal como contempla y predice la teoría del cierre categorial, ha
quedado eliminado, borrado en la construcción científica misma del contexto determinado. En efecto, un análisis
detallado del artículo en los que se expone el teorema de Watson-Crick (1953a y b) pone de manifiesto que los
términos utilizados en la construcción (ácidos fosfóricos, bases nitrogenadas, azúcares pentosa, etc.), las relaciones
postuladas (leyes estereoquímicas de enlace, reglas de Chargaff, etc.) y las operaciones (ángulos de rotación de las
bases, neutralización de los grupos fosfato con carga negativa por iones de carga positiva como argumento contra el
modelo tricatenario de Pauling, etc.) forman parte de la estructura analítica servida abstractamente por la
bioquímica. En cambio, el modelo mismo de la doble hélice, aun cuando formalmente halle un precedente
inmediato en las a-queratinas, actúa como una especie de «esquema sintético a priori» que guía la búsqueda y
selección de los elementos analíticos mpertinentes. La estructura helicoidal que en el ordo doctrinae aparece como
resultado, en el ordo inventionis está dado necesariamente de antemano y ha sido generado en parte al margen del
campo operatorio abstracto del contexto determinado. Recuérdese a este respecto que la idea germinal de Watson
(1968), que a la sazón había confeccionado una hipótesis genética sobre el emparejamiento y reproducción de las
bacterias, consistió en una estructura bicatenaria con idénticas secuencias de bases, unidas internamente por enlaces
de hidrógeno entre pares de bases idénticas. Lo más sugestivo de esta hipótesis errónea —error ontológico
imperdonable para un bioquímico, pues indica un desconocimiento de la estructura analítica y de sus posibilidades
operatorias casi absoluto, pero error genéticamente disculpable y fenomenológicamente necesario en la propia
construcción científica—reside en que anticipa todas las profundas implicaciones biológicas que más tarde
emergerán de la formulación correcta: en particular, el mecanismo de multiplicación de los genes por separación de
las dos cadenas idénticas y el de biosíntesis. pues a partir de una cadena que sirve de plantilla se induce fácilmente
la producción de una cadena idéntica. Desde la teoría del cierre categorial este desarrollo previo no es ni un
producto del azar, ni una mera contingencia histórica, sino la irreprimible manifestación del molde genético que
preside la construcción y filtra los elementos pertinentes. (Entre el contexto de justificación y el contexto de
descubrimiento no existe el abismo intransitable que la gnoseología analítica postula). Este molde, trasunto del
principio de continuidad genética (omnis célula ex célula), postula significativamente una identidad absoluta (toda
cadena procede de una cadena secuencialmente idéntica de ADN) en el material que supuestamente debe ser el
núcleo esencial de la vida. No se comprende el verdadero significado de ese error más que si se ve en el juego entre
el contexto determinante, que guía la investigación, y el contexto determinado, cuando aquél ejecuta un filtrado
208
ENERO
2012
erróneo de componentes analíticos que éste se encarga de falsar. Pero no se trata de una falsación en sentido
popperiano. sino de un ensayo mediante el cual el contexto determinante, al tiempo que impone sus condiciones
paramétricas, filtra elementos analíticos pertinentes: los enlaces de hidrógeno. Quizá la falta de contexto
Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?
determinante genético, más que la carencia de diagramas adecuados de rayos X expliquen también el rotundo
fracaso de Pauling y el bloqueo de Rosalind Franklin. En todo caso, no cabe duda de la relevancia gnoseológica de
la clave genética para la formulación correcta del teorema.
No obstante, nuestra interpretación plantea una paradoja desde el punto de vista de la teoría del cierre
categorial. No resuelve el problema del carácter categoría] o no, autónomo o heterónomo de la bioquímica. En
resumen, pueden ocurrir dos cosas: o bien el principio determinante se identifica categorialmente con el contexto
determinado y entonces la bioquímica aparece como una disciplina biológica tout court, o bien no se identifica y
entonces la bioquímica es externa a la biología y sus construcciones adquieren respecto a ésta un cariz tecnológico e
ingenieril. La imposibilidad de reconstruir materia viva a partir del campo abstracto tendría en cada caso un
significado gnoseológico diferente.
(c) Por último, que el proceso de confluencia que genera y posibilita la formulación del teorema de la
doble hélice implica desarrollos teóricos y tecnológicos en otras ciencias que desbordan al ámbito de interacción
entre contexto determinante y determinado, ha sido intuitivamente reconocido por muchos autores, al margen de su
propia polición epistemológica al respecto. Mencionaré dos casos paradigmáticos claramente contrapuestos: André
Lwoff (1962) y Albert Lehninger (1981). Por efecto de esta confluencia el primero postula la emergencia de un
nuevo campo científico anclado en la biología fundamental, mientras el segundo augura un inusitado desarrollo de
la bioquímica. La diferencia estriba en la selección ad hoc dt las disciplinas confluyentes. Aunque desde ei punto de
vista del cierre categorial interesan los procesos de confluencia en cuanto remiten a la construcción de identidades
sintéticas, a los efectos de esta nota bastará citar argumentos de autoridad sin entrar en el proceso constructivo
mismo.
Lwoff argumenta biológicamente: «La identificación química del material genético, por Avery, MacLeod y
McCarthy, ha sido el gran descubrimiento de la biología moderna. Pronto le siguió otro gran descubrimiento, el de
la estructura molecular del ácido desoxirribonucleico, la doble hélice de Watson-Crick. Ambos descubrimientos
catalizaron el extraordinario desarrollo de la genética, la fisiología celular, la bioquímica de la célula y la virología,
que ahora emergen en una nueva disciplina que las integra: la biología molecular» (1962).
Lehninger, en cambio, que propende a identificar bioquímica con biología molecular, pues ambas
conciernen a los componentes moleculares de las células y comparten una misma empresa teórica (establecer la
lógica molecular de los organismos vivos) resume así sus puntos de vista: «El conocimiento actual de la base
molecular de la genética surgió como consecuencia de los avances teóricos y experimentales realizados en tres
distintos campos científicos: la genética clásica, la bioquímica y la estructura molecular» (1981). Cada uno de
ellos, a su vez, se apoya en el desarrollo de alguna técnica específica: el empleo de los rayos X como agentes
mutágenos, los métodos cromatográficos y el análisis por difracción de rayos X, respectivamente.
209
ENERO
2012
La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón
Pese a las diferencias de perspectiva cronológica y de enfoque epistemológico, ambos coinciden en
destacar el papel de la bioquímica y la genética, i. e., del contexto determinado y determinante en nuestra
terminología. Ambos perciben también que el proceso de confluencia implica otros desarrollos, que a falta de un
análisis gnoseológico en profundidad, no aciertan a precisar.
Las consecuencias que se derivan de esta hipótesis no pecan de sensacionalismo, pero son clarificadoras en
la medida en que resuelven algunas perplejidades legítimas. En particular, de nuestro análisis se desprende que la
polémica sobre los orígenes de la biología molecular resulta epistemológicamente estéril, porque argumenta ex post
jacto. Al reconocer el estatuto peculiar que el teorema de la doble hélice posee como descubrimiento singular en el
seno de las ciencias biológicas, no sólo se le confiere valor biológico a resguardo de cualquier reduccionismo, sino
que se le otorga un significado autónomo sin necesidad de recurrir a dudosas justificaciones paradigmáticas para
destacar su novedad radical. (En general, no parece razonable una epistemología que tiene que inventarse una nueva
ciencia cada vez que se produce un descubrimiento científico de envergadura).
Por lo demás, que la biología molecular no acota un nuevo campo de estudios con un cierre categorial
específico puede parecer una conclusión fuerte para quienes privilegian ciertas evidencias sociológicas, pero en
realidad está en consonancia con la autorizada opinión de la mayor parte de los bioquímicos, que han integrado sin
mayor dificultad en su disciplina los nuevos descubrimientos sin necesidad de romper el marco teórico previo, ni lo
que significativamente Albert L .Lehninger (1981) denomina «la lógica molecular de los organismos vivos»13. El
citado manual, auténtica «biblia» del pensamiento bioquímico estándar, puede considerarse «ejemplar» —dicho sea
con perdón de Kuhn— de evidencias sociológicas contrarias a las de Mullins. Permítaseme citar en este contexto a
Raúl Ondarza, fundador de la cátedra de biología molecular de la UNAM (México), quien titula Biología moderna
(1968) el manual que incorpora los nuevos descubrimientos específicos de su cátedra e incluye la biosíntesis de
ácidos nucleicos en la segunda parte dedicada a «conceptos de bioquímica». Claro que también los químicos
estructurales y deductivistas (línea Pauling) consideran estos avances de la biología molecular como una extensión
natural de sus propios dominios, al mismo tiempo que genéticos y evolucionistas (Dobzhansky-Ayala) hallan en
ellos un confortable sostén. Parece, en consecuencia, que este y otros teoremas adyacentes vienen a construir
puentes de enlace o «integración» entre dos disciplinas clásicas: la química y la biología quedan así mutuamente
involucradas. En este sentido no es extraño que los bioquímicos, llamados a cumplir justamente ese cometido de
contacto, consideren estos desarrollos como avances en su propio campo. Lo que ocurre es que estas pregnantes e
intuitivas relaciones de interconexión no se dejan analizar fácilmente en términos gnoseológicos. En cualquier caso,
el esquema «revolucionario» de Kuhn no encaja con los datos. En cambio, la teoría del cierre categorial oferta un
210
ENERO
2012
13
Ni que decir tiene que apelar polémicamente a las evidencias sociológicas de los bioquímicos, no significa suscribir sus puntos de vista
reduccionistas. En particular, la afirmación gnoseológica de Lehninger (1981) de que «las líneas divisorias entre la bioquímica y la biología
celular son cada vez más difíciles de identificar, ya que estos campos de la ciencia celular forman, verdaderamente, un conjunto lógico», no
parece estar justificada a la luz de la información experimental disponible. Lehninger parece confundir la no-contradicción con la derivabilidad
lógica. Aun cuando las once proposiciones que selecciona bajo la rúbrica de «lógica molecular de los organismos vivos» sean correctas, queda
por demostrar que constituyan un sistema axiomático completo capaz de dar cuenta de todos los conocimientos que constituyen la biología
celular.
Alberto Hidalgo Tuñón | La biología molecular: ¿revolución o cierre?
conjunto de instrumentos conceptuales capaces, en principio, de resolver satisfactoriamente la mayor parte de las
perplejidades tan profusamente comentadas en la literatura sobre el tema14 .
BIBLIOGRAFÍA
Asimov's
Cuide
to
Science
(1972),
Basic
Bocks,
Inc.
New
York
(1973,
ed.
castellana)
AYALA, F. j. y otros (1977) Evolution, Freeman: San Francisco.
AYALA, F. J. «Entrevista con Francisco J. Avala», El Basilisco, 15, 78-93, Oviedo (1983).
BENZER, S. (1962) «The fine structure of the gene», Scientific American, 206, 70-84.
BERNAL, J. D. (1964) Science in History, Watts, and Co. Ltd., Londres.
BERTALANFFY, L. von (1968) General System Theory, George Braziller, New York.
BUENO, G. (1976) Estatuto gneosológico de las ciencias huamanas, Fotocopia, 4 vol.
BUNGE, M. A. (1982) «¿Cómo desenmascarar falsos científicos?» Los Cuadernos del Norte, 15 52-69, Oviedo
BUNGE, M. A. (1983) «Paradigmas y revoluciones», El Basilisco, 15, 2-9, Oviedo.
CHARGAFF, E. (1971) «Preface to a Grammar of Biology: A hundred years óf Nucleic Acid research», Science,
172, 637-642.
DOBZHANSKY, Th. (1970) Genetics ofthe Evolutionary Procees, Columbia Univ. Press, N. Y.
ELSASSER, W. M. (1966) Atom and Organism, Princeton Univ. Press, New Jersey.
HESS, E. L. (1970) «Origins of Molecular Biology», Science, 1868, 664-669.
JACOB, F. (1970) La logique vivant, Gallimard, París.
KENDREW, J. C. (1970) «Some remarks on the History of Molecular Biology», en T. W. GOODWIN (ed): British
Biochemistry Past and Present, Academic Press.
KUHN, Th. (1962), La estructura de las revoluciones científicas, F. C. E., México, 1971.
KUHN, Th. (1974), Second Thoughts on Paradigms, en F. SUPPE (ed) y en The University of Illinois Press,
Urbana (ambos en castellano: editora nacional y tecnos).
KUHN, Th. (1977), «El cambio de teoría como cambio de estructura: comentarios sobre el formalismo de Sneed»,
Teorema, VII-2,141-165.
LEHNINGER, A. (1981) Bioquímica, Omega, Barcelona
LWOFF, A. (1962) Biológica! Order, The M.I.T. Press, Cambridge, Massachusetts.
LWOFF, A. (1965) «El concepto de información en la biología molecular» en Coloquios de Royaumont, s. XXI,
México, 1966.
14
En general, no parecen quedar ya biólogos que no admitan la relevancia teórica de los procesos moleculares para la explicación de los
fenómenos vivos, como tampoco parecen quedar físicos o químicos tan mecanicistas que no admitan una relativa autonomía, no reducible, de los
procesos específicos catalogados como biológicos. Y en los últimos años se han sucedido los intentos de perfilar el peculiar campo de estudio de
las ciencias biológicas más allá de las propuestas mecanicistas de reducción y más acá de la insensata apelación a entelequias vitales. Elsasser
(1966), por ejemplo, ha intentado diseñar una lógica de clases inhomogéneas para fundamentar la propuesta «organicista». Bertalanffy (1968),
por su parte, ha intentado con los mismos supuestos dar la vuelta a la tortilla con su «revolución organísmica». Creo que sólo si se adopta una
perspectiva gnoseológica similar a la insinuada en el texto (no ontológica exclusivamente ni tampoco tecnológica) pueden resolverse estas
difíciles cuestiones. El teorema de la doble hélice se halla justamente en el corazón del asunto.
211
ENERO
2012
La biología molecular: ¿revolución o cierre? | Alberto Hidalgo Tuñón
MASTERMAN, M. (1970) «The Nature of a Paradigm» en LAKATOS y MUSGRAVE (eds) Criticism and the
Growth
ofKnowledge,
Carnbrige
Univ.
Press
(vers.
castellana
en
Griialbo,
1975).
MIRSKY, A. E. (1968) «The discovery of DNA» Scientific American, 218: 78-88.
MONOD, J. (1970) Le hasard et la nécessité, Editions de Seuil, París (vers. cast. en Barral, 1970).
MOULINES, U. (1962) Exploraciones Metacientífieos, Alianza Universidad, Madrid.
MULLINS, M. C. (1966) «Social Networks among Biológica! Scientists», Harvard Ph. D.th.
MULLINS, M. C. (1962) «The development of a scientific speciality», the Phage Group and the origins of
Molecular Biology», Minerva, X, 51-82.
ONDARZA, R. N. (1968) Biología Moderna, s. XXI, México: 1979.
RUSE, M. (1973) La filosofía déla Biología, Alianza, Madrid, 1979.
SHAPERE, D. (1964) «The Structure of Scientific Revolutions», Phil. Review, 73, 383-94.
SHAPERE, D. (1966) «Meaning and Scientific Change» en COLODNY (ed): Mir.dand Cosmos Univ. of Pittsburgh
Press.
SNEED, J. (1971) 77ie Logical Structure of Mathematical Physic, D. Reidel, Dordrecht.
STEGMULLER, W. (1973) Theorie und Erfahrung. Vol II. Springer-Verlag. Berlín.
STEGMULLER. W. (1979) The Struauraiist View of Theories, (ibid.). vers. cast. 1981
212
ENERO
2012

Documentos relacionados