Centro de Difusión de la Ciencia y la Tecnología
Transcripción
Centro de Difusión de la Ciencia y la Tecnología
Conversus 60 Mayo 24/5/07 20:07 Page 1 Instituto Politécnico Nacional contenido Realización: Jovan Campos Dr. José Enrique Villa Rivera Director General Dr. Efrén Parada Arias Secretario General Dra. Yoloxóchitll Bustamante Díez Secretaria Académica Dr. Héctor Martínez Castuera Secretario de Servicios Educativos M. en C. José Madrid Flores Secretario de Extensión e Integración Social Dr. Mario A. Rodríguez Casas Secretario de Administración Lic. Luis Ríos Cardenas Secretario Técnico Dr. Luis Humberto Fabila Castillo Secretario de Investigación y Posgrado Dr. Miguel Linding Boss Coordinador General de Servicios Informaticos Fernando Fuentes Muñiz Coordinador de Comunicación Social Lic. Luis Alberto Cortez Ortiz Abogado General Ing. Sergio Viñals Padilla Encargado de Despacho del Centro de Difusión de Ciencia y Tecnología Conversus Director Editorial Ing. Rodolfo de la Rosa Rábago Comité Editorial José Antonio Arias Montaño, Rosendo Bolívar Meza, José Gerardo Cabañas Moreno, Guillermo Carvajal Sandoval, Sergio A. Estrada Parra, Luis Humberto Fabila Castillo, Jorge González Claverán, Clemente R. Morales Dávila, Ricardo Mota Palomino, Efrén Parada Árias, Octavio Paredes, Ofir Picazo Picazo, Radu Gheorghe Racotta Poulieff, Onofre Rojo Asenjo, Michael Shapiro Fishman, Joaquín Tamariz Mascarúa, María de los Ángeles Valdés Ramírez, Miguel Ángel Valenzuela Zapata, José Enrique Villa Rivera. Jefe del Departamento Editorial Lic. Octavio Plaisant Zendejas Encargado de Redacción Lic. José Luis Carrillo Aguado Reporteros Lic. Jorge Rubio Galindo Maricela Cruz Martínez Fabian Quintana Sánchez Ricardo Urbano Lemus Encargada de Diseño Gloria P. Serrano Flores Ilustración y diagramación Y. Jovan Campos Hernández Gloria P. Serrano Flores 3 Multiverso Fronteras 4 Nave espacial de la hacia Plutón NASA en ruta José Luis Carrillo Aguado 6 Mosquitos transgénicos: ¿El fin de la malaria? Ricardo Urbano Lemus 10 ¿Vacas que producen insulina? Ricardo Urbano Lemus Impresión: Impresora y Encuadernadora Progreso, S.A. de C.V. San Lorenzo Tezonco núm. 244 Col. Paraje San Juan, Delegación Iztapalapa, C. P. 09830, México D. F. Distribución: Publicaciones CITEM, S.A. de C.V. Av. del Cristo 101, Col. Xocoyahualco. Tlanepantla, Edo. de México. C.P. 54080 Periodismo científico para el Tercer Milenio 14 ¿Internet cuántico en este siglo? Conversus Es una publicación mensual (Septiembre 2006), con excepción de los meses junio-julio y diciembre-enero, del Instituto Politécnico Nacional, editada por el Centro de Difusión de la Ciencia de la Secretaría de Extensión y Difusión. Los artículos firmados son responsabilidad exclusiva de su autor y no reflejan necesariamente el criterio de la institución, a menos que se especifique lo contrario. Se autoriza la reproducción parcial o total, siempre y cuando se cite explícitamente la fuente. Domicilio de la publicación: Av. Zempoaltecas esq. Manuel Salazar, Col. Ex Hacienda El Rosario. Deleg. Azcapotzalco. C.P. 02420 Número de Certificado de Reserva otorgado por el Instituto Nacional del Derecho de Autor: 04-2001-100510055600-102. Número de Certificado de Licitud de Título 11836. Número de Certificado de Licitud de Contenido 8437, otorgados por la Comisión Calificadora de Publicaciones y Revistas Ilustradas de la Secretaría de Gobernación. Número ISSN 1665-2665. Editor responsable: Rodolfo de la Rosa Rábago Tel.: 5729 6000, ext.: 64827 D.e.: [email protected] Manuel Calvo Hernando 18 El ombudsman de la divulgación y el derecho a la información científica José Luis Carrillo Aguado Octavio Plaisant Zendejas Arcadio Monroy Ata Conversus 60 Mayo 24/5/07 20:07 Page 2 Cinvestav en su tinta 22 ¿Qué es un tóxico? Arnulfo Albores Medina CICIMAR: la puerta del IPN al mar 26 Una alternativa para divulgar la ciencia: El café científico Cruz del Carmen Juárez Olvera Victor Carrasco Chávez Observatorio Científico 30 El genoma de los mexicanos: Las huellas del mestizaje Octavio Plaisant Zendejas Cambio global 34 El fraude del Protocolo de Kyoto Arcadio Monroy Ata Investigación Hoy 38 Nueva terapia que ataca al cáncer cervicouterino Maricela Cruz Martínez Eva Ramón Gallegos 42 Tecnología informática contra plagas Soluciones Fabian Quintana Sánchez 48 La Herradura de Peñoles, orgullo de Sonora José Luis Carrillo Aguado Donde la ciencia se convierte en cultura 52 Cómo combatir el deterioro del idioma Manuel Calvo Hernando Otra voz... La visión del jóven investigador 60 Etanol: alternativa energética Ana Isabel López Garcia Sucesos 64 Insulina, forma más efectiva de combatir a la diabetes Maricela Cruz Martínez 66 El CIC en la mira de Microsoft Fabian Quintana Sánchez 70 Si se puede si se quiere: Una semblanza de la problematica nacional José Luis Carrillo Aguado Conversus 60 Mayo 24/5/07 20:07 Page 3 Multiverso Las leyes federales de Radio y Televisión y de Telecomunicaciones Las técnicas de digitalización aplicadas a los servicios de radiodifusión, permiten a los concesionarios de radio y televisión diversificar los servicios de telecomunicaciones ofrecidos a sus radioescuchas y televidentes, respectivamente, aún cuando todavía no sea posible recibir esos productos en la gran mayoría de los hogares, considerando que los receptores de radio y televisión en uso aún no están preparados para ello. Esta evolución en los servicios lleva algunos años en el mercado del entretenimiento y del acceso a la información, principalmente en el servicio de radiodifusión FM (por ejemplo, RDS (Radio Data System) tecnología que permite enviar datos no sonoros por la misma señal de una emisora de radio, los cuales se ven reflejados en el pantalla del receptor) y en las redes de telefonía y televisión restringida (por ejemplo, el acceso a Internet y a servicios telefónicos vía concesionarios de TV por cable, o el acceso a Internet y a programación de televisión vía concesionarios de telefonía). La razón que complica la diversificación de servicios por parte de los concesionarios de TV, radica en su propia definición, ya que para este caso en particular es obligatorio que el servicio sea de acceso libre, en virtud de que su esquema de negocios está orientado a la publicidad comercial. En este sentido solo se vislumbran dos opciones: a) seguir manejando reglamentariamente ambos servicios por separado, o b) incluir los servicios de radiodifusión dentro de los servicios de telecomunicaciones. Es evidente que ambos casos tienen su problemática asociada, pero para coadyuvar en la solución de la disyuntiva se requiere que los esfuerzos se centren en alcanzar una opción justa y equilibrada, sin pretender obtener beneficios adicionales no necesariamente indispensables para el logro de la misma. Como se infiere de lo anterior, la conveniencia de que los servicios de radiodifusión y de telecomunicaciones en nuestro país se diversifiquen no tiene discusión, así como tampoco lo tiene el que deban ser más confiables y estar disponibles para la mayoría de la población, tanto en lo que respecta a la cobertura, como al precio que pagaría por ellos. Como parte de lo que hay que contemplar para alcanzar esta condición, es ineludible considerar las posibilidades de que distintos actores puedan intervenir en la prestación de dichos servicios en condiciones igualitarias, sin privilegios y evitando excepciones en todos y cada uno de los aspectos involucrados. Asuntos tan trascendentes como la vigencia de las concesiones, el derecho de réplica y la regulación de los contenidos, sin olvidar lo concerniente a la inversión extranjera en estos rubros y al uso público y social del espectro radioeléctrico, deben ser perfectamente claros y por ninguna razón deben ser excluidos de las disposiciones reglamentarias. Es en este sentido que la revisión que se efectúe de las leyes federales de Radio y Televisión y de Telecomunicaciones, derivada de la resolución que tome la Suprema Corte de Justicia de la Nación en uno u otro sentido, debe orientarse a complementar las disposiciones allí establecidas y a incluir los actores y los temas que quedaron pendientes. IPN Donde la ciencia se convierte en cultura 3 Conversus 60 Mayo 24/5/07 20:08 Page 4 Fronteras Asalto al Gigante Nave espacial de la NASA en ruta hacia Plutón José Luis Carrillo Aguado* *Periodista científico de Conversus. 4 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:08 Page 5 a nave espacial New Horizons de la NASA, con destino a Plutón, se zambulló en el pozo gravitacional de Júpiter el pasado 28 de febrero y lo utilizó como si fuese una honda, para salir de él con mayor velocidad de la que ingresó, aprovechando la denominada asistencia gravitacional, según explicó el doctor Robert Farquhar, director de la misión New Horizons del Laboratorio de Física Aplicada (Applied Physics Laboratory), de la Universidad Johns Hopkins. L New Horizons es la nave espacial más rápida que haya despegado jamás desde la Tierra, pero necesita aún más velocidad para llegar a Plutón, planeta que se aleja del Sol. Para lograr su cometido y acelerar su paso, la nave se verá obligada a robar algo de energía a Júpiter, quien tendrá que reducir la suya, según la ley de conservación de la energía. El cambio de la órbita de Júpiter alrededor del Sol debido al sobrevuelo de la nave es fantásticamente pequeño. New Horizons absorberá aproximadamente 1/1025 de la energía de la órbita de Júpiter. Eso es como “quitarle una gota al océano”, y literalmente es correcto, ya que en el conjunto de todos los océanos de la Tierra existen alrededor de 1025 gotas. Esta pérdida, increíblemente pequeña para Júpiter, representa un gran impulso para New Horizons, quien así obtuvo la energía suficiente para superar los 83 700 km por hora. Para darnos una idea de esta velocidad, a este ritmo viajaría de Nueva York a Tokio en menos de ocho minutos. Con la aceleración propinada por Júpiter, la nave llegará al sistema de Plutón en julio de 2015, cinco años antes de lo supuesto si no contara con el apoyo de Júpiter. Los astrónomos previeron el potencial de usar la gravedad como combustible mucho antes de que existieran los viajes espaciales, al menos, desde el siglo diecinueve. New Horizons sacará el máximo provecho de su tiempo de sobrevuelo. Durante junio, la nave colocará los sistemas de prueba y siete instrumentos de precisión científica llevarán a cabo mediciones a través de más de 700 observaciones, que incluirán tomas de barrido de la turbulenta y tormentosa atmósfera de Júpiter, el primer acercamiento a la Nueva Mancha Roja en Júpiter, una joven tormenta que se formó al Sur de la famosa Gran Mancha Roja, un estudio minucioso de sus lunas más grandes y al cabo de ocho años, llevará a cabo un estudio de cinco meses de duración sobre Plutón y sus lunas. La nave también hará el primer vuelo hacia la cola de la magnetósfera de Júpiter, una corriente vasta de partículas cargadas que se extiende decenas de millones de kilómetros atrás del planeta. New Horizons ha sido sometida a un rango completo de pruebas de instrumental, calibraciones, ampliaciones del software de vuelo y tres maniobras propulsoras para ajustar su trayectoria. Después de una travesía de ocho años desde Júpiter a través del exterior del sistema solar, New Horizons conducirá un estudio de cinco meses de duración sobre Plutón y sus tres lunas en 2015. La investigación científica incluirá la geología global, el mapeo del relieve y su temperatura, y la composición atmosférica y estructura de Plutón. Una misión potencial sería conducir estudios similares en uno de los mundos pequeños del Cinturón de Kuiper, la región de bloques planetarios antiguos, rocosos y a base de hielo situada detrás de la órbita de Neptuno. Esta misión pretende ir más allá del degradado Plutón, sigamos con atención su ruta, es una forma de permanecer en contacto con los grandes avances tecnológicos de la humanidad. IPN Donde la ciencia se convierte en cultura 5 Conversus 60 Mayo 24/5/07 20:09 Page 6 • La malaria causa la muerte de casi dos millones de personas al año. • Un grupo de investigadores entre ellos dos brasileños de la Universidad Johns Hopkins busca cambiar dicho escenario Mosquitos transgénicos: ¿El fin de la malaria? Ricardo Urbano Lemus* *Reportero de Conversus 6 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:09 Page 7 a malaria es una de las enfermedades tropicales más comunes y graves del mundo. Entre 300 y 400 millones de personas contraen la malaria cada año y mueren por esta enfermedad casi dos millones de individuos en el mundo, la mayoría de los decesos son niños menores de cinco años, sobre todo en países pobres. Las previsiones apuntan a que en el año 2010 aproximadamente la mitad de la población mundial estará en riesgo de contraer la malaria. Ante dicho escenario un grupo de investigadores de la Universidad Johns Hopkins en Estados Unidos, ofrecen una alternativa: mosquitos que manipulados genéticamente sean resistentes a la infección a fin de terminar con su propagación. L El equipo de investigación de Baltimore publicó un artículo en la revista Proceedings of the National Academy of Sciences según el cual la modificación genética de los mosquitos puede ser una gran ayuda en la lucha contra la enfermedad. Consiste en inmunizar a los propios insectos para que no puedan transmitir la malaria. MALARIA TRANSPORTADA POR MOSQUITOS La malaria, también denominada paludismo o fiebre biduoterciana, es una enfermedad parasitaria que se transmite al ser humano principalmente a través de la picadura del mosquito anofeles (aunque también puede transmitirse entre humanos infectados, particularmente entre la madre y el feto, o a través de transfusiones sanguíneas). Algunos de sus síntomas son escalofríos, dolor de cabeza, náuseas y vómitos, dolor muscular, anemia, convulsiones e incluso coma. Entre La malaria mata a casi dos millones de personas al año, 90 por ciento de los decesos ocurren en África, en su mayoría niños menores de 5 años ÁFRICA: los grupos de alto riesgo figuran los niños, mujeres embarazadas, viajeros, refugiados, personas desplazadas y jornaleros que van a trabajar a zonas endémicas. PREVENCIÓN Y ATENCIÓN El tratamiento rápido y eficaz de la malaria, que puede reducir las tasas de mortalidad en un 50 por ciento debería formar parte de la atención materno-infantil sistemática. LA MAYOR VICTIMA El 90 por ciento... de las defunciones por malaria corresponde a África subsahariana. En esa región, la enfermedad se cobra unas tres mil vidas diarias, en la mayoría de los casos niños. La malaria es prevalente en un total de 105 países y territorios. Según la división regional de la Organización Mundial de Salud, la enfermedad afecta gravemente a 45 países de África, 21 de América, seis de Europa, 14 del Mediterráneo Oriental, nueve de Asia Sudoriental y 10 del Pacífico Occidental. Aproximadamente el seis por ciento de los casos de malaria se produce en el Asia meridional y sudoriental, México, Brasil, Haití, República Dominicana, América Central y del Sur, Papúa-Nueva Guinea, Vanuatu y las islas Salomón. EUROPA: Un problema creciente ÁFRICA: Principal causa de muerte ASIA: Allí han aparecido nuevas cepas resistentes a los fármacos IPN Donde la ciencia se convierte en cultura 7 Conversus 60 Mayo 24/5/07 20:09 Page 8 ¿QUÉ PROVOCA LA MALARIA? La malaria es una enfermedad causada por un parásito del género Plasmodium. Existen más de 150 especies de Plasmodium que infectan diferentes vertebrados, pero solamente cuatro (P. falciparum, P. vivax, P. ovale y P. malariae) infectan al hombre. El Plasmodium vivax es uno de los parásitos causantes de la malaria. La pulverización de insecticidas, los mosquiteros y otras medidas rentables pueden ayudar a prevenir la malaria. En la actualidad, sólo el dos por ciento de los niños de África duerme bajo una red impregnada con insecticida. En algunas zonas, los parásitos de la malaria han desarrollado resistencia a los fármacos más comunes y baratos que se utilizan para tratar la enfermedad. Sin embargo, la resistencia al tratamiento puede retardarse empleando terapias que combinen diferentes medicaciones. Según el informe de la Comisión de Macroeconomía y Salud de la Organización Mundial de la Salud, se necesitarán hasta 2 000 millones de dólares cada año para alcanzar el objetivo de reducir a la mitad la mortalidad de la malaria en 2010. En la actualidad, sólo se están gastando 600 millones de dólares. EXPERIMENTAN CON MOSQUITOS Los mosquitos hembras se contagian con el parásito de la malaria cuando extraen sangre de seres humanos enfermos, estos pueden pasar ese parásito a otros humanos al picarlos, sin desarrollar la enfermedad. El equipo de investigadores de la Universidad Johns Hopkins, considera que un gen llamado SPRN6 capacita al mosquito para defenderse a sí mismo de la enfermedad. Al analizar dos tipos de mosquito, el Anopheles stephensi y el Anopheles gambiae, el doctor Jacobs-Lorena y sus colegas descubrieron que normalmente el gen SPRN6 está inactivo. Sin embargo, cuando los 8 conversus Mayo 2007 mosquitos se infectan con el parásito de la malaria, el gen está activo. Para analizar la función del SPRN6 los investigadores observarón lo que sucedía cuando forzaban al gen a permanecer inactivo. Descubrieron que los mosquitos Anopheles stephensi desarrollaron un número tres veces mayor de parásitos de malaria. Y al retirar completamente el gen SPRN6 en los mosquitos Anopheles gambiae, lograron retrasar el proceso natural por el cual los insectos se deshacen del parásito. En la investigación que ha dado lugar al artículo, sus autores han demostrado que los mosquitos modificados tienen un 50 por ciento más de posibilidades de supervivencia que los que están infectados. De este modo, liberados en el ecosistema poco a poco pueden imponerse en número a éstos hasta llegar a una situación ideal de gran mayoría de mosquitos sanos. Los investigadores combinaron números iguales de mosquitos transgénicos y naturales y les dejaron alimentarse de sangre de ratones infectados con malaria. Después de nueve generaciones, el 70 por ciento de los mosquitos eran transgénicos frente al 50 por ciento del inicio del experimento. PERSPECTIVA: CONTROLAR LA INFECCIÓN Ahora, con estos datos se podrían introducir estos mosquitos, con los que se reduciría la propagación del parásito que causa la enfermedad. El debate ahora es sobre la posibilidad de que los insectos transgénicos alteren los ecosistemas naturales. Sin embargo, los autores del trabajo señalan que los posibles efectos negativos de esta nueva especie pueden superarse por los beneficios alcanzados en salud. Aunque los especialistas advierten de que se necesitarán nuevas investigaciones antes de utilizarlos. INVESTIGACIÓN CON UN TOQUE DE SAMBA La investigación encabezada por Mauro T. Marrelli, Li Chaoyang, Jason L. Rasgon, y Marcelo Jacobs-Lorena, se realizó en el Departamento de Microbiología e Inmunología Moleculares, en la Escuela de Bloomberg de la Salud Pública y el Instituto de Investigación de la Malaria, de la Universidad de Johns Hopkins. La investigación es de suma importancia para el mundo, pero también representa un gran logro para la ciencia de Brasil de donde son originarios los investigadores EL FONDO MUNDIAL DE LUCHA CONTRA EL SIDA, LA TUBERCULOSIS Y LA MALARIA, AYUDA A... • Financiar 109 millones de mosquiteras para la cama con el fin de proteger a las familias contra la transmisión de la malaria, por lo que se ha convertido en la mayor entidad financiera de mosquiteras tratadas con insecticida del mundo • Entregar 264 millones de tratamientos de fármacos combinados basados en la artemisinina contra la malaria resistente Conversus 60 Mayo 24/5/07 20:09 Page 9 UNIVERSIDAD JOHNS HOPKINS… La universidad debe su nombre a su fundador, Johns Hopkins, hombre de negocios, presidente de banco y magnate de ferrocarriles de Baltimore a mediados del siglo XIX. Al morir en 1873 a la edad de 78 años sin haber contraído nupcias, Hopkins estableció en su testamento la creación de una universidad dedicada a los alto estudios y a la investigación científica, al igual que un hospital que brindara la mejor atención médica. Gracias a su voluntad se crearon la Universidad y el Hospital Johns Hopkins, dando lugar así a que por primera vez quedaran directamente vinculados un hospital y una universidad en los Estados Unidos. Marrelli y Jacobs-Lorena, quiénes tienen una reconocida trayectoria en el mundo. ¿SE PODRÁ EVITAR UNA EPIDEMIA MUNDIAL? Son casi dos millones de personas que mueren al año, la mayoría niños menores de cinco años, los países pobres son los mas afectados, los mosquitos se adaptan a los insecticidas, la propagación esta en constante aumento, arriesgándose la mitad de la población mundial y los muchos millones de dólares parecen insuficientes ante la epidemia de la malaria. Hoy la investigación de los mosquitos transgénicos resistentes a la infección de la Universidad Johns Hopkins se convierte en la posibilidad de poner fin a la malaria. REFERENCIAS: <http://www.pnas.org/cgi/content/abstract /0609809104v1> <http://www.theglobalfund.org/es/about/m alaria/> <http://www.revistapesquisa.fapesp.br/ index.php?art=3807&bd=2&pg=1&lg=> <http://www.belt.es/noticias/2005/junio/20 /mosquito.asp> <http://www.consumer.es/web/es/salud/20 07/03/20/161000.php> IPN Donde la ciencia se convierte en cultura 9 Conversus 60 Mayo 24/5/07 20:10 Page 10 • Argentina obtiene insulina humana • Se prevé obtener medicamentos de calidad a un menor costo ¿Vacas que producen insulina? Ricardo Urbano Lemus* *Reportero de Conversus 10 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:10 Page 11 unque usted no lo crea, por primera vez investigadores de Argentina obtienen insulina humana a partir de vacunos manipulados genéticamente. Un desarrollo íntegramente nacional dentro del proyecto Tambo Farmacéutico Bio Sidus brinda una respuesta productiva al tratamiento de una de las enfermedades de mayor impacto sanitario en la actualidad: la diabetes. A Bio Sidus, una empresa de biotecnología importante de América Latina perteneciente al Grupo de Empresas Farmacéuticas Sidus, presenta la Dinastía Patagonia: un rodeo de bovinos transgénicos y clonados capaces de producir en su leche un precursor de la insulina humana. Esta alternativa de producción permitirá disponer de altas cantidades de medicamento idéntico a la proteína humana y a un menor costo. DIABETES: EL GRAN PROBLEMA En la actualidad existen en el mundo cerca de 200 millones de personas que sufren diabetes, de las cuales el 85 por ciento corresponde a la del tipo 2 y si no se toman acciones se asegura que esta cifra aumentará a 366 millones para el 2025, según un reporte de la Federación Internacional de Diabetes. Esta enfermedad se caracteriza por una respuesta deficiente a la insulina, ha tomado características epidémicas y está relacionada con aspectos genéticos así como también con el sedentarismo y la alimentación inadecuada. Cabe destacar “En la actualidad existen en el mundo cerca de 200 millones de personas que sufren diabetes” que el 75 por ciento de la población diabética mundial se localiza en los países en desarrollo. Entre un 10 y un 20 por ciento de las personas mayores de sesenta años son diabéticos, lo que les genera complicaciones a nivel cardiovascular, neurológico, renal, oftalmológico e infectológico. De ahí la importancia de un diagnóstico temprano y de un rápido establecimiento del tratamiento crónico adecuado. Si bien estos pacientes comienzan con otros tipos de tratamientos finalmente una importante proporción debe adoptar la administración de insulina en etapas avanzadas de la enfermedad. En Argentina existen más de un millón y medio de pacientes diabéticos. Su tratamiento produce un gran impacto económico en los pacientes y en los sistemas de salud por tratarse de un tratamiento crónico de un producto de considerable valor. EL PROYECTO: OBTENER INSULINA El proyecto nace con el objetivo de producir medicamentos de alta tecnología a un menor costo para que más pacientes puedan acceder al tratamiento. La insulina es una hormona proteica producida por las células beta pancreáticas que regula la entrada de la glucosa a los tejidos. Su déficit parcial o total provoca la diabetes tipo 1. Estos pacientes dependen absolutamente del suministro exógeno de insulina. En la actualidad el mercado mundial de insulina alcanza los 5 000 millones de dólares. La obtención de insulina humana recombinante mediante métodos más eficientes como los que aporta la tecnología de los animales transgénicos permiten abaratar los costos de producción sin disminuir la calidad del producto. IPN Donde la ciencia se convierte en cultura 11 Conversus 60 Mayo 24/5/07 20:10 Page 12 ¿COMO LO HICIERON?: BIORREACTOR DE ALTA PRODUCTIVIDAD La glándula mamaria constituye un tejido especializado en la producción eficiente de proteínas. Está capacidad se aprovecha mediante el uso de herramientas de biología molecular cuando se introduce la información genética de una proteína humana para ser producida en altas cantidades en la leche. Para ello, el gen del precursor de insulina humana fue programado para que sólo se active en las glándulas mamarias del animal. Esta estrategia genética permite que un gen, que se encuentra presente en todas las células de un organismo, se muestre activo o encendido solamente en un tejido predeterminado y no en otro. Para evitar los posibles efectos que la insulina pudiese ocasionar sobre la fisiología de los animales transgénicos, se diseñó un precursor modificado, inactivo en los bovinos, para que al obtenerse en la leche se pueda recuperar su forma farmacéutica activa. De esta manera, el proceso productivo consistirá en la obtención del precursor en la leche, su procesamiento molecular para la obtención de la molécula activa y su purificación final para la obtención del producto farmacéutico. EL ÉXITO: LAS PRIMERAS VACAS Las terneras Patagonia I, II, III y IV nacieron entre febrero y marzo de 2007. Son cuatro terneras de raza Jersey que poseen en su material genético el gen del precursor de insulina humana. Una vez que hayan alcanzado su madurez sexual serán estimuladas para estudiar los niveles de este precursor en su leche. “La tecnología de los animales transgénicos permiten abaratar los costos de producción sin disminuir la calidad del producto” LA PERSPECTIVA La leche con el precursor de insulina humana es sólo una etapa intermedia del proceso de producción. De ninguna manera es el medicamento que llegará a los pacientes. El paso siguiente a partir de la obtención de dicho precursor será la optimización del proceso de aislamiento y purificación, a escala industrial, de la insulina humana a partir de leche bovina. 12 conversus Mayo 2007 Mientras tanto se inicia una espera obligatoria necesaria para la expansión del rodeo de terneras transgénicas, para que luego de alcanzar su madurez, estén en condiciones de producir, en forma natural, abundante leche que contenga el precursor de insulina humana. Una estimación conservadora permite predecir que el volumen de producción de un rodeo de alrededor de 25 vacas será suficiente para cubrir la totalidad de la demanda de insulina humana de Argentina, que cuenta con poco más de un millón y medio de pacientes diabéticos. CIENCIA LATINOAMERICANA Este exitoso desarrollo de los científicos argentinos que integran Bio Sidus es un claro ejemplo de la visión estratégica del Grupo de empresas farmacéuticas Sidus que, apoyándose en las llamadas tecnologías innovadoras, orienta sus mayores esfuerzos hacia el desarrollo de novedosos métodos para la obtención de medicamentos de alta calidad y accesibles para millones de personas que sufren el problema de la diabetes. REFERENCIAS: <http://www.lanacion.com.ar> <http://www.sidus.com.ar> Conversus 60 Mayo 24/5/07 20:10 Page 13 Continúa en la página 17 Conversus 60 Mayo 24/5/07 20:13 Page 14 Periodísmo científico para el Tercer Milenio ¿Internet cuántico en este siglo? Manuel Calvo Hernando* * Periodista y divulgador científico. Presidente de Honor de la Asociación Española de Periodismo Científico. D.e: [email protected]. 14 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:13 Page 15 ace cien años, en las postrimerías del siglo XIX, los científicos de todo el mundo estaban convencidos de que habían alcanzado una representación exacta del mundo físico. Como señaló Alastair Rae, “a finales del siglo XIX parecían conocerse los principios fundamentales que rigen el comportamiento del universo físico”. De hecho, muchos científicos sostenían que el estudio de la física prácticamente podía darse por concluido: no quedaban grandes descubrimientos por hacer, sólo detalles y pinceladas finales. H Pero en la última década del siglo salieron a la luz unas cuantas curiosidades. Roentgen descubrió unos rayos que traspasaban la carne; como no había explicación, fueron llamados rayos X. Dos meses después, Henri Becquerel advirtió por azar que un fragmento de mineral de uranio emitía algo que velaba las placas fotográficas. Por su parte, el electrón, portador de la electricidad, fue descubierto en 1897. En términos generales, los físicos siguieron sin inmutarse. Dando por supuesto que estas rarezas quedarían explicadas tarde o temprano por la teoría existente. Nadie hubiera previsto que en cinco años esa conformista visión del mundo se vería trastocada de manera sorprendente, surgiendo una nueva concepción del universo y unas nuevas tecnologías que transformarían la vida cotidiana del siglo XX de un modo entonces inimaginable. Si en 1899 alguien hubiera dicho a un físico que en 1999, cien años más tarde, se transmitirían imágenes en movimiento a los hogares de todo el mundo desde satélites; que bombas de potencia inconcebible amenazarían la supervivencia de la especie; que los antibióticos atajarían las enfermedades infecciosas y que después tales enfermedades contraatacarían; que las mujeres tendrían derecho al voto y a píldoras para controlar la reproducción; que cada hora alzarían el vuelo millones de personas en aparatos capaces de despegar y aterrizar sin intervención humana; que sería posible cruzar el Atlántico a tres mil doscientos kilómetros por hora; que los hombres viajarían a la Luna y que luego perderían el interés por el espacio exterior; que los microscopios permitirían ver átomos independientes; que la gente llevaría encima teléfonos de un peso no mayor que unas cuantas docenas de gramos y se comunicarían sin hilos con cualquier lugar del mundo; o que estos milagros dependerían de un dispositivo del tamaño de un sello de correos, basado en una nueva teoría llamada química cuántica...; si alguien hubiera dicho entonces todo esto, el físico sin duda le habría tachado de loco. La mayoría de estos avances no podían predecirse en 1899, porque la teoría científica imperante los consideraba imposibles. Y en cuanto a las pocas innovaciones que por entonces parecían posibles —tales como los aviones— , la envergadura de su uso posterior hubiera escapado a las previsiones de cualquiera. Podían imaginarse un avión; pero la presencia simultánea de diez mil aviones en el aire era algo inconcebible. Así pues, se puede afirmar en rigor que —tal y como dice el conocido escritor norteamericano Michael Crichton—, en el umbral del siglo XX, ni siquiera los científicos mejor informados tenían la más vaga idea de lo que se avecinaba. Ahora que nos encontramos en los comienzos del siglo XXI, la situación presenta una curiosa similitud. Una vez más los científicos creen que el mundo físico está ya explicado y que el futuro no depara más revoluciones. Algunos observadores incluso han llegado al extremo de plantear la tesis de que la ciencia como disciplina ha concluido ya su tarea, que no le queda nada importante por descubrir. Pero de la misma manera que en los últimos años del siglo XIX existían indicios de lo que estaba por venir, en los últimos años del siglo XX encontramos también pistas para vislumbrar el futuro. Una de las principales es el interés en la llamada tecnología cuántica, un esfuerzo en muchos frentes para crear una nueva tecnología para utilizar la naturaleza esencial de la realidad subatómica, lo cual promete revolucionar nuestra idea de lo que es posible. IPN Donde la ciencia se convierte en cultura 15 Conversus 60 Mayo 24/5/07 20:13 Page 16 La tecnología cuántica entra en total contradicción con lo que el sentido común nos dice sobre el funcionamiento del mundo y postula un universo en el que las computadoras operan sin ponerse en marcha y los objetos se encuentran sin buscarlos. Con una sola molécula puede construirse una computadora de potencia inimaginable. La información se desplaza entre dos puntos de forma instantánea, sin hilos ni redes. Se examinan objetos lejanos sin contacto alguno. Las computadoras realizan sus cálculos en otros universos. Y el teletransporte es algo corriente y utilizado de muy diversas maneras. En la década de los noventa del siglo anterior, las investigaciones en el campo de la tecnología cuántica han empezado a dar resultados. En 1995 se enviaron mensajes cuánticos ultraseguros a una distancia de 61 kilómetros, lo cual indujo a pensar que en el siglo siguiente —el XXI— se desarrollaría una Internet cuántica. Se ha empezado el avance en la denominada “detección sin interacción”, también conocida como “encontrar algo sin buscar”. En 1998 se demostró la posibilidad del teletransporte cuántico en tres laboratorios de distintos lugares del mundo: Innsbruck, Roma y Cal Tech (California Institute of Technology). Estas curiosidades cuánticas contrarias a la lógica y al sentido común, han recibido escasa atención por parte del público, pero esto no seguirá así por mucho tiempo. Según ciertas estimaciones, en las primeras décadas del presente siglo, la mayoría de los físicos de todo el mundo trabajará en algún aspecto de la tecnología cuántica. No es de extrañar, por tanto, que a mediados de la década de los noventa varias empresas comenzaran a llevar a cabo investigaciones cuánticas. En retrospectiva, fue una combinación de peculiares circunstancias —y mucha suerte— lo que situó a una de ellas, la ITC, a la cabeza de una nueva tecnología espectacular. Si bien la empresa sostenía que sus descubrimientos eran totalmente inocuos, su llamada “expedición de rescate” puso de manifiesto con absoluta claridad los riesgos implícitos. Durante dicha expedición, una persona desapareció y otra sufrió graves heridas. Para los jóvenes estudiantes de postgrado que emprendieron la expedición, esta nueva tecnología cuántica, heraldo del siglo XXI, fue sin duda cualquier cosa, menos inocua. Michael Crichton dedica a este tema su última novela, Rescate en el tiempo (1999-1357), Plaza & Janés Editores, S.A. 2000. Al final, en el epílogo, recuerda que nuestra comprensión de la Edad Media ha variado de manera espectacular en los últimos cincuenta años. Aunque de vez en cuando —dice— todavía oímos a algún científico presuntuoso referirse a este período con el término ”Edad de las Tinieblas”, los puntos de vista modernos han desechado estos simplismos desde hace tiempo. Una época que se consideraba estática, brutal y sumida en la ignorancia, se ve ahora como un período dinámico y cambiante: un período en el que se buscaba y valoraba el conocimiento; en el que nacieron grandes universidades y se fomentó la enseñanza; en el que la tecnología se impulsó con entusiasmo; en que las relaciones sociales fluctuaron continuamente, en el que el comercio alcanzó una dimensión internacional; en el que el nivel global de violencia era con frecuencia mucho menos catastrófico que en la actualidad. En cuanto a la fama atribuida a la Edad Media como oscura época de provincianismo, prejuicios religiosos y grandes masacres, la historia del siglo XX debería llevar a cualquier observador reflexivo a la conclusión de que nuestro tiempo no es en modo alguno superior. 16 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:13 Page 17 Conversus 60 Mayo 24/5/07 20:15 Page 18 Transparencia en el Periodismo Científico El Ombudsman de la divulgación y el derecho a la información científica José Luis Carrillo Aguado* Octavio Plaisant Zendejas* Arcadio Monroy Ata** *Periodistas científicos de Conversus **Investigador de la Academia de Ecología de la Facultad de Estudios Superiores unidad Zaragoza de la Universidad Nacional Autónoma de México (UNAM) 18 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:15 Page 19 n nuestro país se hace necesaria la consolidación del acceso de la sociedad civil a la información científica y técnica. El hombre de la calle depende cada vez más de los avances científicos y tecnológicos, pero está cada vez más lejos de dominar el conocimiento científico y tecnológico. Es por eso que en Conversus nos hemos preocupado desde hace algunos años en la creación de la figura del Ombudsman de los divulgadores de la ciencia. E ¿Qué es un Ombudsman? La figura surge en Suecia y sus antecedentes históricos se remontan a la etapa de la monarquía absoluta, durante la cual el rey controlaba por igual a los funcionarios y a los jueces. Carlos XII busca una fórmula para controlar no sólo la judicatura sino también a la administración del reino, por lo que decreta en octubre de 1713 la creación del Konungens Hogsta Ombudsman, “para ejercer una función de supervisión general a fin de asegurar que las leyes y reglamentos fuesen cumplidos y que los servidores públicos efectuaran sus tareas debidamente”. La palabra Ombudsman significa en sueco protector, mandatario, comisionado o representante del Parlamento, y en consecuencia, en último término protector de los derechos de los ciudadanos. México requiere de una institución con características del Ombudsman para promover y proteger los derechos culturales y el derecho a estar informado sobre ciencia y tecnología, de forma tal que la información se proporcione de forma veraz y oportuna, pues es una razón de la democracia el poder tomar decisiones con base en el conocimiento científico, para hacer uso del raciocinio como elemento inherentemente humano que ha sido factor clave en el desarrollo de nuestra civilización. En la actualidad, nos podemos percatar que las naciones que han apostado a la ciencia y a la tecnología como motores de su economía son los países con mayores niveles de bienestar, productividad y democracia. No debemos quedar rezagados en materia de investigación y desarrollo, so pena de vernos aislados del resto de la comunidad internacional. FUNCIONES DEL OMBUDSMAN Las funciones del Ombudsman de la divulgación serían las siguientes: a) Gestionar el derecho a la información científica de la sociedad mexicana. b) Mediar y dirimir conflictos públicos entre los divulgadores y sus fuentes de información. c) Defender los derechos inherentes a la libertad de expresión de los divulgadores. d) Promover la profesionalización de los divulgadores y el empleo responsable de los medios de comunicación masiva. e) Hacer recomendaciones sobre política científica y tecnológica al gobierno, a los partidos políticos, a las comisiones de ciencia y tecnología del Congreso de la Unión, a instituciones y a medios de comunicación. f) Impulsar el desarrollo de una cultura científica en la sociedad mexicana. g) Impulsar la consolidación y reconocimiento social del trabajo de los diferentes tipos de divulgadores de la ciencia. h) Fomentar el libre acceso a la información en instituciones de educación e investigación nacional. i) Apoyar las iniciativas de fomento a la cultura científica de las universidades e instituciones públicas. j) Fomentar el intercambio de interés máximo con divulgadores nacionales y extranjeros. IPN Donde la ciencia se convierte en cultura 19 Conversus 60 Mayo 24/5/07 20:15 Page 20 HERRAMIENTAS Los instrumentos para realizar las funciones descritas deberán ser: a) Autoridad moral como divulgador de la ciencia. b) Programa de trabajo. c) Código de ética del divulgador. d) Comité de apoyo. e) Sede. f) Espacios informativos en medios de comunicación. PROPUESTA DE OMBUDSMAN Para hacer operativa la propuesta del Ombudsman, hay una idea del cómo: a) Proponer candidatos que hayan dado su anuencia, para ocupar la posición del Ombudsman de los divulgadores de la ciencia. b) Elegir al Ombudsman (podría ser mediante evaluación curricular). c) Convocar a los divulgadores interesados, analizar los documentos generados por una comisión de expertos y condensar, en lo posible, los documentos que normarán el trabajo del Ombudsman. d) Publicar los documentos que normarán la estructura y función del Ombudsman. e) Hacer pública la designación del Ombudsman, sus funciones y atribuciones. f) El Ombudsman deberá presentar por escrito y en forma oral, un informe anual de su actuación, en un evento presenciado por los medios de comunicación. CÓDIGO DE ÉTICA DEL DIVULGADOR DE LA CIENCIA • Si no se es experto en el tema a divulgar, informarse y preguntar al investigador experto hasta comprender. No divulgar nada sin antes haberlo comprendido. • Informar sin alarmar, y no alarmar sin informar. • Si se cuenta con tiempo suficiente, presentar el borrador del texto al investigador para su revisión técnica. • Consultar dos o más fuentes de información independientes si se trata de un tema polémico o donde haya controversia, presentando las versiones contrapuestas. • Dar oportunidad a que se exprese, en el mismo medio y en la misma jerarquía informativa, cualquier inconformidad con lo publicado. • Citar el medio y el autor de la fuente original de la información publicada. • Divulgar en un lenguaje comprensible para el público meta al que está dirigido el medio empleado. • Tratar el tema a divulgar objetivamente, haciendo a un lado las consideraciones de índole personal, excepto si se trata de una entrevista de semblanza. • Respetar el género periodístico que se aborde; esto es, privilegiar la objetividad en la nota informativa, la interpretación en el reportaje y dar lugar a la opinión del divulgador en el artículo, la columna, la glosa o el comentario • Los medios interactivos, el teatro guiñol, las exposiciones en los museos interactivos, los talleres y las conferencias son géneros híbridos donde se puede incluir la opinión, dado su carácter más formativo que informativo. 20 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:15 Page 21 Conversus 60 Mayo 24/5/07 20:17 Page 22 Cinvestav en su tinta Gerardo Herrera Corral* ¿Qué es un tóxico? Arnulfo Albores Medina** * Editor de la columna, doctor en ciencias, investigador del Cinvestav **Doctor en ciencias, investigador de la Sección Externa de Toxicología y Secretario Académico del Centro de Investigación y de Estudios Avanzados (Cinvestav) del Instituto Politécnico Nacional. 22 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:17 Page 23 eguramente el término tóxico nos hace pensar en sustancias químicas que causan la muerte y las consideramos en general venenos que de inmediato provocan un daño en los individuos expuestos. En efecto, ambas palabras suelen provocar temor tanto en quien las pronuncia como en quien las escucha. S A través del tiempo se han utilizado diversas pociones y polvillos para acabar con la vida de connotados personajes históricos, la lista de estas víctimas o de quienes han hecho un arte del uso de estas pociones es muy larga. Un ejemplo es el caso de Sócrates, el filósofo griego fundador de la filosofía occidental, obligado a ingerir cicuta (una potente toxina de origen vegetal que afecta el sistema nervioso central) en el año de 399 a.C. por sus convicciones religiosas. De tal suerte que el empleo de substancias químicas con propósitos criminales es parte de la historia y en la actualidad es una práctica común, e incluso se ha convertido en una industria, como es el caso de las armas químicas. Sin embargo, a pesar de la connotación negativa que tiene la palabra tóxico, es sorprendente que estas sustancias, a ciertas concentraciones, tengan otros efectos. Paracelso (1493-1541), un famoso médico suizo, postuló que “todas las sustancias son tóxicas, solo la dosis hace la diferencia entre veneno o remedio”. Este postulado fue visionario para su época y sabemos que bajo ciertas condiciones, todas las sustancias son inocuas e inclusive benéficas (incluyendo los tóxicos), pero que en otras condiciones tienen efectos adversos para todos los seres vivos; este comportamiento depende principalmente de la cantidad. Efectivamente, químicos como el cianuro de potasio (KNC) y la toxina de Clostridium botulinum (presente en alimentos enlatados en malas condiciones) son muy potentes y bastan solo unos miligramos para provocar la muerte, mientras que para otros se requieren de grandes cantidades para generar daño a corto plazo. Hasta el día de hoy, estos conceptos constituyen fundamentos importantes en procesos de evaluación de los efectos adversos derivados de la exposición a compuestos químicos. Es sorprendente la multitud de compuestos químicos que están presentes en el ambiente en general (agua, aire, suelo y alimentos), a los que llamamos contaminantes. Estos compuestos presentan la más variada estructura química, entre ellos están los metales, los minerales y otros muchos derivados del carbono con estructuras químicas y propiedades muy diversas. Como vimos previamente, todos ellos son potencialmente dañinos para la salud, pero estos efectos dependen también de las concentraciones en que se encuentren, de las características de cada químico y de los tiempos de exposición. Por otra parte, los efectos que los contaminantes pueden causar son muy grandes, pues están presentes en todas partes, e incluso forman mezclas muy complejas que afectan a poblaciones muy numerosas. Actualmente, se estima que se liberan al ambiente alrededor de 100 000 compuestos químicos, y cada año se incorporan al menos 1 000 nuevas substancias, de las cuales poco conocemos sobre sus efectos a corto y a largo plazo. Menos aún se conocen los efectos de los contaminantes en poblaciones expuestas crónicamente a bajas concentraciones. En este caso, navegamos de incertidumbre, en donde se generan preguntas que sólo el tiempo nos va a responder, como lo han hecho ya con algunos plaguicidas, por ejemplo el DDT, que afecta la capacidad reproductora masculina. Como podemos darnos cuenta, los efectos producidos por estos compuestos, no son inmediatos, pero pueden ser igualmente adversos. Por lo anterior, considero que la contribución más importante de la toxicología a nuestro país es la evaluación de efectos causados por contaminantes químicos en la salud tanto de poblaciones expuestas como de entornos ecológicos y con ello contribuir a la solución de los problemas ocasionados por la contaminación. BIOTRANSFORMACIÓN DE XENOBIÓTICOS Los xenobióticos son compuestos extraños para el organismo entre los que se encuentran muchos contaminantes, fármacos y otros productos empleados en la elaboración de alimentos y en otros procesos industriales. Los contaminantes químicos ingresan a IPN Donde la ciencia se convierte en cultura 23 Conversus 60 Mayo 24/5/07 20:17 Page 24 nuestro organismo siguiendo diferentes vías, por ejemplo: Respiratoria, digestiva y dérmica, todas ellas muy relevantes. Los contaminantes aereotransportados se introducen a nuestro organismo a través de la vía pulmonar, mientras que aquellos contaminantes que son solubles en agua ingresan al ser ingeridas y se absorben en el tracto digestivo, integrándose de esta manera a nuestro cuerpo y otros muchos pueden absorberse al depositarse en la piel. Aun cuando existen muchos compuestos que son toxicológicamente activos en su forma original (llamados compuestos padre), son muchos más los que requieren ser biotransformados en nuestro propio organismo generando así compuestos toxicológicamente activos a los que llamamos intermediarios reactivos ó tóxicos últimos. Es decir, en muchas ocasiones nuestro organismo transforma químicamente a los protóxicos; mientras que en otros, nuestros propios sistemas bioquímicos son los encargados de generar los compuestos que finalmente nos causarán un daño. Para que un efecto biológico se presente, es necesario que exista en el organismo receptor un órgano o, en última instancia, moléculas blanco (por ejemplo, ácidos nucleicos, proteínas, lípidos) las cuales, al interaccionar con un tóxico último, modifica o interrumpe su función normal afectando todas aquellas actividades que dependen de su actividad. Las moléculas blanco pueden ser muy diversas y numerosas, es por ello que los efectos de una sustancia pueden ser muy variados y frecuentemente difíciles de poner en evidencia. Un ejemplo para ilustrar este caso es el arsénico, un elemento ampliamente distribuido en el ambiente, particularmente en el agua de bebida de muchas regiones de México. La exposición a este elemento puede conducir a innumerables patologías como son: Cáncer de vejiga, de piel e hígado, alteraciones circulatorias que dan lugar al pie negro, padecimientos inmunológicos, disminución del coeficiente intelectual, afecciones del sistema nervioso y recientemente se le ha asociado con la aparición de diabetes. Es interesante hacer notar que se forman compuestos metilados como producto de la biotransformación del arsénico, por ejemplo, el ácido metilarsínico y el ácido dimetil arsónico, que en estado trivalente puede causar daños mas graves que el causado por sus sales inorgánicas. Por otra parte, existen muchos compuestos orgánicos que son altamente tóxicos, como el benceno, un compuesto volátil que requiere biotransformarse para generar tóxicos últimos, al hacerlo se producen dos compuestos muy reactivos: El dialheído trans, trans mucónico y diversas quinonas y pueden reaccionar con biomoléculas relevantes, uniéndose a ellas y formando aductos y debido a esto, la exposición crónica a benceno puede conducir al desarrollo de leucemia. No podemos ignorar que la incesante actividad industrial hace que continuamente se viertan contaminantes al ambiente y que aparezcan otros nuevos. Las propiedades tóxicas de muchos de estos productos son completamente desconocidas y ponen en peligro nuestra salud. Desafortunadamente, no tenemos la capacidad para evaluar, de manera individual, el impacto que estos contaminantes tienen en nuestra salud, calidad de vida y en nuestra economía, y es hasta etapas muy tardías cuando comprendemos los daños que estos compuestos nos causan. Quizás uno de los pasos más importantes en la prevención de estos efectos es crear una conciencia de responsabilidad ambiental, en donde podemos valorar nuestro ambiente y nos estimule a procurar no afectarlo innecesariamente, así como a estar alerta cuando encontremos situaciones que pueden afectarnos. Ambiente y salud forman un binomio inseparable, por lo tanto, debemos exigir un ambiente saludable para vivir sanamente. Finalmente, debemos tener en cuenta que quien pagará por la agresión al ambiente y en quienes repercutirán sus efectos en última instancia somos nosotros mismos y, posiblemente, no sobre los agresores. FE DE ERRATAS En la edición de marzo por un error apareció el crédito de Gerardo Herrera Corral como coautor del artículo titulado Las dos caras de la tortilla, que se incluyó en la columna Cinvestav en su Tinta. Aclaramos que el doctor Herrera Corral no es el autor sino el editor de dicha columna. Pedimos una disculpa a los doctores Axel Tiessen Favier y Gerardo Herrera Corral, autor y editor respectivos. 24 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:17 Page 25 Conversus 60 Mayo 24/5/07 20:18 Page 26 Cicimar: la puerta del IPN al mar Una alternativa para divulgar la ciencia: El café científico Cruz del Carmen Juárez Olvera* Víctor Carrasco Chávez* *Investigadores del Centro Interdisciplinario de Ciencias Marinas (Cicimar) del Instituto Politécnico Nacional. D.e.: [email protected] y [email protected] 26 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:18 Page 27 omo resultado del Diplomado en Divulgación de la Ciencia que se realizó en el Centro Interdisciplinario de Ciencias Marinas (cicimar) del Instituto Politécnico Nacional, se consolidó un grupo interdisciplinario de comunicadores de la ciencia que ha manifestado su interés en continuar su actualización y preparación como divulgadores científicos, así como en ha cer propuestas que coadyuven a comunicar la ciencia a la sociedad. C Considerando experiencias previas desarrolladas en Dinamarca, Francia e Inglaterra, y dando especial reconocimiento al trabajo desarrollado por colegas mexicanos, surgió la propuesta de realizar un Café Científico, como un foro no formal que permita la charla y la reflexión acerca de la ciencia, mediante la discusión de diferentes temas entre asistentes y especialistas. La organización de un Café Científico se fundamenta principalmente en los siguientes aspectos: Ser un espacio de ocio en donde la ciencia y su comunicación sean las líneas de acción, que incluirá, además de las ciencias biológicas, las ciencias sociales y las humanidades. Deben considerarse las diferentes especialidades de cada materia y promover la participación de investigadores dispuestos a dar a conocer al público asistente los temas de su especialidad, a través de pláticas sencillas, eliminando el uso de apoyos audiovisuales y basando las presentaciones en un lenguaje simple y accesible, sin olvidar la posibilidad de involucrar a divulgadores de la ciencia, comunicadores, docentes e investigadores de instituciones locales, cuyos intereses sean acordes al proyecto. El proyecto de Café Científico del Cicimar, es una iniciativa surgida del interior del grupo de divulgadores formado en febrero de 2007, con la participación del físico Sergio Régules, coordinador científico de la revista ¿Como ves?, de la Dirección General de Divulgación de la Ciencia de la Universidad Nacional Autónoma de México, quien presentó el tema: Viajes en el tiempo. La plática contó con la asistencia de un grupo de 55 personas, conformada por investigadores, estudiantes, profesores y personal administrativo del Cicimar, de la Universidad Autónoma de Baja California Sur, del Centro de Investigaciones Biológicas del Noroeste, de la Normal Urbana, de la Comisión Nacional de Agua, del Instituto de Investigaciones Forestales Agrícolas y Pecuarias, del Centro de Estudios Tecnológicos del Mar y del Instituto Tecnológico de La Paz. Al término de la exposición se propició un agradable ambiente en donde los asistentes interactuaron con el invitado, exponiendo sus opiniones y comentando más acerca del tema. LOS CAMINOS DE LA DIVULGACIÓN La divulgación de la ciencia según la definición del destacado periodista científico español Manuel Calvo Hernando, “comprende todo tipo de actividades de ampliación y actualización del conocimiento, con una sola condición: Que sean tareas extraescolares, que se encuentren fuera de la enseñanza académica regulada y que estén dedicadas al público no especialista”. Gracias a los medios de comunicación, la divulgación de la ciencia se está realizando con nombres ingeniosos y sugerentes, por ejemplo: Radio conciencia, Discovery Channel; en los periódicos también le dedican secciones noticiosas o simplemente como reseñas culturales; igualmente, en revistas y libros se va desde pequeñas notas hasta ejemplares completos. Alternativamente, se están realizando foros informales, desde un teatro Los Viernes a las Tres en Inglaterra, hasta una taberna, restaurante o cafetería Puff Scientific o Café Científico; estos últimos se centran en pláticas informales impartidas de primera mano por IPN Donde la ciencia se convierte en cultura 27 Conversus 60 Mayo 24/5/07 20:18 Page 28 los mismos investigadores, con la única intención de pasar un momento agradable y enriquecedor desde el punto de vista científico. Todo esto en un ambiente agradable, al calor de las bebidas del gusto de cada uno de los asistentes y en el mejor lugar para el comentario, una mesa. Lo mas interesante de estos nichos de divulgación, es que el investigador hace accesible el conocimiento a un público no siempre especialista, pero si interesado. ANTECEDENTES El Café Científico propuesto está basado en el movimiento Café Philosophique que dio inicio en 1992, en París, impulsado por el filósofo Mar Sautet, quien buscaba un lugar en el cual la gente común y corriente pudiera discutir temas de filosofía; posteriormente el inglés Duncan Dallas adaptó el modelo a la comunicación de la ciencia. Se tienen tres modelos o maneras de organizar un Café Científico: El modelo francés donde hay un panel al que se invita a dos ponentes con posturas opuestas a un tema. El modelo danés donde se promueve el diálogo interdisciplinario entre las ciencias humanas y las ciencias de la naturaleza, el arte o la cultura a partir de un tema y, finalmente, el modelo británico, en donde un invitado expone un tema durante veinte minutos, sin apoyos audiovisuales, para después de un breve descanso, iniciar el dialogo con el público asistente. A nivel nacional, actualmente se cuenta desde 2004, con el Café Scientifiqué, organizado por el Instituto Tecnológico y de Estudios Superiores de Occidente (ITESO), Jalisco, y que sesiona el primer martes de cada mes, iniciando a las 19:00 horas. Este proyecto se desarrolla en colaboración estrecha con los responsables de la Maestría en Comunicación de la Ciencia y la Cultura del propio ITESO. En el caso que nos ocupa, se propuso utilizar el modelo británico, teniendo como sede un restaurante o café y llevando a cabo la sesión el último martes de cada mes. El inicio se programó para el mes de febrero, con un horario de 17:00 a 19:00 horas. Cabe destacar que la propuesta de iniciar este Café Científico en al ciudad de La Paz, Baja California Sur, ha contado con el apoyo de las autoridades del propio Cicimar, así como de los colegas de la Dirección General de Divulgación de la Ciencia de la UNAM. OBJETIVOS l.- Favorecer el acercamiento a la ciencia en un ambiente lúdico, ante un público no especializado. 2.- Propiciar la participación de académicos e investigadores en ambientes fuera de las instituciones de educación formal. 3.- Facilitar al público en general, el acercamiento con investigadores de diferentes instituciones de investigación de la localidad. METODOLOGÍA Inicialmente se identificó a un grupo de investigadores con deseos de contribuir en el proyecto, mismos que fueron invitados formalmente a participar, conformando el programa de charlas que se dictarán durante el 2007. Asimismo se seleccionó un espacio apropiado para esta actividad, que tuviera determinadas características, tales como: Ubicación accesible, facilidades de estacionamiento, instalaciones apropiadas, mobiliario cómodo y un menú atractivo. La hora del Café Científico se determinó de acuerdo a las facilidades que el local ofreció, así como a las condiciones climáticas de la localidad. Para difundir las sesiones del Café Científico, se diseñaron carteles alusivos a las charlas, conteniendo el título de la misma, el nombre del expositor y la información del lugar sede. Como publicidad adicional se elaboraron separadores de lectura conteniendo la misma información. 28 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:18 Page 29 Complementariamente se prepararon boletines de prensa con la información inherente a cada sesión, de esta forma los medios masivos de comunicación apoyarán la difusión del evento. La sesión inicia a las 17:00 horas con la bienvenida a los asistentes y al investigador invitado, incluyendo una presentación del mismo. Se asigna un tiempo de aproximadamente 20 minutos para que el invitado exponga el tema, cabe mencionar que la dinámica del café científico se desarrolla sin apoyos audiovisuales, o sea que la única herramienta es el mensaje oral del expositor. Al término de la charla, se invita a los presentes a participar con preguntas y comentarios relativos al tópico expuesto. La discusión se desarrolla libremente de acuerdo a las participaciones, dando oportunidad que el invitado sea el propio moderador en esta etapa, quien a su vez aporta comentarios complementarios. Al término de la sesión, se invita a los asistentes a continuar degustando su bebida y a compartir sus opiniones o sugerencias para futuras sesiones. Finalmente se da libertad a los asistentes para continuar charlando en sus respectivas mesas. Los temas propuestos para ser desarrollados durante 2007, son: • Viajes en el Tiempo • Historia de las Perlas en Baja California Sur, México • Gigantes marinos en el Golfo de California, México • Humedales y manglares: ¿que sucede con ellos? • ¡Échale un vistazo al plancton! • El desierto y sus plantas útiles • La cabrilla: un rico manjar en nuestra mesa Lo anterior sin menoscabo de otras iniciativas que colegas divulgadores desean incluir en el proyecto y que aún no han definido su tema. ANÁLISIS La sesión de Café Científico constituyó una grata experiencia para los participantes, pues se propició la convivencia y el análisis de un interesante tema que nunca antes se había expuesto en un ambiente informal. Las opiniones vertidas por los asistentes fueron a favor de esta propuesta, aportando ideas sobre futuros temas a tratar y, en algunos casos, propuestas de incluir aspectos de música y poesía al finalizar la sesión. Cabe destacar que los investigadores ahí presentes, así como los que han sido invitados, muestran una disposición a continuar participando como ponentes o como invitados. IPN Donde la ciencia se convierte en cultura 29 Conversus 60 Mayo 24/5/07 20:19 Page 30 OBSERVATORIO CIENTÍFICO • El origen poblacional de los mexicanos resulta de la mezcla de 65 grupos étnicos. • El primer borrador del mapa genómico de los mexicanos será presentado en julio por el Instituto Nacional de Medicina Genómica (Inmegen). c o l u m n a s El genoma de los mexicanos: Las huellas del mestizaje Octavio Plaisant Zendejas* *Periodista científico de Conversus 30 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:19 Page 31 l inolvidable James Watson afirmó en una ocasión: “Pensábamos que el futuro estaba en las estrellas. Ahora sabemos que está en nuestros genes”. Efectivamente, el futuro está en los genes; pero también las raíces de nuestro pasado evolutivo como especie, la historia de las adaptaciones de nuestro grupo poblacional a lo largo de miles de años. Están plasmadas en estas unidades que contienen la información genética necesaria para codificar una proteína. E El próximo mes de julio científicos del Instituto Nacional de Medicina Genómica (Inmegen) harán del conocimiento público el primer borrador del mapa genómico de los mexicanos, en el marco de su tercer aniversario. Sabremos con mayor certeza las características específicas de nuestra estructura genética mestiza. En la actualidad se sabe que aproximadamente el 80 por ciento de la población nacional se considera mestiza. Resultados preliminares del proyecto realizado en Inmegen con el nombre “Variabilidad genómica y mapa de haplotipos de la población mexicana” revelan que el origen poblacional de los mexicanos es resultado de la mezcla de 65 grupos étnicos establecidos en Mesoamérica, con grupos españoles y algunos grupos africanos en la época de la colonización española. Dicha información contribuirá al estudio histórico y antropológico de los mexicanos. El proyecto incluyó a 1,200 personas mestizas de los estados de Yucatán, Sonora, Guerrero, Veracruz, Zacatecas y Guanajuato; 50 por ciento hombres y 50 por ciento mujeres (100 hombres y 100 mujeres de cada estado), de las cuales se analizaron 300 muestras de sangre para elaborar el primer borrador del mapa genómico de los mexicanos. El resultado de haber completado la caracterización de las variaciones genéticas de las muestras estudiadas coinciden con la información que se tenía del origen demográfico de la población mexicana. Se encontró que el componente genético que fue analizado en la muestra, incluido el 0.1 del genoma humano responsable de nuestra identidad genómica, presenta rasgos propios de grupos étnicos también llamados “amerindios”, que dieron origen a la población mexicana. LÍNEAS Con el primer borrador del mapa genómico de los mexicanos también se espera mayor información acerca las variaciones genómicas asociadas a enfermedades comunes que nos afectan a los mexicanos y que son la principal causa de muerte como diabetes, obesidad, males cardiacos, hipertensión arterial y varios tipos de cáncer. Asimismo sabremos más sobre la respuesta a fármacos de nuestra población. Se abre la posibilidad de prescribir medicamentos a la medida de cada mexicano. GÉNESIS DEL PROYECTO El Inmegen fue creado en 2004 con el propósito de generar una plataforma nacional que permita el desarrollo de aplicaciones médicas del genoma humano para atención de los problemas de salud de los mexicanos. En el Instituto los grupos de investigación se enfocan a seis áreas interés: Cáncer, metábolica (diabetes y obesidad), enfermedades cardiovasculares, enfermedades infecciosas, farmacogenómica y análisis de las características genéticas de la población mexicana. En relación a esta última área en el Inmegen se realiza el proyecto de investigación con el nombre “Variabilidad genómica y mapa de haplotipos de la población mexicana”. El objetivo de dicho proyecto es conocer a detalle las frecuencias de las variaciones comunes en el genoma humano de la población mexicana. Dicho proyecto arrancó en 2005, tras la aprobación de las comisiones de Investigación, Ética y Bioseguridad del Inmegen y con financiamiento público otorgado al Instituto. En él participan más de 20 investigadores, en las áreas clínica, analítica, de bioinformática y en la parte operativa. El proyecto generará información valiosa acerca de la estructura genómica en una DE INVESTIGACIÓN EN EL INMEGEN En la actualidad en el Instituto Nacional de Medicina Genómica (Inmegen) se desarrollan las siguientes líneas de investigación: Hipertensión arterial sistémica, artritis reumatoide, rabdomiosarcoma pediátrico —tumor maligno más frecuente dentro del grupo de los sarcomas de partes blandas que ocupa entre el cinco por ciento y seis por ciento de todas las neoplasias malignas de la edad pediátrica, asma, lupus eritematoso— trastorno inflamatorio crónico autoinmune que puede afectar muchos sistemas de órganos como la piel, las articulaciones y los órganos internos. Fuente: Instituto Nacional de Medicina Genómica IPN Donde la ciencia se convierte en cultura 31 Conversus 60 Mayo 24/5/07 20:19 Page 32 muestra de mestizos mexicanos, y permitirá realizar un análisis del grado de diversidad genómica entre los mestizos de las diferentes regiones de México. TAN PARECIDOS PERO DIFERENTES Todos los seres humanos compartimos el 99.9 por ciento de material genético lo que nos permite a usted, a mí y a millones de personas compartir elementos comunes como son: Dos pulmones, dos ojos, dos extremidades, los nueve meses de gestación, la pubertad, la menopausia y la andropausia, entre otras características. Sin embargo, ¿qué sucede con el 0.1 por ciento restante? Dicho porcentaje es lo que nos da identidad propia. Por lo que cada miembro de la especie humana es diferente de otros en sus características bioquímicas internas y físicas externas. En relación a este último aspecto, se pueden observar por qué algunos tienen ojos claros y otros no, unos son de estatura más alta y otros más bajos, unos tienen el color de piel blanca y otros morena. Algunas de las frecuencias de las variaciones del genoma de este 0.1 por ciento son las que nos distinguen a los mexicanos de otras grupos poblacionales como asiáticos, africanos y europeos. La individualidad genética en interacción con el medio ambiente da como resultado las características propias de cada persona. Estas diferencias genéticas determinan la predisposición, resistencia o no a enfermedades por ejemplo, diabetes, cáncer, hipertensión, así como la variabilidad en la respuesta a fármacos. El conocimiento de la individualidad genómica es de suma importancia al abrir el camino para desarrollar una práctica médica más individualizada y más predictiva. Bajo este principio ha surgido el desarrollo inicial de la medicina genómica, que tiene como fundamento el conocimiento de las variaciones del genoma humano de los individuos para la aplicación de recomendaciones personalizadas dirigidas a retrasar o evitar la presencia de enfermedades con anticipación de las que se tienen riesgo. Otra gran posibilidad de la medicina genómica es la farmacogenómica, nueva área científica cuya meta es la de predecir la respuesta a fármacos con base en las características del genoma de cada persona. Imaginemos la prescripción de medicamentos con dosis más personalizadas, los más indicados desde el punto de vista de su mayor efectividad farmacológica y de los menor posibilidad de causar efectos adversos o tóxicos indeseables. La información que resulte del mapa genómico de los mexicanos podría tener un impacto en el cuidado de la salud en las comunidades mestizas latinoamericanas que viven en los Estados Unidos. Cabe destacar que un gran número de la población de América Latina es de origen mestizo, por lo que se puede prever que la información derivada de este proyecto podría ser de utilidad para la aplicación de la medicina genómica en algunos países de la región. La presentación del primer borrador del mapa genómico de los mexicanos y sus avances representa un gran acontecimiento para la sociedad y la ciencia del país, que están ávidas de buenas noticias en los tiempos difíciles que vivimos. REFERENCIAS: <www.inmegen.gob.mx/> Alfredo Hidalgo Miranda, Irma Silvia-Zolezzi, Eduardo Barrientos, Santiago March, Laura del Bosque Plata, Oscar A. Pérez González, Eros Balam Ortiz, Alejandra Contreras, Carlos Dávila, Lorena Orozco, Gerardo Jiménez-Sánchez. “Proyecto mapa genómico de los mexicanos”, Ciencia y Desarrollo, No. 191, enero 2006. MEDICINA GENÓMICA La medicina genómica, que se define como la identificación de las variaciones en el genoma humano que confieren riesgo a padecer enfermedades comunes como diabetes, obesidad, hipertensión, entre otras, dará lugar a una práctica médica más individualizada, más preventiva y más predictiva. Esta nueva disciplina ofrece grandes beneficios para el cuidado de la salud, dado que permitirá identificar a los individuos con riesgo a desarrollar enfermedades comunes antes de que aparezcan los síntomas, y así evitar o retrasar sus manifestaciones, complicaciones y secuelas. Además, dará lugar a nuevas estrategias de tratamiento como la farmacogenómica que resultará en la generación de medicamentos más efectivos y menos tóxicos con base en la estructura genómica de cada población. Los retos inmediatos a los que se enfrenta la medicina genómica incluyen el conocimiento y análisis de las secuencias que incrementan el riesgo o la susceptibilidad para desarrollar enfermedades multifactoriales, así como el estudio de su frecuencia dentro de las poblaciones. Con ello, se podrán identificar a los miembros de la población cuya secuencia de adn los hace de alto riesgo para presentar enfermedades comunes como la hipertensión arterial, la diabetes mellitus tipo II, el asma, el infarto agudo del miocardio y algunas enfermedades infecciosas, entre otras que están adquiriendo gran relevancia en nuestro país. Fuente: Instituto Nacional de Medicina Genómica 32 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:19 Page 33 Conversus 60 Mayo 24/5/07 20:20 Page 34 c o l u m n a s CAMBIO GLOBAL El fraude del Protocolo de Kyoto El protocolo de Kyoto es un instrumento internacional que pretende reducir las emisiones de los gases que generan el calentamiento global, pero sólo enfrenta las consecuencias del modelo de vida industrial sin ir al fondo de la cuestión: Transformar tecnologías contaminantes obsoletas en tecnologías limpias. Arcadio Monroy Ata* *Doctor en ciencias con especialidad en Ecología. Investigador de la Academia de Ecología de la Facultad de Estudios Superiores Zaragoza de la Universidad Nacional Autónoma de México (UNAM). D.e: [email protected] 34 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:20 Page 35 l 16 de febrero de 2005 entró en vigor un acuerdo internacional, denominado Protocolo de Kyoto (por haberse firmado un acuerdo previo en esa ciudad japonesa, el 11 de diciembre de 1997). Con este Protocolo se desea reducir las emisiones de seis gases que contribuyen al calentamiento global y que son generados por actividades humanas. Los gases son los siguientes: 1) dióxido de carbono (co2); 2) metano (CH4); 3) óxido nitroso (N2O); y tres gases industriales fluorados: 4) hidrofluorocarbonos (HFC); 5) perfluorocarbonos (PFC); y 6) hexafluoruro de azufre (SF6). La idea es reducir globalmente entre los países signatarios, las emisiones de estos gases en un cinco por ciento en el periodo comprendido entre el año 2008 y el 2012, respecto a las emisiones de estos gases efectuada en 1990. Este instrumento forma parte de la Convención Marco de las Naciones Unidas sobre el Cambio Climático, firmada en la Cumbre de la Tierra realizada en Río de Janeiro, Brasil, en junio de 1992. E Aunque algunos grupos ecologistas tienen esperanzas de que se mitigue el calentamiento global de la Tierra mediante este acuerdo, lo cierto es que — en el mejor de los escenarios — sólo retrasa los efectos que ya están presentes en nuestro planeta. Por ello, el objetivo del presente artículo es observar el Protocolo de Kyoto en perspectiva y señalar los caminos que permitirían revertir la polarización climática que se vive hoy en día. EL MULTICITADO CALENTAMIENTO GLOBAL La Organización Meteorológica Mundial (OMM) y el Programa de las Naciones Unidas para el Medio Ambiente (PNUMA) establecieron, en 1988, el Grupo Intergubernamental de Expertos sobre el Cambio Climático. Esta agrupación también llamada IPCC (por su siglas en inglés: Intergovermental Panel on Climate Change) reúne a científicos especialistas en cuestiones climáticas de diversos países y periódicamente presenta informes sobre el avance de sus investigaciones. De acuerdo a sus modelos y proyecciones, el IPCC pronostica un incremento de temperatura que va de 1.4 a 5.8 °C durante el presente siglo. Asimismo, durante el año 2006 el exvicepresidente de Estados Unidos y ex-candidato a la presidencia de ese país, Al Gore, difundió una película titulada Una verdad incómoda (An inconvenient truth), en la que se presenta una síntesis de las causas del calentamiento global y de sus consecuencias. En este video, el cual está bien documentado, cuestiona a su propio gobierno por negar el problema y a sus conciudadanos por no hacer lo que les corresponde para revertir el daño al ambiente (ver: www.climatecrisis.net/). En efecto, Estados Unidos, productor del 25 por ciento de los gases de efecto invernadero del mundo, no ratificó el Protocolo de Kyoto, aduciendo que las reducciones en las emisiones sólo involucran a los países industrializados, excluyendo de las restricciones a países en vías de desarrollo con grandes emisiones de gases como China e India; la verdadera razón es que George W. Bush procede de una familia que ha vivido de la explotación petrolera y que tiene vínculos de mutuo apoyo con la industria automotriz. Australia es el otro país industrializado que no firmó el Protocolo de Kyoto. Actualmente ya no se usa el término “cambio climático”, sino “calentamiento global”. El principal causante del calentamiento de la atmósfera es el CO2 que ha pasado de 300 ppm (partes por millón) a finales del siglo XVIII (cuando inició la llamada revolución industrial), hasta las 370 ppm del presente (2007). Como consecuencia, la temperatura del planeta aumentó en aproximadamente 0.6 °C durante el siglo pasado; la década más caliente fue la de los noventa y el año más caluroso fue 2005. LO QUE NO ABORDA EL PROTOCOLO Se sabe que la causante del calentamiento global es la contaminación ambiental y particularmente las emisiones de gases de efecto invernadero (GEI), y que el transporte que utiliza combustibles fósiles (gasolina, diesel, turbosina, gas propano, etcétera) son las principales fuentes de GEI, especialmente de CO2. Por ello, si realmente se requiere reducir las emisiones de CO2 a la atmósfera, se debe sustituir el parque vehicular (claro que de manera gradual), como automóviles, trenes, camiones, aviones, tráilers, motocicletas, barcos y otros, por vehículos que no usen combustibles fósiles, sino que tengan motores cuyo funcionamiento sea a base de celdas de hidrógeno, biocombustibles o autos eléctricos; algunos vehículos de este tipo ya circulan en varios países y la reconversión industrial sólo es cuestión de saber tomar decisiones políticas. El Protocolo de Kyoto contempla los bonos de carbono como un mecanismo internacional de descontaminación, considerando el derecho a contaminar como un bien canjeable y con un precio establecido en el mercado. Un bono de carbono significa el derecho a contaminar emitiendo una tonelada de bióxido de carbono y este bono se puede comprar o vender. La idea es que las industrias no contaminen —o que abatan sus emisiones— bajo el principio de que quien contamina más debe pagar más impuestos. Asimismo, los países o industrias contaminantes pueden establecer zonas de captura de CO2, como bosques y selvas, en terceros países a fin de pagar sus bonos de carbono. Lo anterior debido a que la vegetación constituye un sumidero natural de CO2, ya que los vegetales se alimentan con este gas para fabricar azúcares (vía la fotosíntesis). El Protocolo de Kyoto estableció desde su inicio la promoción del desarrollo sustentable (una simbiosis de mutuo IPN Donde la ciencia se convierte en cultura 35 Conversus 60 Mayo 24/5/07 20:20 Page 36 beneficio entre la sociedad y la naturaleza), por lo que también busca favorecer el empleo de energías renovables y la realización de prácticas agrícolas no generadoras de gases de efecto invernadero. Sin embargo, esto sería positivo si los acuerdos de papel se transformaran directamente en realidades. Aquí la cuestión clave es la educación ambiental y aunque la UNESCO decretó a la década 2005-2015 como el decenio de la educación ambiental para el desarrollo sustentable, en México se quedó congelada una Ley de Educación Ambiental a nivel federal, aunque algunos estados de la República han avanzado en este aspecto; no obstante, estas leyes aún no se traducen en acciones concretas en la vida cotidiana de los mexicanos. Los países con megadiversidad biológica como México, deben establecer programas de restauración ecológica de ecosistemas deteriorados, ya que el suelo (mediante la materia orgánica que se acumula en su interior) y la vegetación (mediante la madera y el follaje) son los principales sumideros de carbono de la superficie terrestre. El otro gran sumidero de CO2 del planeta es el océano, pero seguramente habrá un punto de saturación de este gas en la hidrósfera marina. En este sentido, el Protocolo de Kyoto debería fomentar la restauración ecológica en la franja intertropical (entre el Trópico de Cáncer y el de Capricornio), donde están 36 conversus Mayo 2007 los ecosistemas más biodiversos y donde hay elevadas tasas de deforestación. CONCLUSIÓN El Protocolo de Kyoto es un instrumento con un enfoque neoliberal de la contaminación, que plantea que la tecnología puede resolver cualquier problema ecológico futuro y que el mercado puede mitigar el calentamiento global, mediante el fomento de industrias limpias que generan productos con etiqueta verde, adquiridos por un público consumidor informado y consciente de su papel en un mundo donde hay que actuar localmente, pensando globalmente. Dado que el calentamiento global también afecta a los mexicanos, es mejor que internamente se desarrollen políticas, a nivel federal, estatal y municipal o delegacional, para disminuir la emisión de los gases de efecto invernadero (GEI), pero aún mejor, para combatir desde el origen, las causas del incremento de contaminantes en la atmósfera. Esto incluye sustituir tecnologías obsoletas que generen GEI, hacer obligatoria la educación ambiental en el sistema escolarizado desde primaria hasta el bachillerato, promover el uso de energías renovables y la restauración ecológica de bosques, selvas, ríos, zonas áridas y semiáridas y zonas costeras. Finalmente es conveniente agregar que México tiene un gran territorio, que alberga una enorme diversidad biológica (tal vez ocupe el cuarto lugar a nivel mundial), por lo que tiene una responsabilidad con la ecología global y también una posición estratégica, para establecer sumideros de carbono y para desarrollar aprovechamientos sustentables (agricultura orgánica, empresas biológicas, industrias agroecológicas, biotecnologías y ecotecnologías), que permitan crear nuevas fuentes de riqueza y de empleo (en un país productor de emigrantes), para beneficio de la población actual y de las futuras generaciones. BIBLIOGRAFÍA ARVIZU FERNÁNDEZ, José Luis (2004) Registro histórico de los principales países emisores. En: Cambio Climático: una visión desde México. Martínez, Julia y Adrián Fernández Bremauntz (eds.). pp: 99-108. RIVERA, ALICIA (2000) El cambio climático: el calentamiento de la Tierra. Temas de Debate. Editorial Debate. Barcelona, España. 270 pp. TARBUCK, EDGARD J. y Frederick K. Lutgens (2005) Ciencias de la Tierra. 8a. edición. Pearson y Prentice Hall. Madrid, España. pp: 596-601. WATSON, ROBERT T. (2005) Emissions Reductions and Alternative Futures. En: Climate Change and Biodiversity: Lovejoy, Thomas E. y Lee Hannah (eds.). Yale University Press. Ann Arbor, Michigan, E.E.U.U. pp: 375-386. INTERNET: <http://es.wikipedia.org/wiki/Protocolo_de_ Kioto_sobre_el_cambio_climático> <http://www.grida.no/climate/ippc_tar/wg 1/007.htm> Conversus 60 Mayo 24/5/07 20:20 Page 37 Conversus 60 Mayo 24/5/07 20:21 Page 38 Investigación Hoy • Técnica novedosa que destruye el 90 por ciento de las células cancerosas sin dañar las sanas • Premio de Investigación Politécnica 2006, categoría Investigador Joven Nueva terapia que ataca alel cáncer cervicouterino Maricela Cruz Martínez* Eva Ramón Gallegos** *Reportera de Conversus **Doctora en ciencias, especialidad en Morfología, Investigadora de la ENCB del IPN D.e. [email protected] 38 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:21 Page 39 uando a una mujer se le detecta cáncer cervicouterino (Cacu), inmediatamente giran sobre su entorno un sinfín de pensamientos y el primero es el de la muerte, ya que este cáncer representa la primer causa de muerte en las mujeres, de acuerdo con estadísticas recientes de la Organización Mundial de la Salud (OMS). C Sin embargo, existen tratamientos como la quimioterapia1 y la radiación ionizante, hasta el momento los mejores procedimientos para erradicar la enfermedad. Estos tratamientos son agresivos, y en la mayoría de los casos provocan efectos secundarios como caída de cabello, náuseas, falta de apetito, debilidad, anemia, entre otros. Los estragos mencionados muchas veces ocasionan que las pacientes dejen el tratamiento o se depriman, lo que provoca una baja en sus defensas y una respuesta agresiva del cuerpo al tratamiento y suspensión, lo que deriva una etapa terminal con baja calidad de vida. De acuerdo a lo anterior la preocupación de investigadores y clínicos es que el problema del cáncer cervicouterino (ver recuadro 1) no debe terminar con la vida de las mujeres. Involucrados en este tipo de cáncer, investigadores del Instituto Politécnico Nacional (IPN), desarrollaron un proyecto contra el cáncer cervicouterino con base en la terapia fotodinámica (PDT, en inglés) (ver recuadro 2), experimentado en ratonas, el cual destruye el 90 por ciento de las células cancerosas sin dañar a las sanas, reduce la lesión hasta en un 53 por ciento y no causa efectos secundarios. 1. CACU ¿QUÉ ES Y CUEALES SON SUS FACTORES DE RIESGO? La especialista del IPN afirmó que el cáncer de cérvix o cervicouterino es ocasionado por un cambio en las células que cubren las paredes del cuello uterino (parte inferior del útero), células inicialmente normales que gradualmente se transforman en precancerosas y se manifiestan como lesiones en el cuello del útero. “El inicio de la actividad sexual a temprana edad, tener más de una pareja sexual, el tabaquismo y el Virus del Papiloma Humano (VPH) son los principales factores de riesgo para desarrollar cáncer cervicouterino”, indicó la investigadora de la ENCB. El Cacu es un crecimiento anormal de células y se desarrolla en el cuello de la matriz, hoy sabemos que el principal agente causal de este mal es el virus del papiloma, esta infección por lo regular se presenta en mujeres con vida sexual activa. Existen más de 100 tipos de virus de papiloma, siendo alrededor de 35 los virus que afectan el área genital, estos se pueden clasificar en dos tipos: los oncogénicos, aquellos que provocan cáncer y los no oncogénicos, que solamente causan lesiones. De acuerdo a un estudio reciente del Instituto de Biología en la Universidad Nacional Autónoma de México (UNAM), el cáncer cervicouterino no siempre se origina por el VPH, sino también por alimentos contaminados con toxinas producidas por hongos llamadas aflatoxinas. El estudio indicó que el 72 por ciento de las muestras malignas de exudados de Papanicolau analizadas tuvieron VPH; sin embargo, también 60 por ciento de las mismas tenían aflatoxinas. De acuerdo a los resultados de investigación del Instituto de Biología, la ultrapasteurización en la leche líquida de diferentes marcas comerciales, no elimina las VIH aflatoxinas. Los investigadores encontraron que casi toda la leche las contiene en trazas con una frecuencia de 56 a 85 por ciento. Virus papiloma Al igual que otras enfermedades, el cáncer cervical es prevenible, para humano esto existe una medida al alcance de todas las mujeres, es el estudio de Papanicolau. Cualquier mujer puede realizarselo en un centro de salud de manera gratuita. Actualmente existe una vacuna llamada Gardasil, desarrollada por los laboratorios Merck Sharp & Dohme; esta vacuna logra evitar el desarrollo de infecciones de alto riesgo oncogénico, con este Anticonceptivos logro se evitará que siga incrementando el número de fallecimientos por cáncer cervicouterino.” Finalmente, la doctora Ramón Gallegos, dijo que el cáncer cervicouterino no presenta ningún síntoma en sus etapas iniciales, por lo que a menudo se detecta cuando ya se desarrolló. “En el país no existe una verdadera cultura de prevención, por lo que se recomienda Cáncer de cuello a todas las mujeres que se realicen la prueba de diagnostico de de útero Papanicolau por lo menos una vez al año, una colposcopia y detección del virus de papiloma humano mediante una técnica de biología molecular”, enfatizó la especialista. Tabaco IPN Donde la ciencia se convierte en cultura 39 Conversus 60 Mayo 24/5/07 20:21 Page 40 El proyecto “Efectividad de la Terapia Fotodinámica para el tratamiento de carcinoma cervicouterino y virus del papiloma humano de alto riesgo”, recibió el Premio a la Investigación Politécnica 2006 en la categoría Investigador Joven. Eva Ramón Gallegos, investigadora en el área de Citopatología Ambiental de la Escuela Nacional de Ciencias Biológicas (ENCB), quien coordina el proyecto galardonado, destacó en una entrevista para Conversus que esta técnica ya se ha aplicado en humanos para tratar el cáncer de piel y de pulmón en pacientes de Estados Unidos donde ha tenido excelentes resultados, “por eso decidimos empezar a usarla para tratar el cáncer cervicouterino, ya que es un problema grave en nuestro país, que cobra vida de mujeres mexicanas entre 30 y 49 años según datos de la Secretaría de Salud (SS)”, afirmó la especialista. 2 TERAPIA El desarrollo de la PDT, permite aplicar un nuevo método para tratamiento local en cáncer y otras malignidades en la piel, cabeza y cuello. La terapia fotodinámica incluye un agente fotosensible (protoporfirina IX) (ver recuadro 3), el cual cuando se expone a un rayo láser, da lugar a radicales de oxígeno tóxicos que resultan en muerte celular. Este método es técnicamente fácil de aplicar, con anestesia local o general y disminuye el riesgo de complicaciones. La PDT es una técnica que se utiliza desde hace muchos años como un tratamiento eficaz, utilizando solamente luz o como parte de un tratamiento combinado. La luz se absorbe a longitudes de onda específicas por moléculas conocidas como fotosensibilizadores. Estos fotosensibilizadores pueden ser exógenos, esto es, cuando se administran directamente o endógenos, cuando se PROCESO 40 conversus Mayo 2007 DE IRRADIACIÓN CON LÁSER DE ARGÓN PROYECTO PREMIADO La PDT consiste en administrar a los pacientes una droga fotosensibilizadora que reacciona a la estimulación de la luz láser, explicó la doctora titular del Departamento de Morfología. También mencionó que dicha sustancia es inyectada vía intravenosa al paciente y se acumula sólo en el tejido enfermo, la radiación láser se encarga de activar a la sustancia fotosensibilizadora que fue inyectada al enfermo con 24 horas de anticipación debido a que la radiación no es térmica, el tejido sano no se daña y las células enfermas se eliminan. “Dicha terapia ya se utiliza para combatir otros tipos de cáncer, pero en el caso del cáncer cervicouterino todavía no se había probado su eficacia. Además, estamos trabajando en dos sustancias fotosensibles propias”, comentó. FOTODINÁMICA estimula su formación con una pro-droga, como es el caso de la terapia fotodinámica utilizando el ácido delta aminolevulínico (ALA). Ambos tipos de fotosensibilizadores generan especies químicas citotóxicas y estimulan diversas vías bioquímicas. La terapia fotodinámica es la combinación citotóxica de dos agentes que son, en si mismos, inocuos: un producto químico fotosensible, y luz visible atérmica. El ALA aplicado por vía tópica — externa y local — atraviesa la epidermis y se convierte en la mitocondria en protoporfirina IX. La absorción de la luz, eleva la protoporfirina IX a un estado excitado, lo cual provoca especies químicas reactivas que inactivan proteínas, enzimas y lípidos intracelulares. La estimulación de estas vías bioquímicas es lo que provoca los efectos deseados. Conversus 60 Mayo 24/5/07 20:21 Page 41 3 PROTOPORFIRINA IX (PPIX) Es una prueba que mide la cantidad total de porfirinas en los glóbulos rojos. Las porfirinas son pigmentos que se encuentran tanto en la vida animal como en la vegetal y están involucradas en la formación de varias sustancias importantes en el cuerpo, incluyendo la hemoglobina, la cual trasporta oxígeno en la sangre. La coproporfirina, la protoporfirina y la uroporfirina son 3 porfirinas relacionadas con los glóbulos rojos que se pueden medir de una manera normal en pequeñas cantidades en el torrente sanguíneo de los humanos. Este proyecto es de suma importancia y cabe mencionar también que se ha publicado en revistas como Physica Scripta, J.Phys. IV France, Analytical Sciences entre otras. En el mismo colaboraron los doctores: Aura Judith Pérez Zapata, Alfredo Cruz Orea, Sergio Tomás Velásquez, Juan Carlos Cancino Díaz, quienes junto con la doctora Eva Ramón afirmaron y comprobaron que el PDT es un método altamente efectivo tanto para la detección como para el tratamiento de las células cancerosas en el cuello de la matriz, que además constituye un gasto menor a las terapias tradicionales ya que el costo del tratamiento oscila alrededor de tres mil pesos por sesión, y hemos encontrado resultados hasta en tres sesiones, mencionó la doctora. “La terapia fotodinámica no es invasiva, ni daña las células saludables y logra eliminar el 100 por ciento de las células cancerosas en estudios in vitro y alrededor del 97 por ciento en ratones, además disminuye el volumen del tumor causado por el cáncer cervicouterino en un 53 por ciento en cinco semanas”, afirmó la doctora Eva Ramón. Actualmente existen varios tratamientos para atender esta enfermedad, la cual en sus primeras etapas desafortunadamente no presenta síntomas, por lo que puede ser muy peligroso si no se detecta a tiempo. “Sabemos que existen diversos métodos para combatir este tipo de cáncer, como la cirugía, la radioterapia y la quimioterapia; sin embargo, estos tratamientos generan daños secundarios en el paciente y no siempre tienen éxito”, explicó la doctora Gallegos. Debido a que en nuestro país el Cacu es muy común, el método de terapia fotodinámica es una alternativa eficaz para combatir al problema que se manifiesta en cuatro de cada 100 mexicanas, convirtiéndose en uno de los más frecuentes; las posibilidades de contraerlo aumentan con la edad. El estudio del Papanicolau es la mejor forma de prevenir el mal, explicó la doctora. Lo principal es que las mujeres sean responsables consigo mismas ya que el Cacu es prevenible; basta con realizarse los estudios pertinentes, gratuitas en varias clínicas del sector salud. REFERENCIAS Cruz Martínez, Maricela “Cáncer el asesino silencioso de la mujer mexicana”, Conversus No. 55 noviembre 2006. <http://www.medigraphic.com> <http://www.iml.es> NOTA: Quimioterapia es la utilización de diversos fármacos empleados en el tratamiento de las enfermedades neoplásicas que tienen como función el impedir la reproducción de las células cancerosas. 1 IPN Donde la ciencia se convierte en cultura 41 Conversus 60 Mayo 24/5/07 20:22 Page 42 • Propósito: Mejorar y agilizar las tomas de decisiones sobre plagas • Permite diseñar mecanismos que garantizan la calidad agroalimentaria del país Tecnología informática contra plagas Fabian Quintana Sánchez* * Reportero de Conversus 42 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:22 Page 43 as plagas arrasan con cualquier tipo de cultivo, son depredadores naturales y poseen características voraces en cuanto a su alimentación, un ejemplo son: las langostas que consumieron en el 2006 en Yucatán 1 500 hectáreas de maíz, 350 hectáreas de cocales y más de 9 mil hectáreas de bosques y selvas. En el estado de Nayarit, la cochinilla rosada, la mosca de la fruta y la escama blanca han afectado las exportaciones de mango, el año pasado se exportaron 22 mil toneladas y para este año se esperan tan solo 3 mil 834 toneladas, debido a que estas plagas causan la caída prematura del mango, lo que impide su maduración. L En México, la mosca de la fruta representa el principal problema fitosanitario para la fruticultura, ya que reduce notablemente la producción de frutas y limita su comercialización en los mercados nacionales e internacionales. Estas plagas pueden ocasionar pérdidas hasta del 25 por ciento de la producción nacional debido a los daños directos ocasionados por las larvas. Para enfrentar este problema, investigadores del Centro de Investigación en Computación (CIC) del Instituto Politécnico Nacional (IPN) desarrollaron un proyecto cuyo objetivo es contar con un sistema de información geográfica fitosanitario a nivel nacional, y tener en forma oportuna el análisis del estado de cada unidad de producción (huerto) para prevenir cualquier tipo de epidemia o dispersión de plagas en distintos cultivos. Es utilizado actualmente por la Secretaría de Agricultura, Ganadería, Desarrollo Rural, Pesca y Alimentación (Sagarpa) como programa piloto en la Campaña de la Mosca de la Fruta, y en particular en la zona media del estado de San Luís Potosí. El título del proyecto es: “Sistema de Información Geográfica vía web vinculada a una base de datos georeferenciada de plagas agrícolas en el marco de actividades del Proyecto de Desarrollo e Innovación Tecnológica en Medios Informáticos denominado Sistema de Monitoreo y Alerta Fitosanitario Nacional de México (SimafinMex)”. Dicho proyecto fue el ganador del Premio a la Investigación en el IPN 2006 en la categoría de Desarrollo Tecnológico. La investigación contó con la participación de los maestros en ciencias Marco Antonio Moreno Ibarra, José Giovanni Guzmán Lugo, Arturo Benjamín Martínez Díaz, Rolando Quintero Téllez, Miguel Alejandro Martínez Rosales y el director del proyecto, Miguel Jesús Torres Ruiz. El maestro en ciencias Torres Ruiz dijo: “En un principio, personal de la Sagarpa y del Servicio Nacional de Sanidad Inocuidad y Calidad Agroalimentaria (Senasica) manifestaron el interés para establecer un convenio con el objetivo de desarrollar un producto que fuera útil para el control de plagas y generación de alertas fitosanitarias a nivel nacional, propusieron un proyecto denominado Simafin-Mex. Participamos con otras instituciones, hubo una competencia muy sana y de alta competitividad tecnológica, donde afortunadamente fuimos quienes establecimos ese convenio”. Sobre el funcionamiento del proyecto, Torres Ruiz detalla: “La aplicación está basada en un Sistema de Información Geográfica (GIS, por sus siglas en inglés) embebido1 en un ambiente distribuido para soportar el procesamiento y análisis de datos geoespaciales en un contexto fitosanitario. El GIS está compuesto de una base de datos espacial (ver cuadro 1), la cual almacena toda la información relacionada a los cultivos del país y el estado que presentan las unidades de producción de estos cultivos registrados por la Sagarpa. Asimismo, cuenta con un sistema de información orientado al web que se enfoca en la recopilación y automatización de los datos capturados en campo por los técnicos que supervisan las trampas —llámese así a los objetos colocados para la captura de elemento de la plaga— en cada unidad de producción en su GPS (aparato que permite determinar la posición de la trampa en la Tierra). En el Laboratorio de Geoprocesamiento del CIC del Departamento de Sistemas de Información y Bases de Datos, se diseñó un sistema de análisis espacial y geoestadístico para El maestro Torres Ruiz en una demostración del sistema Consulta de los datos en el sistema. IPN Donde la ciencia se convierte en cultura 43 Conversus 60 Mayo 24/5/07 20:22 Page 44 Seleccionar función El sistema permite analizar los datos a través de las distintas formas de visualización, estos son algunos ejemplos de ellas: 44 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:22 Page 45 1 BASE DE DATOS ESPACIAL Una base de datos espacial es un arreglo ordenado de datos geo-referenciados relacionados entre sí, clasificados y agrupados según sus características; bajo control de redundancias e integrados para el desarrollo de aplicaciones y análisis sobre la información. El espacio establece un marco de referencia para definir la localización y relación entre objetos. El que normalmente se utiliza es el espacio físico que es un dominio manipulable, perceptible y que sirve de referencia. Un dato espacial es una variable asociada a una localización del espacio. Normalmente se utilizan datos vectoriales, los cuales pueden ser expresados mediante tres tipos de objetos espaciales: • Puntos. Se encuentran determinados por las coordenadas terrestres medidas por latitud y longitud. Por ejemplo, ciudades, accidentes geográficos puntuales, hitos. • Líneas. Objetos abiertos que cubren una distancia dada y comunican varios puntos o nodos, aunque debido a la forma esférica de la Tierra también se le consideran como arcos. Líneas telefónicas, carreteras y vías de trenes son ejemplos de líneas geográficas. • Polígonos. Figuras planas conectadas por distintas líneas u objetos cerrados que cubren un área determinada, como por ejemplo países, regiones o lagos. La construcción de una base de datos geográfica implica un proceso de abstracción para pasar de la complejidad del mundo real a una representación simplificada que pueda ser procesada por el lenguaje de las computadoras actuales. procesar la información fitosanitaria, con el objeto de generar reportes, mapas de riesgo fitosanitarios, mensajes en la web y alertas electrónicas acerca de ciertas plagas que puedan dañar a los cultivos. Todos estos elementos son desplegados en la web, por medio de web-mapping (cartografía en la web), en donde diversas instituciones o productores pueden consultar la información proporcionada por las campañas. También se cuenta con un Sistema Analizador de Datos Espaciales, el cual ha sido aplicado para realizar el procesamiento y análisis de datos geoespaciales y fitosanitarios en forma local, para que posteriormente estos resultados puedan ser publicados. A su vez, existen diversos roles (funciones que alguien cumple en la base de datos), con diferentes privilegios de usuario, ya sea únicamente para realizar operaciones de consulta, captura de datos o hasta la creación de nuevas campañas fitosanitarias. Este proyecto es un desarrollo tecnológico que cubre varias disciplinas y tecnologías, las cuales abarcan desde el área de la biología, ciencias de la Tierra hasta el procesamiento cuantitativo y cualitativo de datos geoespaciales. Con el uso de estos componentes, se genera un amplio conocimiento científico en el contexto del manejo de situaciones y emergencias fitosanitarias, con lo cual especialistas en el área pueden tomar mejores decisiones en un tiempo más corto y con mayor efectividad para llevar a cabo mejores controles y mecanismos de detección que permitan garantizar la calidad agroalimentaria del país. Aunado 2 RESUMEN a lo anterior, el uso de tecnologías de punta en el área de las ciencias de la información geoespacial, como es el caso del diseño e implantación de bases de datos geográficas, sistemas de posicionamiento global y sistemas de información geográfica orientados al web, permiten integrar diversos mecanismos de recopilación, almacenamiento y análisis de la información fitosanitaria, automatizando las principales tareas del Senasica tales como: supervisión, detección y control dentro del ámbito de sanidad vegetal” apuntó el maestro en ciencias Torres Ruíz. A la pregunta de que si el proyecto podría brindar otras ventajas y resultados, el maestro finalizó: “A través de la información que el proyecto arroja, los dueños de las unidades de producción pueden verificar el estado fitosanitario de la región para buscar la certificación de sus huertos. Existen dos tipos de huertos: los comerciales y los marginales a los cuales, la Sagarpa debe validar mediante la emisión de un certificado que los autorice a comercializar su producto; sin embargo, lo mas importante es que el sistema puede ser aplicado a la diversidad de plagas existentes y de acuerdo con las campañas fitosanitarias que establezca la misma Secretaría”. En definitiva, el equipo del CIC del IPN colabora con la Sagarpa en la misión de apoyar el desarrollo del sector agropecuario, para posibilitarle un desempeño rentable y competitivo, con dinámicas de desarrollo sustentable a largo plazo. DEL DESARROLLO EL PROYECTO El proyecto se definió en tres etapas: Primero se hizo una recopilación de diversas fuentes y datos de municipios y localidades específicas del Instituto Nacional de Estadística, Geografía e Informática (INEGI) y de diversas bases de datos que se localizaban dispersas, así como de una infinidad de mapas, información que se pasó posteriormente a formato digital para su adecuada consulta. La segunda parte del proyecto se enfocó, mediante lenguajes de programación, al desarrollo de un sistema de información orientado para consulta en Internet y aplicaciones GIS de escritorio. La tercera etapa consistió en concluir la forma de acceso a los distintos usuarios (productores, entidades gubernamentales, especialistas y científicos del área). IPN Donde la ciencia se convierte en cultura 45 Conversus 60 Mayo 24/5/07 20:22 Page 46 NOTAS 1 Un sistema embebido cumple un propósito especial. Tiene requerimientos muy específicos y cumple un número de tareas predeterminadas. Es una combinación de hardware y software en el mismo paquete. Ejemplos de sistemas embebidos son la mayoría de los periféricos de una computadora, los teléfonos celulares, los ruteadores, los PDAs, algunos electrodomésticos, etcétera. El software embebido también se encuentra en cajeros automáticos, discos duros, aviones, naves espaciales, misiles, satélites y automóviles, por mencionar sólo algunas aplicaciones. 2 Una ontología define los términos a utilizar para describir y representar un área de conocimiento. Las ontologías son utilizadas por las personas, las bases de datos, y las aplicaciones que necesitan compartir un dominio 3 MOSCAS ESPECIES MÁS COMUNES Anastrepha ludens de información (un dominio es simplemente un área de temática específica o un área de conocimiento, tales como medicina, fabricación de herramientas, bienes inmuebles, reparación automovilística, gestión financiera, etcétera). REREFENCIAS <http://www.w3c.es> <http://www.fumecembeddedsoftware.org> <http://www.sagarpa.gob.mx> <http://www.udistrital.edu.co> Información general sobre la investigación realizada: Miguel Jesús Torres Ruiz (2006). DE LA FRUTA Mosca mexicana de la fruta (Anastrepha ludens) Mosca de la ciruela y/o del mango (Anastrepha obliqua) Mosca de la guayaba (Anastrepha striata) Mosca de los zapotes (Anastrepha serpentina) Anastrepha obliqua Anastrepha serpentina CULTIVOS AFECTADOS En México, solo cuatro especies del complejo Anastrepha se consideran como de importancia económica. A. ludens se le encuentra asociada principalmente a naranja, mandarina y toronja; mientras que a A. obliqua es más común en mango y frutos del género Spondia; a A. striata se le considera que únicamente ataca a guayaba y A. serpentina ataca a una gran variedad de zapotes en los que destaca el chicozapote y el mamey. Estados afectados (fase bajo control fitosanitario) Colima, Distrito Federal, Guerrero, Jalisco, Michoacán, Nayarit, San Luis Potosí, Veracruz, Campeche, Chiapas, Guanajuato, Hidalgo, Estado de México, Morelos, Oaxaca, Puebla, Querétaro, Quintana Roo, Tabasco, Tlaxcala y Yucatán. Estados con poca presencia (fase de baja prevalencia) Aguascalientes, Durango, Nuevo León, Sinaloa (centro y sur), Tamaulipas (norte y centro) y 48 municipios de Zacatecas. Estados sin presencia (zonas libres) Baja California, Baja California Sur, Sonora, Chihuahua, Coahuila y el norte de Sinaloa. 46 conversus Mayo 2007 Conversus 60 Mayo 24/5/07 20:22 Page 47 ACCIONES DEL MANEJO INTEGRADO DE MOSCAS DE LA FRUTA. • Trampeo a través de la instalación de trampas tipo McPhail. • Muestreo mediante la disección de frutos hospederos de moscas de la fruta. • Combate mecánico eliminando residuos de cosecha y/o frutos hospederos no comerciales. • Eliminación de poblaciones de adultos, a través de la aplicación de cebos con atrayentes altamente específicos para moscas de la fruta. • Aplicación del control biológico, mediante las liberaciones inundativas de parasitoides de larvas del complejo Anastrepha. • Empleo de la técnica del insecto estéril con la liberación de moscas estériles de la misma especie. • Capacitación con el desarrollo de cursos para la aprobación y renovación de unidades de verificación en la Campaña Nacional Contra Moscas de la Fruta. NORMATIVIDAD Norma Oficial Mexicana NOM-023-FITO-1995, por la que se establece la Campaña Nacional Contra Moscas de la Fruta. Norma Oficial Mexicana NOM-075-FITO-1997, por la que se establecen los requisitos y especificaciones fitosanitarias para la movilización de frutos hospederos de moscas de la fruta. Norma Oficial Mexicana NOM-076-FITO-1997, Sistema Preventivo y Dispositivo Nacional de Emergencia contra las moscas exóticas de la fruta. FUENTE : Sagarpa 4 PERFIL DEL INVESTIGADOR Egresado de la Escuela Superior de Computo (ESCOM) del IPN de la licenciatura en Ingeniería en Sistemas Computacionales, finalizó la maestría en Ciencias de la Computación en el CIC y esta por terminar su tesis doctoral llamada “Representación ontológica de objetos geográficos basadas en descripciones semánticas”. La línea de investigación del maestro en ciencias Miguel Jesús Torres Ruiz es el Análisis y síntesis semántica asociativa de datos geoespaciales; es decir, proporcionar metodologías para construir ontologías2 del dominio geográfico y llevarlas a la práctica a través de sistemas de recuperación de datos. Actualmente trabaja en un proyecto denominado “Evaluación y potenciación del papel de las infraestructuras de datos espaciales en el desarrollo sostenible en América Latina y el Caribe dentro del Programa Iberoamericano de Ciencia y Tecnología para el Desarrollo”, proyecto donde también participan investigadores de Argentina, Chile, Brasil, Colombia, Cuba, España y Uruguay. “Este proyecto pretende evaluar el papel de las infraestructuras de datos geoespaciales que mejoren el proceso de toma de decisiones en los países de América Latina y el Caribe; es decir, se pretende demostrar que los datos geoespaciales sirven para tener una mayor sostenibilidad del entorno y de la calidad de vida. En otras partes del mundo, vemos que detrás de cualquier tipo de desarrollo o aplicación se encuentran datos geoespaciales, debido a que es algo primordial para la toma de decisiones; por ejemplo, modelos de simulación y prevención de desastres” comentó el maestro en ciencias Torres Ruiz. La participación del investigador en el proyecto como especialista en computación es precisamente proporcionar las herramientas para que otros investigadores puedan representar su conocimiento, lo conceptualiza y les proporciona ontologías de dominio geográfico para que toda la gente pueda entender este tipo de datos. IPN Donde la ciencia se convierte en cultura 47 CONVERSUS 60 Mayo-2a Parte 24/5/07 19:57 Page 48 Soluciones La Herradura de Peñoles, orgullo de Sonora José Luis Carrillo Aguado* *Periodista científico de Conversus. 48 conversus Mayo 2007 CONVERSUS 60 Mayo-2a Parte 24/5/07 19:57 Page 49 a mina La Herradura, situada en el estado de Sonora, al Noroeste de Hermosillo, es una de las mayores minas productoras de oro de América Latina. Conversus tuvo la oportunidad de admirar las características peculiares de esta mina, ya que no sigue el estereotipo tradicional de mina, una cueva en un cerro con carros repletos de mineral que corren sobre rieles, sino que la obra se realiza a tajo abierto, según explicó el ingeniero Enrique García Reimbert, quien trabaja en el Departamento de Exploración Minera Penmont, S. de R.L. de C.V. El ingeniero Garcia Reimbert informó que con este adjetivo se designa al corte practicado en el lugar de donde se extrae el mineral, yacimiento con grandes tonelajes, en este caso de mas de un millón de onzas y bajas leyes, para lo cual se cuenta con la maquinaria especializada con la que se extrae el mineral económico, además de realizar el movimiento de tierras que no cumplen el estándar o cut off (ley de corte ). L Para la localización del yacimiento, el ingeniero García Reimbert explicó que se requirió de métodos indirectos de exploración y una infraestructura con tecnología de vanguardia necesaria para conocer el terreno, como son los geoposicionadores satelitales o GPS (instrumentos que se valen de satélites artificiales para proporcionar las coordenadas de determinada localidad) donde se hacen muestreos geoquímicos del mineral. El siguiente paso , una vez tomadas las muestras, consistió en buscar anomalías que hicieran sospechar sobre la posibilidad de encontrar el mineral; cuando eso se comprobó, se organizó un programa de trabajo para llevar a cabo estudios más detallados. Cuando un equipo de geólogos o ingenieros en geología encuentra mineral con el potencial necesario para ser tomado en cuenta, se elabora un programa de exploración y se determinan los planes de minado, lo que depende de las cotizaciones de los metales que rigen en ese momento. Vale la pena indicar que actualmente el precio de la mayoría de los metales está a la alza, por lo que hoy en día es especialmente rentable la realización de investigaciones en esta área del conocimiento, con un futuro prometedor. La etapa que sigue es la barrenación, proceso que permite determinar las dimensiones del yacimiento. Para ello se usan barrenadoras, máquinas perforadoras montadas en camiones y dotadas de compresores de aire y motores que hacen girar 1 1.- Camión con barrenadora 2.- Paso del “yukle” 2 2.8 km 3.- A tanque de lixiviado 4.- Bancos 5.- Mineral 6.- Mina a tajo abierto (Corte de cerro) 3 4 Infografía: Jovan Campos 2 km 5 6 IPN Donde la ciencia se convierte en cultura 49 CONVERSUS 60 Mayo-2a Parte 24/5/07 19:57 Page 50 tubería para taladrar roca inyectando presión de aire. Las muestras del subsuelo obtenidas, denominadas ripios, se precipitan a una tubería de donde se sacan y colocan en determinada cantidad en cajas especiales para realizar los estudios necesarios en un laboratorio, lo que sirve para determinar la zona mineralizada. En ocasiones y dependiendo del tamaño del yacimiento, basta con que se tenga un gramo de oro por tonelada de material removido, para que la inversión en una mina sea rentable. El ingeniero Genaro Verdugo Noriega, encargado de supervisar la barrenación fuera de la influencia de la unidad La Herradura, explicó que el objetivo de este proceso es obtener muestras del suelo a diferentes profundidades para contar con una información más real de un probable cuerpo mineralizado. Después se hacen proyecciones con base en estudios de laboratorio y sistemas computacionales para delimitar la composición del suelo, lo que se logra con gráficas que presentan diferentes colores, siguiendo un código que asigna un color para cada tipo de roca y facilitar su identificación. El ingeniero Luis Alonso Luna, encargado de la barrenación de producción de la unidad minera, indica que se colocan con anticipación señales (banderas de colores) en el terreno donde previamente se barrenó, diferenciando el mineral que había sido analizado previamente en el laboratorio en sus diferentes rangos de ley, lo que significa ponderar la cantidad de oro presente por volumen de roca para determinar si el segmento de donde se extrajo la muestra es minable, esto es, si vale la pena invertir en la extracción según los parámetros de la empresa, para iniciar la explotación del mineral. Una vez que se ha decidido explotar un segmento de terreno, barrenos mas cortos son utilizados para insertar una carga de explosivos, que al detonar harán posible obtener mayor cantidad de rocas con mineral, material con el que después se cargarán (mediante maquinaria pesada) los camiones de acarreo o yukles, algunos con capacidad de carga de 100 toneladas métricas (otros pueden transportar 150 TM), para trasladar la materia bruta y depositarla en los tanques de lixiviado, donde siguen un proceso metalúrgico basado en reacciones fisico-quìmicas, y finalmente se obtiene el oro con diferentes grados de pureza. Las dimensiones de la mina La Herradura son actualmente de 2.8 km de largo por 2 km de ancho. LA HERRADURA DENTRO DE GRUPO PEÑOLES La Herradura pertenece a Grupo Peñoles, empresa cuya actividad está orientada principalmente al área minerometalúrgica y se desarrolla principalmente en México, sus productos son vendidos en cinco áreas geográficas del mundo: Estados Unidos, Japón, Europa, Sudamérica y otros. El ingeniero José Arturo Arredondo Morales, encargado de la operación de la mina, explicó que La Herradura ocupó hasta el 2005 el primer lugar en producción de oro a nivel nacional. Esta mina está dentro de las tres primeras en riqueza generada por Grupo Peñoles. El ingeniero Arredondo dejó en claro que la mayor parte de la producción de La Herradura se entrega a Met Mex, empresa radicada en Coahuila, que exporta a Estados Unidos una buena cantidad del mineral obtenido. Las ventas totales del área de minas de Peñoles (que comprenden las minas Fresnillo, La Ciénaga, La Herradura, Naica, Francisco I. Madero y otras menores) ascienden a $6 841.6 millones, con unas reservas probadas en oro de 4.3 millones de onzas de unidades de operación. Peñoles, fundado en 1887, es un grupo minero con operaciones integradas en la fundición y afinación de metales Yukle con mineral 50 conversus Mayo 2007 CONVERSUS 60 Mayo-2a Parte 24/5/07 19:57 Page 51 no ferrosos y en la elaboración de productos químicos; es el mayor productor mundial de plata afinada, bismuto metálico y sulfato de sodio, y se encuentra entre los líderes latinoamericanos en la producción de oro, plomo y zinc afinados. Su misión es agregar valor a los recursos naturales no renovables en forma sustentable. La visión de Peñoles, por otro lado, es ser la empresa mexicana más reconocida a nivel mundial del sector minero-metalúrgico por la calidad de sus procesos y la excelencia de su gente. Peñoles es una empresa socialmente responsable, respetuosa de la naturaleza y promotora del autodesarrollo de las comunidades donde operan. En lo referente al autodesarrollo de las comunidades, el contador público Edgando Urias Serrano, asesor de personal en La Herradura, comentó que en esta mina se les ha dado oportunidad de trabajo y desarrollo no sólo a profesionistas provenientes de todo el país, sino también a ejidatarios residentes de la zona, brindándoles la oportunidad para desarrollarse en una empresa que les ofrece capacitación tanto a hombres como a mujeres para procurar que consigan el dominio de otras habilidades y sean capaces de manejar maquinaria, obteniendo salarios que de otra manera no estarían a su alcance. Los trabajadores originarios de la zona han contado con la posibilidad de lograr niveles de escolaridad más altos, facilitando la integración a la empresa en cuestiones como seguridad, ecología, y orientación respecto a las actividades que van a desarrollar como operadores dentro de las minas. que maneja tecnología de punta. “Nuestros tecnológicos y universidades que ofrecen carreras en ciencias de la tierra: geología, ingeniería geológica, topografía, y otras afines, deben adecuarse a las necesidades de las grandes empresas y a los requerimientos que en esta materia demandan los tiempos actuales, como son maestrías impartidas vía Internet. Por ello, es altamente recomendable para los jóvenes con posibilidades de elegir una carrera profesional, decidirse por alguna relacionada con el trabajo en campo, particularmente en la investigación mineralógica, sobre todo ahora que los metales están al alza, aunque antes deben valorar, con base en las prácticas de campo, si están dispuestos a ceder parte de su tiempo a radicar fuera del hogar”. Sin embargo, como explica el ingeniero Verdugo Noriega, no hay nada comparable con dedicarse a un trabajo que brinde la satisfacción de dotar de sentido a su vida, y la familia termina por agradecer al trabajador su esfuerzo y constancia. En el Instituto Politécnico Nacional (IPN), así como en la Universidad Nacional Autónoma de México (UNAM), se imparten las carreras relacionadas con ciencias de la tierra. El sector minero demanda crecimiento en los centros de enseñanza superior hacia la mejora en sus programas de estudios para estar en posibilidades de forjar los estudiantes de ciencias de la tierra que el México del siglo XXI requiere. Seguramente habrá estudiantes interesados en cursar sus estudios en esta área. LLAMADO A LOS JÓVENES El ingeniero García Reimbert hizo énfasis en que los jóvenes de hoy deben aprovechar el boom de la minería y los programas curriculares de muchas universidades para formar recursos humanos capacitados, con el fin de encontrar un sentido a su vida profesional al laborar en un área altamente satisfactoria y Ingeniero Enrique García Reimbert IPN Donde la ciencia se convierte en cultura 51 CONVERSUS 60 Mayo-2a Parte 24/5/07 19:58 Page 52 Donde la ciencia se convierte en cultura Cómo combatir el deterioro del idioma “Sueño con un mundo en el que se muriera por una coma". (Ciorán) Manuel Calvo Hernando* *Periodista y divulgador científico. Presidente de Honor de la Asociación Española de Periodismo Científico. D.e: [email protected] 52 conversus Mayo 2007 CONVERSUS 60 Mayo-2a Parte 24/5/07 19:58 Page 53 Está devaluado el lenguaje? Cualquier análisis del estilo periodístico debe ir forzosamente precedido de un recordatorio sobre la necesidad de corrección del lenguaje y, en lo que se refiere a los países de habla castellana, la manifestación de un cierto desprecio hacia el lenguaje, de negativas consecuencias culturales y profesionales. Se pierden el amor a las palabras y la preocupación no ya por escribir bien, sino por expresarse correctamente. ¿ Para las nuevas generaciones habría que recordar las conocidas frases de Pedro Salinas sobre el lenguaje: "Sentiremos mejor lo que sentimos, pensaremos mejor lo que pensamos, cuanto más profunda y delicadamente conozcamos sus fuerzas, sus primores, sus infinitas aptitudes para expresarnos". En su célebre conferencia sobre "Defensa del Lenguaje", pronunciada el 24 de mayo de 1944 en la Universidad de Puerto Rico, tiene estas frases impresionantes, que hoy serían mucho más duras todavía: “Ninguna generación tiene derecho a descuidar o abandonar esta santa misión transmisora de su lengua, por flojedad o por inconsciencia. ¿Puede una generación aceptar la cínica postura de legar a sus hijos menos patrimonio espiritual que el que recibió de sus padres?” Se ha dicho que la devaluación del lenguaje es tan grande como la de la moneda. El académico Lázaro Carreter llegaba más lejos: "Millares de manazas y chapuceros están maltratando el lenguaje. Basta leer con atención gran parte de lo que se escribe para consumo público: aunque en una ojeada superficial parezca sano, fijando la mirada se advierte que, en grandes zonas, el tejido está fofo, exangüe y agusanado". Aunque ello no sea ningún consuelo, recordemos que este deterioro idiomático de los medios informativos no afecta solamente al idioma castellano. Hermann Hesse, refiriéndose al alemán, hablaba de "masificación degradante" y de "una jerga de mendigos, empobrecida y piojosa". "Casi una tragedia", añadía. Grandes escritores, en todos los tiempos, han expresado sus quejas y sus protestas por el deterioro de sus respectivos idiomas. En nuestro siglo, y fuera de España, uno de los más constantes y duros ha sido Ernst Jünger. En Eumeswill (1977) clama: "La decadencia del lenguaje no es tanto una enfermedad cuanto un síntoma. Se estanca el agua de la vida. La palabra tiene todavía significado, pero no sentido. Es cada vez más desplazada por las cifras. Es incapaz de poesía, ineficaz para la oración. Los placeres groseros sustituyen a los del espíritu". Jünger se queja de quienes se sienten llamados a despojar de su follaje a la lengua y a prestigiar la jerga. "Y así, con el pretexto de facilitar la comunicación, despojan al pueblo de su lengua". No es necesario recordar que estos juicios de Jünger están pensados para el alemán, donde —según me hace ver Emilio Lorenzo— un prefijo separable de la oración principal puede aparecer varias líneas más abajo si se incluyen oraciones subordinadas (de relativo u otras). El castellano — por lo menos en España— atraviesa una era de abandono y anarquía: enseñanza deficiente, descuido en los medios informativos, traducciones infames, muletillas y palabras que no son signo de vitalidad, sino de incultura, y otros males (Alfonso de la Serna). Sintaxis defectuosa, pobreza de vocabulario, plurales bárbaros, uso defectuoso de palabras como "alternativa", "compromiso", y hasta "restar", desgaste de vocablos como "trascendental" y de expresiones como "en profundidad", gerundios mal empleados, desconocimiento de la función sintáctica de las preposiciones (el "dequeísmo", etc.) , anglicismos ("sponsor", "nominación" y centenares más), destrucción de la frontera silábica, exceso de adjetivos y abundancia de tópicos, sintaxis "intransitable", que diría García Márquez, son algunos de los males de nuestro idioma. En suma, un español deleznable, limitado, empobrecido, monótono, en cuyo uso habitual declinan la metáfora, la riqueza del léxico e incluso el bueno gusto. Nuestro idioma vive "como si fuera una lengua amputada, agredida desde los medios de comunicación, desde el Parlamento y desde la vida cotidiana" (editorial de "El País", 7-12-1991). Para el gramático y académico Rafael Lapesa, el mal verdadero de nuestro uso lingüístico consiste en "la incorrección, la chapucería, fomentadas por la prisa y la incultura", y que tiene su origen en la deficiencia de la formación escolar. Para García Yebra, el galicismo en nuestra lengua es no sólo léxico y sintáctico, sino prosódico y morfológico. ¿Será posible que, en este campo, hayamos retrocedido? En otros tiempos, como recuerda Francisco Ayala, la expresión gramaticalmente correcta era cuestión de cortesía y de urbanidad, de la que nadie se dispensaba en público. Y mucho antes, Luis Vélez de Guevara, en su clásico El diablo cojuelo critica con gran ingenio los errores idiomáticos de la época y cita ejemplos de pobreza de lenguaje: porque un consonante obliga a lo que el hombre no piensa. Por otra parte, no todos los expertos son pesimistas. En cuanto al panorama general, el catedrático y académico Emilio Lorenzo me justificaba en una carta la situación actual porque ahora son miles los protagonistas que llegan a las tribunas, sean de la radio, la televisión o meras "Cartas al director". ¿Cuándo han tenido acceso los "analfabetos funcionales" a un auditorio de millones de espectadores o radioyentes? Nada digamos —añade— de los ases del balón, los premiados en la lotería o los encuestados sobre la Unión Europea. En cuanto a los periodistas, llamamientos y recriminaciones no han tenido hasta ahora demasiado fruto, salvo en casos ejemplares, pero aislados, como la creación del Departamento de Español Urgente en la Agencia EFE. Se trata de un problema grave, sobre todo si se relaciona con opiniones como la del IPN Donde la ciencia se convierte en cultura 53 CONVERSUS 60 Mayo-2a Parte 24/5/07 19:58 Page 54 académico Manuel Alvar, para quien el porvenir de la lengua está en manos de los periodistas y no de los profesores. Otro estamento de gran influencia social y de mala conducta idiomática suele ser el de los políticos y los funcionarios de la Administración. En este sentido se registran algunos esfuerzos, como la publicación de un Manual de estilo del lenguaje administrativo (Ministerio para las Administraciones Públicas, Madrid, 1991). LAS PALABRAS Y LA LENGUA Hay que decir algo sobre las palabras, que son no sólo la primera invención del hombre, y quizá la más grandiosa, sino en este caso nuestra herramienta de trabajo, y no sólo en la prensa escrita, sino también en radio y televisión. Preocupa esta cuestión a los periodistas y los medios de información, pero debería preocuparnos a todos, aunque hemos de reconocer que son minoría los interesados por esta cuestión, vital para alguien cuyo oficio es expresarse. Entre nosotros, vale la pena recordar a Ramón Gómez de la Serna, uno de nuestros hacedores del idioma en el siglo XX. Para Ramón, la palabra no es sólo lo que se oye, sino lo que se ve, lo que se huele y hasta lo que se toca, y la palabra es independiente del hombre, tiene vida propia. Sería un ejercicio útil y enriquecedor analizar los distintos conceptos y matices, a veces contradictorios, que esconden palabras tan aparentemente unívocas como "revolución", "libertad", "democracia", "pacifismo". "socialismo", "raza", "colonialismo", "subdesarrollo", "tercer mundo", "libre comercio", "explotación" OBJETIVOS ACTUALES Un texto legal estableció en España las enseñanzas mínimas de la secundaria: 1. Capacidad de expresarse oralmente y por escrito mediante discursos coherentes, correctos, creativos y adecuados a las diversas situaciones de comunicación y a las diferentes finalidades comunicativas. 2. Comprender discursos orales y escritos científicos, culturales, técnicos, etcétera, atendiendo a las peculiaridades comunicativas de cada uno de ellos. 3. Observar la situación lingüística -de la propia comunidad, de España y del mundo- y estudiar las relaciones entre las diversas lenguas del país y sus variedades como manifestaciones de su naturaleza sociohistórica, para favorecer una actitud consciente y respetuosa con la riqueza plurilingüe y pluricultural. 54 conversus Mayo 2007 y hasta "federalismo". "Como símbolo, la Torre de Babel es intemporal", decía Arthur Koestler. La manipulación semántica y la utilización de las ambigüedades del vocabulario pueden explicarnos que muchas veces la palabra no nos remita al objeto o a la realidad, sino a la imagen que cada uno de nosotros tenemos de ellos. En el periodismo, el lenguaje sufre también lo que se han llamado "escondites" y que no son otra cosa que ocultaciones de realidades, telones o cortinas que se interponen entre la realidad y su expresión. Y ello puede no suceder por voluntad de quien se expresa, sino por esa dinámica de la lengua, que hace que muchas palabras se vacíen de contenido por el uso, mientras surgen otras lozanas y recién estrenadas. Quizá por estas razones se dice que las palabras son más poderosas que los hechos. "Una palabra queda, un hecho pasa", escribe, jugando a la paradoja, Joseph Roth, y remacha: "Los hechos y las acciones son meros fantasmas en comparación con la realidad, y, sobre todo, con la realidad sobrenatural de la palabra". El estudioso y académico Emilio Lorenzo afirma que el español está lleno de verbos maravillosos, sin paralelo en otras lenguas: ensimismarse, desvivirse, escarmentar, etc. Oscar Handlin ha puesto ejemplos de palabras cuyo significado se explica por su contrario: así, en Estados Unidos, "blanco" significa "no negro". Las palabras suelen ser producto de la historia o de los conflictos de raza, religión, ideología, etc. Aunque Handlin se refiere a la historia, sus observaciones nos sirven a quienes hemos de enfrentarnos con problemas de expresión. 4. Utilizar y valorar el lenguaje oral y escrito como medio eficaz para la comunicación interpersonal, para la adquisición de nuevos aprendizajes, para la comprensión y análisis de la realidad y para la organización racional de la acción. 5. Reflexionar sobre los distintos componentes de la lengua y sobre el propio uso, analizando y corrigiendo las propias producciones lingüísticas y empleando en ello los conceptos y procedimientos adecuados. 6. Interpretar y valorar críticamente obras literarias, identificando los elementos que configuran su naturaleza artística, descubriendo en ellas el uso creativo de la lengua, relacionándolas con una tradición cultural y reconociendo las condiciones sociales de su producción y recepción. Los tres últimos párrafos se refieren al conocimiento y valoración de la literatura española. CONVERSUS 60 Mayo-2a Parte 24/5/07 19:58 Page 55 NORMAS BÁSICAS DE CARACTER GENERAL Ante la imposibilidad de referirme en su integridad a un tema tan vasto y tan complejo, he tratado de resumir algunas normas básicas. En la bibliografía final figuran algunos textos para quienes deseen ampliar una cuestión de tanta trascendencia en la Comunicación, y especialmente en la comunicación de la ciencia al público. • En primer lugar, buscar la comprensión generalizada. Cualquier tipo de comunicación periodística será inútil si su expresión no coincide con el código del receptor, no sólo en lo que se refiere al lenguaje, sino a la realidad del contexto socio cultural en que se produce. Como consecuencia, debe procurarse utilizar un habla unívoca, lo menos ambigua posible, de estructura sintáctica racional, y tratar de evitar o reducir a lo indispensable el uso de adjetivos. • La primera condición que la lógica impone al lenguaje es la de ser claro y evitar la imprecisión. Una lengua puede utilizar la ambigüedad como un recurso estilístico pero no puede ser imprecisa porque entonces se produce un vacío comunicativo, y si la lengua es algo, es un sistema de comunicación (García Domínguez, Seminario sobre El Neologismo Necesario). En este sentido, debe tenerse en cuenta la polisemia (una palabra con varios significados), ya que puede ser causa de ambigüedad y prestarse a equívocos. • Consejos de Bertrand Russell: 1º Si basta una palabra corta, no emplear una larga. 2º Si se quiere emitir un juicio con muchas especificaciones, deben escribirse algunas de estas en frases separadas. 3º Evitar que el principio de la frase induzca al lector a esperar algo que se contradiga al final con ella. • Tener en cuenta que la acción sólo puede ser expresada por un sujeto, un verbo y un complemento, incluso el adjetivo retrasa el avance, reduce el brío y a veces el ritmo. En la frase enunciativa, si consta de tres elementos, el verbo suele colocarse intercalado y de los otros dos precede uno (el de mayor interés) y los demás van al final. No obstante, la construcción de la frase castellana goza de holgura y libertad y el orden de las palabras puede depender más de la idea o del hecho que quieran expresarse que de la rigidez gramatical, siempre que no se conculquen las normas que modifican el sentido de la frase y dicen, por tanto, lo contrario de lo que queríamos decir. • Combatir la monotonía y el tópico. Tratar de encontrar, como aconseja Mario Benedetti, un sustantivo que nunca había colindado con un adjetivo cualquiera; el hallazgo de una sóla palabra que transforma un lugar común en un lugar extraordinario; la novedad de una sensación o, mejor aún, la manera nueva de expresar una sensación trillada y hasta la invención de una palabra. • En el lenguaje periodístico hay que procurar la economía de expresión y evitar el pleonasmo, la redundancia, lo superfluo, si queremos alcanzar eficiencia y concisión. Pero sin extremosidades, ya que la concisión máxima suele equivaler a ambigüedad y la efectividad de una comunicación depende tanto de que ésta sea breve como de que sea inequívoca. Como en la función empresarial, es necesario conseguir la máxima eficacia con el mínimo coste. Es cierto que la riqueza de vocabulario es cualidad positiva del periodista y del escritor, pero también lo es que con un mínimo de voces y de giros pueden expresarse muchos matices. El neologismo es un cambio reciente en las lenguas, afectadas, como toda creación social, por una mutabilidad que le da vida y permanencia, y singularmente en esta era de innovación científica y tecnológica. Los neologismos pueden ser útiles, pero también superfluos, y debe buscarse, en los resquicios del diccionario, si existe algún vocablo anticuado que pueda sustituir al recién llegado. Ante los términos científicos y técnicos -recuerda Lázaro Carreter-, se han desarrollado dos actitudes principales: una, apropiárselos sin más, y decir by-pass, leasing o hardware, lo cual se corresponde con una actitud pasiva y diríase que acríticamente rendida ante el superior modelo norteamericano (posición dominante entre nosotros) y otra, presentar cara ante tal superioridad con una cierta arrogancia y tratando de nacionalizar los tecnicismos extranjeros. • Tengamos siempre a mano la herramienta básica, el diccionario, que no es, como se dice a veces, un cementerio de palabras, sino un arsenal, una guía, una orientación, un código de referencia, una garantía e incluso un libro de lectura. • Periodistas experimentados ofrecen estos criterios sobre el estilo periodístico, recogidos por la Sociedad Interamericana de Prensa: * Escribir frases cortas. * Preferir lo simple a lo complicado. * Preferir lo concreto y desechar lo abstruso. * Usar palabras comunes. * Omitir palabras innecesarias. * Emplear verbos en voz activa. * Redactar con sencillez, naturalmente. IPN Donde la ciencia se convierte en cultura 55 CONVERSUS 60 Mayo-2a Parte 24/5/07 19:58 Page 56 • Habría de añadirse el cuidado con el mal uso de gerundios, preposiciones, relativos, etc. Recordemos que el diccionario de la Real Academia llama "gerundiano" al estilo "hinchado y ridículo" y que una segunda acepción de la palabra "gerundio", (advirtiendo que es voz en desuso) en este mismo diccionario, dice así: "Persona que habla o escribe en estilo hinchado, afectando inoportunamente erudición e ingenio". • Debe tenerse en cuenta, asimismo, que el idioma no se aprende por mera impregnaciòn del ambiente, por simple contagio. Como aconseja el Manual de español urgente, editado por la Agencia Efe, se debe estudiar poniendo atención en la lectura de buenos escritores, y desconfiando del propio conocimiento. • El mexicano Fernando del Río afirma algo que pudiéramos suscribir muchos de quienes hemos dedicado la vida al periodismo, si bien debe tenerse en cuenta que puede no ser adecuado para todos, ya que cada uno se va creando sus métodos, sus sistemas y hasta sus manías: Perdamos el miedo a escribir; no nos quedemos viendo la hoja de papel en blanco porque "no sabemos cómo empezar". Sencillamente, escribamos lo que pensamos en ese momento, tal como se nos venga a la mente. Las mejoras vendrán con la corrección y la revisión del texto... El único secreto de la buena redacción ni siquiera es secreto: es corregir una y otra vez. • Ernst Jünger, en sus Radiaciones. Diarios de la Segunda Guerra Mundial, intercala con frecuencia observaciones sobre el estilo. SUGERENCIAS PARA INFORMAR SOBRE EL CONOCIMIENTO Además de otros recursos son útiles otras posibilidades ofrecidas por el lenguaje, como la metáfora, la hipérbole, la analogía, la transposición, la parábola, la ironía. Aquí se habla de algunos de ellos. Debe tenerse en cuenta que a veces estas clasificaciones tienen propósitos didácticos y pueden no responder a la realidad, ya que en unos casos se solapan (como les gusta decir a los ingenieros) y en otros son tan tenues las diferencias y los límites que pueden confundirse y en ocasiones ser conceptos equivalentes. Ante todo, unas breves definiciones. ANALOGÍA: relación de semejanza. METAFORA: traslado de sentido por sustitución analógica. PARADOJA: algo que va en contra de la opinión común o de lo establecido. TRANSPOSICIÓN: figura que consiste en alterar el orden normal de las voces en la oración, pero que aquí se utiliza con un sentido más amplio: trasladar hechos o conceptos a otras áreas del pensamiento o de la acción y a conceptos o magnitudes familiares para el hombre medio y que ayudan a la comprensión. En mi vida profesional he escuchado imágenes que me han llamado la atención. Por ejemplo, si los fragmentos de ADN pudieran 56 conversus Mayo 2007 He aquí algunos ejemplos, en los casos en que, aun habiendo formulado tales observaciones para el idioma alemán, son aplicables al castellano y a los abusos que cometemos: * El uso del punto y coma, que considera el sustituto necesario del punto en aquellos casos en que la frase prosigue su marcha lógica. * La defensa del sustantivo (en ello coincide con Azorín), que es, "en todos los casos", más enérgico que el empleo de formas verbales. En general, afirma, poseen más fuerza los verbos que se derivan de sustantivos; por el contrario, los sustantivos derivados de formas verbales son más flojos. * Elogio de la exigencia de Schopenhauer de no introducir frases de relativo en la frase principal, sobre todo por lo que se refiere a la conducción clara y lógica de los pensamientos y a su secuencia. En cambio, la presentación de imágenes y la participación en ella puede incrementarse incluso con la inserción de frases de relativo. * El uso del pluscuamperfecto durante párrafos largos hace leñoso, rígido el texto. Es recomendable contentarse con el imperfecto, a costa de la exactitud gramatical, y hacer sonar de vez en cuando el pluscuamperfecto. estirarse sin romperse, sólo el de uno de nosotros sería suficiente para ir al Sol y volver. El científico y divulgador David Suzuki, canadiense, que trabajó durante tres decenios sobre la mosca del vinagre, llega a la conclusión de que, en gran medida, los cambios que se producen en nuestras vidas son similares a las diferentes etapas por las que atraviesa la vida de una mosca: legado genético, óvulo inicial, recién nacido, fases de maduración, etc. Hay metáforas y paradojas muy válidas para la explicación de los hechos científicos. Los autores de Une logique de la communication (1967) dan la siguiente definición de paradoja: una contradicción que se plantea al concluir una deducción correcta a partir de premisas consistentes. Ortega dedica un capítulo a la metáfora en su Ensayo de estética, y para predicar con el ejemplo llama a la metáfora "bomba atómica mental". Jurdant cita algunas de ellas: "metales que no existen aún" (¿còmo se puede hablar de cosas que no existen?), "soñar antes de nacer", "el álgebra de lo imposible", "los rayos cós- CONVERSUS 60 Mayo-2a Parte 24/5/07 19:58 Page 57 micos, mensajeros de la galaxia", "la luz de mañana es ya sólida" (combinación de dos paradojas), etc. Borges afirma, quizá con alguna exageración, que las metáforas realmente eficaces son siempre las mismas: la comparación del paso del tiempo con un río y de la muerte con el sueño. Pablo Neruda y Federico García Lorca son también maestros en el uso de la metáfora. En cierta ocasión, Einstein respondió a un entrevistador con esta metáfora: "Somos como un muchachito que entra en una biblioteca inmensa, cuyas paredes están cubiertas de libros escritos en muchas lenguas distintas. El niño sabe que alguien ha de haberlos escrito, pero no sabe ni quién ni cómo. Tampoco comprende los idiomas en los que están escritos. Pero observa un orden claro en su clasificación, un plan misterioso que no comprende pero que sospecha vagamente. Esta es en mi opinión la actitud frente a Dios de la mente humana, incluso de la mejor y más preparada" (Gardner, 1989). Para terminar con este epígrafe, un consejo de amigo a los lectores: que relean Alturas de Machu Picchu, de Neruda (una de las más impresionantes colecciones de metáforas en nuestra lengua) y la Historia de la eternidad, de Borges, donde se registran preciosas metáforas. Las transposiciones, las reducciones de hechos y cifras a escalas más accesibles a nuestra comprensión y a nuestra imaginación, sirven para llegar mejor al público. La referencia a conceptos o magnitudes que sean de conocimiento público o con los que el hombre medio esté familiarizado, ayudará a la comprensión. He aquí un ejemplo de cómo se consiguió, hace algunos años, ofrecer ciertas nociones válidas sobre la distribución de razas y religiones en el mundo: CONSEJOS PARA LOS MAESTROS Anoto aquí productos de reflexiones, lecturas, etc. que he creído que pueden ser útiles para cumplir esta tarea de escribir ciencia, que es tarea de escribir. Sé muy bien que escribir es difícil, y que se da en muy pocos elegidos de los dioses, pero todos debemos aspirar a ello. Escribir no es sólo juntar y relacionar palabras, sino comunicar sugestivamente ideas y sensaciones. Utilizando la antigua imagen, del mismo modo que el alfarero convierte en formas artísticas un barro que los demás nos limitamos a quitarnos de los zapatos, el escritor se vale de un material que está al alcance de todos, las palabras, pero será escritor de verdad, y no mero escribidor, si posee "la aptitud de dar a un texto la más alta comunicabilidad emocional" (Pierre Rer, Una temporada con Lacan). "Reduzcamos el mundo a una aldea de cien habitantes. Los blancos serán 31 y los no blancos, 69. Habría 33 cristianos (23 católicos y 10 protestantes), y los otros 67 serían judíos, musulmanes, budistas, hindúes, sintoístas y otros no cristianos" (Thomas Patrick Melady, conferencia en Madrid, 28-3-1966). Otro ejemplo de transposiciones e imágenes, que podría considerarse también como metáfora e incluso como analogía, corresponde a un Premio Nobel, el argentino Luis F. Leloir. He aquí cómo explica, para el público, el mecanismo por el cual los azúcares se transforman, son asimilados y proveen de energía a las células del organismo: "Imagine usted una carretilla (el medio de transporte, la uridina difosfato) llevando carbón (la energía, la glucosa) que puede quemarse o acumularse en la carbonería hígado. En la práctica, consiste en el proceso por el cual los alimentos, una vez ingeridos por los animales o el hombre, se transforman en glucosa”. (Entrevista en "La Nación, de Buenos Aires, 15-111970). El propio Einstein imaginó y estableció algunas paradojas en relación con sus descubrimientos. Una de las curiosidades más repetidas es una quintilla sobre la relatividad. En ella, a la paradoja se añade la personificación, que en ocasiones puede ser una metáfora: "Había una joven llamada Bright, que viajaba mucho más aprisa que la luz. Un día partió por el camino de la Relatividad y volvió la noche anterior". • Lightman (1991) aconseja escribir sobre la ciencia de modo que el resultado sea arte y para ello debemos establecer ambas conexiones. * En su deliciosa Historia del cerco de Lisboa, Saramago escribe esta frase aparentemente paradójica: "...añadiéndole parte suficiente de imaginación para hacerla más auténtica y real". Se habla con frecuencia de la imaginación del científico y del escritor, pero menos de la imaginación del periodista, y también la necesita en ciertos casos. * Describir, más que escribir, exige, como mínimo, por parte del autor, tiempo de escritura (de hacer memoria) y de disipación de otro interés que no sea el de la libertad y la emoción de conjugar en un texto recreación, aventura, belleza y conocimiento. * Un ejemplo de léxico, entre nosotros, es el de Miguel Delibes. Torrente Ballester ha dicho de él: "Delibes se echa al campo IPN Donde la ciencia se convierte en cultura 57 CONVERSUS 60 Mayo-2a Parte 24/5/07 19:58 Page 58 con su escopeta y su can, y sabe nombrar lo que le rodea, lo que le acompaña, lo que le sale al paso. No es de los que dicen "pájaro", "hierba", "bicho", sino que llama a cada cosa por su nombre". Llamar a cada cosa por su nombre es, en periodismo, uno de los más válidos objetivos, y en su vertiente de difusión de la ciencia, un ideal al que creo que todos deberíamos tratar de acercarnos. Pero esto no es tarea fácil, ya que topamos con la famosa polisemia, que se da en la lengua, pero no en el habla. En cualquier idioma, hay palabras con sentidos muy diversos. Son válidas, en parte, para los periodistas las proposiciones que Ludwig Wittgenstein, en su Tractatus logico philosophicus, y que fueron escritas dentro de un análisis de la estructura lógica del lenguaje y refiriéndose al campo de la ciencia (Küng, 1979): I. Lo que se puede en general decir, se puede decir claramente. II. De lo que no se puede hablar, se debe callar. Y se relaciona con esta frase de Herder a Hamann, citada por Ernst Jünger en su libro La Tijera (1990): "Cuando mis ojos sean claros, lo será también mi estilo". Ello implica dominar el tema y el léxico, en toda su complejidad semántica. Cuando ello ocurra, el escritor será capaz de encontrar otras palabras equivalentes y esto sirve como test para saber si el periodista ha entendido el tema o no. En el primer caso, puede encontrar equivalencias semánticas de palabras (lo que los lingüistas llaman "capacidad de reformulación"). Ello plantea el problema del neologismo. Las lenguas se renuevan constantemente y lo que debe evitarse no es el enriquecimiento, sino el empobrecimiento. Ya Feijoo observaba que la censura a la introducción de voces nuevas o extrañas se debe a que "hay muy pocas manos que tengan la destreza necesaria para hacer esa mezcla" (se refiere a las combinaciones nuevas o desusadas). BIBLIOGRAFÍA AYALA, FRANCISCO: La retórica del periodismo. Real Academia Española. Madrid, 1984. BENEDETTI, MARIO: La soledad comunicante. El País, Madrid, 1 11 87. CALVO HERNANDO, MANUEL: Periodismo Cientifico. Paraninfo. Madrid. 1977. Idem El neologismo necesario. Fundación EFE, Madrid, 1992, 2ª edición. GARDNER, MARTIN: Los porques de un escriba filósofo. Tusquets, Barcelona, 1989. JÜNGER, ERNST: Eumeswill. Seix Barral, Barcelona, 1980; Radiaciones. Diarios de la Segunda Guerra Mundial. Vol. 2. Tusquets Editores, Barcelona, 1992. JURDANT, BAUDOIN: Les mecanismes textuels de la vulgarisation scientifique. Colloque Europeen sur la presentation de la science au public. Document de travail Nº 7. Conseil de l'Europe. Strasbourg, 3 Julio 1970. KOESTLER, ARTHUR: Jano. Editorial Debate. Madrid, 1981. LÁZARO CARRETER, FERNANDO: El dardo de la palabra. Ya, Madrid, 12 8 83. LORENZO, EMILIO: El español de hoy, lengua en ebullición. Editorial Gredos, Madrid, 1966; Bellas palabras. Abc, 4 10 87 y 17 10 87; Redundancia y economía de expresión. Abc, 1 4 86 y 10 4 86. Manual de Español Urgente. Agencia Efe-Ediciones Cátedra. Madrid, 1987. "Manual de Estilo". Centro Técnico de la Sociedad Interamericana de Prensa. Nueva York, 1965. Hoy, las grandes empresas informativas publican o actualizan sus libros de estilo. MARTIN VIVALDI, GONZALO: Curso de Redacción. XXI Edición corregida. Paraninfo, Madrid, 1990. RÍO,FERNANDO DEL: El arte de investigar. Universidad Autónoma Metropolitana, México, D.F., 1990. RUSSELL, BERTRAND: Retratos de memoria y otros ensayos. Alianza Editorial. Madrid, 1976. SÁBATO, ERNESTO: Uno y el Universo. Editorial Sudamericana. Buenos Aires, 1952. SALINAS, PEDRO: El Defensor. Alianza Editorial, Madrid, 1967. SARAMAGO, JOSÉ: Historia del cerco de Lisboa. Seix Barral, Barcelona, 1990. SERNA, ALFONSO DE LA: Enésima y porfiada defensa del idioma. Abc, Madrid, 117 11 86. SUZUKI, DAVID: Metamorfosis. Etapas de una vida. Labor, Barcelona, 1990. HELMICK BEAVIN, J.; JACKSON, Don D.: Une logique de la communication. Seuil, París, 1972. Traducción de la edición de W.W. Norton & Company, inc, New York, 1967. 58 conversus Mayo 2007 CONVERSUS 60 Mayo-2a Parte 24/5/07 19:58 Page 59 CONVERSUS 60 Mayo-2a Parte 24/5/07 20:01 Page 60 Otra voz... La visión del jóven investigador Etanol: alternativa energética Ana Isabel López García* *Licenciada en Relaciones Internacionales por el Instituto Tecnológico Autónomo de México (ITAM). Estudiante de la Maestría en Estudios Latinoamericanos en la Universidad de Oxford, Gran Bretaña. D.e: [email protected]; [email protected] 60 conversus Mayo 2007 CONVERSUS 60 Mayo-2a Parte 24/5/07 20:01 Page 61 nivel mundial se consumen diariamente 83.7 millones de barriles de crudo. Se estima que para el 2020 se utilicen cerca de 115 millones de barriles de petróleo diariamente, quedándonos sin reservas para el año 2043, hecho que, entre otras cuestiones ha aumentado considerablemente el precio de la gasolina. En un contexto de altos precios, inseguridad en el abastecimiento del petróleo y preocupación por el medio ambiente, ha resurgido la necesidad de desarrollar fuentes alternativas al petróleo en la forma de biocombustibles. Incluso George W. Bush, ex-petrolero y actual presidente de Estados Unidos (EU), ha hecho un llamado para realizar más investigaciones sobre el reemplazo de la gasolina por etanol y biodiesel, dos biocombustibles clave. El etanol representa un 90 por ciento del biocombustible producido a nivel mundial, el restante 10 por ciento es biodiesel. A El etanol es un recurso renovable, biodegradable, no tóxico que se produce a través de la fermentación de caña de azúcar, almidón y maíz, principalmente. Dado su alto nivel de octanaje puede ser usado como aditivo o sustituto para el plomo en la gasolina. Comparado con los combustibles convencionales, el etanol produce menos emisiones de contaminantes, en particular, de gases de efecto invernadero (GEI), ya que parte de estos fue tomada previamente por los vegetales para su alimentación durante el proceso de fotosíntesis. De acuerdo con el Banco Mundial, el etanol contamina un 60 por ciento menos que la gasolina, una cifra que algunos expertos consideran que podría ser todavía mayor. Además de reducir la contaminación, el uso del etanol puede ayudar a disminuir otros daños ambientales, como los derrames de petróleo. Los beneficios del etanol no sólo se reducen al ambiente, sino también a la seguridad energética de los países. El uso del etanol puede ayudar a reducir la dependencia al petróleo importado de países en guerra o políticamente inestables, así como hacer frente a GRÁFICA 1 RENDIMIENTO DE MATERIAS PRIMAS PARA la volatilidad de los precios del crudo debido a factores geopolíticos y a los riesgos de desastres naturales como son los huracanes, por ejemplo, Katrina en 2005. Aunque más del 90 por ciento de la producción mundial de etanol se extrae de la caña de azúcar y del maíz, los biocombustibles pueden generarse también de otros productos tales como la remolacha, cebada, papa, cáñamo, soya, girasol, palma, entre otros. Más aún, un reciente avance en bioingeniería señala que pronto será posible convertir maleza, césped e incluso árboles en energía renovable. Al ser un producto básicamente agrícola, el etanol puede contribuir al fomento de la agricultura nacional y de nuevas tecnologías que favorezcan el incremento de la productividad y, consecuentemente, de la oferta de alimentos. Su producción a gran escala requiere de importantes cantidades de tierra cultivable con agua y suelos fértiles. Por sus condiciones climáticas y geográficas, Latinoamérica y África Central son regiones especialmente dotadas para obtener beneficios de esta energía renovable. BIOCOMBUSTILES, 2005 GRÁFICA 2 PRODUCCIÓN MUNDIAL DE ETANOL MILLONES DE LITROS 7,000 40,000 6,000 30,000 Fuentes de Biodisel 4,000 Millones de litros Litros por hectárea 35,000 Fuentes de Etanol 5,000 3,000 2,000 25,000 20,000 15,000 10,000 1,000 5,000 0 0 Fuente: Worldwatch Institute 1975 1980 1985 IPN 1990 1995 2000 Donde la ciencia se convierte en cultura 2005 61 CONVERSUS 60 Mayo-2a Parte 24/5/07 20:01 Page 62 La producción mundial de etanol se ha duplicado en los últimos seis años, mientras que la producción de petróleo sólo ha aumentado en siete por ciento desde el año 2000. Actualmente, Brasil es el principal productor de etanol en el mundo, seguido por EU. Ambos países concentran alrededor del 70 por ciento de la producción mundial de etanol, con la diferencia de que Brasil lo extrae de la caña de azúcar y EU, del maíz. En Brasil, más de 4 millones de hectáreas están dedicadas al cultivo de azúcar, de las cuales el 60 por ciento están destinadas a la producción de etanol. El auge del sector azucarero brasileño gracias a la producción de etanol ha permitido a ese país disminuir dramáticamente sus importaciones de petróleo, un ahorro de alrededor de 400 millones de dólares. En la región, Venezuela y Colombia han implementado programas para estimular la siembra de caña de azúcar para producir etanol y se prevé la instalación de otras quince plantas de producción de este biocombustible en el continente. Asimismo, países como Japón, Suecia, China, y Canadá han iniciado ya programas de sustitución y adición de etanol. GRÁFICA 3 PRINCIPALES PAÍSES PRODUCTORES DE ETANOL Producción (millones de litros) Países Brasil 16,500 Estados Unidos 16,230 China 2,000 Unión Europea 950 India 300 Fuente: Worldwatch Institute La excepción es Brasil, principal consumidor de etanol en el mundo. El segundo lugar lo ocupa EU. Hoy en día, Brasil cuenta con 33 000 estaciones de servicio que expiden etanol al parque automotor, frente a sólo 600 de EU. La gasolina que se vende en Brasil contiene alrededor de 25 por ciento de alcohol, mientras que en EU se consume una mezcla con sólo 10 por ciento de etanol. El biodiesel se utiliza en escala aún menor. En Brasil, el etanol representa ya alrededor del 40 por ciento del carburante usado por los vehículos automotores. El uso extensivo y obligatorio del etanol en dicho país ha llevado a varias mejoras tecnológicas no sólo en su producción, sino también en su consumo. Más del 80 por ciento de los coches nuevos que se venden en Brasil son vehículos híbridos equipados con motores flexi-fuel. Estos motores permiten a los coches funcionar perfectamente con etanol, gasolina o la mezcla de ambos en cualquier proporción. Esos automóviles cuentan con un dispositivo o sensor colocado en la ECU (unidad de control) que calcula la proporción de etanol y gasolina que hay en el tanque y ajusta el motor para que trabaje adecuadamente con cada mezcla. Esto se hace a través de la información que la ECU recibe de los sensores del sistema de inyección de combustible, tal como la sonda Lambda, y la detonación, rotación velocidad y sensores de temperatura. De esta forma, el controlador regula la cantidad de combustible que se inyectará, así como el tiempo de ignición. Cuanto más alcohol haya en la mezcla, más cantidad de combustible será inyectado. Las características del alcohol son muy diferentes con relación a la gasolina y, por esto, el sistema debe adecuar en muy corto tiempo la operación más correcta respecto a la proporción de la mezcla para el motor. SFC-FLEXFUEL SENSOR SYSTEM Pese a sus ventajas y reciente auge, los biocombustibles representan apenas el uno por ciento del consumo total de combustibles para el transporte en casi todos los países. El petróleo sigue siendo el componente más importante de la matriz energética mundial (equivalente al 38.5 por ciento de la demanda global por fuentes de energía primaria) DEMANDA MUNDIAL DE ENERGÍA PRIMARIA 16,000 14,000 12,000 Petróleo 10,000 Gas 8,000 6,000 Carbón 4,000 Otros renovables Nuclear 2,000 0 1971 1980 1990 Fuente: International Energy Agency 62 conversus Mayo 2007 2000 2010 2020 2030 Hidro Millones de toneladas de equivalente petróleo Mtoe Fuente: Peugeot 18,000 Dichos motores han entrado a la industria automotriz sin un incremento de precios, además de que liberan a los consumidores de cualquier posible escasez o subida de precio en el mercado del etanol o petróleo. Por ejemplo, el etanol brasileño es competitivo si el barril de petróleo se mantiene a un precio mayor de $40 dólares, $60 dólares en el caso del etanol de EU. y $80 dólares con el europeo. Los expertos pronostican que el intervalo de precios por barril en 2010 irá desde $30 dólares hasta $100 dólares. Diversas empresas automotrices ofrecen cerca de 20 modelos diferentes de automóviles con flex-motores, como Chevrolet, Fiat, Ford, Peugeot, Renault y Volkswagen. Incluso, la aeronáutica Embraer ya fabrica aviones que consumen etanol. Entre ellos está el Embraer EMB 202 Ipanema, utilizado principalmente para fumigaciones y otras operaciones semejantes. CONVERSUS 60 Mayo-2a Parte 24/5/07 20:01 Page 63 SISTEMA DE INYECCIÓN DE GASOLINA EN UN MOTOR FLEX-FUEL 7 1 17 2 5 18 16 6 4 3 8 10 9 11 12 13 15 Interfaz de diagnóstico BOSH Lámpara de diagnóstico 14 Combustible Inmobilizador Cable diagnóstico 1. 2. 3. 4. 5. 6. 7. 8. 9. CAN Canister (Filtro de carbón activado) Válvula de fuga de canister Sensor de presión/ temperatura del aire Galería de combustible/ Válvula de inyección Bobina/ Vela de inyección Sensor de fase Pedal de acelerador electrónico Acelerador electrónico Válvula de recirculación de gases 10. 11. 12. 13. 14. 15. 16. 17. 18. Sensor de detonación Sensor de temperatura del agua Sonda Lamda Sensor de rotación Módulo de bomba y nivel de combustible en el tanque módulo de control/ Controlador Cuba de gasolina para arranques en frío Bomba eléctrica de combustible Válvula solenoide Fuente: Bosch Brasil ETANOL: ALTERNATIVA PARA MÉXICO México podría ser parte de esa nueva política global de energía limpia promovida por EU. Un estudio reciente del Banco Interamericano de Desarrollo señala que si México reemplazará el 10 por ciento de su consumo de petróleo con etanol localmente refinado, tendría un ahorro de mil millones por año y crearía 400 mil empleos. Comercialmente, la producción de etanol en México no tendría restricción comercial alguna dado el Tratado de Libre Comercio que mantiene con EU. Asimismo, se reduciría significativamente la dependencia de las finanzas del país a los precios mundiales del crudo. La producción de etanol en México puede priorizar el cultivo de caña de azúcar. El etanol que se produce del maíz no sólo es mucho más caro que el extraído de la caña de azúcar, sino menos eficiente. Además, la creciente demanda de maíz para producir etanol en EU. disparó en últimas fechas el precio mundial del cereal, básico en la alimentación de los mexicanos. Sin embargo, Petróleos Mexicanos (Pemex) no cuenta aún con un proyecto de conversión de plantas de metil terbutil éter (MTBE) a etanol. La política energética debe ser sustentable. Las empresas propiedad del Estado deben adoptar por muchas razones la reconversión energética que suponen la biomasa y los biocombustibles como el etanol. Todos los sectores gubernamental, académico y privado deben identificar las diversas fuentes para producir biocombustibles y estudiar cada una para minimizar costos de inversión e incentivos. Orientados a maximizar y asegurar la producción. Nada perdemos con tener en cuenta al etanol como parte de soluciones alternativas para el consumo de energéticos. IPN Donde la ciencia se convierte en cultura 63 CONVERSUS 60 Mayo-2a Parte 24/5/07 20:02 Page 64 Sucesos Insulina, forma más efectiva de combatir a la diabetes Maricela Cruz Martínez* *Reportera de Conversus 64 conversus Mayo 2007 CONVERSUS 60 Mayo-2a Parte L 24/5/07 20:02 Page 65 as personas con diabetes tipo 2 han aprendido a temer a la insulina en vez de verla como un tratamiento efectivo que puede mantener los niveles óptimos de azúcar en la sangre, según un estudio internacional llamado “Optimización del Control de la Diabetes” (Optimize en inglés) El proyecto se creó para encontrar diversas formas y resolver la amenaza mundial sobre diabetes, mediante la entrevista a 1 500 personas con diabetes tipo 2 de siete países; la encuesta pretende conocer la actitud de los pacientes en torno a la aceptación del tratamiento con insulina. El estudio se llevó a cabo los meses de julio y agosto de 2005 y reveló que la mayoría de los pacientes con la enfermedad de diabetes que deberían inyectarse insulina tienen miedo al piquete, debido a que ocasiona una rasgadura en la piel que al repetirse diariamente es deprimente. Este temor desafortunadamente también ha sido difundido por algunos médicos quienes utilizan la terapia de insulina como una amenaza ante las primeras etapas de la enfermedad de diabetes, pero sin saber que la insulina es la forma efectiva y natural de controlar el azúcar en la sangre. En el mundo existen aproximadamente 230 millones de personas con diabetes, de las cuales entre el 90 y el 95 por ciento padece el tipo 2, y de no ser tomada en cuenta, la cifra aumentará a 366 millones para el 2025, según la Federación Internacional de Diabetes (FID). De acuerdo al impacto social y económico que esta enfermedad posee, Harris Interactive, empresa profesional que realiza estudios de mercado y líder de investigación mundial, condujo el estudio a nombre de la empresa farmacéutica Pfizer, donde 25 especialistas en diabetes provenientes de 16 países incluyendo México se reunieron en febrero del 2005 en la ciudad de Londres para discutir los resultados del estudio y mencionaron que es prioritario mejorar el control de la diabetes, promover la aceptación de la insulina mediante la comunicación de su uso, y reducir costos en atención de las complicaciones que genera el padecimiento. Las propuestas consensuadas del estudio Optimize se basan en acciones clave para ayudar a que los pacientes tomen conciencia de su enfermedad, y además ofrecen capacitar sobre el uso de la insulina a los profesionales de la salud. También buscan la mejor forma para convencer al paciente a que acepte una terapia con insulina y con ello alcanzar los niveles óptimos de azúcar en la sangre. Las nuevas opciones de tratamiento, tales como la insulina inhalada, permiten que los pacientes diabéticos obtengan mejores resultados y muestren un mayor apego al tratamiento, desde el momento en que se evita el piquete. Con estos nuevos procedimientos terapéuticos, se espera que los pacientes diabéticos logren su objetivo. La auto administración de insulina en los pacientes es importante para lograr resultados exitosos. Si un paciente no esta convencido con su tratamiento, es menos probable que lo lleve a cabo de forma precisa. Es primordial que tanto pacientes como médicos comprendan el papel crucial que desempeña la insulina en el tratamiento de la diabetes. Los pacientes, los médicos y los legisladores en materia de salud deben contar con mejor información sobre las diferentes áreas de la diabetes, como la gravedad de las complicaciones ocasionadas por diabetes no controlada. El autocontrol del paciente es fundamental para un tratamiento exitoso y, en consecuencia, las preferencias del paciente deben tomarse en cuenta al elegir el régimen de tratamiento a seguir. Mantener al tanto a los médicos como a los pacientes sobre los avances más recientes en las opciones de tratamiento con insulina, como la opción de insulina inhalada, puede ayudar a reducir las barreras contra el tratamiento de insulina y aumentar su consumo. Este nuevo tratamiento ayudará a reducir la presencia de devastadoras y costosas complicaciones, tales como la ceguera, las cardiopatías, la difusión renal, las amputaciones y la muerte. Insulina inhalada IPN Donde la ciencia se convierte en cultura 65 CONVERSUS 60 Mayo-2a Parte 24/5/07 20:02 Page 66 Microsoft evalúa al CIC como uno de los candidatos para ser la institución líder en Latinoamérica en Ciencias de la Computación. El CIC en la mira de Microsoft Fabian Quintana Sánchez* * Reportero de Conversus 66 conversus Mayo 2007 CONVERSUS 60 Mayo-2a Parte 24/5/07 20:03 Page 67 l Centro de Investigación en Computación (CIC) del Instituto Politécnico Nacional (IPN) es candidato junto con el Instituto Tecnológico y de Estudios Superiores de Monterrey (ITESM) y la Universidad de Chile, para ser la institución líder en Latinoamérica en Ciencias de la Computación en base a una convocatoria del Microsoft Research. E Pocos días después de la visita del magnate y empresario Bill Gates a México, el pasado mes de Abril, funcionarios de esta empresa transnacional visitaron las instalaciones del CIC con el objetivo de evaluarlo. Dicho centro cuenta con investigadores de diversos países: Rusia, Corea, Bélgica, Finlandia, Cuba, Perú y México. El doctor Hugo César Coyote Estrada, director del CIC, dio la bienvenida a los funcionarios de Microsoft. El CIC, el ITESM y la Universidad de Chile son evaluadas por parte del Microsoft Research, debido al particular interés de la transnacional en los proyectos de investigación académica que busquen obtener avances y desarrollos fundamentales en las siguientes áreas: - Nuevas infraestructuras, formas y aplicaciones creativas de dispositivos móviles. - Conectividad, en especial en ambientes donde no existan infraestructuras de red o donde sólo existan servicios intermitentes de energía eléctrica o conectividad. - Interfaces de usuario adecuadas para ayudar a los usuarios con pocos o nulos conocimientos tecnológicos. - Aplicaciones tecnológicas con relevancia cultural para el cómputo. El doctor Sailesh Chutani, Director de Investigación y Programas Externos de Microsoft Research, mostró interés durante el evento y en cada una de las presentaciones de los proyectos llevados a cabo por los investigadores del CIC, de los cuales se destacan los siguientes puntos: a) El Laboratorio de Procesamiento Inteligente de Información Geoespacial dirigido por el doctor Serguei Levachkine trabaja en la unificación semántica de representaciones geo-espaciales. El problema que tratan es que distintas dependencias dibujan con exactitud apropiada trazos, áreas, puntos sobre un plano, para indicar corrientes de agua, establecimientos comerciales, carreteras transitables en todo tiempo, pero no se ponen de acuerdo sobre la semántica u ontología de estos trazos. Lo que para alguien es supercarretera para otra persona es carretera transitable en todo tiempo. Algunos estuarios son zonas inundables para ciertas personas. El problema no está en cómo representar con exactitud un rasgo geográfico, sino que dos mapas o bases de datos geográficas representen lo mismo o que un usuario familiarizado con una nomenclatura (representación semántica) entienda otra información geográfica hecha por otra agencia u otro usuario. b) En el Laboratorio de Sistemas de Información Inteligentes el doctor Jesús Manuel Olivares Ceja expuso el uso de un agente (programa de computadora que se ejecuta en forma autónoma y con mínima interacción con el usuario) en cada fuente de información que permite traducir en forma aproximada la estructura y contenido a otros agentes que acceden a la información. En este laboratorio están interesados específicamente en proveer de información a los niveles estratégicos de las organizaciones que son los que utilizan diversas fuentes heterogéneas para atender sus requerimientos de información. En este caso el proyecto se complementa con una arquitectura multiagente para la búsqueda, recuperación, integración y envío de información proveniente de fuentes heterogéneas. c) En el Laboratorio de Lenguaje Natural y Procesamiento de Texto los doctores Alexander Gelbukh y Grigori Sidorov, mostraron como el laboratorio desarrolla algoritmos, datos y metodologías para dar posibilidad a las computadoras Llegada al CIC de los funcionarios del IPN y Microsoft Research. El doctor Coyote Estrada, director del CIC, comenta los objetivos del centro de investigación. Presentación en el laboratorio de Sistemas de Información Inteligentes. IPN Donde la ciencia se convierte en cultura 67 CONVERSUS 60 Mayo-2a Parte 24/5/07 20:03 Page 68 de procesar el lenguaje humano de manera inteligente; es decir, tomando en cuenta el sentido de textos. Este trabajo contribuye en las siguientes áreas de aplicación: Recuperación de información, su manejo y clasificación, educación y cultura, incluyendo enseñanza de lenguaje nativo y lenguas extranjeras, traducción automática y áreas relacionadas. La tecnología necesaria para estas aplicaciones implica cierto grado de entendimiento de texto, lo que corresponde a las siguientes líneas de investigación de laboratorio: desarrollo de recursos léxicos (varios tipos de diccionarios para su uso con el software), análisis sintáctico automático y desarrollo de las gramáticas formales, desambiguación de los sentidos de las palabras, alineación automática de textos paralelos, entre otras, igual que su integración en herramientas de análisis de textos. Si el CIC es elegido como la institución líder en Latinoamérica en Ciencias de la Computación se conocerá a finales de este mes. Lo que ya es una realidad es que fue creado con la idea de formar recursos humanos en el nivel posgrado del más alto ni vel científico y técnico, capaces de desarrollar ciencia y aplicarla para satisfacer necesidades prioritarias del país. El CIC consolida sus actividades de investigación y transferencia de tecnología al impactar social, económica y políticamente en el desarrollo de la nación. Para esto fue diseñado, para ser la institución líder en las ramas de la computación y la ingeniería de cómputo, en los ámbitos nacional e internacional. En el Laboratorio de Lenguaje Natural y Procesamiento de Texto REFERENCIAS <http://www.microsoft.com/latam> ACERCA DE MICROSOFT RESEARCH Fundada en 1991, Microsoft Research se dedica a realizar investigaciones básicas y aplicadas en informática e ingeniería de software. Sus objetivos son mejorar la experiencia del usuario con los dispositivos informáticos, reducir el costo del desarrollo y el mantenimiento de software y crear nuevas tecnologías de cómputo. Los investigadores se enfocan en más de 55 áreas de cómputo y colaboración con investigadores líderes en el área académica, industrial y gubernamental para garantizar la innovación en las áreas como creación de gráficos, reconocimiento de voz, investigación en interfaces de usuarios, procesamiento de idiomas naturales, herramientas de programación y metodologías, sistemas operativos y redes, además de ciencias matemáticas. Microsoft Research emplea a más de 700 personas en seis laboratorios localizados en Redmond, Washington; San Francisco y Silicon Valley, California; Cambridge, Inglaterra; Beijing, China; y Bangalore, India. El grupo de Programas e Investigación Externa de Microsoft Research se dedica a entablar relaciones internacionales con colegas y universidades que puedan ayudar a mejorar las experiencias de aprendizaje y enseñanza, inspirar la innovación tecnológica y situar a Microsoft como un importante socio tecnológico en la educación superior. En Latinoamérica, Microsoft Research ofrece una gran variedad de programas para apoyar la investigación y la docencia con el fin de realizar avances en cómputo, incluyendo la creación de redes con académicos para desarrollar planes de estudio y ofrecer becas de doctorado y estancias para formar a la próxima generación de líderes en ciencias computacionales y financiar proyectos de investigación universitaria en áreas específicas. ÉSTAS SON ALGUNAS DE LAS INSTITUCIONES Y EMPRESAS CON LAS QUE EL CIC HA TENIDO VINCULACIÓN: Diconsa, Liconsa, Comisión Nacional de Arbitraje Médico, Secretaría de Relaciones Exteriores, Secretaría de Defensa Nacional, Gobierno del Distrito Federal, Sistema de Transporte Colectivo, Dirección General de Construcción y Operación Hidraúlica, Comisión Nacional del Agua, Instituto Mexicano de la Propiedad Industrial, Procuraduría Federal para la Defensa del Trabajo y Coca-Cola, entre otras. 68 conversus Mayo 2007 CONVERSUS 60 Mayo-2a Parte 24/5/07 20:03 Page 69 CONVERSUS 60 Mayo-2a Parte 24/5/07 20:04 Page 70 Si se puede si se quiere: Una semblanza de la problemática nacional José Luis Carrillo Aguado* *Periodista científico de Conversus. 70 conversus Mayo 2007 CONVERSUS 60 Mayo-2a Parte 24/5/07 20:04 Page 71 l libro Si se puede si se quiere: Una Semblanza de la Problemática Nacional, escrito por el doctor Emilio Zorrilla Vázquez, se presentó ante grupos de alumnos, profesores, egresados y directores de las unidades Zacatenco, Azcapotzalco, Ticomán y Culhuacán de la Escuela Superior de Ingeniería Mecánica y Eléctrica (ESIME), lo que muestra la solidaridad de la escuela ante la problemática nacional. La Sociedad de Ex Alumnos de la ESIME (SEESIME) desea organizar grupos de estudio para abordar temas como el de la industrialización, expuesto en el mencionado libro. E La presentación del libro contó con la asistencia del ingeniero Sergio Viñals Padilla, Presidente de la SEESIME; el doctor Jesús Acosta Flores, Presidente de la Academia Mexicana de Ciencias, Artes, Tecnología y Humanidades; el ingeniero Rafael de Celis Contreras, director general de GADEC, SA; del licenciado Héctor Vázquez Tercero, director general de Vázquez Tercero y Asociados; del doctor Guillermo Urriolagoitia Calderón, Premio Nacional de Ingeniería Mecánica, Eléctrica, Comunicaciones y Electrónica; del ingeniero Eugenio Méndez Docurro, académico titular de la Academia de Ingeniería, y con la distinguida presencia de la doctora Yoloxóchitl Bustamante Diez, secretaria académica del Instituto Politécnico Nacional (IPN), con la representación del director general del IPN, doctor José Enrique Villa Rivera. El ingeniero Viñals, durante su exposición, explicó cómo el siglo XXI plantea retos de enorme magnitud, cuya solución será trascendente para la sociedad mexicana. Mencionó algunos antecedentes de la ESIME, que permitieron al auditorio captar la magnitud histórica de la escuela. A lo largo de su historia, los egresados de la ESIME han aportado su acción, cuyo efecto final concurre a la colectividad, declaró el ingeniero Viñals Padilla. “Debemos aceptar que hemos contribuido a desvirtuar algunas de las ideas que tuvieron sus creadores, o bien hemos permitido que otros las alteren. De tiempo en tiempo, es necesaria la reflexión y reorientar acciones para los propósitos que fue creada. La ESIME pretende contribuir al análisis, a la opción de posiciones y la propuesta de opiniones en el ámbito de los grandes problemas nacionales en los cuales los egresados tienen competencia profesional y ciudadana”, declaró. Los grandes problemas nacionales, según la consideración del ingeniero Viñals Padilla, se sitúan en la industrialización, las telecomunicaciones y servicios relacionados, energía, medio ambiente, transporte, educación e investigación tecnológica y servicios. “El libro que hoy expone el autor, brinda una introducción al tema de la industrialización y pretende desarrollar y presentar a la colectividad una opinión al respecto”. Posteriormente, el ingeniero Viñals expuso a la audiencia algunas ideas dispersas en relación a la evolución de la educación tecnológica. En los últimos lustros, la industria ha sido desmantelada. Vivimos en la inmediatez, en cuyo nombre todo se compra al extranjero, advirtió. Las sociedades, a lo largo de su evolución, han introducido cambios, y los avances sociales a partir de la Revolución Francesa han creado para la humanidad la escuela politécnica. La Revolución Industrial impulsó la organización y extensión de la educación técnica, que ha servido a la humanidad, dando lugar a dos formas fundamentalmente diferentes de educación: la universitaria y la politécnica, ambas trascendentales para las sociedades. La educación técnica debe entenderse como una respuesta de las sociedades para disponer del personal capacitado para satisfacer las urgentes necesidades de bienes y servicios destinados a mejorar el nivel de vida de la población. No es admisible la supeditación de un tipo de educación a la otra, como ha ocurrido en nuestro país, con la consecuente desarticulación de su sistema de educación e investigación tecnológica, manifestó. IPN Donde la ciencia se convierte en cultura 71 CONVERSUS 60 Mayo-2a Parte 24/5/07 20:04 El autor planteó una serie de sugerencias para llevar al país a la modernidad El ingeniero Viñals Padilla agradeció el apoyo del autor a los programas de la SEESIME El doctor Zorrila recibió muestras de afecto de los asistentes 72 conversus Mayo 2007 Page 72 El ingeniero Viñals Padilla terminó su charla con un agradecimiento al autor del libro por su apoyo y colaboración con los programas de la SEESIME, a los comentaristas por su participación y a los asistentes al evento. En su oportunidad, el doctor Emilio Zorrilla Vázquez brindó un reconocimiento a la SEESIME y a su directiva por su apoyo a la edición del libro, a los comentaristas y a la doctora Yoloxóchitl Bustamante en representación del doctor José Enrique Villa Rivera, director general del IPN, por su presencia. Este libro es una secuela de otros relacionados con la cuestión de las analogías entre sistemas económicos y algunos sistemas físicos en el campo de las ingenierías y control. “Me interesó el tema después de haber estudiado en paralelo las carreras de economía e ingeniería, donde encontré similitud y analogía, pero no planteo matemáticamente mis modelos, porque entonces no tendría la oportunidad de llega a una audiencia mayor. Es una descripción de las relaciones entre variables económico-sociales aplicando la filosofía y la metodología de la ingeniería de sistemas y control. Ello lleva al campo de la investigación y construcción de modelos físicos, análogos a los sistemas económicos, para predecir, regular y controlar fluctuaciones excesivas y oscilaciones indeseables, con el deseo de encontrar la estabilización o excitación de los sistemas análogos del caso, físicos o económicos”, expuso el doctor Zorrilla Vázquez. El libro Si se puede si se quiere: Una semblanza de la Problemática Nacional, muestra los principales problemas en México, así como sugerencias sobre acciones que podrían emprenderse para llevar a nuestro país hacia la modernidad y el progreso con mejores condiciones de equidad, justicia y participación social. Sin embargo, no se trata la pléyade de problemas y situaciones a que se enfrenta el país, sino el hecho de que México paga hoy el precio de no haber realizado oportunamente los cambios en el tiempo y en el espacio, económicos, jurídicos, educativos, tecnológicos, financieros, fiscales y en el sector productivo que exigían la evolución de la nación en los terrenos socioeconómico, productivo y político y los cambios geopolíticos y neoeconómicos del escenario mundial. Los múltiples enfrentamientos nos han hecho perder la brújula del interés nacional, por lo que muchos países han rebasado a México en producto social, distribución de la riqueza, nivel educativo y tecnológico, investigación científica, competitividad e independencias económica y política. Hoy el reto es salir del estancamiento y la pobreza, con un razonable equilibrio macroeconómico. Un desafío para el lector. La doctora Yoloxóchitl Bustamante acudió en representación del Director General del IPN