Leer Revista - CeDiCyT - Instituto Politécnico Nacional
Transcripción
Leer Revista - CeDiCyT - Instituto Politécnico Nacional
Instituto Politécnico Nacional contenido Realización: Gloria Serrano Dr. José Enrique Villa Rivera Director General Dr. Efrén Parada Arias Secretario General Dr. José Madrid Flores Secretario Académico Dr. Víctor M. López López Secretario de Extensión y Difusión Ing. Manuel Quintero Quintero Secretario de Apoyo Académico Dr. Mario Rodríguez Casas Secretario Técnico C. P. Raúl Sánchez Ángeles Secretario de Administración M. en C. Juan Ángel Chávez Ramírez Abogado General Dr. Luis Humberto Fabila Castillo Coordinador General de Posgrado e Investigación Mtro. Eduardo Meza Olvera Coordinador General de Vinculación Académica y Tecnológica M. en C. María Dolores Sánchez Soler Coordinadora General de Modernización Institucional Fernando Fuentes Muñiz Coordinador General de Comunicación Social y Divulgación Ing. Sergio Viñals Padilla Director del Centro de Difusión de Ciencia y Tecnología Conversus Director Editorial Ing. Rodolfo de la Rosa Rábago Comité Editorial José Antonio Arias Montaño, Rosendo Bolívar Meza, José Gerardo Cabañas Moreno, Guillermo Carvajal Sandoval, Sergio A. Estrada Parra, Luis Humberto Fabila Castillo, Jorge González Claverán, Clemente R. Morales Dávila, Ricardo Mota Palomino, Efrén Parada Árias, Octavio Paredes, Ofir Picazo Picazo, Radu Gheorghe Racotta Poulieff, Onofre Rojo Asenjo, Michael Shapiro Fishman, Joaquín Tamariz Mascarúa, María de los Ángeles Valdés Ramírez, Miguel Ángel Valenzuela Zapata, José Enrique Villa Rivera. Encargado de Información Lic. Octavio Plaisant Zendejas Encargado de Redacción Lic. José Luis Carrillo Aguado Reportero Lic. Jorge Rubio Galindo, Encargada de Diseño Lorena Elizabeth Quintana Ortega Ilustración y diagramación Lorena Elizabeth Quintana Ortega Gloria P. Serrano Flores Captura de Textos Guadalupe Cantú Morales 3 Multiverso Fronteras 4 Cripta maya revela el poder de la mujer Alejandra Witze 6 La nueva Babel y los ladrillos del Universo Gerardo Herrera Corral Impresión: Impresora y Encuadernadora Progreso, S.A. de C.V. San Lorenzo Tezonco núm. 244 Col. Paraje San Juan, Delegación Iztapalapa, C. P. 09830, México D. F. Distribución: Publicaciones CITEM, S.A. de C.V. Av. del Cristo 101, Col. Xocoyahualco. Tlanepantla, Edo. de México. C.P. 54080 8 Encuestas sobre política científica en México y el mundo José Luis Carrillo Aguado Conversus Es una publicación mensual (Septiembre 2005), con excepción de los meses junio-julio y diciembre-enero, del Instituto Politécnico Nacional, editada por el Centro de Difusión de la Ciencia de la Secretaría de Extensión y Difusión. Los artículos firmados son responsabilidad exclusiva de su autor y no reflejan necesariamente el criterio de la institución, a menos que se especifique lo contrario. Se autoriza la reproducción parcial o total, siempre y cuando se cite explícitamente la fuente. Domicilio de la publicación: Av. Zempoaltecas esq. Manuel Salazar, Col. Ex Hacienda El Rosario. Deleg. Azcapotzalco. C.P. 02420 Número de Certificado de Reserva otorgado por el Instituto Nacional del Derecho de Autor: 04-2001-100510055600-102. Número de Certificado de Licitud de Título 11836. Número de Certificado de Licitud de Contenido 8437, otorgados por la Comisión Calificadora de Publicaciones y Revistas Ilustradas de la Secretaría de Gobernación. Número ISSN 1665-2665. Editor responsable: Rodolfo de la Rosa Rábago Tel.: 5729 6000, ext.: 64827 D.e.: [email protected] Tiraje: 5000 ejemplares. Observatorio científico 10 En marcha la secuenciación del genoma de los mexicanos Octavio Plaisant Zendejas Investigación hoy 12 Ciudad sustentable Dinora Obregón Velasco et al. 20 Ingeniería sísmica, prevención de un desastre natural José Luis Carrillo Aguado 26 Biotecnología para el mejoramiento del arroz en el estado de Morelos Elsa Ventura Zapata et al. Punto Crítico 30 Aspectos de compatibilidad electromagnética: un desafío para los sistemas electrónicos Roberto Linares y Miranda Otra voz... La visión del joven investigador 36 El Sistema Internacional de Unidades y la Metrología José Zavala Chávez 42 Una perspectiva histórica de las antenas Andrés Lucas Bravo Sucesos 46 ¿Cómo medimos las cosas? Jorge Rubio Galindo Multiverso M etrología, rama de la ciencia que se ocupa de medir, considerando la aplicación del Sistema Internacional de Unidades (SI) y el aseguramiento y mantenimiento de las características técnicas de los instrumentos utilizados; comprende también, aspectos teóricos y prácticos relacionados con su aplicación científica, industrial y legal (normatividad). Pero, ¿como surgió el mencionado SI? ¿Cómo se desarrollan los sistemas, de medición? ¿Por qué es importante medir y calibrar el equipamiento? Estas y otras más son algunas de las interrogantes que se abordan y encuentran respuesta entre los contenidos de esta edición. La metrología se aplica en todos los ámbitos de nuestras actividades, por ejemplo: en la medición del tiempo; en la calibración de equipos y dispositivos diversos, orientados al uso doméstico, industrial y de servicios; la iluminación de áreas de trabajo; el color de una tela o una pintura; la brillantez de un monitor; la opacidad de un gas, etc. En nuestro país, la entidad responsable de mantener los patrones nacionales de medición es el Centro Nacional de Metrología (CENAM), adscrito a la Secretaria de Economía, y cuya misión principal es apoyar a los diversos sectores sociales en sus necesidades presentes y futuras relacionadas con la metrología de referencia. Entre los factores que potencian el desarrollo tecnológico de cualquier país, sobresale la importancia que cada gobierno le confiere a la calidad y disponibilidad de la infraestructura metrológica relativa a todos los ámbitos del sector industrial. Esta consideración aplica tanto en lo concerniente a la posibilidad con que se cuente para reproducir y mantener las unidades base y unidades derivadas del SI, como para poder contar con recursos cada vez mayores que posibiliten el incremento de los intervalos de medición correspondientes. Mientras mejor sea el nivel de exactitud con que se lleven a cabo estas actividades, mejores serán los indicadores de referencia con que las entidades reguladoras, industriales y consumidores, puedan aplicar y exigir el cumplimiento de los parámetros a los que están obligadas la industria manufacturera y las compañías importadoras. Una infraestructura metrológica con un desarrollo adecuado posibilita el acercamiento de los investigadores al estado del arte respecto a la ciencia y la tecnología a nivel mundial para todas las áreas del conocimiento; como beneficio adicional, se tiene la diversificación de las fuentes de experiencia requeridas para el crecimiento profesional de los recursos humanos. Además de los aspectos relacionados con la protección de la vida, del medio ambiente y de la infraestructura tecnológica, el constante desarrollo de productos de toda índole implica una dificultad cada vez mayor para los consumidores al momento de seleccionar adecuadamente los satisfactores por ellos requeridos, condición que se complica aún más con la diversidad de elementos que, en esencia, realizan las mismas funciones. Esta circunstancia, entre otras, resalta la necesidad de fortalecer y retroalimentar los procesos de normalización y certificación de productos, cuyos fines principales son los de definir, comprobar y avalar las especificaciones y parámetros declarados por los fabricantes. Con esta misma idea, deben apoyarse y facilitarse la instalación y desarrollo de laboratorios de prueba que posibiliten la medición de las especificaciones contenidas en las normas nacionales, oficiales mexicanas y todas aquellas voluntarias que por diversas razones son de aplicación obligada. Un punto por demás relevante es el relacionado con los recursos humanos especializados y con experiencia en estos temas, que permitan a las entidades involucradas en el proceso, llevar a cabo las funciones que le corresponden de manera profesional, expedita y con calidad; es en este sector donde se aprecia la importancia de la participación activa del sector educativo, tanto en el proceso de enseñanza-aprendizaje como en la investigación y desarrollo tecnológico. IPN Donde la ciencia se convierte en cultura 3 www.smu.edu/smunews/_waka/images.asp Fronteras 4 conversus *Periodista científica de [email protected] Traducción de José Luis Carrillo Aguado Septiembre 2005 Víctimas de asesinato sugieren la fuerza femenina en culturas ancestrales Cripta maya revela el poder de la mujer Alexandra Witze* A crueldad de dichas invasiones, pero los hallazgos en Waká son allgunos arqueólogos incursionaron en una cripta situada gunos de los mejor documentados y más detallados. en Guatemala que había permanecido sellada desde tiempos remotos y se encontraron con una antigua esMUERTE DE GUERREROS cena de asesinato. La tumba, situada en la arcaica ciudad de Waká, contiene los restos de dos mujeres, una de ellas emWaká alcanzó su cima hacia 400 y 800 años antes de Cristo; la barazada, acomodados en un acoplamiento ritual. tumba recién descubierta está fechada hacia el inicio de ese reinaLos investigadores indican que ambas mujeres, jóvenes y do, entre 350 y 400 años antes de Cristo. Es al menos doscientos saludables, fueron probablemente asesinadas en forma atroz coaños más vieja que la tumba de la reina encontrada en ese mismo mo epílogo de un forcejeo entre ciudades mayas antagónicas. lugar hace un año. Y eso, explican, arroja nueva luz sobre el papel de la mujer en la El estudiante graduado Michelle Rich descubrió la tumba a ficultura maya, que data de 1 600 años de antigüedad. nales de abril mientras excavaba una de las tres pirámides situa“Esta tumba nos indica que la mujer era extremadamente das en la montaña más alta de Waká. El ministro de cultura de poderosa”, acota Dorie Reents-Budet, una especialista maya Guatemala anunció el descubrimiento semanas después. quien trabaja para el Instituto Smithsoniano de Carolina del Dentro de la tumba, los cadáveres de ambas mujeres habían Norte. “Cuando había desacuerdos políticos, las mujeres eran sido preparados cuidadosamente. La embarazada fue colocada asesinadas.” boca abajo con la otra mujer encima, cara arriba. Ambas poseían Waká, también conocida como El Perú, descansa sobre la conchas y aretes arreglados cerca de sus cráneos, además de colocuenca del río San Pedro, a unos 60 Km al occidente del más car espinas cerca de sus ingles, como un posible signo que fueron famoso sitio de Tikal. En alguna ocasión considerado un sitio veneradas al mismo nivel que los guerreros, declara Freidel. Las menor del mundo maya, Waká ha emergido recientemente como muertes podrían tener un significado político poderoso, asevera. una prenda clave en la acendrada rivalidad entre las ciudades de La tumba también contenía un conjunto de vasos de cerámica Calakmul, al norte, y Tikal. pintados profusamente. “Este es buen material”, exclama ReentsLa mujer probablemente jugó un papel importante en esas Budet, al considerar estos elementos como el equivalente maya batallas, reconoce David Freidel, un arqueólogo de la Universide loza actual. dad Metodista del Sur, en Dallas, Los artefactos y huesos han sido trasladaTexas, quien codirige las excavados al laboratorio del proyecto en la ciudad ciones en Waká. Cuando un grupo de Guatemala, donde podrán ser estudiados maya conquistaba a otro, es probaposteriormente. ble que no fuera suficiente con simplemente invadirlo y tomarlo. Puede que haya sido una práctica estándar dar muerte violenta a algunas mujeres de la élite. “La usurpación del poder pudo haber requerido la extinción ritual y pública de la familia lineal inmediata” especula Freidel, quien administra el proyecto Waká junto con el arqueólogo Héctor Escobedo de la Universidad de San Carlos en la ciudad de Guatemala. La tumba recién descubierta data del inicio del reinado de Los hallazgos en Waká son de los mejor documentados Las excavaciones en otras tumWaká, hacia 400 años antes de Cristo hasta ahora bas mayas han apuntado hacia la IPN Donde la ciencia se convierte en cultura 5 La nueva Babel y los ladrillos del Universo Gerardo Herrera Corral* www.tecnociencia.es/especiales/cern/img/lhc.jpg C uando el Universo cumplió 9 000 millones de años apareció en la inmensidad una pequeña nube de polvo girando alrededor de una recién nacida estrella. Golpeada por rocas y meteoritos esta nube se compactó formando un planeta tan caliente, el cual brillaba en el fondo oscuro que circundaba a la más bella de las estrellas: el Sol. Allí aparecieron plantas, animales y finalmente los seres humanos. Estos se preguntaron luego por el origen del Universo y crearon mitos para explicar todo los que los rodeaba y para explicarse a si mismos. Uno de los mitos más viejos y también uno de los más bellos creados por el hombre para explicar su propia diversidad es el de la Torre de Babel. El libro del Génesis, capitulo 11, versículo 3 señala: “llegaron al país de Senaar. Allí decidieron fabricar ladrillos cocidos que sustituyeran a las piedras y los emplearon para construir una torre que llegara al cielo. Yahvé, viendo que el hombre prosperaba y que si les permitía acabar esta obra podrían lograr todo lo que quisieran, decidió intervenir y confundió sus lenguas de tal manera que no se entendían unos con otros y de este modo abandonaron el proyecto”. El mito se remonta a los orígenes de la civilización. Hoy, 6 o 7 mil años mas tarde, el hombre ha desarrollado un lenguaje común, el lenguaje de la ciencia. Con esto, ha retomado la empresa y construye hoy la nueva torre de Babel con la que espera alcanzar el cielo. Esta torre es un acelerador de partículas con el que espera recrear los primeros instantes del Universo, alcanzando no el firmamento que nos muestra el Universo acabado de los astrónomos, sino más allá de las galaxias, al cielo mismo. Y es que para investigar el origen del Universo, se necesitan aceleradores de partículas, aparatos que permiten atrapar partículas sub-atómicas, llevarlas a velocidades cercanas a la de la luz, hacerlas colisionar y recrear así las condiciones en que se encontraba el Universo unos instantes después de la Gran Explosión. Resulta paradójico que para observar el cielo se requiera del uso de microscopios, pero así es. Con el uso de telescopios uno puede observar el firmamento, pero no podrá jamás observar lo que ocurrió antes de los 300 mil años que transcurrieron secretamente después de la gran explosión. Existen razones físicas para que así sea. Cuando el Universo *Gerardo Herrera Corral realizó sus estudios de doctorado en la Universidad Dortmund, Alemania, en la especialidad de física de altas energías. En la actualidad es investigador titular del Departamento de Física del Centro de Investigación y de Estudios Avanzados (CINVESTAV) del Instituto Politécnico Nacional (IPN), especializado en física experimental de altas energías. El científico es parte del grupo mexicano que colabora estrechamente en el proyecto internacional ALICE. 6 conversus Septiembre 2005 www.gridpp.ac.uk/pics/stand2004/lhc_cern.jpg La densa niebla de radiación que rebotaba una y otra vez en la materia atrapada por esa impenetrable muralla de oscuridad, se hizo repentinamente transparente. Ese momento fantástico del Universo diáfano quedó marcado por un eco que aun hoy podemos percibir en lo que se conoce como radiación de fondo, misma que lo llena todo y cuya observación ha sido la prueba más poderosa que respalda la idea del origen como una Gran Explosión. La radiación más distante que un telescopio puede detectar procede de la superficie última de ese muro lóbrego, es la luz que escapó de la densa niebla en la alborada universal. En cualquier dirección que se enfoque un telescopio mirará atrás en el tiempo hasta llegar a Aspecto del gran colisionador de Hedronas (LHC, por sus siglas en inglés), aparato que desentrañará los misterios del origen del Universo) esa pared. Con estos dispositivos, no podremos ver más atrás en el surgió de la nada hace 13 700 millones de años las tiempo porque el Universo estaba en tinieblas. condiciones de densidad y temperatura eran exEl acelerador de partículas subterráneo que se tremas. Cuando el Universo cumplió un segundo construye en el Centro Europeo de Investigaciones de vida, toda la anti-materia había desaparecido Nucleares (CERN, por sus siglas en francés) podrá y sólo quedaba un Universo de materia. La temver mucho más allá que cualquier telescopio. En el peratura del Universo había descendido a 10 000 se recrearán las condiciones de la gran explosión. millones de grados y los quarks comenzaron a El Gran Colisionador de Hadrones (LHC, siagruparse para formar protones y neutrones que glas en inglés de Large Hadron Collider) prehoy forman los núcleos de los átomos. Estos protende quitar el velo para mirar lo que ocurrió tones y neutrones eran minoría en el Universo unos instantes después del gran estallido. joven, ya que los más numerosos eran los fotones Con el uso de potentes microscopios construique forman la luz. dos con la más avanzada tecnología, será posible Al final de los primeros tres minutos, existían examinar la materia en las condiciones extremas en el Universo protones y neutrones que formade densidad y temperatura a las que se encontraban ya los ladrillos necesarios para dar origen a ba justo después de la creación. los primeros átomos. Uno de estos microscopios es el detector ALICE Sin embargo, no fue sino hasta 300 000 años (ALarge Ion Collider Experiment) que toma su nommas tarde cuando aquella sopa opaca de materia bre del cuento de Lewis Carroll, “Alicia en el país de nuclear y radiación comenzó a clarificarse. En eslas maravillas”. Con este aparato los físicos entrarán te momento la temperatura del Universo ya había en el fantástico mundo del universo temprano. descendido a 3 000 grados. Se formaron infinidad Localizado 70 metros bajo tierra en Ginebra, de átomos y los fotones dejaron de chocar con Suiza, ALICE nos revelará los secretos del Univerelectrones libres que ahora estaban atrapados por so invisible y representa la manera que los físicos los núcleos atómicos y protones. Por esta razón han encontrado para penetrar la barrera de oslos fotones pudieron viajar por el Universo y así, curidad que limita a los astrónomos. se hizo visible. Como hicieran en el país de Senaar, los seres El Universo temprano era pues una densa bohumanos de muchos lugares del mundo particila oscura de la cual la luz no podía escapar. pan en la construcción de este observatorio. InsEse muro de sombra distingue hoy al Univertituciones de muchos países (México entre ellos) so transparente en que vivimos de las tinieblas han unido su talento para alcanzar los primeros de su origen. instantes de la Creación. IPN Donde la ciencia se convierte en cultura 7 Encuestas sobre política científica en México y el mundo José Luis Carrillo Aguado* E n los medios de comunicación mexicanos se dio a conocer el 30 de junio de 2005 una encuesta aplicada por la Academia Mexicana de Ciencias a 4 mil científicos, donde los investigadores reprueban las medidas tomadas por el Presidente Vicente Fox y el Consejo Nacional de Ciencia y Tecnología. Según el sondeo, “poco o nada” ha hecho el gobierno por la investigación, de las 46 metas propuestas por los responsables de la toma de decisiones en política científica, ni 10 de ellas se han alcanzado, y persiste la fuga de cerebros por falta de empleo. Según la versión de algunos de los científicos, pareciera que “el enemigo se encuentra en casa”, refiriéndose al propio CONACyT. Pareciera que al gobierno no le interesa invertir en ciencia y desarrollo, pero debería tomar sus previsiones al respecto si se tiene en cuenta que este factor es esencial en materia de política electoral, ya que representa una fuente inobjetable de votos entre el público. Lo anterior se pone en claro cuando la editorial de SciDevNet (Science and Develpment Networks, página en línea dedicada al Tercer Mundo de las revistas Science y Nature) explica que una encuesta de opinión levantada en Europa demuestra fehacientemente que el pueblo cree que ayudar a las naciones en desarrollo para que mejoren su nivel en ciencia y tecnología es una prioridad social importante. Los líderes requieren escuchar. Hay muchas razones para que los líderes políticos de naciones avanzadas e industrializadas incrementen su apoyo a los países en vías de desarrollo en lo referente a ciencia y tecnología. Ahora una nueva razón le da el triunfo a esta suerte: ¡Parece que hay muchos votos en esta canasta!, manifiesta David Dickson, editor en jefe de la publicación en línea mencionada. Mientras los líderes se preparaban para su ronda de discusiones en Gleneagles, Escocia, ciudad donde se llevó a cabo la reunión anual del grupo de los ocho (G-8), muchos de ellos seguramente calcularon las medidas a tomar para obtener una Vicente Fox. Los políticos deben valorar más el ejercicio de la investigación científica. George W. Bush. Su gobierno ha opuesto mayor resistencia al progreso científico que el de cualquiera de sus antecesores retribución en votos para sus respectivas causas de regreso a casa. Un sondeo de opinión llevado a cabo por la Comisión Europea sugiere que en al menos un rubro —el llamado para un incremento substancial de los apoyos para ciencia y tecnología en naciones en vías de desarrollo realizado en el reporte más reciente de la comisión africana— las razones son claras. El sondeo, cuyos resultados fueron publicados por la comisión, reveló que más de la mitad de esa encuesta (53 por ciento) sentía que era “muy importante” que en un lapso de diez años el mundo en vías de desarrollo fuese capaz de beneficiarse de la ciencia y la tecnología (y un 38 por ciento extra señalaron que era “regularmente importante”). A esta meta se le otorgó una prioridad significativamente mayor que a otras inequidades económicas en Europa, que a otras minorías integradas, o al rubro “otras culturas” dentro de la sociedad europea. Estos resultados surgen en un momento crucial, por una variedad de razones: algunos resultados de campañas internacionales a favor de la reducción de la deuda, otras relativas al compromiso de la sequía o la guerra civil en África y otras sobre el tema de la pobreza global que están altamente insertas en la conciencia del público. Pero este no es el único valor de la encuesta. Una mirada cercana a sus resultados proporciona evidencias para argumentar que los apoyos orientados a la ciencia y la tecnología no deberían concentrarse sólo en modificar la agenda global de investigación para aumentar su enfoque en los problemas que enfrentan las naciones en desarrollo. Igualmente importante es la necesidad de ayuda a que estos países se auxilien a sí mismos. Estas encuestas deberían constituirse en mensajes para que los líderes políticos tomen en cuenta sus decisiones relativas al apoyo a la ciencia y tecnología, tanto en México como en Europa y en el resto del mundo. Bill Graham, primer ministro de Canadá, socio del Grupo de los ocho, las siete naciones más ricas del mundo y Rusia Tony Blair. Primer ministro inglés. De su decisión en apoyar la ciencia del Tercer Mundo penden muchos votos para su causa. Wladimir Putin, Presidente de la Federación Rusa. Su país es socio del Grupo de los ocho que se reunieron en Gleneagles *Periodista científico de Conversus 8 conversus Septiembre 2005 OBSERVATORIO CIENTÍFICO México a la vanguardia de la medicina genómica en América Latina En marcha la secuenciación del genoma de los mexicanos c o l u m n a s Octavio Plaisant Zendejas* E n el 2006 los mexicanos tendremos los primeros resultados de nuestro mapa genómico y sabremos con mayor precisión las características específicas de la estructura genética de la población mestiza, única por la mezcla de más de 60 grupos indígenas con la sangre española. Se obtendrán algunas pistas e información de la predisposición en la población a desarrollar enfermedades como diabetes, obesidad, males cardiacos, hipertensión arterial y varios tipos de cánceres, entre otras, principales causas de muerte en el país. ADN la molécula de la vida Trillones de células Cada célula: • 46 cromosomas humanos • 2 metros de ADN • 3 mil millones de subunidades de ADN (las bases: A, T, C, G) • Aproximadamente 30 000 genes codifican para proteínas que realizan la mayoría de las funciones vitales célula cromosomas gen ADN proteína *Periodista científico de Conversus 10 conversus Septiembre 2005 El Instituto Nacional de Medicina Genómica (Inmegen) inició el proyecto del mapa genómico de la población mexicana, en que se analizarán 500 mil variantes del genoma humano, en una muestra de mestizos de distintas regiones de México, con tecnología de punta e infraestructura humana de primer nivel. El Inmegen inició el proyecto con la toma de 180 muestras anónimas de sangre (la mayoría estudiantes y profesores) recolectadas en el estado de Yucatán y Zacatecas posteriormente se recolectarán muestras en los estados de Sonora y Guerrero, cuya información será muy útil para armar el “rompecabezas” de la herencia genética de los mexicanos. Durante la celebración del Primer Aniversario del Inmegen en julio pasado se inauguraron tres unidades de alta tecnología: las unidades de Secuenciación e identificación de polimorfismos, Genotipificación y análisis de expresión y Supercómputo y tecnología de la información, en las que se invirtieron 2.5 millones de dólares. Dichas unidades reúnen por primera vez en América Latina a tres de las compañías líderes en tecnología de punta aplicada a la medicina genómica en el mundo: Applied Biosytems, Affymetrix e IBM. Las tecnologías desarrolladas por dichas compañías han contribuido en gran medida al análisis del genoma humano. La Unidad de Secuenciación e identificación de polimorfismos cuenta con el soporte tecnológico de Applied Biosytems, que permitirá el análisis de la expresión de genes, la detección y descubrimiento de nuevas mutaciones genéticas, polimorfismos (cambios en la estructura de los genes) y su asociación con algunas enfermedades e identificación de variaciones propias de la población mexicana. Cabe destacar que unos de los puntos clave en el conocimiento de enfermedades de origen genético es la identificación del gen o genes que ocasionan la enfermedad y la comprensión de su funcionamiento, secuencia (el orden y el número de bases que lo componen), los aminoácidos que se ensamblan y la proteína que dan origen. Las modificaciones genéticas que se presentan en los seres vivos y que tienen relación estrecha con algunos tipos de cáncer y padecimientos genéticos son ocasionadas por la mutación de una base de la secuencia genética conocida como polimorfismo de un solo nucleótido1. La Unidad de Secuenciación e identificación de polimorfismos cuenta con equipo en el que se puede secuenciar hasta 2,100,000 bases o la capacidad de generar hasta 92,000 genotipos diarios. La Unidad de Genotipificación y análisis de expresión está equipada con la plataforma de Affymetrix que será de utilidad para realizar de experimentos de última generación de microarreglos genómicos o chips genómicos para la detección de enfermedades de origen genético y de expresión disponibles a escala mundial para el estudio de RNA en humanos, rata y ratón. La Unidad cuenta con chips para análisis en ADN con capacidad de analizar 10,000, 50,000, 100,000 y hasta 500,000 variaciones sobre el genoma humano en muestras individuales. Esta capacidad permite realizar estudios en poblaciones de ligamiento o de asociación entre enfermedades y variaciones genómicas específicas, así como de alteraciones en ADN que generan enfermedades neoplásticas (cáncer). La Unidad de Supercómputo y tecnología de la información está equipada con una supercomputadora desarrollada por la empresa estadounidense IBM, capaz de realizar medio trillón de operaciones de punto flotante por segundo, lo que lo ubica como uno de los sistemas de computo más poderosos de América Latina. Los estudios de genotipificación y expresión genómica generan diariamente una gran cantidad de datos e información para cuyo análisis la bioinformática ha desarrollado una serie de herramientas. La bioinformática es una disciplina científica que surgió la década de los noventa del siglo pasado y en la que confluyen disciplinas tales como la biología, la informática, las matemáticas y la tecnología de la información. La bioinformática abarca todos los aspectos relacionados a la adquisición, procesamiento, almacenamiento, distribución, análisis e interpretación de datos e información biológica por medio de métodos y herramientas informáticas. La bioinformática se ha convertido en una herramienta imprescindible y poderosa para el análisis de poblaciones o la comparación de resultados con grandes bases de datos; por ejemplo, el GenBank con sede en el National Center for Biotechnology Information (NCBI), en los Estados Unidos; el European Bioinformatics Institute, en Gran Bretaña; el National Institute of Genetics, en Japón. Cabe destacar que la Unidad de Supercómputo y tecnología de la información desarrolla un portal electrónico de bioinformática en que los investigadores podrán acceder de forma gratuita para la búsqueda de información relacionada con genes o polimorfismos asociados a las enfermedades de interés especifico. El proyecto del mapa genómico de la población mexicana tiene gran relevancia para la ciencia latinoamericana debido a que es el único proyecto científico que pretende analizar la identificación de genes asociados a enfermedades en poblaciones mestizas hispanoamericanas. El proyecto mundial Hapmap tiene como objetivo conocer las características del genoma de las poblaciones nativas africana, europea y asiática; sin embargo, América Latina quedó fuera del proyecto. El Hapmap arrancó en 2002 e integra grupos de investigación de Japón, Gran Bretaña, Canadá, China, Estados Unidos y Nigeria. El proyecto del mapa genómico de los mestizos mexicanos es nuestra entrada a la medicina genómica mundial que permitirá una medicina más individualiza y predictiva. Enhorabuena por este valioso avance de la ciencia nacional. REFERENCIAS 1Loaiza Escutia Claudia, “Chips de ADN para la detección de enfer- medades de origen genético”, Conversus, número 20, 2003 IPN Donde la ciencia se convierte en cultura 11 Investigación Hoy Ciudad SUSTENTABLE Dinora Obregón Velasco,* Alejandro Valentino** y Silvia Norzagaray.* * Centro Interdisciplinario de Investigaciones en Medio Ambiente y Desarrollo Integrado. **Unidad Profesional Interdisciplinaria en Ingeniería y Tecnologías Avanzadas. <[email protected]” [email protected]> 12 conversus Septiembre 2005 E l Desarrollo sustentable surge prácticamente de manera espontánea como una respuesta ineludible a los grandes problemas que enfrenta la humanidad a finales del siglo XX.11 De acuerdo con el centro para nuestro futuro común, el mundo ha de hacer frente a la agudización del hambre, la pobreza, la enfermedad, el analfabetismo, el calentamiento global, la deforestación, la desertificación, la contaminación del suelo, agua y aire, el crecimiento desordenado y masivo de grandes urbes, así como el incesante deterioro de los ecosistemas de los que depende nuestro bienestar. Y es así como la evidente disparidad entre pobres y ricos se acentúa10. El desarrollo sustentable está basado en la diversidad social, en la diversidad cultural y en la diversidad biológica y aunque muchos insisten en decir que es una moda, otros consideramos, que ya no se puede hablar de esta forma; el desarrollo sustentable tiene que ser una realidad, donde lo prudente es aplicar su concepto en todos los sectores tanto en el campo como en las ciudades. IPN Donde la ciencia se convierte en cultura 13 Podemos distinguir cuatro tipos de desarrollo de concentración urbana: América Latina es una región con abundates recursos naturales y gran biodiversidad sin embargo tiene 240 mmillones de habitantes en extrema pobreza El modelo económico en América Latina esta fundamentado en la explotación intensiva de los recursos naturales • El europeo, en el que el movimiento es precoz, moderado en relación con el desarrollo general de la población y tiende a estabilizarse. • El de los países poblados por europeos pero situados fuera de Europa y que alcanzaron un desarrollo gigantesco (Estados Unidos). • El que en su momento se denominó como soviético, de expansión moderada en correspondencia con el desarrollo económico. • El de los países subdesarrollados o en vía de desarrollo, en donde se ubica el caso de México, en los que después de un estancamiento, la población urbana crece bruscamente2. El desarrollo sustentable es la capacidad de una sociedad o sistema para seguir funcionando indefinidamente en el futuro, sin ser forzado a declinar por el agotamiento o sobrecarga de los recursos fundamentales de los cuales este sistema depende; entonces se tiene que reconocer que la sostenibilidad ó sustentabilidad implica patrones de desarrollo y estilos de vida que permitan resolver las necesidades de las actuales generaciones, sin comprometer la posibilidad de que las próximas puedan también satisfacer las suyas, incluso aquellas necesidades que aun hoy son desconocidas5. Las ciudades forman parte del medio ambiente construido y creado por el hombre, y como tal, interactúan con el medio ambiente natural. Se debe buscar el equilibrio entre naturaleza y sociedad, sin embargo, la tierra entera se cubre de ciudades destruyendo en muchas ocasiones, las mejores tierras para el cultivo y conservación de los ecosistemas naturales4. El crecimiento de las ciudades cada vez es mayor, se calcula que el ritmo al que se incrementa la población de las ciudades en todo el mundo es de 2.5 por ciento anual y de este, el 90 por ciento ocurre en los países pobres en donde se considera un crecimiento del 3.5 por ciento anual12. Mientras que el crecimiento de las ciudades ricas se duplica, el de las ciudades pobres experimenta un aumento de seis veces. Hoy mismo, la ciudad de México, con sus 25 millones de habitantes, es la más grande del mundo. Por otra parte este rápido crecimiento urbano ha generado disminución de la percepción respecto al valor de la vida rural. Esta situación conduce al agotamiento de recursos y a la contaminación ambiental que caracterizan las crisis del mundo actual. Cuando las necesidades del ecosistema urbano, sobrepasen las posibilidades de su territorio de influencia para reproducir los recursos y reciclar los desechos, es imperativo reflexionar y considerar un cambio en el estilo de vida llevado hasta el momento y por tanto replantear el modelo productivo vigente hasta ¿QUÉ ES UNA CIUDAD? El hombre es un ser gregario y a través de su historia buscó congregarse en comunidades o centros poblacionales, que guardan cierto orden o arreglo espacial y que se encuentran inmersos en un determinado ecosistema. A las ciudades se les define como ecosistemas construidos, ecosistemas humanos o ecosistemas artificiales donde se ha hecho despliegue de los avances tecnológicos mas vanguardistas1, conformados por carreteras, aeropuertos, represas y otras construcciones, incluyendo parques, jardines y campos deportivos. La palabra ciudad viene del vocablo civitas, término reservado a poblaciones grandes que gozarán de mayores preeminencias que las villas, por lo que actualmente se define a la ciudad como un centro, relativamente permanente y muy organizado, que cuenta con una gran población. En este mismo sentido, todo lo urbano es perteneciente a la ciudad1 Una ciudad también hace referencia al sistema conformado por una concentración masiva de conjuntos de casas y edificios, separados y a la vez comunicados, por calles, parques y plazas, cuyos habitantes se dedican a diversas actividades económicas, profesionales y laborales; excepto la agricultura y la ganadería, por lo que, en este aspecto, debe abastecerse del exterior (exceptuando a las agrociudades). También se consideran centros de comercio, nuestros días[2,12]. agrícolas”7. 14 conversus Septiembre 2005 pluriculturalidad y poderío político y económico7. Más recientemente se han integrado además de los criterios arquitectónicos, los criterios numéricos y de disponibilidad de servicios, tales como agua, drenaje, alumbrado y sobre todo la densidad demográfica9. El Centro de Investigaciones Urbanas de la Universidad de California define a las áreas metropolitanas como: “El agrupamiento de 100 000 habitantes como mínimo y que se encuentra colindando con otro centro conurbano de por lo menos 50 000 y donde más del 65 por ciento de la población ejerce actividades no Es pertinente aclarar que el fenómeno urbano está sujeto a renovación, por lo que su definición puede variar de país a país y de época a época. DIFICULTADES AMBIENTALES DE LA CIUDAD A finales del siglo XX, el crecimiento poblacional se vio acompañado por un incremento de la pobreza. Además de un 90 por ciento de crecimiento urbano en los países subdesarrollados. El 90 por ciento de este último se dio en ciudades ya sobrecargadas12. Las migraciones del campo a la ciudad se originan fundamentalmente al interior de las naciones por causas económicas, por lo que este fenómeno debería constituir un factor decisivo para el trazado de las grandes urbes e incidir notablemente en la forma en que la humanidad hace uso de su patrimonio6. Últimamente se están presentando migraciones de “refugiados ecológicos”, que abandonan aquellos ecosistemas que han dejado de funcionar en busca de mejores lugares en los cuales establecerse4. Por otra parte el modelo económico minimiza el rol del campo y favorece el empobrecimiento de las pequeñas unidades productivas familiares, cooperativas y asociaciones mini empresariales, al priorizar monocultivos extensivos con insumos biotecnológicos, que reducen las necesidades de incorporar trabajo humano colectivo, obligando a estas personas a refugiarse en la agricultura de subsistencia, la cual finalmente se vuelve inviable, dándose la migración de este sector a las grandes urbes, en donde construyen otros sistemas urbanos, que representan un territorio sucio y miserable que resulta mucho más agresivo que el medio natural del que provienen. Este hecho fundamenta el supuesto de que todo medio natural es mejor que uno artificial. La actual situación está conduciendo a que muchas ciudades puedan ser calificadas como ecosistemas degradados, ya que en éstas se ha reducido la biodiversidad y la productividad natural, además de contar con una densidad demográfica desorbitada, situación que trae consigo una problemática ambiental compleja, de tal modo que resulta poco probable que puedan recu- perarse sino se adoptan medidas de rehabilitación o restauración permanentes o sustentables.El impacto ecológico de las ciudades se percibe local y globalmente en problemas como aumento de población, contaminación del aire y agua, precipitación de lluvia ácida y reducción de la capa de ozono, así como en el efecto invernadero y el cambio climático global. Otra característica son los conflictos sociales, tales como pobreza, desempleo, falta de vivienda, asentamientos humanos irregulares, migraciones masivas del campo a la ciudad, consumismo desenfrenado, generación de residuos contaminantes al aire, agua y suelo; proliferación de especies plaga, aspectos que se traducen en decremento en la calidad de vida y deterioro de la salud humana [5, 6 y 12]. Por otro lado, una parte cada vez mayor de la población reside lejos de los núcleos urbanos habituales, las aglomeraciones suburbanas acusan con el tiempo una tasa de dispersión cada vez mayor, sobreponiéndose formas de agresión, tales como un mayor número de indigentes, adicciones y prácticas ética y moralmente cuestionables que van generando el sentimiento de que todo es calamidad y es producto de la fatalidad13. De este modo, el movimiento de urbanización crece sin cesar. ¿QUÉ ES UNA CIUDAD SUSTENTABLE? Según Hardoy (1992), la ciudad sustentable tiene su base en lo que se ha denominado la profunda transformación ética para reorientar el modelo actual de desarrollo1. Se debe visualizar la minimización de la utilización de los recursos naturales, para que esta sea sustentable y así poderla mantener dentro de los límites de la capacidad de absorción local y mundial de desechos, contemplando la satisfacción de las necesidades humanas básicas actuales y a futuro13. Aunado a lo anterior debe considerarse la construcción de centros de población cada vez mejores, con una economía basada en los principios de equidad, justicia y solidaridad social y un medio ambiente sano [4, 5]. A. Serrano (1994) señala que para que una ciudad sea sustentable, es necesario transformar el modelo de desarrollo, lo cual implica un replanteamiento ético–filosófico que nos conduzca a entender que necesitamos moderarnos y ser capaces de recircular la mayoría de lo que producimos y desechamos, implementando sistemas de reutilización y reciclaje, contribuyendo así a tener ciudades más limpias y equilibradas en lo que se refiere al medio ambiente2. América Latina y el Caribe conforman una de las regiones en el mundo con mayor urbanización, más del 75 por ciento de la población vive en las ciudades IPN Donde la ciencia se convierte en cultura 15 En la medida en que se encuentren y apliquen soluciones basadas en sistemas de recirculación para el agua, la basura, la energía y los alimentos, nos acercaremos cada vez más a un desarrollo sustentable de las ciudades, con un mejor uso de los abundantes recursos humanos, los preciosos recursos naturales y los escasos recursos financieros1. Otro aspecto a considerar es la escala y dimensiones de los asentamientos urbanos que influyen en la posibilidad de un mayor o menor acercamiento a una solución sustentable. Si se descomponen problemas grandes en varios pequeños, que resulten más “manejables”, será más fácil enfrentar su solución. Por tanto, las ciudades sustentables pudieran estar estructuradas en sistemas parciales, con el mayor grado posible de autonomía 2. Un aspecto del planeamiento urbano que guarda una relación directa con el desarrollo sustentable es el aprovechamiento del suelo como recurso prácticamente no renovable, pues una vez que se construye sobre él, tardará mucho en ser usado nuevamente, hecho que depende de la vida útil de la edificación8. El suelo es un recurso natural de gran importancia en la producción de alimentos. El uso racional del suelo urbano evita el crecimiento excesivo de las ciudades que ocupan terrenos que podrían ser útiles para producir alimentos, reduciendo a la vez las distancias en la transportación de las personas [6, 9]. Los países que han tenido históricamente una posición destacada en la preocupación por la preservación del medio ambiente, de manera general, proponen hoy como principio indiscutible para la sustentabilidad urbana, el incremento de la densidad de uso del suelo, aprovechando sobre todo las áreas urbanas ya existentes5. El acceso al suelo es hoy un factor decisivo para resolver el problema de la vivienda en los sectores poblacionales de más bajos ingresos en los países en desarrollo3. Las tipologías arquitectónicas y urbanas que están en correspondencia con los sistemas de gestión y las soluciones constructivas empleadas en esos casos, generan en las ciudades del tercer mundo desarrollos urbanos marginales periféricos de muy pobre espacio7. De acuerdo al Programa de las Naciones Unidas para el Medio Ambiente (PNUMA) São Paulo, ciudad de México, Buenos Aires y Santiago son consideradas megaciudades Las áreas verdes urbanas desempeñan múltiples funciones de saneamiento ambiental: producción de oxígeno, filtro para la contaminación, barrera contra ruidos, etc. También en climas cálidos como el nuestro, el efecto de la “sombra viva” es insuperable y contribuye notablemente a la reducción de la temperatura en espacios exteriores, contrarrestando el efecto de la “isla de calor urbana”8. Una función de las áreas verdes urbanas, que está siendo revalorizada, es la producción de alimentos. Conceptos como la “agricultura urbana” o el “paisaje comestible” resultan cada vez más comunes2. La producción de “alimentos sanos” en las áreas urbanas, mediante el empleo de técnicas “tradicionales o ecotécnias”, elimina la dependencia de la ciudad con respecto al campo y reduce los costos de transportación, a la vez que permite aprovechar espacios verdes urbanos para múltiples funciones2. La planeación de las ciudades también desempeña un papel decisivo en la reducción de las necesidades de transportación, tanto de personas como de productos. El crecimiento excesivo de las ciudades, la zonificación de funciones, la aparición de “ciudades satélites” o “ciudades dormitorio” han ocasionado consecuencias negativas13. Otro aspecto importante en la sustentabilidad de las ciudades se relaciona, por tanto, con garantizar un buen sistema de transporte público, sano, seguro y eficiente, que resulte competitivo ante el automóvil como medio de transporte individual. No obstante, también deben encontrarse vías para producir vehículos ecológicos, es decir, menos contaminantes y que funcionen con energías renovables, tal vez para cortas distancias o de forma combinada con otros medios, como el tren ligero y el metro7. TENDENCIAS ACTUALES Las tendencias en este sentido en los países desarrollados se dirigen en la actualidad a incrementar la capacidad de los medios de transporte disponibles, particularmente los de pasajeros. Buscar otras fuentes de energía para sustituir los combustibles fósiles, 16 conversus Septiembre 2005 La imagen muestra la ciudad de Barcelona donde se observa la planeación urbana logrando una armonía entre el ambiente natural y lo creado partiendo del principio sustentabilidad, por lo que se le cataloga entre una de las ciudades sustentables a nivel mundial tal es el caso del etanol o los autobuses y carros eléctricos, así como combinar estos medios de transporte con bicicletas en áreas centrales[8, 13]. La seguridad del tráfico urbano es otra importante línea de trabajo encaminada a reducir velocidades, construir calles, carreteras, vehículos y equipamiento más seguros[7, 8]. Para largas distancias es el transporte eléctrico definitivamente el más apropiado de los conocidos hasta el momento. Las prospecciones indican que puede extenderse la red del metro y tren ligero para ayudar a sustituir parte del transporte de pasajeros que emplean microbuses y taxis8. Debe evitarse el incremento de las temperaturas en el clima urbano y con ello, de la isla de calor en diferentes regiones de la ciudad. En ello las dimensiones, proporciones y presencia de áreas verdes para la protección solar en los espacios urbanos abiertos resulta de gran importancia. Así mismo, influyen las secciones de las vías de comunicación, su orientación respecto al viento puede ayudar a contrarrestar el exceso de Sol7. Los acabados (materiales y colores) de las superficies de pavimentos y paredes de edificios con su absorbencia y emisivi- La imagen muestra la Catedral de San José en la Ciudad de Morelia y la pluriculturalidad que se puede observar en las ciudades de países latinoamericanos en este caso México, Michoacán, y que sin tener una estructura vertical sigue siendo armónico al paisaje y por ende sustentable. dad, también influyen en las temperaturas de los espacios exteriores urbanos8. Otro importante recurso que se consume en las ciudades es el agua. Deben emplearse formas de abasto y bombeo, así como de aprovechamiento por gravedad o escurrimiento; verificación de la calidad y saneamiento de las fuentes de agua, pues es uno de los recursos que más influyen en la excelencia de vida de los habitantes, así como en el mantenimiento del resto de los recursos y satisfactores humanos. Por otra parte, el agua es un preciado recurso que puede ser reciclado o reusado, tanto a escala de los edificios o de conjuntos, como a escala de ciudad. El aprovechamiento del agua pluvial es también una forma de ahorrarla, sobre todo en lugares donde la lluvia es abundante y la disponibilidad de agua potable es insuficiente9. La evacuación y tratamiento de los residuos urbanos es otro factor de vital importancia en el desarrollo urbano sustentable. El reciclaje de todos los desechos posibles minimiza la cantidad de residuos que se incorporan al medio ambiente y con ello su contaminación, así como la cantidad de recursos y materias primas nuevas requeridas por la población. Para ello, es imprescindible la recolección separada de los desechos sólidos y líquidos, orgánicos e inorgánicos, de forma clasificada7. Los residuos sólidos orgánicos pueden ser tratados para producir composta (un abono orgánico de excelente calidad), o en biodigestores para obtener biogás (gas combustible) y abono. Los residuos inorgánicos (vidrio, papel, cartón, metales) pueden ser reciclados como materia prima en la producción de nuevos productos8. Un punto indispensable a considerar en el establecimiento de una ciudad sustentable es la participación social en los procesos de gestión urbana, además de ser una condición esencial en estos procesos de desarrollo. Cualquier proceso sustentable ha de desarrollarse de abajo hacia arriba y de adentro hacia afuera, debe ser específico y descentralizado, por lo que la formación en educación ambiental debe ser permanente y dirigida a todos los sectores de la sociedad5. Por último, las tecnologías y los materiales de construcción empleados en la edificación de los inmuebles que conforman la ciudad, influyen considerablemente en su sustentabilidad, por lo que deben considerarse materiales propios de la región, que sean abundantes, económicos y térmicos. Por poner un ejemplo construir con adobe o bambú7. Agenda 21 apoya el desarrollo sostenible de los asentamientos humanos y por tanto de las ciudades a través de su capitulo siete3. BIBLIOGRAFÍA 1COZZI VIRGILIO Segundo Seminario Latinoamericano de medio Ambiente. Ciudad y Calidad de vida. Ciudades actuales: ¿Es posible el Desarrollo Urbano Sustentable?. Santiago de Chile. Documento de apoyo. pp. 1-56. 2000. 2PALOMO ARMANDO. Ciudades Verdes y Sustentables. Fundación Friedrich Ebert. Saldebas. México, pp. 1-37, 1997. IPN Donde la ciencia se convierte en cultura 17 El proceso de urbanización acelerado, es decir, el rápido crecimiento de las ciudades especialmente en los países pobres, tiene muchos efectos negativos sobre la vida en estas aglomeraciones y en general, sobre el conjunto mundial. Los países ricos imponen una fuerte carga al ecosistema mundial y los países pobres se rigen por un sistema económico que no responde a las necesidades para solucionar su problemática socioeconómica y ambiental. Es entonces cuando se plantea considerar lineamientos que ayuden a establecer ciudades sustentables y un cambio de estilo de vida y modelo de desarrollo. La Agenda 21 en su capítulo 7, establece que las condiciones de los asentamientos humanos en los países en vías de desarrollo, se están deteriorando debido a los bajos niveles de inversión. Por esta razón, se propone subsanar los siguientes puntos:[3, 14] • Proporcionar vivienda adecuada para todos, ya que en la actualidad, a nivel mundial, hay más de mil millones de personas sin hogar. • Mejorar la administración de los asentamientos humanos. • Promover la planificación y ordenamiento sustentable del uso del suelo y por ende de los recursos de la región. • Promover la infraestructura ambiental: en agua, drenaje y gestión de desechos sólidos. • Promoción de los sistemas sustentables de energía y transporte en los asentamientos humanos. • Fomentar actividades sostenibles en la industria de la construcción. Además, este nuevo concepto de ciudad implica: • Reorientar los estilos de desarrollo. • Un proceso de descentralización fundado en la construcción de nuevas formas productivas. • Redefinir las relaciones urbano-regionales. • Y, sobre todo, concientizar a todos los humanos acerca de lo importante que es buscar un cambio de actitud a través del conocimiento de la relación sociedad–naturaleza, que nos oriente a la realización de acciones más equilibradas con respecto al aprovechamiento de los recursos naturales, así como a relacionarnos con equidad respecto a nuestros congéneres. Quizá solo así se establecerán ciudades sustentables, dando paso a la bien nombrada sustentabilidad urbana. 18 conversus Septiembre 2005 Pittsburg es un ejemplo de Ciudad sustentable en el continente Americano donde se subraya la planeación y el mantenimiento de la armonía entre el medio ambiente y las construcciones, se subraya las vías de comunicación, su limpieza y la forma vertical de las construcciones y su orientación con la puesta y salida del sol. 3Declaración de Río, Agenda 21. Acuerdos y Convenciones Organización de las Naciones Unidas. SEDESOL. México, 1993. 4MOSS MYRNA HERNÁNDEZ; et al. Key concepts in sustainable developmente. Research Regional Institute. pp. 1-35. 2000. 5Comisión Económica para América Latina–Programa de Naciones Unidas para el medio Ambiente. Sostenibilidad del desarrollo en América Latina y el Caribe. Desafíos y oportunidades. 2001. 6URQUIDI L. VÍCTOR. Globalización Medio ambiente y desarrollo sostenible en América Latina. 1986. 7MICHAEL KEATING. Centro para Nuestro Futuro Común. Cumbre de la Tierra. Programa del Cambio Climático, Ginebra, Suiza. 1993. 8OLGUÍN E. PÉREZ. et al. Desarrollo Sustentable. Retos y prioridades. INE. Xalapa, Veracruz. 2000. 9Ludevid Anglada Manuel. El Cambio global en el medio ambiente. Introducción a sus causa humanas. Alfa omega. Marcombo. España, pp. 116-140. 1998. 10RUEDA PALENZUELA SALVADOR. Modelos e Indicadores para ciudades sostenibles. Taller sobre indicadores de Huella y calidad ambiental urbana. Departamento del Medio Ambiente. Agencia Europea del Medio Ambiente. Generalitat de Catalunya, pp. 730. 2001. 11Programa de las Naciones Unidas para el Desarrollo (PNUD). Informe sobre desarrollo humano. Tercer Mundo. Santa Fé Bogotá. PNUMA, 1990. <“http://www.taller.org.ar/ciudades/agenda21.pdf” <“http://www.cubasolar.cu/biblioteca/energia/Energia10/H TML/articulo06.htaml.15k” < h t t p : / / w w w. c i e p f a . p o s g r a d o . u n a m . m x / N AV I S O 407.html.21k.> sísmica, Ingeniería prevención de un desastre natural José Luis Carrillo Aguado* ace veinte años México sufrió una de las mayores sacudidas en la historia del país, no sólo física, sino también política y social. Los sismos del 19 y 20 de septiembre de 1985 cambiaron la faz de la nación; en unos cuantos días, los sobrevivientes nos convertimos en otra clase de ciudadanos: tal vez más solidarios, más conscientes, más humanos. Pero el miedo persiste: ¿Qué tan probable es que vuelva a ocurrir un escenario semejante? ¿Qué hemos aprendido de la desgracia para evitar que ocurra algo similar ante un desastre natural equivalente? ¿Qué desarrollos ha aportado la ingeniería mexicana? H *Periodista científico de Conversus 20 conversus Septiembre 2005 El doctor Carlos Valdés, investigador del Centro Nacional de Prevención de Desastres (Cenapred), informó durante una presentación en febrero de 2005, en un hotel de la ciudad de México, que los sismos representan un proceso natural, que indican que la Tierra es un planeta vivo. Los sismos ocurren principalmente en regiones geográficas bien identificadas y se producen debido al calor interno de la Tierra, que provoca el movimiento de las placas tectónicas en la superficie. Los sismos ocurren no sólo en México, sino en muchas regiones geográficas bien identificadas Distrito Federal se dan dos sismos de esta envergadura por siglo, acotó el investigador emérito del Departamento de Sismología de esta instancia académica (ver “Los sismos de 1985, una lección para no olvidar”, de José Luis Carrillo Aguado, en Conversus No. 14, septiembre de 2002). Los sismos del 19 y 20 de septiembre de 1985 sacudieron a Mexico Frecuencia mundial de ocurrencias de sismos Magnitud 9+ 8+ 7-7.9 6-6-9 5-5.9 4-4.9 3-3.9 Promedio Anual 5 en 100 años 1 18 120 800 6 200 49 000 (Fuente: Cenapred, 2005) Los terremotos son siniestros que acarrean pérdidas personales, económicas y sociales Equivalencia en energía liberada Magnitud 5 7 8 Bombas nucleares tipo Hiroshima Sismos 1 Magnitud 5 ~ 1 000 ~32 000 Tehuacan 1999 México 1985 (Fuente: Cenapred, 2005) México está situado en una de las regiones sísmicas más activas del hemisferio occidental, sobre dos grandes placas tectónicas: la placa de Cocos, que se somete entre cuatro y ocho centímetros al año por debajo de la placa norteamericana; ambas ubicadas a ochenta kilómetros de la costa occidental del territorio mexicano, frente al Océano Pacífico (ver “Tsunamis: un riesgo latente en las costas del Pacífico mexicano”, de Octavio Plaisant Zendejas, en Conversus No. 39, abril de 2005). La posibilidad de que ocurra un sismo semejante al de 1985 es del 100 por ciento, según el doctor Cinna Lomnitz, científico del Instituto de Geología de la UNAM, quien manifestó el deseo de que cuando eso ocurra, la vulnerabilidad de los edificios sea mucho menor. En promedio, en el ARQUITECTO MEXICANO PATENTA INVENTOS A partir de 1985, la ingeniería mexicana ha desarrollado una nueva disciplina, la ingeniería sísmica, cuyo objetivo es prevenir fallas estructurales que pudieran devenir en desastres mayores. En ese sentido, cabe destacar la labor del arquitecto Luis Carrillo Gutiérrez, quien, movido por esa preocupación, ha patentado ocho inventos, registrados ante la entonces Secretaría de Comercio y Fomento Industrial (Secofi), hoy Secretaría de Economía, que procuran eliminar el problema del movimiento en edificios. (Ver cuadro 1). El enfoque que ha abordado es el aislamiento sísmico en edificios, tecnología que consiste en desacoplar o aislar la es- tructura de su base o cimentación, reduciendo así en forma importante el movimiento que es transmitido al edificio. El aislamiento sísmico provoca que el edificio se comporte como si el sismo fuera de menor magnitud en dos o más grados en la escala de Richter. Una analogía apropiada sería la relación entre los automóviles y sus sistemas de suspensión, en donde los resortes y amortiguadores protegen a los ocupantes del automóvil de un recorrido con mucho brinqueteo. Este enfoque está basado en las ideas del ingeniero Manuel González Flores, ex-docente de la Escuela Superior de Ingeniería y Arquitectura (ESIA) del IPN, quien construyó hace 25 años dos edificios que gravitan sobre balines de 3/8 de pulgada, cada uno de los cuales soporta 150 Kg. Estas edificaciones soportaron incólumemente las sacudidas de los terremotos de septiembre de 1985. El arquitecto Carrillo Gutiérrez va a presentar dos de sus desarrollos en el próximo Congreso Nacional de Ingeniería Sísmica: uno, basado en columnas flexibles de acero-polietileno-caucho y otro invento denominado suspensión neumática; en ese mismo trabajo hace la comparación entre ambos sistemas de aislamiento sísmico. COLUMNAS FLEXIBLES En el artículo que presentó el arquitecto Carrillo Gutiérrez para su evaluación ante el XV Congreso Nacional de Ingeniería Sísmica a celebrarse en México durante septiembre de 2005, presentó mejoras a un invento que ha trabajado durante más de 17 años, basado en un sistema de aislamiento sísmico instalado en la base del edificio, que consiste en sustituir todas las columnas y apoyos tradicionales, solamente en el nivel directamente sobre la cimentación, por columnas flexibles hechas con acero, polietileno y caucho. El sistema consiste en el uso de aisladores hechos a base de capas de hule y acero con corazón de plomo. Estos aisladores, al ser colocados entre la parte inferior de cada columna y la cimentación del edificio, disipan la energía que es impartida por el sismo al edificio. El sistema se aplica a un hotel, que por ubicarse en una zona de alta sismicidad, busca tener como valor agregado un sis- IPN Donde la ciencia se convierte en cultura 21 Cuadro 1. Patentes del arquitecto Luis Carrillo Gutiérrez* Invento registrado Fecha de la solicitud Estructuración de sótano flexible con multicolumnas 11 de agosto de 1988 Estructuración de sótano amortiguador con policolumnas 17 de agosto de 1988 Disipadores de energía sísmica en edificios con columnas 8 de octubre de 1990 flexibles en el sótano Cilindros neumáticos de amortiguamiento sísmico en edi- 5 de noviembre de 1990 ficios con sótano flexible Disipadores de energía sísmica a base de placas paralelas traslapadas en edificios con sótano o cajón de cimen- 5 de noviembre de 1990 tación flexible en el plano horizontal Muros no estructurales suspendidos en edificios con mar- 5 de noviembre de 1990 cos flexibles Suspensión hidráulica de aislamiento sísmico para 12 de noviembre de 1990 edificios Suspensión neumática de aislamiento sísmico en edificios 27 de noviembre de 1990 *Registradas ante la entonces Secretaría de Comercio y Fomento Industrial (Secofi). tema que proporcione a sus huéspedes, no solamente seguridad en los eventos sísmicos, sino además tranquilidad en todo momento. Se diseñaron las columnas flexibles de acero, polietileno y caucho, para el segundo sótano de un hotel localizado en Tecoman, Colima. Todos los apoyos del segundo sótano serán columnas flexibles. Los entrepisos de los sótanos estarán separados de los muros perimetrales. Los elevadores y las escaleras en el segundo sótano estarán articulados o separados de la cimentación. Todas las líneas o ductos de instalaciones entre el terreno y el edifi- cio, serán flexibles o estarán diseñados para tolerar los movimientos entre el suelo y el edificio que este sistema de aislamiento sísmico de base permite. El hotel tendrá vestíbulos, restaurantes, salones de usos múltiples, 360 habitaciones y demás servicios, en una torre de 21 pisos. La torre estará estructurada con un núcleo central de carga, donde se localizarán los cubos de elevadores, las esca- Las columnas flexibles de acero, polietileno y caucho experimentan una defloexión proporcional a su estructura en un evento sísmico 22 conversus Septiembre 2005 leras y doce columnas en la fachada. Las columnas de la fachada son ocho de orilla y cuatro de esquina. Se diseñó una de las ocho columnas de orilla, que sostendrán una carga gravitacional de 16 620 Newtons cada una, con las siguientes características: paquete hexagonal central de 271 barras de acero de 15.9 mm de diámetro; un tubo de polietileno con diámetro exterior de 1 500 mm y diámetro interior de 1 100 mm y un conjunto de caucho y placas de acero horizontales intercaladas, con un diámetro exterior de 1 100 mm con un hueco hexagonal. El paquete hexagonal central estará formado por 271 barras hechas con acero aleación cromo-molibdeno con alta versatilidad, alta penetración de temple, adecuada para esfuerzos de torsión y sin fragilidad de templado. Maqueta del invento “Disipadores de energía sísmica en edificios con columnas flexibles en el sótano” columna La separación entre los cuatro lados de los cuatro sótanos y la pared contenedora periférica de concreto es de 240 mm Muro contenedor periférico de concreto Tercer sótano del estacionamiento columna Plato de concreto prefundido Aire a presión ambiental Cuarto sótano del estacionamiento entrada Arcón de cimiento Escalera del área de trabajo NRB= Banda de nylon-caucho Cámara de base presurizado Cimiento convencional de concreto Cámara de base presurizada, área de trabajo periférica y fuente de aire de 6m x 4.5m. Escala 1:50 El tubo de polietileno se basa en este material, un polímero oleofínico importante que es producido mediante procesos a alta y baja presión en los que usan varios sistemas catalíticos complejos. Como resultado, se obtienen varias familias de polímeros, cada uno con características muy diferentes de comportamiento y cualidades técnicas. Por lo general, todos los polietilenos poseen propiedades eléctricas excelentes, una resistencia inmejorable a los disolventes orgánicos y a compuestos químicos. Son materiales traslúcidos, de peso ligero, resistentes y flexibles. El polietileno que se usará para construir el tubo será de baja densidad, con un buen balance de propiedades mecánicas, de fácil procesamiento y bajo costo. Es uno de los plásticos de mayor producción en el mundo, puede fabricarse mediante métodos diferentes para una amplia gama de aplicaciones. Entre el paquete de 271 barras de acero y el tubo de polietileno, se colocará un conjunto de caucho reciclado, producido a base de llantas viejas, limpiadas y granuladas, para después ser aglutinados con resina de poliuretano, de acuerdo con un proceso de reciclado que se lleva a cabo en México desde 1992. Intercaladas con el caucho reciclado se colocarán 20 placas de acero de 6.35 mm de espesor y 1 100 mm de diámetro con un hueco hexagonal al centro para alojar al paquete de 271 barras de acero, a las cuales da confinamiento. Las columnas flexibles de acero, polietileno y caucho, al presentarse un evento sísmico, y recibir en sus bases un esfuerzo cortante horizontal, experimentan una deflexión proporcional a la rigidez del tubo de polietileno y al valor del cortante sísmico horizontal que transportan a la estructura. El incremento relativo en el costo del edificio con 44 columnas de acero, polietileno y caucho es de 0.37 por ciento. SUSPENSIÓN NEUMÁTICA Después de la presentación y evaluación del sistema de columnas flexibles de acero, polietileno y caucho, se hace la comparación con otro invento del arquitecto Carrillo, “Suspensión neumática de base para aislamiento sísmico”, aplicado al mismo edificio. Este sistema de aislamiento sísmico consiste en cuatro cámaras neumáticas, en la base del edificio, formadas por dos losas planas horizontales sobre la cimentación y cerradas en su perímetro por bandas flexibles de nylon y caucho. Mediante presión neumática ambas losas se mantienen separadas 300 mm entre el suelo (cimentación) y la estructura. En la base del edificio, de 72.6 m por 72.6 m se tienen 4 compartimentos presurizados de 34.8 m por 34.8 m cada uno. La presión del aire es igual al peso del edificio dividido por el área de la base. El incremento del costo por la suspensión neumática es de 2 por ciento, ya que se requeriría fabricar la losa de concreto sobre la cimentación, una impermeabilización, empleo de varilla corrugada, marcos de soporte de acero galvanizado, compresores de tornillo rotatorio y equipo de control. En la siguiente tabla, se comparan costos directos y de mantenimiento, grados y tipo de aislamiento sísmico logrado en cada uno de los dos sistemas: CONCLUSIONES El sistema con columnas flexibles de acero, polietileno y caucho, es un sistema sencillo, económico y efectivo, apropiado IPN Donde la ciencia se convierte en cultura 23 para edificios entre 5 y 30 niveles. Solo proporciona aislamiento sísmico para los movimientos horizontales. El sistema de suspensión neumática tiene mucha mayor amplitud de aislamiento y es adecuado para edificios más altos o más pesados. Económicamente conviene en edificios de más de 20 pisos. Proporciona un magnífico aislamiento sísmico, tanto en el sentido horizontal como vertical. Maqueta del invento “Estructuración del sótano amortiguado con policolumnas” EPÍOLOGO En 1910 se funda el Servicio Sismológico Nacional, que depende del Instituto de Geofísica de la UNAM. Este Servicio mantiene y opera la Red Sismológica Nacional, que detecta los sismos de magnitud mayor a 3.5. Emite reportes, boletines y mantiene un sitio de Internet. Proporciona información para desarrollar investigación que mejora nuestro conocimiento sobre sismos. Se hace necesaria la intervención de más ingenieros mexicanos calificados que, como el arquitecto Carrillo Gutiérrez, aporten sus ideas para solucionar los grandes problemas nacionales, como en este caso, la vulnerabilidad de los edificios ante un sismo como el que nos asoló hace veinte años. Además, se requiere una mayor inversión en conocimiento sísmico. Una campaña de divulgación del fenómeno sísmico y del saber qué hacer antes, durante y después de un sismo dará confianza a la población ante estas eventualidades. Todos tenemos la posibilidad de participar, empleemos nuestra voluntad. Maquetas de edificios a los que se les ha incorporado tecnología de aislamiento sísmico Características principales Columnas flexibles de acero, polietileno y caucho Suspensión neumática de base Transmisión de cortante sísmico en un desplaza- 0.047 W 0.005W miento horizontal de 60 mm Transmisión del incremento o decremento de las cargas gravitacionales en un desplazamiento 0.25 W No tiene aislamiento vertical vertical de 30 mm Mantenimiento del sistema No requiere mantenimiento Mantenimiento mínimo Costo del sistema $ 1 366 989.00 (0.37% costo edificio) $7 373 433.00 (2% costo edificio) Adecuado para edificios De 5 a 30 niveles De más de 20 niveles 24 conversus Septiembre 2005 Biotecnología para el mejoramiento del arroz en el estado de Morelos Elsa Ventura Zapata*1**, Antonio Jiménez Aparicio1, Crescencio Bazaldúa Muñoz1, Alma Leticia Martínez Ayala1, Alma Angélica del Villar Martínez1, Uriel Maldonado Amaya2, Jorge Salcedo Aceves2 y Leticia Tavitas Fuentes2 E l arroz es una de las especies cultivadas más antiguas. Algunos investigadores sitúan su origen en India y otros en Indonesia alrededor del año 7 000 a.C. En la literatura china se hace mención de la ceremonia de su siembra desde el año 3 000 a.C. En el siglo IV de nuestra era se difunde a Mesopotamia y de allí, Alejandro el Grande lo traslada a Grecia. Más tarde los árabes lo llevan a Egipto, Marruecos y España antes del año 1 000 d.C. Según algunos reportes en la literatura, el arroz se trae por primera vez a América en el año de 1694. Su nombre genérico latino es Oryzae sativa. Actualmente existen tres razas ecogeográficas o subespecies distribuidas en el mundo: índica (grano largo), japónica (grano corto) y javánica (grano medio). El estado de Morelos es el cuarto productor de arroz a nivel nacional EL CULTIVO DEL ARROZ EN MÉXICO Se tiene conocimiento que el arroz fue introducido por primera vez en México durante la época colonial. Las variedades traídas fueron de las subespecies índica y japónica, las cuales, como ya se dijo, se diferencian por la forma y tamaño del grano (Figura 1). Sin embargo, debido a la preferencia de los consumidores de esa época, las variedades que se cultivan desde entonces pertenecen a la subespecie índica. En 1800 dicho cereal solo se sembraba en los estados de Guerrero, Veracruz y Morelos, posteriormente se extendió a otras entidades del país y hoy en día, los principales estados productores de arroz son Veracruz, Campeche, Michoacán y Morelos; éste último ocupa el cuarto lugar a nivel nacional. * Correspondencia para el autor, 1** Departamento de Biotecnología, Centro de Desarrollo de Productos Bióticos (CeProBi), IPN, Apartado Postal 24, Yautepec, Morelos, 62731. México, Tel.: 01 (55) 57 29 60 00, Ext. 82520, Fax: 01 (55) 57 29 60 00, Ext. 82529, D. e.: <[email protected]>. 2Campo Experimental Zacatepec INIFAP. 26 conversus Septiembre 2005 Fig. 1 Variedades de arroz de las subespecies índica (grano largo y delgado) y japónica (Grano corto y ancho). a) Variedades que se cultivan en el estado de Morelos. b) Variedades con preferencia en el mercado internacional, actualmente se están integrando a un programa de mejoramiento. MEJORAMIENTO GENÉTICO DEL ARROZ Inicialmente esta actividad consistía en la selección de plantas de acuerdo a su aclimatación. Posteriormente los fitomejoradores de arroz, mediante el método de pedigrí, buscaron obtener plantas de baja altura, resistentes al acame (doblamiento del tallo por la incidencia del viento) y con alta producción de hijuelos, lo cual se logró en la década de los años 60 al obtener ejemplares de porte bajo (mediante cruzamientos con plantas enanas), con mayor rendimiento. Mas adelante, obtuvieron variedades resistentes a plagas y enfermedades, insensibles al fotoperiodo, tolerantes a climas templados y con alto rendimiento en molienda. Con el método de pedigrí (tradicional) se han desarrollado más de 120 000 variedades en el mundo, y continúa la investigación para generar nuevas variedades. Actualmente se pretende elevar el rendimiento mediante la obtención de plantas con menor cantidad de hijuelos, de porte bajo y con hojas pequeñas y erectas; lo cual favorece una mayor captación y distribución uniforme de luz, reduce la respiración e incrementa el rendimiento y el porcentaje de materia seca. MEJORAMIENTO VARIETAL DE ARROZ EN MORELOS Desde 1947 se inició el mejoramiento genético de arroz de raza índica en el Campo Experimental Zacatepec, donde, a través del método de selección individual fueron liberadas las primeras variedades: Jojutla Mejorado y Morelos A70. En su momento, presentaron moderada resistencia al acame, buen potencial de rendimiento y se les consideraba como el “arroz de mejor calidad”. Sin embargo, al igual que la mayoría de plantas que se autofecundan, el arroz presenta un alto grado de homocigosis, condición que ocasiona la reducción de la variabilidad genética. Por esta razón, en 1975 se estableció el programa de cruzamiento entre diferentes variedades, con el fin de modificar las características morfológicas de las líneas puras generadas por la selección individual y aprovechar la segregación de caracteres propiciados por la interacción genotipo-medio ambiente, con lo que se puede realizar la selección de genotipos por pedigrí, hasta la obtención de nuevas líneas homocigotas. Este método requiere dar seguimiento a las poblaciones segregantes (F2-F6) hasta las gene- raciones avanzadas (F6-F8), debido a ello se necesitan entre 8 y 10 años para generar y liberar una variedad. Las variedades Morelos A92 y Morelos A98 fueron generadas mediante el método de pedigrí a través de cinco o seis selecciones; los progenitores seleccionados como donadores fueron aquellos que presentaron: alto potencial de rendimiento (10 a 12 Ton/ha); resistencia al acame (con genes de semi-enanismo); resistencia a la enfermedad conocida como “quema del follaje” o “avanamiento del grano” (Magnaporthe grisea antes Pyricularia oryzae Cav.); fotoinsensitividad y mejor calidad del grano (alargado grande con centro o panza blanca) (Figura 2). Lo anterior ha permitido colocar al estado de Morelos como el productor de arroz de mayor calidad en el país. Cabe señalar que el rendimiento promedio estatal en los últimos 15 años ha sido aproximadamente 100 por ciento superior al rendimiento promedio nacional. Figura 2: El mejoramiento genético de las plantas de arroz ha dado como resultado plantas de bajo porte y panículas con grano abundante. a) Reducción del porte de las plantas y resistencia al acame; b) Panículas con abundante producción de grano; c) Nuevas líneas con características mejoradas. Por otro lado, a partir de 1997 se inició el programa de mejoramiento varietal de la subespecie japónica, con la cual se obtiene más de una cosecha por año. Particularmente el arroz de las variedades Koshihikari y Sasanishiki es apreciado en países de Europa, Japón y Estados Unidos por su palatabilidad característica, lo que hace posible obtener precios superiores a los de la subespecie índica en el mercado internacional. PERSPECTIVAS PARA LA MEJORA GENÉTICA DEL ARROZ EN MORELOS Mediante el mejoramiento varietal convencional se han obtenido excelentes resultados, ello ha permitido que éste cereal ocupe el cuarto lugar en la producción estatal de gramíneas, pues los rendimientos de las variedades Morelos son los más altos a nivel nacional e internacional. No obstante, la producción de este cereal ha sufrido drásticas caídas en los últimos años debido a que la relación costo beneficio es muy baja y en ocasiones los productores obtienen saldos negativos, razón por la cual las ganancias se reducen. Por esta razón, la superficie destinada a este cultivo, ha disminuido de 12 000 Ha que se sembraban en 1970, a aproximadamente 3 200 Ha en 2003. Aunado a lo anterior, existe dificultad para preservar el precio comercial (superior al de otras variedades producidas en el país) establecido con base en la calidad del arroz Morelos, ya que el prestigio ganado en el mercado nacional, es utilizado por comerciantes de este grano de otros estados del país colocando leyendas como “arroz tipo Morelos” para ofertar su producto, lo cual se traduce en una competencia desleal. IPN Donde la ciencia se convierte en cultura 27 ALTERNATIVAS BIOTECNOLÓGICAS La investigación en materia biotecnológica genera nuevas técnicas de manera constante, algunas de ellas pueden ser utilizadas para desarrollar y caracterizar mejores y novedosas variedades que pueden ser destinadas a nichos específicos de mercado. Entre las herramientas biotecnológicas modernas aplicables a la generación de nuevas variedades están: a) El cultivo de anteras, que reduce entre el 50 y 60 por ciento del tiempo requerido para desarrollar variedades nuevas; b) La inducción de mutaciones, que permite modificar el genotipo de las plantas; c) La biología molecular, con diferentes aplicaciones en la transformación genética, en la que las plantas van expresando los caracteres específicos como respuesta a la inserción de genes. La primera de éstas ha sido ampliamente investigada en el CeProBi. Respecto a la caracterización de las especies o variedades, las técnicas aplicables son: a) Caracterización molecular, mediante la cual se puede obtener la huella genómica de la planta a través del uso de marcadores moleculares y metodologías específicas (RAPD, AFLP y RFLP, entre otras); y b) Caracterización bioquímica, a través de la cual se pueden identificar genotipos con características bioquímicas especiales (alto valor nutricional o menor cantidad de alergenos). El CeProBi ha utilizado en diferentes proyectos de investigación, tanto la caracterización molecular, mediante la técnica de RAPD, como la caracterización bioquímica. CULTIVO DE ANTERAS El cultivo de anteras es una herramienta complementaria muy importante en el mejoramiento genético de las especies. Se inicia con el cultivo in vitro de anteras de genotipos de generaciones tempranas para fijar las características deseadas. De esta manera se obtienen plantas haploides, que contienen la mitad del número cromosómico normal, el cual duplican más tarde para convertirse en diploides homocigotas. Con esta metodología se incrementa la eficiencia en la selección de caracteres de origen monogénico y poligénico y facilita la detección de mutaciones recesivas; por lo tanto, constituye una alternativa muy importante en el incremento del potencial de rendimiento de muchas especies vegetales. RAPD–PCR (Random Amplified Polymorphic DNA-PCR). Utiliza oligonucleótidos iniciadores más cortos que los empleados para un PCR común (10 nucleótidos) y son de secuencia arbitraria; de manera que los fragmentos amplificados son específicos en áreas distribuidas al azar en el genoma, el tamaño de 28 conversus Septiembre 2005 los oligonucleótidos y la baja temperatura de alineamiento aseguran la unión a una infinidad de secuencias en el genoma. Estos fragmentos se pueden separar en geles de agarosa para obtener perfiles electroforéticos que varían según el polimorfismo de los distintos individuos; como resultado se producen un gran número de bandas que permiten distinguir a individuos de diferentes variedades o tener una estimación de la relación genética entre varias especies. La realización experimental de la RAPD-PCR es sencilla y no requiere información previa de la secuencia de los oligonucleótidos iniciadores. Dado que el número posible de estos es teóricamente ilimitado, basta probar una cierta cantidad de ellos hasta encontrar los que muestren las mayores diferencias entre los organismos de estudio. CARACTERIZACIÓN BIOQUÍMICA El tema de caracterización bioquímica es muy amplio, particularmente, se hace referencia a la caracterización bioquímica de las proteínas de reserva, que consiste en cuantificar el contenido de proteínas totales (puede realizarse mediante diferentes métodos: Kjeldahl, Bradford, Biuret y Lowry), aislar las fracciones proteicas (albúminas, globulinas prolaminas y glutelinas), cuantificar el porcentaje de proteína en cada una de ellas e identificar los pesos moleculares de las cadenas polipeptídicas (mediante electroforesis en geles de poliacrilamida). La electroforesis es sin duda alguna, una de las técnicas más ampliamente usada para caracterizar a las proteínas. La carga efectiva y/o el radio molecular son característicos para cada proteína, es por ello que se han usado como referencia para el desarrollo de los procedimientos electroforéticos. TRABAJO REALIZADO EN EL CEPROBI-IPN EN COLABORACIÓN CON EL ZACATEPEC-INIFAP Con la finalidad de combinar técnicas para obtener productos con alto valor agregado en un menor tiempo y costo y tener posibilidades de competir en el mercado globalizado, se ha fortalecido la vinculación entre estas instituciones de investigación para generar tecnologías en beneficio de la sociedad. En este sentido, investigadores del CeProBi-IPN han trabajado en coordinación con investigadores del Campo Experimental “Zacatepec” del Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias (INIFAP), en busca de alternativas de solución a los principales problemas de los productores de arroz del estado de Morelos. Así desde 1998 realizan investigaciones conducentes al mejoramiento genético del arroz mediante la aplicación de la técnica de cultivo de anteras. Como resultado, actualmente se cuenta con la metodología establecida para la obtención de plantas por cultivo de anteras (Figura 3). En el 2002 se iniciaron trabajos para la caracterización bioquímica (Figura 4) y molecular (Figura 5) de variedades de las subespecies índica y japónica y generaciones segregantes CAMPO EXPERIMENTAL Figura 3. Patrón electroforético de los fragmentos de DNA amplificados al azar en el genoma de diferentes variedades de arroz. M) Marcador 100 pb; 1) Morelos A-92, 2) Morelos A-98, 3) Koshihikari, 4) Sasanishiki. (F2 y F4) de híbridos obtenidos a partir de cruzas entre ellas. Al respecto, se obtuvieron resultados prometedores en cuanto a la variación de las diferentes fracciones proteicas de la semilla en individuos de una cruza japónica x índica de la generación segregante F4. Por otro lado, se ha adaptado la metodología de polimorfismos del ADN amplificado al azar (RAPD) para la caracterización molecular de arroz. En este sentido se pretende consolidar un grupo multidisciplinario capaz de generar genotipos con denominación de origen que satisfagan las demandas de la sociedad morelense. Figura 4: Obtención de plantas de arroz por cultivo de anteras. a) Inducción de callo embriogénico a partir de anteras; b) callo embriogénico; c) y d) plántulas obtenidas de callo. Figura 5: Patrón electroforético (SDS-PAGE) de las cadenas polipeptídicas de híbridos arroz. M Marcador PM; 1, KOSI x MA92 F4; 2, MA92 x KOSI F4; 3, KOSI; 4, KOSI x MA92 F2; 5, MA92 x KOSI F2; 6. BIBLIOGRAFÍA BIDLINGMEYER, B.A Y WARREN F.V. Analytical chemistry, 56: 1583- 1596. 1984. CUEVAS, F. “Mejoramiento genético de arroz en los trópicos: hacia un nuevo paradigma”. Memorias del primer simposium Internacional del Arroz, INIFAP. Septiembre 12 1998. DOYLE, J.J. Y DOYLE, J.L. “Isolation of plant DNA from fresh tissue”. Focus. 12: 13-15, 1990. GUTIÉRREZ, T.R. Revista claridades agropecuarias. 1995. <http://www.infoaserca.gob.mx/claridades/portada.asp?numero=5 >. KHUSH, G.S. “Origin, dispersion, cultivation and variation of rice plant”. Molecular Biology 35:25-34. 1997. LAEMMLI, U.K. “Cleavage of structural protein during the assembly of the head of bacteriophage T4”. Nature 227:680-685. 1970. LÓPEZ B. J. L. Cultivos herbáceos. Vol. I Cereales. Ediciones Mundiprensa. España. pp. 452-454, 1991. MATTA, R. <http://www.el-universal.com/scannone/arroz.html NKONGE, C., BALLANCE, G. M. “A sensitive colorimetric procedure for nitrogen determination on micro-Kjeldahl digest”. J.Agric. Food Chem. 30:416-420. 1982. OSBORNE, T.B. “The vegetable protein”, Monographs in Biochemistry, 2nd ed., Logmans, green and co., New York. 1924. PAREDES, T.A., Recomendaciones para el cultivo de arroz en Morelos con las variedades Zapata A-70, Morelos A-70 y Jojutla Mejorado; Centro de Investigaciones de la Mesa Central; Campo Experimental Progreso, Circular CIAMEC No. 44. SAG. INIA. pág. 12. 1973. PAREDES-LÓPEZ, O. Y HERNÁNDEZ-LÓPEZ, D. “Application of differential scanning calorimetry to amaranth starch gelatinization” Influence of water, solutes and annealing. Starch/Stärke, 43:57-61. 1991. RIOS, S. < http://www.aca.com.uy/alimentación/arrozenlaalimentación.htm>. 2002 SHAGGER Y VON JAGOW, G. “Tricine-Sodyum dodecil sulfato poliacrilamide gel electrophoresis for the separation of protein in the range from 1 to 100 Kda”. Anal Biochemistry. 166:368-379. 1987. SALCEDO, A.J. “Morelos A92, nueva variedad de arroz de riego para Morelos”. Desplegable informativo No. 1 Campo Experimental Zacatepec. 1992. SALCEDO, A.J. “Morelos A98, nueva variedad de arroz para el estado de Morelos”. INIFAP-Fundación Produce Morelos, A.C. Desplegable informativo No. 8 Campo Experimental Zacatepec. 1998. TAVITAS, F.L. y HERNÁNDEZ, A.L. Catálogo de variedades que actualmente se cultivan en México. SAGARPA-INIFAP-Conacyt-Campo Experimental Zacatepec. Publicación especial No. 24. pág. 56. 2000. VÁZQUEZ, A.J. “Análisis agronómico y financiero transplante y la cosecha mecanizada del arroz en la región central de México”. Folleto técnico II SARH-INIFAP-CIRCE 9:25. 1993. IPN Donde la ciencia se convierte en cultura 29 Punto Crítico Roberto Linares y Miranda* * Sección de Estudios de Postgrado e Investigación (SEPI) de la Escuela Superior de Ingeniería Mecánica y Eléctrica (ESIME) Unidad Zacatenco, “Posgrado en Ingeniería Electrónica”, Unidad Profesional Adolfo López Mateos, Edif. Z, Acceso 3, 3er. Piso, Col. Lindavista, C. P. 07738, México, D. F. Tel.: (01) 5729 6000, Ext. 54607, D.e.: <[email protected]>. 30 conversus Septiembre 2005 l mundo en que vivimos depende en un alto grado de los sistemas que funcionan con energía eléctrica, y cada día con el impulso del avance tecnológico, se producen nuevas aplicaciones asociadas, hecho que impacta de una u otra manera las condiciones económicas y sociales del entorno. Este tipo de sistemas son capaces de emitir perturbaciones electromagnéticas (PEM) y, al mismo tiempo son susceptibles a las mismas. Estas perturbaciones generan un ambiente electromagnético (EM) complejo, que presenta un desafío constante para los aspectos de compatibilidad electromagnética (CEM), a pesar de que actualmente se cuenta con un amplio conocimiento del comportamiento al interior de ese ambiente. El presente artículo incluye, entre otros temas, la definición, situación actual y tendencias de las tecnologías sobre los principales aspectos de CEM, además de cuestionar su importancia en el futuro inmediato. E COMPATIBILIDAD ELECTROMAGNÉTICA La CEM en la actualidad es un término genérico asociado con los problemas más antiguos de funcionalidad de los sistemas electrónicos que se han presentado en todas las etapas de su desarrollo. El término compatibilidad electromagnética está especificado en el vocabulario internacional electrotécnico [1] y en algunas otras publicaciones [2], [3]. Básicamente se refiere a la convivencia entre sistemas, equipos, aparatos o dispositivos que funcionan con energía eléctrica en un ambiente electromagnético, mismo que está compuesto tanto por fenómenos naturales, como por fuentes artificiales (hechas por el hombre). En general y desde el punto de vista de la CEM, los sistemas eléctricos y electrónicos emiten y toleran (son inmunes) un nivel determinado de perturbaciones electromagnéticas (PEM) en el ambiente en el que operan a fin de alcanzar una convivencia armónica. Los niveles para que esto ocurra están especificados en normas internacionales y depende del tipo de sistema. Los sistemas electrónicos complejos procesan energía EM que contiene información válida y ruido (información no válida), o solamente ruido. La energía EM está formada por señales o emisiones que en general pueden clasificarse como conducidas y/o radiadas. Las señales conducidas requieren de un medio físico para transmitirse, que puede ser: (a) un conductor sólido, donde las emisiones se identifican como tensión y corriente; (b) un conductor hueco, donde las emisiones se reconocen como microondas y (c) una fibra óptica, donde la La telefonía celular emisión consiste en energía y los efectos de la luminosa. Las señales raenergía EM sobre el ser humano ha diadas utilizan como medio de generado una gran transmisión el espacio libre y discusión. normalmente se les conoce como emisiones radioeléctricas o ruido radioeléctrico. Cuando se analizan los sistemas eléctricos y electrónicos desde el ámbito de la CEM, se tienen tres problemas básicos: (1) asegurar la mínima afectación de las emisiones por las PEM, (2) disminuir los niveles emitidos de PEM , y (3) incrementar el grado de inmunidad de los equipos a los efectos de las PEM. El primer punto se enfoca en los problemas relacionados con el medio de transmisión, el segundo punto se refiere a los problemas de generación de emisiones no deseadas (radiadas, conducidas o inducidas), y el tercer punto se relaciona con los problemas ocasionados por la interferencia electromagnética (IEM) sobre los propios equipos y que pueden advertirse por diversos grados de degradación en su funcionamiento, denominada susceptibilidad electromagnética (EMS). El problema de las PEM no es reciente, empezó a percibirse con el inicio de la radiodifusión y a controlarse mediante el trabajo de comités nacionales e internacionales establecidos al efecto y orientados por un lado, a evitar o minimizar la generación de estas señales y por el otro, a recomendar el uso de filtros y blindajes, así como a considerar una mejor distribución de los componentes en los sistemas electrónicos, sobre todo en los de radiocomunicación que son los más susceptibles. En esa época, la protección de la transmisión telefónica contra las PEM también fue tema importante y generó varias publicaciones [3], [4], sin embargo, el término “compatibilidad electromagnética” se introdujo hasta el final de la década de los 50, cuando se construyeron una gran cantidad de sistemas electrónicos para aplicaciones militares, lo cual convirtió a las PEM en un problema de vital importancia y urgente de controlar, sobre todo en el campo de las telecomunicaciones y de la radionavegación. Es importante entender que, por definición, la CEM no prevé en lo absoluto el problema de la IEM. Las PEM generadas por varias fuentes son de carácter aleatorio, aunque para muchos casos su tratamiento básico inicia con un análisis determinístico. Por ejemplo, la inmunidad de un dispositivo o equipo depende principalmente de sus características y de la función que realiza. IPN Donde la ciencia se convierte en cultura 31 respecto a dichos sistemas, Como caso particular, la intensidad de la por lo que los desarrollos tecPEM depende del ángulo de incidencia, de nológicos son constantes y la polarización y de la intensidad de las tienen una dinámica mucho emisiones radiadas sobre un circuito mayor que la actualización de (campo EM incidente), así como de la inlas normas que debieran regir su munidad del propio circuito a dicho funcionamiento. Todo esto gecampo. Es claro que la convivencia de nera una gran competencia y los sistemas electrónicos en un determipaíses con legislaciones estrictas, nado ambiente EM, es bastante vigilan que se respeten las normas, complejo, por la gran cantidad de hecho que se refuerza mediante la variables a considerar. Para soluEl incuplimiento de las normas sobre PEM provoca que firma de tratados comerciales intercionar cada uno de los diversos los productos eléctricos y electrónicos no se puedan comercializar nacionales [5]. aspectos de la CEM debe consideEl cumplimiento de las normas se rarse un tipo particular de realiza verificando la conformidad de perturbación, aislando el resto los sistemas eléctricos y electrónicos en del sistema electrónico en estulaboratorios de pruebas certificados para dio. Cabe mencionar que de esta manera se lleva a cabo el CEM. proceso de normalización Los países en desventaja son los que no cuya función es determinar cuentan con normas oficiales de CEM (como los niveles de emisión máxiMéxico), hecho que se profundiza por el esmos aceptables, la inmunidad caso número de laboratorios certificados, a requerida en los sistemas respecto a su campo pesar de pertenecer a los tratados mencionade aplicación y eventualmente los procesos de medición dos. Por esta razón, en estos países abunda el para la verificación de dichos niveles. Otra circunstancia que se consumo de sistemas eléctricos y electrónicos da en este proceso es la relativa al efecto de la velocidad con que fuera de norma, lo que en general provoca que exista un amopera el desarrollo tecnológico, lo cual mantiene irremediablebiente electromagnético mucho más contaminado y genera pérmente un atraso en la elaboración de las normas. didas económicas importantes. En general, se puede reducir la IEM de un sistema, dismiEste panorama implica la importancia de entender los diferentes aspectos que se involucran en la “Compatibilidad nuyendo las emisiones y aumentando su inmunidad, pero Electromagnética”, como son las normas, las tendencias tecllevarlo a cabo requiere de un gran esfuerzo ya que deben ennológicas y la educación. tenderse todos los fenómenos que se presentan en la práctica. Con las tecnologías emergentes, el ambiente EM se hace más NORMALIZACION SOBRE LA CEM complejo, ya que cada uno de los sistemas de emisión que ha sido diseñado para un propósito específico, puede interferir a Mundialmente, se están realizando grandes esfuerzos respecto otros sistemas, que, por lo general, ha sido diseñado para otra a la normalización de las CEM, especialmente dentro de los oraplicación; un ejemplo típico de esta situación son las comuniganismos internacionales, aprovechando su fuerte influencia caciones inalámbricas. sobre los desarrollos locales. En referencia a estos organismos La convivencia de los sistemas eléctricos y electrónicos con el internacionales, la Comisión Electrotécnica Internacional, (IEC, ser humano, también es un problema de CEM, el caso más común por sus siglas en inglés), ha tomado la mayor responsabilidad de los trabajos de normalización en el ámbito de las CEM; otros es la telefonía celular, donde aún hay una gran discusión respecto a los efectos de la energía EM sobre el cuerpo humano. esfuerzos se están realizando por la Organización Internacional de Normalización, (ISO, por sus siglas en inglés) Complementariamente puede mencionarse que a nivel mundial, la importancia que han tomando los aspectos relay por la Unión Internacional de Telecomunicaciones, (ITU, por cionados con la CEM, están generando regulaciones relativas a la sus siglas en inglés). El IEC tiene tres comités principales respecto a CEM, el necesidad de certificar el cumplimiento de estas normas como requisito previo a la autorización para comercializar cualquier Comité Internacional Especial sobre Perturbaciones sistema eléctrico o electrónico. Radioeléctricas (CISPR, por sus siglas en francés) y el Comité Técnico 77 (CT 77) de Compatibilidad Electromagnética y el ESTADO ACTUAL RESPECTO A LA CEM Comité 106 “Métodos de Evaluación de los Campos Eléctrico, Magnético y Electromagnético con la Exposición Humana. En el diseño de sistemas eléctricos y electrónicos los aspectos de Estos comités, además de desarrollar los aspectos básicos de CEM son bastante preocupantes, debido a que mundialmente las normalización, definen las mediciones, los métodos necesarios exigencias para las PEM son cada vez más severas. Estas exigeny la repetibilidad de las normas técnicas. Dentro del IEC se tiene cias se especifican en normas y el no cumplirlas provoca que los productos no puedan ser introducidos a los mercados. Sin emun Comité de Supervisión sobre CEM que coordina los trabajos bargo, es claro que el mundo vive una dependencia total en esta área y junto con otros cuerpos de normalización se ase- 32 conversus Septiembre 2005 los sistemas electrónicos en el campo de la guran que no exista duplimedicina y la industria, motivado por sus cidad de normas [6]. grandes dimensiones. ISO está dedicándose a La tendencia a controlar y automatizar normas de CEM relacionadas cualquier sistema o proceso, ha hecho que con la parte automotriz, la aumente considerablemente la densidad de aviación y aspectos espadispositivos electrónicos. Como ejemplo, se ciales. La ITU se dedica a las puede mencionar que muchos de los actuales normas de CEM referentes aparatos electrodomésticos cuentan con una a las telecomunicaciones. microcomputadora, tan es así que A. W. Estas organizaciones están Radaski [10], uno de los presidentes de IEC, de acuerdo con los esfuerzos de la IEC, trabajando de mencionó en una de sus conferencias que la tendencia de los futuros refrigeradores es forma coordinada según controlar el consumo de los comestibles, para sus áreas de interés y con la Diversos organizmos realizan grandes esfuerzos respecto que cuando haga falta alguno de ellos se sotendencia de adoptar las a la normalización de la CEM licite vía Internet. Esta posibilidad y algunas propias normas IEC, por lo otras actividades que pueden realizarse con que se espera que en el camwww.photo.net el uso de los microprocesadores, no están tan po de normalización interlejanas; lo que, en su momento complicará los aspectos relanacional, los requerimientos para pruebas y certificación sean tivos a CEM, debido a la gran densidad de dispositivos los mismos, evitando al máximo conflictos al respecto. En el ámbito nacional, en esta área se tienen proyectos de electrónicos y la necesidad de su convivencia, por lo que tennormas oficiales que serán de observancia obligatoria (NOM) y drán que ser determinados los niveles tolerados de emisión e inmunidad de energía EM. Por otro lado la tendencia a procesar se han adoptado varias normas IEC como normas de observancia voluntaria (NMX). Las normas oficiales se están la mayor cantidad de información, ha llevado al diseño de sistemas más compactos con microprocesadores de alta velocidad desarrollando por la Secretaría de Comunicaciones y que operan con frecuencias de reloj mayor a 1 GHz. Esto hace Transportes, a través de la Comisión Federal de Telecomunicaque en pequeños recintos se tenga un ambiente electromagciones (COFETEL) y las normas de observancia voluntaria se nético altamente complejo y que las exigencias de CEM están desarrollando por NYCE y ANCE [7], [8], que son organismos nacionales de normalización. El anteproyecto de NOM 125 sean más severas, desde el diseño hasta las pruebas que equivale a la CISPR 22, es un proyecto que ha pasado la etade funcionamiento. Respecto a los sistemas electrónicos de alta pa de consulta y está próxima a ser oficial. Respecto a las NMX frecuencia, el enfoque se dirige hacia las comuse tienen en proyecto varios documentos [9]. nicaciones inalámbricas, donde se cuenta con La normalización de CEM mexicana en este momento una gran gama de sistemas que operan en mantiene una gran actividad, pero el cuestionamiento diferentes frecuencias, cubriendo una gran constante es con respecto a los laboratorios de pruebas parte del espectro radioeléctrico, desde la para la evaluación de la conformidad en la materia. telefonía celular hasta sistemas de radares móviles que operan en frecuencias mayores a TENDENCIAS, TECNOLOGÍA Y ASPECTOS DE LA CEM 40 GHz. Como problemas generales se conEl análisis desde el punto de vista de CEM respecto a toda sidera la utilización eficiente del espectro y las la gama de los sistemas electromecánicos, eléctricos y elecemisiones radiadas. Por su parte, la inmunidad trónicos, es muy difícil de realizar, ya que cada también es importante, ya que en altas fresistema tiene características particucuencias las longitudes de onda son más lares de operación que los pequeñas y pueden penetrar a través de las hace más o menos ranuras de los gabinetes. Por ejemplo, para vulnerables a los frecuencias de 10 GHz, la longitud de onda aspectos de CEM. es de 3 cm y su atenuación en ranuras de Para cubrir el tema 2 cm de largo y de 1 mm de ancho (típide esta sección se cas en gabinetes) es del orden de 39 dB y analizarán en forma para frecuencias de 1GHz se tiene una muy general, los atenuación aproximada de 59 dB. [10] problemas que se preLa telefonía celular es un problesentan con el uso de las ma fuerte, ya que se puede nuevas tecnologías relaencontrar en cualquier lugar, tivas a los sistemas además de que su desarrollo es electrónicos digitales y de Otros sistemas que operan con energía eléctrica constante. Y aunque los límites de alta frecuencia, así como como los aparatos electrodomésticos son más riesgosos respecto a los campos EM radiados IPN Donde la ciencia se convierte en cultura 33 las emisiones se controlan por norma, que afectan al ser humano, para lo cual los efectos hacia el ser humano no están el IEC ha establecido el Comité Técnico 106 [12]. totalmente identificados y es donde se encuentra una buena parte de la activiCon respecto a las PEM sobre los dad de investigación. equipos médicos, la mayor restricción Uno de los problemas a resolver desde se encuentra en el uso de sistemas de el punto de vista de CEM está en el área de comunicación inalámbricos, debido a que se ha comprobado que provocan las comunicaciones inalámbricas con la disturbios al funcionamiento de ditecnología Buetooth. Esta tecnología opera chos equipos. Sin embargo, partien la banda libre de 2.4 GHz, donde la discularmente en hospitales, las PEM tancia típica de comunicación automática Experimento de inducción eléctrica es de aproximadamente 30 m. Al respecto se pueden deberse a muchas causas, ya ha estimado que existen en el mundo más que en general el ambiente electromagde 1.5 billones de dispositivos que operan nético no es controlado pues la preocupación principal está con dicha tecnología [11], derivado de que dicha tecnología sobre la protección biomédica, pero los mismos equipos que se puede usarse para transmisión de voz y datos, así como para el utilizan en estos recintos generan PEM que se afectan mutuacontrol de sistemas. Sin embargo, las frecuencias de operación mente. Conocer el ambiente electromagnético dentro de los están cerca de la frecuencia a la que operan los hornos de mihospitales es una tarea urgente y pendiente de realizar. croondas y a pesar de que estos últimos se diseñan considerando Otra tarea pendiente es la relativa a los sistemas industriales, la tecnología bluetooth, se ha encontrado que por la potencia aldonde se involucran dispositivos con un alto grado de ta de los hornos, la comunicación entre dispositivos se ha generación de PEM, pero también con un grado de susceptibilillegado a afectar. dad a ellas. El ambiente electromagnético en estas instalaciones En el área de la salud y la medicina, los aspectos de CEM se es altamente complejo y muy difícil de analizarse, por lo que el desarrollo de normas que fijen niveles de emisiones y de inmuenfocan principalmente a los efectos de los campos EM sobre el nidad de equipos, aparatos y dispositivos electromecánicos, ser humano y de las PEM hacia los sistemas, equipos y disposieléctricos y electrónicos aún no ha madurado, ni siquiera se tivos que se utilizan en el desempeño de esta actividad. El tienen como proyecto. En este sentido el trabajo básico está en primer punto es preocupante, ya que existe una polémica las mediciones insitu, ya que es muy difícil discriminar las emirespecto a los niveles de las emisiones, ya que la intensidad del siones radiadas y conducidas de un dispositivo en particular. campo es función de la distancia; por ejemplo, el teléfono celular La comunicación de voz y datos a través de las líneas de es el que más ha llamado la atención por su gran proliferación y energía eléctrica de potencia conocida como tecnología Power su aplicación, que se da casi en contacto directo con el ser huLine Communicatión (PLC) o Broadband Power Line (BLP), está mano. Sin embargo, existen otros sistemas que operan con energía eléctrica, que pueden ser más peligrosos respecto a los en proceso de desarrollo y se presenta como una gran ventaja dacampos EM radiados y que no llaman tanto do que dichas líneas existen por doquier, eliminando la necesidad de instalar otra red física. Por ejemplo la atención, a pesar de estar consideraen EUA, Europa, Japón y aldos en las normas, como son: los gunos otros países ya se tiene monitores de televisión y de computaInternet a través de este medio. doras, los hornos de microondas, las En México la Comisión Federal estaciones base, las líneas de energía de Electricidad ha llevado a eléctrica de alta tensión, los detectores La necesidad de detectar cabo pruebas tecnológicas al de metal en los aeropuertos, los deteclos efectos de la energía em estimula la creatividad respecto, pero sin contemplar tores de seguridad en bancos y de los investigadores aún, proceso alguno de normalialmacenes, etc. Como parte del especzación, lo que hace preocupante tro la energía EM es no ionizante y en el control de las emisiones rageneral sus efectos no son inmediadas, ya que su efecto se ve diatos, pero para determinar sus fuertemente manifestado en los efectos, se requiere de una gran cansistemas de radio comunicación. tidad de información que deberá ser Este problema es un reto más para recopilada durante largos periodos los aspectos de CEM. de tiempo. Al respecto el Comité Internacional de Protección a la Radiación No Ionizante (ICNIRP) y L A EDUCACIÓN Y LA INDUSTRIA la Organización Mundial de la RESPECTO A LA CEM Salud (OMS) han solicitado a la IEC Las ondas electromagnéticas juegan un papel cada vez más que examine los métodos de prueimportante en las comunicaciones, ba sobre los campos EM radiados 34 conversus Septiembre 2005 los controles y sensores remotos, los sistemas integrados con multisensores, la detección e identificación de señales, las microondas, el diseño de circuitos electrónicos, el bio-electromagnetismo y en muchos otros aspectos o aplicaciones complejas que involucran fuentes de energía electromagnética naturales o hechas por el hombre. Dichas ondas forman un ambiente electromagnético, en el cual los problemas de CEM están involucrados. Una de las estrategias para entender dichos problemas, es a través de la educación, la formación de recursos humanos y la investigación, considerando enfáticamente los aspectos de normalización, punto clave en cualquier área de la ingeniería, ya que permite hablar un mismo idioma en el desarrollo tecnológico. Los países con alto grado de industrialización, tienen bien claro este proceso, en el cual la participación de la industria es activa, además de que los laboratorios de pruebas son imprescindibles, tanto para la investigación como para el desarrollo de las normas, ya que éstas deben ir acompañadas de procedimientos de medición. La investigación y desarrollo en esta área, tiene como particularidad mantener a la vanguardia los productos: desde el diseño hasta su producción y comercialización, integrando todos los procesos para ser altamente competitivos mundialmente. Los nuevos productos implican la modificación constante de las normas. Este proceso es el que ha llevado al éxito a los países asiáticos, teniendo como peculiaridad la vinculación con la educación superior, los centros de investigación, la industria y los consumidores. No realizar este proceso ha llevado a los EUA a perder parte importante de los mercados, ha permitido que las agencias de investigación y desarrollo hayan sido absorbidas por agencias comercializadoras; tan es así que la sociedad de CEM de la IEEE propone que en las universidades se impartan cursos con instructores con amplia experiencia industrial [14]. En México, la educación está totalmente desvinculada de la industria y los aspectos de CEM se tratan en diferentes universidades de una forma colateral en las carreras de ingeniería eléctrica, electrónica y de comunicaciones, sin tener un curso específico. A nivel posgrado, el Centro de Investigación y de Estudios Avanzados (CINVESTAV) Unidad Guadalajara, enfoca la CEM a los sistemas eléctricos de potencia y en la Unidad del Distrito Federal el enfoque de CEM es sobre las telecomunicaciones y la bioelectrónica, sin tener tampoco cursos específicos. La Escuela Superior de Ingeniería Mecánica y Eléctrica (ESIME.), Unidad Zacatenco, es la única que a nivel posgrado imparte el curso teórico-práctico de CEM, ya que cuenta con un laboratorio para este propósito. Respecto a los laboratorios de pruebas de CEM, a la fecha los que existen no están certificados; existen algunos en el sector privado, como por ejemplo el de Hewlett Packard ubicado en Gua- dalajara, Jal. La Facultad de Ciencias de la Universidad Nacional Autónoma de México cuenta con un laboratorio de este tipo y el CENAM, como parte esencial para esta aplicación sólo tiene un sitio para pruebas de área abierta. Este hecho ha sido fuertemente cuestionado en los procesos del desarrollo de las normas. CONCLUSIONES Es claro que el constante desarrollo de productos eléctricos y electrónicos, complica cada vez más el ambiente electromagnético, dificulta la convivencia de los propios equipos e incrementa la problemática relativa a la compatibilidad electromagnética. En estas circunstancias sobresale la necesidad de retroalimentar los procesos de normalización, específicamente lo que se refiere a los límites de emisión y a otras especificaciones y parámetros requeridos por estos productos. De igual manera y como parte esencial del proceso, debe promoverse el establecimiento de laboratorios de prueba para CEM, con la visión de contar con apoyo técnico para estar en condiciones de dar cumplimiento a la regulación aplicable a la operación de estos equipos. En paralelo se requiere que las entidades involucradas cuenten con personal preparado y con experiencia, por lo que es prioritaria la participación activa de los sectores educativo y de investigación y desarrollo. Finalmente y sin olvidar la importancia que tienen en la definición de la calidad del producto, es ineludible la colaboración de la industria y los consumidores. REFERENCIAS 1 IEC 50-161:1990, “Internacional Electrotechnical Vocabulary (IEV)”, Chapter 161: Electromagnetic Compatibility. 2 IEEE Standard for Measurement of Impulse Strength and Impulse Bandwide, IEEE STD 376, 1975. 3 SCHULZ, R. B., “More on EMC Terminology”, IEEE. Transaction on electromagnetic Compatibility, Vol. EMC-29, pp. 202-205, August 1987. 4 MOKANDA, M.T.MA, CRAWFORD, M.L. AND LARSE E. B., “A Review of Electromagnetic Compatibility Interference Measurement Methodologies”, Proceedings IEEE, Vol. 73, No. 3, pp. 388-411, March 1985. 5 HEIRMAND D.N., “Commercial EMC standardization and International Harmonization Activity in the United States”, AUSTEL/IIR Conference on Telecommunication Testing. 22-23 April, Melbourne, Australia. 1993. 6 SHOWERS R. M., “Influence of IEC Work on National Electromagnetic Compatibility Standards”, 10th International Zurich Symposium and Technical Exhibition, Zurich, Switzerland, March. 1993. 7 TOPETE C., R AÚL , “Compatibilidad e Interferencias Electromagnéticas: Panorama de su inclusión en el Ámbito Nacional”, Conferencia presentada en el CENAM, 30 de Mayo del 2002. 8 M OLINA L ÓPEZ , V ICTORIA , “Normalización Nacional en EMC ”, Conferencia presentada en COFETEL, 5 de Sept. del 2003. 9<www.Economia.gob.mx/work/normas/Normalización/Pnn/PNN_ 2003pdf >. 10 RADASKY, WILLIAN A., “EMC Challenges for Electronic Systems”, Compliance Engineering”, annual Reference Guide. <http://www.cemag.com/archive/01/Spring/Radasky.html>. 2001. 11 <http://new.com.com>. 12 G OLDBERG ., G., “ EM Phenomena and Implications for Standardization: EMC-Safety-Human Exposure”, in Proceedings of the 15th International Wroclaw Symposium on EMC (Wroclaw, Poland: National Institute of Telecommunications), pp. 31-38. 2000. 13 <www.echelon.co.kr/03/PLT22vsCEBus.pdf>. 14 IEEE EMC Society Newsletter, Education Committee, winter 2000. IPN Donde la ciencia se convierte en cultura 35 Otra voz... la visión del joven investigador El Sistema Internacional de Unidades y la metrología,dentro del Año Internacional de la Física José Zavala Chávez 36 conversus Septiembre 2005 n el marco de la celebración del Año Internacional de la Física, el presente trabajo hace una recapitulación del Sistema Internacional de Unidades (SI), algunos hechos históricos relevantes, las últimas definiciones de sus unidades base, la participación de México y algunas sugerencias de adopción de dichas unidades como parte del trabajo cotidiano y profesional. Se resalta la importancia de la metrología como una plataforma para la generación de desarrollo tecnológico y conocimiento nuevo. E Seguramente los lectores recordarán de las clases de física de la secundaria, bachillerato o licenciatura, las referencias sobre el entonces sistema CGS, después el MKS y posteriormente el SI. A este respecto pueden surgir varias interrogantes, como por ejemplo: 1. ¿Quiénes lo desarrollaron?. ¿Sabías que Gauss, Maxwell y Kelvin impulsaron el SI? 2. ¿Porqué es tan importante permanecer actualizados respecto de las unidades base del SI?, ¿Cuáles son las últimas actualizaciones del SI? 3. ¿México, cómo participa en el desarrollo del SI? ¿Qué tanto conocemos al CENAM? 4. ¿Cuáles son nuestras obligaciones como usuarios, profesionistas, catedráticos o investigadores respecto del SI? El SI se desenvuelve en el seno de la Convención del Metro (CM, por sus siglas en francés “Convention du Mètre”) acuerdo internacional que da autoridad tanto a la Conferencia General de Pesas y Medidas (CGPM, por sus siglas “Conférence Générale des Poids et Mesures”), como al Comité Internacional de Pesas y Medidas (CIPM, por sus siglas Comité International des Poids et Mesures) y a la Oficina Internacional de Pesas y Medidas (BIPM, por sus siglas “Bureau International des Poids et Mesures”) para actuar en materia del mundo de la metrología, particularmente en la demanda de patrones, mediciones y la incesante necesidad de mejorar la exactitud, ampliar los intervalos de medición y la diversidad de mediciones, así como el requisito de demostrar equivalencia entre las mediciones nacionales de los diferentes países. La Convención fue firmada en París en 1875 por representantes de 17 naciones, de manera simultanea a la fundación de la Oficina Internacional (en adelante BIPM) y del establecimiento de la manera en que deberían manejarse y financiarse las actividades en la BIPM. La CM estableció una estructura organizacional permanente para los gobiernos miembros, a fin de proceder de común acuerdo respecto a todas la materias relativas a las mediciones y sus unidades; la CM fue ligeramente modificada en 1921 y sus bases permanecen en el acuerdo internacional, existiendo ahora 51 estados miembros incluido México (además de 17 Estados Asociados, tales como China Taipei, Cuba y Costa Rica, entre otros). La CGPM se reúne en París una vez cada 4 años, la anterior fue la XXII CGPM en octubre del 2003. Cada CGPM recibe el informe del CIPM y se discuten los arreglos necesarios para asegurar la propagación y mejora del SI, así mismo, se muestran los resultados de las nuevas determinaciones internacionales fundamentales y las resoluciones científicas de alcance internacional; se decide sobre los más importantes temas concernientes a la organización y desarrollo de la BIPM, incluyendo su presupuesto para los siguientes cuatro años. Las funciones principales de la BIPM son: • Establecer los patrones fundamentales y las escalas para la medición de las cantidades físicas principales, además de mantener los prototipos internacionales; • Realizar comparaciones de patrones nacionales e internacionales; • Asegurarse de la coordinación correspondiente a las técnicas de medición; • Efectuar y coordinar mediciones sobre las constantes físicas relevantes para sus actividades; La BIPM opera bajo la supervisión especial del CIPM, que a su vez tiene como autoridad a la CGPM y le informa sobre su trabajo a la Conferencia así como a la Oficina. Cuando empezaron las actividades de la Oficina, el trabajo se enfocó hacia las magnitudes de longitud y masa; posteriormente en 1927 se adicionaron patrones de electricidad; en 1937 de fotometría y radiometría; en 1960 se extendió a radiación ionizante y en 1988 a escalas de tiempo. Cabe mencionar que los laboratorios construidos al efecto, se establecieron en 1878, mismos que posteriormente fueron ampliados para radiaciones ionizantes en 1929 y 1973 y para láser en 1984. Actualmente la Oficina tiene 9 comités consultivos: • • • • • Electricidad y magnetismo; Fotometría y radiometría; Termometría; Longitud; Temperatura; • • • • Tiempo y frecuencia; Radiaciones ionizantes; Unidades de masa y; Unidades de materia. La sucesión histórica de las actividades más importantes para la implementación del SI , se puede obtener a través de la revisión de las diversas Conferencias Generales de Pesas y Medidas, de las que se puede resumir: - La creación del Sistema Métrico Decimal. Se dio en la época de la Revolución Francesa con la construcción de patrones de platino para el metro y el kilogramo (22 junio 1799). Patrones de platino para el metro y el kilogramo IPN Donde la ciencia se convierte en cultura 37 En 1832 el reconocido científico alemán Carl Friedrich Gauss (1777-1855), promovió fuertemente la aplicación del sistema métrico junto con el desarrollo de la unidad de tiempo “el segundo”, definido mediante métodos de la ciencia astronómica. Gauss fue el primero en hacer mediciones absolutas del campo magnético de la Tierra utilizando tres unidades mecánicas del sistema métrico: centímetro, gramo y segundo (longitud, masa y tiempo). En años posteriores, Gauss y otro científico notable, también alemán, Wilhelm Eduard Weber (1804-1891), siendo amigo de Gauss, extendieron estas mediciones para incluir el fenómeno eléctrico. Las unidades de medida para las magnitudes de electricidad y magnetismo fueron desarrolladas en 1860 bajo la activa participación y liderazgo de los científicos James Clerk Maxwell (1831–1879) y William Thomson (Lord Kelvin) (1824–1907), escocés e irlandés, respectivamente, a través de la Sociedad Británica para el Avance de la Ciencia cuyas siglas son (BAAS). Ambos científicos formularon los requerimientos para un sistema coherente de unidades base y unidades derivadas. Gauss do al metro y al kilogramo como unidades base de longitud y masa del sistema. En 1889, la primera conferencia sancionó dichos prototipos, junto con el segundo, unidad astronómica para el tiempo, como las tres unidades que sustituirían al CGS pero ahora basadas en el metro, el kilogramo y el segundo (MKS). En 1901, el ingeniero italiano Giovanni Giorgi (1871-1950), demostró que es posible combinar las unidades mecánicas metro, kilogramo y segundo con unidades prácticas, para formar un sistema coherente de cuatro unidades base, a fin de poder adicionar una cuarta unidad base de naturaleza eléctrica, siendo ésta ya sea el ampere o el ohm. Entonces fue necesario reescribir las ecuaciones de electromagnetismo para un sistema llamado racionalizado. Este sistema fue adoptado oficialmente por la IEC en 1930. Así, Giorgi abrió una trayectoria para una serie de nuevos desarrollos. Después de la revisión de la CM para la 6ª CGPM en 1921, con la cual se extendió el alcance y responsabilidades de la BIMP para otros campos de la física y la creación posterior del Comité Consultivo para Electricidad (CCE), ahora Comité Consultivo Maxwell Weber Thomson (Lord Kelvin) Precisamente la BAAS introdujo el sistema CGS en 1874 como para Electricidad y Magnetismo (CCEM) por la VII CGPM en 1927, un sistema tridimensional coherente basado en tres unidades la propuesta de Giorgi fue ampliamente discutida por la IEC y la mecánicas, el centímetro, el gramo y el segundo, así mismo esUnión Internacional de Física Pura y Aplicada (IUPAP, por sus tablecieron los prefijos desde micro hasta mega para múltiplos y siglas International Union of Pure and Applied Physics) y otras submúltiplos de magnitudes conocidas. organizaciones internacionales, esto permitió que el CCE reEl desarrollo posterior de la física como una ciencia expericomendara la adopción de un sistema de cuatro dimensiones mental se basó en la mejora constante del sistema de unidades, (MKSA) basado en el metro, el kilogramo, el segundo y el ampere, con una fuerte liga a la capacidad de mejorar la exactitud, ampropuesta que se aprobó por el CIPM en 1946. pliar los intervalos de medición y al estado del arte de la ciencia, Siguiendo con los requerimientos internacionales para la BIPM en otras palabras, estrechamente ligada a la Metrología. la cual empezó en 1948, la X CGPM en 1954, aprobó la introducción En 1880 se comprobó que el CGS era inconveniente respecto a del ampere, el kelvin y la candela como unidades base respectivamente para añadir a la la inclusión de unidades de corriente, la temperatura terelectricidad y magnetismo, el modinámica y la intensidad BAAS (predecesor de la Comiluminosa. Desde entonces, el sión Electrotécnica Internacionombre del sistema es como se nal IEC, organismo de normaconoce ahora “Sistema Interlización internacional) intronacional”. La formalización del dujo el ohm como unidad de nombre actual se dio en la XI resistencia eléctrica, el volt para fuerza electromotriz y el CGPM en 1960. ampere para corriente eléctrica. Para la XIV CGPM en 1971, la Después del establecimienversión actual del SI se comto de la convención del metro pletó añadiendo la unidad mol el 20 de mayo de 1875, el CIPM para la cantidad de sustancia, quedando en siete el número se concentró en la preparación Actualmente el Sistema Internacional de Unidades es más completo de las unidades base. de nuevos prototipos, tenien- 38 conversus Septiembre 2005 TABLA 1 UNIDADES BASE metro M El metro es la unidad de longitud; es la longitud de la trayectoria recorrida por la luz en el vacío durante un lapso de tiempo de 1/299 792 458 de un segundo. Kilogramo Kg El kilogramo es la unidad de masa; es igual a la masa del prototipo internacional del kilogramo. Segundo S El segundo, unidad de tiempo, es la duración de 9 192 631 770 períodos de la radiación correspondiente a la transición entre los dos niveles hiperfinos del estado base del átomo de cesio 133. Ampere A El ampere, intensidad de corriente, es aquella intensidad de corriente constante la cual, mantenida en dos conductores rectos paralelos de longitud infinita, de sección transversal circular despreciable, y colocados a una distancia de 1 m, en el vacío, produciría entre esos conductores una fuerza igual a 2 X 10-7 newton por metro de longitud. kelvin K El kelvin, unidad de temperatura termodinámica, es la fracción de 1/273,16 de la temperatura termodinámica del punto triple del agua. Mol Mol 1. La mol es la cantidad de sustancia la cual contiene tantas entidades elementales como átomos existen en 0,012 kilogramos de carbono 12. 2. Cuando la mol se usa, las entidades elementales deben de especificarse y pueden ser átomos, moléculas, iones, electrones u otras partículas, o grupos especificados de tales partículas. Candela Cd La candela es la unidad de intensidad luminosa, en una dirección dada, de una fuente que emite una radiación monocromática de frecuencia 540 X12 hertz y que tiene una intensidad energética en esa dirección de 1/683 watt por esterradián. TABLA 2. ALGUNAS UNIDADES DERIVADAS DEL SI CUYOS NOMBRES Y SÍMBOLOS INCLUYEN UNIDADES DERIVADAS DEL MISMO CON NOMBRES ESPECIALES. Unidad derivada del SI Cantidad derivada Nombre Símbolo Expresión en términos de unidades base del SI viscosidad dinámica pascal segundo Pa · s m–1 · kg · s–1 momento de fuerza newton metro N·m m2 · kg · s–2 tensión de superficie newton por metro N/m kg · s–2 velocidad angular radian por segundo rad/s m · m–1 · s–1 = s–1 radian por segundo cuadrado rad/s2 m · m–1 · s–2 = s–2 watt por metro cuadrado W/m2 kg · s–3 joule por kelvin J/K m2 · kg · s–2 · K–1 joule por kilogramo kelvin J/(kg · K) m2 · s–2 · K–1 joule por kilogramo J/kg m2 · s–2 conductividad térmica watt por metro kelvin W/(m · K) m · kg · s–3 · K–1 densidad de energía joule por metro cúbico J/m3 m–1 · kg · s–2 volt por metro V/m m · kg · s–3 · A–1 aceleración angular densidad de flujo de calor, irradiancia b capacidad de calor, entropía capacidad de calor específico, entropía específica energía específica intensidad de campo eléctrico IPN Donde la ciencia se convierte en cultura 39 Nombre Símbolo Expresión en términos de unidades base del SI densidad de carga eléctrica coulomb por metro cúbico C/m3 m–3 · s · A densidad de flujo eléctrico coulomb por metro cuadrado C/m2 m–2 · s · A permitividad farad por metro F/m m–3 · kg–1 · s4 · A2 permeabilidad henry por metro H/m m · kg · s–2 · A–2 energía molar joule por mole J/mol m2 · kg · s–2 · mol–1 joule por mole kelvin J/(mol · K) m2 · kg · s–2 · K–1 · mol– 1 coulomb por kilogramo C/kg kg–1 · s · A gray por segundo Gy/s m2 · s–3 watt por esterradián W/sr m4 · m–2 · kg · s–3 = m2 · kg · s–3 watt por metro cuadrado esterradián W/(m2 · sr) m2 · m–2 · kg · s–3 = kg · s–3 katal por metro cúbico kat/m3 m–3 · s–1 · mol entropía molar, capacidad de calentamiento molar exposición (rayos x y ) índice de dosis absorbida intensidad radiante Radiancia concentración catalítica (actividad) Con base en el SI se realizan la mayor parte de las transacciones comerciales mexicanas y del mundo, así mismo el trabajo científico en el SI, constituye el estado del arte de varias ramas de la ciencia. Lo anterior es congruente, si se toma en cuenta que uno de los objetivos de la CM, la BIPM, los CIPM y los CGPM es promover la mejora de la exactitud y la ampliación de los intervalos de medición tanto en cantidades cada vez más pequeñas como cada vez más grandes. Periódicamente se publican trabajos científicos en la revista Metrologia de la BIPM. México se adhirió a la Convención del Metro el 30 de diciembre de 1890, siendo Presidente el General Porfirio Díaz. A partir de entonces se realizaron esfuerzos para establecer y consolidar un sistema metrológico nacional. Hoy en día, la Ley Federal sobre Metrología y Normalización (LFNM) publicada en 1992 modificada y reformada en 1996, en 1997 y 1999, establece en sus artículos 5, 6, 7, 8 y 9 que el SI es de uso oficial y obligatorio en México y se denomina “Sistema General de Unidades de Medida”. Como dato “interesante”, se establece en el artículo 8 de la LFNM que las escuelas deberán incluir en sus programas de estudio la enseñanza del Sistema; por su parte, en el artículo 9, se establece que la Secretaría (de Economía) tendrá a su cargo los prototipos nacionales metro y kilogramo asignados por la BIPM, sin embargo, como ya se comentó, sólo el kilogramo continúa siendo patrón comparativo, dado que el metro puede reproducirse a través de la definición y lineamientos correspondientes. Por otro lado, la Norma Oficial Mexicana NOM-008-SCFI-2002 adopta el SI, estableciendo su cumplimiento como obligatorio. 40 conversus Septiembre 2005 Las NOM-008-SCFI-2002 y la NMX-Z-055:1996-IMNC, contienen ejemplos del uso incorrecto de términos relacionados con el SI y la metrología: Uso incorrecto 280 grados kelvin Uso correcto 280 kelvin Voltaje, voltios, watios (vatios) Tensión eléctrica, volt(s), watt(s) Rango Intervalo Precisión Exactitud www.cenam.mx Cantidad derivada La metrología es imprescindible en el aseguramiento de la calidad en la investigacioón Así mismo, la LFMN establece que el Centro Nacional de Metrología (CENAM), es el Laboratorio primario mexicano responsable de desarrollar y preservar los patrones nacionales. En la anterior XXII reunión de la CGPM de 2003, el CENAM representó al país. El CENAM debe ser fortalecido para que aumente su capacidad de reproducción y conservación de unidades base y derivadas del SI, y no solo el CENAM, sino todo el sistema metrológico nacional. El país requiere de más y mejores laboratorios, en las escuelas, las dependencias y los sectores privado y social, de tal forma que el potencial de desarrollo tecnológico empiece y termine con medición; desde el desarrollo de los conocimientos, hasta la medición que los consumidores deben realizar de los productos y servicios recibidos, no solo en cuanto a cantidad, sino también en cuanto a los parámetros de calidad esperados. Una vez que este ciclo se cierre seguramente tendremos mejor calidad de vida. Se estima que el potencial de desarrollo tecnológico del país depende de la disponibilidad de infraestructura metrológica nacional, ya que la capacidad de reproducir y mantener con alto nivel de exactitud las unidades base y derivadas del SI, así como contar con los recursos que posibiliten intervalos de medición cada vez mayores, acerca a los investigadores a la frontera de la ciencia a nivel mundial y arroja una serie de conocimientos y experiencia definitivos para aquellos que trabajan cercanos al ámbito metrológico. La globalización económica toca todas las actividades humanas y el SI y la metrología no son la excepción, por ejemplo el actual director de la BIPM Sr. Ferry Quinn señala respecto del desarrollo del SI y la BIPM, que ahora se reconoce no solo la importancia en el establecimiento de las bases en ciencia, tecnología, ingeniería, química, actividades biomédicas, del SI y la metrología, sino también su capacidad para eliminar barreras técnicas al comercio (TBT, por sus siglas Technical Barriers to Trade). Desde luego esta aseveración del Sr. Quinn parece positiva, sin embargo, por lo que se ve, lo es solo para las economías generadoras de bienes y servicios con alto nivel tecnológico, es decir las exportadoras de tecnología. La metrología es imprescindible en el aseguramiento de la calidad en la investigacioón REFERENCIAS:. 1 Bureau International des Poids et Mesures, “The International System of Units (SI)”, 7th edition 1998, Organisation Intergoubernementale de la convention du Metrè. 2 Suplement, Addenda and corrigenda, to the 7th edition 1998, “The International System of Units (SI)”. 2000. 3 <http://www.bipm.fr/en/si/history-si/>. 4 Ley Federal sobre Metrología y Normalización, versión editada por el organismo “Normalización y Certificación Electrónica (NyCE). 5 NOM-008-SCFI-2002, Sistema General de Unidades de Medida. 6 NMX-Z-055: 1996 IMNC, Metrología–Vocabulario de términos fundamentales y generales. 7 <http://www.cenam.mx>. IPN Donde la ciencia se convierte en cultura 41 * Alumno de la Maestría en Ingeniería de Telecomunicaciones, SEPI-ESIME, Zacatenco. D. e.: < HYPERLINK "mailto:[email protected]" [email protected]>, Tel.: 53 17 40 18. 42 conversus Septiembre 2005 Una perspectiva histórica de las antenas Andrés Lucas Bravo* as antenas son componentes esenciales en cualquier sistema de radio ya que son los dispositivos que permiten emitir y recibir las ondas electromagnéticas. Aunque existe una gama muy amplia de éstas, la antena más simple es un trozo de alambre, misma que, con las dimensiones adecuadas puede optimizar su rendimiento. En general, su uso permite transferir información entre sitios distantes, sin que exista conexión física entre ellos. L Las antenas se emplean ampliamente en las comunicaciones móviles utilizadas en aeronaves, vehículos espaciales, barcos y a nivel personal, entre otros. En resumen, la comunicación inalámbrica en cualquier parte del mundo ha sido posible gracias a las antenas, incluyendo la radiodifusión, donde un transmisor se emplea para enviar la señal a un número ilimitado de receptores. Igualmente, son fundamentales para la telefonía celular y los radio-aficionados; incluso para actividades asociadas con la seguridad, tales como el rescatismo y las estaciones de bomberos. Por otro lado, las antenas también son empleadas en otros campos que no están asociados directamente con las comunicaciones, por ejemplo, en aplicaciones industriales y domésticas tales como sensores colocados en zonas estratégicas de un proceso industrial y en actividades básicas como cocinar con microondas. Al escribir este breve resumen sobre la historia de las antenas, existe el riesgo de omitir contribuciones importantes realizadas por diversos investigadores que han participado en el desarrollo de este útil e invaluable campo de la ciencia, sin embargo, dedico a todos ellos mi reconocimiento y admiración. Las antenas de alambre fueron utilizadas por primera vez en 1842 por Joseph Henry, profesor de filosofía natural en Princeton, N.J., e inventor de la telegrafía con alambres. En sus experimentos Henry se dio cuenta que al aplicar una descarga a una antena que usaba como transmisora, era posible magnetizar otra antena colocada a varias millas de distancia (sin conexión física entre ambas). Así, Henry había descubierto las ondas electromagnéticas, con cuya base formuló la idea de que la luz estaba compuesta por ondas de este tipo. En 1875 T. A. Edison descubrió que las chispas de los interruptores eléctricos producían radiaciones detectables a través de antenas y en 1885 patentó el primer sistema de comunicaciones, el cual empleaba antenas verticales con una carga capacitiva en su parte superior (Véase figura 1). Aproximadamente en esta época, G. F. Fitzgerald, calculó que un lazo (loop) de alambre radiaría ondas electromagnéticas y que una capacitancia determinada conectada a un resistor también lo haría, pero en Very High Frequency (VHF), banda ubicada de los 30 a los 300 Mhz. En 1887, H. Hertz envió, procesó y recibió ondas de radio, usando como antena transmisora un dipolo unido a una bobina de inducción y como receptor un lazo rectangular que contenía un salta-chispas. Hertz también inventó el plano de rejilla de alambres paralelos y estableció los fundamentos del fenómeno conocido como “polarización” [1]. Actualmente estos conceptos tienen gran relevancia en el diseño y aplicación de antenas. En 1897 Oliver J. Lodge, profesor de Física en la ciudad de Liverpool, Inglaterra; patentó cuatro de los avances más importantes relacionados con antenas: 1) fabricó un dipolo bicónico; EMBED PBrush FIG. 1 ANTENAS DE T. A. EDISON IPN Donde la ciencia se convierte en cultura 43 2) insertó una bobina-carga en el centro del dipolo; 3) acopló un circuito de sintonía LC al circuito de la antena, e 4) inventó una nueva antena al agregar una capacitancia horizontal a la estructura del dipolo. Estas aportaciones relacionadas con acoplamiento, sintonía y reducción de pérdidas en la tierra, tienen gran importancia histórica. Asimismo, Lodge, agregó al lenguaje el término “impedancia”, actualmente utilizado en diferentes campos de la ciencia. En paralelo, se desarrollaron nuevas técnicas de radio que encontraron aplicación en la aeronáutica, comunicación de voz y navegación marítima. Las primeras antenas y sistemas de comunicación que permitieron el control remoto de torpedos, naves aéreas etc., se originaron en esta década. En el periodo de 1920 a 1929 el diseño de antenas alcanzó un alto grado de especialización, entre las que se contaron desarrollos para radiodifusión, investigación y navegación aérea y marítima. Un especto relevante ocurrió en 1923 y estuvo relacionado con la directividad de un sólo alambre, colocado en forma horiEMBED PBrush FIG. 3 MONOPOLO QUE USÓ MARCONI COMO ANTENA TRANSMISORA, EN LA PRIMERA COMUNICACIÓN DE RADIO TRANSATLÁNTICA EMBED PBrush FIG. 2 ANTENA-BICÓNICA DE LODGE, UTILIZADA EN TELEGRAFÍA Antes de 1900 se utilizaron antenas en la banda de microondas, tales como: reflectores parabólicos, lentes, antenas de corneta y radiadores para guías de onda. En esta época, G. Marconi logró hacer importantes desarrollos en la sintonización de su sistema de antenas y en diciembre de 1901 hizo posible la comunicación inalámbrica a través del Atlántico. La figura 3 muestra la antena utilizada, compuesta por 50 alambres conectados al transmisor y tierra. Utilizó 15 000 watts de potencia y una frecuencia de 70 Khz. Por otra parte, en 1906 pudo medir la directividad de otro de sus inventos: la “antena doblada”, además de atribuírsele la primera medición publicada relativa al diagrama polar, que representa el patrón de radiación de una antena. De 1910 a 1919, se empezaron a construir antenas de grandes dimensiones, baja frecuencia y alta potencia. Sin embargo no permitían la comunicación a gran escala. En 1917, en la estación Marconi ubicada en New Brunswich, NJ, estuvo en operación una de estas grandes antenas a una frecuencia de 22 Khz; misma que, para incrementar su eficiencia se sintonizó en seis puntos a lo largo de su estructura. Este tipo de sintonía múltiple fue introducido por E.F.W. Alexanderson. Cabe mencionar que el peso de algunas de estas antenas fue del orden de 100 toneladas. Con el propósito de tener una cobertura global, estadounidenses y británicos tenían proyectado instalar estaciones con grandes antenas en diferentes partes del mundo, sin embargo no pudieron concretar el proyecto por dos razones fundamentales: 1) La Primera Guerra Mundial y 2) los experimentos con ondas cortas que habían realizado Marconi y Franklin. En razón de este último punto, quedó claro que no se necesitan grandes antenas cuando se trabaja con frecuencias más altas. 44 conversus Septiembre 2005 zontal a una cierta distancia de la tierra. El trabajo fue desarrollado por H.H. Beverage de la compañía RCA, con la finalidad de recibir ondas largas. Hoy se conoce como “antena Beverage” y pertenece a la familia de antenas de onda progresiva. Este invento ha servido como referencia para diseñar otras antenas tales como la rómbica. Durante los años 1930 a 1939, se regresó al uso de las frecuencias cortas que antes habían investigado Hertz y sucesores, en la banda de VHF (1-10 m) y de microondas (abajo de 1 m). Los dispositivos empleado en estas frecuencias fueron principalmente: arreglos de antenas (con dipolos), antenas de corneta, antenas de ranura, antenas reflectoras y guías de onda. Estas antenas pronto se convirtieron en diseños clásicos que hoy en día siguen siendo utilizadas para: comunicaciones satelitales, comunicaciones móviles, radiodifusión, enlaces de microondas y Radioastronomía, entre otras aplicaciones. Un invento de gran importancia se dio alrededor de 1939, impulsado por A.D. Blumlein, quien recibió una patente por un tubo rasurado, el cual esencialmente es un radiador con una serie de ranuras y a su vez es una estructura resonante. Desde entonces las antenas ranuradas han encontrado gran aplicación práctica. Los años de la 2ª Guerra Mundial 1940 a 1945 fueron testigo de un experimento secreto: el radar. Su desarrollo llegó a ser considerado un objetivo nacional tanto para EUA como para Inglaterra. Miles de personas trabajaron solamente en el campo de las ante- nas, y los resultados no se hicieron esperar. De ese intenso estudio se obtuvieron grandes avances en la materia, lo cual permitió mejorar los diseños de antenas en onda corta (cm) y la construcción de transmisores de radiofrecuencia más potentes. En este periodo se investigaron rigurosamente los reflectores y su alimentación, los radiadores de corneta, las guías de onda, la disposición y dimensiones de las ranuras, las lentes y su alimentación, los arreglos lineales y las antenas dieléctricas. Entre 1946 y 1949, se desarrollaron antenas principalmente para la banda de VHF debido al impacto causado por la televisión, que inició precisamente en esa banda. En este periodo, se perfeccionó el uso de las antenas ranuradas y los fabricantes diseñaron una gran variedad de ellas. La ilustración de dichas antenas se puede ver en la figura 2. Ya entre 1950 y 1959, aparecieron las antenas de banda ultraamplia, tales como: la antena espiral de ranura, la antena espiral equiangular, la antena espiral cónica, la antena periódica logarítmica. Asimismo, se investigaron las características de los arreglos, tales como: el arreglo circular conmutado, el arreglo de guías de onda ranuradas, los arreglos de multi-elementos con fasores de ferrita y los arreglos con haces múltiples independientes. Los arreglos de antenas en fase, se controlaban con fasores mecánicos, que en principio permitían manipular el haz de radiación generado por el arreglo. Esta idea fue desarrollada en los años siguientes y actualmente los sistemas satelitales pueden realizar dicho control de forma electrónica, lo cual garantiza que el sistema de comunicación sea utilizado de manera eficiente. Durante 1960 y 1969, se obtuvieron progresos muy interesantes en el campo de las antenas, sin embargo mencionaré solo cuatro de ellos. En 1960, T.H. Maiman mostró el primer láser; en 1963, E. Leith produjo el primer holograma usando un láser; en 1965, la compañía COMSAT construyó el primer satélite síncrono y el 20 de julio de 1969, hombre y antena estuvieron en la Luna. En las dos décadas siguientes 1970 y 1980, se investigaron exhaustivamente las características de las antenas de microcinta, aunque los primeros trabajos relacionados con estas antenas se realizaron en 1950. En su forma más simple, estas antenas constan de una cinta o un parche metálico colocado sobre un substrato dieléctrico que a su vez está soportado por un plano de tierra, es decir, sobre una placa metálica. Estas antenas se han utilizado ampliamente debido a su confiabilidad, bajo costo, bajo peso, ganancia aceptable y pequeñas dimensiones, además de su versatilidad, tanto en lo relativo a la geometrías, como a los arreglos específicos; típicamente se diseñan a frecuencias de 1 a 100 GHz. CONCLUSIONES En el campo de la ciencia, las antenas y su historia han jugado un papel muy relevante en el progreso y desarrollo tecnológico. Gracias al conocimiento y uso de las mismas ha sido posible explorar el espacio, así como estudiar los lugares de difícil acceso sobre la tierra. Otros descubrimientos importantes han estado asociados con el uso de antenas, por ejemplo en el ámbito de la medicina, los estudios de ultrasonido y los rayos X; en biología se utilizan para estudiar el comportamiento de diversas especies; en Radioastronomía para investigar lo que sucede en los astros ubicados a millones de kilómetros de nosotros, etc.; y así, se podría continuar mencionando una inmensa gama de aplicaciones. Por esta razón, no solo es necesario seguir investigando y trabajando sobre el desarrollo de las antenas, sino que se convierte en una actividad indispensable para poder obtener resultados notables que beneficien el quehacer humano y su entorno. REFERENCIAS 1 HEINRICH HERTZ, Las Ondas Electromagnéticas, Publicaciones de la Universidad Autónoma de Barcelona, 1990. 2 JACK RAMSAY, “Highlights of Antenna History”, IEEE Communication Magazine, Vol. 19, No. 5, pág. 4-16, september 1981. 3 A.A. OLINER, “Historical Perspectives on Microwave Field Theory”, IEEE Transactions on Microwave Theory and Techniques, Vol. MTT-32, no. 9, pág. 1022-1042, september 1984 4 W. L. STUTZMAN AND G. A. Thiele, Antenna Theory and Design, 2a Ed., Cap. I, John Wiley & Sons, 1998. REFERENCIAS ELECTRÓNICAS < HYPERLINK "http://www.upv.es/antenas/Documentos_PDF/ Notas_clase/Historia_antenas.pdf" http://www.upv.es/antenas/Documentos_PDF/Notas_clase/Historia _antenas.pdf>. < HYPERLINK "http://www.ieee-virtual-museum.org/collection/ people.php?id=1234576&lid=1" http://www.ieee-virtual-museum.org/ collection/people.php?id=1234576&lid=1>. <http:// HYPERLINK "http://www.ideafinder.com/history/ inventors /hertz.htm" www.ideafinder.com/history/inventors/hertz.htm>. < HYPERLINK "http://www.cienciafacil.com/paghistoriaradio.html" http://www.cienciafacil.com/paghistoriaradio.html>. < HYPERLINK "http://nobelprize.org/physics/laureates/ 1909/ marconi-bio.html" http://nobelprize.org/physics/laureates/1909/marconi-bio.html>. EMBED PBrush FIG. 4 ARREGLO DE UNA ANTENA DE MICROCINTA DE 16 ELEMENTOS, FORMADO POR SUBARREGLOS IPN Donde la ciencia se convierte en cultura 45 Sucesos Mesa redonda sobre la metrología ¿Cómo medimos las cosas? Jorge Rubio Galindo* El desarrollo de la física incrementa la precisión de las mediciones. El IPN con infraestructura para constituir una red de laboratorios de metrología. Esta especialidad es instrumento imprescindible en la normalización de la tecnología de información y comunicaciones. (De izq. a Der.) El maestro en ciencias Sergio Viñals Padilla, doctor Víctor manuel López López, doctor Rolando Menchaca García, doctor René Carranza López Padilla y el maestro en ciencias Adolfo Escamilla Esquivel *Periodista científico de Conversus 46 conversus Septiembre 2005 L a posibilidad de realizar divisiones directas de frecuencia en la región visible del espectro utilizando pulsos ultracortos de duraciones de femtosegundos [una milbillonésima parte de un segundo (1 x 10-15 seg)]. y la capacidad de contar electrones o fotones, cuantos de radiación electromagnética que permita desarrollar estándares de capacitancias de un solo electrón, destaca a la metrología como un tema fundamental de la física. Además, por las tendencias y necesidades de un mercado globalizado, dicha característica convierte a la metrología en uno de los pilares más importantes de la competitividad y el adecuado funcionamiento de los procesos. Para el Instituto Politécnico Nacional (IPN), la normalización y la metrología adquieren relevancia en la celebración del Año Internacional de la Física y a casi 70 años de su fundación como la primera institución tecnológica del país. Por esta razón, el Centro de Difusión de la Ciencia y la Tecnología (CeDiCyT) unidad Tezozómoc, del IPN, conjuntamente con la Asociación Mexicana de Ingenieros en Comunicaciones Eléctricas y Electrónica (AMICCE) y la Sociedad de Egresados de la Escuela Superior de Ingeniería Mecánica y Eléctrica (SEESIME), llevaron a cabo la mesa redonda “La metrología para el progreso de la física, la tecnología y la ingeniería” en el auditorio del recién inaugurado edificio del Centro de Formación e Innovación Educativa (CFIE) del propio instituto, el pasado mes de julio. Con la representación del doctor Enrique Villa Rivera, director general del IPN, el doctor Víctor Manuel López López, secretario de Extensión y Difusión, hizo la declaratoria inaugural de este encuentro sobre metrología, que consideró de gran trascendencia para el desarrollo de la ciencia y la tecnología de nuestro país. Durante su intervención, el maestro en ciencias Sergio Viñals Padilla, director del CeDiCyT, destacó el interés del Instituto por llevar la motivación de estos temas a la comunidad, para el desarrollo de la ciencia, la tecnología y la ingeniería. Viñals Padilla comentó que para resolver conflictos como el que plantea la resolución de problemas de electrónica, en donde el uso de modelos matemáticos con variables infinitas (como un movimiento ondular constante) contrasta con el movimiento ondular de cualquier emisor del mundo real, la metrología y la normalización plantean soluciones más adecuadas y precisas. En su participación, el maestro en ciencias Adolfo Escamilla Esquivel, subdirector Administrativo de la Escuela Superior de Física y Matemáticas (ESFM) del IPN mencionó la necesidad de establecer un red de laboratorios de metrología en el Instituto. Comentó que desde hace tiempo se pretende constituir una red de laboratorios secundarios con actividades de metrología, susceptibles de ser acreditados, para transferir estas mediciones a la industria. Consideró que si actualmente ya funciona una red similar de alrededor de 140 laboratorios en la Unión Europea, el IPN podría aportar 100 laboratorios de calibraciones y ensayos a un programa de ese tipo. Esta red podría mejorar la calidad, elevar la competencia técnica de todos los involucrados en la metrología, y por supuesto, incrementar la formación y transmisión de prácticas entre los laboratorios. Comentó que en el IPN hay un gran avance en la acreditación, el reconocimiento mutuo y la supervisión internacional, con base en pruebas de aptitud que han contribuido a incrementar la competencia técnica de nuestra red de laboratorios. Por su parte, el doctor René Carranza López Padilla, director del Área de Metrología Eléctrica del Centro Nacional de Metrología (CeNaM) comentó que el avance de la la ciencia y la tecnología está ejerciendo una presión enorme que va a provocar cambios significativos en la estructura de desarrollo de la metrología. En particular en los campos de la electricidad y la mecánica. Después de mostrar un amplio panorama sobre el estado actual de la telefonía celular, la televisión, la radiodifusión y el Internet y la tendencia actual de la convergencia de todas ellas en la red, el doctor Rolando Menchaca García, presidente de la Comisión de la Especialidad de Ingeniería en Comunicaciones y Electrónica de la Academia de Ingeniería (AI) y representante de la Asociación Mexicana de Ingenieros en Comunicaciones Eléctricas y Electrónicas (AMICEE), destacó la importancia vital de la información y las comunicaciones para la economía de los países, el abaratamiento de los costos de la tecnología, la necesidad de su regulación, así como el papel de la metrología como instrumento de comprobación de dicho cumplimiento. Finalmente, el ingeniero José Zavala Chávez, representante de la empresa Laboratorios Lattice, recordó que muchas cosas han incrementado su precisión desde que en 1874 Maxwell y Weber propusieran el sistema cgs (centímetro-gramo-segundo) a la Sociedad Británica para el Avance de la Ciencia como un sistema de medidas del Sistema Internacional de Unidades (SIU), vigente hasta hoy, en que se puede detectar el sonido de eventos biomoleculares como el nado de una bacteria. IPN Donde la ciencia se convierte en cultura 47