Leer Revista - CeDiCyT - Instituto Politécnico Nacional

Transcripción

Leer Revista - CeDiCyT - Instituto Politécnico Nacional
Instituto Politécnico Nacional
contenido
Realización: Gloria Serrano
Dr. José Enrique Villa Rivera
Director General
Dr. Efrén Parada Arias
Secretario General
Dr. José Madrid Flores
Secretario Académico
Dr. Víctor M. López López
Secretario de Extensión y Difusión
Ing. Manuel Quintero Quintero
Secretario de Apoyo Académico
Dr. Mario Rodríguez Casas
Secretario Técnico
C. P. Raúl Sánchez Ángeles
Secretario de Administración
M. en C. Juan Ángel Chávez Ramírez
Abogado General
Dr. Luis Humberto Fabila Castillo
Coordinador General de Posgrado e Investigación
Mtro. Eduardo Meza Olvera
Coordinador General de Vinculación Académica y Tecnológica
M. en C. María Dolores Sánchez Soler
Coordinadora General de Modernización Institucional
Fernando Fuentes Muñiz
Coordinador General de Comunicación Social
y Divulgación
Ing. Sergio Viñals Padilla
Director del Centro de Difusión de Ciencia y Tecnología
Conversus
Director Editorial
Ing. Rodolfo de la Rosa Rábago
Comité Editorial
José Antonio Arias Montaño, Rosendo Bolívar Meza, José Gerardo Cabañas
Moreno, Guillermo Carvajal Sandoval, Sergio A. Estrada Parra, Luis Humberto Fabila Castillo, Jorge González Claverán, Clemente R. Morales Dávila,
Ricardo Mota Palomino, Efrén Parada Árias, Octavio Paredes, Ofir Picazo Picazo, Radu Gheorghe Racotta Poulieff, Onofre Rojo Asenjo, Michael Shapiro
Fishman, Joaquín Tamariz Mascarúa, María de los Ángeles Valdés Ramírez,
Miguel Ángel Valenzuela Zapata, José Enrique Villa Rivera.
Encargado de Información
Lic. Octavio Plaisant Zendejas
Encargado de Redacción
Lic. José Luis Carrillo Aguado
Reportero
Lic. Jorge Rubio Galindo,
Encargada de Diseño
Lorena Elizabeth Quintana Ortega
Ilustración y diagramación
Lorena Elizabeth Quintana Ortega
Gloria P. Serrano Flores
Captura de Textos
Guadalupe Cantú Morales
3
Multiverso
Fronteras
4
Cripta maya revela el poder de la mujer
Alejandra Witze
6
La nueva Babel y los ladrillos del
Universo
Gerardo Herrera Corral
Impresión: Impresora y Encuadernadora Progreso, S.A. de C.V.
San Lorenzo Tezonco núm. 244 Col. Paraje San Juan, Delegación
Iztapalapa,
C. P. 09830, México D. F.
Distribución: Publicaciones CITEM, S.A. de C.V. Av. del Cristo 101,
Col. Xocoyahualco. Tlanepantla, Edo. de México. C.P. 54080
8
Encuestas sobre política científica
en México y el mundo
José Luis Carrillo Aguado
Conversus
Es una publicación mensual (Septiembre 2005), con excepción de los meses junio-julio y
diciembre-enero, del Instituto Politécnico Nacional, editada por el Centro de Difusión de
la Ciencia de la Secretaría de Extensión y Difusión. Los artículos firmados son responsabilidad exclusiva de su autor y no reflejan necesariamente el criterio de la institución,
a menos que se especifique lo contrario. Se autoriza la reproducción parcial o total, siempre y cuando se cite explícitamente la fuente. Domicilio de la publicación: Av. Zempoaltecas esq. Manuel Salazar, Col. Ex Hacienda El Rosario. Deleg. Azcapotzalco.
C.P. 02420
Número de Certificado de Reserva otorgado por el Instituto Nacional del Derecho de
Autor: 04-2001-100510055600-102. Número de Certificado de Licitud de Título 11836.
Número de Certificado de Licitud de Contenido 8437, otorgados por la Comisión Calificadora de Publicaciones y Revistas Ilustradas de la Secretaría de Gobernación. Número
ISSN 1665-2665. Editor responsable: Rodolfo de la Rosa Rábago Tel.: 5729 6000,
ext.: 64827 D.e.: [email protected] Tiraje: 5000 ejemplares.
Observatorio científico
10 En marcha la secuenciación
del genoma de los mexicanos
Octavio Plaisant Zendejas
Investigación hoy
12 Ciudad sustentable
Dinora Obregón Velasco et al.
20 Ingeniería sísmica, prevención
de un desastre natural
José Luis Carrillo Aguado
26 Biotecnología para el mejoramiento
del arroz en el estado de Morelos
Elsa Ventura Zapata et al.
Punto Crítico
30 Aspectos de compatibilidad electromagnética: un desafío para los sistemas
electrónicos
Roberto Linares y Miranda
Otra voz... La visión del joven
investigador
36 El Sistema Internacional de Unidades
y la Metrología
José Zavala Chávez
42 Una perspectiva histórica de las antenas
Andrés Lucas Bravo
Sucesos
46 ¿Cómo medimos las cosas?
Jorge Rubio Galindo
Multiverso
M
etrología, rama de la ciencia que se ocupa de medir, considerando la aplicación del Sistema Internacional de Unidades (SI) y el aseguramiento y
mantenimiento de las características técnicas de los instrumentos utilizados; comprende también, aspectos teóricos y prácticos relacionados con
su aplicación científica, industrial y legal (normatividad).
Pero, ¿como surgió el mencionado SI? ¿Cómo se desarrollan los sistemas, de medición? ¿Por
qué es importante medir y calibrar el equipamiento? Estas y otras más son algunas de las interrogantes que se abordan y encuentran respuesta entre los contenidos de esta edición.
La metrología se aplica en todos los ámbitos de nuestras actividades, por ejemplo: en la
medición del tiempo; en la calibración de equipos y dispositivos diversos, orientados al uso
doméstico, industrial y de servicios; la iluminación de áreas de trabajo; el color de una tela
o una pintura; la brillantez de un monitor; la opacidad de un gas, etc.
En nuestro país, la entidad responsable de mantener los patrones nacionales de medición
es el Centro Nacional de Metrología (CENAM), adscrito a la Secretaria de Economía, y cuya
misión principal es apoyar a los diversos sectores sociales en sus necesidades presentes y futuras relacionadas con la metrología de referencia.
Entre los factores que potencian el desarrollo tecnológico de cualquier país, sobresale la
importancia que cada gobierno le confiere a la calidad y disponibilidad de la infraestructura
metrológica relativa a todos los ámbitos del sector industrial. Esta consideración aplica tanto en lo concerniente a la posibilidad con que se cuente para reproducir y mantener las
unidades base y unidades derivadas del SI, como para poder contar con recursos cada vez
mayores que posibiliten el incremento de los intervalos de medición correspondientes.
Mientras mejor sea el nivel de exactitud con que se lleven a cabo estas actividades, mejores
serán los indicadores de referencia con que las entidades reguladoras, industriales y consumidores, puedan aplicar y exigir el cumplimiento de los parámetros a los que están
obligadas la industria manufacturera y las compañías importadoras. Una infraestructura
metrológica con un desarrollo adecuado posibilita el acercamiento de los investigadores al
estado del arte respecto a la ciencia y la tecnología a nivel mundial para todas las áreas del
conocimiento; como beneficio adicional, se tiene la diversificación de las fuentes de experiencia requeridas para el crecimiento profesional de los recursos humanos.
Además de los aspectos relacionados con la protección de la vida, del medio ambiente y
de la infraestructura tecnológica, el constante desarrollo de productos de toda índole implica una dificultad cada vez mayor para los consumidores al momento de seleccionar adecuadamente los satisfactores por ellos requeridos, condición que se complica aún más con la
diversidad de elementos que, en esencia, realizan las mismas funciones. Esta circunstancia,
entre otras, resalta la necesidad de fortalecer y retroalimentar los procesos de normalización
y certificación de productos, cuyos fines principales son los de definir, comprobar y avalar
las especificaciones y parámetros declarados por los fabricantes. Con esta misma idea, deben
apoyarse y facilitarse la instalación y desarrollo de laboratorios de prueba que posibiliten la
medición de las especificaciones contenidas en las normas nacionales, oficiales mexicanas y
todas aquellas voluntarias que por diversas razones son de aplicación obligada. Un punto
por demás relevante es el relacionado con los recursos humanos especializados y con experiencia en estos temas, que permitan a las entidades involucradas en el proceso, llevar a cabo
las funciones que le corresponden de manera profesional, expedita y con calidad; es en este
sector donde se aprecia la importancia de la participación activa del sector educativo, tanto
en el proceso de enseñanza-aprendizaje como en la investigación y desarrollo tecnológico.
IPN
Donde la ciencia se convierte en cultura
3
www.smu.edu/smunews/_waka/images.asp
Fronteras
4
conversus
*Periodista científica de [email protected]
Traducción de José Luis Carrillo Aguado
Septiembre 2005
Víctimas de asesinato sugieren la fuerza femenina en culturas ancestrales
Cripta maya revela el
poder de la mujer
Alexandra Witze*
A
crueldad de dichas invasiones, pero los hallazgos en Waká son allgunos arqueólogos incursionaron en una cripta situada
gunos de los mejor documentados y más detallados.
en Guatemala que había permanecido sellada desde
tiempos remotos y se encontraron con una antigua esMUERTE DE GUERREROS
cena de asesinato. La tumba, situada en la arcaica ciudad de Waká, contiene los restos de dos mujeres, una de ellas emWaká alcanzó su cima hacia 400 y 800 años antes de Cristo; la
barazada, acomodados en un acoplamiento ritual.
tumba recién descubierta está fechada hacia el inicio de ese reinaLos investigadores indican que ambas mujeres, jóvenes y
do, entre 350 y 400 años antes de Cristo. Es al menos doscientos
saludables, fueron probablemente asesinadas en forma atroz coaños más vieja que la tumba de la reina encontrada en ese mismo
mo epílogo de un forcejeo entre ciudades mayas antagónicas.
lugar hace un año.
Y eso, explican, arroja nueva luz sobre el papel de la mujer en la
El estudiante graduado Michelle Rich descubrió la tumba a ficultura maya, que data de 1 600 años de antigüedad.
nales de abril mientras excavaba una de las tres pirámides situa“Esta tumba nos indica que la mujer era extremadamente
das en la montaña más alta de Waká. El ministro de cultura de
poderosa”, acota Dorie Reents-Budet, una especialista maya
Guatemala anunció el descubrimiento semanas después.
quien trabaja para el Instituto Smithsoniano de Carolina del
Dentro de la tumba, los cadáveres de ambas mujeres habían
Norte. “Cuando había desacuerdos políticos, las mujeres eran
sido preparados cuidadosamente. La embarazada fue colocada
asesinadas.”
boca abajo con la otra mujer encima, cara arriba. Ambas poseían
Waká, también conocida como El Perú, descansa sobre la
conchas y aretes arreglados cerca de sus cráneos, además de colocuenca del río San Pedro, a unos 60 Km al occidente del más
car espinas cerca de sus ingles, como un posible signo que fueron
famoso sitio de Tikal. En alguna ocasión considerado un sitio
veneradas al mismo nivel que los guerreros, declara Freidel. Las
menor del mundo maya, Waká ha emergido recientemente como
muertes podrían tener un significado político poderoso, asevera.
una prenda clave en la acendrada rivalidad entre las ciudades de
La tumba también contenía un conjunto de vasos de cerámica
Calakmul, al norte, y Tikal.
pintados profusamente. “Este es buen material”, exclama ReentsLa mujer probablemente jugó un papel importante en esas
Budet, al considerar estos elementos como el equivalente maya
batallas, reconoce David Freidel, un arqueólogo de la Universide loza actual.
dad Metodista del Sur, en Dallas,
Los artefactos y huesos han sido trasladaTexas, quien codirige las excavados al laboratorio del proyecto en la ciudad
ciones en Waká. Cuando un grupo
de Guatemala, donde podrán ser estudiados
maya conquistaba a otro, es probaposteriormente.
ble que no fuera suficiente con simplemente invadirlo y tomarlo.
Puede que haya sido una práctica
estándar dar muerte violenta a algunas mujeres de la élite.
“La usurpación del poder pudo
haber requerido la extinción ritual
y pública de la familia lineal inmediata” especula Freidel, quien administra el proyecto Waká junto
con el arqueólogo Héctor Escobedo
de la Universidad de San Carlos en
la ciudad de Guatemala.
La tumba recién descubierta data del inicio del reinado de
Los hallazgos en Waká son de los mejor documentados
Las excavaciones en otras tumWaká, hacia 400 años antes de Cristo
hasta ahora
bas mayas han apuntado hacia la
IPN
Donde la ciencia se convierte en cultura
5
La nueva Babel y los
ladrillos del Universo
Gerardo Herrera Corral*
www.tecnociencia.es/especiales/cern/img/lhc.jpg
C
uando el Universo cumplió 9 000 millones de años apareció
en la inmensidad una pequeña nube de polvo girando
alrededor de una recién nacida estrella. Golpeada por rocas
y meteoritos esta nube se compactó formando un planeta
tan caliente, el cual brillaba en el fondo oscuro que circundaba a la
más bella de las estrellas: el Sol.
Allí aparecieron plantas, animales y finalmente los seres humanos. Estos se preguntaron luego por el origen del Universo y
crearon mitos para explicar todo los que los rodeaba y para explicarse
a si mismos. Uno de los mitos más viejos y también uno de los más
bellos creados por el hombre para explicar su propia diversidad es el
de la Torre de Babel.
El libro del Génesis, capitulo 11, versículo 3 señala: “llegaron al
país de Senaar. Allí decidieron fabricar ladrillos cocidos que sustituyeran a las piedras y los emplearon para construir una torre que
llegara al cielo. Yahvé, viendo que el hombre prosperaba y que si les
permitía acabar esta obra podrían lograr todo lo que quisieran, decidió intervenir y confundió sus lenguas de tal manera que no se
entendían unos con otros y de este modo abandonaron el proyecto”.
El mito se remonta a los orígenes de la civilización. Hoy, 6 o 7 mil
años mas tarde, el hombre ha desarrollado un lenguaje común, el
lenguaje de la ciencia. Con esto, ha retomado la empresa y construye
hoy la nueva torre de Babel con la que espera alcanzar el cielo.
Esta torre es un acelerador de partículas con el que espera recrear
los primeros instantes del Universo, alcanzando no el firmamento
que nos muestra el Universo acabado de los astrónomos, sino más
allá de las galaxias, al cielo mismo.
Y es que para investigar el origen del Universo, se necesitan aceleradores de partículas, aparatos que permiten atrapar partículas
sub-atómicas, llevarlas a velocidades cercanas a la de la luz, hacerlas
colisionar y recrear así las condiciones en que se encontraba el Universo unos instantes después de la Gran Explosión. Resulta paradójico que para observar el cielo se requiera del uso de microscopios,
pero así es. Con el uso de telescopios uno puede observar el firmamento, pero no podrá jamás observar lo que ocurrió antes de los 300
mil años que transcurrieron secretamente después de la gran explosión. Existen razones físicas para que así sea. Cuando el Universo
*Gerardo Herrera Corral realizó sus estudios de doctorado en la Universidad Dortmund, Alemania, en la especialidad de física de altas energías. En la actualidad
es investigador titular del Departamento de Física del Centro de Investigación y de Estudios Avanzados (CINVESTAV) del Instituto Politécnico Nacional (IPN), especializado en física experimental de altas energías. El científico es parte del grupo mexicano que colabora estrechamente en el proyecto internacional ALICE.
6
conversus
Septiembre 2005
www.gridpp.ac.uk/pics/stand2004/lhc_cern.jpg
La densa niebla de radiación
que rebotaba una y otra vez en la
materia atrapada por esa impenetrable muralla de oscuridad, se hizo repentinamente transparente.
Ese momento fantástico del
Universo diáfano quedó marcado
por un eco que aun hoy podemos
percibir en lo que se conoce como
radiación de fondo, misma que lo
llena todo y cuya observación ha
sido la prueba más poderosa que
respalda la idea del origen como
una Gran Explosión.
La radiación más distante que
un telescopio puede detectar procede de la superficie última de
ese muro lóbrego, es la luz que escapó de la densa niebla en la alborada universal.
En cualquier dirección que se
enfoque un telescopio mirará
atrás en el tiempo hasta llegar a
Aspecto del gran colisionador de Hedronas (LHC, por sus siglas en inglés),
aparato que desentrañará los misterios del origen del Universo)
esa pared. Con estos dispositivos,
no podremos ver más atrás en el
surgió de la nada hace 13 700 millones de años las
tiempo porque el Universo estaba en tinieblas.
condiciones de densidad y temperatura eran exEl acelerador de partículas subterráneo que se
tremas. Cuando el Universo cumplió un segundo
construye en el Centro Europeo de Investigaciones
de vida, toda la anti-materia había desaparecido
Nucleares (CERN, por sus siglas en francés) podrá
y sólo quedaba un Universo de materia. La temver mucho más allá que cualquier telescopio. En el
peratura del Universo había descendido a 10 000
se recrearán las condiciones de la gran explosión.
millones de grados y los quarks comenzaron a
El Gran Colisionador de Hadrones (LHC, siagruparse para formar protones y neutrones que
glas en inglés de Large Hadron Collider) prehoy forman los núcleos de los átomos. Estos protende quitar el velo para mirar lo que ocurrió
tones y neutrones eran minoría en el Universo
unos instantes después del gran estallido.
joven, ya que los más numerosos eran los fotones
Con el uso de potentes microscopios construique forman la luz.
dos con la más avanzada tecnología, será posible
Al final de los primeros tres minutos, existían
examinar la materia en las condiciones extremas
en el Universo protones y neutrones que formade densidad y temperatura a las que se encontraban ya los ladrillos necesarios para dar origen a
ba justo después de la creación.
los primeros átomos.
Uno de estos microscopios es el detector ALICE
Sin embargo, no fue sino hasta 300 000 años
(ALarge Ion Collider Experiment) que toma su nommas tarde cuando aquella sopa opaca de materia
bre del cuento de Lewis Carroll, “Alicia en el país de
nuclear y radiación comenzó a clarificarse. En eslas maravillas”. Con este aparato los físicos entrarán
te momento la temperatura del Universo ya había
en el fantástico mundo del universo temprano.
descendido a 3 000 grados. Se formaron infinidad
Localizado 70 metros bajo tierra en Ginebra,
de átomos y los fotones dejaron de chocar con
Suiza, ALICE nos revelará los secretos del Univerelectrones libres que ahora estaban atrapados por
so invisible y representa la manera que los físicos
los núcleos atómicos y protones. Por esta razón
han encontrado para penetrar la barrera de oslos fotones pudieron viajar por el Universo y así,
curidad que limita a los astrónomos.
se hizo visible.
Como hicieran en el país de Senaar, los seres
El Universo temprano era pues una densa bohumanos de muchos lugares del mundo particila oscura de la cual la luz no podía escapar.
pan en la construcción de este observatorio. InsEse muro de sombra distingue hoy al Univertituciones de muchos países (México entre ellos)
so transparente en que vivimos de las tinieblas
han unido su talento para alcanzar los primeros
de su origen.
instantes de la Creación.
IPN
Donde la ciencia se convierte en cultura
7
Encuestas sobre política
científica en México y el mundo
José Luis Carrillo Aguado*
E
n los medios de comunicación mexicanos se dio a conocer el 30 de junio de 2005 una encuesta aplicada por la
Academia Mexicana de Ciencias a 4 mil científicos, donde los investigadores reprueban las medidas tomadas
por el Presidente Vicente Fox y el Consejo Nacional de Ciencia y
Tecnología. Según el sondeo, “poco o nada” ha hecho el gobierno por la investigación, de las 46 metas propuestas por los
responsables de la toma de decisiones en política científica, ni 10
de ellas se han alcanzado, y persiste la fuga de cerebros por falta de empleo. Según la versión de algunos de los científicos,
pareciera que “el enemigo se encuentra en casa”, refiriéndose al
propio CONACyT.
Pareciera que al gobierno no le interesa invertir en ciencia y
desarrollo, pero debería tomar sus previsiones al respecto si se
tiene en cuenta que este factor es esencial en materia de política
electoral, ya que representa una fuente inobjetable de votos entre el público. Lo anterior se pone en claro cuando la editorial de
SciDevNet (Science and Develpment Networks, página en línea
dedicada al Tercer Mundo de las revistas Science y Nature) explica que una encuesta de opinión levantada en Europa demuestra fehacientemente que el pueblo cree que ayudar a las naciones en desarrollo para que mejoren su nivel en ciencia y
tecnología es una prioridad social importante. Los líderes requieren escuchar.
Hay muchas razones para que los líderes políticos de naciones avanzadas e industrializadas incrementen su apoyo a los
países en vías de desarrollo en lo referente a ciencia y tecnología.
Ahora una nueva razón le da el triunfo a esta suerte: ¡Parece que
hay muchos votos en esta canasta!, manifiesta David Dickson,
editor en jefe de la publicación en línea mencionada.
Mientras los líderes se preparaban para su ronda de discusiones en Gleneagles, Escocia, ciudad donde se llevó a cabo la
reunión anual del grupo de los ocho (G-8), muchos de ellos seguramente calcularon las medidas a tomar para obtener una
Vicente Fox. Los políticos deben valorar
más el ejercicio de la
investigación
científica.
George W. Bush. Su
gobierno ha opuesto
mayor resistencia al
progreso científico que
el de cualquiera de sus
antecesores
retribución en votos para sus respectivas causas de regreso a
casa. Un sondeo de opinión llevado a cabo por la Comisión Europea sugiere que en al menos un rubro —el llamado para un
incremento substancial de los apoyos para ciencia y tecnología
en naciones en vías de desarrollo realizado en el reporte más reciente de la comisión africana— las razones son claras.
El sondeo, cuyos resultados fueron publicados por la comisión, reveló que más de la mitad de esa encuesta (53 por ciento) sentía que era “muy importante” que en un lapso de diez
años el mundo en vías de desarrollo fuese capaz de beneficiarse
de la ciencia y la tecnología (y un 38 por ciento extra señalaron
que era “regularmente importante”).
A esta meta se le otorgó una prioridad significativamente
mayor que a otras inequidades económicas en Europa, que a
otras minorías integradas, o al rubro “otras culturas” dentro de
la sociedad europea.
Estos resultados surgen en un momento crucial, por una variedad de razones: algunos resultados de campañas internacionales a favor de la reducción de la deuda, otras relativas al compromiso de la sequía o la guerra civil en África y otras sobre el
tema de la pobreza global que están altamente insertas en la conciencia del público.
Pero este no es el único valor de la encuesta. Una mirada cercana a sus resultados proporciona evidencias para argumentar
que los apoyos orientados a la ciencia y la tecnología no deberían
concentrarse sólo en modificar la agenda global de investigación
para aumentar su enfoque en los problemas que enfrentan las
naciones en desarrollo. Igualmente importante es la necesidad
de ayuda a que estos países se auxilien a sí mismos.
Estas encuestas deberían constituirse en mensajes para que
los líderes políticos tomen en cuenta sus decisiones relativas al
apoyo a la ciencia y tecnología, tanto en México como en Europa
y en el resto del mundo.
Bill Graham, primer
ministro de Canadá,
socio del Grupo de
los ocho, las siete
naciones más ricas del
mundo y Rusia
Tony Blair. Primer
ministro inglés. De su
decisión en apoyar la
ciencia del Tercer
Mundo penden
muchos votos para su
causa.
Wladimir Putin,
Presidente de la
Federación Rusa. Su
país es socio del
Grupo de los ocho
que se reunieron en
Gleneagles
*Periodista científico de Conversus
8
conversus
Septiembre 2005
OBSERVATORIO CIENTÍFICO
México a la vanguardia de la medicina genómica en América Latina
En marcha la secuenciación
del
genoma de los mexicanos
c o l u m n a s
Octavio Plaisant Zendejas*
E
n el 2006 los mexicanos tendremos los primeros resultados de nuestro
mapa genómico y sabremos con mayor precisión las características específicas de la estructura genética de la población mestiza, única por la
mezcla de más de 60 grupos indígenas con la sangre española. Se obtendrán
algunas pistas e información de la predisposición en la población a desarrollar enfermedades como diabetes, obesidad, males cardiacos, hipertensión
arterial y varios tipos de cánceres, entre otras, principales causas de muerte
en el país.
ADN
la molécula de la vida
Trillones de células
Cada célula:
• 46 cromosomas humanos
• 2 metros de ADN
• 3 mil millones de
subunidades de ADN (las bases:
A, T, C, G)
• Aproximadamente 30 000
genes codifican para proteínas
que realizan la mayoría de las
funciones vitales
célula
cromosomas
gen
ADN
proteína
*Periodista científico de Conversus
10
conversus
Septiembre 2005
El Instituto Nacional de Medicina Genómica (Inmegen) inició el proyecto del mapa genómico de la población mexicana, en
que se analizarán 500 mil variantes del genoma humano, en una
muestra de mestizos de distintas regiones de México, con tecnología de punta e infraestructura humana de primer nivel. El
Inmegen inició el proyecto con la toma de 180 muestras anónimas de sangre (la mayoría estudiantes y profesores) recolectadas
en el estado de Yucatán y Zacatecas posteriormente se recolectarán muestras en los estados de Sonora y Guerrero, cuya
información será muy útil para armar el “rompecabezas” de la
herencia genética de los mexicanos.
Durante la celebración del Primer Aniversario del Inmegen
en julio pasado se inauguraron tres unidades de alta tecnología:
las unidades de Secuenciación e identificación de polimorfismos, Genotipificación y análisis de expresión y Supercómputo
y tecnología de la información, en las que se invirtieron 2.5 millones de dólares. Dichas unidades reúnen por primera vez en
América Latina a tres de las compañías líderes en tecnología de
punta aplicada a la medicina genómica en el mundo: Applied
Biosytems, Affymetrix e IBM. Las tecnologías desarrolladas por
dichas compañías han contribuido en gran medida al análisis del
genoma humano.
La Unidad de Secuenciación e identificación de polimorfismos cuenta con el soporte tecnológico de Applied Biosytems,
que permitirá el análisis de la expresión de genes, la detección y
descubrimiento de nuevas mutaciones genéticas, polimorfismos
(cambios en la estructura de los genes) y su asociación con algunas enfermedades e identificación de variaciones propias de la
población mexicana. Cabe destacar que unos de los puntos clave
en el conocimiento de enfermedades de origen genético es la
identificación del gen o genes que ocasionan la enfermedad y la
comprensión de su funcionamiento, secuencia (el orden y el número de bases que lo componen), los aminoácidos que se ensamblan y la proteína que dan origen.
Las modificaciones genéticas que se presentan en los seres
vivos y que tienen relación estrecha con algunos tipos de cáncer
y padecimientos genéticos son ocasionadas por la mutación de
una base de la secuencia genética conocida como polimorfismo
de un solo nucleótido1.
La Unidad de Secuenciación e identificación de polimorfismos cuenta con equipo en el que se puede secuenciar hasta
2,100,000 bases o la capacidad de generar hasta 92,000 genotipos
diarios.
La Unidad de Genotipificación y análisis de expresión
está equipada con la plataforma de Affymetrix que será
de utilidad para realizar de experimentos de última generación
de microarreglos genómicos o chips genómicos para la detección
de enfermedades de origen genético y de expresión disponibles
a escala mundial para el estudio de RNA en humanos, rata y
ratón. La Unidad cuenta con chips para análisis en ADN con capacidad de analizar 10,000, 50,000, 100,000 y hasta 500,000
variaciones sobre el genoma humano en muestras individuales.
Esta capacidad permite realizar estudios en poblaciones de ligamiento o de asociación entre enfermedades y variaciones
genómicas específicas, así como de alteraciones en ADN que generan enfermedades neoplásticas (cáncer).
La Unidad de Supercómputo y tecnología de la información
está equipada con una supercomputadora desarrollada por la empresa estadounidense IBM, capaz de realizar medio trillón de operaciones de punto flotante por segundo, lo que lo ubica como uno
de los sistemas de computo más poderosos de América Latina.
Los estudios de genotipificación y expresión genómica generan diariamente una gran cantidad de datos e información para
cuyo análisis la bioinformática ha desarrollado una serie de herramientas. La bioinformática es una disciplina científica que
surgió la década de los noventa del siglo pasado y en la que confluyen disciplinas tales como la biología, la informática, las
matemáticas y la tecnología de la información. La bioinformática abarca todos los aspectos relacionados a la adquisición,
procesamiento, almacenamiento, distribución, análisis e interpretación de datos e información biológica por medio de
métodos y herramientas informáticas. La bioinformática se ha
convertido en una herramienta imprescindible y poderosa para
el análisis de poblaciones o la comparación de resultados con
grandes bases de datos; por ejemplo, el GenBank con sede en el
National Center for Biotechnology Information (NCBI), en los Estados Unidos; el European Bioinformatics Institute, en Gran
Bretaña; el National Institute of Genetics, en Japón.
Cabe destacar que la Unidad de Supercómputo y tecnología
de la información desarrolla un portal electrónico de bioinformática en que los investigadores podrán acceder de forma gratuita para la búsqueda de información relacionada con genes o
polimorfismos asociados a las enfermedades de interés especifico.
El proyecto del mapa genómico de la población mexicana
tiene gran relevancia para la ciencia latinoamericana debido a
que es el único proyecto científico que pretende analizar la identificación de genes asociados a enfermedades en poblaciones
mestizas hispanoamericanas. El proyecto mundial Hapmap
tiene como objetivo conocer las características del genoma de las
poblaciones nativas africana, europea y asiática; sin embargo,
América Latina quedó fuera del proyecto. El Hapmap arrancó
en 2002 e integra grupos de investigación de Japón, Gran Bretaña, Canadá, China, Estados Unidos y Nigeria.
El proyecto del mapa genómico de los mestizos mexicanos es
nuestra entrada a la medicina genómica mundial que permitirá
una medicina más individualiza y predictiva. Enhorabuena por
este valioso avance de la ciencia nacional.
REFERENCIAS
1Loaiza Escutia Claudia, “Chips de ADN para la detección de enfer-
medades de origen genético”, Conversus, número 20, 2003
IPN
Donde la ciencia se convierte en cultura
11
Investigación Hoy
Ciudad
SUSTENTABLE
Dinora Obregón Velasco,*
Alejandro Valentino**
y Silvia Norzagaray.*
* Centro Interdisciplinario de Investigaciones en Medio Ambiente y Desarrollo Integrado.
**Unidad Profesional Interdisciplinaria en Ingeniería y Tecnologías Avanzadas.
<[email protected][email protected]>
12
conversus
Septiembre 2005
E
l Desarrollo sustentable surge prácticamente
de manera espontánea como una respuesta
ineludible a los grandes problemas que enfrenta la humanidad a finales del siglo XX.11
De acuerdo con el centro para nuestro futuro
común, el mundo ha de hacer frente a la
agudización del hambre, la pobreza, la enfermedad,
el analfabetismo, el calentamiento global, la deforestación, la desertificación, la contaminación del
suelo, agua y aire, el crecimiento desordenado y
masivo de grandes urbes, así como el incesante deterioro de los ecosistemas de los que depende
nuestro bienestar. Y es así como la evidente disparidad entre pobres y ricos se acentúa10.
El desarrollo sustentable está basado en la diversidad social, en la diversidad cultural y en la
diversidad biológica y aunque muchos insisten en
decir que es una moda, otros consideramos, que ya
no se puede hablar de esta forma; el desarrollo sustentable tiene que ser una realidad, donde lo
prudente es aplicar su concepto en todos los sectores tanto en el campo como en las ciudades.
IPN
Donde la ciencia se convierte en cultura
13
Podemos distinguir cuatro tipos de
desarrollo de concentración urbana:
América Latina es una región con
abundates recursos naturales y gran
biodiversidad sin embargo tiene 240
mmillones de habitantes en extrema
pobreza
El modelo económico en
América Latina esta fundamentado en la explotación
intensiva de los recursos
naturales
• El europeo, en
el que el movimiento es precoz, moderado en relación con
el desarrollo general
de la población y
tiende a
estabilizarse.
• El de los países poblados por
europeos pero situados fuera de Europa y que alcanzaron
un desarrollo gigantesco (Estados
Unidos).
• El que en su
momento se denominó como soviético,
de expansión moderada en correspondencia con el desarrollo económico.
• El de los países
subdesarrollados o en
vía de desarrollo, en
donde se ubica el
caso de México, en
los que después de
un estancamiento, la
población urbana
crece bruscamente2.
El desarrollo sustentable es la capacidad de una sociedad o sistema para seguir funcionando indefinidamente en el futuro, sin ser
forzado a declinar por el agotamiento o sobrecarga de los recursos
fundamentales de los cuales este sistema depende; entonces se
tiene que reconocer que la sostenibilidad ó sustentabilidad implica
patrones de desarrollo y estilos de vida que permitan resolver las
necesidades de las actuales generaciones, sin comprometer la posibilidad de que las próximas puedan también satisfacer las suyas,
incluso aquellas necesidades que aun hoy son desconocidas5.
Las ciudades forman parte del medio ambiente construido y
creado por el hombre, y como tal, interactúan con el medio ambiente natural. Se debe buscar el equilibrio entre naturaleza y sociedad, sin embargo, la tierra entera se cubre de ciudades destruyendo en muchas ocasiones, las mejores tierras para el cultivo y
conservación de los ecosistemas naturales4.
El crecimiento de las ciudades cada vez es mayor, se calcula
que el ritmo al que se incrementa la población de las ciudades en
todo el mundo es de 2.5 por ciento anual y de este, el 90 por ciento ocurre en los países pobres en donde se considera un crecimiento del 3.5 por ciento anual12.
Mientras que el crecimiento de las ciudades ricas se duplica, el
de las ciudades pobres experimenta un aumento de seis veces. Hoy
mismo, la ciudad de México, con sus 25 millones de habitantes, es
la más grande del mundo.
Por otra parte este rápido crecimiento urbano ha generado disminución de la percepción respecto al valor de la vida rural. Esta
situación conduce al agotamiento de recursos y a la contaminación
ambiental que caracterizan las crisis del mundo actual.
Cuando las necesidades del ecosistema urbano, sobrepasen las
posibilidades de su territorio de influencia para reproducir los recursos y reciclar los desechos, es imperativo reflexionar y
considerar un cambio en el estilo de vida llevado hasta el momento y por tanto replantear el modelo productivo vigente hasta
¿QUÉ ES UNA CIUDAD?
El hombre es un ser gregario y a través de su historia buscó congregarse en comunidades o centros poblacionales, que guardan
cierto orden o arreglo espacial y que se encuentran inmersos en un
determinado ecosistema.
A las ciudades se les define como ecosistemas construidos, ecosistemas humanos o ecosistemas artificiales donde se ha hecho
despliegue de los avances tecnológicos mas vanguardistas1, conformados por carreteras, aeropuertos, represas y otras construcciones, incluyendo parques, jardines y campos deportivos.
La palabra ciudad viene del vocablo civitas, término reservado
a poblaciones grandes que gozarán de mayores preeminencias que
las villas, por lo que actualmente se define a la ciudad como un
centro, relativamente permanente y muy organizado, que cuenta
con una gran población. En este mismo sentido, todo lo urbano es
perteneciente a la ciudad1
Una ciudad también hace referencia al sistema conformado por
una concentración masiva de conjuntos de casas y edificios, separados y a la vez comunicados, por calles, parques y plazas, cuyos
habitantes se dedican a diversas actividades económicas, profesionales y laborales; excepto la agricultura y la ganadería, por lo
que, en este aspecto, debe abastecerse del exterior (exceptuando a
las agrociudades). También se consideran centros de comercio,
nuestros días[2,12].
agrícolas”7.
14
conversus
Septiembre 2005
pluriculturalidad y poderío político y económico7.
Más recientemente se han integrado además de los criterios arquitectónicos, los criterios numéricos y de disponibilidad de
servicios, tales como agua, drenaje, alumbrado y sobre todo la densidad demográfica9.
El Centro de Investigaciones Urbanas de la Universidad de
California define a las áreas metropolitanas como: “El agrupamiento de 100 000 habitantes como mínimo y que se encuentra
colindando con otro centro conurbano de por lo menos 50 000 y
donde más del 65 por ciento de la población ejerce actividades no
Es pertinente aclarar que el fenómeno urbano está sujeto a
renovación, por lo que su definición puede variar de país a país
y de época a época.
DIFICULTADES AMBIENTALES DE LA CIUDAD
A finales del siglo XX, el crecimiento poblacional se vio acompañado por un incremento de la pobreza. Además de un 90 por
ciento de crecimiento urbano en los países subdesarrollados. El 90
por ciento de este último se dio en ciudades ya sobrecargadas12.
Las migraciones del campo a la ciudad se originan fundamentalmente al interior de las naciones por causas económicas,
por lo que este fenómeno debería constituir un factor decisivo
para el trazado de las grandes urbes e incidir notablemente en la
forma en que la humanidad hace uso de su patrimonio6.
Últimamente se están presentando migraciones de “refugiados ecológicos”, que abandonan aquellos ecosistemas que han
dejado de funcionar en busca de mejores lugares en los cuales establecerse4.
Por otra parte el modelo económico minimiza el rol del campo y favorece el empobrecimiento de las pequeñas unidades
productivas familiares, cooperativas y asociaciones mini empresariales, al priorizar monocultivos extensivos con insumos
biotecnológicos, que reducen las necesidades de incorporar trabajo humano colectivo, obligando a estas personas a refugiarse
en la agricultura de subsistencia, la cual finalmente se vuelve inviable, dándose la migración de este sector a las grandes urbes,
en donde construyen otros sistemas urbanos, que representan
un territorio sucio y miserable que resulta mucho más agresivo
que el medio natural del que provienen. Este hecho fundamenta
el supuesto de que todo medio natural es mejor que uno artificial.
La actual situación está conduciendo a que muchas ciudades
puedan ser calificadas como ecosistemas degradados, ya que en
éstas se ha reducido la biodiversidad y la productividad
natural, además de contar
con una densidad demográfica desorbitada, situación que trae consigo
una problemática ambiental compleja, de tal
modo que resulta poco probable que puedan recu-
perarse sino se adoptan medidas de rehabilitación o restauración
permanentes o sustentables.El impacto ecológico de las ciudades
se percibe local y globalmente en problemas como aumento de
población, contaminación del aire y agua, precipitación de lluvia
ácida y reducción de la capa de ozono, así como en el efecto invernadero y el cambio climático global. Otra característica son
los conflictos sociales, tales como pobreza, desempleo, falta de
vivienda, asentamientos humanos irregulares, migraciones
masivas del campo a la ciudad, consumismo desenfrenado,
generación de residuos contaminantes al aire, agua y suelo;
proliferación de especies plaga, aspectos que se traducen
en decremento en la calidad de vida y deterioro de la salud
humana [5, 6 y 12].
Por otro lado, una parte cada vez mayor de la población reside lejos de los núcleos urbanos habituales, las aglomeraciones
suburbanas acusan con el tiempo una tasa de dispersión cada
vez mayor, sobreponiéndose formas de agresión, tales como un
mayor número de indigentes, adicciones y prácticas ética y
moralmente cuestionables que van generando el sentimiento de
que todo es calamidad y es producto de la fatalidad13.
De este modo, el movimiento de urbanización crece sin cesar.
¿QUÉ ES UNA CIUDAD SUSTENTABLE?
Según Hardoy (1992), la ciudad sustentable tiene su base en lo
que se ha denominado la profunda transformación ética para
reorientar el modelo actual de desarrollo1.
Se debe visualizar la minimización de la utilización de los recursos naturales, para que esta sea sustentable y así poderla
mantener dentro de los límites de la capacidad de absorción local y mundial de desechos, contemplando la satisfacción de las
necesidades humanas básicas actuales y a futuro13.
Aunado a lo anterior debe considerarse la construcción de
centros de población cada vez mejores, con una economía basada en los principios de equidad, justicia y solidaridad social y un
medio ambiente sano [4, 5].
A. Serrano (1994) señala que para que una ciudad sea sustentable, es necesario transformar el modelo de
desarrollo, lo cual implica un replanteamiento
ético–filosófico que nos conduzca a entender que necesitamos moderarnos y ser
capaces de recircular la mayoría de
lo que producimos y desechamos,
implementando sistemas de reutilización y reciclaje, contribuyendo así a tener ciudades más
limpias y equilibradas en lo que
se refiere al medio ambiente2.
América Latina y el Caribe conforman una de las regiones en el mundo con mayor urbanización, más del 75
por ciento de la población vive en las ciudades
IPN
Donde la ciencia se convierte en cultura
15
En la medida en que se encuentren y apliquen soluciones
basadas en sistemas de recirculación para el agua, la basura, la
energía y los alimentos, nos acercaremos cada vez más a un desarrollo sustentable de las ciudades, con un mejor uso de los
abundantes recursos humanos, los preciosos recursos naturales
y los escasos recursos financieros1.
Otro aspecto a considerar es la escala y dimensiones de los
asentamientos urbanos que influyen en la posibilidad de un mayor o menor acercamiento a una solución sustentable. Si se descomponen problemas grandes en varios pequeños, que resulten
más “manejables”, será más fácil enfrentar su solución. Por tanto,
las ciudades sustentables pudieran estar estructuradas en sistemas parciales, con el mayor grado posible de autonomía 2.
Un aspecto del planeamiento urbano que guarda una relación directa con el desarrollo sustentable es el aprovechamiento del suelo como recurso prácticamente no renovable,
pues una vez que se construye sobre él, tardará mucho en ser
usado nuevamente, hecho que depende de la vida útil de la
edificación8.
El suelo es un recurso natural de gran importancia en la producción de alimentos. El uso racional del suelo urbano evita el
crecimiento excesivo de las ciudades que ocupan terrenos que
podrían ser útiles para producir alimentos, reduciendo a la vez
las distancias en la transportación de las personas [6, 9].
Los países que han tenido históricamente una posición destacada en la preocupación por la preservación del medio ambiente, de manera general, proponen hoy como principio indiscutible para la sustentabilidad urbana, el incremento de la
densidad de uso del suelo, aprovechando sobre todo las áreas
urbanas ya existentes5.
El acceso al suelo es hoy un factor decisivo para resolver el
problema de la vivienda en los sectores poblacionales de más bajos ingresos en los países en desarrollo3.
Las tipologías arquitectónicas y urbanas que están en correspondencia con los sistemas de gestión y las soluciones constructivas
empleadas en esos casos, generan en las ciudades del tercer mundo
desarrollos urbanos marginales periféricos de muy pobre espacio7.
De acuerdo al Programa de las Naciones Unidas para el Medio Ambiente (PNUMA)
São Paulo, ciudad de México, Buenos Aires y Santiago son consideradas megaciudades
Las áreas verdes urbanas desempeñan múltiples funciones
de saneamiento ambiental: producción de oxígeno, filtro para la
contaminación, barrera contra ruidos, etc. También en climas
cálidos como el nuestro, el efecto de la “sombra viva” es insuperable y contribuye notablemente a la reducción de la temperatura en espacios exteriores, contrarrestando el efecto de la “isla de calor urbana”8.
Una función de las áreas verdes urbanas, que está siendo
revalorizada, es la producción de alimentos. Conceptos como la
“agricultura urbana” o el “paisaje comestible” resultan cada vez
más comunes2.
La producción de “alimentos sanos” en las áreas urbanas,
mediante el empleo de técnicas “tradicionales o ecotécnias”, elimina la dependencia de la ciudad con respecto al campo y reduce los costos de transportación, a la vez que permite aprovechar espacios verdes urbanos para múltiples funciones2.
La planeación de las ciudades también desempeña un papel
decisivo en la reducción de las necesidades de transportación,
tanto de personas como de productos. El crecimiento excesivo de
las ciudades, la zonificación de funciones, la aparición de “ciudades satélites” o “ciudades dormitorio” han ocasionado consecuencias negativas13.
Otro aspecto importante en la sustentabilidad de las ciudades se relaciona, por tanto, con garantizar un buen sistema de
transporte público, sano, seguro y eficiente, que resulte competitivo ante el automóvil como medio de transporte individual.
No obstante, también deben encontrarse vías para producir vehículos ecológicos, es decir, menos contaminantes y que funcionen con energías renovables, tal vez para cortas distancias o de
forma combinada con otros medios, como el tren ligero y el
metro7.
TENDENCIAS ACTUALES
Las tendencias en este sentido en los países desarrollados se dirigen en la actualidad a incrementar la capacidad de los medios de
transporte disponibles, particularmente los de pasajeros. Buscar
otras fuentes de energía para sustituir los combustibles fósiles,
16
conversus
Septiembre 2005
La imagen muestra la ciudad de Barcelona donde se observa la planeación urbana logrando una armonía entre el ambiente natural y lo creado partiendo del
principio sustentabilidad, por lo que se le cataloga entre una de las ciudades
sustentables a nivel mundial
tal es el caso del etanol o los autobuses y carros eléctricos, así como combinar estos medios de transporte con bicicletas en áreas
centrales[8, 13].
La seguridad del tráfico urbano es otra importante línea de
trabajo encaminada a reducir velocidades, construir calles, carreteras, vehículos y equipamiento más seguros[7, 8].
Para largas distancias es el transporte eléctrico definitivamente el más apropiado de los conocidos hasta el momento. Las
prospecciones indican que puede extenderse la red del metro y
tren ligero para ayudar a sustituir parte del transporte de pasajeros que emplean microbuses y taxis8.
Debe evitarse el incremento de las temperaturas en el clima
urbano y con ello, de la isla de calor en diferentes regiones de la
ciudad. En ello las dimensiones, proporciones y presencia de
áreas verdes para la protección solar en los espacios urbanos
abiertos resulta de gran importancia. Así mismo, influyen las
secciones de las vías de comunicación, su orientación respecto al
viento puede ayudar a contrarrestar el exceso de Sol7.
Los acabados (materiales y colores) de las superficies de
pavimentos y paredes de edificios con su absorbencia y emisivi-
La imagen muestra la Catedral de San José en la Ciudad de Morelia y la pluriculturalidad que se puede observar en las ciudades de países latinoamericanos en este caso México, Michoacán, y que sin tener una estructura
vertical sigue siendo armónico al paisaje y por ende sustentable.
dad, también influyen en las temperaturas de los espacios exteriores urbanos8.
Otro importante recurso que se consume en las ciudades es
el agua. Deben emplearse formas de abasto y bombeo, así como
de aprovechamiento por gravedad o escurrimiento; verificación
de la calidad y saneamiento de las fuentes de agua, pues es uno
de los recursos que más influyen en la excelencia de vida de los
habitantes, así como en el mantenimiento del resto de los recursos y satisfactores humanos.
Por otra parte, el agua es un preciado recurso que puede ser
reciclado o reusado, tanto a escala de los edificios o de conjuntos,
como a escala de ciudad. El aprovechamiento del agua pluvial es
también una forma de ahorrarla, sobre todo en lugares donde la
lluvia es abundante y la disponibilidad de agua potable es insuficiente9.
La evacuación y tratamiento de los residuos urbanos es otro
factor de vital importancia en el desarrollo urbano sustentable.
El reciclaje de todos los desechos posibles minimiza la cantidad de residuos que se incorporan al medio ambiente y con ello
su contaminación, así como la cantidad de recursos y materias
primas nuevas requeridas por la población.
Para ello, es imprescindible la recolección separada de los
desechos sólidos y líquidos, orgánicos e inorgánicos, de forma
clasificada7.
Los residuos sólidos orgánicos pueden ser tratados para producir composta (un abono orgánico de excelente calidad), o en
biodigestores para obtener biogás (gas combustible) y abono.
Los residuos inorgánicos (vidrio, papel, cartón, metales) pueden
ser reciclados como materia prima en la producción de nuevos
productos8.
Un punto indispensable a considerar en el establecimiento de
una ciudad sustentable es la participación social en los procesos
de gestión urbana, además de ser una condición esencial en estos procesos de desarrollo. Cualquier proceso sustentable ha de
desarrollarse de abajo hacia arriba y de adentro hacia afuera,
debe ser específico y descentralizado, por lo que la formación en
educación ambiental debe ser permanente y dirigida a todos los
sectores de la sociedad5.
Por último, las tecnologías y los materiales de construcción
empleados en la edificación de los inmuebles que conforman la
ciudad, influyen considerablemente en su sustentabilidad, por lo
que deben considerarse materiales propios de la región, que sean
abundantes, económicos y térmicos. Por poner un ejemplo construir con adobe o bambú7.
Agenda 21 apoya el desarrollo sostenible de los asentamientos humanos y por tanto de las ciudades a través de su capitulo
siete3.
BIBLIOGRAFÍA
1COZZI VIRGILIO Segundo Seminario Latinoamericano de medio
Ambiente. Ciudad y Calidad de vida. Ciudades actuales: ¿Es posible el Desarrollo Urbano Sustentable?. Santiago de Chile.
Documento de apoyo. pp. 1-56. 2000.
2PALOMO ARMANDO. Ciudades Verdes y Sustentables. Fundación
Friedrich Ebert. Saldebas. México, pp. 1-37, 1997.
IPN
Donde la ciencia se convierte en cultura
17
El proceso de urbanización acelerado, es decir,
el rápido crecimiento de las ciudades especialmente en los países pobres, tiene muchos
efectos negativos sobre la vida en estas aglomeraciones y en general, sobre el conjunto
mundial.
Los países ricos imponen una fuerte carga
al ecosistema mundial y los países pobres se
rigen por un sistema económico que no responde a las necesidades para solucionar su
problemática socioeconómica y ambiental.
Es entonces cuando se plantea considerar
lineamientos que ayuden a establecer ciudades
sustentables y un cambio de estilo de vida y
modelo de desarrollo.
La Agenda 21 en su capítulo 7, establece
que las condiciones de los asentamientos humanos en los países en vías de desarrollo, se
están deteriorando debido a los bajos niveles
de inversión. Por esta razón, se propone subsanar
los siguientes puntos:[3, 14]
• Proporcionar vivienda adecuada para todos, ya
que en la actualidad, a nivel mundial, hay más de
mil millones de personas sin hogar.
• Mejorar la administración de los asentamientos
humanos.
• Promover la planificación y ordenamiento sustentable del uso del suelo y por ende de los recursos
de la región.
• Promover la infraestructura ambiental: en
agua, drenaje y gestión de desechos sólidos.
• Promoción de los sistemas sustentables de
energía y transporte en los asentamientos humanos.
• Fomentar actividades sostenibles en la industria de la construcción.
Además, este nuevo concepto de ciudad implica:
• Reorientar los estilos de desarrollo.
• Un proceso de descentralización fundado en la
construcción de nuevas formas productivas.
• Redefinir las relaciones urbano-regionales.
• Y, sobre todo, concientizar a todos los humanos
acerca de lo importante que es buscar un cambio de
actitud a través del conocimiento de la relación sociedad–naturaleza, que nos oriente a la realización
de acciones más equilibradas con respecto al
aprovechamiento de los recursos naturales, así como a relacionarnos con equidad respecto a nuestros
congéneres. Quizá solo así se establecerán ciudades
sustentables, dando paso a la bien nombrada sustentabilidad urbana.
18
conversus
Septiembre 2005
Pittsburg es un ejemplo de Ciudad sustentable en el continente Americano donde se
subraya la planeación y el mantenimiento de la armonía entre el medio ambiente y las
construcciones, se subraya las vías de comunicación, su limpieza y la forma vertical de
las construcciones y su orientación con la puesta y salida del sol.
3Declaración de Río, Agenda 21. Acuerdos y Convenciones Organización de las Naciones Unidas. SEDESOL. México, 1993.
4MOSS MYRNA HERNÁNDEZ; et al. Key concepts in sustainable developmente. Research Regional Institute. pp. 1-35. 2000.
5Comisión Económica para América Latina–Programa de Naciones Unidas para el medio Ambiente. Sostenibilidad del
desarrollo en América Latina y el Caribe. Desafíos y oportunidades. 2001.
6URQUIDI L. VÍCTOR. Globalización Medio ambiente y desarrollo
sostenible en América Latina. 1986.
7MICHAEL KEATING. Centro para Nuestro Futuro Común. Cumbre de la Tierra. Programa del Cambio Climático, Ginebra,
Suiza. 1993.
8OLGUÍN E. PÉREZ. et al. Desarrollo Sustentable. Retos y prioridades. INE. Xalapa, Veracruz. 2000.
9Ludevid Anglada Manuel. El Cambio global en el medio ambiente. Introducción a sus causa humanas. Alfa omega.
Marcombo. España, pp. 116-140. 1998.
10RUEDA PALENZUELA SALVADOR. Modelos e Indicadores para ciudades sostenibles. Taller sobre indicadores de Huella y calidad
ambiental urbana. Departamento del Medio Ambiente. Agencia
Europea del Medio Ambiente. Generalitat de Catalunya, pp. 730. 2001.
11Programa de las Naciones Unidas para el Desarrollo (PNUD).
Informe sobre desarrollo humano. Tercer Mundo. Santa Fé Bogotá. PNUMA, 1990.
<“http://www.taller.org.ar/ciudades/agenda21.pdf”
<“http://www.cubasolar.cu/biblioteca/energia/Energia10/H
TML/articulo06.htaml.15k”
< h t t p : / / w w w. c i e p f a . p o s g r a d o . u n a m . m x / N AV I S O 407.html.21k.>
sísmica,
Ingeniería
prevención
de un desastre natural
José Luis Carrillo Aguado*
ace veinte años México sufrió una de las mayores sacudidas en la historia del país,
no sólo física, sino también política y social. Los sismos del 19 y 20 de septiembre
de 1985 cambiaron la faz de la nación; en unos cuantos días, los sobrevivientes nos
convertimos en otra clase de ciudadanos: tal vez más solidarios, más conscientes,
más humanos. Pero el miedo persiste: ¿Qué tan probable es que vuelva a ocurrir un escenario semejante? ¿Qué hemos aprendido de la desgracia para evitar que ocurra algo similar
ante un desastre natural equivalente? ¿Qué desarrollos ha aportado la ingeniería mexicana?
H
*Periodista científico de Conversus
20
conversus
Septiembre 2005
El doctor Carlos Valdés, investigador
del Centro Nacional de Prevención de Desastres (Cenapred), informó durante una
presentación en febrero de 2005, en un hotel de la ciudad de México, que los sismos
representan un proceso natural, que indican que la Tierra es un planeta vivo. Los
sismos ocurren principalmente en regiones geográficas bien identificadas y se
producen debido al calor interno de la
Tierra, que provoca el movimiento de las
placas tectónicas en la superficie.
Los sismos ocurren
no sólo en México,
sino en muchas
regiones geográficas bien
identificadas
Distrito Federal se dan dos sismos de esta
envergadura por siglo, acotó el investigador emérito del Departamento de Sismología de esta instancia académica (ver
“Los sismos de 1985, una lección para no
olvidar”, de José Luis Carrillo Aguado, en
Conversus No. 14, septiembre de 2002).
Los sismos del 19 y 20 de septiembre de 1985 sacudieron a Mexico
Frecuencia mundial de ocurrencias de sismos
Magnitud
9+
8+
7-7.9
6-6-9
5-5.9
4-4.9
3-3.9
Promedio Anual
5 en 100 años
1
18
120
800
6 200
49 000
(Fuente: Cenapred, 2005)
Los terremotos son siniestros que acarrean pérdidas
personales, económicas y sociales
Equivalencia en energía liberada
Magnitud
5
7
8
Bombas nucleares
tipo Hiroshima
Sismos
1
Magnitud 5
~ 1 000
~32 000
Tehuacan 1999
México 1985
(Fuente: Cenapred, 2005)
México está situado en una de las regiones sísmicas más activas del hemisferio occidental, sobre dos grandes placas
tectónicas: la placa de Cocos, que se somete entre cuatro y ocho centímetros al
año por debajo de la placa norteamericana;
ambas ubicadas a ochenta kilómetros de la
costa occidental del territorio mexicano,
frente al Océano Pacífico (ver “Tsunamis:
un riesgo latente en las costas del Pacífico
mexicano”, de Octavio Plaisant Zendejas,
en Conversus No. 39, abril de 2005).
La posibilidad de que ocurra un sismo
semejante al de 1985 es del 100 por ciento,
según el doctor Cinna Lomnitz, científico
del Instituto de Geología de la UNAM,
quien manifestó el deseo de que cuando
eso ocurra, la vulnerabilidad de los edificios sea mucho menor. En promedio, en el
ARQUITECTO MEXICANO PATENTA INVENTOS
A partir de 1985, la ingeniería mexicana
ha desarrollado una nueva disciplina, la
ingeniería sísmica, cuyo objetivo es prevenir fallas estructurales que pudieran
devenir en desastres mayores. En ese sentido, cabe destacar la labor del arquitecto
Luis Carrillo Gutiérrez, quien, movido
por esa preocupación, ha patentado ocho
inventos, registrados ante la entonces Secretaría de Comercio y Fomento Industrial (Secofi), hoy Secretaría de Economía,
que procuran eliminar el problema del
movimiento en edificios. (Ver cuadro 1).
El enfoque que ha abordado es el aislamiento sísmico en edificios, tecnología
que consiste en desacoplar o aislar la es-
tructura de su base o cimentación, reduciendo así en forma importante el movimiento que es transmitido al edificio. El
aislamiento sísmico provoca que el edificio se comporte como si el sismo fuera de
menor magnitud en dos o más grados en
la escala de Richter. Una analogía apropiada sería la relación entre los automóviles y sus sistemas de suspensión, en
donde los resortes y amortiguadores protegen a los ocupantes del automóvil de un
recorrido con mucho brinqueteo.
Este enfoque está basado en las ideas
del ingeniero Manuel González Flores,
ex-docente de la Escuela Superior de Ingeniería y Arquitectura (ESIA) del IPN,
quien construyó hace 25 años dos edificios que gravitan sobre balines de 3/8 de
pulgada, cada uno de los cuales soporta
150 Kg. Estas edificaciones soportaron incólumemente las sacudidas de los terremotos de septiembre de 1985.
El arquitecto Carrillo Gutiérrez va a
presentar dos de sus desarrollos en el próximo Congreso Nacional de Ingeniería
Sísmica: uno, basado en columnas flexibles de acero-polietileno-caucho y otro
invento denominado suspensión neumática; en ese mismo trabajo hace la comparación entre ambos sistemas de aislamiento sísmico.
COLUMNAS FLEXIBLES
En el artículo que presentó el arquitecto
Carrillo Gutiérrez para su evaluación
ante el XV Congreso Nacional de Ingeniería Sísmica a celebrarse en México
durante septiembre de 2005, presentó mejoras a un invento que ha trabajado durante más de 17 años, basado en un sistema de aislamiento sísmico instalado en
la base del edificio, que consiste en sustituir todas las columnas y apoyos
tradicionales, solamente en el nivel directamente sobre la cimentación, por columnas flexibles hechas con acero, polietileno
y caucho.
El sistema consiste en el uso de aisladores hechos a base de capas de hule y
acero con corazón de plomo. Estos aisladores, al ser colocados entre la parte
inferior de cada columna y la cimentación
del edificio, disipan la energía que es impartida por el sismo al edificio.
El sistema se aplica a un hotel, que por
ubicarse en una zona de alta sismicidad,
busca tener como valor agregado un sis-
IPN
Donde la ciencia se convierte en cultura
21
Cuadro 1. Patentes del arquitecto Luis Carrillo Gutiérrez*
Invento registrado
Fecha de la solicitud
Estructuración de sótano flexible con multicolumnas
11 de agosto de 1988
Estructuración de sótano amortiguador con policolumnas
17 de agosto de 1988
Disipadores de energía sísmica en edificios con columnas
8 de octubre de 1990
flexibles en el sótano
Cilindros neumáticos de amortiguamiento sísmico en edi-
5 de noviembre de 1990
ficios con sótano flexible
Disipadores de energía sísmica a base de placas paralelas traslapadas en edificios con sótano o cajón de cimen-
5 de noviembre de 1990
tación flexible en el plano horizontal
Muros no estructurales suspendidos en edificios con mar-
5 de noviembre de 1990
cos flexibles
Suspensión hidráulica de aislamiento sísmico para
12 de noviembre de 1990
edificios
Suspensión neumática de aislamiento sísmico en edificios
27 de noviembre de 1990
*Registradas ante la entonces Secretaría de Comercio y Fomento Industrial (Secofi).
tema que proporcione a sus huéspedes,
no solamente seguridad en los eventos
sísmicos, sino además tranquilidad en todo momento.
Se diseñaron las columnas flexibles de
acero, polietileno y caucho, para el segundo sótano de un hotel localizado en Tecoman, Colima. Todos los apoyos del
segundo sótano serán columnas flexibles.
Los entrepisos de los sótanos estarán separados de los muros perimetrales. Los
elevadores y las escaleras en el segundo
sótano estarán articulados o separados de
la cimentación. Todas las líneas o ductos
de instalaciones entre el terreno y el edifi-
cio, serán flexibles o estarán
diseñados para tolerar los
movimientos entre el suelo
y el edificio que este sistema
de aislamiento sísmico de
base permite.
El hotel tendrá vestíbulos, restaurantes, salones de
usos múltiples, 360 habitaciones y demás servicios, en
una torre de 21 pisos. La torre estará estructurada con
un núcleo central de carga,
donde se localizarán los cubos de elevadores, las esca-
Las columnas flexibles de
acero, polietileno y
caucho experimentan
una defloexión proporcional a su estructura en
un evento sísmico
22
conversus
Septiembre 2005
leras y doce columnas en la fachada. Las
columnas de la fachada son ocho de orilla y cuatro de esquina. Se diseñó una de
las ocho columnas de orilla, que sostendrán una carga gravitacional de 16 620
Newtons cada una, con las siguientes características: paquete hexagonal central
de 271 barras de acero de 15.9 mm de diámetro; un tubo de polietileno con diámetro exterior de 1 500 mm y diámetro interior de 1 100 mm y un conjunto de
caucho y placas de acero horizontales intercaladas, con un diámetro exterior de
1 100 mm con un hueco hexagonal.
El paquete hexagonal central estará
formado por 271 barras hechas con acero
aleación cromo-molibdeno con alta versatilidad, alta penetración de temple, adecuada para esfuerzos de torsión y sin
fragilidad de templado.
Maqueta del invento “Disipadores de energía sísmica en edificios con
columnas flexibles en el sótano”
columna
La separación entre los cuatro lados
de los cuatro sótanos y la pared contenedora periférica de concreto es de
240 mm
Muro contenedor periférico de concreto
Tercer sótano del estacionamiento
columna
Plato de concreto prefundido
Aire a presión ambiental
Cuarto sótano del estacionamiento
entrada
Arcón de cimiento
Escalera del área
de trabajo
NRB= Banda de nylon-caucho
Cámara de base presurizado
Cimiento convencional de concreto
Cámara de base presurizada, área de trabajo periférica y fuente de aire de 6m x 4.5m. Escala 1:50
El tubo de polietileno se basa en este
material, un polímero oleofínico importante que es producido mediante procesos a alta y baja presión en los que usan
varios sistemas catalíticos complejos. Como resultado, se obtienen varias familias
de polímeros, cada uno con características
muy diferentes de comportamiento y cualidades técnicas. Por lo general, todos los
polietilenos poseen propiedades eléctricas excelentes, una resistencia inmejorable a los disolventes orgánicos y a compuestos químicos. Son materiales traslúcidos, de peso ligero, resistentes y flexibles.
El polietileno que se usará para construir el tubo será de baja densidad, con un
buen balance de propiedades mecánicas,
de fácil procesamiento y bajo costo. Es
uno de los plásticos de mayor producción
en el mundo, puede fabricarse mediante
métodos diferentes para una amplia
gama de aplicaciones.
Entre el paquete de 271 barras de
acero y el tubo de polietileno, se colocará
un conjunto de caucho reciclado, producido a base de llantas viejas, limpiadas y
granuladas, para después ser aglutinados
con resina de poliuretano, de acuerdo con
un proceso de reciclado que se lleva a
cabo en México desde 1992.
Intercaladas con el caucho reciclado se
colocarán 20 placas de acero de 6.35 mm
de espesor y 1 100 mm de diámetro con
un hueco hexagonal al centro para alojar al paquete de 271 barras de acero, a
las cuales da confinamiento.
Las columnas flexibles de acero,
polietileno y caucho, al presentarse un
evento sísmico, y recibir en sus bases un
esfuerzo cortante horizontal, experimentan una deflexión proporcional a la
rigidez del tubo de polietileno y al valor del cortante sísmico horizontal que
transportan a la estructura.
El incremento relativo en el costo del
edificio con 44 columnas de acero, polietileno y caucho es de 0.37 por ciento.
SUSPENSIÓN NEUMÁTICA
Después de la presentación y evaluación del sistema de columnas flexibles
de acero, polietileno y caucho, se hace la
comparación con otro invento del arquitecto Carrillo, “Suspensión neumática de base para aislamiento sísmico”,
aplicado al mismo edificio.
Este sistema de aislamiento sísmico
consiste en cuatro cámaras neumáticas,
en la base del edificio, formadas por dos
losas planas horizontales sobre la cimentación y cerradas en su perímetro por
bandas flexibles de nylon y caucho. Mediante presión neumática ambas losas
se mantienen separadas 300 mm entre
el suelo (cimentación) y la estructura.
En la base del edificio, de 72.6 m por
72.6 m se tienen 4 compartimentos presurizados de 34.8 m por 34.8 m cada
uno. La presión del aire es igual al peso
del edificio dividido por el área de la
base.
El incremento del costo por la suspensión neumática es de 2 por ciento,
ya que se requeriría fabricar la losa de
concreto sobre la cimentación, una impermeabilización, empleo de varilla corrugada, marcos de soporte de acero galvanizado, compresores de tornillo rotatorio
y equipo de control.
En la siguiente tabla, se comparan costos directos y de mantenimiento, grados y
tipo de aislamiento sísmico logrado en cada uno de los dos sistemas:
CONCLUSIONES
El sistema con columnas flexibles de
acero, polietileno y caucho, es un sistema
sencillo, económico y efectivo, apropiado
IPN
Donde la ciencia se convierte en cultura
23
para edificios entre 5 y 30 niveles. Solo
proporciona aislamiento sísmico para los
movimientos horizontales.
El sistema de suspensión neumática
tiene mucha mayor amplitud de aislamiento y es adecuado para edificios
más altos o más pesados. Económicamente conviene en edificios de más de 20
pisos. Proporciona un magnífico aislamiento sísmico, tanto en el sentido
horizontal como vertical.
Maqueta del invento “Estructuración del sótano amortiguado con policolumnas”
EPÍOLOGO
En 1910 se funda el Servicio Sismológico
Nacional, que depende del Instituto de
Geofísica de la UNAM. Este Servicio
mantiene y opera la Red Sismológica Nacional, que detecta los sismos de magnitud mayor a 3.5. Emite reportes, boletines y mantiene un sitio de Internet.
Proporciona información para desarrollar
investigación que mejora nuestro conocimiento sobre sismos.
Se hace necesaria la intervención de
más ingenieros mexicanos calificados
que, como el arquitecto Carrillo Gutiérrez, aporten sus ideas para solucionar los
grandes problemas nacionales, como en
este caso, la vulnerabilidad de los edificios ante un sismo como el que nos asoló
hace veinte años. Además, se requiere
una mayor inversión en conocimiento sísmico. Una campaña de divulgación del
fenómeno sísmico y del saber qué hacer
antes, durante y después de un sismo
dará confianza a la población ante estas
eventualidades. Todos tenemos la posibilidad de participar, empleemos nuestra
voluntad.
Maquetas de edificios a los que se les ha incorporado tecnología de aislamiento sísmico
Características principales
Columnas flexibles de acero,
polietileno y caucho
Suspensión neumática de base
Transmisión de cortante sísmico en un desplaza-
0.047 W
0.005W
miento horizontal de 60 mm
Transmisión del incremento o decremento de las
cargas gravitacionales en un desplazamiento
0.25 W
No tiene aislamiento vertical
vertical de 30 mm
Mantenimiento del sistema
No requiere mantenimiento
Mantenimiento mínimo
Costo del sistema
$ 1 366 989.00 (0.37% costo edificio)
$7 373 433.00 (2% costo edificio)
Adecuado para edificios
De 5 a 30 niveles
De más de 20 niveles
24
conversus
Septiembre 2005
Biotecnología
para el mejoramiento del arroz
en el estado de Morelos
Elsa Ventura Zapata*1**,
Antonio Jiménez Aparicio1,
Crescencio Bazaldúa Muñoz1,
Alma Leticia Martínez Ayala1,
Alma Angélica del Villar Martínez1,
Uriel Maldonado Amaya2,
Jorge Salcedo Aceves2
y Leticia Tavitas Fuentes2
E
l arroz es una de las especies cultivadas más antiguas. Algunos investigadores sitúan su origen en
India y otros en Indonesia alrededor del año 7 000 a.C. En la literatura china se hace mención de
la ceremonia de su siembra desde
el año 3 000 a.C. En el siglo IV de
nuestra era se difunde a Mesopotamia y de allí, Alejandro el Grande
lo traslada a Grecia. Más tarde los
árabes lo llevan a Egipto, Marruecos
y España antes del año 1 000 d.C.
Según algunos reportes en la literatura, el arroz se trae por primera vez a
América en el año de 1694.
Su nombre genérico latino es Oryzae
sativa. Actualmente existen tres razas
ecogeográficas o subespecies distribuidas en el mundo: índica (grano largo),
japónica (grano corto) y javánica (grano
medio).
El estado de Morelos es el
cuarto productor de arroz a
nivel nacional
EL CULTIVO DEL ARROZ EN MÉXICO
Se tiene conocimiento que el arroz fue introducido por primera
vez en México durante la época colonial. Las variedades traídas
fueron de las subespecies índica y japónica, las cuales, como ya
se dijo, se diferencian por la forma y tamaño del grano (Figura
1). Sin embargo, debido a la preferencia de los consumidores de
esa época, las variedades que se cultivan desde entonces pertenecen a la subespecie índica. En 1800 dicho cereal solo se
sembraba en los estados de Guerrero, Veracruz y Morelos, posteriormente se extendió a otras entidades del país y hoy en día,
los principales estados productores de arroz son Veracruz,
Campeche, Michoacán y Morelos; éste último ocupa el cuarto
lugar a nivel nacional.
* Correspondencia para el autor, 1** Departamento de Biotecnología, Centro de Desarrollo de
Productos Bióticos (CeProBi), IPN, Apartado Postal 24, Yautepec, Morelos, 62731. México, Tel.: 01
(55) 57 29 60 00, Ext. 82520, Fax: 01 (55) 57 29 60 00, Ext. 82529, D. e.: <[email protected]>.
2Campo Experimental Zacatepec INIFAP.
26
conversus
Septiembre 2005
Fig. 1 Variedades de
arroz de las subespecies
índica (grano largo y
delgado) y japónica
(Grano corto y ancho).
a) Variedades que se
cultivan en el estado de
Morelos. b) Variedades
con preferencia en el
mercado internacional,
actualmente se están
integrando a un programa de mejoramiento.
MEJORAMIENTO GENÉTICO DEL ARROZ
Inicialmente esta actividad consistía en la selección de plantas de
acuerdo a su aclimatación. Posteriormente los fitomejoradores de
arroz, mediante el método de pedigrí, buscaron obtener plantas
de baja altura, resistentes al acame (doblamiento del tallo por la
incidencia del viento) y con alta producción de hijuelos, lo cual se
logró en la década de los años 60 al obtener ejemplares de porte
bajo (mediante cruzamientos con plantas enanas), con mayor rendimiento. Mas adelante, obtuvieron variedades resistentes a plagas y enfermedades, insensibles al fotoperiodo, tolerantes a climas templados y con alto rendimiento en molienda.
Con el método de pedigrí (tradicional) se han desarrollado
más de 120 000 variedades en el mundo, y continúa la investigación para generar nuevas variedades. Actualmente se pretende
elevar el rendimiento mediante la obtención de plantas con menor cantidad de hijuelos, de porte bajo y con hojas pequeñas y
erectas; lo cual favorece una mayor captación y distribución uniforme de luz, reduce la respiración e incrementa el rendimiento y
el porcentaje de materia seca.
MEJORAMIENTO VARIETAL DE ARROZ EN MORELOS
Desde 1947 se inició el mejoramiento genético de arroz de raza
índica en el Campo Experimental Zacatepec, donde, a través del
método de selección individual fueron liberadas las primeras
variedades: Jojutla Mejorado y Morelos A70. En su momento,
presentaron moderada resistencia al acame, buen potencial de
rendimiento y se les consideraba como el “arroz de mejor calidad”. Sin embargo, al igual que la mayoría de plantas que se
autofecundan, el arroz presenta un alto grado de homocigosis,
condición que ocasiona la reducción de la variabilidad genética.
Por esta razón, en 1975 se estableció el programa de cruzamiento
entre diferentes variedades, con el fin de modificar las características morfológicas de las líneas puras generadas por la selección
individual y aprovechar la segregación de caracteres propiciados
por la interacción genotipo-medio ambiente, con lo que se puede
realizar la selección de genotipos por pedigrí, hasta la obtención
de nuevas líneas homocigotas. Este método requiere dar seguimiento a las poblaciones segregantes (F2-F6) hasta las gene-
raciones avanzadas (F6-F8), debido a ello se necesitan entre 8 y 10
años para generar y liberar una variedad. Las variedades Morelos A92 y Morelos A98 fueron generadas mediante el método de
pedigrí a través de cinco o seis selecciones; los progenitores seleccionados como donadores fueron aquellos que presentaron:
alto potencial de rendimiento (10 a 12 Ton/ha); resistencia al
acame (con genes de semi-enanismo); resistencia a la enfermedad
conocida como “quema del follaje” o “avanamiento del grano”
(Magnaporthe grisea antes Pyricularia oryzae Cav.); fotoinsensitividad y mejor calidad del grano (alargado grande con centro o panza blanca) (Figura 2).
Lo anterior ha permitido colocar al estado de Morelos como el
productor de arroz de mayor calidad en el país. Cabe señalar que
el rendimiento promedio estatal en los últimos 15 años ha sido
aproximadamente 100 por ciento superior al rendimiento promedio nacional.
Figura 2: El mejoramiento genético
de las plantas de arroz ha dado como
resultado plantas de bajo porte y
panículas con grano abundante.
a) Reducción del porte de las plantas
y resistencia al acame; b) Panículas
con abundante producción de grano;
c) Nuevas líneas con características
mejoradas.
Por otro lado, a partir de 1997 se inició el programa de mejoramiento varietal de la subespecie japónica, con la cual se obtiene
más de una cosecha por año. Particularmente el arroz de las variedades Koshihikari y Sasanishiki es apreciado en países de
Europa, Japón y Estados Unidos por su palatabilidad característica, lo que hace posible obtener precios superiores a los de la
subespecie índica en el mercado internacional.
PERSPECTIVAS PARA LA MEJORA GENÉTICA DEL ARROZ EN MORELOS
Mediante el mejoramiento varietal convencional se han obtenido
excelentes resultados, ello ha permitido que éste cereal ocupe el
cuarto lugar en la producción estatal de gramíneas, pues los
rendimientos de las variedades Morelos son los más altos a nivel
nacional e internacional. No obstante, la producción de este cereal ha sufrido drásticas caídas en los últimos años debido a que
la relación costo beneficio es muy baja y en ocasiones los productores obtienen saldos negativos, razón por la cual las ganancias se
reducen. Por esta razón, la superficie destinada a este cultivo, ha
disminuido de 12 000 Ha que se sembraban en 1970, a aproximadamente 3 200 Ha en 2003.
Aunado a lo anterior, existe dificultad para preservar el precio comercial (superior al de otras variedades producidas en el
país) establecido con base en la calidad del arroz Morelos, ya que
el prestigio ganado en el mercado nacional, es utilizado por comerciantes de este grano de otros estados del país colocando
leyendas como “arroz tipo Morelos” para ofertar su producto, lo
cual se traduce en una competencia desleal.
IPN
Donde la ciencia se convierte en cultura
27
ALTERNATIVAS BIOTECNOLÓGICAS
La investigación en materia biotecnológica genera nuevas técnicas de manera constante, algunas de ellas pueden ser utilizadas
para desarrollar y caracterizar mejores y novedosas variedades
que pueden ser destinadas a nichos específicos de mercado. Entre las herramientas biotecnológicas modernas aplicables a la
generación de nuevas variedades están:
a) El cultivo de anteras, que reduce entre el 50 y 60 por
ciento del tiempo requerido para desarrollar variedades nuevas;
b) La inducción de mutaciones, que permite modificar
el genotipo de las plantas;
c) La biología molecular, con diferentes aplicaciones en
la transformación genética, en la que las plantas van expresando
los caracteres específicos como respuesta a la inserción de genes.
La primera de éstas ha sido ampliamente investigada en el
CeProBi.
Respecto a la caracterización de las especies o variedades, las
técnicas aplicables son:
a) Caracterización molecular, mediante la cual se puede
obtener la huella genómica de la planta a través del uso de marcadores moleculares y metodologías específicas (RAPD, AFLP y
RFLP, entre otras); y
b) Caracterización bioquímica, a través de la cual se
pueden identificar genotipos con características bioquímicas especiales (alto valor nutricional o menor cantidad de alergenos).
El CeProBi ha utilizado en diferentes proyectos de investigación,
tanto la caracterización molecular, mediante la técnica de RAPD,
como la caracterización bioquímica.
CULTIVO DE ANTERAS
El cultivo de anteras es una herramienta complementaria muy
importante en el mejoramiento genético de las especies. Se inicia
con el cultivo in vitro de anteras de genotipos de generaciones
tempranas para fijar las características deseadas. De esta manera
se obtienen plantas haploides, que contienen la mitad del
número cromosómico normal, el cual duplican más tarde para
convertirse en diploides homocigotas. Con esta metodología se
incrementa la eficiencia en la selección de caracteres de origen
monogénico y poligénico y facilita la detección de mutaciones recesivas; por lo tanto, constituye una alternativa muy importante
en el incremento del potencial de rendimiento de muchas especies vegetales.
RAPD–PCR (Random Amplified Polymorphic DNA-PCR).
Utiliza oligonucleótidos iniciadores más cortos que los empleados para un PCR común (10 nucleótidos) y son de secuencia
arbitraria; de manera que los fragmentos amplificados son específicos en áreas distribuidas al azar en el genoma, el tamaño de
28
conversus
Septiembre 2005
los oligonucleótidos y la baja temperatura de alineamiento aseguran la unión a
una infinidad de secuencias
en el genoma. Estos fragmentos se pueden separar
en geles de agarosa para
obtener perfiles electroforéticos que varían según el
polimorfismo de los distintos individuos; como resultado se producen un gran número de bandas que permiten distinguir a
individuos de diferentes variedades o tener una estimación de la
relación genética entre varias especies.
La realización experimental de la RAPD-PCR es sencilla y no
requiere información previa de la secuencia de los oligonucleótidos iniciadores. Dado que el número posible de estos es teóricamente ilimitado, basta probar una cierta cantidad de ellos
hasta encontrar los que muestren las mayores diferencias entre
los organismos de estudio.
CARACTERIZACIÓN BIOQUÍMICA
El tema de caracterización bioquímica es muy amplio, particularmente, se hace referencia a la caracterización bioquímica de las
proteínas de reserva, que consiste en cuantificar el contenido de
proteínas totales (puede realizarse mediante diferentes métodos:
Kjeldahl, Bradford, Biuret y Lowry), aislar las fracciones proteicas (albúminas, globulinas prolaminas y glutelinas), cuantificar el porcentaje de proteína en cada una de ellas e identificar
los pesos moleculares de las cadenas polipeptídicas (mediante
electroforesis en geles de poliacrilamida). La electroforesis es sin
duda alguna, una de las técnicas más ampliamente usada para
caracterizar a las proteínas. La carga efectiva y/o el radio molecular son característicos para cada proteína, es por ello que se
han usado como referencia para el desarrollo de los procedimientos electroforéticos.
TRABAJO
REALIZADO EN EL CEPROBI-IPN EN COLABORACIÓN CON EL
ZACATEPEC-INIFAP
Con la finalidad de combinar técnicas para obtener productos
con alto valor agregado en un menor tiempo y costo y tener posibilidades de competir en el mercado globalizado, se ha
fortalecido la vinculación entre estas instituciones de investigación para generar tecnologías en beneficio de la sociedad. En
este sentido, investigadores del CeProBi-IPN han trabajado en
coordinación con investigadores del Campo Experimental “Zacatepec” del Instituto Nacional de Investigaciones Forestales,
Agrícolas y Pecuarias (INIFAP), en busca de alternativas de solución a los principales problemas de los productores de arroz del
estado de Morelos.
Así desde 1998 realizan investigaciones conducentes al mejoramiento genético del arroz mediante la aplicación de la técnica
de cultivo de anteras. Como resultado, actualmente se cuenta con
la metodología establecida para la obtención de plantas por cultivo de anteras (Figura 3).
En el 2002 se iniciaron trabajos para la caracterización bioquímica (Figura 4) y molecular (Figura 5) de variedades de las
subespecies índica y japónica y generaciones segregantes
CAMPO EXPERIMENTAL
Figura 3. Patrón electroforético de los
fragmentos de DNA amplificados al
azar en el genoma de diferentes
variedades de arroz. M) Marcador 100
pb; 1) Morelos A-92, 2) Morelos A-98,
3) Koshihikari, 4) Sasanishiki.
(F2 y F4) de híbridos obtenidos a partir de cruzas entre ellas. Al
respecto, se obtuvieron resultados prometedores en cuanto a la
variación de las diferentes fracciones proteicas de la semilla en individuos de una cruza japónica x índica de la generación
segregante F4. Por otro lado, se ha adaptado la metodología de
polimorfismos del ADN amplificado al azar (RAPD) para la caracterización molecular de arroz. En este sentido se pretende
consolidar un grupo multidisciplinario capaz de generar genotipos con denominación de origen que satisfagan las demandas de
la sociedad morelense.
Figura 4: Obtención de plantas de arroz por cultivo de anteras. a) Inducción de
callo embriogénico a partir de anteras; b) callo embriogénico; c) y d) plántulas
obtenidas de callo.
Figura 5: Patrón electroforético (SDS-PAGE) de las cadenas
polipeptídicas de híbridos
arroz. M Marcador PM; 1,
KOSI x MA92 F4; 2, MA92 x
KOSI F4; 3, KOSI; 4, KOSI x
MA92 F2; 5, MA92 x KOSI
F2; 6.
BIBLIOGRAFÍA
BIDLINGMEYER, B.A Y WARREN F.V. Analytical chemistry, 56: 1583- 1596.
1984.
CUEVAS, F. “Mejoramiento genético de arroz en los trópicos: hacia un
nuevo paradigma”. Memorias del primer simposium Internacional del Arroz,
INIFAP. Septiembre 12 1998.
DOYLE, J.J. Y DOYLE, J.L. “Isolation of plant DNA from fresh tissue”. Focus.
12: 13-15, 1990.
GUTIÉRREZ, T.R. Revista claridades agropecuarias. 1995.
<http://www.infoaserca.gob.mx/claridades/portada.asp?numero=5 >.
KHUSH, G.S. “Origin, dispersion, cultivation and variation of rice plant”.
Molecular Biology 35:25-34. 1997.
LAEMMLI, U.K. “Cleavage of structural protein during the assembly of
the head of bacteriophage T4”. Nature 227:680-685. 1970.
LÓPEZ B. J. L. Cultivos herbáceos. Vol. I Cereales. Ediciones Mundiprensa. España. pp. 452-454, 1991.
MATTA, R. <http://www.el-universal.com/scannone/arroz.html
NKONGE, C., BALLANCE, G. M. “A sensitive colorimetric procedure for nitrogen determination on micro-Kjeldahl digest”. J.Agric. Food Chem.
30:416-420. 1982.
OSBORNE, T.B. “The vegetable protein”, Monographs in Biochemistry, 2nd
ed., Logmans, green and co., New York. 1924.
PAREDES, T.A., Recomendaciones para el cultivo de arroz en Morelos con
las variedades Zapata A-70, Morelos A-70 y Jojutla Mejorado; Centro de
Investigaciones de la Mesa Central; Campo Experimental Progreso, Circular CIAMEC No. 44. SAG. INIA. pág. 12. 1973.
PAREDES-LÓPEZ, O. Y HERNÁNDEZ-LÓPEZ, D. “Application of differential
scanning calorimetry to amaranth starch gelatinization” Influence of water, solutes and annealing. Starch/Stärke, 43:57-61. 1991.
RIOS, S. < http://www.aca.com.uy/alimentación/arrozenlaalimentación.htm>. 2002
SHAGGER Y VON JAGOW, G. “Tricine-Sodyum dodecil sulfato poliacrilamide gel electrophoresis for the separation of protein in the range from
1 to 100 Kda”. Anal Biochemistry. 166:368-379. 1987.
SALCEDO, A.J. “Morelos A92, nueva variedad de arroz de riego para
Morelos”. Desplegable informativo No. 1 Campo Experimental Zacatepec.
1992.
SALCEDO, A.J. “Morelos A98, nueva variedad de arroz para el estado de
Morelos”. INIFAP-Fundación Produce Morelos, A.C. Desplegable informativo No. 8 Campo Experimental Zacatepec. 1998.
TAVITAS, F.L. y HERNÁNDEZ, A.L. Catálogo de variedades que actualmente
se cultivan en México. SAGARPA-INIFAP-Conacyt-Campo Experimental
Zacatepec. Publicación especial No. 24. pág. 56. 2000.
VÁZQUEZ, A.J. “Análisis agronómico y financiero transplante y la cosecha
mecanizada del arroz en la región central de México”. Folleto técnico II
SARH-INIFAP-CIRCE 9:25. 1993.
IPN
Donde la ciencia se convierte en cultura
29
Punto Crítico
Roberto Linares y Miranda*
* Sección de Estudios de Postgrado e Investigación (SEPI) de la Escuela Superior de Ingeniería Mecánica y Eléctrica (ESIME) Unidad Zacatenco,
“Posgrado en Ingeniería Electrónica”, Unidad Profesional Adolfo López Mateos, Edif. Z, Acceso 3, 3er. Piso, Col. Lindavista, C. P. 07738,
México, D. F. Tel.: (01) 5729 6000, Ext. 54607, D.e.: <[email protected]>.
30
conversus
Septiembre 2005
l mundo en que vivimos depende en un alto grado de los sistemas que funcionan con energía eléctrica, y cada día con el impulso del avance tecnológico,
se producen nuevas aplicaciones asociadas, hecho que impacta de una u otra
manera las condiciones económicas y sociales del entorno. Este tipo de sistemas son capaces de emitir perturbaciones electromagnéticas (PEM) y, al mismo
tiempo son susceptibles a las mismas. Estas perturbaciones generan un ambiente
electromagnético (EM) complejo, que presenta un desafío constante para los aspectos
de compatibilidad electromagnética (CEM), a pesar de que actualmente se cuenta con
un amplio conocimiento del comportamiento al interior de ese ambiente. El presente
artículo incluye, entre otros temas, la definición, situación actual y tendencias de las
tecnologías sobre los principales aspectos de CEM, además de cuestionar su importancia en el futuro inmediato.
E
COMPATIBILIDAD ELECTROMAGNÉTICA
La CEM en la actualidad es un término genérico asociado con los
problemas más antiguos de funcionalidad de los sistemas electrónicos que se han presentado en todas las etapas de su
desarrollo. El término compatibilidad electromagnética está especificado en el vocabulario internacional electrotécnico [1] y en
algunas otras publicaciones [2], [3]. Básicamente se refiere a la
convivencia entre sistemas, equipos, aparatos o dispositivos que
funcionan con energía eléctrica en un ambiente electromagnético, mismo que está compuesto tanto por fenómenos naturales,
como por fuentes artificiales (hechas por el hombre). En general
y desde el punto de vista de la CEM, los sistemas eléctricos y electrónicos emiten y toleran (son inmunes) un nivel determinado
de perturbaciones electromagnéticas (PEM) en el ambiente en el
que operan a fin de alcanzar una convivencia armónica. Los
niveles para que esto ocurra están especificados en normas internacionales y depende del tipo de sistema.
Los sistemas electrónicos complejos procesan energía EM que
contiene información válida y ruido (información no válida), o
solamente ruido. La energía EM está formada por señales o emisiones que en general pueden clasificarse como conducidas y/o
radiadas. Las señales conducidas requieren de un medio físico
para transmitirse, que puede ser: (a) un conductor sólido, donde
las emisiones se identifican como tensión y corriente;
(b) un conductor hueco, donde las emisiones
se reconocen como microondas y
(c) una fibra óptica, donde la
La telefonía celular
emisión consiste en energía
y los efectos de la
luminosa. Las señales raenergía EM sobre el
ser humano ha
diadas utilizan como medio de
generado una gran
transmisión el espacio libre y
discusión.
normalmente se les conoce como
emisiones radioeléctricas o ruido
radioeléctrico.
Cuando se analizan los sistemas
eléctricos y electrónicos desde el
ámbito de la CEM, se tienen tres problemas básicos: (1) asegurar la
mínima afectación de las emisiones por las PEM, (2) disminuir los
niveles emitidos de PEM , y (3) incrementar el grado de inmunidad de los equipos a los efectos de las PEM. El primer punto se
enfoca en los problemas relacionados con el medio de transmisión, el segundo punto se refiere a los problemas de
generación de emisiones no deseadas (radiadas, conducidas o
inducidas), y el tercer punto se relaciona con los problemas ocasionados por la interferencia electromagnética (IEM) sobre los
propios equipos y que pueden advertirse por diversos grados de
degradación en su funcionamiento, denominada susceptibilidad
electromagnética (EMS).
El problema de las PEM no es reciente, empezó a percibirse
con el inicio de la radiodifusión y a controlarse mediante el trabajo de comités nacionales e internacionales establecidos al
efecto y orientados por un lado, a evitar o minimizar la
generación de estas señales y por el otro, a recomendar el uso de
filtros y blindajes, así como a considerar una mejor distribución
de los componentes en los sistemas electrónicos, sobre todo en
los de radiocomunicación que son los más susceptibles. En esa
época, la protección de la transmisión telefónica contra las PEM
también fue tema importante y generó varias publicaciones [3],
[4], sin embargo, el término “compatibilidad electromagnética”
se introdujo hasta el final de la década de los 50, cuando se construyeron una gran cantidad de sistemas
electrónicos para aplicaciones militares, lo cual convirtió a las PEM en un problema de vital
importancia y urgente de controlar, sobre todo en
el campo de las telecomunicaciones y de la radionavegación.
Es importante entender que, por definición,
la CEM no prevé en lo absoluto el problema de
la IEM. Las PEM generadas por varias fuentes
son de carácter aleatorio, aunque para muchos casos su tratamiento básico inicia con
un análisis determinístico. Por ejemplo, la
inmunidad de un dispositivo o equipo depende principalmente de sus características y de la función que realiza.
IPN
Donde la ciencia se convierte en cultura
31
respecto a dichos sistemas,
Como caso particular, la intensidad de la
por lo que los desarrollos tecPEM depende del ángulo de incidencia, de
nológicos son constantes y
la polarización y de la intensidad de las
tienen una dinámica mucho
emisiones radiadas sobre un circuito
mayor que la actualización de
(campo EM incidente), así como de la inlas normas que debieran regir su
munidad del propio circuito a dicho
funcionamiento. Todo esto gecampo. Es claro que la convivencia de
nera una gran competencia y los
sistemas electrónicos en un determipaíses con legislaciones estrictas,
nado ambiente EM, es bastante
vigilan que se respeten las normas,
complejo, por la gran cantidad de
hecho que se refuerza mediante la
variables a considerar. Para soluEl incuplimiento de las normas sobre PEM provoca que
firma de tratados comerciales intercionar cada uno de los diversos
los productos eléctricos y electrónicos no se puedan
comercializar
nacionales [5].
aspectos de la CEM debe consideEl cumplimiento de las normas se
rarse un tipo particular de
realiza verificando la conformidad de
perturbación, aislando el resto
los sistemas eléctricos y electrónicos en
del sistema electrónico en estulaboratorios de pruebas certificados para
dio. Cabe mencionar que de
esta manera se lleva a cabo el
CEM.
proceso de normalización
Los países en desventaja son los que no
cuya función es determinar
cuentan con normas oficiales de CEM (como
los niveles de emisión máxiMéxico), hecho que se profundiza por el esmos aceptables, la inmunidad
caso número de laboratorios certificados, a
requerida en los sistemas respecto a su campo
pesar de pertenecer a los tratados mencionade aplicación y eventualmente los procesos de medición
dos. Por esta razón, en estos países abunda el
para la verificación de dichos niveles. Otra circunstancia que se
consumo de sistemas eléctricos y electrónicos
da en este proceso es la relativa al efecto de la velocidad con que
fuera de norma, lo que en general provoca que exista un amopera el desarrollo tecnológico, lo cual mantiene irremediablebiente electromagnético mucho más contaminado y genera pérmente un atraso en la elaboración de las normas.
didas económicas importantes.
En general, se puede reducir la IEM de un sistema, dismiEste panorama implica la importancia de entender los diferentes aspectos que se involucran en la “Compatibilidad
nuyendo las emisiones y aumentando su inmunidad, pero
Electromagnética”, como son las normas, las tendencias tecllevarlo a cabo requiere de un gran esfuerzo ya que deben ennológicas y la educación.
tenderse todos los fenómenos que se presentan en la práctica.
Con las tecnologías emergentes, el ambiente EM se hace más
NORMALIZACION SOBRE LA CEM
complejo, ya que cada uno de los sistemas de emisión que ha sido diseñado para un propósito específico, puede interferir a
Mundialmente, se están realizando grandes esfuerzos respecto
otros sistemas, que, por lo general, ha sido diseñado para otra
a la normalización de las CEM, especialmente dentro de los oraplicación; un ejemplo típico de esta situación son las comuniganismos internacionales, aprovechando su fuerte influencia
caciones inalámbricas.
sobre los desarrollos locales. En referencia a estos organismos
La convivencia de los sistemas eléctricos y electrónicos con el
internacionales, la Comisión Electrotécnica Internacional, (IEC,
ser humano, también es un problema de CEM, el caso más común
por sus siglas en inglés), ha tomado la mayor responsabilidad
de los trabajos de normalización en el ámbito de las CEM; otros
es la telefonía celular, donde aún hay una gran discusión
respecto a los efectos de la energía EM sobre el cuerpo humano.
esfuerzos se están realizando por la Organización
Internacional de Normalización, (ISO, por sus siglas en inglés)
Complementariamente puede mencionarse que a nivel
mundial, la importancia que han tomando los aspectos relay por la Unión Internacional de Telecomunicaciones, (ITU, por
cionados con la CEM, están generando regulaciones relativas a la
sus siglas en inglés).
El IEC tiene tres comités principales respecto a CEM, el
necesidad de certificar el cumplimiento de estas normas como
requisito previo a la autorización para comercializar cualquier
Comité Internacional Especial sobre Perturbaciones
sistema eléctrico o electrónico.
Radioeléctricas (CISPR, por sus siglas en francés) y el Comité
Técnico 77 (CT 77) de Compatibilidad Electromagnética y el
ESTADO ACTUAL RESPECTO A LA CEM
Comité 106 “Métodos de Evaluación de los Campos Eléctrico,
Magnético y Electromagnético con la Exposición Humana.
En el diseño de sistemas eléctricos y electrónicos los aspectos de
Estos comités, además de desarrollar los aspectos básicos de
CEM son bastante preocupantes, debido a que mundialmente las
normalización, definen las mediciones, los métodos necesarios
exigencias para las PEM son cada vez más severas. Estas exigeny la repetibilidad de las normas técnicas. Dentro del IEC se tiene
cias se especifican en normas y el no cumplirlas provoca que los
productos no puedan ser introducidos a los mercados. Sin emun Comité de Supervisión sobre CEM que coordina los trabajos
bargo, es claro que el mundo vive una dependencia total
en esta área y junto con otros cuerpos de normalización se ase-
32
conversus
Septiembre 2005
los sistemas electrónicos en el campo de la
guran que no exista duplimedicina y la industria, motivado por sus
cidad de normas [6].
grandes dimensiones.
ISO está dedicándose a
La tendencia a controlar y automatizar
normas de CEM relacionadas
cualquier sistema o proceso, ha hecho que
con la parte automotriz, la
aumente considerablemente la densidad de
aviación y aspectos espadispositivos electrónicos. Como ejemplo, se
ciales. La ITU se dedica a las
puede mencionar que muchos de los actuales
normas de CEM referentes
aparatos electrodomésticos cuentan con una
a las telecomunicaciones.
microcomputadora, tan es así que A. W.
Estas organizaciones están
Radaski [10], uno de los presidentes de IEC,
de acuerdo con los esfuerzos de la IEC, trabajando de
mencionó en una de sus conferencias que la
tendencia de los futuros refrigeradores es
forma coordinada según
controlar el consumo de los comestibles, para
sus áreas de interés y con la
Diversos organizmos realizan
grandes esfuerzos respecto
que cuando haga falta alguno de ellos se sotendencia de adoptar las
a la normalización de la CEM
licite vía Internet. Esta posibilidad y algunas
propias normas IEC, por lo
otras actividades que pueden realizarse con
que se espera que en el camwww.photo.net
el uso de los microprocesadores, no están tan
po de normalización interlejanas; lo que, en su momento complicará los aspectos relanacional, los requerimientos para pruebas y certificación sean
tivos a CEM, debido a la gran densidad de dispositivos
los mismos, evitando al máximo conflictos al respecto.
En el ámbito nacional, en esta área se tienen proyectos de
electrónicos y la necesidad de su convivencia, por lo que tennormas oficiales que serán de observancia obligatoria (NOM) y
drán que ser determinados los niveles tolerados de emisión e
inmunidad de energía EM. Por otro lado la tendencia a procesar
se han adoptado varias normas IEC como normas de observancia voluntaria (NMX). Las normas oficiales se están
la mayor cantidad de información, ha llevado al diseño de sistemas más compactos con microprocesadores de alta velocidad
desarrollando por la Secretaría de Comunicaciones y
que operan con frecuencias de reloj mayor a 1 GHz. Esto hace
Transportes, a través de la Comisión Federal de Telecomunicaque en pequeños recintos se tenga un ambiente electromagciones (COFETEL) y las normas de observancia voluntaria se
nético altamente complejo y que las exigencias de CEM
están desarrollando por NYCE y ANCE [7], [8], que son organismos nacionales de normalización. El anteproyecto de NOM 125
sean más severas, desde el diseño hasta las pruebas
que equivale a la CISPR 22, es un proyecto que ha pasado la etade funcionamiento.
Respecto a los sistemas electrónicos de alta
pa de consulta y está próxima a ser oficial. Respecto a las NMX
frecuencia, el enfoque se dirige hacia las comuse tienen en proyecto varios documentos [9].
nicaciones inalámbricas, donde se cuenta con
La normalización de CEM mexicana en este momento
una gran gama de sistemas que operan en
mantiene una gran actividad, pero el cuestionamiento
diferentes frecuencias, cubriendo una gran
constante es con respecto a los laboratorios de pruebas
parte del espectro radioeléctrico, desde la
para la evaluación de la conformidad en la materia.
telefonía celular hasta sistemas de radares
móviles que operan en frecuencias mayores a
TENDENCIAS, TECNOLOGÍA Y ASPECTOS DE LA CEM
40 GHz. Como problemas generales se conEl análisis desde el punto de vista de CEM respecto a toda
sidera la utilización eficiente del espectro y las
la gama de los sistemas electromecánicos, eléctricos y elecemisiones radiadas. Por su parte, la inmunidad
trónicos, es muy difícil de realizar, ya que cada
también es importante, ya que en altas fresistema tiene características particucuencias las longitudes de onda son más
lares de operación que los
pequeñas y pueden penetrar a través de las
hace más o menos
ranuras de los gabinetes. Por ejemplo, para
vulnerables a los
frecuencias de 10 GHz, la longitud de onda
aspectos de CEM.
es de 3 cm y su atenuación en ranuras de
Para cubrir el tema
2 cm de largo y de 1 mm de ancho (típide esta sección se
cas en gabinetes) es del orden de 39 dB y
analizarán en forma
para frecuencias de 1GHz se tiene una
muy general, los
atenuación aproximada de 59 dB. [10]
problemas que se preLa telefonía celular es un problesentan con el uso de las
ma fuerte, ya que se puede
nuevas tecnologías relaencontrar en cualquier lugar,
tivas a los sistemas
además de que su desarrollo es
electrónicos digitales y de
Otros sistemas que operan con energía eléctrica
constante. Y aunque los límites de
alta frecuencia, así como
como los aparatos electrodomésticos son más
riesgosos respecto a los campos
EM
radiados
IPN
Donde la ciencia se convierte en cultura
33
las emisiones se controlan por norma,
que afectan al ser humano, para lo cual
los efectos hacia el ser humano no están
el IEC ha establecido el Comité Técnico
106 [12].
totalmente identificados y es donde se
encuentra una buena parte de la activiCon respecto a las PEM sobre los
dad de investigación.
equipos médicos, la mayor restricción
Uno de los problemas a resolver desde
se encuentra en el uso de sistemas de
el punto de vista de CEM está en el área de
comunicación inalámbricos, debido a
que se ha comprobado que provocan
las comunicaciones inalámbricas con la
disturbios al funcionamiento de ditecnología Buetooth. Esta tecnología opera
chos equipos. Sin embargo, partien la banda libre de 2.4 GHz, donde la discularmente en hospitales, las PEM
tancia típica de comunicación automática
Experimento de inducción eléctrica
es de aproximadamente 30 m. Al respecto se
pueden deberse a muchas causas, ya
ha estimado que existen en el mundo más
que en general el ambiente electromagde 1.5 billones de dispositivos que operan
nético no es controlado pues la preocupación principal está
con dicha tecnología [11], derivado de que dicha tecnología
sobre la protección biomédica, pero los mismos equipos que se
puede usarse para transmisión de voz y datos, así como para el
utilizan en estos recintos generan PEM que se afectan mutuacontrol de sistemas. Sin embargo, las frecuencias de operación
mente. Conocer el ambiente electromagnético dentro de los
están cerca de la frecuencia a la que operan los hornos de mihospitales es una tarea urgente y pendiente de realizar.
croondas y a pesar de que estos últimos se diseñan considerando
Otra tarea pendiente es la relativa a los sistemas industriales,
la tecnología bluetooth, se ha encontrado que por la potencia aldonde se involucran dispositivos con un alto grado de
ta de los hornos, la comunicación entre dispositivos se ha
generación de PEM, pero también con un grado de susceptibilillegado a afectar.
dad a ellas. El ambiente electromagnético en estas instalaciones
En el área de la salud y la medicina, los aspectos de CEM se
es altamente complejo y muy difícil de analizarse, por lo que el
desarrollo de normas que fijen niveles de emisiones y de inmuenfocan principalmente a los efectos de los campos EM sobre el
nidad de equipos, aparatos y dispositivos electromecánicos,
ser humano y de las PEM hacia los sistemas, equipos y disposieléctricos y electrónicos aún no ha madurado, ni siquiera se
tivos que se utilizan en el desempeño de esta actividad. El
tienen como proyecto. En este sentido el trabajo básico está en
primer punto es preocupante, ya que existe una polémica
las mediciones insitu, ya que es muy difícil discriminar las emirespecto a los niveles de las emisiones, ya que la intensidad del
siones radiadas y conducidas de un dispositivo en particular.
campo es función de la distancia; por ejemplo, el teléfono celular
La comunicación de voz y datos a través de las líneas de
es el que más ha llamado la atención por su gran proliferación y
energía eléctrica de potencia conocida como tecnología Power
su aplicación, que se da casi en contacto directo con el ser huLine Communicatión (PLC) o Broadband Power Line (BLP), está
mano. Sin embargo, existen otros sistemas que operan con
energía eléctrica, que pueden ser más peligrosos respecto a los
en proceso de desarrollo y se presenta como una gran ventaja dacampos EM radiados y que no llaman tanto
do que dichas líneas existen por doquier, eliminando la
necesidad de instalar otra red física. Por ejemplo
la atención, a pesar de estar consideraen EUA, Europa, Japón y aldos en las normas, como son: los
gunos otros países ya se tiene
monitores de televisión y de computaInternet a través de este medio.
doras, los hornos de microondas, las
En México la Comisión Federal
estaciones base, las líneas de energía
de Electricidad ha llevado a
eléctrica de alta tensión, los detectores
La necesidad de detectar
cabo pruebas tecnológicas al
de metal en los aeropuertos, los deteclos efectos de la energía
em estimula la creatividad
respecto, pero sin contemplar
tores de seguridad en bancos y
de los investigadores
aún, proceso alguno de normalialmacenes, etc. Como parte del especzación, lo que hace preocupante
tro la energía EM es no ionizante y en
el control de las emisiones rageneral sus efectos no son inmediadas, ya que su efecto se ve
diatos, pero para determinar sus
fuertemente manifestado en los
efectos, se requiere de una gran cansistemas de radio comunicación.
tidad de información que deberá ser
Este problema es un reto más para
recopilada durante largos periodos
los aspectos de CEM.
de tiempo. Al respecto el Comité
Internacional de Protección a la
Radiación No Ionizante (ICNIRP) y
L A EDUCACIÓN Y LA INDUSTRIA
la Organización Mundial de la
RESPECTO A LA CEM
Salud (OMS) han solicitado a la IEC
Las ondas electromagnéticas juegan un papel cada vez más
que examine los métodos de prueimportante en las comunicaciones,
ba sobre los campos EM radiados
34
conversus
Septiembre 2005
los controles y sensores remotos, los sistemas integrados con
multisensores, la detección e identificación de señales, las microondas, el diseño de circuitos electrónicos, el
bio-electromagnetismo y en muchos otros aspectos o aplicaciones complejas que involucran fuentes de energía
electromagnética naturales o hechas por el hombre. Dichas ondas forman un ambiente electromagnético, en el cual los
problemas de CEM están involucrados. Una de las estrategias
para entender dichos problemas, es a través de la educación, la
formación de recursos humanos y la investigación, considerando enfáticamente los aspectos de normalización, punto
clave en cualquier área de la ingeniería, ya que permite hablar
un mismo idioma en el desarrollo tecnológico.
Los países con alto grado de industrialización, tienen bien
claro este proceso, en el cual la participación de la industria es
activa, además de que los laboratorios de pruebas son imprescindibles, tanto para la investigación como para el desarrollo
de las normas, ya que éstas deben ir acompañadas de procedimientos de medición.
La investigación y desarrollo en esta área, tiene como particularidad mantener a la vanguardia los productos: desde el
diseño hasta su producción y comercialización, integrando todos los procesos para ser altamente competitivos
mundialmente. Los nuevos productos implican la modificación constante de las normas. Este proceso es el que ha
llevado al éxito a los países asiáticos, teniendo como peculiaridad la vinculación con la educación superior, los centros de
investigación, la industria y los consumidores. No realizar este
proceso ha llevado a los EUA a perder parte importante de los
mercados, ha permitido que las agencias de investigación y
desarrollo hayan sido absorbidas por agencias comercializadoras; tan es así que la sociedad de CEM de la IEEE propone
que en las universidades se impartan cursos con instructores
con amplia experiencia industrial [14].
En México, la educación está totalmente desvinculada de
la industria y los aspectos de CEM se tratan en diferentes universidades de una forma colateral en las carreras de
ingeniería eléctrica, electrónica y de comunicaciones, sin
tener un curso específico. A nivel posgrado, el Centro de
Investigación y de Estudios Avanzados (CINVESTAV) Unidad
Guadalajara, enfoca la CEM a los sistemas eléctricos de potencia y en la Unidad del Distrito Federal el enfoque de CEM es
sobre las telecomunicaciones y la bioelectrónica, sin tener
tampoco cursos específicos. La Escuela Superior de Ingeniería
Mecánica y Eléctrica (ESIME.), Unidad Zacatenco, es la única
que a nivel posgrado imparte el curso teórico-práctico de CEM,
ya que cuenta con un laboratorio para este propósito.
Respecto a los laboratorios de pruebas de CEM, a la fecha los
que existen no están certificados; existen algunos en el sector
privado, como por ejemplo el de Hewlett Packard ubicado en
Gua- dalajara, Jal. La Facultad de Ciencias de la Universidad
Nacional Autónoma de México cuenta con un laboratorio de
este tipo y el CENAM, como parte esencial para esta aplicación
sólo tiene un sitio para pruebas de área abierta. Este hecho ha
sido fuertemente cuestionado en los procesos del desarrollo
de las normas.
CONCLUSIONES
Es claro que el constante desarrollo de productos eléctricos y
electrónicos, complica cada vez más el ambiente electromagnético, dificulta la convivencia de los propios equipos e
incrementa la problemática relativa a la compatibilidad electromagnética. En estas circunstancias sobresale la necesidad
de retroalimentar los procesos de normalización, específicamente lo que se refiere a los límites de emisión y a otras
especificaciones y parámetros requeridos por estos productos.
De igual manera y como parte esencial del proceso, debe promoverse el establecimiento de laboratorios de prueba para
CEM, con la visión de contar con apoyo técnico para estar en
condiciones de dar cumplimiento a la regulación aplicable a la
operación de estos equipos. En paralelo se requiere que las entidades involucradas cuenten con personal preparado y con
experiencia, por lo que es prioritaria la participación activa de
los sectores educativo y de investigación y desarrollo.
Finalmente y sin olvidar la importancia que tienen en la
definición de la calidad del producto, es ineludible la colaboración de la industria y los consumidores.
REFERENCIAS
1 IEC 50-161:1990, “Internacional Electrotechnical Vocabulary (IEV)”,
Chapter 161: Electromagnetic Compatibility.
2 IEEE Standard for Measurement of Impulse Strength and Impulse
Bandwide, IEEE STD 376, 1975.
3 SCHULZ, R. B., “More on EMC Terminology”, IEEE. Transaction on
electromagnetic Compatibility, Vol. EMC-29, pp. 202-205, August 1987.
4 MOKANDA, M.T.MA, CRAWFORD, M.L. AND LARSE E. B., “A Review of
Electromagnetic Compatibility Interference Measurement Methodologies”, Proceedings IEEE, Vol. 73, No. 3, pp. 388-411, March 1985.
5 HEIRMAND D.N., “Commercial EMC standardization and International
Harmonization Activity in the United States”, AUSTEL/IIR Conference
on Telecommunication Testing. 22-23 April, Melbourne, Australia.
1993.
6 SHOWERS R. M., “Influence of IEC Work on National Electromagnetic
Compatibility Standards”, 10th International Zurich Symposium and
Technical Exhibition, Zurich, Switzerland, March. 1993.
7
TOPETE
C.,
R AÚL ,
“Compatibilidad
e
Interferencias
Electromagnéticas: Panorama de su inclusión en el Ámbito Nacional”,
Conferencia presentada en el CENAM, 30 de Mayo del 2002.
8 M OLINA L ÓPEZ , V ICTORIA , “Normalización Nacional en EMC ”,
Conferencia presentada en COFETEL, 5 de Sept. del 2003.
9<www.Economia.gob.mx/work/normas/Normalización/Pnn/PNN_
2003pdf >.
10 RADASKY, WILLIAN A., “EMC Challenges for Electronic Systems”,
Compliance Engineering”, annual Reference Guide. <http://www.cemag.com/archive/01/Spring/Radasky.html>. 2001.
11 <http://new.com.com>.
12 G OLDBERG ., G., “ EM Phenomena and Implications for
Standardization: EMC-Safety-Human Exposure”, in Proceedings of the
15th International Wroclaw Symposium on EMC (Wroclaw, Poland:
National Institute of Telecommunications), pp. 31-38. 2000.
13 <www.echelon.co.kr/03/PLT22vsCEBus.pdf>.
14 IEEE EMC Society Newsletter, Education Committee, winter 2000.
IPN
Donde la ciencia se convierte en cultura
35
Otra voz... la visión del joven investigador
El Sistema Internacional
de Unidades y la
metrología,dentro del Año
Internacional de la Física
José Zavala Chávez
36
conversus
Septiembre 2005
n el marco de la celebración del Año Internacional de la Física, el presente trabajo hace una recapitulación del Sistema Internacional de Unidades (SI),
algunos hechos históricos relevantes, las últimas definiciones de sus unidades
base, la participación de México y algunas sugerencias de adopción de dichas
unidades como parte del trabajo cotidiano y profesional. Se resalta la importancia de
la metrología como una plataforma para la generación de desarrollo tecnológico y
conocimiento nuevo.
E
Seguramente los lectores recordarán de las clases de física de la
secundaria, bachillerato o licenciatura, las referencias sobre el
entonces sistema CGS, después el MKS y posteriormente el SI. A
este respecto pueden surgir varias interrogantes, como por
ejemplo:
1. ¿Quiénes lo desarrollaron?. ¿Sabías que Gauss, Maxwell y
Kelvin impulsaron el SI?
2. ¿Porqué es tan importante permanecer actualizados
respecto de las unidades base del SI?, ¿Cuáles son las últimas
actualizaciones del SI?
3. ¿México, cómo participa en el desarrollo del SI? ¿Qué
tanto conocemos al CENAM?
4. ¿Cuáles son nuestras obligaciones como usuarios,
profesionistas, catedráticos o investigadores respecto del SI?
El SI se desenvuelve en el seno de la Convención del Metro
(CM, por sus siglas en francés “Convention du Mètre”) acuerdo internacional que da autoridad tanto a la Conferencia General de
Pesas y Medidas (CGPM, por sus siglas “Conférence Générale des
Poids et Mesures”), como al Comité Internacional de Pesas y
Medidas (CIPM, por sus siglas Comité International des Poids et
Mesures) y a la Oficina Internacional de Pesas y Medidas (BIPM,
por sus siglas “Bureau International des Poids et Mesures”)
para actuar en materia del mundo de la metrología, particularmente en la demanda de patrones, mediciones y la incesante
necesidad de mejorar la exactitud, ampliar los intervalos de
medición y la diversidad de mediciones, así como el requisito
de demostrar equivalencia entre las mediciones nacionales de
los diferentes países.
La Convención fue firmada en París en 1875 por representantes de 17 naciones, de manera simultanea a la fundación de la
Oficina Internacional (en adelante BIPM) y del establecimiento de
la manera en que deberían manejarse y financiarse las actividades en la BIPM. La CM estableció una estructura organizacional
permanente para los gobiernos miembros, a fin de proceder de
común acuerdo respecto a todas la materias relativas a las mediciones y sus unidades; la CM fue ligeramente modificada en 1921
y sus bases permanecen en el acuerdo internacional, existiendo
ahora 51 estados miembros incluido México (además de 17
Estados Asociados, tales como China Taipei, Cuba y Costa Rica,
entre otros).
La CGPM se reúne en París una vez cada 4 años, la anterior fue
la XXII CGPM en octubre del 2003. Cada CGPM recibe el informe del
CIPM y se discuten los arreglos necesarios para asegurar la propagación y mejora del SI, así mismo, se muestran los resultados de
las nuevas determinaciones internacionales fundamentales y las
resoluciones científicas de alcance internacional; se decide sobre
los más importantes temas concernientes a la organización y desarrollo de la BIPM, incluyendo su presupuesto para los
siguientes cuatro años.
Las funciones principales de la BIPM son:
• Establecer los patrones fundamentales y las escalas para la
medición de las cantidades físicas principales, además de
mantener los prototipos internacionales;
• Realizar comparaciones de patrones nacionales e
internacionales;
• Asegurarse de la coordinación correspondiente a las
técnicas de medición;
• Efectuar y coordinar mediciones sobre las constantes físicas
relevantes para sus actividades;
La BIPM opera bajo la supervisión especial del CIPM, que a su
vez tiene como autoridad a la CGPM y le informa sobre su trabajo a la Conferencia así como a la Oficina.
Cuando empezaron las actividades de la Oficina, el trabajo se
enfocó hacia las magnitudes de longitud y masa; posteriormente
en 1927 se adicionaron patrones de electricidad; en 1937 de fotometría y radiometría; en 1960 se extendió a radiación ionizante
y en 1988 a escalas de tiempo. Cabe mencionar que los laboratorios construidos al efecto, se establecieron en 1878, mismos que
posteriormente fueron ampliados para radiaciones ionizantes en
1929 y 1973 y para láser en 1984.
Actualmente la Oficina tiene 9 comités consultivos:
•
•
•
•
•
Electricidad y magnetismo;
Fotometría y radiometría;
Termometría;
Longitud;
Temperatura;
•
•
•
•
Tiempo y frecuencia;
Radiaciones ionizantes;
Unidades de masa y;
Unidades de materia.
La sucesión histórica de las actividades más importantes
para la implementación del SI , se puede obtener a través de la revisión de las diversas Conferencias Generales de Pesas y
Medidas, de las que se puede resumir:
- La creación del Sistema
Métrico Decimal. Se dio en la
época de la Revolución
Francesa con la construcción
de patrones de platino para el
metro y el kilogramo (22 junio
1799).
Patrones de platino para el metro y el kilogramo
IPN
Donde la ciencia se convierte en cultura
37
En 1832 el reconocido científico alemán Carl Friedrich Gauss
(1777-1855), promovió fuertemente la aplicación del sistema
métrico junto con el desarrollo de la unidad de tiempo “el segundo”, definido mediante métodos de la ciencia astronómica.
Gauss fue el primero en hacer mediciones absolutas del campo magnético de la Tierra utilizando tres unidades mecánicas
del sistema métrico: centímetro, gramo y segundo (longitud,
masa y tiempo). En años posteriores, Gauss y otro científico notable, también alemán, Wilhelm Eduard Weber (1804-1891),
siendo amigo de Gauss, extendieron estas mediciones para incluir el fenómeno eléctrico.
Las unidades de medida para las magnitudes de electricidad
y magnetismo fueron desarrolladas en 1860 bajo la activa participación y liderazgo de los científicos James Clerk Maxwell
(1831–1879) y William Thomson (Lord Kelvin) (1824–1907), escocés e irlandés, respectivamente, a través de la Sociedad
Británica para el Avance de la Ciencia cuyas siglas son (BAAS).
Ambos científicos formularon los requerimientos para un sistema coherente de unidades base y unidades derivadas.
Gauss
do al metro y al kilogramo como unidades base de longitud y
masa del sistema.
En 1889, la primera conferencia sancionó dichos prototipos,
junto con el segundo, unidad astronómica para el tiempo, como
las tres unidades que sustituirían al CGS pero ahora basadas en el
metro, el kilogramo y el segundo (MKS). En 1901, el ingeniero
italiano Giovanni Giorgi (1871-1950), demostró que es posible
combinar las unidades mecánicas metro, kilogramo y segundo
con unidades prácticas, para formar un sistema coherente de
cuatro unidades base, a fin de poder adicionar una cuarta
unidad base de naturaleza eléctrica, siendo ésta ya sea el ampere
o el ohm. Entonces fue necesario reescribir las ecuaciones de
electromagnetismo para un sistema llamado racionalizado. Este
sistema fue adoptado oficialmente por la IEC en 1930. Así, Giorgi
abrió una trayectoria para una serie de nuevos desarrollos.
Después de la revisión de la CM para la 6ª CGPM en 1921, con la
cual se extendió el alcance y responsabilidades de la BIMP para
otros campos de la física y la creación posterior del Comité
Consultivo para Electricidad (CCE), ahora Comité Consultivo
Maxwell
Weber
Thomson (Lord Kelvin)
Precisamente la BAAS introdujo el sistema CGS en 1874 como
para Electricidad y Magnetismo (CCEM) por la VII CGPM en 1927,
un sistema tridimensional coherente basado en tres unidades
la propuesta de Giorgi fue ampliamente discutida por la IEC y la
mecánicas, el centímetro, el gramo y el segundo, así mismo esUnión Internacional de Física Pura y Aplicada (IUPAP, por sus
tablecieron los prefijos desde micro hasta mega para múltiplos y
siglas International Union of Pure and Applied Physics) y otras
submúltiplos de magnitudes conocidas.
organizaciones internacionales, esto permitió que el CCE reEl desarrollo posterior de la física como una ciencia expericomendara la adopción de un sistema de cuatro dimensiones
mental se basó en la mejora constante del sistema de unidades,
(MKSA) basado en el metro, el kilogramo, el segundo y el ampere,
con una fuerte liga a la capacidad de mejorar la exactitud, ampropuesta que se aprobó por el CIPM en 1946.
pliar los intervalos de medición y al estado del arte de la ciencia,
Siguiendo con los requerimientos internacionales para la BIPM
en otras palabras, estrechamente ligada a la Metrología.
la cual empezó en 1948, la X CGPM en 1954, aprobó la introducción
En 1880 se comprobó que el CGS era inconveniente respecto a
del ampere, el kelvin y la candela como unidades base respectivamente para añadir a la
la inclusión de unidades de
corriente, la temperatura terelectricidad y magnetismo, el
modinámica y la intensidad
BAAS (predecesor de la Comiluminosa. Desde entonces, el
sión Electrotécnica Internacionombre del sistema es como se
nal IEC, organismo de normaconoce ahora “Sistema Interlización internacional) intronacional”. La formalización del
dujo el ohm como unidad de
nombre actual se dio en la XI
resistencia eléctrica, el volt
para fuerza electromotriz y el
CGPM en 1960.
ampere para corriente eléctrica.
Para la XIV CGPM en 1971, la
Después del establecimienversión actual del SI se comto de la convención del metro
pletó añadiendo la unidad mol
el 20 de mayo de 1875, el CIPM
para la cantidad de sustancia,
quedando en siete el número
se concentró en la preparación
Actualmente el Sistema Internacional de Unidades es más completo
de las unidades base.
de nuevos prototipos, tenien-
38
conversus
Septiembre 2005
TABLA 1 UNIDADES BASE
metro
M
El metro es la unidad de longitud; es la longitud de la trayectoria recorrida por la luz en el vacío durante un lapso de tiempo de 1/299 792
458 de un segundo.
Kilogramo
Kg
El kilogramo es la unidad de masa; es igual a la masa del prototipo internacional del kilogramo.
Segundo
S
El segundo, unidad de tiempo, es la duración de 9 192 631 770 períodos de la radiación correspondiente a la transición entre los dos niveles
hiperfinos del estado base del átomo de cesio 133.
Ampere
A
El ampere, intensidad de corriente, es aquella intensidad de corriente constante la cual, mantenida en dos conductores rectos paralelos de
longitud infinita, de sección transversal circular despreciable, y colocados a una distancia de 1 m, en el vacío, produciría entre esos conductores una fuerza igual a 2 X 10-7 newton por metro de longitud.
kelvin
K
El kelvin, unidad de temperatura termodinámica, es la fracción de 1/273,16 de la temperatura termodinámica del punto triple del agua.
Mol
Mol
1. La mol es la cantidad de sustancia la cual contiene tantas entidades elementales como átomos existen en 0,012 kilogramos de carbono 12.
2. Cuando la mol se usa, las entidades elementales deben de especificarse y pueden ser átomos, moléculas, iones, electrones u otras partículas, o grupos especificados de tales partículas.
Candela
Cd
La candela es la unidad de intensidad luminosa, en una dirección dada, de una fuente que emite una radiación monocromática de frecuencia
540 X12 hertz y que tiene una intensidad energética en esa dirección de 1/683 watt por esterradián.
TABLA 2. ALGUNAS UNIDADES DERIVADAS DEL SI CUYOS NOMBRES Y SÍMBOLOS INCLUYEN UNIDADES DERIVADAS DEL MISMO CON
NOMBRES ESPECIALES.
Unidad derivada del SI
Cantidad derivada
Nombre
Símbolo
Expresión en términos de unidades base del SI
viscosidad dinámica
pascal segundo
Pa · s
m–1 · kg · s–1
momento de fuerza
newton metro
N·m
m2 · kg · s–2
tensión de superficie
newton por metro
N/m
kg · s–2
velocidad angular
radian por segundo
rad/s
m · m–1 · s–1 = s–1
radian por segundo cuadrado
rad/s2
m · m–1 · s–2 = s–2
watt por metro cuadrado
W/m2
kg · s–3
joule por kelvin
J/K
m2 · kg · s–2 · K–1
joule por kilogramo kelvin
J/(kg · K)
m2 · s–2 · K–1
joule por kilogramo
J/kg
m2 · s–2
conductividad térmica
watt por metro kelvin
W/(m · K)
m · kg · s–3 · K–1
densidad de energía
joule por metro cúbico
J/m3
m–1 · kg · s–2
volt por metro
V/m
m · kg · s–3 · A–1
aceleración angular
densidad de flujo de calor,
irradiancia b
capacidad de calor, entropía
capacidad de calor específico,
entropía específica
energía específica
intensidad de campo eléctrico
IPN
Donde la ciencia se convierte en cultura
39
Nombre
Símbolo
Expresión en términos de unidades base del SI
densidad de carga eléctrica
coulomb por metro cúbico
C/m3
m–3 · s · A
densidad de flujo eléctrico
coulomb por metro cuadrado
C/m2
m–2 · s · A
permitividad
farad por metro
F/m
m–3 · kg–1 · s4 · A2
permeabilidad
henry por metro
H/m
m · kg · s–2 · A–2
energía molar
joule por mole
J/mol
m2 · kg · s–2 · mol–1
joule por mole kelvin
J/(mol · K)
m2 · kg · s–2 · K–1 · mol–
1
coulomb por kilogramo
C/kg
kg–1 · s · A
gray por segundo
Gy/s
m2 · s–3
watt por esterradián
W/sr
m4 · m–2 · kg · s–3 = m2 · kg · s–3
watt por metro cuadrado
esterradián
W/(m2 · sr)
m2 · m–2 · kg · s–3 = kg · s–3
katal por metro cúbico
kat/m3
m–3 · s–1 · mol
entropía molar, capacidad
de calentamiento molar
exposición (rayos x y )
índice de dosis absorbida
intensidad radiante
Radiancia
concentración catalítica (actividad)
Con base en el SI se realizan la mayor parte de las transacciones comerciales mexicanas y del mundo, así mismo el trabajo
científico en el SI, constituye el estado del arte de varias ramas de
la ciencia. Lo anterior es congruente, si se toma en cuenta que
uno de los objetivos de la CM, la BIPM, los CIPM y los CGPM es promover la mejora de la exactitud y la ampliación de los intervalos
de medición tanto en cantidades cada vez más pequeñas como
cada vez más grandes.
Periódicamente se publican trabajos científicos en la revista Metrologia
de la BIPM.
México se adhirió a la Convención
del Metro el 30 de diciembre de 1890,
siendo Presidente el General Porfirio
Díaz. A partir de entonces se
realizaron esfuerzos para establecer
y consolidar un sistema metrológico
nacional.
Hoy en día, la Ley Federal sobre
Metrología y Normalización (LFNM)
publicada en 1992 modificada y reformada en
1996, en 1997 y 1999, establece en sus artículos 5, 6, 7, 8 y 9 que
el SI es de uso oficial y obligatorio en México y se denomina
“Sistema General de Unidades de Medida”. Como dato “interesante”, se establece en el artículo 8 de la LFNM que las escuelas
deberán incluir en sus programas de estudio la enseñanza del
Sistema; por su parte, en el artículo 9, se establece que la
Secretaría (de Economía) tendrá a su cargo los prototipos nacionales metro y kilogramo asignados por la BIPM, sin embargo,
como ya se comentó, sólo el kilogramo continúa siendo patrón
comparativo, dado que el metro puede reproducirse a través de
la definición y lineamientos correspondientes.
Por otro lado, la Norma Oficial Mexicana NOM-008-SCFI-2002
adopta el SI, estableciendo su cumplimiento como obligatorio.
40
conversus
Septiembre 2005
Las NOM-008-SCFI-2002 y la NMX-Z-055:1996-IMNC, contienen
ejemplos del uso incorrecto de términos relacionados con el SI y
la metrología:
Uso incorrecto
280 grados kelvin
Uso correcto
280 kelvin
Voltaje, voltios, watios (vatios)
Tensión eléctrica, volt(s), watt(s)
Rango
Intervalo
Precisión
Exactitud
www.cenam.mx
Cantidad derivada
La metrología es imprescindible en el aseguramiento de la calidad en la
investigacioón
Así mismo, la LFMN establece que el Centro Nacional
de Metrología (CENAM), es el Laboratorio primario mexicano responsable de desarrollar y preservar los patrones
nacionales. En la anterior XXII reunión de la CGPM de
2003, el CENAM representó al país. El CENAM debe ser fortalecido para que aumente su capacidad de
reproducción y conservación de unidades base y
derivadas del SI, y no solo el CENAM, sino todo el sistema
metrológico nacional. El país requiere de más y mejores
laboratorios, en las escuelas, las dependencias y los sectores privado y social, de tal forma que el potencial de
desarrollo tecnológico empiece y termine con medición;
desde el desarrollo de los conocimientos, hasta la medición que los consumidores deben realizar de los
productos y servicios recibidos, no solo en cuanto a cantidad, sino también en cuanto a los parámetros de calidad
esperados. Una vez que este ciclo se cierre seguramente tendremos mejor calidad de vida.
Se estima que el potencial de desarrollo tecnológico del
país depende de la disponibilidad de infraestructura metrológica nacional, ya que la capacidad de reproducir y mantener
con alto nivel de exactitud las unidades base y derivadas del SI,
así como contar con los recursos que posibiliten intervalos de
medición cada vez mayores, acerca a los investigadores a la
frontera de la ciencia a nivel mundial y arroja una serie de
conocimientos y experiencia definitivos para aquellos que trabajan cercanos al ámbito metrológico.
La globalización económica toca todas las actividades humanas y el SI y la metrología no son la excepción, por ejemplo
el actual director de la BIPM Sr. Ferry Quinn señala respecto del
desarrollo del SI y la BIPM, que ahora se reconoce no solo la importancia en el establecimiento de las bases en ciencia,
tecnología, ingeniería, química, actividades biomédicas, del SI
y la metrología, sino también su capacidad para eliminar barreras técnicas al comercio (TBT, por sus siglas Technical
Barriers to Trade). Desde luego esta aseveración del Sr. Quinn
parece positiva, sin embargo, por lo que se ve, lo es solo para
las economías generadoras de bienes y servicios con alto nivel
tecnológico, es decir las exportadoras de tecnología.
La metrología es
imprescindible en
el aseguramiento
de la calidad en
la investigacioón
REFERENCIAS:.
1 Bureau International des Poids et Mesures, “The International
System of Units (SI)”, 7th edition 1998, Organisation
Intergoubernementale de la convention du Metrè.
2 Suplement, Addenda and corrigenda, to the 7th edition 1998,
“The International System of Units (SI)”. 2000.
3 <http://www.bipm.fr/en/si/history-si/>.
4 Ley Federal sobre Metrología y Normalización, versión editada
por el organismo “Normalización y Certificación Electrónica
(NyCE).
5 NOM-008-SCFI-2002, Sistema General de Unidades de Medida.
6 NMX-Z-055: 1996 IMNC, Metrología–Vocabulario de términos
fundamentales y generales.
7 <http://www.cenam.mx>.
IPN
Donde la ciencia se convierte en cultura
41
* Alumno de la Maestría en Ingeniería de
Telecomunicaciones, SEPI-ESIME, Zacatenco. D. e.:
< HYPERLINK "mailto:[email protected]"
[email protected]>, Tel.: 53 17 40 18.
42
conversus
Septiembre 2005
Una perspectiva
histórica de las antenas
Andrés Lucas Bravo*
as antenas son componentes esenciales en cualquier sistema de radio ya que
son los dispositivos que permiten emitir y recibir las ondas electromagnéticas.
Aunque existe una gama muy amplia de éstas, la antena más simple es un trozo de alambre, misma que, con las dimensiones adecuadas puede optimizar su
rendimiento. En general, su uso permite transferir información entre sitios distantes,
sin que exista conexión física entre ellos.
L
Las antenas se emplean ampliamente en las comunicaciones
móviles utilizadas en aeronaves, vehículos espaciales, barcos y a
nivel personal, entre otros. En resumen, la comunicación
inalámbrica en cualquier parte del mundo ha sido posible gracias a las antenas, incluyendo la radiodifusión, donde un
transmisor se emplea para enviar la señal a un número ilimitado
de receptores. Igualmente, son fundamentales para la telefonía
celular y los radio-aficionados; incluso para actividades asociadas con la seguridad, tales como el rescatismo y las estaciones de
bomberos.
Por otro lado, las antenas también son empleadas en otros
campos que no están asociados directamente con las comunicaciones, por ejemplo, en aplicaciones industriales y domésticas
tales como sensores colocados en zonas estratégicas de un proceso industrial y en actividades básicas como cocinar con
microondas.
Al escribir este breve resumen sobre la historia de las antenas, existe el riesgo de omitir contribuciones importantes
realizadas por diversos investigadores que han participado en el
desarrollo de este útil e invaluable campo de la ciencia, sin embargo, dedico a todos ellos mi reconocimiento y admiración.
Las antenas de alambre fueron utilizadas por primera vez en
1842 por Joseph Henry, profesor de filosofía natural en
Princeton, N.J., e inventor de la telegrafía con alambres. En sus
experimentos Henry se dio cuenta que al aplicar una descarga a
una antena que usaba como transmisora, era posible magnetizar
otra antena colocada a varias millas de distancia (sin conexión
física entre ambas). Así, Henry había descubierto las ondas electromagnéticas, con cuya base formuló la idea de que la luz
estaba compuesta por ondas de este tipo.
En 1875 T. A. Edison descubrió que las chispas de los interruptores eléctricos producían radiaciones detectables a través
de antenas y en 1885 patentó el primer sistema de comunicaciones, el cual empleaba antenas verticales con una carga
capacitiva en su parte superior (Véase figura 1).
Aproximadamente en esta época, G. F. Fitzgerald, calculó
que un lazo (loop) de alambre radiaría ondas electromagnéticas
y que una capacitancia determinada conectada a un resistor también lo haría, pero en Very High Frequency (VHF), banda
ubicada de los 30 a los 300 Mhz.
En 1887, H. Hertz envió, procesó y recibió ondas de radio,
usando como antena transmisora un dipolo unido a una bobina
de inducción y como receptor un lazo rectangular que contenía
un salta-chispas. Hertz también inventó el plano de rejilla de
alambres paralelos y estableció los fundamentos del fenómeno
conocido como “polarización” [1]. Actualmente estos conceptos
tienen gran relevancia en el diseño y aplicación de antenas.
En 1897 Oliver J. Lodge, profesor de Física en la ciudad de
Liverpool, Inglaterra; patentó cuatro de los avances más importantes relacionados con antenas: 1) fabricó un dipolo bicónico;
EMBED PBrush FIG. 1 ANTENAS DE T. A. EDISON
IPN
Donde la ciencia se convierte en cultura
43
2) insertó una bobina-carga en el centro del dipolo; 3) acopló un
circuito de sintonía LC al circuito de la antena, e 4) inventó una
nueva antena al agregar una capacitancia horizontal a la estructura del dipolo. Estas aportaciones relacionadas con
acoplamiento, sintonía y reducción de pérdidas en la tierra,
tienen gran importancia histórica. Asimismo, Lodge, agregó al
lenguaje el término “impedancia”, actualmente utilizado en
diferentes campos de la ciencia.
En paralelo, se desarrollaron nuevas técnicas de radio que encontraron aplicación en la aeronáutica, comunicación de voz y
navegación marítima. Las primeras antenas y sistemas de comunicación que permitieron el control remoto de torpedos, naves
aéreas etc., se originaron en esta década.
En el periodo de 1920 a 1929 el diseño de antenas alcanzó un
alto grado de especialización, entre las que se contaron desarrollos para radiodifusión, investigación y navegación aérea y
marítima.
Un especto relevante ocurrió en 1923 y estuvo relacionado
con la directividad de un sólo alambre, colocado en forma horiEMBED PBrush FIG. 3 MONOPOLO QUE USÓ MARCONI COMO ANTENA
TRANSMISORA, EN LA PRIMERA COMUNICACIÓN DE RADIO TRANSATLÁNTICA
EMBED PBrush FIG. 2 ANTENA-BICÓNICA DE LODGE, UTILIZADA EN TELEGRAFÍA
Antes de 1900 se utilizaron antenas en la banda de microondas, tales como: reflectores parabólicos, lentes, antenas de corneta
y radiadores para guías de onda. En esta época, G. Marconi logró
hacer importantes desarrollos en la sintonización de su sistema
de antenas y en diciembre de 1901 hizo posible la comunicación
inalámbrica a través del Atlántico. La figura 3 muestra la antena
utilizada, compuesta por 50 alambres conectados al transmisor y
tierra. Utilizó 15 000 watts de potencia y una frecuencia de 70
Khz. Por otra parte, en 1906 pudo medir la directividad de otro
de sus inventos: la “antena doblada”, además de atribuírsele la
primera medición publicada relativa al diagrama polar, que
representa el patrón de radiación de una antena.
De 1910 a 1919, se empezaron a construir antenas de grandes
dimensiones, baja frecuencia y alta potencia. Sin embargo no
permitían la comunicación a gran escala. En 1917, en la estación
Marconi ubicada en New Brunswich, NJ, estuvo en operación
una de estas grandes antenas a una frecuencia de 22 Khz; misma
que, para incrementar su eficiencia se sintonizó en seis puntos a
lo largo de su estructura. Este tipo de sintonía múltiple fue introducido por E.F.W. Alexanderson. Cabe mencionar que el peso
de algunas de estas antenas fue del orden de 100 toneladas.
Con el propósito de tener una cobertura global, estadounidenses y británicos tenían proyectado instalar estaciones
con grandes antenas en diferentes partes del mundo, sin embargo
no pudieron concretar el proyecto por dos razones fundamentales: 1) La Primera Guerra Mundial y 2) los experimentos con
ondas cortas que habían realizado Marconi y Franklin. En razón
de este último punto, quedó claro que no se necesitan grandes antenas cuando se trabaja con frecuencias más altas.
44
conversus
Septiembre 2005
zontal a una cierta distancia de la tierra. El trabajo fue
desarrollado por H.H. Beverage de la compañía RCA, con la finalidad de recibir ondas largas. Hoy se conoce como “antena
Beverage” y pertenece a la familia de antenas de onda progresiva. Este invento ha servido como referencia para diseñar otras
antenas tales como la rómbica.
Durante los años 1930 a 1939, se regresó al uso de las frecuencias cortas que antes habían investigado Hertz y sucesores,
en la banda de VHF (1-10 m) y de microondas (abajo de 1 m). Los
dispositivos empleado en estas frecuencias fueron principalmente: arreglos de antenas (con dipolos), antenas de corneta,
antenas de ranura, antenas reflectoras y guías de onda. Estas antenas pronto se convirtieron en diseños clásicos que hoy en día
siguen siendo utilizadas para: comunicaciones satelitales, comunicaciones móviles, radiodifusión, enlaces de microondas y
Radioastronomía, entre otras aplicaciones.
Un invento de gran importancia se dio alrededor de 1939, impulsado por A.D. Blumlein, quien recibió una patente por un
tubo rasurado, el cual esencialmente es un radiador con una serie de ranuras y a su vez es una estructura resonante. Desde
entonces las antenas ranuradas han encontrado gran aplicación
práctica.
Los años de la 2ª Guerra Mundial 1940 a 1945 fueron testigo de
un experimento secreto: el radar. Su desarrollo llegó a ser considerado un objetivo nacional tanto para EUA como para Inglaterra.
Miles de personas trabajaron solamente en el campo de las ante-
nas, y los resultados no se hicieron esperar. De ese intenso estudio
se obtuvieron grandes avances en la materia, lo cual permitió
mejorar los diseños de antenas en onda corta (cm) y la construcción de transmisores de radiofrecuencia más potentes.
En este periodo se investigaron rigurosamente los reflectores
y su alimentación, los radiadores de corneta, las guías de onda,
la disposición y dimensiones de las ranuras, las lentes y su alimentación, los arreglos lineales y las antenas dieléctricas.
Entre 1946 y 1949, se desarrollaron antenas principalmente
para la banda de VHF debido al impacto causado por la televisión, que inició precisamente en esa banda. En este periodo, se
perfeccionó el uso de las antenas ranuradas y los fabricantes
diseñaron una gran variedad de ellas. La ilustración de dichas
antenas se puede ver en la figura 2.
Ya entre 1950 y 1959, aparecieron las antenas de banda ultraamplia, tales como: la antena espiral de ranura, la antena espiral
equiangular, la antena espiral cónica, la antena periódica logarítmica. Asimismo, se investigaron las características de los
arreglos, tales como: el arreglo circular conmutado, el arreglo de
guías de onda ranuradas, los arreglos de multi-elementos con fasores de ferrita y los arreglos con haces múltiples
independientes.
Los arreglos de antenas en fase, se controlaban con fasores
mecánicos, que en principio permitían manipular el haz de radiación generado por el arreglo. Esta idea fue desarrollada en los
años siguientes y actualmente los sistemas satelitales pueden
realizar dicho control de forma electrónica, lo cual garantiza que
el sistema de comunicación sea utilizado de manera eficiente.
Durante 1960 y 1969, se obtuvieron progresos muy interesantes en el campo de las antenas, sin embargo mencionaré solo
cuatro de ellos. En 1960, T.H. Maiman mostró el primer láser; en
1963, E. Leith produjo el primer holograma usando un láser; en
1965, la compañía COMSAT construyó el primer satélite síncrono
y el 20 de julio de 1969, hombre y antena estuvieron en la Luna.
En las dos décadas siguientes 1970 y 1980, se investigaron exhaustivamente las características de las antenas de microcinta,
aunque los primeros trabajos relacionados con estas antenas se
realizaron en 1950. En su forma más simple, estas antenas constan
de una cinta o un parche metálico colocado sobre un substrato
dieléctrico que a su vez está soportado por un plano de tierra, es
decir, sobre una placa metálica. Estas antenas se han utilizado
ampliamente debido a su confiabilidad, bajo costo, bajo peso,
ganancia aceptable y pequeñas dimensiones, además de su versatilidad, tanto en lo relativo a la geometrías, como a los arreglos
específicos; típicamente se diseñan a frecuencias de 1 a 100 GHz.
CONCLUSIONES
En el campo de la ciencia, las antenas y su historia han jugado un papel muy relevante en el progreso y desarrollo
tecnológico. Gracias al conocimiento y uso de las mismas ha
sido posible explorar el espacio, así como estudiar los lugares de
difícil acceso sobre la tierra.
Otros descubrimientos importantes han estado asociados
con el uso de antenas, por ejemplo en el ámbito de la medicina,
los estudios de ultrasonido y los rayos X; en biología se utilizan
para estudiar el comportamiento de diversas especies; en Radioastronomía para investigar lo que sucede en los astros ubicados
a millones de kilómetros de nosotros, etc.; y así, se podría continuar mencionando una inmensa gama de aplicaciones. Por esta
razón, no solo es necesario seguir investigando y trabajando sobre el desarrollo de las antenas, sino que se convierte en una
actividad indispensable para poder obtener resultados notables
que beneficien el quehacer humano y su entorno.
REFERENCIAS
1 HEINRICH HERTZ, Las Ondas Electromagnéticas, Publicaciones de la
Universidad Autónoma de Barcelona, 1990.
2 JACK RAMSAY, “Highlights of Antenna History”, IEEE Communication
Magazine, Vol. 19, No. 5, pág. 4-16, september 1981.
3 A.A. OLINER, “Historical Perspectives on Microwave Field Theory”,
IEEE Transactions on Microwave Theory and Techniques, Vol. MTT-32,
no. 9, pág. 1022-1042, september 1984
4 W. L. STUTZMAN AND G. A. Thiele, Antenna Theory and Design, 2a Ed.,
Cap. I, John Wiley & Sons, 1998.
REFERENCIAS ELECTRÓNICAS
< HYPERLINK "http://www.upv.es/antenas/Documentos_PDF/
Notas_clase/Historia_antenas.pdf"
http://www.upv.es/antenas/Documentos_PDF/Notas_clase/Historia
_antenas.pdf>.
< HYPERLINK "http://www.ieee-virtual-museum.org/collection/
people.php?id=1234576&lid=1" http://www.ieee-virtual-museum.org/
collection/people.php?id=1234576&lid=1>.
<http:// HYPERLINK "http://www.ideafinder.com/history/ inventors
/hertz.htm" www.ideafinder.com/history/inventors/hertz.htm>.
< HYPERLINK "http://www.cienciafacil.com/paghistoriaradio.html"
http://www.cienciafacil.com/paghistoriaradio.html>.
< HYPERLINK "http://nobelprize.org/physics/laureates/ 1909/
marconi-bio.html"
http://nobelprize.org/physics/laureates/1909/marconi-bio.html>.
EMBED PBrush FIG. 4 ARREGLO DE UNA ANTENA DE MICROCINTA DE 16
ELEMENTOS, FORMADO POR SUBARREGLOS
IPN
Donde la ciencia se convierte en cultura
45
Sucesos
Mesa redonda sobre la metrología
¿Cómo medimos
las cosas?
Jorge Rubio Galindo*
El desarrollo de la física incrementa la precisión de las mediciones.
El
IPN
con infraestructura para constituir una red de laboratorios de metrología.
Esta especialidad es instrumento imprescindible en la normalización de la
tecnología de información y comunicaciones.
(De izq. a Der.) El maestro en ciencias Sergio Viñals Padilla, doctor Víctor manuel López López, doctor Rolando Menchaca García, doctor René Carranza López Padilla y
el maestro en ciencias Adolfo Escamilla Esquivel
*Periodista científico de Conversus
46
conversus
Septiembre 2005
L
a posibilidad de realizar divisiones directas de frecuencia en la región
visible del espectro utilizando pulsos ultracortos de duraciones de
femtosegundos [una milbillonésima parte de un segundo (1 x 10-15
seg)]. y la capacidad de contar electrones o fotones, cuantos de radiación electromagnética que permita desarrollar estándares de capacitancias
de un solo electrón, destaca a la metrología como un tema fundamental de la
física. Además, por las tendencias y necesidades de un mercado globalizado,
dicha característica convierte a la metrología en uno de los pilares más importantes de la competitividad y el adecuado funcionamiento de los procesos.
Para el Instituto Politécnico Nacional (IPN), la normalización y la metrología adquieren relevancia en la
celebración del Año Internacional de la Física y a casi 70
años de su fundación como la primera institución tecnológica del país. Por esta razón, el Centro de Difusión de
la Ciencia y la Tecnología (CeDiCyT) unidad Tezozómoc,
del IPN, conjuntamente con la Asociación Mexicana de
Ingenieros en Comunicaciones Eléctricas y Electrónica
(AMICCE) y la Sociedad de Egresados de la Escuela
Superior de Ingeniería Mecánica y Eléctrica (SEESIME), llevaron a cabo la mesa redonda “La metrología para el
progreso de la física, la tecnología y la ingeniería” en el
auditorio del recién inaugurado edificio del Centro de
Formación e Innovación Educativa (CFIE) del propio instituto, el pasado mes de julio.
Con la representación del doctor Enrique Villa Rivera,
director general del IPN, el doctor Víctor Manuel López
López, secretario de Extensión y Difusión, hizo la declaratoria inaugural de este encuentro sobre metrología, que
consideró de gran trascendencia para el desarrollo de la
ciencia y la tecnología de nuestro país.
Durante su intervención, el maestro en ciencias Sergio
Viñals Padilla, director del CeDiCyT, destacó el interés del
Instituto por llevar la motivación de estos temas a la comunidad, para el desarrollo de la ciencia, la tecnología y
la ingeniería. Viñals Padilla comentó que para resolver
conflictos como el que plantea la resolución de problemas
de electrónica, en donde el uso de modelos matemáticos
con variables infinitas (como un movimiento ondular
constante) contrasta con el movimiento ondular de
cualquier emisor del mundo real, la metrología y la normalización plantean soluciones más adecuadas y precisas.
En su participación, el maestro en ciencias Adolfo
Escamilla Esquivel, subdirector Administrativo de la
Escuela Superior de Física y Matemáticas (ESFM) del IPN
mencionó la necesidad de establecer un red de laboratorios de metrología en el Instituto. Comentó que desde
hace tiempo se pretende constituir una red de laboratorios
secundarios con actividades de metrología, susceptibles
de ser acreditados, para transferir estas mediciones a la industria. Consideró que si actualmente ya funciona una
red similar de alrededor de 140 laboratorios en la Unión
Europea, el IPN podría aportar 100 laboratorios de calibraciones y ensayos a un programa de ese tipo.
Esta red podría mejorar la calidad, elevar la competencia técnica de todos los involucrados en la metrología,
y por supuesto, incrementar la formación y transmisión
de prácticas entre los laboratorios. Comentó que en el IPN
hay un gran avance en la acreditación, el reconocimiento
mutuo y la supervisión internacional, con base en pruebas
de aptitud que han contribuido a incrementar la competencia técnica de nuestra red de laboratorios.
Por su parte, el doctor René Carranza López Padilla,
director del Área de Metrología Eléctrica del Centro
Nacional de Metrología (CeNaM) comentó que el avance
de la la ciencia y la tecnología está ejerciendo una presión
enorme que va a provocar cambios significativos en la estructura de desarrollo de la metrología. En particular en
los campos de la electricidad y la mecánica.
Después de mostrar un amplio panorama sobre el estado actual de la telefonía celular, la televisión, la
radiodifusión y el Internet y la tendencia actual de la convergencia de todas ellas en la red, el doctor Rolando
Menchaca García, presidente de la Comisión de la
Especialidad de Ingeniería en Comunicaciones y
Electrónica de la Academia de Ingeniería (AI) y representante de la Asociación Mexicana de Ingenieros en
Comunicaciones Eléctricas y Electrónicas (AMICEE),
destacó la importancia vital de la información y las comunicaciones para la economía de los países, el
abaratamiento de los costos de la tecnología, la necesidad
de su regulación, así como el papel de la metrología como
instrumento de comprobación de dicho cumplimiento.
Finalmente, el ingeniero José Zavala Chávez, representante de la empresa Laboratorios Lattice, recordó que
muchas cosas han incrementado su precisión desde que
en 1874 Maxwell y Weber propusieran el sistema cgs (centímetro-gramo-segundo) a la Sociedad Británica para el
Avance de la Ciencia como un sistema de medidas del
Sistema Internacional de Unidades (SIU), vigente hasta
hoy, en que se puede detectar el sonido de eventos
biomoleculares como el nado de una bacteria.
IPN
Donde la ciencia se convierte en cultura
47

Documentos relacionados