Tecnología para competir
Transcripción
Tecnología para competir
Tecnología para competir Desarrollos tecnológicos que han impulsado a la empresa española Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Coordinador de la obra: Rafael Martín Moyano © AENOR (Asociación Española de Normalización y Certificación), 2011 Todos los derechos reservados. Queda prohibida la reproducción total o parcial en cualquier soporte, sin la previa autorización escrita de AENOR. Depósito Legal: M-23096-2011 Impreso en España - Printed in Spain Edita: AENOR Maqueta y diseño de cubierta: AENOR Imprime: AGSM Nota: AENOR no se hace responsable de las opiniones expresadas por los autores en esta obra. Génova, 6. 28004 Madrid • Tel.: 902 102 201 • Fax: 913 103 695 [email protected] • www.aenor.es Índice Manuel López Cachero, Presidente de AENOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Ramón Naz Pajares, Director General de AENOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 Tecnología y empresa: la teoría . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Tecnología y empresa: la práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 Rafael Martín Moyano Los sistemas de alimentación de energía del Joint European Torus (JET) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 La Industria de la ciencia: ayudando a explorar las fronteras de lo posible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 Francisco Javier Cáceres Núñez Desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid . . . . . . . . . . . . . . . . . . . . . . . . 87 La evolución en el sector ferroviario metropolitano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 Fernando Gómez Sánchez El desarrollo de la banda ancha en Telefónica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 La telefonía móvil o el triunfo de la normalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 Cayetano Lluch Mesquida La cocina de inducción de Fagor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 La evolución del electrodoméstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 Antonio López Ruiz 8 Gestión tecnológica en el sector vitivinícola . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 Luis Carlos Moro González Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional . . . . 259 Antonio Pérez Pérez La construcción de obras civiles. La tecnología de las presas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277 Futuro de la tecnología de las presas y balsas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309 José Polimón López y José María Osorio Sánchez Aplicación de la nanotecnología en construcción: creación de una empresa de base tecnológica . . . . . . . . . . . . . . . . 327 Aplicación de la nanotecnología en construcción: posible evolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339 Antonio Porro Gutiérrez Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355 José Ignacio Ulízar Álvarez El desarrollo de la familia de aerogeneradores G10X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379 La evolución de la tecnología eólica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395 Mauro Villanueva Monzón Normalización y tecnología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408 Gonzalo Sotorrío González 9 Manuel López Cachero Presidente de AENOR En 2011 la Asociación Española de Normalización y Certificación (AENOR) cumple veinticinco años de existencia, dedicada a su trabajo a favor de la extensión de la cultura de la calidad, principalmente a través del desarrollo de normas técnicas y de la certificación de la correcta aplicación tanto de éstas como, en su caso, de especificaciones y otros documentos de similares características. Por ello, es coherente con la trayectoria de AENOR promover una publicación como la que aparece en estas páginas, en las que se ilustra el papel primordial del desarrollo de tecnología propia en diez grandes sectores de actividad. Por otra parte, las buenas prácticas en materia de tecnología siempre han sido un referente principal de la actividad de AENOR, sin perjuicio de que los campos de acción de la normalización y la certificación hayan ido extendiéndose al paso de las necesidades de las organizaciones, abarcando otros terrenos importantes para éstas. En este período la práctica totalidad de los sectores productivos de nuestro país han podido mejorar su capacidad de ser competitivos mediante una acción de la que AENOR ha sido el impulsor, pero cuyo mérito es ante todo atribuible a aquéllos. La razón principal del desarrollo de AENOR se 10 encuentra en la notable y fructífera unión de voluntades, que se ve claramente reflejada en su base asociativa, donde está representada la práctica totalidad de los sectores del tejido productivo (tanto el industrial como el agrario o el de los servicios) de nuestro país a través de asociaciones, empresas, colegios profesionales, entidades educativas, centros de investigación, personas individuales o Administraciones Públicas, con especial relevancia del Ministerio de Industria, Turismo y Comercio. En estos veinticinco años España ha logrado dotarse de una infraestructura en el ámbito de la calidad (entendida en su más amplio sentido, que incluye aspectos como la sostenibilidad, la innovación o la seguridad) que se halla a la altura de la de los países más desarrollados. En normalización, el catálogo de AENOR, compuesto por más de 29.000 normas técnicas, es uno de los más completos del panorama internacional. En dichas normas prácticamente todos los sectores tienen a su alcance las mejores prácticas en múltiples aspectos necesarios para su desarrollo. Además, los expertos españoles han ganado una alta consideración en los foros internacionales de normalización, tanto europeos como mundiales, y existen ya iniciativas españolas que se toman como ejemplo para el desarrollo de normas de aplicación internacional en campos de vanguardia como I+D+i o Ecodiseño. Por otra parte, AENOR presta su ayuda a otros países para estructurar un sistema eficaz de normalización, mediante proyectos de cooperación que cuentan con el respaldo de entidades como la Unión Europea o el Banco Mundial. En certificación, AENOR ha sido elemento principal para que España sea el primer país de Europa en certificaciones de Sistemas de Gestión Ambiental y el segundo en certificación de Sistemas de Gestión de la Calidad. Los casi sesenta mil certificados concedidos por AENOR suponen un claro testimonio del compromiso con la labor bien hecha de las organizaciones que los han obtenido. La certificación va evolucionando y diversificándose junto a las necesidades de sus demandantes y, así, unidas a la más difundida sobre calidad o medio ambiente, cada vez ganan más empuje las relacionadas con las emisiones de gases de efecto invernadero, de Salud y Seguridad Laboral, Innovación, Accesibilidad y Seguridad Alimentaria o de la Información. Estos primeros veinticinco años han demostrado que la actividad económica se ve favorecida por la existencia de una entidad como AENOR, privada, independiente y sin fines lucrativos. El futuro pasa por la profundización en la ampliación y adaptación constante del catálogo de servicios así como en la internacionalización. Las nuevas vías que se recorran seguirán teniendo, como hasta ahora, el objetivo de aportar un valor particular y apreciado por las organizaciones. Manuel López Cachero 11 Ramón Naz Pajares Director General de AENOR En la conmemoración de su 25.º aniversario, AENOR ha querido impulsar un trabajo en el que se reconociese la valiosa aportación de la tecnología. Para ello, se ha coordinado a expertos de distintos sectores que, a través de la presente publicación, han descrito su experiencia, así como formulado previsiones. Probablemente, una muestra clara del estado tecnológico de un país sea su catálogo de normas. Otro factor que lo evidencia, conectado con el anterior, es la participación activa en los entornos europeos e internacionales en los que hoy día se elaboran las normas, entendidas estas como especificaciones voluntarias realizadas bajo el consenso de las partes afectadas. La transmisión de los conocimientos y avances de la tecnología encuentra en las normas su herramienta perfecta, por su accesibilidad y procedimiento de elaboración. La definición que el primer presidente de AENOR hizo de la normalización como “socialización de la tecnología” refleja la implicación de estas actividades y su aportación al desarrollo de los países. 12 Siguiendo el argumento que he expresado más arriba, el catálogo de normas UNE del que ahora disponemos nos sitúa en una posición destacada dentro de nuestro entorno próximo, el europeo, así como en la esfera internacional. El número de documentos se ha cuadruplicado a lo largo de los veinticinco años de vida de AENOR, alcanzando las 29.000 normas UNE. Asimismo, cerca de mil expertos participan en los foros de normalización europeos CEN-CENELEC e internacionales ISO-IEC. Siendo las normas un importante vehículo de transmisión de conocimientos y, en consecuencia, tecnologías, no debe olvidarse que, en nuestro caso, lo es también de un idioma común que comparten más de cuatrocientos millones de personas. Estas pueden apreciar cómo la colaboración entre organizaciones de los dos lados del Atlántico permite disponer de las más significativas normas en su idioma, haciendo en ocasiones que introduzcan términos técnicos nuevos que recogen el uso habitual de determinadas expresiones. Es una realidad que en las dos últimas décadas del siglo XX, los términos calidad y tecnología conformaban la base de las declaraciones de las más significativas personalidades generadoras de opinión. Pero el cambio de siglo ha dado lugar a los conceptos basados en I+D+i, excelencia y otras, olvidando a la calidad y la tecnología. Sería preocupante y un error que ello refleje el hecho de que está todo conseguido en ambos campos, ya que ni calidad ni tecnología alcanzan nunca su meta y, sin ellas, los otros términos más actuales no tendrían sentido. Seguro que a todos los lectores se les ocurrirán más razones y, posiblemente, más acertadas para vincular la tecnología con la conmemoración del 25.º aniversario de AENOR. En mi caso, la razón de estas líneas está en dejar constancia del agradecimiento a los autores de los distintos capítulos de la publicación por su excelente colaboración, así como a las entidades que se lo han permitido. Esta muestra de la tecnología que nace de nuestros sectores y empresas intenta poner de relieve lo que nos puede permitir el desarrollo tecnológico, y animar a las múltiples iniciativas en marcha a que vean en estos ejemplos logros alcanzables y con importantes resultados. Espero que esta publicación aporte un reconocimiento a la tecnología desde la normalización representada por AENOR, con el deseo de que en el futuro, en la conmemoración del cincuentenario de AENOR, los logros alcanzados superen ampliamente la realidad actual. Agradezco a los lectores su amabilidad en el empleo de su tiempo en una lectura que espero sea de su agrado. Ramón Naz Pajares 13 Tecnología y empresa: la teoría Tecnología y empresa: la práctica RAFAEL MARTÍN MOYANO (Madrid, 1941) Coordinador de la obra Doctor Ingeniero de Minas. Ha dedicado sus treinta y un años de vida profesional a la investigación tecnológica. Los siete primeros como investigador científico en el CENIM (Centro Nacional de Investigaciones Metalúrgicas) especializado en microscopía óptica. En los once años que permaneció en el INI (Instituto Nacional de Industria) fue Subdirector de Tecnología, Director del Programa OGEIN (Organización y Gestión de la Investigación) y Director de la Fundación Empresa Pública. Dirigió, durante los catorce años de su existencia, OCIDE (Oficina de Coordinación de Investigación y Desarrollo Electrotécnico) y los últimos años de OCICARBÓN. Los últimos nueve años de su carrera, hasta su jubilación en 2006, fue Gestor del Programa de Investigación CSN-UNESA y Asesor Técnico del Vicepresidente del CSN (Consejo de Seguridad Nuclear). También ha sido vocal de las siguientes entidades: CAICYT, CDTI, CIEMAT, IDEA, y el primer Presidente de ENISA (Empresa Nacional de Innovación). Recientemente, ha dirigido el estudio La Investigación Energética en España, para la Fundación para Estudios sobre la Energía. Tecnología y empresa: la teoría Rafael Martín Moyano “Si tu intención es describir la verdad, hazlo con sencillez: la elegancia déjasela al sastre.” (Albert Einstein, 1879-1955) DEFINICIONES Al iniciar un documento en el que se va a tratar de establecer: cómo han evolucionado diversas tecnologías y cómo se prevé que vayan a hacerlo en un próximo futuro; cuál ha sido la gestión que han realizado determinadas empresas para obtener logros tecnológicos significativos; o por qué unas empresas basan una parte importante de su estrategia en el desarrollo tecnológico, mientras que otras prefieren recurrir solo a la compra de la tecnología que precisan, parece obligado comenzar identificando qué se va a entender aquí por tecnología y por innovación, para evitar en lo posible falsos consensos y malentendidos a los que un léxico poco preciso puede conducir. Tal identificación es precisa en la caso de la tecnología por tratarse de un concepto que, por no estar claramente establecido y asimilado en la sociedad española, se ha convertido en herramienta de la publicidad, comercial y política, que lo utilizan continua e inadecuadamente hasta vaciarlo de su contenido real. Es este un fenómeno habitual que afecta a otros conceptos, que tienen un componente positivo y que no son dominados por la sociedad (baste recordar lo que está sucediendo con la palabra “sostenibilidad”). El uso y abuso indebido de tales términos acaba recordando el refrán popular: “dime de qué presumes y te diré de qué careces”. En efecto, suele existir una cierta correlación entre el uso del vocablo “tecnología” y una gestión deficiente u omisa del desarrollo tecnológico. Tecnología El Diccionario de la lengua española, en su primera acepción, define la tecnología como: “conjunto de teorías y de técnicas 17 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española que permiten el aprovechamiento práctico del conocimiento científico”. Es una definición precisa, que contiene información valiosa sobre el carácter y el origen de la tecnología, aunque deja algún vacío que se comenta más adelante. Lo primero que pone de manifiesto la definición es la intangibilidad de la tecnología. Se trata de teorías y técnicas, es decir, de conocimientos cuyo principal soporte son las personas, más allá de cuánto se haya avanzado en la confección de programas de ordenador, diagramas de proceso, soportes magnéticos y otros medios para plasmar el conocimiento de los expertos. Su principal representación es el “saber hacer”, el know how anglosajón, que concede posición de privilegio en el mercado a quien dispone de él. Como bien intangible, su apropiación y su gestión no son convencionales, y presentan algunas dificultades que es necesario resolver de forma adecuada. Otra particularidad muy interesante de la intangibilidad es que se trata de un bien que puede ser poseído simultáneamente por varios propietarios. La segunda característica a resaltar es la utilidad inmediata de la tecnología, ya que se trata de técnicas que permiten el aprovechamiento práctico del conocimiento científico, es decir, que están listas para su incorporación al proceso productivo, diferenciándose así de aquellos procesos de investigación y desarrollo que no obtienen un producto acabado y listo para su uso inmediato. Esta función de utilidad es la que ha llevado a muchos economistas a identificar a la tecnología como el tercer factor de la producción, o como el factor residual, ya que el capital y el trabajo no son suficientes para explicar toda la complejidad de una empresa moderna. En cualquier caso, la tecnología forma parte indisoluble del concepto “empresa”, y quizás sea el principal elemento diferenciador de lo que se conoce como “negocio”, ya que, compartiendo ambos conceptos el carácter lucrativo, se diferencian drásticamente en el plazo y la extensión de la acción: el “negocio” busca obtener su premio a plazo inmediato, mientras que la “empresa” espera hacerlo en un plazo más dilatado y en un merca18 do más amplio, para lo que necesita recurrir a una gestión tecnológica adecuada. El análisis del componente tecnológico de la empresa se complica por el hecho de que la tecnología forma parte de los dos factores clásicos de la producción: el capital y el trabajo. De hecho, la tecnología está soportada, en su gran mayoría, por los técnicos y trabajadores de las empresas y, por lo tanto, está incorporada al factor trabajo. En pequeñas empresas muy innovadoras, la tecnología puede “residir” en uno o dos técnicos y su salida de la empresa la “descapitaliza” totalmente. Por otro lado, en empresas intensivas en capital, con mucha frecuencia la tecnología principal reside en la maquinaria e instalaciones que utilizan, lo que les convierte en subsidiarias tecnológicas de quien se las ha suministrado. Conviene, ahora, volver a la definición del término para analizar otro aspecto: el origen de la tecnología. El diccionario aporta dos informaciones importantes: una, que existe una cierta distancia entre la tecnología y su origen, ya que permite el aprovechamiento práctico del conocimiento; es decir, que “alguien” tiene que obtener el conocimiento y “alguien” tiene que desarrollar las teorías y técnicas que permitan su aprovechamiento, sin que exista necesidad de que ambos sujetos coincidan. De hecho, se podría afirmar que la mayoría de las tecnologías que se utilizan en las empresas provienen de conocimientos desarrollados por terceros, mediante un proceso de transferencia, explícito o implícito, entre unos y otros. Si se admite que el conocimiento científico se adquiere a través de la investigación, lo anterior significa que existe una relación causal entre investigación y tecnología a través de la innovación (demostración, preseries, plantas semiindustriales, precomercialización, etc.), pero que esa relación no exige necesariamente la identidad entre el generador del conocimiento y el desarrollador de la tecnología. La segunda información que aporta el diccionario es que la tecnología debe partir del conocimiento científico, omitiendo, Tecnología y empresa: la teoría por tanto, cualquier otro tipo de conocimiento. Esta es una restricción que parece innecesaria, ya que el conocimiento empírico fue el principal origen de la tecnología, sobre todo en la Revolución Industrial, cuando el conocimiento científico seguía muy a la zaga al empírico. El “ojo de buen cubero”, el hornero que decidía cuándo debía hacerse la colada, el ceramista que elegía personalmente las arcillas óptimas, el campesino que sabía cuándo iba a cambiar el tiempo y tantos ejemplos de conocimientos empíricos, en ocasiones pasados de padres a hijos, han sido luego sustituidos por conocimientos científicos cuando las observaciones personales se han correlacionado con magnitudes mensurables (temperaturas, presiones, composición de gases, composiciones químicas, etc.) y los procesos se han podido modelizar de forma fiable. Sería una obviedad tachar de “academicista” al Diccionario de la lengua española, pero sería muy sencillo ampliar la definición incluyendo: “... del conocimiento científico o empírico”, con lo que habría quedado cubierto todo el espectro de posibles orígenes de la tecnología. Por terminar con la definición del diccionario, en otra acepción, se identifica a la tecnología como: “conjunto de los instrumentos y procedimientos industriales de un determinado sector o producto”. Esto introduce otra importante reflexión para salir al paso del mal uso habitual del término. En efecto, cuando se refiere a un determinado sector o producto, sin especificar restricción alguna, quiere decir que la tecnología no es exclusiva de sectores como la electrónica, la informática, la comunicación o la biomedicina, sino que existen tecnologías alimentarias, siderúrgicas, jugueteras, mineras, cerámicas, etc. El uso indebido del término ha llevado a que, en ámbitos tan conspicuos como la Bolsa, se hable de “las tecnológicas” para referirse a un conjunto de empresas del mundo de la electrónica y la comunicación. Esta costumbre, aireada y extendida por la prensa, ha conseguido “contagiar” a un colectivo mucho más amplio que el de los inversores, que poco a poco termina identificando erróneamente la tecnología con la electrónica, la informática y la comunicación (TIC). En los casos que se incluyen en este libro existe, como es lógico, una importante representación de empresas que operan en sectores intensivos en tecnología, ya que en estos sectores es obligado que la estrategia empresarial ponga énfasis en la misma, pero también se han incorporado ejemplos de empresas que operan en sectores no intensivos en tecnología, en los que resulta interesante conocer por qué unas empresas abordan el desarrollo tecnológico mientras que otras no lo hacen, y qué consecuencias tienen una y otra estrategia. Innovación “El que no aplica nuevos remedios debe esperar nuevos males; porque el tiempo es el máximo innovador.” (Francis Bacon, 1561-1626) El segundo término a definir y comentar es el de innovación. Este es un concepto más cercano a la sociedad, menos distorsionado por la publicidad y los medios, ya que se utiliza de forma adecuada en multitud de campos de la actividad humana: Innovar es, según el diccionario: “mudar o alterar algo, introduciendo novedades”; por lo que la “innovación tecnológica” no será otra cosa que mudar o alterar una tecnología, introduciendo novedades en ella. Según otra acepción del término, innovación también es: “creación o modificación de un producto, y su introducción en un mercado”, por lo que la innovación tecnológica, será la creación o modificación de una tecnología y su introducción en un mercado.1 De nuevo aquí, como ocurría con la tecnología, quien define la realidad del cambio es el mercado. Cualquier cambio o 1 La Norma UNE 166000:2006 define la innovación tecnológica como: “actividad de incorporación, en el desarrollo de un nuevo producto o proceso, de tecnologías básicas existentes y disponibles en el mercado”. 19 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española modificación de una tecnología que no llegue al mercado, no debería llamarse innovación. Todo cuanto esté en una estantería o en un ordenador, en tanto no se incorpore a un mercado, no es una innovación tecnológica propiamente dicha. En todo caso, utilizando la terminología agrícola, sería una innovación tecnológica en agraz. Entorno Empresa Cultura ESQUEMA LÓGICO En los apartados siguientes se van a enunciar y analizar los roles que juega la tecnología en las distintas facetas de la empresa. Se trata de una realidad compleja, como lo es el “sistema” empresa, que se puede y debe contemplar desde distintos ángulos; pero, al ser una realidad única, es inevitable que se produzcan ciertos solapamientos en los análisis parciales. Estrategia Este es el esquema lógico que se ha seguido para desarrollar el resto de los apartados; pero no se debe olvidar, como se ha dicho, que se trata de una única realidad, por lo que el análisis se podría abordar empezando por cualquiera de sus elementos. 20 Gestión Abastecimiento Alquiler En la figura 1 se ha esquematizado el hilo del razonamiento aquí seguido: • La empresa está en continua interacción con el mercado, y en esa interacción la tecnología es una pieza calve. El binomio empresa-mercado está influenciado por el entorno, que marca las tendencias y exige constantemente adaptaciones y cambios. Con todo ello, la empresa va creando su propia cultura tecnológica y diseñando su estrategia al respecto. Al servicio de esa estrategia, y gracias a una gestión adecuada, realiza su abastecimiento de tecnología optando, en cada caso, por alquilarla, comprarla o desarrollarla. Por último, para cerrar el ciclo, la empresa puede incluir en su estrategia, la transferencia de su tecnología a terceros. Mercado Compra Desarrollo Transferencia Figura 1. Esquema tecnológico de la empresa ENTORNO En la formación de la cultura tecnológica de una empresa, así como en su interacción con el mercado, tiene un peso relevante su entorno, ya que sus actividades y la propia formación del personal que la integra están necesariamente influenciados por ese entorno. En este libro se contemplan y analizan las experiencias tecnológicas de empresas españolas que, aun en el caso de las empresas más internacionalizadas, se mueven dentro del entorno español y de la cultura tecnológica española, que es, sin duda, diferente de las culturas tecnológicas de otros países. No es necesario recurrir a las culturas tecnológicas estadounidense o japonesa para resaltar esas diferencias, ya que también hay marcadas diferencias con países tan cercanos como Reino Unido, Francia o Italia. Tecnología y empresa: la teoría No es intención de este capítulo hacer un análisis histórico de la investigación y el desarrollo tecnológico en España, pero siendo uno de sus objetivos realizar determinados apuntes prospectivos sobre la evolución de algunas tecnologías y analizar determinados éxitos de desarrollo y gestión de la tecnología, conviene recordar lo dicho por Søren Kierkegaard (1813-1855): “La vida ha de ser vivida mirando hacia delante, pero solo puede ser comprendida mirando hacia atrás”. De ahí que a continuación se esbocen algunas pinceladas sobre el pasado del país, que explican, en cierta medida, las diferencias entre su cultura tecnológica y la de los países antes mencionados. La conocida polémica entre Unamuno y Ortega y Gasset, en la que don Miguel proponía “que inventen ellos, ya que nosotros nos podemos aprovechar de sus inventos”, es representativa de dos formas antagónicas de ver el mundo, y aunque no son privativas de la sociedad española, tiene raíces profundas en ella. El “que inventen ellos” tiene mucho que ver con la hidalguía, la nobleza y la pureza de sangre, tan valorada por la forma de ser y de sentir, sobre todo castellana. Hubo que esperar hasta 1783 para que Carlos III dictaminase que el trabajo manual “no envilece, ni es óbice para conseguir la nobleza”, eliminando así un hecho discriminatorio que contrastaba con las costumbres de los países anglosajones, en los que arraigó el calvinismo. Dos siglos antes, en 1558, Luis de Ortiz, Contador de Hacienda de Castilla, había propuesto a Felipe II dos medidas: • Prohibir la salida de mercancías sin labrar. • Ensalzar los oficios mecánicos, hoy aniquilados y despreciados, dándoles honras y oficios, como se hace en Flandes.2 2 En la Memoria que envió Luis Ortiz al rey decía cosas como: “Entendido está que de una arroba de lana, que a los extranjeros cuesta quince reales, hacen obraje de tapicerías y otros paños y cosas labradas fuera de España de que vuelven de ello mismo a ella valor Con tales precedentes culturales, no resulta extraño que España se dividiera profundamente ante los grandes movimientos sociales, económicos y tecnológicos de los siglos XVIII y XIX, como la Ilustración o la Revolución Industrial, incorporándose tarde y mal a ellos, para terminar encontrándose con notable desventaja al cerrarse los grandes conflictos bélicos del siglo XX, en los que España “participó” con el suyo propio. Terminada la Segunda Guerra mundial, el mundo occidental entra en un periodo de crecimiento económico y desarrollo tecnológico industrial acelerados, en el que participan tanto las naciones ganadoras como las perdedoras, mientras que España, una vez más, queda relativamente al margen de ese desarrollo o, cuando menos, participa de él de forma secundaria, con un cierto retraso temporal. España abordó su desarrollo industrial en condiciones muy difíciles, con importantes restricciones en el suministro de muchas materias primas y también de tecnologías. En este marco, recurrió a una cierta autarquía que incluía también la investigación y el desarrollo tecnológico, lógicamente sesgados por las carencias y el aislamiento. Mientras tanto, los países de su entorno realizaron su desarrollo con tecnologías procedentes mayoritariamente de EEUU, complementadas por una fuerte protección de los gobiernos que permitió a sus empresas de los sectores básicos y de bienes de equipo crecer y fortalecerse, hasta el punto de poder asimilar y sustituir las tecnologías originales. Cuando ya en los años sesenta se liberalizó la economía y se abrieron los mercados, España se lanzó con entusiasmo a la compra de lo foráneo, rechazando frontalmente el modelo autárquico, sin analizar la oportunidad de evolucionar desde la situación anterior, aprovechando lo que hubiera de más de quince ducados... y en el hierro y acero, de lo que les cuesta un ducado, hacen frenos, tenazuelas, martillos, escopetas, espadas, dagas... de que sacan más de veinte ducados y a veces más de cien”. 21 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española sido pertinente. Salvo en aquellas escasas ocasiones en las que por razones estratégicas el Gobierno se reservó alguna presencia en determinados sectores y empresas, el resto de la economía experimentó un fuerte giro hacia la compra de tecnología ajena que condujo a un modelo de dependencia, con las limitaciones que ello conlleva. Las posteriores transformaciones experimentadas por el marco económico español y europeo: formación de las comunidades europeas, creación de la Unión Europea, globalización…, que sin duda brindan enormes posibilidades para la penetración en muy diversos mercados, han encontrado a una buena parte de las empresas españolas en esa segunda fila tecnológica en la que les había situado la evolución anterior, sufriendo la competencia de aquellas empresas que se desarrollaron tecnológicamente bajo la protección de sus gobiernos y que ahora exigen que se respeten las reglas del juego liberal, que tanto les favorecen. Esta es una descripción simplista que no recoge toda la realidad, puesto que, afortunadamente, son abundantes los ejemplos de empresas españolas que están sabiendo competir y salir a los mercados internacionales con sus propios productos y tecnologías, y de ello queda constancia en este libro; pero los datos agregados son coherentes con la descripción anterior: el Informe de Competitividad Global 2010-2011 publicado por el Foro Económico Mundial (FEM) coloca a España en el lugar 42 de 139 países, retrocediendo nueve puestos con respecto del Informe del año anterior; al nivel de Puerto Rico o Barbados. El índice de competitividad lo componen un total de doce factores que influyen sobre la misma, como son: infraestructuras, ambiente de negocios, mercado laboral y de bienes, mercado financiero, salud y educación primaria, innovación y tamaño absoluto del mercado. Pues bien, donde España obtiene una puntuación muy baja es precisamente en innovación, lo que lastra buena parte de las posibilidades que brindan otros factores y está dificultando notablemente la salida de la crisis que ha afectado a todos los países de su entorno económico y social. 22 La cultura tecnológica de la sociedad española es causa y efecto de estos precedentes. Un ejemplo no anecdótico de esa cultura es la extensión del argumento publicitario: “La tecnología alemana al servicio de...”, y lo inimaginable que sería el uso del argumento: “Desarrollado con tecnología propia”. Compárese esta situación con las posturas, por ejemplo, de la sociedad francesa. Hasta ahora, la Administración española, cualquiera que haya sido su color político, no ha percibido de forma profunda esta situación: no ha asumido que España no tiene ventajas en energía ni en materias primas estratégicas, y que hace años perdió el diferencial favorable de la mano de obra, por lo que no le queda otra salida que la del desarrollo tecnológico, no como declaración formal, que eso sí lo ha hecho en varias ocasiones, sino como un cambio radical de actitudes y cultura, mediante la creación de un marco que sea favorable a la “revolución tecnológica pendiente”. MERCADO “La prueba de una innovación no es su novedad, ni su contenido científico, ni el ingenio de la idea, sino su éxito en el mercado.” (Peter Drucker, 1909-2005) La innovación tecnológica es la llave del mercado. Esta es una frase “axiomática” con la que pueden estar de acuerdo numerosos empresarios, pero que seguramente no asumen otros, que están situados en el mercado sin haber dedicado a la tecnología mayor atención que la que han dedicado a otros insumos. Estos empresarios, cuando tuvieron necesidad de ciertas tecnologías, acudieron al mercado correspondiente, establecieron los acuerdos pertinentes, las consiguieron... y pasaron a atender otros problemas de su empresa que consideraron más urgentes. Como esta es una actitud más frecuente de lo que parece, resulta necesario ahondar en el alcance de la frase inicial y en las consecuencias que, en general, se derivan de la actitud de ese segundo tipo de empresarios. Tecnología y empresa: la teoría La relación inequívoca entre la tecnología y el mercado la establecen los dos parámetros que caracterizan un producto en el mercado: la calidad y el coste. En efecto, la calidad de un producto la proporciona la tecnología de su diseño y especificación, que garantiza su función de utilidad o su atractivo para el cliente, y esto es así tanto para un frigorífico, un automóvil, unos zapatos, una lata de fabada u otros productos destinados al consumo, como para productos industriales como puedan ser una caldera de gas, un aerogenerador o una centralita telefónica; en todos estos casos, la tecnología sirve para diferenciar unos productos de otros, ya sea de forma implícita o explícita. En los casos de aquellos productos que no admiten diferenciación en el mercado (las commodities anglosajonas), como es el caso, por ejemplo, de la electricidad, el trigo, la gasolina, etc., ya que su calidad se limita a cumplir las especificaciones que imponen el mercado o la legislación, la tecnología es la que, por un lado, facilita el cumplimiento de esas especificaciones, mientras que por otro lado consigue una diferenciación en el coste del producto y, por lo tanto, una ventaja comparativa en el mercado o en la cuenta de resultados. En efecto, la tecnología del proceso es la que determina los costes y, por lo tanto, resulta decisiva para poder acceder al mercado con un precio competitivo. El interés y la necesidad de alcanzar una cierta autonomía tecnológica, en definitiva, la actitud y estrategia tecnológica de una empresa, están condicionados por varios factores y parámetros del sector en el que opera. Intensidad tecnológica Quizás el primer parámetro a analizar en la relación de la tecnología con el mercado sea la intensidad tecnológica del sector en el que opera la empresa, frente a las intensidades de otros factores de la producción como el capital o el trabajo. En cualquier caso, como se expuso en el apartado anterior, tanto el capital como el trabajo también llevan la tecnología incorporada de forma implícita, y es muy importante saber gestionar tanto la tecnología incorporada a los bienes de equipo, la maquinaria, las instalaciones, etc., como la soportada por el personal de la empresa, cualquiera que sea su nivel y ocupación. Es también importante tener una visión evolutiva de la intensidad tecnológica de un sector, ya que puede cambiar muy significativamente con el tiempo. El ejemplo más evidente de estos cambios son los desplazamientos de la mano de obra al ser sustituida por la tecnología gracias a los procesos de mecanización, automatización e informatización que han transformado hasta la raíz muchos sectores, ocasionando desde su origen el rechazo de los trabajadores y el nacimiento del ludismo. De hecho, buena parte de los Expedientes de Regulación de Empleo (ERE) que se someten a la aprobación de la Administración tienen su origen en la “desmaduración” del sector, originada por la incorporación de nuevas tecnologías. Posición en el mercado No obstante lo dicho, cualquiera que sea la intensidad tecnológica de un sector, la actitud y estrategia tecnológica de una empresa encuadrada en él están condicionadas por su posición en el mercado, con respecto a sus clientes y a sus competidores. Parece claro que, cuanto mayor sea el número de clientes, tanto menos exigente será el mercado y, por tanto, las exigencias tecnológicas que determinen la calidad y el precio del producto. Un cliente único (monopsonio) o un oligopolio de demanda siempre podrán ser más exigentes que el consumidor final, al que se puede convencer por otros medios, como la publicidad (aunque esta utilice como argumento la tecnología, cualquiera que sea la atención real que la empresas le preste). De forma similar, las exigencias que puede formular el cliente a una empresa que está en situación de monopolio son claramente menores que cuando existe al menos un oligopolio 23 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española de oferta o cuando la empresa se mueve en un mercado totalmente abierto y competitivo. La tabla 1 contiene una matriz en la que se refleja lo anterior, reduciendo de forma esquemática todas las situaciones posibles a nueve. Como parece evidente, la casilla C acoge aquellos productos en los que la exigencia tecnológica es menor, dado que una empresa sin competencia (de hecho o de derecho) ofrece sus productos a un consumidor que tiene poca o ninguna capacidad para imponer criterios tecnológicos sobre calidad o precio. Por el contrario, la casilla G acoge la situación más exigente, ya que un cliente único puede imponer sus criterios y exigencias ante una oferta abierta. La casilla E acoge una situación exigente, conocida como oligopolio bilateral, que es muy típica de los productos industriales. Tabla 1. Posición en el mercado en función de la competencia y los clientes Cliente único Oligopolio (monopsonio) de demanda 24 Consumidor Monopolio de oferta A B C Oligopolio de oferta D E F Competencia abierta G H I mercado, prestando atención a todos los parámetros que los configuraban. El primer estudio se realizó en el sector químico, pero con posterioridad se extendió a maquinaria, electrónica, construcción, etc., comprobando que las conclusiones del proyecto inicial eran claramente extrapolables al resto de sectores. En esas conclusiones, junto a las más obvias de asunción de riesgo, capacidad de investigación, mantenimiento de esfuerzo, capacidad financiera, etc., destacan otras relativas al mercado que parecen ser las determinantes del éxito real de la innovación. Se constató, por ejemplo, que: • Gran parte de las innovaciones exitosas fueron resultado de una estrecha colaboración entre las firmas innovadoras y las usuarias de la innovación. • Las innovaciones más exitosas ocurrieron en empresas que desarrollaron una adecuada red interna de comunicaciones y una integración entre producción y mercado. Como consecuencia de lo anterior se propusieron, como condiciones necesarias para el éxito: • Conseguir una identificación rápida e imaginativa del mercado potencial. • Prestar especial atención al mercado potencial y realizar esfuerzos para captar y ayudar a los usuarios. Desarrollo del mercado • Coordinar la I+D con la producción y la comercialización. Las relaciones entre la innovación, la tecnología y el mercado vienen siendo objeto de estudio a lo largo de los años. Quizás, uno de los esfuerzos más relevantes al respecto sea el Proyecto Sappho, realizado en los años setenta por la Science Policy Resarch Unit de la Universidad de Sussex, que ha tenido numerosas secuelas posteriores. El Proyecto Sappho es un estudio empírico en el que se analizaron en profundidad numerosos proyectos de investigación, con y sin éxito en el • Mantener buenas comunicaciones con el mundo exterior y con los clientes. En definitiva, se concluyó que, para que existan productores y usuarios de innovaciones como unidades formalmente independientes, se requiere un flujo continuo de información entre ambos. En la medida en que los mercados se caractericen por cierto grado de organización (canales y códigos de Tecnología y empresa: la teoría información, lazos de cooperación, confianza mutua, etc.) se puede hablar de interacción entre tales agentes. El desarrollo del mercado (preparación de usuarios, asistencia posventa, presencia cercana, exportación, etc.) se presenta, pues, como una actividad de enorme trascendencia para que una innovación tenga éxito y la tecnología desarrollada sea utilizada por sus destinatarios naturales. Siempre, claro está, que no se trate de un mercado cautivo. UBICACIÓN DE LA TECNOLOGÍA Por su parte, cuando el producto llega diferenciado al mercado, es el principal receptor y portador de la tecnología, y esta es la responsable del diseño y fiabilidad del producto, que permiten que su funcionalidad sea apreciada en el mercado al que se dirige. CULTURA, ESTRATEGIA Y GESTIÓN TECNOLÓGICA “Si seguimos haciendo lo que estamos haciendo, seguiremos consiguiendo lo que estamos consiguiendo.” (Stephen Covey, 1932- ) Resulta sorprendente constatar que, con cierta frecuencia, empresarios y técnicos con muchos años de experiencia identifican la tecnología con aspectos muy concretos de su empresa e ignoran, u olvidan, otros igualmente importantes para la gestión y el éxito de la misma. En principio, los grandes receptores de la tecnología son el proceso y el producto. El proceso es un gran receptor de la tecnología de una empresa, ya que es la tecnología del proceso la que determina el coste de los productos y su diferencial con respecto al precio en el mercado, además de otros parámetros tan importantes como la mano de obra necesaria, el consumo energético o el impacto medioambiental. Los procesos están constituidos por un conjunto complejo de elementos (know how, equipamiento, formación del personal, organización, automatización, etc.), todos ellos receptores de tecnología. De entre esos elementos merecen destacarse los bienes de equipo, que en muchas ocasiones son los que incorporan la mayor parte de la tecnología que utiliza una empresa. Con frecuencia, las empresas de proceso colaboran con sus suministradores de bienes de equipo para especificar sus prestaciones, participando activamente en el diseño e innovación continua de tales equipos (el sector de obras públicas es un buen ejemplo de ello) sin que se identifique esta acción como parte de un desarrollo tecnológico. Una empresa es un sistema complejo que, actuando dentro de un entorno que le influye de forma notable, trata de optimizar los medios y recursos de que dispone para alcanzar unos ingresos que puedan satisfacer las expectativas de resultados económicos esperados en cada momento. Cuando ese sistema complejo está en equilibrio, quiere decir que se ha alcanzado y superado el umbral mínimo de ingresos requerido y que se están obteniendo los beneficios esperados. Pero ¿qué ocurre cuando no se obtienen esos ingresos? ¿cuando semana tras semana, mes tras mes o incluso año tras año, los ingresos caen de forma continuada? Cuando eso ocurre dentro de un mercado competitivo lo lógico es pensar que las caídas de las ventas se deben a problemas de calidad o precio de los productos con respecto a los de la competencia. Con frecuencia, cuando se produce una de estas situaciones que el empresario no había previsto, su primera percepción es la falta de liquidez, por lo que la reacción inmediata es actuar sobre los costes y la financiación, buscando “soluciones financieras y laborales” que traten de paliar el problema a corto plazo, esperando que el problema sea pasajero. Desgraciadamente, cuando detrás de la caída de las ventas lo que hay son costes de producción y comercialización elevados, obsolescencia de los productos, desventajas 25 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española cualitativas con respecto a la competencia, etc., esas “soluciones financieras” no son tales, sino parches lenitivos que, al no actuar sobre las causas profundas, que son de carácter tecnológico, no solo no arreglan la situación, sino que la empeoran, al consumir un tiempo que sigue siendo aprovechado por la competencia para ahondar las diferencias establecidas.3 La empresa ha de mantener un continuo y difícil equilibrio entre lo urgente a plazo inmediato y lo importante a medio y largo plazo. Son muchos los directivos empresariales que esgrimen como bandera el conocido dicho latino primum vivere, deinde philosophare, aplicando lo de philosophare a la investigación y el desarrollo tecnológico. Es bien cierto que si el presente no es viable, nunca podrá haber futuro, pero también lo es que la mayoría de los problemas pueden preverse con una planificación bien realizada, que anticipe los efectos de los cambios del entorno, minimice sus consecuencias negativas y permita aprovechar las oportunidades que brindan los cambios. De ahí la necesidad de buscar ese equilibrio entre el corto, el medio y el largo plazo, que obliga a que una empresa no pueda considerarse nunca en “reposo”, por brillante y tranquila que pueda parecer su situación en un determinado momento, porque el tiempo y el entorno están variando de forma permanente. La investigación tecnológica, cuando no es un juego diletante, sino una actividad comprometida con la realidad de la empresa, actúa en el campo de las causas y no en el de los efectos, por lo que puede y debe ser el mejor y más sólido apoyo para garantizar o, al menos, posibilitar su futuro. Cultura tecnológica Dos amigos pasean bordeando un lago. De pronto ven que un hombre chapotea en el agua pidiendo auxilio. Uno de los dos paseantes no se lo piensa: se quita la chaqueta y los zapatos, se arroja al agua y salva a quien estaba ahogándose. Nada más llegar a la orilla, es ahora una mujer la que está en la misma Cada empresa posee una cultura tecnológica integrada por el conjunto de las actitudes que sus fundadores, dueños, directivos, técnicos, trabajadores y resto del personal, tienen con respecto a la tecnología. Esa cultura se va creando a lo largo de los años y tiene siempre como referencias, tanto positivas como negativas, las decisiones de carácter tecnológico que se han ido tomando a través de la vida de la empresa. Por supuesto, la cultura tecnológica no tiene nada que ver con las manifestaciones formales que en un determinado momento puedan hacer los directivos al formular un plan concreto, al escribir la misión y la visión de la empresa o al iniciar una campaña de publicidad. La cultura es algo que se va labrando con el tiempo y que es difícil de cambiar, en un sentido o en otro, en un plazo breve. Es muy habitual que cuando una empresa ha entrado en ese tipo de espiral destructiva, ha agotado las soluciones financieras, laborales, fiscales, etc., ha creado un problema social en su entorno y, buscando las últimas salidas, se vende a terceros o sencillamente se cierra, sus responsables terminen aduciendo “causas tecnológicas” que justifican su última decisión; ero no lo hicieron cuando el problema mostró sus primeros síntomas. Es indudable que los elementos más determinantes de la cultura tecnológica son los máximos responsables (propietarios y altos directivos) pero también lo es, y así se ha podido comprobar en procesos de cambios de capital, que cuando el personal de una empresa ha tenido una sólida cultura tecnológica positiva, ha sido capaz de modificar las actitudes renuentes iniciales de los nuevos propietarios. 3 26 situación: sin tiempo para reponerse, vuelve a tirarse al agua y retorna con la mujer. Pero ahora es un niño el que pide auxilio: vuelta al agua y ya, exhausto, gana la orilla salvando al niño. Cuando se oyen nuevas voces de auxilio, le grita al amigo: “¡No puedo más! ¡Me voy a ahogar yo! ¡Haz algo!”. A lo que el amigo contesta: “Ya lo hago: ¡estoy buscando a quien los tira!” Tecnología y empresa: la teoría Resulta adecuado recordar que, salvo escasísimas ocasiones, esto del desarrollo tecnológico no es algo que se pueda realizar eventualmente una vez y sirva para siempre. Cuando una empresa decide realizar un desarrollo tecnológico, debe saber que una vez terminado y puestos en explotación sus resultados, debe empezar a trabajar en su sustitución o mejora drástica: si la empresa no lo hace, otros lo harán y la sustituirán en el mercado. debe ser en el futuro, su estrategia tecnológica y, muy en concreto, qué lugar quiere que ocupen sus productos en el mercado con respecto a los de la competencia. Cuando una empresa produce diversos productos, su estrategia tecnológica puede ser distinta en varios de ellos. Además, la pregunta sobre la posición tecnológica objetivo debe planteársela el empresario cada vez que se enfrente a la necesidad de introducir un nuevo producto en el mercado o una modificación importante en los procesos. Estrategia tecnológica En todos estos casos, los máximos responsables de la empresa deben ser conscientes de que se trata de una decisión estratégica, al margen de lo habitual o cotidiana que les pueda parecer, y deben atender, antes de tomarla, a todos los parámetros que se han enumerado con anterioridad: “Una empresa es como una bicicleta: o te mueves o te caes.” (John D. Wright, 1891-1969) Establecido y justificado, en parte, que el entorno cultural y económico en el que se mueve habitualmente la empresa española no es el idóneo para el desarrollo tecnológico propio, procede ahora focalizar la atención en la empresa, y más en concreto en el empresario, que es quien, teniendo en cuenta todas las amenazas y las oportunidades que le brinda su entorno, decide la estrategia a seguir en todas las áreas de la empresa, y en particular en la tecnológica. Peter Drucker (1909-2005) decía que donde hay una empresa de éxito, alguien tomó alguna vez una decisión valiente, y ello porque esa decisión debe tomarse desoyendo los múltiples mensajes conservadores y pesimistas que el entorno hace llegar continuamente. Es cierto que, en general, la estrategia en temas tecnológicos es algo que se define formalmente en determinados momentos muy significativos de las empresas, como es, desde luego, su fundación; pero también cuando se producen cambios drásticos, como puede ser un cambio en la propiedad, la fusión con otras empresas, la apertura a mercados muy diferentes a los habituales, modificaciones importantes en el entorno económico, social y tecnológico, etc. En todos estos momentos la empresa puede y debe analizar cuál es, y cuál • Intensidad tecnológica del sector, teniendo en cuenta el continuo incremento que están experimentando todos los sectores, en detrimento, sobre todo, de la intensidad en mano de obra. • Tecnologías claves: es decir, aquellas que pueden marcar la diferencia con respecto a productos similares de la competencia. En general, habrá que analizar las tecnologías de diseño, de producción, de materiales, de componentes, de uso, etcétera. • Situación de la competencia: si actúa en competencia abierta, en oligopolio o en monopolio. • Situación de los clientes: si dispone de un único cliente, de un oligopolio de demanda, o si actúa sobre el consumidor. • Dimensión de la empresa en relación con la de la competencia y con el tamaño del mercado al que se quiere acceder. • Situación y evolución del entorno económico y social, en todo cuanto afecta más directamente al producto. 27 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Todos estos parámetros le son tan familiares a los responsables de la empresa que raramente los explicitan, lo cual puede conducir a errores de apreciación, sobre todo los derivados de la continua evolución del entorno. Por ello conviene que, periódicamente, en general cada año, y siempre que se deba tomar una decisión de carácter estratégico, los responsables realicen el ejercicio de poner, negro sobre blanco, la situación y evolución de tales parámetros para proporcionar la necesaria perspectiva a sus decisiones. Las distintas opciones de la innovación tecnológica dan lugar a que las empresas opten por distintas estrategias tecnológicas: la de liderazgo en el mercado, que asume todos los riesgos, persiguiendo el máximo beneficio; la de seguimiento (me too), que puede rendir importantes beneficios según sea el tamaño del mercado; la de asimilación, que retrasa notablemente la entrada en el mercado, y por lo tanto el beneficio; o la de generalización o extensión, solo aplicable a mercados locales, con escasos beneficios, a no ser que se trate de mercados protegidos o cautivos. Cuando Unamuno defendía que inventaran ellos, ya que “nosotros nos podemos aprovechar de sus inventos”, ignoraba las graves consecuencias económicas y sociales que conlleva una estrategia tecnológica dependiente, que las crisis económicas ponen de manifiesto de forma indubitable. Gestión de la tecnología Todo el conjunto de acciones que, explícita o implícitamente, se han venido describiendo hasta aquí (análisis del entorno, caracterización y preparación del mercado, formación de la cultura de la empresa, determinación de las estrategias, planificación estratégica, etc.), junto a las que se describen en los apartados siguientes (selección de la opción de abastecimiento, desarrollo, compra, asimilación y trasferencia de tecnología), integran la gestión de la tecnología en una empresa. En este apartado se han incluido dos aspectos concretos que afectan a esa gestión: especificidades del desarrollo y tamaño de la empresa. 28 Especificidades del desarrollo tecnológico El desarrollo tecnológico propio tiene dos especificidades: la incertidumbre de los resultados, que conlleva riesgos, y las exigencias temporales. Ambas especificidades son, con frecuencia, los argumentos o los tópicos a los que recurren los responsables de las empresas para justificar su actitud de rechazo hacia esta actividad. • La incertidumbre no es un concepto que esté vinculado solo al desarrollo tecnológico, ya que son muchas las actividades empresariales que conllevan riesgos: tanto la política financiera como la estrategia comercial, la política de personal o cualquier otra área de la actividad empresarial llevan implícito un componente de riesgo que se puede asumir o magnificar de acuerdo con la idiosincrasia y la cultura de cada empresa. En el caso concreto del desarrollo tecnológico, resulta muy frecuente identificar posturas en las que se sobredimensiona el riesgo, sobre todo cuando se dispone de alguna alternativa foránea que permite acceder a la tecnología necesaria. En esa sobrestimación del riesgo se suelen olvidar o minimizar tres hechos: el primero, que la oferta foránea se agota y llega un momento en que no se encuentra quien pueda suministrar la tecnología que necesita la empresa; el segundo, complementario del anterior, que con mucha frecuencia se sabe bien qué es lo que se pretende y cuál es el objetivo a alcanzar, lo que reduce la incertidumbre; y el tercer hecho que se olvida es que el mayor riesgo para una empresa es el de no innovar o no hacerlo a tiempo. • En cuanto al tiempo, es evidente que resulta ser más determinante para el desarrollo tecnológico que otros factores como la disposición del personal adecuado o la de la financiación necesaria (que es, con mucho, el menos importante y el más identificado como barrera). El tiempo, que está vinculado a la evolución del entorno, es el que exige de forma imperiosa la innovación; pero esta Tecnología y empresa: la teoría innovación no podrá satisfacerse con desarrollo tecnológico propio si la empresa no dispone de herramientas para valorar y prever su evolución a corto, medio y largo plazo, es decir, si no dispone de una planificación estratégica que cumpla todos los requisitos formales de este proceso. De no ser así, la evolución del entorno siempre sorprenderá a los responsables de la empresa, que tendrán que tomar sus decisiones sin saber quién “está tirando la gente al lago”. Tamaño de la empresa Es evidente que los equipos humanos pequeños tienen una mayor capacidad para abordar innovaciones al carecer de la inercia que, en general, lastra a los equipos y empresas de mayor tamaño; de aquí que las empresas innovadoras de gran tamaño suelan recurrir a formar equipos más reducidos, dotados de una cierta autonomía. Pero de ello no puede deducirse, como se ha hecho en ocasiones, que la innovación sea casi privativa de la empresa pequeña y mediana, llegando a crear líneas de fomento a la investigación en las pymes y marginando parcialmente a las grandes empresas.4 Pero es más cierto que, salvo escasas excepciones, cada sector y cada área de negocio requieren un tamaño mínimo de empresa, por debajo del cual resultan ineficaces. Resulta impensable la creación de una pyme para operar una siderurgia integral, una refinería de petróleo o una fábrica de automóviles, y sin embargo las empresas que operan en estos sectores deben ser innovadoras y deben ser apoyadas en su desarrollo tecnológico; que, por otra parte, resulta trascendental para el mantenimiento de las pequeñas y medianas empresas que les suministran bienes y servicios. En definitiva, cada empresa debe tener al tamaño que le haga eficaz y debe buscar la forma más adecuada de abastecerse de tecnología, recurriendo al desarrollo propio cuando sea necesario, gracias a la gestión tecnológica idónea. 4 En algunos momentos se tomó como un axioma de la gestión la expresión small is beatiful. ABASTECIMIENTO Procede ahora retomar el esquema de la figura 1 para completar la revisión del complejo conjunto de actividades que configuran la gestión tecnológica de una empresa: se han analizado las relaciones entre el mercado y la empresa, así como la influencia del entorno; se ha considerado la ubicación de la tecnología en la empresa, así como su cultura y su estrategia tecnológica. En lo que sigue se va a analizar cómo se abastece la empresa de las tecnologías que necesita y qué opciones existen al respecto. El abastecimiento de tecnología en una empresa es un proceso continuo. Su origen puede ser tanto interno (formación continuada, incremento de la experiencia, proyectos de investigación, etc.) como externo (tecnología libre, incorporada o explícita, contratada), tal como se esquematiza en la figura 2. Internas Externas Formación Libre Experiencia Proyectos de I+D Empresa Incorporada Explícita Figura 2. Fuentes de abastecimiento de tecnología Los proyectos de investigación, las compras de equipos e instalaciones importantes o los contratos tecnológicos representan soluciones de continuidad en el proceso de abastecimiento. Por supuesto, este proceso es muy distinto según el momento histórico en el que esté la empresa: es muy diferente el abastecimiento en el momento de creación de la empresa, tras experimentar una crisis profunda o durante su evolución normal. 29 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Atendiendo al soporte de la tecnología externa, que condiciona las vías y modos de su abastecimiento, cabe diferenciar, como se ha indicado antes, entre tecnología libre, incorporada y explícita, en general, protegida. • La tecnología libre es la más extendida y siempre supone el mayor porcentaje de la utilizada en las empresas, aunque no se identifique como tal. Es de dominio público y está soportada básicamente por los técnicos, operarios y gestores de las empresas. Las personas captan estos conocimientos de la documentación, la información técnica, congresos, exposiciones, contactos con expertos, etc. Esta captación exige, fundamentalmente, tiempo para identificar qué es importante y para incorporarla paulatinamente a la empresa. • La tecnología incorporada, básicamente en los bienes de equipo, ocupa un lugar muy importante en las empresas de proceso. En muchas ocasiones la empresa está subordinada al funcionamiento de su equipamiento básico, proporcionado por terceros, de la que es usuaria inteligente, pero sin tener ningún derecho sobre su tecnología.5 Curiosamente, en muchos sectores (por ejemplo, en minería, generación de electricidad, obras públicas, etc.) las empresas colaboran expresamente con los diseñadores de los bienes de equipo en las especificaciones que han de cumplir, así como en su adaptación a las circunstancias particulares en las que deben operar. Esta es una información de carácter tecnológico de gran valor para el fabricante, que este no solo no reconoce, sino que no descuenta en su facturación contractual. En España se creó un sector importante de empresas de grandes bienes de equipo para atender a su desarrollo industrial en los años sesenta, basado en la ley de protección de la fabricación nacional, que obligó a los diseñadores 5 En alguna ocasión, técnicos del sector eléctrico, al tratar este tema, se han identificado con el taxista que adquiere el vehículo, lo maneja y mantiene con pericia, pero desconoce la tecnología de su diseño. 30 extranjeros a ceder una parte de su tecnología a las empresas o filiales españolas y facultó a su personal para fabricar con la calidad debida. Sin embargo, el marco creado no favoreció que estas empresas dieran el salto adelante y accedieran a la capacidad de diseño, tal como ocurrió en países como Francia, Alemania, Reino Unido o Italia, por lo que, superada la etapa de expansión, las empresas empezaron a ver reducidos sus mercados y poco a poco fueron siendo absorbidas o, simplemente, desaparecieron. El buen uso de la tecnología incorporada en los bienes de equipo depende básicamente de la capacidad tecnológica del comprador, que puede ser capaz de ir más allá de lo que el fabricante haya supuesto inicialmente, o puede limitarse a ser un usuario estricto de los equipos. En cualquier caso, la empresa que adquiere y utiliza los bienes de equipo debe tener capacidad propia o contratada para su buen uso, mantenimiento y reparación, dependiendo de la urgencia y magnitud de las incidencias sufridas. Una variante particular de la tecnología incorporada la constituye la entrada en una empresa de una persona con gran experiencia en el proceso o el producto de que se trate. El “fichaje” de un experto suele tener gran impacto en empresas pequeñas y medianas para adentrarse en nuevos campos o mercados. Es un tema de gestión compleja, porque no resulta fácil que el experto comparta sus conocimientos con el resto del personal y porque su permanencia durante el tiempo necesario para su total asimilación puede no ser sencilla. A caballo entre estos dos tipos de tecnologías y de sus vías de abastecimiento habituales, cabría mencionar otra opción, típica de las empresas de productos, que es el análisis de los productos de la competencia, adquiridos por muy diversos caminos. Se trata de una tecnología incorporada, pero que está “a disposición” de quien tenga capacidad para “destripar” inteligentemente el producto, identificar sus componentes e imaginar cómo ha llegado a él la competencia para, a partir de ahí, introducir las innovaciones Tecnología y empresa: la teoría y cambios que su propia iniciativa le aconseje. Esto se viene haciendo con productos químicos, farmacéuticos, industriales e incluso bélicos. • El tercer tipo de tecnología externa es la explícita, que en general está protegida, ya sea por patente o por secreto, y se transmite formalmente por vía contractual. Sin ser la más numerosa, es la tecnología que ocupa un lugar paradigmático, ya que suele ser determinante para la satisfacción de determinadas necesidades de la empresa y, desde luego, es el argumento central ante la competencia y los clientes. Esta tecnología tiene una enorme importancia cualitativa y, según sean la cultura, la actitud y la estrategia tecnológica de la empresa receptora, esta puede quedar en una situación de dependencia o superarla, parcial o totalmente, gracias a la asimilación, tal y como se trata más adelante. Por su propia naturaleza, en este tipo de tecnología deben tenerse en cuenta la capacidad y la estrategia tecnológica no solo del receptor, sino también del cedente. Ha quedado ya expuesto que la tecnología se mueve en el terreno de las causas y, por esta razón, el abastecimiento y la gestión de las tecnologías críticas para la empresa deben considerarse como acciones estratégicas y sus decisiones deben ser adoptadas, lógicamente, por quienes tienen tal responsabilidad, es decir, la propiedad y la alta dirección. Cualquier otra opción será errónea, y podrá conllevar consecuencias indeseables a medio y largo plazo.6 Si las decisiones sobre las tecnologías críticas, ya sea para su desarrollo interno o para su adquisición en el exterior, corresponden al nivel estratégico de la empresa, al nivel táctico le corresponde la planificación detallada del desarrollo o la compra y asegurar la correcta participación de todas las unidades relacionadas; en especial: comercial, producción y personal. Por último, al nivel administrativo le corresponde la ejecución de las acciones planificadas; la participación del personal, adecuadamente motivado y creativo; la contratación de medios ajenos, cuando sea necesario; y el control de los resultados. De acuerdo con esto, el nivel estratégico de la empresa debe decidir la opción a seguir para conseguir disponer de una determinada tecnología, que en la figura 3 se ha denominado “tecnología objetivo”. Tecnología objetivo Sí ¿Es aceptable la dependencia? No ¿Es posible el desarrollo propio? Sí No Compra Alquiler Tecnología objetivo subordinada Asimilación Desarrollo Medios propios Medios propios Tecnología objetivo compartida Tecnología objetivo libre Figura 3. Opciones de abastecimiento de tecnología 6 Resulta sencillo comprobar cuál es el lugar que ocupan la investigación y la tecnología en las grandes empresas multinacionales, siempre en una unidad staff de la Gerencia o la Dirección General. El árbol de decisiones esquematizado conduce a tres posibles situaciones finales en las que la tecnología objetivo termina 31 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española estando en la empresa: subordinada a un cedente, compartida con él o libre de toda ligazón exterior. Las decisiones críticas a tomar corresponden a las dos cuestiones siguientes: una necesidad tecnológica y considera la posibilidad de recurrir a su compra en el mercado tecnológico. En ese momento se le plantean las siguientes cuestiones: 1.º ¿Está disponible en el mercado? 1.º ¿Es aceptable una situación de dependencia? Si no existe, o si quien la posee no quiere transferirla, no será posible comprarla o alquilarla. Esto es tanto más posible cuanto más avanzada esté la empresa y mejor lugar ocupe en el mercado, ya que utilizará tecnologías que estén cerca de la frontera del conocimiento. En el caso de los procesos se puede dar la circunstancia de que no exista, exactamente, la tecnología buscada, y que haya que adaptarla a los parámetros propios (materias primas, climatología, sociedad, etc.).7 A esta cuestión se puede contestar en función de circunstancias como el carácter estratégico del sector o del producto (sanidad, defensa, etc.); el peso específico de la tecnología sobre el proceso o sobre el producto, su aplicación reiterada en diversas instalaciones o en varios productos; el estado de evolución de la empresa, del sector y del entorno. 2.º ¿Es factible el desarrollo autónomo? 2.º ¿Es aceptable la dependencia? A la que se puede contestar en función de la disponibilidad del tiempo suficiente, y la disponibilidad de medios, propios o contratados, adecuados para el desarrollo. Entre las consecuencias indeseables de la dependencia que genera el alquiler de una tecnología de proceso importante destacan: las compras inducidas de materias primas, las ventas obligadas a compradores especializados, la necesidad de adquirir determinados componentes o equipos, etc. Pero también se pueden sufrir limitaciones de ventas por productos o geográficas, la obligación de ceder innovaciones que el receptor introduzca, etc.8 Desarrollo tecnológico propio. Tecnología libre La decisión de optar por el desarrollo tecnológico propio, en general, responde a la estrategia y cultura de la empresa, sobre todo en ciertos casos: cuando tiene asumido que solo así sus productos pueden competir con éxito, cuando quiere obtener una cuota de mercado alta, cuando quiere mejorar su proceso para disminuir costes o para cumplir determinadas exigencias del entorno al menor coste, etc. Podría decirse que en estos casos existe una cierta volición por parte de la empresa: ha decidido basar toda su estrategia, o una parte de ella, en el desarrollo tecnológico propio. Pero pueden existir otras razones, “obligadas”, para recurrir a la investigación y el desarrollo propios, que son las implícitas en el esquema de la figura 3. La empresa ha identificado 32 Como se ha apuntado antes, la dependencia es, en principio, inadmisible (aunque luego se acepte) en sectores estratégicos, como también resulta inaceptable cuando se prevé que vaya a tener un elevado peso específico en la empresa. 7 Con cierta frecuencia, empresas españolas han adquirido tecnologías que necesitaban un gran esfuerzo de adaptación; han hecho este esfuerzo y luego han pagado al cedente como si lo hubiera hecho él. 8 Hubo, incluso, un contrato entre una empresa estadounidense y otra del área del Caribe que obligaba a ¡desmontar las instalaciones a la conclusión de dicho contrato! Tecnología y empresa: la teoría Cualquiera que haya sido la razón por la que la empresa haya recurrido al desarrollo de la tecnología que necesita, ha de ser consciente de que ha optado por una vía que tiene diversas exigencias. Con excesiva frecuencia se ha puesto énfasis en la financiera, como si los costes de investigación tuvieran que ser cubiertos necesariamente por una financiación específica y externa. Se trata de un error alimentado también desde la Administración, que, hasta ahora, no ha sabido crear un marco adecuado para el fomento del desarrollo tecnológico nacional. Por el contrario, las principales exigencias —además de la del plazo necesario, a la que se ha aludido antes— son de carácter cualitativo: en primer lugar, el apoyo decidido de la alta dirección, que debe estar atenta a la evolución del proyecto y no desfallecer ante algún fracaso parcial sin un examen pormenorizado del mismo; en segundo lugar, y como consecuencia de lo anterior, la colaboración del resto de la empresa, y en especial de las direcciones más afectadas, como pueden ser producción y comercialización; en tercer lugar, la disponibilidad del equipo humano capaz de llevar a cabo el desarrollo, ya sea propio o contratado; en cuarto lugar, tal como se ha comentado en el apartado 3, la interacción y preparación del mercado, ya que esta exigencia es la que mayor repercusión tiene en el éxito comercial del desarrollo. Por último, es preciso insistir en el carácter cíclico de la innovación, que obliga a la empresa que ha obtenido un éxito en la innovación de un producto o un proceso a poner en marcha su maquinaria innovadora para prever la nueva generación que habrá de sustituirlos. Tecnología alquilada Las empresas utilizan un elevado número de tecnologías (el mayor porcentaje de las que usan, con diferencia) de las que no son propietarias, sino simples usuarias. Se trata de tecnologías incorporadas a bienes y servicios; casi se podría decir que están implícitas en ellos, y que la empresa las adquiere como un insumo más de los necesarios para su funcionamiento. Es evidente que estas tecnologías no se consideran como tales ni se contemplan, en ningún momento, dentro de la estrategia tecnológica. Cuando, volviendo al esquema de la figura 3, se trata de tecnologías significativas para el proceso o el producto de la empresa, y cuando la respuesta que la empresa se ha dado a sí misma es que la dependencia es aceptable, se puede recurrir a su “compra”, aunque cuando no existe una apropiación real de la tecnología, parece más adecuado decir que se recurre a su “alquiler”. En general esta es una situación que afecta a los procesos de producción y muy en especial a las empresas que producen commodities y productos o servicios estandarizados, por lo que es una circunstancia que afecta a parcelas muy importantes de la industria y la sociedad, ocupadas por las empresas que fabrican o prestan productos o servicios básicos. Además, deben recordarse la consecuencias indeseables del alquiler, descritas en el apartado 7.1. Compra con asimilación. Tecnología compartida En aquellos casos (véase la figura 3) en los que la empresa entiende que no es aceptable una dependencia total, pero no dispone del tiempo necesario o de la capacidad inicial para el desarrollo autónomo, puede optar por la compra real de la tecnología en una operación mixta, resultante de su “alquiler” inicial, seguido por su asimilación gracias a la formación y la investigación propias, hasta alcanzar un dominio similar al del cedente, por lo que el resultado se ha denominado “tecnología compartida”. Existe una notable diferencia entre las dos posibilidades que se abren en relación con la continuidad de las fases de la operación: lo deseable es que la empresa decida, desde el inicio de su negociación con el cedente de la tecnología, que 33 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española va a ser necesaria su total asimilación. En este caso, puede y debe establecer la negociación de forma que favorezca, o al menos no entorpezca, esa asimilación. Posteriormente deberá elegir el momento para abordar la sustitución del cedente, gracias a la investigación y la formación propias. En el caso, más frecuente, de que la empresa no haya previsto la asimilación desde el principio, el uso de la tecnología alquilada le permitirá alcanzar el grado de apropiación más bajo: el de fabricación simple. Si esto no le parece suficiente y quiere acceder a grados de apropiación superiores que le permitan una fabricación de calidad o incluso la concepción y el diseño, tendrá que recurrir a la asimilación, con o sin la colaboración del cedente. Es importante entender y asumir que el proceso de asimilación exige un esfuerzo de formación e I+D de un orden similar al del desarrollo autónomo, con la notable diferencia de saber adónde se debe llegar, aunque no se sepa a ciencia cierta cómo llegar allí. Se aborda el desarrollo tecnológico de forma más segura, pero no mucho más barata, ni tal vez en mucho menos tiempo.9 GESTIÓN DEL CONOCIMIENTO. TRANSFERENCIA DE TECNOLOGÍA “Dime y lo olvido, enséñame y lo recuerdo, involúcrame y lo aprendo.” logía puede impregnar al conjunto de la empresa, o quedar restringida a una o varias personas o confinada en el bien de equipo que la contiene. Con excesiva frecuencia algunos conocimientos están en posesión de una única persona que actúa de manera aislada; de forma que, cuando deja la empresa por traslado, jubilación o fallecimiento, los conocimientos se pierden con el consiguiente daño. La difusión interna de los conocimientos debe formar parte de la cultura tecnológica de la empresa, a través de una comunicación fluida y de la integración de equipos humanos que soporten y enriquezcan los conocimientos de partida, sobre todo si los equipos tienen una cierta multidisciplinariedad. El nivel táctico de la empresa debe poner especial énfasis en esta actividad de difusión, que forma parte muy importante de la gestión del conocimiento. Otra faceta importante, ya citada con anterioridad, de la gestión interna de la tecnología es la de asumir su carácter cíclico. Esta particularidad del desarrollo tecnológico es muy familiar para el personal más creativo, responsable de los proyectos de investigación que, en general, no consideran acabado ninguno de sus desarrollos; pero es más difícil de aceptar por los responsables de la fabricación, que tienen que adaptar los medios humanos y materiales para la obtención del nuevo producto o proceso; y para los responsables del mercado, que han de hacer otro tanto con las redes propias y con los clientes. (Benjamín Franklin, 1706-1790) Cualquiera que sea la fuente y el origen de una tecnología, y su naturaleza una vez dentro de la empresa, la nueva tecno9 Es conocida la práctica que siguieron varias empresas japonesas en el periodo de su acelerado despegue tecnológico e industrial, según la cual adquirían los derechos de licencia de una tecnología protegida por patente, pero renunciaban a la transferencia de tecnología del know-how. Eran los equipos propios los que debían desarrollar plenamente la tecnología. 34 Una última reflexión sobre este tema debe hacer referencia a la delicada gestión del personal dedicado a la investigación tecnológica dentro de la empresa. Parte importante de este personal debe tener un fuerte componente creativo, por lo que debe estar motivado e integrado en la empresa. Con este tipo de personal, la incentivación económica no es la más importante, estando por encima de ella el reconocimiento de su tarea y la interrelación con el colectivo nacional e internacional con el que se identifica. Tecnología y empresa: la teoría El cierre del esquema tecnológico de la empresa (véase la figura 1) es, en su caso, la transferencia a terceros de la tecnología que posee y domina. La lógica habitual de una empresa en su relación con terceros países es intentar, en primer lugar, la exportación de sus productos. Cuando el tercer país eleva sus exigencias de valor añadido, se puede recurrir a la creación de una filial o una empresa mixta. Cuando esto no es suficiente u oportuno, quizás sea necesario acceder a ceder la tecnología, primero en alquiler y luego en cesión real. Todo ello se entiende mejor si se analiza lo que ha hecho y hace España, como tercer país, con respecto las empresas estadounidenses, alemanas, francesas, etc. Este proceso tiene un enorme valor para la gestión y la cultura tecnológica de la empresa, ya que cuando se hace el esfuerzo de enseñar a un tercero es cuando se consigue ahondar en el conocimiento propio y se profundiza en la tecnología propia. La aplicación de la experiencia propia a otras circunstancias es una fuente de información y de formación extraordinariamente potente. Tecnología y empresa: la práctica Rafael Martín Moyano Uno de los objetivos de este libro es promover y acrecentar la actitud positiva hacia el desarrollo tecnológico en el tejido industrial español, y es bien sabido que no hay mejor forma de incitar a hacer algo que predicar con el ejemplo. En consecuencia, tras el anterior capítulo que, aunque basado en múltiples experiencias, tiene un cierto carácter teórico y generalista, se ha considerado apropiado “predicar”, no con uno, sino con diez ejemplos de gestión tecnológica acertada, extraídos de sectores y circunstancias suficientemente distintos, para que quienes consulten este libro puedan identificarse con alguno de ellos. El proceso para recopilar los diez ejemplos consistió, primeramente, en confeccionar un listado previo de sectores-empresas de los que se tuviera constancia que habían demostrado una actitud tecnológica positiva. Se recurrió a diferentes fuentes, empezando por los datos disponibles en la propia AENOR. El listado inicial era muy amplio por lo que hubo que limitar el número de casos a incluir y así evitar repeticiones dentro de un mismo sector. Tras unos primeros contactos con los responsables de las empresas o sectores preseleccionados, en los que se puso de manifiesto su clara predisposición a participar en el proyecto, se eligieron las diez que han colaborado. Es posible que otros muchos sectores y empresas, que podrían haber colaborado aquí, lo hagan en eventuales secuelas de esta publicación. Es importante y oportuno señalar que, partiendo de un primer contacto institucional con las empresas, el interés de los gestores del libro se centró en identificar, en cada caso, un experto que, contando con la anuencia y colaboración de la empresa, fuera el responsable personal de los textos. Ha sido, con estos expertos, con los que se ha mantenido un diálogo abierto, creativo y fluido durante toda la gestión. Como puede constatarse fácilmente, se trata de diez sectores con culturas e intensidades tecnológicas muy distintas: desde sectores muy tradicionales, pero con gran capacidad de innovación, como son los del vino o el de la obra civil, a los de intensidad tecnológica media, como el transporte, 37 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española los electrodomésticos o la energía eólica, a los intensivos en tecnología, como las telecomuncaciones, la aeronáutica o la industria de la ciencia, o a un sector emergente, como es el de la nanotecnología. A cada uno de ellos se le pidieron dos aportaciones: • La descripción detallada de una experiencia concreta de desarrollo o de gestión tecnológica, que haya tenido repercusión apreciable en el mercado, lo que se identificó como “caso”. • Su visión sobre la posible evolución de la tecnología en su sector o en alguna línea concreta de él, lo que se identificó como “prospectiva”. DIEZ CASOS DE ÉXITO: “El desarrollo es posible” Los expertos han aportado: seis casos en los que se describe el desarrollo tecnológico de un producto; un caso de desarrollo de un servicio; dos casos de desarrollo de procesos; y, por último, un caso de creación de una empresa para explotar una tecnología nueva (spin off). En dos ocasiones (Fagor y JEMA) el caso no está contado directamente desde dentro de la empresa, sino desde su entorno inmediato (Ikerlan-IK4 y Novomerco, respectivamente) y, en otra ocasión, la descripción se realiza con alcance sectorial (Spancold). Las exposiciones de los casos, y más delante de las prospectivas, siguen el sencillo orden alfabético de autores, ya que cualquier otro criterio conceptual de los inicialmente considerados (intensidad tecnológica, tipo de innovación, sector industrial, etc.) no aportaba ventajas apreciables y, por el contrario, podía inducir a conclusiones inoportunas. Cada uno de los casos contiene, junto a valiosa información técnica sobre la tecnología desarrollada o gestionada que es 38 descrita en términos accesibles a lectores ajenos al sector de origen, otra información específica del libro referente a la gestión tecnológica realizada en cada caso: razones estratégicas, cultura tecnológica, opción de abastecimiento, planificación de la acción, medios utilizados, explotación de resultados, etc. Es decir, todos los aspectos de la relación entre la tecnología y la empresa, abordados en el capítulo anterior (el denominado teórico), están aquí plasmados en ejemplos coherentes para su análisis y consideración. A modo de enlace entre el capítulo generalista y los casos reales, se pueden esbozar algunas pinceladas sobre la gestión tecnológica realizada en cada uno de ellos: • Las fuentes de alimentación del JET, de JEMA (Novomerco). Ejemplo de cómo una pyme española puede aprovechar una oportunidad potencial para realizar un desarrollo tecnológico propio, en un entorno internacional altamente competitivo y exigente. La base debe buscarse en la cultura tecnológica arraigada en JEMA desde su creación, que motiva a todo su personal. Ejemplo, también, de planificación detallada, en parte exigida por el concurso internacional, y de apoyo en medios ajenos para resolver temas puntuales. • La catenaria rígida PAC MM-04 (Metro de Madrid). Ejemplo de asimilación sustitutiva de tecnología ajena, apoyándose en la investigación pública y abordado por una empresa que, como Metro de Madrid, sufre la competencia de otros medios de transporte, y siente la necesidad de optimizar la calidad y el coste de su servicio. La empresa posee una elevada cultura de desarrollo tecnológico y se apoya eficazmente en medios públicos y privados ajenos. • El desarrollo de la banda ancha (Telefónica). Esfuerzo tecnológico para desarrollar el servicio de la banda ancha, basado en las tecnologías normalizadas Tecnología y empresa: la práctica internacionalmente, pero que exigió a Telefónica un cambio profundo de cultura tecnológica, coincidente con la liberalización del mercado y el consiguiente cambio de rol de la empresa. Ejemplo de colaboración entre todos los departamentos implicados y de desarrollo de distintas herramientas tecnológicas necesarias. • La cocina de inducción de Fagor (IKERLAN-IK4). Desarrollo autóctono en pos de un objetivo tecnológico estratégico, cuya consecución tuvo que superar sucesivos fracasos o éxitos limitados antes de alcanzar el definitivo. El logro fue posible gracias a la especial cultura tecnológica del Grupo Mondragón y a la motivación de su personal. Ejemplo de utilización de medios ajenos, muy vinculados a la propia empresa. • La innovación tecnológica en el sector vitivinícola (Matarromera). Ejemplo de “desmaduración” de un sector tan tradicional como el vitivinícola, gracias a la aplicación de sinergias procedentes de sectores intensivos en tecnología. Además de la optimización del proceso de obtención y de alta calidad en la elaboración del vino, Matarromera ha conseguido, gracias a la innovación tecnológica, una importante diversificación elaborando nuevos productos como: vino sin alcohol, alimentos funcionales o cosméticos. Es también ejemplo de la participación de todo el personal del grupo, y del aprovechamiento de los medios e instrumentos de apoyo a la innovación, tanto regionales como nacionales y extranjeros (UE). • La pértiga de abastecimiento en vuelo (EADS-CASA). Desarrollo tecnológico autóctono en un marco internacional muy exigente, luchando contra un monopolio de hecho. Ejemplo de esfuerzo de una empresa española integrada en un grupo multinacional, aprovechando la motivación del personal y la cultura innovadora propia y del grupo. Ejemplo de planificación detallada del esfuerzo, que permite diseñar y aprovechar alternativas, para resolver dificultades sobrevenidas. • La tecnología de presas y balsas (SPANCOLD). Este sector tiene la particularidad de que cada presa o balsa es, en sí, un caso único, por lo que la gran mayoría de las innovaciones tecnológicas se realiza sobre el terreno (in the job), aunque luego se acumulen y sedimenten en los técnicos y empresas que participan en los siguientes proyectos. Las circunstancias naturales de cada emplazamiento tienen un peso definitivo en el diseño y construcción de una presa, por lo que la salida a otros países representa un nuevo reto en cada ocasión. • La creación de una empresa de nanotecnología (Tecnalia). Ejemplo muy particular de desarrollo y uso de una tecnología emergente, que está llamada a “desmadurar” muchos sectores, como el de la construcción, y ejemplo de la creación de una empresa para posibilitar la explotación de los resultados de la innovación. Es, sin duda, un caso extremo de la gestión del conocimiento, ya que lo que se consigue es crear un mercado que no existe. • La turbina de baja presión (ITP). Como en el caso de la pértiga de abastecimiento en vuelo, nuevo desarrollo autóctono en un marco internacional muy competitivo y exigente. Ejemplo de cómo una empresa española puede buscar un hueco en el mercado cuando, por su dimensión, no puede optar a posiciones de liderazgo mundial en la turbina de gas completa, consiguiéndolo en un subsistema de la misma. Ejemplo de optimización de los medios y experiencias para conseguir la integración en un suministro de primer nivel, dentro de un sector intensivo en tecnología. 39 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española • El aerogenerador G10X (Gamesa). Otro ejemplo, como el de la catenaria, de asimilación sustitutiva de la tecnología extranjera, en la que tuvo que apoyarse inicialmente Gamesa, pero que no respondía óptimamente a las condiciones del entorno natural español. El mercado de la energía eólica, pese a sus evidentes avances, no es aún un mercado maduro, por lo que la componente tecnológica sigue siendo definitiva en la estrategia de desarrollo de las empresas. Ejemplo de desarrollo de una estrategia tecnológica en pos de un producto y de nuevas soluciones para el mercado. Es obvio que estas pinceladas, que quizás habría que calificar como “brochazos” dada su tosquedad, serán superadas por cada lector, que sabrá encontrar en cada experiencia sus propios “enganches”, ejemplos, identificaciones y estímulos. Sin pretender sustituir estas aproximaciones personales, el conjunto de los diez casos pone de manifiesto los parámetros del éxito tecnológico a los que se ha hecho referencia en el capítulo teórico. Así, por ejemplo, la voluntad y visión de los responsables; la cultura tecnológica; la estrategia tecnológica; la planificación y el seguimiento de los proyectos; la motivación del personal; el uso inteligente de medios ajenos; la relación del mercado y preparación del mismo; la superación de las circunstancias propias, etc., aparecen prácticamente en todos los ejemplos. También es destacable que, en todos los casos, la empresa ya está trabajando en la mejora e incluso sustitución de la tecnología desarrollada, asumiendo la dinámica implícita de la innovación, que en el capítulo teórico se ha ilustrado con la frase de John D. Wright: “Una empresa es como una bicicleta: o te mueves o te caes”. Por el contrario, parece también muy evidente que la financiación exterior no ha sido determinante en casi ninguno de ellos, contrariamente a esa especie de “mito urbano” que parece subordinar el desarrollo tecnológico propio a la disponibilidad de financiación, ajena y pública, abundante y barata, es decir, la perniciosa subvención. 40 Otro de los mensajes que se deduce del conjunto de experiencia es la alta (se podría afirmar que, altísima) rentabilidad del desarrollo. No es sólo que sin las innovaciones narradas las empresas podrían haber sido desplazadas por su competencia o que los desarrollos les están abriendo nuevos y más amplios mercados, sino que los datos que aportan los expertos demuestran un retorno de la inversión de enorme atractivo. En resumen, cabe presumir que este conjunto de ejemplos puede servir como un referente válido para un gran número de empresas y circunstancias aunque se trate de sectores muy distintos. En cualquier caso, son diez ejemplos con los que este libro trata de hacer llegar un sencillo mensaje a quienes lo consulten: El desarrollo y la gestión tecnológica son viables para las empresas españolas. Además, cuando se realizan de forma adecuada, son actividades de alta rentabilidad que hacen posible el presente y mejoran la posición futura de la empresa PROSPECTIVA TECNOLÓGICA: “Parten nuevos trenes” Otro de los objetivos de esta publicación es el de asomarse a la evolución previsible de las tecnologías y ponderar qué oportunidad puede representar para la industria española. Para materializarlo, se solicitó a los expertos una visión prospectiva de la tecnología del sector que conocen, o de alguna línea concreta de él. Se trató, necesariamente, de una solicitud más abierta que la realizada para analizar los casos de éxito tecnológico, brindando al experto la máxima libertad para elegir tema y plazo para su visión. Es obvio que se ha evitado, conscientemente, la realización de un ejercicio clásico de prospección tecnológica, siguiendo, por ejemplo, las pautas del método Delphi u otros similares. Tecnología y empresa: la práctica Con ello se ha buscado una contestación, quizás menos rigurosa, pero más espontánea y desinhibida de la que estos métodos suelen proporcionar. Cada experto ha recogido la información que ha encontrado accesible y la ha filtrado según su conocimiento, con la seguridad de que no estaba poniendo en cuestión su credibilidad, la de su empresa o la de su sector. Se trataba, simplemente, de un ejercicio de proyección de la evolución tecnológica hacia un próximo futuro. Cáceres (Novomerco), que han descrito en sus casos desarrollos de una tecnología concreta, dedican sendos documentos a la evolución tecnológica del sector correspondiente, es decir, los electrodomésticos, partiendo de la evolución tecnológica pasada; el sector ferroviario metropolitano; la energía eólica y; la industria de la ciencia, sector emergente de enorme potencial y contenido sinérgico. El resultado es necesariamente heterogéneo, como lo es el análisis y descripción de los casos: • Antonio Porro (Tecnalia) dedica un documento a la descripción de nanotecnolgía y su aplicación al sector de la construcción. El carácter emergente de esta tecnología confiere al conjunto de los dos documentos aportados un alto carácter prospectivo. • Antonio Pérez (EADS-CASA) y José Ignacio Ulízar (ITP) han incluido en sus casos un último apartado dedicado a la posible evolución del reabastecimiento en vuelo y de la turbina de gas, respectivamente. • Carlos Moro (Matarromera) hace otro tanto en el último capítulo de su caso, pero, además, es de señalar que los capítulos que dedica al vino sin alcohol, los alimentos funcionales o los cosméticos, tienen una gran carga prospectiva, ya que se trata de tecnologías que sólo han recorrido, hasta ahora, sus primeros pasos. • José Polimón y José María Osorio (SPANCOLD) dedican un documento diferenciado a lo que consideran puede ser la evolución de las presas y balsas, en función de las demandas y exigencias de la sociedad en el próximo futuro, ante los nuevos retos que constituyen el cambio climático, el abastecimiento de energía y la atención de las necesidades de agua en un gran número de zonas en el mundo. • Antonio López (IKERLAN-IK4), Fernando Gómez (Metro de Madrid), Mauro Villanueva (Gamesa) y Francisco Javier • Cayetano Lluch (Telefónica) se decidió por confeccionar un documento sobre la evolución seguida por la telefonía móvil desde su nacimiento hasta el momento actual, avanzando su visión de lo que actualmente se prevé va a configurar la cuarta generación. De nuevo, como ocurría con los diez ejemplos de éxito tecnológico, el libro brinda, a quienes lo consulten, información valiosa sobre la posible evolución de diversas tecnologías con un mensaje sencillo, pero contundente: Aunque España haya visto pasar numerosos trenes del desarrollo tecnológico, la dinámica de este proceso es tan alta que, aún en épocas de cierta recesión como la actual, continuamente se están poniendo en marcha nuevos trenes (nuevas oportunidades), a los que las empresas españolas pueden subirse, si los abordan adecuadamente, siguiendo los ejemplos de gestión que se han descrito en los casos de éxito. Los sistemas de alimentación de energía del Joint European Torus (JET) La industria de la ciencia: ayudando a explorar las fronteras de lo posible FRANCISCO JAVIER CÁCERES NÚÑEZ (San Sebastián, 1949) Consultor senior en Novomerco Consulting, S.L. Director General de la Asociación Española de la Industria de la Ciencia (INEUSTAR) Ingeniero Técnico en las especialidades de Mecánica y Electrónica, e Ingeniero CAED (UK). Ha desempeñado la mayor parte de su vida profesional en puestos ejecutivos de dirección ligados a la innovación y al desarrollo tecnológico internacional. Fue Director de I+D, durante más de diez años en IESA, empresa española líder en el diseño y fabricación de contadores de agua y gas, trabajó para General Electric Plastics en el área de Technical Marketing, y ha sido Director General de la Asociación de Electrónica, Informática y Telecomunicaciones del País Vasco durante más de diecisiete años. Ha sido también Director General de la empresa de telecomunicaciones IKUSI-GS en México, y Director Corporativo de Innovación y Desarrollo Institucional del Grupo Ángel Iglesias S.A. (IKUSI). Actualmente es Director General de la Asociación Española de la Industria de la Ciencia (INEUSTAR) y consultor senior en Novomerco Consulting, S.L. Es conferenciante habitual sobre temas relacionados con la innovación y el I+D empresarial, así como miembro de diferentes comités institucionales y privados para el fomento del desarrollo empresarial y la innovación. Es profesor invitado en diversos programas universitarios de postgrado y miembro de las ejecutivas de asociaciones sectoriales del ámbito de la electrónica, las telecomunicaciones y la industria de la ciencia. Asimismo, es autor de distintos estudios para instituciones españolas y de otros países en el ámbito de la ciencia e industria, innovación y competitividad, y procesos de internacionalización. Los sistemas de alimentación de energía del Joint European Torus (JET) Francisco Javier Cáceres Núñez “Lo que motiva a los trabajadores del conocimiento es lo mismo que motiva a los voluntarios, los retos.” (Peter Druker) JEMA (JESÚS MARÍA AGUIRRE, S.A.) El impulso emprendedor Toda nueva actividad es fruto de una chispa creadora que en algún momento aparece en la mente de alguien. Los iniciadores pueden ser la curiosidad, la necesidad, el deseo de mejorar, la solidaridad o la filantropía, entre otros. Si esa chispa prende, se alimenta con ilusión y se le aplican los esfuerzos necesarios, tiene muchas posibilidades de convertirse en lo que su creador soñó. Por eso, si se quiere conocer bien una empresa, es necesario acercarse en primer lugar a su impulso creador: el empresario. Jesús María Aguirre Echeverría (Zaldibia, Guipúzcoa, 1930) es un ejemplo típico de empresario hecho a sí mismo; un hombre que soñó e hizo realidad su sueño, al que dedicó toda su vida profesional. Pero además, y esto es notable, Jesús María Aguirre se convirtió en uno de esos personajes cuya visión contribuye a modelar la sociedad en la que viven y a la que contribuyen de muy diversas maneras. Sus aportaciones no están solo en la creación intelectual, sino que, hombre de acción pionera, se puso al frente de las nuevas actividades, mostrando el camino y sabiendo ceder a otros el testigo cuando la nueva actividad ya se había asentado. Jesús María Aguirre, creador y fundador de JEMA, fue fundador y primer presidente de la Asociación de Industrias Electrónicas del País Vasco (AIEPV, 1982) y cofundador, vicepresidente y presidente después (1987-1993) de la Asociación de Empresarios de Guipúzcoa (ADEGI). Durante su presidencia de ADEGI, se crearon, entre otros el Instituto de Máquina Herramienta de Elgoibar (IMH), ELKARGI (sociedad de garantía recíproca), el Centro de Desarrollo Empresarial (CDE) y el Instituto Técnico de la Construcción, y se puso la semilla de otras muchas instituciones que posteriormente se fueron haciendo 45 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española realidad y en las que el aliento creador y el impulso de Jesús Maria Aguirre es claramente perceptible. Los orígenes y la evolución Corrían los primeros años cincuenta. España pugnaba por salir de un difícil periodo social y económico tras años de aislamiento y autarquía. En 1953, aparecía la televisión en color en EEUU, fallecía el astrónomo Edwin Hubble, se concedía el Premio Nobel a James Watson y Francis Crick por sus trabajos sobre la molécula del ADN y comenzaban a aparecer las primeras radios a transistores, el invento que traería la ola inicial de la electrónica de consumo, que ya no dejaría de crecer. En España apuntaba un cierto crecimiento económico derivado de la progresiva salida del aislamiento internacional, que ese mismo año fue subrayada por la firma del concordato con la Santa Sede y posteriormente con los acuerdos de defensa con EEUU. El apetecible mercado de más de treinta millones que suponía el país, pronto empezó a despertar el interés de los emprendedores locales y de otras latitudes. Aquellos, con mucha ilusión y pocos medios; estos, con algunos medios más pero con un mayor desconocimiento del incipiente mercado. Y es en ese año cuando Jesús María Aguirre, un dinámico joven de 23 años, lleno de curiosidad y afanes creadores, formado en la Escuela de Electrónica de los Salesianos en Pamplona, con alguna experiencia profesional por cuenta ajena (Radio Guipúzcoa, Zumárraga) y, posteriormente, por cuenta propia (autónomo, San Sebastián) en el mundo de la fabricación de aparatos de radio y de electrocardiógrafos, decide montar un pequeño taller en la calle San Bartolomé de San Sebastián. El desarrollo de los primeros trabajos mencionados ya había puesto en evidencia su capacidad para abordar nuevos retos, asimilando los conocimientos más avanzados del momento y aplicando soluciones creativas a partir de los mismos. El taller se dedicó a montar reguladores eléctricos para grupos 46 electrógenos cuyos clientes eran los fabricantes cercanos de esos equipos. Una alianza con la empresa INDAR (Beasain) para desarrollar nuevos equipos reguladores automáticos de tensión, dio lugar a la primera patente del modelo de su invención y le posicionó como la empresa líder en el mercado. Pronto fue preciso realizar el primer traslado del pequeño taller a instalaciones más amplias. Sus primeros productos fueron los mencionados reguladores de tensión para grupos electrógenos y para maquinaria de papel, y sus mercados eran básicamente locales, aunque sus límites comenzaron a ampliarse rápidamente por todo el territorio nacional. El negocio no tardó en crecer, y con él la reputación de la marca JEMA (acrónimo de Jesús María Aguirre, con el que empezó a conocerse a la empresa) y la necesidad, nuevamente, de disponer de instalaciones más grandes. Así se produjo un nuevo traslado al Barrio de la Herrera de San Sebastián, a un local que triplicaba al anterior y donde JEMA continuó desarrollando productos innovadores que daban soluciones nuevas a problemas ya existentes o que aportaban soluciones electrónicas a nuevas necesidades. Desde los inicios, el afán innovador y la visión de Jesús María Aguirre lo empujaron hacia la frontera de lo conocido, que en aquellos momentos estaba encarnada por los semiconductores; así se convirtió, a pesar de su escasa dimensión, en una de las empresas pioneras en España en la utilización de esos dispositivos. En 1965 JEMA contaba ya con alrededor de 60 empleados y fabricaba, entre otros productos, rectificadores de diodos con placas de selenio, transformadores de hasta 70 kVA, variadores de velocidad para trefiladoras y una gran variedad de accionamientos que la creciente industria cercana precisaba. JEMA se hizo experta en el dominio de los rectificadores tipo ignitrón, thyratrón, etc., que aplicaba a sus accionamientos con gran maestría. Se crea en esa época el Departamento de I+D de JEMA, que deja de ser una empresa de montadores muy capaces para Los sistemas de alimentación de energía del Joint European Torus (JET) orientarse hacia la empresa de ingeniería, integración y desarrollo de soluciones innovadoras que la caracterizará, desde entonces, en los mercados. En esos años, JEMA tenía ya por clientes a un gran número de empresas y sectores industriales y de servicios, entre los que se pueden citar: • Siderurgia: controles electrónicos de hornos, de trenes de laminación en frío, de líneas de corte, de decapado... • Generadoras-distribuidoras de energía: sistemas de alimentación para centrales nucleares, UPS para control de procesos... • Infraestructuras: grandes paneles indicadores visuales... • Textil; papel; soldadura... A finales de los setenta, JEMA desarrolló una alianza con la firma finlandesa Strömberg para los suministros de control a la industria papelera. JEMA fabricó accionamientos multimotor para líneas de papel, en los que se llegaban a controlar de 20 a 30 motores simultáneamente. Estos accionamientos presentaban un avance notable sobre el modelo tradicional de motor único, ya que eliminaban la reducción por correas de transmisión y mejoraban la calidad del papel producido, proporcionando además mayores velocidades de producción. En 1972 se produjo un hito importante. JEMA desarrolló y fabricó los prototipos de los sistemas eléctricos completos de tracción y de control para un primer coche eléctrico, proyecto que se acometió para la empresa SANTANA (constructor del vehículo), siendo TUDOR el proveedor de las baterías. Poco después se abordó el desarrollo de un vehículo industrial eléctrico para uso en aeropuertos en colaboración con AVIA, y también un camión de recogida de basuras y un microbús de transporte. Aquellos vehículos, que funcionaron perfectamente y de los que se llegaron a construir una decena de unidades, no pasaron a fabricación en serie por razones de coste y de dimensión de las baterías, pero dieron lugar a otros proyectos igualmente interesantes por su carácter pionero, tales como reguladores de intensidad de brillo para balizas de aeropuerto, los primeros paneles de señalización visual para estadios, etc. Es decir, la I+D de JEMA, consustancial con la empresa desde los primeros impulsos de su fundador, se había consolidado orgánicamente y ya no dejaría de ser una característica permanente de la misma. Posteriormente, JEMA cerró otra alianza con la empresa americana General Electric para aplicar en España sus semiconductores, convirtiéndose más tarde en representante para Europa de la mencionada empresa en el ámbito de los accionamientos para la industria papelera. Se inicia después la incorporación de los desarrollos de software industrial relacionados con los autómatas y PLC (controladores lógicos programables) que se utilizaban en las soluciones ofertadas a los clientes. A principios de los años ochenta, JEMA desarrolló equipos para señalización ferroviaria y convertidores de telefonía para Correos. A finales de esa década, comenzó a operar con IGBT (transistores bipolares de puerta aislada) y GTO (tiristores interruptores de puerta); componentes electrónicos de potencia que son, todavía hoy, esenciales en las fuentes de alimentación. Aunque JEMA, debido a su dimensión, nunca llegó a desarrollar componentes propios, puede decirse que fue siempre un pionero en su aplicación (early adapter), basando su competitividad en el conocimiento de vanguardia de las tecnologías en desarrollo y figurando entre los primeros utilizadores prácticos de las mismas. La creciente actividad de JEMA y la necesidad operativa de separar las actividades nucleares del negocio —la concepción, fabricación y comercialización de productos de electrónica 47 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española de potencia y de control de las de comercialización y servicio técnico de semiconductores— llevaron en 1985 a la creación de una empresa filial, INELEC, que posteriormente se independizaría del Grupo JEMA y seguiría su evolución por separado. Esta empresa, ubicada en Madrid, cuenta ya con más de 25 años de experiencia suministrando componentes de muy diverso tipo a la industria española de electrónica, y en ese tiempo ha contribuido a su desarrollo y crecimiento. En 1988, los profesionales de I+D de JEMA desarrollaron sus primeros accionamientos multimotor en racks para la industria siderúrgica; la primera instalación se ubicó en la factoría de Marcial Ucín en Azpeitia. Este diseño, por su novedad, supuso un punto de inflexión para la empresa y para el sector. En 1989, el Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT), como enlace y contribuidor científico español al esfuerzo internacional por la consecución de una fuente energética futura barata y sostenible (la energía de fusión), conocedor de las capacidades de JEMA, le propuso su participación en el desarrollo y posterior fabricación de la primera fuente de alimentación de estado sólido de alta tensión (90 kV/30 A) con destino al reactor experimental TJ-I. El antecedente de esta propuesta se encuentra en la fabricación en 1985 por parte de JEMA de sus primeros equipos para laboratorios experimentales: más de 20 fuentes para el LEP (el mayor acelerador de partículas de su época), construido en Ginebra por el CERN dentro de un túnel de 27 km de circunferencia excavado a 100 m de profundidad bajo la frontera francosuiza. En esos momentos nace la relación de JEMA con la que posteriormente será conocida como la industria de la ciencia, relación que no ha dejado de desarrollarse, y que ha llevado a la empresa a ser hoy uno de los líderes europeos en el diseño, fabricación y suministro de fuentes especiales para Grandes Instalaciones Científicas (GIC). 48 Las razones que llevaron a este primer antecedente en el CERN tuvieron mucho que ver con estar en el sitio adecuado en el momento preciso. Aunque ciertamente JEMA tenía capacidades intrínsecas que la hacían candidata a proveer esas fuentes, el hecho de que España fuera contribuidor neto al CERN sin un volumen correspondiente de retornos industriales, unido al trabajo de los representantes españoles en apoyo de la participación de las empresas nacionales, fueron argumentos que permitieron, al menos, pasar el primer corte a una empresa española primeriza en esas lides. A partir de ese momento, la capacidad de diseño y fabricación, así como el conocimiento demostrado por los profesionales de JEMA y una oferta atractiva y bien estructurada, posibilitaron que la empresa ganara el concurso y se hiciera con el pedido. En 1992, las Olimpiadas celebradas en Barcelona presentaron a JEMA la oportunidad de desarrollar el proyecto más grande de su historia hasta ese momento. Algunas pruebas olímpicas se realizaron muy avanzado el día, para permitir la retransmisión televisiva a otros continentes en horarios de gran audiencia. Esto obligó a utilizar sistemas de iluminación muy especiales, que garantizaban excelentes niveles de visión pero que tenían, entre otros, el inconveniente de apagarse si el suministro de energía se interrumpía más de 4 ms, y no volvían a recuperar las mismas características de iluminación hasta pasados cerca de 20 minutos. Esta era una situación inaceptable para las cadenas de televisión, retransmisoras de los eventos y grandes patrocinadoras de los JJOO. El reto fue asumido por JEMA, que ganó el concurso correspondiente y desarrolló un innovador sistema para SAI (Sistemas de Alimentación Ininterrumpida) que luego patentó y que permitió garantizar que las posibles caídas de tensión no serían en ningún caso superiores a los 2 ms. Las 27 sedes olímpicas fueron equipadas con estos sistemas y el concurso supuso para JEMA una cifra de facturación superior a los 480 millones de pesetas. Pero en 1994 se superaría el récord anterior, esta vez ganando un concurso de 1.243 millones de pesetas para el diseño Los sistemas de alimentación de energía del Joint European Torus (JET) y fabricación de la fuente de alimentación para el Stellarator (reactor experimental de fusión de tipo helicoide) del Laboratorio Nacional de Fusión (véase la figura 1). Este proyecto consolidó a JEMA como proveedor de primer nivel en el ámbito de las muy especiales y exigentes fuentes de alimentación para GIC, y en especial para los aceleradores de partículas y las máquinas de fusión. El sistema de alta tensión (15 kV/ 130 MW/35 kA cc) del Stellarator TJ-II fue un proyecto llave en mano que comprendía desde el edificio hasta el alternador de 200 t de peso y las 7 fuentes que alimentan las bobinas. Este concurso, ganado por JEMA en competencia con algunas de las más grandes multinacionales europeas, supuso un reto para sus infraestructuras de fabricación y sus instalaciones fabriles, dadas las dimensiones de los equipos. Fuente: foto cedida por CIEMAT. Figura 1. Modelo flexible helicoide de Stellarator TJ-II. CIEMAT En julio de 1994 se constituyó el Grupo JEMA, presidido por Jesús María Aguirre, contando con un capital social de 116 millones de pesetas y con sede en la factoría principal de Lasarte-Oria (Guipúzcoa). Las empresas INELEC (Madrid, 1982) y UPELEC (Madrid), a la que posteriormente se unió JEMA do Brazil, formaron parte de este grupo y de sus planes de diversificación sectorial (INELEC, componentes; UPELEC, ingeniería e instalaciones de electrónica de potencia) y geográfica (Brasil). La idea tras la creación del Grupo JEMA era la de integrar las funciones comunes que se realizaban en las distintas empresas con el fin de conseguir una mayor racionalización de actividades y la consecuente mayor eficacia. En 1996 comenzó el despliegue de la telefonía móvil y JEMA, siempre atenta a las necesidades del mercado, desarrolló su serie de fuentes de alimentación FACT, el primer producto seriado de su catálogo histórico, ya que llegó a fabricar más de 2000 unidades con las que se instalaron las estaciones base de telefonía en España. Posteriormente, la misma tecnología se utilizó para otras aplicaciones de operadores y grandes suministradores internacionales de equipos de interconexión. Este producto proporcionó una gran estabilidad a la empresa, llegando el mercado de telefonía a suponer cerca del 65% de la facturación anual. El paso a la fabricación seriada supuso un cambio organizacional importante ya que, para no perder la flexibilidad y rapidez de respuesta que caracterizaban a JEMA, se optó por externalizar la mayor parte de la fabricación de elementos, reservándose la empresa las labores de ensamblaje final y los ensayos y puesta a punto. Esto requirió dotar a la empresa de más capacidades logísticas de gestión, y permitió seguir concentrando los recursos y esfuerzos principales en el desarrollo tecnológico y la ingeniería, principales diferenciales competitivos de JEMA. Una alianza con Telefónica generó la oportunidad de desarrollar y fabricar otro producto en gran serie: los rectificadores para distribución en continua de potencias elevadas. Se fabricaron más de 12.000 unidades de este producto, lo que lo convirtió en el de mayor producción en serie realizado por JEMA hasta esas fechas. Este hito supuso un reto organizacional para JEMA, que creó una división de fabricación donde empezaron a aplicarse las modernas tecnologías de procesos para productos seriados. A principios del presente siglo (2000-2003) se inicia el NG1PS1, un proyecto de gran ciencia en el JET (Joint European Torus) y JEMA desarrolla y fabrica dos fuentes de alimentación de 1 New Power Supplies for the JET Neutral Beam Enhancement Project. 49 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española 132 kV cc/130 A para alimentar los NBI (Neutral beam injectors) para el calentamiento del plasma del reactor experimental en Oxfordshire (Reino Unido). JEMA desarrolló también (ya en 2009) las fuentes, de muy rápida respuesta a los cambios de situación del plasma y de muy alta energía, que alimentan las bobinas que generan esos campos electromagnéticos de confinamiento. Estos desarrollos, realizados dentro del proyecto ERFA y con un alto contenido de I+D, consolidaron aún más la posición de JEMA como líder tecnológico y suministrador experimentado de equipos de energía bajo condiciones muy críticas. Entre 2001 y 2004, tras ganar el concurso internacional correspondiente, JEMA diseñó y suministró diez fuentes de alimentación especiales (± 30 V, ± 2.500 A cc de entrada/0-625 A ca de salida; es decir baja tensión, alta intensidad) para las bobinas de control del Stellarator Wendelstein W-7x en el Instituto Max Planck en Greifswald (Alemania). Esta máquina, todavía en construcción, será en los próximos años el reactor de fusión con tecnología Stellarator más potente del mundo. El principal reto tecnológico de estas fuentes era conseguir, entre otras exigencias, una precisión mejor que 1 por mil en corriente, con esas elevadas intensidades. El proyecto supuso una facturación de más de 1,8 millones de euros. Desde 2004 hasta 2010, JEMA ha venido desarrollando y suministrando equipos y sistemas de energía a grandes instalaciones científicas de primer nivel y ha realizado, entre otros proyectos: • Convertidores de potencia para la máquina SPS CERN (Suiza). • Interruptor de estado sólido de potencia para protección del Gyrotron. CRPP (Suiza). • Fuente de alimentación para interrupción en alta tensión para el sistema ECRH. TJ-II CIEMAT (España). 50 • Estudio de ingeniería de sistemas eléctricos para el reactor ITER (EEUU). • Consultoría y asistencia en el diseño de la fuente de alimentación del acelerador de partículas ENSR. GSI (Alemania). • Fuentes de alimentación en serie para el posicionamiento del plasma en el JET. EFDA-JET (Reino Unido). • Fuentes de alimentación de potencia de distinto tipo y características para el Deustches Electronens Synchrotron alemán (DESY) (Alemania). • Fuentes de potencia para los solenoides del acelerador en el Rutherford Appleton Laboratory (RAL) (Reino Unido). • Fuente de alta tensión (HVPS) para alimentar los NBI para el proyecto MAST. UKAEA. Culham Science Centre (Reino Unido). • Interruptor cortocircuitador de estado sólido basado en LTT y de conexión permanente para sistema de alimentación de acelerador en el Instituto para Investigación del Plasma (IPR) Ghandinagar (India). • Etcétera. Todos ellos son proyectos que han implicado importantes desarrollos de I+D, cálculo, simulación y experimentación. El precio individual por proyecto se extiende desde los pocos centenares de miles hasta los más de 12 millones de euros; y su valor como tractores del conocimiento para nuevas aplicaciones en los sectores de la ciencia y en otros (industria de la alimentación, telecomunicaciones, energía, etc.) es indudable. Más recientemente, JEMA está desarrollando un modulador de alta tensión para klystrones (tubos generadores de alta frecuencia para aceleración de partículas). Se trata de una colaboración entre ESS Bilbao y SNS (Tennessee, EEUU), Los sistemas de alimentación de energía del Joint European Torus (JET) donde será probado. El producto es una fuente que modula una tensión de 140 kV/80 A con tiempos de conexión/ desconexión de 10 ms y anchos de pulso de 2 ms a frecuencia de 50 Hz. Asimismo, y dentro del proyecto ITUR (instalación para ensayo y optimización de fuentes de iones), se están desarrollando las fuentes de alimentación para el calentamiento del plasma, extracción de partículas H+ y la fuente de alta tensión (100 kV) que eleva la tensión del sistema para permitir la extracción de dichas partículas. • Sistemas avanzados de alimentación o de industria de la ciencia, con diseño y fabricación de sistemas y fuentes de alimentación muy especiales para Grandes Instalaciones Científicas (GIC), tales como aceleradores de partículas, laboratorios de fusión, etc. • Sistemas para energías renovables, que desarrolla y fabrica inversores para plantas fotovoltaicas, aerogeneradores, etc. Orgánicamente, JEMA está estructurada en los departamentos que indica la figura 2. Las instalaciones y la organización JEMA cuenta desde 1974 con una sede central situada en Lasarte-Oria. El edificio diseñado y construido, ya entonces, con criterios altamente funcionales, cuenta con 5.800 m2 de superficie. En razón de sus propias necesidades de ensayo, la instalación eléctrica de JEMA es poco habitual en una pyme: cuenta con una acometida de 30 kV y dispone indistintamente de tensiones trifásicas de 50 Hz, a 200 V - 380 V - 440 V - 500 V. La potencia instalada total es de 630 kVA, y dispone de una doble toma para la realización de pruebas especiales en media tensión y con potencias de hasta 22 MVA. Desde 2005, JEMA tiene sus actividades divididas en tres divisiones de negocio: • Sistemas de alimentación crítica, que dispone de amplias y específicas capacidades de diseño, fabricación y suministro de: variadores de velocidad en cc, rectificadores a tiristores, inversores-convertidores, reguladores y controles, sistemas de alimentación ininterrumpida, conmutadores de transferencia-bypass, generadores tacométricos, sistemas de control digital, motores de cc, controladores de lógica estática y baterías, etc. También desarrolla equipos de control digital basados en optoelectrónica. Consejo de Administración Dirección General Ingeniería Servicios centrales Financiero Compras I+D Producción Fabricación Calidad Pruebas Comercial Servicio técnico Red comercial Figura 2. Estructura orgánica de JEMA El 16 de diciembre de 2009 se produjo la integración de JEMA en el Grupo IRIZAR, uno de los líderes mundiales en el diseño y fabricación de material de transporte por carretera, que cuenta ya con siete plantas de fabricación de autocares y dos plantas de fabricación de componentes, y que tiene presencia en los mercados de los cinco continentes. La integración responde a una estrategia de crecimiento diversificado del Grupo IRIZAR hacia sectores de anunciado fuerte crecimiento (energías renovables, generación y distribución inteligentes, industria de la ciencia, otros sectores de transporte…), así como hacia la integración de conocimientos tecnológicos de alto nivel y posible aplicación futura. Por parte de JEMA, la integración aumenta su dimensión y capacidades comerciales y financieras, además de abrir posibilidades 51 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española importantes en otras áreas geográficas sobre el trampolín de las implantaciones del Grupo IRIZAR y su bien construida imagen de marca. La integración, planificada como de tipo Gestión de Grupo, con el mantenimiento de las estrategias tecnológicas y de fabricación que son adecuadas a cada sector, tiene un importante denominador común en la cultura innovadora de las dos empresas que se integran y en su carácter de empresas globales. Además, existen características complementarias derivadas de sus respectivos sectores que, sin duda, aportarán valor a la integración: diseño y tecnología, producción a medida frente a seriada, etcétera. Las características empresariales de JEMA La propiedad y el capital JEMA es el fruto de la visión, el afán emprendedor, el trabajo y la ilusión de un empresario que dedicó a su proyecto la mayor parte de su vida y sus afanes. El pequeño capital inicial con el que se escrituró la razón social fue aportado al 100% por Jesús María Aguirre, asumiendo también con ello todas las responsabilidades inherentes. Con el transcurrir de los años la empresa fue aumentando su capital, siempre suscrito en mayoría por el propio Jesús María Aguirre, hasta su conversión en sociedad anónima en 1975 (18 millones de pesetas de capital social). Las participaciones en el capital, minoritarias y distribuidas entre miembros cercanos de la familia, permitieron seguir manteniendo el control absoluto de la sociedad. Sin embargo, la aplicación de modernos sistemas de gestión y liderazgo, que el propio fundador consideraba necesarios dado el crecimiento y desarrollo de la empresa, y la necesidad de un relevo ordenado, llevaron al nombramiento de un director general ajeno a la propiedad, y a una ordenación de las actividades que preparase a la empresa para los retos de las siguientes décadas, sin perder por ello las positivas características que la definían hasta entonces. 52 En 2009, como resultado natural de ese proceso, y teniendo en cuenta la naturaleza de los proyectos en los que JEMA participa cada vez en mayor medida (exigencia de recursos financieros importantes, proyectos de largo plazo, inversiones crecientes en I+D, etc.), se produce la ya citada integración de JEMA en el Grupo IRIZAR, S. Coop., empresa líder internacional en el sector de material de transporte, con fábricas en Brasil, China, México, Sudáfrica, Marruecos e India, y exportadora global, con novedosos modelos de gestión de gran éxito y con una cultura de innovación continua con la que la JEMA coincide plenamente. Existe el proyecto de que la empresa pase a denominarse en el futuro JEMA ENERGY, S. A., siendo su capital 100% del Grupo Irizar, pero manteniendo la estructura y niveles de decisión ejecutivos que tantos éxitos le han proporcionado. Culmina, así, la trayectoria emprendedora de Jesús María Aguirre al frente de JEMA, en la que deja la impronta y la cultura de la innovación, de la asunción del riesgo creador, y el ejemplo de cómo el esfuerzo y la dedicación permiten competir tecnológicamente en los mercados más exigentes. La gestión y la cultura tecnológica JEMA es una pyme tecnológica de origen familiar. Así nació y así ha ido desarrollándose a lo largo de sus 57 años de existencia. Esto implica conocidas ventajas y no menos conocidos inconvenientes. La rapidez en la toma de decisiones, la flexibilidad, el empuje del empresario al timón, tienen su contrapunto en la excesiva identificación entre líder y empresa, la dependencia principal de sus criterios y los problemas de sucesión, cuando llega el momento. Es justo decir que JEMA ha gozado y sufrido esas circunstancias, pero que el sentido común y la generosidad, tanto de Los sistemas de alimentación de energía del Joint European Torus (JET) su empresario y mayoritario accionista como de sus herederos y del equipo de profesionales del que supo rodearse, han prevalecido y le han permitido sortear los obstáculos y peligros que el natural crecimiento y las diferentes situaciones económicas o tecnológicas han ido presentando. Durante más de cincuenta años, Jesús María Aguirre fue el referente principal de la empresa, asumiendo los riesgos y tomando decisiones no siempre fáciles. Hoy, cuando ya está asentado el relevo en manos de un equipo profesional, la empresa encara el futuro con una posición de liderazgo tecnológico y dentro de un grupo industrial que le aporta además, dimensión y capacidades extras. Así pues, y a la vista de los resultados, se puede afirmar que JEMA ha sabido nacer, crecer y consolidarse, tomando en cada momento decisiones estratégicas que quizás no fueran las mejores posibles, pero sí han sido lo suficientemente buenas como para tener detrás una historia de más de medio siglo que le ha llevado a una excelente posición de mercado y a un porvenir prometedor. Si se intentara clasificar el estilo de dirección en JEMA, podría decirse que, como en tantas otras empresas de sus características, ha ido evolucionando con el tiempo, desde un estilo unipersonal con apoyos profesionales pero con todas las decisiones y responsabilidades focalizadas en la figura de un presidente-propietario, a un estilo colegiado en el que las responsabilidades, aun siendo del director general desde el punto de vista ejecutivo, se comparten con un bien organizado equipo de dirección con niveles de decisión delegada importantes y la tutela de un Consejo de Administración con participación de consejeros independientes. JEMA ha sido siempre una empresa caracterizada por su intensidad tecnológica. Su sector de actividad es el de la electrónica de control y de potencia. La cultura empresarial que su fundador le imprimió en el aspecto tecnológico está caracterizada por una permanente alerta sobre las innovaciones básicas en componentes y sistemas electrónicos de posible aplicación que, al integrarse con otros de forma innovadora, dan una solución eficaz y competitiva al cliente. La asimilación temprana de esas nuevas tecnologías y componentes básicos ha facilitado su incorporación al acervo de conocimiento de la empresa y ha colaborado, en muchos casos, a su perfeccionamiento desde la experiencia de la aplicación concreta. De ahí la confianza que diversos fabricantes de componentes electrónicos de primer nivel fueron depositando en JEMA; confianza que llegó a cristalizar en alianzas técnico-comerciales que, a menudo, adquirían el carácter de exclusividad sobre un amplio territorio. Por otra parte, y desde el dominio de los componentes (los “ladrillos” con los que se construye los edificios, a los que pueden asimilarse los circuitos de control y proceso electrónicos), JEMA desarrolla su tecnología propia en las soluciones completas (es decir, “la solución arquitectónica” en el símil del edificio). Las innovaciones tecnológicas de JEMA han residido por tanto en la habilidad para diseñar, proponer y fabricar equipos de base electrónica que, en su conjunto, aportan soluciones originales y eficaces a los problemas de los clientes más exigentes. El dominio en la combinación de electrónica de potencia, de microelectrónica de control y del software asociado, está en la base del éxito de esas soluciones. A lo largo de los años, JEMA ha ido transformando en capital de conocimiento, a través de las correspondientes patentes, algunos de sus desarrollos más novedosos. Sin embargo, tal y como reconocen los propios responsables tecnológicos de la empresa, su objetivo principal no ha sido la obtención de derechos de propiedad industrial para su posterior comercialización, sino que esos derechos se han ido obteniendo como resultado natural de sus actividades innovadoras y de I+D. El I+D y la innovación forman parte sustancial de JEMA. La empresa participa habitualmente en los programas que la Administración Pública pone a disposición de las empresas innovadoras para apoyo de dichas actividades (Intek, Profit, Avanza...). 53 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Los mercados En sus inicios, los mercados de JEMA eran los geográficamente más cercanos a la ubicación de la empresa. La existencia de un buen número de empresas metalúrgicas básicas (fundición, laminaciones, acerías especiales, fabricación de tubos, etc.), junto a otras actividades igualmente cercanas como las papeleras, fueron determinantes en el crecimiento y consolidación inicial de las actividades de JEMA. El despliegue de las telecomunicaciones (TV primero y telefonía móvil después) diversificó esos mercados que cubrían ya todo el territorio nacional. Comenzaron luego las exportaciones de pequeña cuantía a los países del resto de Europa, y apareció la incorporación de productos para la industria de la ciencia (IdC), cuyos primeros mercados fueron ya exteriores (Suiza). Esto potenció el segmento de la IdC de JEMA para el mercado nacional en paralelo con el exterior. JEMA exporta actualmente sus productos a más de treinta países, siendo todas sus exportaciones consideradas como de alta tecnología. A principios de 2000, JEMA inició acciones de posicionamiento internacional a través de la búsqueda de representantes, aliados locales o posibles implantaciones en distintos países (India, México, etc.). Sin embargo, la naturaleza específica de la mayor parte de los productos y soluciones de JEMA los dirige hacia mercados más sofisticados, y las iniciativas (salvo en Brasil) no llegaron a prosperar más allá de algunas alianzas puntuales. A pesar de ello, y con el objetivo puesto en las fuentes de alimentación para telecomunicaciones y otras más comunes, JEMA fundó JEMA do Brazil, el primer intento de penetración por implantación en otro país, después de haber estudiado las características y oportunidades del gran mercado sudamericano. JEMA exporta actualmente más del 35% de su facturación, siendo sus principales mercados exteriores Italia, Reino Unido, 54 Alemania, Francia, Chile, Argentina, Emiratos Árabes Unidos, México, EEUU, Egipto y Argelia, entre otros. JEMA y la sociedad Jesús María Aguirre no es solamente un empresario de vocación y acción, sino que su afán de pionero, su vitalidad, su visión y su afecto por la sociedad en la que vive le han llevado a lo largo de su vida a impulsar y poner en marcha actividades e instituciones que, hoy, son referentes en la sociedad. Fue impulsor y presidente de la asociación guipuzcoana de empresarios, ADEGI, que contribuyó a fundar en 1977 y que es hoy una de las organizaciones más activas y dinámicas de su tipo. Estuvo también en el impulso inicial de Elkargi (1980) y Etorpensión (1989) (entidades de garantía recíproca y EPSV, respectivamente), organizaciones pioneras de referencia en España y en otros países. JEMA fue impulsora y cofundadora de la Asociación de Industrias Electrónicas del País Vasco (AIEPV), de la que Jesús María Aguirre fue su primer presidente y que dio lugar al primer clúster de TIC en España, convirtiéndose años más tarde en GAIA, una de las asociaciones profesionales de mayor relevancia nacional y con importantes programas en la UE, en Latinoamérica y en el sudeste asiático. Todas estas actividades permearon a lo largo del tiempo la cultura empresarial de JEMA, por lo que la responsabilidad social empresarial (RSE) no es un concepto nuevo para la empresa, que lo lleva grabado en su propio código genético. EL PROYECTO JET EN JEMA El reto En el año 2000, JEMA tuvo la oportunidad de participar en un proyecto singular y exigente: el diseño y la fabricación de Los sistemas de alimentación de energía del Joint European Torus (JET) los sistemas de alimentación, de alta tensión, para calentar el plasma en el reactor europeo experimental de fusión JET2, en el Reino Unido. La generación de energía en reactores de fusión es la mayor esperanza de consecución de energía barata y suficiente para la humanidad que se conoce hoy día. Por comparación con la energía obtenida por fisión (las centrales nucleares actuales, los submarinos y portaaviones impulsados por energía nuclear, etc.), se parte de una materia prima ampliamente disponible (agua), en vez de hacerlo a partir de isótopos fisionables (uranio, plutonio...); y no producirá prácticamente residuos radioactivos. Sin embargo, los problemas prácticos para controlar el proceso son de gran magnitud y suponen hoy día el conjunto de retos científicos más importante de la humanidad. El plasma (cuarto estado de la materia) alcanza en el interior de la cámara de confinamiento temperaturas del orden de 100 millones de grados Celsius (más altas que la temperatura del Sol). Estas temperaturas son necesarias para vencer las fuerzas de repulsión de los átomos y poder producir la reacción de fusión. El plasma, que, como es evidente, no debe tocar las paredes del contenedor, se confina mediante fuertes campos magnéticos que lo hacen levitar dentro de una gran cámara de vacío. prestaciones exigidas en rapidez de respuesta y precisión. Las especificaciones iniciales de partida son las que se indican en la figura 3. Destaca entre ellas el que se trataba de un sistema de 20 MW cortocircuitable. Especificaciones de partida para fuentes de alimentación para cargas PINI para modo conexión en alta tensión JET 130 kV dc, 130 A, 20 MVA entrada, 17 MW salida Máxima sobrecarga <1% Rampa de elevación de tensión desde 150 a 500 μs Tiempo de desconexión rápida de 17 a 4 μs 256 cortocircuitos a la salida durante 20 s Transformadores compactos con aislamiento de 260 kV Crowbars de estado sólido basadas en LTT’s Planta de enfriamiento proporcionando agua desmineralizada Totalmente montado y comprobado a potencia máxima en las instalaciones del fabricante Provisión de superficie de 400 m2 por fuente y de transporte en camiones especiales (9) Figura 3. Especificaciones generales de las fuentes de alimentación para JET La creación de estos campos, así como su permanente control y otras operaciones del reactor, exigen cantidades de energía importantísimas, disponibles en condiciones especiales sobre todo en el proceso inicial (ya que luego el propio sistema produce toda la energía necesaria para el mantenimiento del proceso). Esas energías deben ser suministradas y controladas de manera muy precisa por sistemas de alimentación muy especiales y de naturaleza crítica. Precisamente el reto que JEMA tenía por delante. Se trataba de diseñar un nuevo sistema de alimentación, cuya solución tecnológica no existía en esa fecha, dadas las 2 JET (Joint European Torus). El más grande y potente de los reactores experimentales de fusión que funcionan en el mundo. El equipo era importante, con un presupuesto notable (20 millones de euros en total), pero su mayor importancia para el conjunto de la “máquina” radicaba en que los equipos que debía alimentar eran mucho más caros y críticos. La más mínima falta de precisión en el tiempo de parada podía llegar a provocar un desastre. JEMA concibió y desarrolló un sistema redundante basado en LTT (Light triggered tiristors) capaz de desconectar, por seguridad, en 1,2 μs. Esto supuso una auténtica novedad y, desde entonces, los propios fabricantes de LTT, que habían descubierto la nueva aplicación a partir del desarrollo de JEMA, los mencionan como elementos para la fabricación de esos especiales interruptores cortocircuitadores (crowbars). 55 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española El proyecto incluía la prueba previa de los equipos en casa del fabricante en condiciones nominales de trabajo, lo que suponía una dificultad añadida más, ya que probar al 100% los sistemas en la fábrica de JEMA exigía disponer, a la entrada de fábrica, de la energía necesaria en condiciones absolutamente especiales. Estas dificultades se resolvieron gracias a la colaboración de la empresa distribuidora IBERDROLA, que facilitó los cambios necesarios y adaptó su red en la zona para poder disponer de esas especiales condiciones y de la cantidad de energía puntual necesaria. El proyecto y el cliente • Proyecto: diseño y fabricación de los sistemas de alimentación, de alta tensión, para calentar el plasma en el reactor europeo experimental de fusión JET. • Cliente: Laboratorio de Fusión Nuclear EFDA-JET. Culham, Oxfordshire (Reino Unido). • Financiación: Programa de la Comisión Europea para el JET (“NBupgrade” para las dos primeras fuentes y EP2 para las cuatro segundas). • Supervisión: EURATOM a través del CSU (Unidad de soporte cercano). • Presupuesto inicial: abierto, en concurrencia competitiva. • Garantías: vida útil de 10 años o 100 000 pulsos. Dos años de garantía total (piezas y mano de obra), cumplimiento de especificaciones al 100%. Normas BS e IEC. • Exigencia de homologaciones previas: importante. Visita previa a las instalaciones del ofertante por parte de una comisión técnica de evaluación. • Plazo de entrega: abierto, a presentar por los ofertantes (aprox. 36 meses). 56 • Penalizaciones: por incumplimiento técnico: cancelación del pedido. Por demoras: penalización de porcentaje del contrato según tabla (0,3% por semana de retraso o porción, hasta un máximo del 5%). • Convocatoria: por invitación, sobre lista corta. La motivación JEMA ya había tenido noticias de este proyecto tres años antes, en 1997, momento en el que un concurso para su suministro había quedado desierto, sin duda por sus dificultades técnicas. Un trabajo posterior sobre las especificaciones lo presentó muy alineado con la estrategia de desarrollo de nuevos sectores y nuevas tecnologías de JEMA. El proyecto presentaba muchas incertidumbres técnicas: los transformadores especiales, los aislamientos, los interruptores (crowbars) de estado sólido, etc. Suponía un reto tecnológico importante. Para JEMA, y para su equipo de I+D en especial, era una fuerte motivación ya que les permitiría, en caso de éxito de su oferta, desarrollar innovaciones que les posicionarían en el mercado como líderes en este tipo de equipos. Además, JEMA podría conseguir el reconocimiento internacional, tan importante para una pyme tecnológica española que debía competir continuamente con empresas de mayores dimensiones y capacidades comerciales. Pero quizás la mayor motivación provenía de algo que ha caracterizado siempre a JEMA: la visión de futuro. Este proyecto estaba destinado al Laboratorio Europeo de Fusión Nuclear EFDA-JET, situado en Culham (Reino Unido). Esta instalación tiene carácter de pionera dentro del gran esfuerzo internacional que se está haciendo para dominar la generación de energía a través de la fusión nuclear y era, de algún modo, precursora del gran proyecto de instalación científica, ITER, cuya decisión de arranque se vislumbraba en el horizonte. Para JEMA estaba claro que ser empresa desarrolladora y pro- Los sistemas de alimentación de energía del Joint European Torus (JET) veedora de las especiales fuentes de alimentación para calentamiento del plasma en el JET, la pondría en situación de ventaja cara a los grandes suministros del futuro proyecto ITER. Por tanto, era también una apuesta de futuro, tomar posición en un mercado de importante expectativa. Por todo ello, y tras detallada consideración interna, se tomó la decisión (valiente según unos, arriesgada según otros) de lanzarse a tratar de ganar el concurso internacional para ese suministro. • Robotiker: realizó la simulación y los cálculos de distribución de los campos eléctricos utilizando sistemas de elementos finitos a partir de los datos suministrados por el Departamento de I+D de JEMA y bajo la dirección de sus equipos técnicos. • Labein: realizó la simulación, los cálculos y los ensayos de descargas, las pruebas tipo y los ensayos de serie de los aislamientos en corriente alterna y en continua, de ondas de choque y los ensayos de descargas parciales. Situación del entorno JEMA partía, en la dura competencia por este proyecto, de una posición mixta. Por un lado, al ser una pyme, contaba con la ventaja de la flexibilidad, a la que se unía el conocimiento de sus equipos de I+D y los años de experiencia en desarrollos especiales. Por otro lado, era evidente que sus recursos eran justos; su dimensión de empresa pequeña y la obligación de luchar contra el reconocimiento inherente a grandes empresas europeas del sector tecnológico, sólidamente instaladas en los mercados internacionales frente a las de países periféricos del sur del continente, era un punto desfavorable que podía ser decisivo en cuanto surgiera la menor dificultad. La situación económica general y la de los mercados financieros en particular no eran malas, pero la pequeña dimensión de JEMA era un inconveniente para obtener la prefinanciación necesaria para abordar un proyecto de riesgo de esa naturaleza y tamaño. Uno de los principales problemas relacionados con la dimensión, la disponibilidad en un corto periodo de tiempo de personal de alta cualificación para trabajar en paralelo y conseguir cumplir plazos en desarrollos muy específicos, se resolvió a través de nuevas contrataciones y de alianzas con tres centros tecnológicos: • Inasmet: apoyó con un estudio de los materiales aislantes para poder soportar 260 kV entre primario y secundario. La otra faceta de la dimensión, el aspecto financiero, fue resuelto gracias a la evolución y buena trayectoria que JEMA ya tenía en cuanto al cumplimiento de sus compromisos financieros. Por ello, y aunque no resultó fácil, se consiguió el apoyo de la banca y se pudo disponer de los recursos previos que permitían abordar el proyecto. Si se considera que la facturación anual de JEMA en esas fechas era de aproximadamente 10 millones de euros y que el proyecto JET suponía un encargo valorado en unos 20 millones de euros en 6 años, se puede apreciar la naturaleza del riesgo económico que se asumía. La figura 4 muestra el análisis DAFO de situación ante el proyecto por parte de JEMA. Accesibilidad Rapidez de respuesta Capacidad técnica Equipo de trabajo comprometido Alianzas tecnológicas y financieras Experiencias similares F N.º insuficiente de profesionales Limitaciones de la infraestructura Falta de ciertos componentes Escasez de capacidades de subcontratación especializada para pequeñas series Alto coste de marketing para una pyme Volumen de negocio interesante Posibilidad de ampliación Referente tecnológico importante Asimilación de nuevas tecnologías Aplicaciones a otros mercados Riesgo técnico notable. Topología de 120 inversores conectados y sincronizados Riesgo financiero Cláusulas estrictas de cancelación y devolución Eventual pérdida de imagen Competencia con mayores capacidades financieras O D A Figura 4. DAFO de situación ante al proyecto por parte de JEMA 57 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Otros aspectos estratégicos en la toma de decisión Además de los ya mencionados aspectos que hacían del proyecto una oportunidad del interés de JEMA, existían otros aspectos de carácter no menos estratégico que conviene citar y que tuvieron también su influencia en la decisión. Por un lado aparecía contractualmente la posibilidad de fabricar 2 o 4 fuentes más que las inicialmente previstas, lo cual incrementaba el valor de la operación y distribuía mejor los elevados costes de I+D, los ensayos de tipo, los cambios e inversiones en infraestructura, etc. Por otro lado, el planteamiento tecnológico de JEMA para dar solución al reto de calentamiento de los NBI implicaba conseguir un sistema novedoso que debía alcanzar mayores niveles de eficacia y podía tener otras aplicaciones en reactores diferentes de la propia UKAEA (United Kingdom Atomic Energy Authority). Esta visión demostró ser acertada ya que, por ejemplo, la fuente para el reactor MAST (Mega Amp Spherical Tokamak)3 de 80 kV y 70 A, está ya basada en la tecnología de las fuentes iniciales para NBI del JET. Otro elemento que también tuvo su importancia fue la constatación de que un aspecto clave de los desarrollos eran los transformadores y que las exigencias que se les demandaban los colocaban en una clase diferente en sí misma. Esas nuevas características abrían también nuevos campos para aplicaciones colaterales que la empresa podía y debía aprovechar posteriormente. Los transformadores del proyecto de fuentes para el JET eran de alta potencia con altas tensiones pulsantes y rápidas (esto exigió utilizar núcleos de silicio amorfo en vez de ferritas; aislantes especialísimos basados en polímeros, etc.). Una posible aplicación posterior se encontró en la industria de procesado de alimentos para su esterilización. 3 El experimento de energía de fusión del Reino Unido, complementario de un experimento similar en Princeton (EEUU). 58 En resumen, dos de las principales razones para participar en el proyecto JET estaban ligadas a la decisión estratégica a largo plazo de la empresa de participar activamente en el desarrollo del mayor proyecto de fusión del mundo (ITER), consiguiendo de ese modo una referencia muy importante y, por otro lado, desarrollar tecnologías de aplicación en otros sectores de actividad. Planificación y recursos El proyecto se ganó brillantemente por parte de JEMA, tras convencer a los distintos comités de evaluación de la bondad de su solución tecnológica, que incorporaba mejores prestaciones, más seguridad y menor precio; y ahí empezó la verdadera prueba de fuego. Se convirtió en el proyecto estrella de la empresa durante tres años. Se le dedicaron los mejores recursos (humanos, técnicos y económicos). Se contrataron especialistas en ingeniería electrónica de control y en electrónica de potencia que sumaran sus esfuerzos a los equipos propios. Un grupo de 8 a 10 expertos altamente cualificados constituía el equipo permanente dedicado al proyecto. En momentos puntuales este equipo crecía hasta los 20 profesionales, además de los servicios auxiliares de gestión, logística, oficina técnica, etc., y los de las empresas e instituciones aliadas. Responsabilizarse de un proyecto de esta naturaleza solo es posible con una planificación estricta y un proceso de control que garantice el cumplimiento de hitos y el empleo de los recursos implicados; a la vez, la planificación debía ser flexible para permitir los cambios que todo desarrollo novedoso trae siempre consigo. Los imponderables son consustanciales con la innovación. JEMA aplicó sistemas de control de proyectos basados en herramientas informáticas al uso, pero lo más importante, según sus propios responsables, fue la metodología de trabajo en equipo y de comunicación permanente mediante reuniones cortas y de gran eficacia entre todos los implicados en el proyecto. De esa manera se construyó un Los sistemas de alimentación de energía del Joint European Torus (JET) sentido de pertenencia y una ilusión en la consecución del objetivo que se expandió por toda la empresa, distribuyéndose la responsabilidad, los éxitos y también las eventuales e inevitables contrariedades. dos días por mes a trabajar con los expertos del cliente. Esta planificación del trabajo en equipo permitió mantener unos altos niveles de comunicación y dio al proyecto la necesaria fluidez. El proyecto se desarrolló en la división de Sistemas Avanzados de Alimentación, donde se ubican todos los proyectos singulares relacionados con la IdC. Aspectos críticos del proyecto. Planes de contingencia Se formó un equipo director del proyecto compuesto por cinco personas con dedicación completa a las que, según la fase del desarrollo, se sumaban temporalmente otros profesionales. Se nombró a un gestor de proyecto con reporte al director industrial de la empresa. La Dirección General dedicó también una atención especial permanente al proyecto, integrándose en el equipo gestor en periodos concretos. Como elementos de planificación se utilizaron, como en el resto de los proyectos de JEMA, las guías y proceso explicitados por el PMBOK® Guide. Se trata de una metodología internacionalmente aceptada y, por tanto, fácil de entender y seguir por parte de terceros en sus controles. PMBOK® identifica cinco grupos de procesos (Inicio, Planificación, Ejecución, Control y seguimiento, y Cierre) y nueve áreas de conocimiento (gestión integral del proyecto, gestión del alcance, gestión de los tiempos y plazos, gestión del coste, gestión de la calidad, gestión de los recursos humanos, gestión de las comunicaciones, gestión del riesgo y gestión de los suministros). El hecho de que PMBOK® haya sido reconocida como metodología por entidades como el IEEE (Institute of Electrical and Electronics Engineers) le dotaba de una particular idoneidad para proyectos como el que iba a desarrollar JEMA. Además, se utilizaron herramientas software estándar de gestión y control de proyectos tipo Office Project® y de integración con el ERP de la empresa. Se establecieron reuniones específicas semanales internas para seguimiento del proyecto, costes y plazos, y se dedicaron Los aspectos más críticos del proyecto estaban relacionados con la novedad de las soluciones tecnológicas que era necesario desarrollar y aplicar para obtener los resultados buscados. No había experiencias anteriores similares completas. Se había intentado en Italia con válvulas como componentes principales, pero un incidente en un laboratorio (que incluyó la formación de una peligrosa nube de mercurio) había cerrado esa vía de desarrollo y las especificaciones actuales eran concretas en cuanto a la utilización de componentes de estado sólido. Había muy pocas referencias sobre la utilización de ese tipo de componentes para aplicaciones parecidas. En esa situación, con grandes incertidumbres abiertas y con la más que posible necesidad de tener que adoptar soluciones alternativas en el transcurso del desarrollo del proyecto, los compromisos de cumplimiento de plazos e hitos de entrega, con sus penalizaciones asociadas, cobraban una importancia crítica. JEMA planificó, dentro de lo posible, esquemas de trabajo en paralelo que permitieran seguir avanzando en otros aspectos no condicionados por eventuales retrasos en algún aspecto concreto. Asimismo, se desarrollaron planes de contingencia para detectar de forma temprana esas situaciones, identificando responsabilidades, recursos extras de posible aplicación, y diseñando los planes de control y alerta para que las eventuales incidencias pudieran ser resueltas de forma tan rápida como fuera posible y no afectaran a la planificación de hitos comprometida con el cliente. Se analizaron todos los riesgos técnicos previsibles, ponderándolos en función de su repercusión para el conjunto del proyecto. 59 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Estos planes resultaron de gran eficacia ya que, a pesar de las incidencias que se produjeron, JEMA pudo entregar la fuente a tiempo para la realización de las campañas experimentales previstas en los planes iniciales del cliente. La novedosa solución tecnológica presentada por JEMA gustó al grupo de 25 examinadores previos y posteriormente al grupo de 45 técnicos que durante tres días analizaron la propuesta. Sin embargo, costó mucho convencerles de que el riesgo merecía la pena, que el hecho de que fuera una solución no solo más novedosa, sino incluso más barata que la presentada por la competencia, no constituía ningún riesgo adicional, sino una ventaja añadida, etc. Por decirlo de algún modo, fue preciso vencer el “miedo escénico”, el vértigo que produjo en los equipos evaluadores internacionales la presencia de una pyme tecnológica española con una solución innovadora a un proceso crítico de la mayor instalación experimental de fusión del mundo. Sin embargo, las razones técnicas presentadas por los expertos de JEMA, la ilusión, seriedad y compromiso demostrados, la asunción por parte de la empresa de las estrictas condiciones de suministro, del seguimiento exhaustivo del desarrollo —sobre todo en las fases más críticas— y de las condiciones de controles de pagos establecidas, convencieron finalmente a los adjudicadores y el concurso fue ganado por JEMA. La planificación de las contingencias tuvo también un aspecto financiero importante. La disponibilidad del crédito en ese momento era aceptable en términos generales, y eso fue un factor favorable que en épocas más recientes hubiera representado un importante escollo adicional. JEMA consiguió el apoyo de las entidades financieras sobre la base de su buen historial como empresa cumplidora y sin fallos. No obstante, hubo que diseñar un sistema de control y seguimiento que permitiera a las entidades financieras colaboradoras tener un conocimiento puntual y preciso de la situación de cumplimiento de hitos, pagos, presentación de certificados y aprobaciones, etc. 60 Un aspecto singular del proceso de desarrollo aceptado por contrato era la imposibilidad de cambiar nada sustancial sobre el plan de trabajo aprobado, al menos en las dos primeras fuentes. Es decir, incluso potenciales mejoras que el desarrollo del proyecto pudiera descubrir, debían presentarse, argumentarse y validarse; un proceso tan largo y complejo que prácticamente lo hacía incompatible con el cumplimiento de los plazos comprometidos. Por otra parte, esas sugerencias de mejora podían presentar dudas y pérdida de credibilidad, tanto para la empresa como para los equipos de evaluación que habían aprobado en todos sus detalles el diseño y las alternativas iniciales. Esta rigidez del proyecto no fue un obstáculo importante en su desarrollo, pero se anotaron las posibles mejoras para la fabricación de las fuentes posteriores. La planificación de la explotación posterior Por su propia naturaleza, el proyecto de fuentes para el JET no tenía una explotación posterior planificada, aunque para la dirección de JEMA estaba claro que el proyecto era importante para desarrollar cartera de pedidos posterior, tanto en ámbitos de ciencia como en otros sectores. Se intuía, además, que en el transcurso del proyecto surgirían interesantes soluciones y desarrollos tecnológicos de aplicación futura. Fue un gran proyecto cuyos retos se resolvieron a través de soluciones modulares diversas (de posterior aplicación individual). Así, entre otros “módulos” singulares se pueden mencionar: • Los transformadores especiales de alta frecuencia con núcleos de silicio amorfo para reducir pérdidas y tamaño; con posterior aplicación potencial en fuentes de alta tensión y alta frecuencia. • El sistema de conexión de 120 inversores en paralelo con decalaje preciso de 3º entre cada uno. Se desarrolló un complejo algoritmo para limitar el rizado, algoritmo que ya se está utilizando en otras aplicaciones. Los sistemas de alimentación de energía del Joint European Torus (JET) • El interruptor-cortocircuitador (crowbar) de estado sólido (véase la figura 5). • El almacenamiento de la energía en baja tensión para evitar que se transfiera a la carga. Esta solución ya se está aplicando en otros diseños de fuentes y moduladores. con el cliente e hizo presentaciones en el 25th Symposium on Fusion Technology, SOFT2008 (Rostock, Alemania). El prestigio progresivamente alcanzado introdujo a JEMA en proyectos de diseño e ingeniería inicial para otras máquinas de fusión. Beneficios esperados: tecnológicos, económicos y comerciales Fuente: foto cedida por JEMA. Figura 5. Interruptor-cortocircuitador (crowbar) de estado sólido desarrollado por JEMA El principal beneficio tecnológico que se esperaba del proyecto era conseguir demostrar que la innovadora solución propuesta por JEMA, frente a las topologías más tradicionales utilizadas por la competencia, era la mejor para esta aplicación sobre NBI. Esto iba a suponer, como así fue, un punto de inflexión en nuevos diseños y especificaciones, ya que, por ejemplo ITER, solicita ya soluciones similares a la topología planteada por JEMA. Las fuentes fabricadas por JEMA consiguieron aumentar el rendimiento de los NBI y batir el récord de energía de fusión obtenida hasta entonces en la máquina (el diseño general ITER se puede ver en la figura 6). Canales de explotación La industria de la ciencia tiene unos canales de explotación que pueden calificarse de singulares, ya que los grandes proyectos que conforman el mercado son bien conocidos por parte de la comunidad industrial activa como proveedores de productos o servicios para los mismos. La participación en proyectos concretos, la publicación de comunicaciones de ciencia en los medios monográficos del sector, la colaboración continuada con los departamentos de las GIC ya establecidas, y hasta el boca a boca de las buenas experiencias en los círculos interesados, conforman los canales de comercialización del sector. En el uso de esos canales específicos, JEMA participó en la publicación de tres artículos monográficos en colaboración Fuente: foto cedida por ITER. Figura 6. Diseño general del ITER, el mayor Tokamak del mundo 61 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Se vislumbraba también la posibilidad de dar un salto cualitativo en la formación de los profesionales de JEMA, en la experiencia de sus equipos humanos en el manejo y gestión de proyectos de esta naturaleza para clientes del más alto nivel científico, etc. Es importante destacar que todos los profesionales específicamente contratados por JEMA para este proyecto quedaron, a su término, contratados indefinidamente por la empresa. Todo ello situó a JEMA como la empresa europea con mayor conocimiento y experiencia tecnológica en este tipo de diseños de fuentes, lo que supone actualmente un interesante diferencial competitivo. Es un hecho que las máquinas que obtienen mejores resultados tienen menos dificultades para obtener financiación posterior, y por ello el éxito del proyecto en el JET se tradujo inmediatamente en un impulso comercial para JEMA. Otros centros de investigación y GIC empezaron a llamar a JEMA y a contar con sus expertos para definir especificaciones o para pedir ofertas concretas. Incluso grandes empresas de instrumentación empezaron a recurrir a JEMA para contar con su colaboración en futuros proyectos y aplicaciones, tanto en el sector de la IdC como en otros sectores colaterales. Los recursos necesarios en el proyecto Desde el punto de vista económico, el proyecto presentaba una rentabilidad razonable siempre que se desarrollara dentro de los parámetros inicialmente planteados. A su consecución contribuyó el estricto control del desarrollo del proyecto y su seguimiento tanto técnico como económico. Financieramente, el proyecto no solo supuso una mejora de la posición de tesorería de la empresa, sino que el exitoso proceso y cumplimiento de hitos financieros otorgó a JEMA la calificación de cliente preferencial para las entidades financieras colaboradoras. Aspecto importante de este posicionamiento fue la política de comunicación que la empresa mantuvo durante el largo proceso de desarrollo y fabricación, manteniendo a las entidades colaboradoras informadas de la situación, los avances conseguidos, las principales incidencias, etc. Se llegaron a hacer demostraciones parciales para dichas entidades, lo que incrementó su conocimiento y confianza en el desarrollo del proyecto. Asimismo se mantuvo una permanente comunicación con las instituciones españolas más interesadas en este tipo de proyectos y en el desarrollo general de la IdC en España (principalmente CDTI y CIEMAT). Esta permanente política de comunicación incrementó la favorable repercusión del proyecto para JEMA. Comercialmente, el proyecto supuso un cambio importante en la percepción de la imagen de JEMA a nivel internacional. 62 Además de los recursos humanos ya mencionados anteriormente, fue preciso adquirir nuevos equipos e instrumentación y adaptar instalaciones para conseguir desarrollar el proyecto. Entre otras: • Se adquirió instrumentación de laboratorio de mayores capacidades y precisiones: osciloscopios para mayor ancho de banda (300-500 MHz), fuentes de ensayo de hasta 260 kV para comportamientos en alta tensión, cámara de vacío, bombas de vacío y un largo etcétera de equipamiento diverso. Este capítulo supuso una inversión superior a los 300.000 euros. • Las acometidas especiales, la adaptación del centro de transformación, el alquiler de nuevos pabellones para las extraordinarias dimensiones del proyecto y el importante consumo energético, alcanzaron una cifra adicional semejante. • Por otra parte, se realizaron subcontrataciones tanto en los aspectos de desarrollo como en fabricación de partes específicas. Además de los ya citados centros tecnológicos, se subcontrató a un buen número de pymes tecnológicas tales como: Talleres Leorpe, Oasa Savoisienne, Ondoan, Felas, Transformadores Trama, Eremu, etc. Estas subcontrataciones superaron la cifra de 700.000 euros, por lo que el impacto positivo en el entorno fue evidente. Los sistemas de alimentación de energía del Joint European Torus (JET) • Los recursos financieros fueron los propios de la empresa, más los conseguidos con apalancamiento bancario y garantía de la propia empresa y del proyecto. No se contó con ninguna ayuda pública por proyectos de I+D, inversiones o similares. señales muy rápidas (del orden de microsegundos). Otra tipología similar fue utilizada para el inversor. Las tecnologías y los retos tecnológicos de detalle El software de aplicación fue de desarrollo propio, dentro de las plataformas de los fabricantes de los diferentes componentes. Se trataba de conseguir una tensión de 130 kV cc a 130 A y con las exigentes características que ya se indicaron en la figura 4. La solución integral que dio la propuesta de JEMA queda expresada, de forma muy resumida, en la figura 7. 670 V ca/50Hz 700 V cc/12 pulsos Entrada 36 kV ca/50Hz Step-down transformer Rectificador a tiristores Se utilizó tecnología de PLC (controladores lógicos programables), más lentos, como respaldo y para gestionar los permisos de operación de la fuente. En conjunto se desarrollaron muchos pequeños circuitos basados en FPGA con algoritmos de diseño propio. Otro aspecto de interés tecnológico en el desarrollo de la fuente fue el de la parametrización y visualización de las interfaces hombre-máquina, los sistemas de diagnóstico de la fuente, los registros de eventos, etc. Todo ello se resolvió con un sistema similar a un SCADA con conexión ethernet donde, además de la gestión, se visualizaba su estado (véase la figura 8). Onda cuadrada de 2,7 kHz ca Buffer de energía Inversor de IGBTs 700 V cc/0,8 F Salida 130 kV cc/130 A Rectificación no controlada (con diodos) 120 etapas en serie. 1,1 kV cada una Transformador de alta frecuencia 1:1 Figura 7. Esquema general de la solución tecnología de JEMA para las fuentes del JET Es importante destacar que el buffer de energía de gran capacidad (0,8 F) está en la zona de baja tensión. En cuanto a la electrónica de control, se utilizaron para el rectificador de entrada DSP (Digital Signal Processors) con FPGA (Field Programable Gate Arrays) ya que se manejan Fuente: foto cedida por JEMA. Figura 8. Pantalla principal del interfaz del proyecto 63 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Se desarrollaron también aplicaciones de simulación especiales basadas en programas estándares para electrónica de potencia como PSIM® (POWERSIM Inc.), y otros más generales, como MATHCAD® (PTC), SIMULINK® (Mathworks), etc. Asimismo fue preciso disponer de emuladores de DSP para depurar el software en sus distintas fases de desarrollo. Algunos de los principales retos en la fabricación tenían mucho que ver con las propias dimensiones. Las cubas que contenían 42 transformadores y 42 rectificadores de alta tensión tenían una capacidad de 30.000 l de aceite dieléctrico cada una. Cualquier elemento que se rompiera o averiara una vez dentro de la cuba planteaba una situación crítica desde el punto de vista del retraso en plazos, ya que las labores de desencubado, reparación y nuevo encubado podían llevar muchas semanas. Hay que tener en cuenta que el llenado de aceite caliente debe hacerse en situación de vacío (no puede haber burbujas en la cuba). Esta operación es muy trabajosa e implica la utilización de bombas de transferencia, grúas especiales, etc. Para que las propiedades dieléctricas fueran óptimas, no se admitía ninguna impureza ni burbujas en el aceite. Otro reto importante fue el desarrollo de un transformador de hasta 142 kV trabajando a 2,7 kHz con un tamaño tan compacto como fuera posible, garantizando además una tensión de aislamiento de 260 kV. También hubo que enfrentar y superar otros retos: • Conseguir utilizar 120 inversores perfectamente sincronizados (con 3º de decalaje). Todos los disparos se realizaron por fibra óptica para evitar retrasos, hacerlos inmunes a los ruidos electromagnéticos, etc. (véase la figura 9). • Desarrollar el sistema de control con algoritmos de altísima complejidad. Fueron muchos lazos de control muy complicados, trabajando en paralelo. • Minimizar el “rizado” a la salida por causa de capacidades parásitas. Se consiguió a base de utilizar algoritmos de alta complejidad como los indicados en el punto anterior. Fuente: foto cedida por JEMA. Figura 9. Módulos inversores. Fibra óptica, PLCs y sistema de refrigeración 64 Fuente: foto cedida por JEMA. Figura 10. Camiones góndola descargando las fuentes en Culham Los sistemas de alimentación de energía del Joint European Torus (JET) • La propia logística de fabricación. Cada fuente ocupaba cerca de 400 m2 y fueron transportadas desde Lasarte al Reino Unido en nueve tráileres especiales tipo góndola (véanse las figuras 10 y 11). El transporte debió realizarse por rutas y carreteras especiales que permitieran el radio de giro y la altura necesarios. Fuente: foto cedida por JEMA. Figura 11. Vista parcial del montaje de las fuentes desarrolladas por JEMA para el JET La normativa británica para la logística, la instalación, el ensamblado, etc., es también muy exigente, y hubo que contar con ella para evitar retrasos y costes duplicados. En ese horizonte competitivo, la situación de JEMA era la de la empresa con menor dimensión. Sin embargo, JEMA se posicionaba en un nivel tecnológico medio-alto; económico, medio; y de servicio, alto. Otro aspecto siempre importante en cuanto a la posición competitiva es la ubicación geográfica. El hecho de ser una empresa situada en la periferia europea no ayuda cuando se trata de proyectos en los que la colaboración entre los técnicos de la empresa fabricante y los técnicos y científicos del cliente es un valor importante a tener en cuenta, que se despliega en relaciones personales-profesionales que dan flexibilidad y hacen avanzar el proyecto. JEMA tuvo que vencer el inconveniente de su situación periférica con un esfuerzo adicional de comunicación y de viajes para generar esa atmósfera de colaboración diaria. El mercado de las fuentes para GIC tiene una parte importante de su volumen en los diferentes proyectos de fusión (ITER, JET, MAST y relacionados). Por tanto, lo que ocurra en estos proyectos (retrasos, cancelaciones, cambios, etc.) tiene una importancia crucial sobre el futuro de las industrias que los desarrollan. En otras palabras, se trata de un mercado muy dependiente de las experiencias previas. La situación del mercado específico Existe un número reducido de empresas de primer nivel en Europa que pueden hacer este tipo de desarrollos y trabajos: tres en Alemania, dos en Italia, una en Suiza, una en España... y un número algo mayor de empresas con capacidades potenciales pero sin importantes experiencias reales. El entorno competitivo para este proyecto se centraba, por tanto, en no más de una decena de posibles competidores europeos de primer nivel y otros potenciales que se atrevieran a dar el salto, junto con alguna posible empresa de países no europeos. El hecho de que la convocatoria definitiva fuera por invitación, significaba que un filtro previo ya iba a ser realizado por parte de los expertos del cliente y de la organización financiadora europea. Por otra parte, y en cuanto a los aspectos de oportunidad temporal, se suelen conocer los proyectos en términos generales pero no el momento de su puesta en marcha y de la correspondiente demanda de ofertas, ya que depende de decisiones políticas relacionadas con la disponibilidad presupuestaria. Esto representa una fuerte incertidumbre para la planificación. En un entorno como el perfilado, la posición comercial de JEMA antes del proyecto JET se podía estimar en un 10% de la cuota del mercado europeo de fuentes para fusión. A partir de su éxito en JET, JEMA consiguió estar presente en aproximadamente el 70% de las mencionadas fuentes. Aparte de lo expuesto, el mercado de las GIC se define como de “best value for money”, donde la clave del éxito es un 65 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española mix bien balanceado de tecnología, precio y servicio. Sin embargo la realidad dice que la tecnología y la fiabilidad priman sobre el precio: son condiciones sine qua non, y por ello se producen convocatorias por invitación, abiertas solo para el reducido número de empresas capaces de demostrar que tienen las capacidades y la experiencia necesarias para llevar el proyecto a buen término. por parte del personal del JET en Reino Unido, como por parte de las empresas y organizaciones españolas que tuvieron un papel importante en el desarrollo (subcontratistas, proveedores, infraestructuras, etc.) Sin embargo, y como era natural en un proyecto innovador, complejo, de alta tecnología y de tantos meses de duración, se produjeron situaciones no esperadas que fue preciso solventar mediante la aplicación de los recursos previstos y con creatividad y capacidad de adaptación. Algunas de esas incidencias, fueron: La financiación del proyecto Este tipo de proyectos que se prolongan durante largos periodos de tiempo conllevan pagos por hitos que hacen que las empresas puedan ir financiando sus gastos en medios, estructura y salarios. A pesar de ello, y dado el volumen económico de los proyectos, las empresas deben prever importantes adelantos con recursos propios o garantizados, ya que el arranque del proyecto, la certificación de los hitos y los correspondientes trámites burocráticos que implican pueden significar retrasos reales que no deben afectar al proceso de desarrollo. La financiación que precisó JEMA para lanzar el proyecto de las fuentes para el JET fue soportada con sus propios recursos (30%) y con líneas de crédito aportadas por dos entidades financieras españolas (70%), que se ilusionaron con el proyecto y compartieron la visión de JEMA, confiando en sus capacidades técnicas y en su gestión económica. En el transcurso del proyecto no se produjeron incidencias de tipo financiero dignas de mención, salvo los inevitables pequeños retrasos en la recepción de alguno de los pagos, situaciones resueltas con la aplicación del plan de contingencias. El desarrollo del proyecto El desarrollo del proyecto se produjo de una manera bastante fluida, con todos los sistemas de control y seguimiento funcionando tal como se había planteado. Los directivos de JEMA destacan también la excelente colaboración prestada tanto 66 Principales incidencias Se detectó que, una vez dentro de la cuba, se rompían algunos diodos (cada fuente lleva aproximadamente 7.000 diodos y se rompían 4 o 5). El coste individual de los diodos es bajo, pero el impacto de su rotura sobre el proyecto era muy grande. Un detallado análisis inicial de los picos de conmutación de alta potencia permitió comprobar que, en algunos casos, se llegaba al límite de la capacidad de los mencionados diodos. Se realizaron pruebas, simulaciones y prototipos, lo que llevó al desarrollo de un snubber (circuito amortiguador RC) que limitaba los picos de tensión pero aumentaba las pérdidas en el sistema, calentaba el aceite, etc. Fue necesario resolver y eliminar esos impactos, estudiando los límites de trabajo, las potencias de pérdida y los coeficientes de seguridad. Finalmente se consiguió resolver el problema dentro de las especificaciones deseadas. Hubo que incluir 240 snubbers por fuente en el mismo espacio que había antes, lo que exigió labores de montaje y desmontaje en condiciones de inmersión en aceite; ese trabajó supuso varias semanas. Los análisis efectuados llevaron a la conclusión de que los componentes utilizados tenían una dispersión de características nominales superior a la esperada. El diseño no permitía utilizar diodos de mayor tamaño por ser estos más lentos. El factor de seguridad no era suficiente. Esta demora de varias semanas tuvo a toda la organización pendiente del problema y afectó al diseño, que tuvo que ser ligeramente modificado. El gestor del proyecto en JEMA fue figura clave en la solución Los sistemas de alimentación de energía del Joint European Torus (JET) del problema, y gracias a su liderazgo y control de los recursos se pudo resolver satisfactoriamente la situación. También se produjeron algunos incidentes menores por roturas de stocks de aprovisionamiento, lo que obligó, en aplicación del plan de contingencias, a cambios de aprovisionamiento logístico para poder entrar en plazos de hitos. El proyecto incluía miles de componentes electrónicos, mecánicos, cableados, etc.; desde cubas metálicas de varios m3 de capacidad y muchas toneladas de peso hasta condensadores de pocos pF. Asimismo, se produjeron algunas incidencias derivadas de los resultados de los ensayos obtenidos en los centros tecnológicos sobre la compatibilidad de los aceites empleados con algunos de los otros productos que iban inmersos en los mismos. Los desarrollos de algoritmos supusieron más trabajo que el inicialmente planificado. Resultaron más complejos y requirieron muchas técnicas combinadas de diseño. Este inconveniente se resolvió con una mayor dedicación de recursos hasta encontrar las soluciones adecuadas. Se consiguió que nunca se produjera un retraso por este motivo. Seguimiento del desarrollo del proyecto El esquema de la organización de seguimiento del proyecto fue el que se indica en la figura 12. Cada subgrupo fue responsable integral de su parte del proyecto. Se desarrollaban reuniones internas por subgrupo, por proyecto general y, en la fase final de pruebas y con carácter diario, de todos los responsables de subgrupo, con el director industrial y el gestor del proyecto. Estas revisiones, centradas en lo hecho y en lo que quedaba por hacer, no tenían una duración de más de 20 minutos y mantenían la tensión y la focalización en el proyecto de todo el equipo. En ellas era frecuente también la participación del director de Compras. Principales acciones correctoras En este aspecto, y más allá de lo indicado en el capítulo de incidencias, no fue preciso introducir acciones correctoras de gran porte. No fueron necesarios cambios de rumbo importantes ni se produjeron cambios de personal, salvo las incorporaciones de nuevos contratados cuando fueron necesarios. Las especificaciones originales fueron la principal guía del proyecto y no fue preciso ni se sufrió cambio importante en las mismas, salvo las ligeras modificaciones de diseño antes mencionadas, a consecuencia de alguna incidencia. En todo caso esos cambios, aunque complejos en su puesta en marcha, no afectaron a la filosofía de funcionamiento ni a las características operativas de los equipos. El proyecto fue, en términos generales y gracias al plan de contingencias y a la organización diseñada por JEMA, muy fluido en su desarrollo, cumpliéndose las etapas de desarrollo del mismo razonablemente bien. Gestor del proyecto Cliente Sub 1 Sistemas de refrigeración Sub 2 Sistemas de control Sub 6 Transformadores de alta frecuencia Sub 3 Crowbar Sub 7 Sistemas de adquisición de medidas Dir. Industrial Dir. Gerente Sub 4 Inversores Sub 8 Step-down transformers Sub 5 Rectificadores Sub 9 Línea de transmisión Sub 10 Sistema de puesta a tierra Figura 12. Esquema de la organización del seguimiento del proyecto 67 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Los resultados obtenidos Tabla 1. Resumen comparativo de las características entre fuentes según el sistema de diseño El resultado general del proyecto ha sido considerado muy bueno, tanto por parte de JEMA como por parte del cliente. Sistema estático de JEMA Sistema convencional Mayor vida útil. Menor mantenimiento Con válvulas (tetrodos) Control En baja tensión. Fácil comprobación ajuste. Fácil limpieza. Menos instalaciones periféricas. Fácil mantenimiento. Sin residuos de limpieza Control en alta tensión Filtro DC Sin filtro DC en alta tensión. Con filtro en baja tensión. Menor energía almacenada. Mayor seguridad PINI. Seguridad intrínseca Con filtro DC en alta tensión Eficiencia Óptima eficiencia. Menores pérdidas e innecesarias instalaciones subsidiarias de enfriamiento. Consumo más bajo Baja eficiencia Seguridad Seguridad intrínseca. En la eventualidad de fallo no se producen sobrevoltajes de salida que pudieran dañar los PINIS. Diseño modular Seguridad condicionada por la operación de los dispositivos Se puede incrementar la tensión Rigidez. Sin posibilidad de crecimiento Todo el control en el lado de baja tensión Difícil de mantener, debido a que la regulación se localiza en el lado de alta tensión Vida útil Componentes de estado sólido. Sin desgastes Válvulas con vida útil limitada Disponibilidad Almacenaje sencillo de repuestos y plazos de entrega cortos. Rápido ajuste y reposición en el lado de baja tensión Necesidad de mantenimiento de un stock mayor y plazos de entrega dilatados Estado sólido En general Se alcanzaron todos los objetivos funcionales y operativos establecidos en las especificaciones del cliente. La apuesta tuvo el éxito que se esperaba y los retos fueron superados (véase la tabla 1). Se consiguieron la facturación y el margen industrial esperados. La actividad industrial de la empresa se mantuvo e incrementó con el proyecto, y con ello se alcanzaron los objetivos del plan estratégico y de los planes de gestión anuales. El impacto interno El proyecto de fuentes para el JET supuso un hito importante en lo que respecta a JEMA y a su personal empleado. Gracias a la buena comunicación interna y a la buena transmisión de lo que el proyecto significaba para la empresa y para su devenir futuro, se consiguió un fuerte grado de involucración: el proyecto era de todos. El nivel de ilusión fue muy alto. Los pequeños éxitos se compartían y se felicitaba al responsable. Los contratiempos se abordaban como de todos y se ponía el máximo esfuerzo en su resolución. Hubo momentos en los que faltaban horas, y se consiguió una atmósfera de trabajo en la que el horario se regía por las necesidades del proyecto a juicio de cada uno. El sentido de pertenencia a un equipo comprometido con un proyecto de gran reto era perceptible. El orgullo por el trabajo bien hecho, conseguido durante tres años de duro esfuerzo, fue también algo palpable en el conjunto del personal de JEMA. El proyecto contribuyó también a elevar de forma importante el nivel de conocimiento y de experiencia de todos los profesionales y del conjunto de la empresa. 68 Posibilidad de crecimiento Mantenimiento En resumen, el proyecto JET, con sus estrictas exigencias, fue una fuerza catalizadora de recursos, esfuerzos e ilusiones dentro de la organización de JEMA y demostró que, trabajando en equipo y compartiendo afanes, se consiguen mejores resultados y de forma más gratificante. Los sistemas de alimentación de energía del Joint European Torus (JET) El impacto externo La referencia del proyecto JET ha sido, posteriormente, un impulso comercial y de proyección pública muy destacable para JEMA. Tanto en los aspectos tecnológicos como de servicio, JEMA está hoy considerada entre las empresas líderes de su sector a nivel internacional. Su prestigio es indudable; es consultada en fases previas de ingeniería, y se cuenta con ella en las listas cortas de todos los proyectos del sector. El proyecto ha contribuido a posicionar a JEMA en el nivel de los proveedores de primer nivel de la industria de la ciencia en España y en Europa. El impacto sobre otras aplicaciones El trabajo de I+D realizado en este proyecto permitió avanzar en el desarrollo de un nuevo transformador de alta frecuencia, basado en tecnología aplicada y experimentada en el proyecto JET. El proyecto MAST fue una de las primeras aplicaciones que se beneficiaron de ello. Los algoritmos de control para la compensación del rizado, el control del decalaje de los inversores, y otros algoritmos, se están utilizando ya en distintas aplicaciones. En sistemas para aceleración de iones, inyección de átomos neutros, pasteurización, metalurgia, sistemas ferroviarios, hornos de inducción, etc., se mejoran las condiciones de adquisición de energía de la red utilizando los algoritmos desarrollados por JEMA. El potencial futuro de nuevos desarrollos Aplicaciones inmediatas de algunas de las tecnologías desarrolladas por JEMA en el proyecto de fuentes para el JET pueden verse en los SVC (Static Vortex Compensators) ferroviarios y en los hornos de inducción que, en general, son aplicaciones que desequilibran las redes eléctricas de las que se alimentan. Los SVC, que también desarrolla JEMA, se basan en el conocimiento asimilado durante el proyecto JET. También el hardware de control y la arquitectura de los mencionados SVC tienen su origen conceptual en los desarrollos de dicho proyecto. El impacto sobre la regulación, las normas y las especificaciones Es evidente y reconocido por todos los implicados que el proyecto JET elevó los niveles de exigencia interna de la empresa. A pesar de que JEMA era ya una empresa ampliamente homologada y certificada con las normas de la serie ISO 9000, las técnicas y procedimientos de control, seguimiento y trazabilidad que el proyecto precisó poner en marcha, facilitaron la consecución de la norma de gestión de la calidad ISO 9001:2008. Asimismo, JEMA precisó trabajar con algunas de las más exigentes normativas internacionales para equipos individuales (IEC) y de pruebas (BS), transporte, montaje e instalación. En particular, la estricta normativa aplicada en el Reino Unido para las instalaciones del tipo de las comprometidas en el proyecto JET supuso una fructífera experiencia en cuanto a la metodología ya que, aunque en los inicios resultó excesivamente burocrática, permitió la realización de trabajos singulares con gran seguridad y buena coordinación. En este caso, cada tarea a realizar, cada instalación de un equipo en Culham, requería disponer de un método propio documentado de cómo se iba a realizar dicha tarea. Cada proceso incluía también una evaluación de riesgos, un análisis del terreno y de las operaciones logísticas, etc. Todos los equipos, componentes, ensayos, datos de ubicación, etc., fueron codificados por JEMA a efectos de documentación, trazabilidad y seguimiento de sus garantías. Por otra parte, las especificaciones técnicas de las fuentes para el JET supusieron un avance sustancial sobre las habituales hasta entonces en los concursos internacionales. Se 69 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española exigía que la tensión soportada en diseño fuera el doble que la de trabajo, y esta fue la primera ocasión en que se especificó de esta manera. Actualmente este requerimiento se ha convertido en estándar. Otra novedad fue el establecimiento de tiempos de bajada de 7 μs en fuentes de varios MW, y lo mismo sucedió con una gran parte de las características que definieron las fuentes del JET y que han creado ya un nuevo estándar que se repite total o parcialmente en especificaciones para otros diseños posteriores. JEMA logró establecer un nuevo nivel tecnológico que se convirtió en el estándar del sector. Las fuentes para esas específicas aplicaciones de fusión ya nunca volvieron a ser como antes. Además existían previsiones que garantizaban derechos compartidos (entre Comisión y suministrador) e incluso el derecho exclusivo para el suministrador en función del grado de contribución de la Comisión al hecho patentable. En todo caso, la Comisión siempre se reservaba el derecho a una licencia de uso para el caso de otro posible contrato similar por parte de la misma. En resumen puede decirse que el proyecto tuvo un impacto beneficioso sobre la empresa, al elevar su ya alto grado de exigencia interna de calidad, trazabilidad y seguimiento; y que, desde una perspectiva del producto, supuso la creación de un nuevo nivel de fuentes de alimentación más precisas, más económicas y de menores dimensiones. Es decir, la regulación de los derechos fue precisa desde el mismo inicio del proyecto. Bajo ese contrato, los códigos fuentes, planos, circuitería, etc., se traspasaron íntegramente al cliente con el correspondiente acuerdo de confidencialidad, y JEMA conservó el derecho a utilizar en cualquier otra aplicación todos los desarrollos realizados en el proyecto. La propiedad industrial en el proyecto RESUMEN Y CONCLUSIONES Los derechos de propiedad intelectual relacionados con el proyecto estuvieron precisa y ampliamente recogidos en el contrato correspondiente entre la CE y la empresa, y responden a lo habitual en este tipo de contratos. En particular, los principales aspectos se regularon de la siguiente forma: El proyecto de los sistemas de alimentación de alta tensión, desarrollado por JEMA para el Laboratorio de Fusión Nuclear EFDA-JET en Culham (Oxfordshire, Reino Unido), es un caso que ilustra perfectamente el éxito de una pyme tecnológica española que participa, con esfuerzo singular, en uno de los mercados más exigentes, el de la industria de la ciencia4. Como factores claves del éxito alcanzado se pueden identificar los siguientes: La obtención de todos los derechos, licencias, permisos y autorizaciones por parte de terceros, necesarios para llevar a buen término el proyecto y la fabricación de las fuentes, eran responsabilidad de JEMA, quien debía mantener informada a la Comisión Europea sobre cualquier incidencia de este tipo que pudiera impedir la continuación de los trabajos. La Comisión, en beneficio de la Comunidad Europea de la Energía Atómica (EURATOM), tenía prioridad sobre las eventuales invenciones patentables producidas en la ejecución 70 del contrato, pudiendo la primera solicitar la patente correspondiente o transferir ese derecho a terceros. Existía la previsión de cesión de ese derecho al suministrador (JEMA), cubriendo este todos los gastos relacionados y cediendo derechos permanentes de licencia a la Comisión. • La cultura de innovación, característica de la empresa en todas sus actividades. Cultura que se percibe en el comportamiento diario de cada departamento y cada profesional, en la importante dedicación a la I+D, en la continua 4 Véase el capítulo “La industria de la ciencia: ayudando a explorar las fronteras de lo posible”. Los sistemas de alimentación de energía del Joint European Torus (JET) asimilación de nuevas tecnologías y componentes para su aplicación práctica. trabajar con equipos externos de distinta procedencia para la consecución del objetivo común. • El intenso estudio previo de alternativas y posibilidades para evaluar lo mejor posible los más probables puntos de incidencias y plantear posibles rutas de solución, sus costes y sus plazos, así como el planteamiento de un estudio logístico inicial y sus costes. • La gestión financiera, que permitió contar con los recursos internos y con los de apalancamiento exterior, gestionando bien los hitos y las certificaciones parciales, así como los compromisos con los proveedores. • La comunicación interna, cuyo reforzamiento consiguió que todos los empleados sintieran el proyecto como un reto personal y de conjunto, enfatizando el sentido de pertenencia a un equipo ganador y el orgullo de formar parte del mismo. • La comunicación externa con los equipos técnicos del cliente y con los proveedores y subcontratistas. En el primer caso, facilitó la construcción de un alto nivel de confianza, así como el intercambio de ideas y el conocimiento personal de los equipos. En el segundo caso, desarrolló una fluida cadena de suministros y aseguró la colaboración permanente de los proveedores financieros. • Las alianzas y colaboraciones con centros tecnológicos y con otras empresas tecnológicas, que permitió no solo complementar conocimientos específicos y enriquecer el proyecto, sino también aumentar la capacidad de trabajo en paralelo y de horas/hombre totales. • La metodología de gestión del proyecto, tanto en el proceso de desarrollo como en el control y seguimiento; y la preparación del Plan de Contingencias para identificar y prever las acciones posibles ante eventuales imponderables. Estas metodologías están basadas en herramientas estandarizadas y en reuniones periódicas cortas y precisas. • El equipo de profesionales bien formados en electrónica de potencia y en regulación y control, que constituye el mejor recurso de JEMA. Este equipo demostró durante el proyecto su capacidad tecnológica, su compromiso con los objetivos señalados y su capacidad de adaptación al • El gran esfuerzo dedicado a la logística, tanto en nuevas inversiones fijas y temporales, como en los aspectos de almacenes, aprovisionamiento, transporte, normativas, etc. • Y por último, aunque no por ello menos importante, el liderazgo ejercido como función, no solo de los máximos responsables de la empresa y del proyecto, sino también de todos y cada uno de los responsables de subgrupo y de tarea. Liderazgo al estilo JEMA, con grandes dosis de delegación y de corresponsabilidad, evitando las largas cadenas de mando autorizador, con un esquema matricial de funcionamiento en el que cada componente conocía la tarea de su lateral y ayudaba en ella si se le precisaba. La conjunción de estas claves, que no surgen por casualidad, sino que son el resultado de muchos años de trabajo en equipo, definieron el suficiente grado de seguridad propia como para permitir a JEMA tomar la decisión de enfrentarse en concurso público a empresas internacionales todas ellas líderes y de dimensiones varios órdenes de magnitud superiores a la empresa. Como en el caso de JEMA, cualquier pyme de carácter tecnológico puede aplicar la misma receta con los mismos o parecidos ingredientes. Aunque el éxito no puede garantizarse, porque las situaciones no controlables del entorno también juegan un cierto papel, sí se demuestra que las oportunidades están también al alcance de las pequeñas y medianas empresas españolas. Y esto es así, incluso en los mercados más complejos, alejados y exigentes, si se forma un equipo profesional bien motivado y se gestiona con efectividad, controlando los riesgos con las herramientas adecuadas. La industria de la ciencia: ayudando a explorar las fronteras de lo posible Francisco Javier Cáceres Núñez “Hay una fuerza motriz más poderosa que el vapor, la electricidad y la energía atómica: la voluntad.” (Albert Einstein) LOS ORÍGENES Desde los albores de la humanidad, la evolución del hombre y el creciente dominio de su entorno ha ido paralelo al desarrollo de los instrumentos que le han permitido interactuar con el medio, potenciar sus propias capacidades naturales y comparar los resultados. La famosa escena inicial de 2001: Una odisea del espacio (Stanley Kubrik, 1968) ilustra bien la importancia que para los primeros homínidos tuvo el manejo de un simple instrumento manual que potenciaba su fuerza y les daba una ventaja competitiva sobre la que sustentaron su evolución en un entorno de recursos escasos y fuerte competencia por los mismos. Desde entonces, el linaje humano, impulsado por su innata curiosidad y su afán de mejorar y de encontrar la verdad, ha dirigido su atención a lo desconocido, superando sus limitaciones físicas y las interpretaciones míticas iniciales. El cielo y sus estrellas, los océanos, el propio cuerpo, la energía, la tierra y sus componentes, los procesos de la vida, lo infinitamente grande y lo infinitamente pequeño, constituyen fronteras que el ser humano no deja de empujar, ampliando su caudal de conocimientos. El aprovechamiento práctico y la puesta en relación de esos conocimientos está en la base del continuo progreso de la humanidad. Es este un proceso evidente en lo que se conoce como periodo histórico de nuestra especie y que, en los últimos lustros, presenta una aceleración exponencial. Los instrumentos son la herramienta fundamental que permite a un ser que, físicamente, ha cambiado muy poco en los últimos miles de años, realizar hazañas como “ver” fauna de tamaño microscópico, volar como las aves, crear híbridos, predecir el tiempo, navegar en la oscuridad, explorar el espacio exterior, indagar en la relación materiaenergía, incrementar la esperanza de vida, comunicarse a 73 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española miles de kilómetros, sobrevivir en entornos hostiles, y un largo etcétera de conquistas que los elementos básicos de su equipamiento biológico natural no le permitían. Las pirámides asirias y mayas eran ya instrumentos que facilitaron el estudio del cielo y la predicción de eclipses. Todavía hoy asombra la exactitud de alguno de los relojes solares en piedra del Jantar Mantar en Jaipur, India (véase la figura 1) y de otros observatorios erigidos muchos siglos atrás por antiguas civilizaciones. El astrolabio, el compás y los primitivos telescopios artesanales son los instrumentos antecesores de los radares, el GPS y los grandes radiotelescopios actuales. Los cohetes, naves y satélites, que hoy día no representan noticia especial alguna, tienen sus inicios reales pocas décadas atrás; y los programas de terraformación de otros planetas son ya objeto de seria planificación por parte de la comunidad científica. Pero nada de esto hubiera sido posible sin los instrumentos que los científicos e investigadores necesitaban utilizar para compensar sus ya mencionadas limitaciones físicas. Inicialmente, los instrumentos eran fabricados por sus propios usuarios, en colaboración con un cercano círculo de asistentes artesanos (el taller), pero ya en el siglo XIX empezaron a aparecer fabricantes especializados de equipos e instrumentos para los investigadores y científicos. Fue el verdadero nacimiento de lo que hoy se entiende como industria de la ciencia (IdC). LA INDUSTRIA DE LA CIENCIA Considerada como sector de actividad, se entiende como industria de la ciencia al conjunto de empresas que conciben, diseñan, fabrican o dan servicio a los equipos, instrumentos, sistemas e instalaciones singulares de carácter científico necesarios para desarrollar las actividades investigadoras que permiten avanzar en el conocimiento general.1 La creciente complejidad de sus tareas, que exige la aplicación de tecnologías muy diversas, siempre en los límites de lo conocido y experimentado, y las especiales características de su mercado, hacen de esta industria un sector caracterizado por: • Un estado de permanente innovación. Cada proyecto de investigación es nuevo por definición y precisa, muy frecuentemente, de nuevos instrumentos más precisos y potentes o de instalaciones no disponibles hasta ese momento. 1 Figura 1. Reloj solar de piedra del complejo astronómico Jantar Mantar (Jaipur, India) 74 Esta definición no es una fórmula oficial y normalizada, pero responde a lo que comúnmente se entiende, en el sector afectado, como industria de la ciencia. La industria de la ciencia: ayudando a explorar las fronteras de lo posible • Una mayor asunción del riesgo, asociada a la propia novedad. • Largos plazos de desarrollo, lo que conlleva esquemas de financiación singulares. • Fabricaciones no seriadas, llegando incluso a ser singulares. • Necesidad de profesionales altamente cualificados y en continua formación. • Colaboración permanente con los centros de investigación y sus equipos de trabajo. Es evidente que la IdC es un sector de actividad cuyas características lo alejan de las actividades intensivas en capital, de carácter más especulativo, o de los modelos de negocio basados en expectativas de impactos positivos en la cuenta de resultados a corto plazo. La IdC requiere intensidad en conocimiento y visión de medio y largo plazo. Los proyectos llamados de “gran ciencia”, habitualmente ligados a grandes instalaciones, precisan de presupuestos y esfuerzos de tal magnitud que, necesariamente, deben ser abordados por alianzas internacionales con compromisos de los propios Estados y participación de científicos e industrias de muy diversos países. Ello hace que la industria de la ciencia sea, además, un sector globalizado en el que la internacionalización es una condición inherente. LOS MERCADOS La industria de la ciencia es un sector industrial “de nicho”, cuyos mercados están constituidos por los productos y servicios precisados por las infraestructuras, los organismos y los programas científicos, tanto de carácter nacional como internacional. Se trata, en muchos casos, de actividades poco conocidas para el gran público en su faceta industrial y por ello, y por la dificultad de encajarlas en las clasificaciones industriales al uso, no es frecuente que aparezcan singularizadas en estudios y estadísticas generales. Sin embargo, su dimensión es más que notable y creciente. Existen en Europa alrededor de 600 instalaciones científicas de dimensión media-grande, de las cuales más de 240 tuvieron un coste de construcción del orden de cientos de millones de euros. Estas instalaciones ya existentes precisan continuas mejoras y adaptaciones (upgrades) que les permitan desarrollar sus nuevos proyectos. Constituyen en sí mismas un mercado muy importante. Pero es que, además, y considerando solo Europa, está prevista la construcción de 44 nuevas Grandes Instalaciones Científicas (GIC) durante la próxima década, con un presupuesto inicial superior a los 18.000 millones de euros2, y que comportarán un coste operacional superior a los 2.200 millones de euros anuales. ESFRI y ERIDWatch valoran en no menos de 8.000-9.000 millones de euros anuales el potencial de oportunidades de compras de alta cualificación que ofrecerán las GIC, potencial que estará al alcance de las empresas europeas. Las mismas fuentes dicen también que esta cifra ha venido incrementándose en aproximadamente un 5,5% anual durante los últimos diez años. Teniendo pues en cuenta la suma de los presupuestos de desarrollo de nuevas GIC, y los presupuestos para adaptaciones y mejoras de las existentes, se puede estimar una cifra de mercado potencial, solo en Europa, de aproximadamente 30.000 millones de euros para la década, con un coste operacional anual de aproximadamente 3.600 millones de euros. Pero es que, además, existe un segmento de la IdC considerado aparte, el espacial, en el que la inversión anual de 2 ESFRI, Plan de Infraestructuras (Roadmap of Infrastructures). 75 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española la European Space Agency (ESA) asciende a más de 1.400 millones de euros, y en el que la participación de la industria como proveedora de vehículos y sus partes, instrumentos de a bordo, simuladores, sistemas de navegación e instalaciones, es muy importante. Todo lo anterior apunta claramente a la necesidad de disponer de un sistema científico-técnico fuerte, competitivo y bien estructurado. Los distintos informes de COTEC inciden año tras año, desde distintas perspectivas, en esta necesidad. La relevancia del mercado de la IdC queda subrayada por el hecho de que 33 países europeos disponen ya de su propio plan de desarrollo de GIC, o lo tienen en periodo de preparación. Estos planes nacionales sirven para su contrastación internacional, su posible fusión o acuerdo con terceros, o la consecución de compromisos de participación en organizaciones de carácter multinacional. Segmentación de los mercados de la IdC Es evidente que el volumen de la IdC, aun siendo importante, no es tan grande como el de ciertos sectores de gran consumo, como el del automóvil o el de los electrodomésticos, pero debe tenerse en cuenta que la IdC aporta, además de una actividad económica apreciable, otros valores muy importantes que tienen un enorme impacto en diversos sectores y en el entorno social. Habitualmente, la IdC se divide en varios grupos o segmentos, en función de ciertos denominadores comunes relacionados con el objetivo científico de las instalaciones y con las tecnologías aplicadas3. Estos son: • Fusión. • Ciencia de partículas. • Energía y TIC. • Espacio y aeronáutica. • Astrofísica. • Biología y ciencias de la vida. Recientes estudios destacan al menos cuatro factores adicionales de impacto de la IdC a tener en cuenta: • La creación y asimilación de tecnologías avanzadas que son utilizables en otros sectores, a los que dota de mayor competitividad. • La necesidad de muy alta formación del colectivo de profesionales afectado por los desarrollos de la IdC, lo que eleva de forma notable la formación científica y tecnológica de la sociedad en la que se ubica. 76 • Servicios de ingeniería e infraestructura para GIC. Actualmente, los mayores mercados se encuentran en fusión (proyecto ITER y relacionados), espacio y ciencia de partículas, aunque se aprecia un incremento anual notable en biologíaciencias de la vida y en astrofísica (GTC, E-ELT…). • El fortalecimiento de la imagen tecnológica del conjunto del país. Las empresas más activas en la IdC se sitúan en los países desarrollados que disponen de grandes instalaciones científicas. No es casualidad que Francia, Alemania, Suiza, Reino Unido y EEUU, países en los que se ubican la mayor parte de las GIC, concentren también la mayor parte de empresas de la IdC, tanto de primer nivel como en lo que respecta a • El incremento de las relaciones y alianzas con empresas e instituciones líderes de otros países, consiguiendo una importante fertilización cruzada de conocimientos. 3 En función de la perspectiva e interés, se barajan a veces distintos sistemas de agrupamiento. La clasificación que se indica aquí tiene una perspectiva de mercado. La industria de la ciencia: ayudando a explorar las fronteras de lo posible subcontratación. En España, el Gran Telescopio Canarias, el Tokamak TJ-II de Madrid (CIEMAT) y la Fuente de Neutrones por Espalación de Bilbao, son magníficos ejemplos de cómo una gran instalación impulsa el tejido industrial de la IdC de su país y le ayuda a posicionarse internacionalmente. Europa dispone de la mayor concentración de actividades de gran ciencia en física de partículas y en fusión. EEUU y Rusia aportan también muy valiosas experiencias de investigación, aunque con una IdC menos estructurada. La posición de España en la IdC Sin demérito de singularidades industriales y científicas que se venían produciendo con anterioridad, los orígenes de la IdC española como industria pueden establecerse en los años en que España comienza a participar en las infraestructuras científicas internacionales, principalmente europeas (CERN, 1961). Esas participaciones, en forma de contribución económica a un esfuerzo común, abrieron a los científicos españoles las puertas de los programas de trabajo de dichas organizaciones e instalaciones, y también supusieron la posibilidad de obtención de retornos de esa contribución en forma de contratos para la industria española. Asimismo, existía la posibilidad de que dicha contribución lo fuera en especie (equipos, servicios, etc.). Desde entonces, la industria de la ciencia española ha ido creciendo y especializándose en productos cada vez más tecnológicos y sofisticados, hasta alcanzar hoy una posición estimable en el conjunto de los países que disponen de una IdC que pueda caracterizarse como tal. En el mercado nacional, la IdC española actúa sobre los organismos y centros de investigación, sobre las unidades universitarias de investigación y sobre las oportunidades que presenta el Plan Nacional de ICTS (Infraestructuras Científicas y Tecnológicas Singulares). Asimismo, los programas científicos del Plan Nacional de I+D+i presentan también ciertas oportunidades de adquisición de equipos o instalaciones que la IdC debe proveer. En el mercado internacional, la IdC española participa en la mayor parte de los programas de adquisición de los organismos multinacionales, especialmente en aquellos en los que existe contribución española, pero también, y cada vez en mayor medida, en otros mercados y oportunidades abiertas, tanto en Europa como en otros países y áreas geográficas. La Administración Pública española ha realizado un notable y constante esfuerzo para incentivar el nivel de retornos de la IdC española y para conseguir que sea, al menos, comparable con el de los recursos que se aportan. Para ello el Centro para el Desarrollo Tecnológico Industrial (CDTI) informa y guía a las empresas españolas sobre las oportunidades en GIC, y dispone de un programa (APO) de ayuda a la presentación de ofertas de alta calidad a las Grandes Instalaciones Científicas internacionales por parte de la IdC española. Ese mismo organismo, adscrito al Ministerio de Ciencia e Innovación, participa como asesor en el Comité de Infraestructuras de Investigación, en el Comité Asesor EURATOM, en el área de fusión del Séptimo Programa Marco y en los comités financieros e industriales de las organizaciones en las que España participa, tales como CERN, ESRF, ESO, ITER, FAIR, X-FEL, etc. A pesar de ello, y de las oportunidades que los programas de centros de investigación nacionales como CIEMAT, INTA, etc. representan, la IdC española todavía no ha obtenido esa paridad entre aportaciones y retornos, por lo que queda una notable ventana de mercado potencial que interesa cubrir y superar cuanto antes. Conviene destacar que los grandes centros de investigación públicos, además de participar en los programas de desarrollo científico internacional, tienen un importante papel de facilitadores para las empresas de la IdC española. Empresas y centros públicos de investigación complementan sus respectivos programas de I+D mediante estrategias 77 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española propias. Las empresas de la IdC se orientan hacia el desarrollo tecnológico y la fabricación, mientras que en los centros públicos de investigación es mayor la incidencia en los aspectos básico-teóricos. España, con un desarrollo industrial que la sitúa en el quinto lugar europeo, con indudables avances en sus inversiones en I+D (aunque todavía quedan muchos objetivos por alcanzar) y con una comunidad científica que participa en los proyectos y programas internacionales más avanzados, aspira no solo a obtener retornos superiores a los actuales —que deberían estar en el entorno de los 3000 millones de euros (2010-2014)—, sino también a desarrollar más su mercado propio, disponiendo de más y más variadas GIC en el territorio. En los últimos años se va avanzando en el el objetivo de alcanzar esas aspiraciones, al menos parcialmente, ya que se empieza a disponer de GIC del más alto nivel: Gran Telescopio Canarias (La Palma); Stellarator TJ-II (Madrid); Sincrotrón de luz ALBA (Barcelona); Fuente de Neutrones por Espalación (Bilbao). España también ha optado a la instalación de algunas otras GIC internacionales que no se han conseguido por diversas razones, como el ITER (Cadarache, Francia), la Fuente Europea de Espalación (Lund, Suecia) o el E-ELT (Atacama, Chile). Pero esas candidaturas, y el trabajo desarrollado por la Administración Pública, la comunidad científica y las empresas potencialmente afectadas, han servido para posicionar mejor a la IdC española que se encuentra hoy, por capacidades y experiencia, en una situación mucho mejor que años atrás. Conviene también mencionar la creciente presencia española en el liderazgo de programas científicos internacionales en los que la IdC local ha tenido una brillante participación. Ejemplos típicos son los del sector espacial, en los que los consorcios españoles han liderado, con gran éxito, proyectos en el área de la observación satelital de la Tierra tales como SMOS, y se preparan otras misiones (INGENIO, PAZ...) que llevarán instrumentos y sistemas altamente especializados y de factura española (medidores de gases de efecto inverna78 dero, dosímetros y espectrómetros de protones, medidores de ángulo de incidencia de la radiación solar, etc.). La IdC local participa también con éxito en el difícil mercado de la instrumentación especial para reactores y aceleradores, como lo muestra la reciente presentación del primer detector español de neutrones por centelleo con tecnología propietaria (véase la figura 2). Fuente: foto cedida por Scientifica Internacional, S.L. Figura 2. Primer detector de neutrones por centelleo con tecnología propietaria. Desarrollo de Scientifica Internacional, S.L. La contribución española en forma de recursos económicos a las GIC internacionales representa aproximadamente una media del 8%4 de los presupuestos de dichas GIC, lo que nos sitúa también en un quinto lugar entre los países europeos, por contribución. Sin embargo, y como ya hemos comentado, los retornos de la IdC española están todavía muy lejos de esa misma proporción. 4 Varía entre el 1% y el 20%. La industria de la ciencia: ayudando a explorar las fronteras de lo posible EL FUTURO DE LA IDC La continuación de las inversiones en GIC no parece estar en cuestión. La futura competitividad de las naciones está basada en el conocimiento y en su aplicación eficiente. Es imposible imaginar una sociedad desarrollada y sostenible sin un nivel científico apreciable. Para desarrollar y mantener ese nivel, es necesario disponer no solo de los científicos adecuados, sino también del entorno industrial capaz de colaborar con ellos, diseñando, fabricando y manteniendo los equipos e instalaciones necesarios para que puedan desarrollar su labor. Por otra parte, los proyectos llamados de “Gran Ciencia” tienen plazos de desarrollo de muchos años, por lo que los presupuestos están comprometidos con mucha antelación, y ello supone un cierto amortiguamiento de las oscilaciones en la disposición de recursos financieros en los inevitables ciclos económicos. Además, en proyectos multinacionales, la renuncia a la participación, por razones presupuestarias propias, por parte de un país previamente comprometido supondría una mala nota por su repercusión en el resto de asociados al proyecto, con lo que esto conlleva de pérdida de reputación y fiabilidad para próximas oportunidades. Una eventual (y no esperable) disminución de inversiones de carácter general en GIC pondría en peligro o retrasaría la consecución de avances, lo que afectaría negativamente a la solución de algunos de los problemas más acuciantes de la humanidad (el cambio climático, la escasez energética, las enfermedades congénitas y endémicas, la alimentación, la conquista del espacio, etc.). Por todo ello, y a pesar de las adversas circunstancias económicas generales que periódicamente pueden experimentarse, las actividades científicas y, como consecuencia, los presupuestos dedicados a las inversiones en GIC, no deben sufrir disminuciones importantes. En su Séptimo Programa Marco (7PM), la Comisión Europea aspira a invertir 3.961 millones de euros en infraestructuras de investigación durante los años 2007 a 2013. En las dos ediciones anteriores, las asignaciones para grandes instalaciones científicas fueron de 540 millones de euros en el 5PM, y de 900 millones en el 6PM. En España, la Estrategia Estatal de Innovación, presentada por el Ministerio de Ciencia e Innovación al Congreso de los Diputados el 1 de octubre de 2009, señala acertadamente a la industria de la ciencia, junto con la modernización de la Administración, la economía verde, y la economía de la salud y asistencial, como los mercados innovadores que propiciarán el cambio de modelo productivo; y prevé una actuación sobre la economía de 100.000 millones de euros para los cuatro sectores. El Plan de Trabajo 2010 del Programa Nacional de Infraestructuras Científico-Tecnológicas destina también un importante presupuesto, cofinanciado con el FEDER (Fondo Europeo de Ayuda al Desarrollo), a: “Contribuir al desarrollo regional a través de la puesta a disposición de la comunidad científica y tecnológica de este país, del equipamiento científico-tecnológico necesario para el desarrollo de sus actividades de investigación”. Y no debe olvidarse que otros grandes mercados geográficos para la IdC están también muy activos y en otra situación de ciclo económico. El mayor de estos mercados es el de Estados Unidos, con un volumen total de potencial de compra similar al del conjunto europeo y con alto grado de accesibilidad, seguido por los de Japón, Rusia, Corea, China, Brasil, India, etc., algunos emergentes y más cerrados, pero en los que una buena política de colaboración con la IdC local en un escenario de alcance global puede ser muy interesante para la IdC española. Algunos de esos países emergentes, potencias industriales también, son a la vez mercado y origen de competencia. Por ello la mencionada política de alianzas en beneficio común es, si cabe, más conveniente. 79 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española No es exagerado por tanto decir que la IdC representa para España una clara oportunidad de crecimiento industrial y de avance en el conocimiento para los años venideros. Una oportunidad que, además, tendrá una importante proyección sobre actividades laterales también de alto valor añadido (energías renovables, medio ambiente, salud, transporte, etc.) y que aumentará el impacto positivo que, ya hoy, tiene sobre la imagen del país como desarrollador y proveedor tecnológico (véase la figura 3). LAS EMPRESAS DE LA IDC ESPAÑOLA Las empresas que componen la IdC española suponen una rica representación del sector industrial español más avanzado. Junto a grandes grupos tecnológicos industriales (Indra, Empresarios Agrupados, Iberdrola, Idom, Sener...), capaces de acometer y liderar diseños integrales de grandes sistemas, satélites o instalaciones, se puede encontrar también empresas altamente especializadas y líderes en nichos de mercado específicos (JEMA, Telstar, Cadinox, AVS, Mier, T. Leorpe, Antecsa, Duro Felguera, Asturfeito, DMP, Elytt Energy, Fagor Automation, etc.), así como otras pequeñas empresas de alto contenido tecnológico (Cryobest, Scientifica, Swisslan, Fractal, Serkide, Burdinola...). Merece la pena mencionar que, aunque los nombres de algunas de las empresas mencionadas no lo sugieran, la IdC española está compuesta en su práctica totalidad por empresas de origen y capital español. Responden al espíritu empresarial inicial o a los esfuerzos diversificadores de científicos, tecnólogos y emprendedores locales con visión global. En conjunto, la IdC española está compuesta por varios centenares de empresas con capacidades y experiencia probada, que acceden con periodicidad desigual a los concursos internacionales para el desarrollo y fabricación de instrumentos, equipos y sistemas para GIC. Fuente: foto cedida por IDOM. Figura 3. Diseño de ingeniería para el E-ELT realizado por IDOM, S.A. En esta apasionante tarea es clave la alianza y el trabajo conjunto entre Administración Pública, centros y grupos de investigación, y la industria de la ciencia. 80 Un reciente estudio realizado a solicitud de la Agencia Vasca de Innovación Gipuzkoa Berritzen-Innobasque, establece tres niveles de pertenencia a la IdC en función del posicionamiento y la actividad desarrollada: • Empresas tractoras. Con participaciones habituales en los procesos de diseño y adquisición. Están consideradas en las listas cortas de los organismos multinacionales por estar ampliamente homologadas y reconocidas. Disponen de relaciones de trabajo bien establecidas. La IdC representa una parte sustancial de su actividad, y actúan como motor de su entorno al liderar proyectos o programas complejos. La industria de la ciencia: ayudando a explorar las fronteras de lo posible • Empresas especializadas. Con participación ocasional y que disponen de conocimientos, tecnologías y procedimientos que les permiten acceder con éxito al mercado de las GIC, lo que hacen de forma esporádica. Pueden ser proveedores directos o indirectos. Las relaciones con las GIC no son tan estrechas como en el caso de las tractoras. Su conocimiento de los procesos de compra es justamente el necesario para cada operación. • Empresas con capacidades próximas. Tienen potencialidad y deseos de formar parte de la IdC, pero solo lo hacen muy esporádicamente y de la mano de terceros. Es un amplio grupo de empresas que, habitualmente, están activas en otros sectores y contemplan la IdC como una oportunidad de diversificación con alto valor añadido. La IdC española dispone de empresas en los tres niveles mencionados, aunque no en todas las especialidades de todo tipo de proyectos. Así, se puede mencionar a Iberdrola como tractora con proyectos de integración e ingeniería para el ITER y para el CERN; a IDOM, con proyectos también de ingeniería integral para las estaciones astronómicas terrestres (grandes telescopios); SENER, en proyectos relacionados con el espacio; INDRA… Entre las empresas especializadas se encuentra también un interesante grupo que, partiendo de su área de conocimiento específico (la mecanización de alta precisión, la calderería para alto vacío, la radiofrecuencia, la automática y la sensórica, la electrónica de potencia...) son capaces de ofrecer soluciones más complejas añadiendo otros elementos del proyecto, bien por desarrollo propio o, muy frecuentemente, a través de subcontratación cercana. Entre este grupo de empresas se puede citar a JEMA, Asturfeito, A-V-S, Telstar, Elyyt Energy, Fagor Automation, Scientifica… Por último, el grupo de empresas con capacidades próximas es muy amplio, y abarca prácticamente a todas las empresas industriales de primer nivel tecnológico de muy diferentes sectores, desde la informática de aplicativos (simulación, sistemas inteligentes, SCADA avanzados...) a las grandes estructuras que alojan los muy especiales instrumentos de observación o ensayo. Este amplio grupo está actualmente compuesto por unos pocos cientos de empresas de muy distinto tamaño, pero cuyo número no deja de crecer y constituye, además, el vivero de las futuras empresas especializadas y tractoras. Entre las principales áreas tecnológicas en las que las empresas españolas sobresalen con especialistas de primer nivel se encuentran la robótica y los sistemas automáticos de control; la fabricación mecánica ultraprecisa; los equipos de radiofrecuencia; el vacío y la criogenia; el electromagnetismo; los nuevos materiales; la instrumentación, sensores y detectores; las fuentes especiales de energía; y los sistemas avanzados de diagnóstico, simulación y proceso de datos. En cuanto a la distribución geográfica de las empresas de la IdC, y a pesar de que, como es natural, las habituales concentraciones del mapa industrial español también se reproducen en este caso, conviene señalar que existen capacidades y empresas de IdC repartidas por todo el territorio. Así, junto al País Vasco, Madrid, Cataluña y Asturias como principales núcleos de concentración de IdC, hay también empresas con actividad en este sector en la Comunidad Valenciana, Canarias, Aragón, Andalucía, Castilla-León, etc. IMPACTO DE LAS GIC Y DE LA IDC EN LA SOCIEDAD Es interesante observar el impacto que una GIC tiene en su entorno y en la creación de empresas de IdC próximas. Normalmente la existencia de IdC previa en las cercanías, tiene un valor estimable a la hora de seleccionar la ubicación de una nueva GIC; pero está también muy comprobado que, una vez instalada la gran instalación científica, esta produce un efecto semilla de nuevas actividades o de refuerzo y empuje a las ya existentes. Esto, a medio plazo, tiene un enorme potencial transformador en el entorno industrial y, como 5 El caso internacional más estudiado es el del impacto del CERN (Conseil Européen pour la Recherche Nucléaire), creado en 1954, sobre el entorno industrial y social francosuizo. 81 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española consecuencia, en el social. Es una razón más para dedicar esfuerzos a la consecución de más GIC en el territorio nacional. Ya se ha comentado la importancia que para la IdC tienen las alianzas y las colaboraciones. En muchos casos la actividad industrial viene como consecuencia de participaciones científicas en la concepción o en proyectos teóricos de los llamados de “aguas arriba”. Por ello, la IdC española debe mucho a los organismos públicos de investigación y a los centros tecnológicos y de excelencia (CSIC, IEO, ISCIII, CIEMAT, TECNALIA, INTA, IAC, CTA, IK4...) que en muchas ocasiones sirven de tractores de las empresas de la IdC, abriéndoles el camino a proyectos propios y a los internacionales, y posibilitando su entrada en procesos de homologación y participación en los que, posteriormente, ya quedan instaladas para ocasiones futuras. Este proceso ha tenido una notable importancia en la creación y el impulso de la IdC española, que —de otra manera— hubiera tenido que recorrer un difícil camino en solitario, en todo caso mucho más lento. Un papel semejante es el que cumplen los departamentos universitarios de algunas de las más prestigiosas universidades españolas, como la UPC, la UPV-EHU, la UNICAN, la UAB, la UPM, etc. Pero, finalmente, la IdC está constituida por empresas que, de forma sostenible y económicamente eficiente, forman un tejido industrial con una extendida cadena de valor (desde el concepto hasta el servicio), que acompañan el esfuerzo por el conocimiento que realizan los grupos de científicos y el conjunto del país. La IdC aporta una importante actividad económica, desarrolla y asimila las tecnologías más avanzadas y, a través de su actividad empresarial total, transfiere esos conocimientos al resto de la sociedad, incrementando así la competitividad de esta. Una de las empresas más destacadas en la IdC española, por su experiencia en algunos de los proyectos nacionales e internacionales de grandes infraestructuras científicas de 82 mayor entidad, y por el liderazgo que ha conseguido en su nicho de mercado en la IdC, es la empresa JEMA (Jesús María Aguirre, S. A.), cuya experiencia en el desarrollo de la fuente de calentamiento del plasma para el reactor de fusión JET, en Reino Unido, se ha utilizado como ejemplo de un proceso exitoso de una pyme tecnológica española en un mercado de altísimas exigencias y en competencia con empresas internacionales de mayor dimensión. Ese proceso llevó a JEMA, desde una posición inicial de empresa con capacidades tecnológicas en su sector pero sin experiencia en el mundo de las GIC, a ser considerada hoy como una empresa altamente especializada y líder en el sector de equipos para suministro de energía a las mencionadas grandes instalaciones. Ese posicionamiento conllevó también una interesante capacidad de subcontratación que repercute muy positivamente en su entorno y en el resto de la IdC española. Todo ello la convierte en un referente y un estímulo para otras muchas empresas que tienen altas capacidades potenciales, pero no han dado aún un salto cualitativo como el que en su día dio JEMA. Referencias bibliográficas • A Guide to the Project Management Body of Knowledge (PMBOK Guide) Project Management Institute. 14 Campus Boulevard Newtown Square, PA 19073-3299 USA. 4th. Edition. 2008. • Alonso del Val, Andoni; Prudencio Rey, Javier; González Zorrilla, Raúl. Maestros de Empresa. Instituto de Marketing del País Vasco. Derio, Vizcaya, 1997. • Emparantza, R. et al. ITUR: a facility for testing and Optimizing Ion Sources. • ERID WATCH. European Research Infrastructure Development Watch. http://www.eridwatch.eu/ La industria de la ciencia: ayudando a explorar las fronteras de lo posible • ESFRI Annual implementation report 2009. European Strategy Forum on Research Infrastructures. http://ec.europa.eu/research/infrastructures/pdf/esfri • ESFRI Annual report 2009. European Strategy Forum on Research Infrastructures. http://ec.europa.eu/research/infrastructures/pdf/esfri • ESS Bilbao Initiative workshop. Multi-MW Spallation Neutron Sources: Current Challenges and future Prospects. • Estrategia Estatal de Innovación E2I. Ministerio de Ciencia e Innovación. España. http://www.micinn.es • Ganuza, D. et al. The Design and manufacture of the Enhanced Radial Field Amplifier (ERFA) for the JET Project. 25th. Symposium on Fusion Technology. Rostock, 2008. • Grandes Instalaciones Científicas (GICs). Oportunidad y Reto para la industria guipuzcoana. Novomerco Consulting, S.L. para Gipuzkoa Berritzen-Innobasque. 2009. Estudio evaluatorio. • La Compra pública de Tecnología Innovadora en TIC. Libro Blanco. Fundación COTEC para la Innovación Tecnológica. Madrid, 2008. Informes sobre el sistema español de innovación. • Report on Roadmapping of Large Research Infrastructures. OECD Global Science Forum. Diciembre 2008. • The Industry of Science (La Industria Española de la Ciencia) S1-S8. Technology Review (MIT). December 2010. www.technologyreview.com • Zabala Goñi, J.J. Talento, Tecnología y Tiempo. Los pilares de un progreso consciente para elegir un futuro. Ed. Diaz de Santos. Madrid, 2008. El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid La evolución en el sector ferroviario metropolitano FERNANDO GÓMEZ SÁNCHEZ (Madrid, 1952) Responsable de la Oficina de Calidad e ITIL Metro de Madrid Titulado universitario especialidad química. Inició su carrera en CIRSA como Jefe del laboratorio del control de calidad. Más tarde fue profesor del Ministerio de Educación y Ciencia (actualmente en excedencia). En 1977 se incorporó a Metro de Madrid donde ha desempeñado los puestos de Responsable del Laboratorio de Calidad, Adjunto al Responsable de la Unidad de Logística, Jefe del Área de Organización, Gerente de los Sistemas de Información; Responsable del proyecto Efecto 2000, Responsable de la Unidad de Tecnologías de la Información y Responsable de la Oficina de Calidad e ITIL, cargo que ostenta en la actualidad. También ha sido profesor de organización industrial y control de calidad en la Escuela de Mandos Intermedios y miembro de la Junta Directiva de AUSAPE. El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid Fernando Gómez Sánchez ANTECEDENTES Metro de Madrid se inauguró el 17 de octubre de 1919, con una concesión de explotación para una red subterránea de 14 km en cuatro tramos. El objeto de su creación fue poner en funcionamiento una vía de comunicación rápida entre diferentes puntos de Madrid, fundamentalmente entre barrios populosos y las estaciones de ferrocarril existentes en la ciudad (véase la figura 1). Figura 1. Inauguración Dada la situación internacional, con Europa inmersa en la Primera Guerra Mundial, la ejecución de la obra (véase la figura 2) resultó muy complicada, debido a la escasez de materiales y de tecnología accesible. Por ejemplo, en el ámbito del material móvil no existía ninguna firma, nacional ni extranjera, que pudiese suministrar los motores de tracción, por lo cual hubo que adquirir motores de segunda mano del Metro de Paris. Similar problemática se planteaba con diversas necesidades tecnológicas del momento: aparatos de manejo y control eléctrico, los bogies, etc. Figura 2. Obras en la estación de la Línea 1 87 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española La imposibilidad de abastecerse de la tecnología necesaria en el mercado nacional ha permanecido, en mayor o menor medida, durante gran parte de la vida de Metro. No obstante, desde sus inicios Metro ha tratado de abastecerse de material nacional, siempre que eso fuese posible: así se puede reseñar como ejemplo que, en 1932, ya se diversifica la adquisición de motores para el nuevo material móvil entre la industria nacional y el mercado internacional. Durante el periodo de la Guerra Civil y la posguerra, la escasez de materiales obligó a utilizar diversos elementos heterogéneos para fines diversos, como el uso anecdótico de chapa de bidones para la reforma del material móvil, alargándolo y logrando un incremento de su capacidad de hasta un 25%. Más adelante, desde 1945, se adoptó como política la sustitución de los elementos de patentes extranjeras, reajustados a las posibilidades existentes en la fabricación nacional, con un esfuerzo de adaptación considerable por parte de los técnicos de la compañía.1 Más cercana en el tiempo es la utilización, desde mediados de la década de 1990, de tuneladoras de frente cerrado, en aquella época las más potentes del mundo (9,4 m de diámetro), lo que las convirtió en protagonistas fundamentales de los sucesivos planes de ampliación. Este hecho marcó un hito a nivel mundial, por la velocidad de su construcción (no solo perforaban, sino que también colocaban las correspondientes dovelas, dejando el túnel ya terminado) y los bajos costes obtenidos, frente a los demás modelos constructivos tradicionales. En el informe anual de 1999 del Banco Mundial se mencionaban, como logro, los bajos niveles de coste obtenidos en Metro de Madrid, frente a los que se consideraban entonces como posibles en el resto del mundo. 1 Algunas informaciones de los antecedentes, se han tomado de la publicación: Metro de Madrid 1919-2009 Noventa años de historia. Las labores de investigación, redacción y coordinación fueron realizadas por Aurora Moya Rodríguez. Publicación editada por Metro de Madrid, S.A. 88 Y más recientemente aún, han sido múltiples los frentes abiertos en materia de investigación e innovación: • Los trenes de las series 7000 y 8000, diseñados en parte por Metro, incorporan soluciones novedosas en cajas y bastidores, bogies, motores y elementos diversos de seguridad. • La investigación y desarrollo de un gestor de emergencias, que permite la simulación para evacuación de túneles y estaciones. • El diseño e implantación de un nuevo sistema de extinción y telegestión de incendios. • El diseño de un coche de metro realizado en materiales ligeros, para reducir el consumo eléctrico. • La colaboración con otras empresas y universidades en el proyecto TEBATREN 3, para realizar las comunicaciones tren-tierra-tren por radio (Wi-Fi). • El proyecto y construcción de un tren auscultador, un método innovador para la revisión de las líneas aéreas y terrestres. Proyectado íntegramente por ingenieros de Metro, permite obtener información sobre las averías de forma rápida (15 minutos, frente a toda una noche de trabajo). • La implantación de un nuevo sistema de monitorización de instalaciones y telecomunicaciones (COMMIT), que permite la información y la resolución de averías en las instalaciones de forma remota. • El desarrollo de un sistema de intercambio energético basado en la geotermia (estación de Pacífico), que permite ahorrar un 75% de energía y reducir un 50% las emisiones de CO22, etc. 2 Premio a la Mejor Instalación Geotérmica de la Comunidad de Madrid. El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid Estos son solo algunos ejemplos, que permiten conocer cómo Metro, a lo largo de toda su existencia y debido a las diferentes circunstancias de cada momento, ha estado en continuos procesos de investigación e innovación propios, o bien ha tratado de mejorar las características iniciales de los elementos adquiridos por medio de la inclusión de mejoras y reformas, ideadas y desarrolladas por sus ingenieros. Estas iniciativas de investigación e innovación han permanecido vigentes hasta nuestro días, donde si cabe, han adquirido mayor vigor todavía. A título de ejemplo, se puede indicar que, en el año 2008, el número de proyectos de I+D+i ascendía a 43; algunos de ellos a destacar son: ECOTrans (transporte ecológico), SEDUCE (prevención de ataques terroristas), Depresys (sistema para determinar el riesgo de descarrilamiento de trenes), Modurban (Modular Urban Guided Rail System), etc. Una parte importante de estos proyectos es realizada por medio de colaboraciones con distintas empresas, organismos públicos y universidades. rígida estándar para todos los tramos nuevos en túnel (véase la figura 4). El resultado fue tan positivo que, en la siguiente ampliación de la red, de 1999 a 2003, se consolidó esa opción tecnológica y se inauguraron más de 70 km electrificados con catenaria rígida, incluido el Metrosur. A partir de entonces, y aprovechando el conocimiento adquirido en los dos planes de ampliación citados, Metro de Madrid diseña, prueba, patenta, fabrica Figura 4. Ejemplo de instalación y comercializa con éxito su de otro tipo de catenaria rígida propio perfil de catenaria rígida, denominado PAC MM-04 (véase la figura 5). Actualmente hay más de 200 km de vía sencilla de catenaria rígida instalada en la red de Metro de Madrid; de ellos, más 100 con el perfil PAC MM-04. SISTEMA DE ELECTRIFICACIÓN Hasta el año 1996, los sistemas de electrificación existentes en la red de Metro de Madrid eran, hilo tranviario en las líneas más antiguas, de gálibo estrecho (véase la figura 3), y catenaria convencional, a partir de la construcción del tramo Cuatro Caminos-Pacífico de la Línea 6, en el año 1979. En el Plan de Ampliación 1996-1999, se apostó por la catenaria Figura 5. Ejemplo de instalación de catenaria rígida tipo PAC MM-04 Figura 3. Instalación de hilo tranviario en líneas antiguas de Metro de Madrid El sistema de captación de corriente por catenaria rígida, también conocido como tercer carril aéreo, tiene como principales 89 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española ventajas su sencillez, robustez y facilidad de mantenimiento. Además, presenta una ventaja adicional respecto a la catenaria convencional: su baja exigencia en cuanto a la altura requerida para su montaje, lo que lo hace especialmente apropiado para su utilización en túneles. Esta característica ha favorecido su aplicación en metropolitanos, túneles y soterramientos ferroviarios. Los primeros carriles aéreos se fabricaron con acero y eran tan pesados que su instalación resultaba difícil. Además, presentaban problemas de corrosión perjudiciales para el transporte y la captación de corriente. Surgieron entonces dos alternativas: • Usar una sección reducida de acero recubierta por bandas de cobre (el acero aportaba la rigidez estructural y el cobre mejoraba la captación). • Fabricar un carril autoportante en cobre. En el año 1961, el Metro de Tokio adoptó una nueva solución, basándose en el aluminio. Este material es mucho más ligero y económico que el cobre, y tiene una excelente capacidad conductora, superior a la del acero. Con objeto de reducir la elevada fricción del aluminio con el cobre del pantógrafo, colocaron con una grifa de tornillo uno o dos hilos de contacto. En el año 1972 la empresa francesa Delachaux depositó la primera patente de catenaria rígida constituida por un carril de aluminio al cual se fijaba un hilo de cobre mediante sujeción elástica ejercida por el propio carril, según se puede observar en la figura 6. Figura 6. Perfil Delachaux 90 A partir de 1984, la empresa suiza Furrer+Frey adoptó este Figura 7. Instalación de catenaria rígida con perfil tipo Furrer+Frey en Metro de Madrid sistema (véase la figura 7) y alcanzó el éxito instalándolo en líneas a 15 kV en corriente alterna. Suministrado por varios proveedores, este diseño es básicamente el que se instaló en Metro de Madrid desde 1996 a 2003 en más de 80 km de vía sencilla. Entre las ventajas de un sistema de catenaria rígida con perfil portante de aluminio frente a otras electrificaciones destacan las siguientes: • Facilidad de montaje: en una instalación de catenaria rígida ningún elemento tiene tensión mecánica, ya que el hilo de contacto se inserta en el carril sin someterlo a tracción. Por este motivo es más fácil la instalación y el ajuste de geometría del sistema. Además, por esta misma causa, los componentes mecánicos están sometidos a menores solicitaciones. Hay que destacar también que, al no llevar cables de acompañamiento para aumentar la sección conductora, se utilizan muchas menos piezas y menos elementos. Comparando el montaje de este sistema frente a uno de catenaria flexible, se constata que se requieren medios auxiliares más simples y que los plazos de ejecución de las obras se reducen significativamente. El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid • Aumento del periodo de sustitución por desgaste, ya que al no estar el hilo de contacto traccionado, no existe una sección mínima por resistencia. Además, la consecuencia de rebasar el desgaste máximo en una catenaria flexible es una rotura de hilo con una afección a un cantón completo (hasta un kilómetro), y en una catenaria rígida la peor alternativa es que el pantógrafo frote con el aluminio y tenga que sustituirse la barra completa, pero no se suspende el servicio. • Disminución de las exigencias de altura libre en el túnel: esta característica resulta fundamental a la hora de abordar las grandes renovaciones en líneas antiguas con hilo tranviario donde, por falta de altura, no es posible implantar sistemas que mejoren las prestaciones, como hilo tranviario compensado o catenaria convencional. • Gran sección equivalente de cobre: a tener en cuenta especialmente en el caso del transporte metropolitano, donde hay niveles de tensión de 600, 750 y 1.500 V en corriente continua. La caída de tensión y las intensidades que circulan hacen necesario, en sistemas de catenaria flexible, tender cables adicionales simplemente para aumentar la sección de transporte de la energía eléctrica al punto de captación. La sección equivalente en cobre del perfil de catenaria rígida tipo Furrer+Frey con un hilo de contacto de 150 mm2 es equivalente a la de una catenaria convencional con tres feeders de acompañamiento de aluminio de 645 mm2, y superior a cualquier configuración habitual de hilo tranviario. • Alta fiabilidad: por la simplicidad del montaje y de las piezas que componen el sistema, por las bajas solicitaciones mecánicas a las que se someten y por la práctica inexistencia de modos de fallo que supongan suspensiones de servicio, la catenaria rígida aporta una alta fiabilidad a las explotaciones metropolitanas. Tabla 1. Comparación de costes 2007 2008 2009 Media no conformidades/ pantóg. al año 323.231 115 141 143 411×10—6 Línea 9: catenaria convencional 206.135 85 75 10 275×10—6 Línea 8: catenaria rígida 88.565 5 4 11 75×10—6 Línea y tipo de catenaria Pantóg. por año Línea 1: principalmente hilo tranviario No conformidades Los datos no recogen un factor fundamental para la instalación, como es el tiempo que lleva prestando servicio. Sin embargo, la diferencia de intervenciones deja patente que el coste del mantenimiento de un sistema de catenaria rígida es mucho más reducido que el de un sistema de catenaria flexible. Los dos inconvenientes más importantes son: • Bajas velocidades de circulación: este punto se refiere sobre todo a una instalación estándar con apoyos cada 10 o 12 m. A lo largo de este documento se describe cómo la velocidad de circulación admisible está íntimamente relacionada con la distancia entre apoyos. • Pequeña distancia entre soportes, lo que dificulta su instalación al aire libre, ya que serían necesarios muchos postes, sobre todo frente a la catenaria convencional (12 m de vano máximo en catenaria rígida frente a más de 50 m en catenaria convencional). Además, la sección transversal frente al aire que presenta un perfil de catenaria rígida es más elevada, y podrían producirse efectos no deseados en la captación de corriente ante vientos racheados, no necesariamente de mucha velocidad. • Bajo coste de mantenimiento: en la tabla 1 se muestran datos de Metro de Madrid que sustentan esto: 91 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española PROYECTO DE DISEÑO DEL NUEVO SISTEMA PANTÓGRAFO-CATENARIA RÍGIDA Datos de partida Dentro del plan de ampliación 1999-2003 se construyó la Línea 8, que une la estación de Nuevos Ministerios con el aeropuerto de Barajas (véase la figura 8). La velocidad máxima prevista de circulación era de 110 km/h, la más alta hasta entonces en la red de Metro de Madrid, así que se decidió profundizar en el estudio del sistema de catenaria rígida, para averiguar si la captación de corriente en esas condiciones tenía una calidad adecuada. En colaboración con el CITEF (Centro de Investigación en Tecnologías Ferroviarias, de la Fundación para el Fomento de la Innovación Industrial de la Universidad Politécnica de Madrid), se elaboró un estudio para determinar el comportamiento dinámico del conjunto catenaria rígida-pantógrafo, y se establecieron los parámetros de instalación para la Línea 8. Se redujo la distancia entre soportes consecutivos. El conocimiento adquirido a través de dicho trabajo permitió identificar varias líneas de mejora en el diseño del perfil de catenaria rígida que se estaba instalando y optimizar así el comportamiento dinámico del conjunto catenaria-pantógrafo. Premisas de partida La metodología se puede resumir en los siguientes puntos básicos, según se puede ver en la figura 9: • Desarrollo de diversos modelos de simulación de la catenaria rígida mediante los programas de simulación ANSYS y SIMPACK. • Desarrollo de un modelo de pantógrafo con el programa SIMPACK, seguido de la validación y ajuste del mismo. • Desarrollo de un modelo conjunto catenaria-pantógrafo. • Análisis de la influencia de los distintos parámetros que caracterizan el sistema, fundamentalmente orientado hacia la mejora del comportamiento dinámico global. Figura 8. Estación de Nuevos Ministerios en la Línea 8 92 Para determinar el aspecto más importante a considerar, se debe responder a preguntas como: ¿cuáles son los factores que deberían considerarse?, ¿cómo se mide la calidad de una catenaria?, ¿cómo se puede determinar su aptitud para unas El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid pérdidas de contacto, y las fuerzas de contacto demasiadas altas, que provocan un aumento de la abrasión pantógrafohilo. Una componente dinámica alta puede originarse al paso de los pantógrafos situados al final de una composición dotada de varios, excitando al sistema con oscilaciones intensas. Debido a los grandes esfuerzos que provocan estas fuerzas alternantes, pueden producirse daños por fatiga especialmente en los componentes de los soportes. La normativa sobre la calidad de captación de corriente es: Figura 9. Diagrama de flujo del estudio condiciones determinadas de explotación? El parámetro más importante para poner nota al sistema es la fuerza de contacto. La calidad del proceso de captación de corriente puede estimarse atendiendo al valor estadístico correspondiente a ciertos parámetros inherentes a la interacción entre los sistemas de pantógrafo y catenaria. Son los siguientes: • La fuerza de contacto entre el pantógrafo y la catenaria. • La posible aparición de despegues entre ambos elementos. • La presencia de desgastes. Lo más importante respecto a la fuerza de contacto, por encima de su valor, es su evolución temporal. Está constituida esencialmente por una componente estática, suministrada por un actuador mecánico o neumático; y otra dinámica, que depende de la velocidad de la marcha y del comportamiento vibratorio de la catenaria y del pantógrafo. Las pérdidas de contacto se originan cuando la fuerza de contacto es demasiado baja y provocan una mala transmisión de la corriente eléctrica. Los desgastes en el hilo de cobre están relacionados con dos aspectos fundamentales: los arcos eléctricos producidos por • UNE-EN 50318:2003 Aplicaciones ferroviarias. Sistemas de captación de corriente. Validación de la simulación de la interacción dinámica entre el pantógrafo y las líneas aéreas de contacto: en este documento se sintetizan los parámetros de entrada y salida para poder validar aquellos métodos de simulación que traten con la interacción pantógrafo-catenaria. Presenta un caso tipo con catenaria convencional, proporcionando los datos necesarios para definir el modelo matemático de ambos sistemas, e indicando un rango de valores entre los que deben encontrarse los resultados. La norma servía para validar el simulador. No era de aplicación directa en este caso, pero proporcionaba un valor importante: la rigidez del muelle de contacto que se debería utilizar en modelos matemáticos de la interacción entre pantógrafo y catenaria convencional. Este valor, kc = 50.000 N/m, se adoptó para el estudio de interacción catenaria rígida-pantógrafo. • UNE-EN 50367:2006 Aplicaciones ferroviarias. Sistemas de toma de corriente. Criterios técnicos para la interacción entre el pantógrafo y la línea aérea (para tener acceso libre): esta norma busca establecer los parámetros necesarios para posibilitar la interoperabilidad en toda Europa en lo que se refiere a catenaria-pantógrafo. Proporciona algunas definiciones y rangos de valores para los parámetros, medidos en el sistema real, que deben satisfacerse para garantizar la interoperabilidad. Incluye una curva que indica fuerza media de contacto para velocidad de circulación y tensión de suministro (véase la figura 10). 93 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española • Máximo estadístico de la fuerza de contacto, Fm + 3σ. 200 Corriente continua 1,5 kV • Mínimo estadístico de la fuerza de contacto, Fm — 3σ. 160 Corriente continua 3,0 kV 120 • Máximo real de la fuerza de contacto, Fmáx. Fm • Mínimo real de la fuerza de contacto, Fmín. 80 Corriente continua 3 kV Corriente continua 1,5 kV • Histograma de la fuerza de contacto. Fm = 97 ×10—5 × V2 + 110 Fm = 228 ×10—5 × V2 + 90 40 • Número de despegues, ndespegues, (solo se suelen contabilizar las pérdidas de contacto de duración superior a 0,01 s). 0 0 40 80 120 160 200 240 280 Velocidad Fuente: Norma UNE-EN 50367:2006 • Tiempo total de despegues, tdespegues. • Porcentaje de tiempo acumulado de pérdida de contacto (de cualquier duración). Figura 10. Criterios técnicos para la interacción entre pantógrafo y catenaria Desarrollo y construcción del modelo En esta norma también se dan valores para la desviación típica máxima de la fuerza de contacto, el porcentaje de despegues y la fuerza estática para sistemas de corriente continua a 1,5 kV, como era el caso de la Línea 8. También existía la ficha de la UIC 794-1 Interacción entre pantógrafo y catenaria para líneas férreas electrificadas de corriente continua. Esta ficha incluye una tabla con recomendaciones de la fuerza de contacto media y del porcentaje de despegues. Del análisis de la normativa citada y de otras referencias europeas, se concluyó que el mejor método para evaluar la calidad de la captación es el análisis estadístico de la fuerza de contacto. Suelen usarse como parámetros más significativos los siguientes: • Valor medio de la fuerza de contacto, Fm. • Desviación típica de la fuerza de contacto, σ. 94 Para poder llevar a cabo en el programa SIMPACK el análisis dinámico del sistema pantógrafo-catenaria, hay que introducir la catenaria como un cuerpo elástico. El primer paso es calcular los valores geométricos y mecánicos. En este caso, la viga está formada por dos materiales de características distintas: el aluminio del carril y el cobre del hilo de contacto. Para simplificar la modelización en ANSYS y SIMPACK, se decidió modelar el carril conductor y el hilo como si fueran un único sólido, el denominado perfil equivalente. Partiendo de las secciones originales, se calculó la posición del centroide de la sección transformada, sus momentos de inercia y su densidad equivalente. Los resultados obtenidos se pueden observar en la tabla 2. En un primer modelo, los soportes se caracterizaron como empotramientos deslizantes en la dirección del carril, pero tras el estudio detallado de la configuración física del aislador de suspensión (véase la figura 11), se decidió modelarlos como El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid Tabla 2. Posición de los diferentes centroides considerados Característica Aluminio Cobre Perfil equivalente Área (mm2) 2.138 151,6 2.424 Momento de inercia horizontal (mm4) respecto al centroide equivalente 3.386.754 454.293 4.240.825 Momento de inercia vertical (mm4) respecto al centroide equivalente 1.127.066 Densidad (kg/m3) 2.700 k k h D 1.755 1.130.365 Nodos de los extremos del soporte 8.960 Nodos compartidos entre el soporte y el carril 2.943 Nodos del carril conductor Figura 12. Modelo de soporte Cristal y Campo de las Naciones. Los resultados obtenidos generaron cierta inquietud al ser muy distintos a los resultados teóricos calculados, así que se llevó a cabo un ensayo adicional. h k k F =10 kgf Figura 13. Esquema mecánico del ensayo para determinar la rigidez de los apoyos Figura 11. Aislador de suspensión con catenaria PAC MM-04 apoyos con flexibilidad en el plano vertical. Además se utilizaron dos nodos compartidos entre soportes (véase el modelo de soporte utilizado en la figura 12) y carril a la distancia de la longitud de apoyo: Para encontrar los valores reales de las constantes k de los muelles del modelo se hicieron dos ensayos: • Ensayo estático (véase la figura 13), sobre un tramo de catenaria rígida en la Línea 8 entre las estaciones de Mar de • Ensayo de contribución del hilo de contacto a la sección resistente de la catenaria (véase la figura 14).Se verificó que la aportación del hilo de contacto a la sección resistente es del 100%. d2 d1 P1 = 11,00 kgf P2 = 5,003 kgf P3 = 5,007 kgf Figura 14. Esquema del ensayo para determinar la contribución del hilo de contacto a la sección resistente 95 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española En consecuencia, SIMPACK trata las deformaciones elásticas como una combinación lineal de los desplazamientos modales, para lo cual es necesario haber calculado previamente los modos propios y las frecuencias naturales de vibración de la catenaria (véanse la tabla 3 y la figura 15). Para obtener estos datos, se usó el programa de cálculo por elementos finitos ANSYS. Se modeló con elementos tipo viga de Euler-Bernoulli el conjunto carril de aluminio-hilo de contacto. Al tratarse de dos elementos con características mecánicas distintas, pero que trabajan como un único cuerpo, previamente fue necesario calcular el perfil equivalente. El valor del amortiguamiento se obtuvo de ensayos experimentales. Posteriormente las maTabla 3. Frecuencias naturales obtenidas para un tramo de 57 m de catenaria rígida Furrer+Frey Modos 1-10 Modos 11-20 Modos 21-30 Modos 31-40 1 3.4387 11 9.5019 21 16.839 31 29.123 2 3.8922 12 10.732 22 20.212 32 33.065 3 3.9027 13 10.760 23 21.053 33 33.068 4 3.9138 14 10.791 24 21.109 34 34.858 5 3.9520 15 10.896 25 21.168 35 34.046 6 4.1133 16 13.342 26 21.375 36 35.046 7 5.1648 17 13.862 27 24.972 37 35.390 8 6.1056 18 14.082 28 25.929 38 37.975 9 6.2542 19 14.832 29 26.644 39 40.016 10 7.7056 20 15.381 30 27.442 40 43.019 STEP SUB FREQ DMX =1 =1 = 3.439 = .109098 Z X Figura 15. Primer modo propio de vibración vertical (3.439 Hz) 96 trices de masa y rigidez obtenidas con ANSYS se transfirieron a SIMPACK. En las primeras simulaciones no se consideró el efecto del amortiguamiento estructural, pero los resultados parecían poco realistas, ya que todo sistema no amortiguado sometido a algún tipo de excitación sigue oscilando indefinidamente. Para determinar el valor real del coeficiente de amortiguamiento, se sometió el sistema a una carga súbita, colocando dos acelerómetros en la zona central del vano y en el punto medio entre el apoyo y el centro del vano, para capturar así los dos primeros modos de vibración (véase la figura 16). El amortiguamiento obtenido fue residual; a simple vista, la catenaria seguía vibrando apreciablemente un minuto después de la aplicación de la carga. Figura 16. Validación y ajuste del modelo dinámico de la catenaria rígda perfil Furrer+Frey Anteriormente ya se habían obtenido, bien por cálculo, bien por ensayos experimentales, los valores necesarios para introducir en SIMPACK la catenaria rígida (las matrices de masa y rigidez y el coeficiente de amortiguamiento estructural). El pantógrafo modelado fue el ADtranz AM37 EU5 (véase la figura 17) utilizado actualmente en Metro de Madrid. Primero se hicieron modelos simples, solo con masas, muelles El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid Una vez ajustados el modelo de la catenaria y del pantógrafo, ya podía elaborarse el modelo de interacción, y simular y analizar los resultados (véase la figura 19). Figura 17. Modelo de pantógrafo ADTranz AM37 EU5 y amortiguadores, sin articulaciones ni juntas cinemáticas. El modelo fue refinándose y también se realizaron ensayos para determinar el amortiguamiento en las articulaciones del mecanismo de elevación y del amortiguamiento de la suspensión del frotador, con objeto de poder ajustar el modelo con los datos experimentales (véanse las figuras 18 y 19). Figura 19. Algunas capturas de la simulación del sistema conjunto catenaria-pantógrafo Datos obtenidos y conclusiones Algunos datos obtenidos se pueden ver en la tabla 4. Tabla 4. Simulación de la evolución temporal de la fuerza de contacto FURRER+FREY, 10 m, 110 km/h Media (N) Desviación típica (N) Figura 18. Banco de ensayo para el pantógrafo Frotador delantero Frotador trasero Total 52,2 49,8 102,0 6,3 5,4 10,9 Máximo estadístico (N) 71,0 65,9 134,6 Mínimo estadístico (N) 33,4 33,7 69,4 Máximo real (N) 79,5 74,9 152,0 Mínimo real (N) 36,0 35,0 73,5 N.º despegues 0,0 0,0 0,0 Tiempo total desp. (s) 0,0 0,0 0,0 Porcentaje desp. (%) 0,0 0,0 0,0 Tiempo CPU (s) 0,0 0,0 0,0 97 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Como parte del trabajo, se estudió cómo influían en la captación los siguientes parámetros: • El momento de inercia geométrico de la sección transversal del carril conductor, IVER, calculado respecto al eje vertical que pasa por su centro geométrico. • El momento de inercia geométrico de la sección transversal del carril conductor, IHOR, calculado respecto al eje horizontal que pasa por su centro geométrico. Parámetro aumentado (+100%) Influencia Momento de inercia geométrico (Jzz) Neutral Momento de inercia geométrico (Jvv) Mejora Módulo de elasticidad Mejora Densidad del material Empeora Introduciendo la rigidez en los soportes Neutral • El módulo de elasticidad (E). Ancho de los soportes Neutral • La densidad del material (ρ). Amortiguamiento de la catenaria Mejora • La rigidez en los soportes (k). Este estudio dejó patente la existencia de líneas de mejora para un sistema de catenaria rígida. A la vista de estos resultados, Metro de Madrid decidió desarrollar un perfil de catenaria rígida optimizado, que mejorara el comportamiento dinámico del conjunto catenaria-pantógrafo. • El ancho de los soportes (D). • El amortiguamiento de la catenaria (d). Para cada uno de estos parámetros, se duplicó su valor manteniendo los demás constantes y se repitió la simulación. Un caso especial fue el amortiguamiento de la catenaria, que no se modificó directamente sobre el modelo en ANSYS sino introduciendo una relación de amortiguamiento mucho mayor asociada a cada modo propio de la catenaria antes de pasarlo a SIMPACK. Para cada caso se obtuvo un valor medio de la fuerza de contacto y una desviación típica. Se observó que la fuerza media no variaba apenas, pero la desviación típica sufría fuertes variaciones (véanse la figura 20 y la tabla 5). 100,0 Referencia Momento de inercia (Jzz) 80,0 Momento de inercia (Jvv) 60,0 [N] Módulo de elasticidad Densidad del material 40,0 Introduciendo rigidez en los soportes Ancho de los soportes 20,0 0,0 Amortiguamiento de la catenaria Fm — 3σ Figura 20. Comparación del mínimo estadístico al duplicar valores 98 Tabla 5. Conclusiones sobre los distintos parámetros estudiados DESARROLLO DEL PERFIL DE CATENARIA RÍGIDA PAC MM-04 Metro de Madrid se decidió por el desarrollo de un nuevo perfil en el año 2002. Fue un proyecto conjunto entre dos departamentos de la empresa: la Gerencia de Ingeniería de Equipamientos y la Gerencia de Ingeniería de Material Móvil. Es importante situar esta decisión en el contexto concreto de los grandes planes de ampliación de la red. En los dos planes anteriores, el de 1996-1999 y el de 1999-2003, se habían instalado más de 80 km de catenaria rígida. Se había apostado por un tipo de tecnología que presentaba ventajas incuestionables para el transporte metropolitano, la catenaria rígida, pero que todavía tenía recorrido para mejorar. Se conocía ya el alcance del Plan de Ampliación 2003-2007, 73 km nuevos de red. El cambio previsto de tensión de tracción en la Línea 7 a 1.500 Vcc, requería una reforma de la catenaria entre las estaciones de Las Musas y Diego de León y la consolidación El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid del túnel, ampliación de andenes y cambio de tensión en la Línea 3. Si el diseño concluía con éxito en el año 2007, Metro de Madrid tendría el 25% de su red electrificada con un perfil de catenaria rígida optimizado. Se decidió contar nuevamente con la asistencia técnica del CITEF para el desarrollo de un nuevo sistema de electrificación mediante catenaria rígida. El importe global de la colaboración con el CITEF fue de 96.200 euros (sin IVA), y el plazo fue de 9 meses. Del estudio del perfil que hasta entonces se estaba instalando, se obtuvieron las tres acciones que teóricamente podrían mejorar la calidad de la captación: aceptable reducir el área. Por estos motivos, se decidió mejorar el perfil aumentando el momento de inercia y manteniendo la masa lineal. También se debían mantener otros dos aspectos importantes: • El ala superior del perfil debería ser idéntica para que se pudiera montar sobre los mismos aisladores. • La pinza del aluminio sobre el hilo no debía variar, para poder utilizar los mismos medios de montaje. Tras la simulación con múltiples perfiles se eligió el actualmente denominado PAC MM-4 (véase la figura 21). • Aumentar el módulo elástico (E): el aluminio ya es un material ligero y de coste asequible. • Disminuir la distribución lineal de masa (m): esto se podría hacer con un material más ligero o reduciendo la sección transversal. • Aumentar el momento de inercia horizontal (IHOR): se puede conseguir aumentando la masa o aumentando la distancia de la masa al centroide. Además, hay que tener presente que la catenaria es una línea de transporte de energía eléctrica. Si se reduce la sección transversal, se reduce su conductividad, con el perjuicio que esto supone. Si no hay sección suficiente, el calentamiento crece y los desgastes de todos los componentes se aceleran. Aumentar la masa mejora las características eléctricas y el momento de inercia horizontal, pero no compensa, porque aumentar la distribución lineal de masa es perjudicial. En Metro de Madrid no se querían modificar las características de conductividad: la sección de aluminio y cobre de la catenaria rígida hasta entonces instalada se consideraba adecuada para las características de operación y, sobre todo en líneas todavía con tracción a 600 Vcc, no se consideró Figura 21. Perfil PAC MM-04 Los resultados obtenidos se pueden observar en la tabla 6. Tabla 6. Comparación de valores geométricos FURRER+FREY PAC MM-04 Área (mm2) Momento inercia horizontal (mm4) Momento inercia vertical (mm4) Δ 2.423 2.394 —1,2% 426X104 734X104 +75% 113X104 108X104 —4,2% 99 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Las simulaciones efectuadas fueron concluyentes: para un montaje similar con soportes a 10 m era muy superior el perfil PAC MM-04, ya que se apreciaba (examinando las gráficas) y se confirmaba (el valor de la desviación típica de la fuerza de contacto) que era casi la mitad en el caso del perfil PAC MM-04. Velocidad: 110 km/h Soporte 10 m Soporte 12 m Soporte 14 m La comparación de simulaciones con soportes a 10 m y velocidad 110 km/h se puede observar en la figura 22. Distancia entre soportes: 10 m Velocidad: 110 km/h FURRER+FREY 10 m PAC MM-04 12 m PAC MM-04 14 m Valor medio de F 102,01 103,41 103,41 Desviación típica de F 10,88 10,74 23,84 Máximo estadístico de F 134,64 135,63 175,06 Mínimo estadístico de F 69,37 71,18 32,01 Figura 23. Comparación de simulaciones con distintas distancias entre soportes Distancia entre soportes: 10 m Valor medio de F FURRER+FREY PAC MM-04 Comparación 102,01 102,21 +0,2% —48% Desviación típica de F 10,88 5,69 Máximo estadístico de F 134,64 119,28 —11% Mínimo estadístico de F 69,37 85,14 +23% Velocidad 110 km/h Velocidad 140 km/h Velocidad 150 km/h Figura 22. Comparación de simulaciones con soportes 100 El comportamiento dinámico del perfil PAC MM-04 con soportes a 12 m era similar al de Furrer+Frey con soportes cada 10 m, ya que los valores de fuerza media y desviación típica son prácticamente idénticos. En la figura 23 se incluye la imagen y la tabla de los resultados para distancia de 14 m entre soportes, pero solo tienen interés desde un punto de vista teórico, ya que el transporte de barras de dicha longitud complicaría y encarecería significativamente la instalación del sistema de catenaria rígida PAC MM-04. Figura 24. Comparación de simulaciones con distancia entre soportes de 10 m y distintas velocidades de circulación Con soportes a 10 m, el perfil PAC MM-04 presenta la misma calidad de captación para velocidades de aproximadamente 150 km/h que el perfil Furrer+Frey para 110 km/h, como se puede observar en la figura 24. La geometría fundamental del perfil ya se había encontrado. El siguiente problema a solucionar fue diseñar las uniones entre barras (véase la figura 25). Se eligió un sistema de bridas interiores y exteriores cuya sección es la misma que el perfil FURRER+FREY 110 km/h PAC MM-04 140 km/h PAC MM-04 150 km/h Valor medio de F 102,01 101,06 101,17 Desviación típica de F 10,88 9,48 11,89 Máximo estadístico de F 134,64 129,50 136,83 Mínimo estadístico de F 69,37 72,63 65,52 El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid transversal, ya que había que garantizar que la transmisión de corriente en las uniones no recalentase el hilo de contacto. Para evitar el error humano, se optó por utilizar tornillos de aluminio de rotura de par controlado (véase la figura 26): tienen dos cabezas, y cuando se alcanza el par de apriete de diseño la más exterior se rompe. deformación plana. La metodología empleada para ello y algunos de los datos obtenidos se pueden observar en las figuras 27, 28 y 29. Tensión equivalente de Von Mises Perfil N.º Fuerza Fuerza cargas unitaria total FURRER&FREY Tensión eq. Tensión (aplicación F) eq. (centro) Interior Exterior 4 750 N 3.000 N 1 mm 39 MPa 161 MPa 4 925 N 3.700 N 1 mm 54 MPa 172 MPa 8 472 N 3.376 N 1 mm 52 MPa PAC MM-04 Figura 25. Unión de barras 91 MPa 89 MPa Figura 28. Modelo de deformación tridimensional También hubo que verificar que la inserción del hilo de Figura 26. Tornillos de aluminio contacto en la garganta infediamétricos rior del perfil no provocase deformaciones permanentes. Para ello, se hicieron simulaciones estáticas en ANSYS, tanto tridimensionales como de Modelo de deformación plana Desplaz. Tensión equivalente de Von Mises N.º cargas Fuerza unitaria Fuerza total Desplaz. Tensión equivalente FURRER+FREY 2 2.200 N 4.400 N 1 mm 35 MPa PAC MM-04 2 2.858 N 5.716 N 1 mm 54 MPa Perfil Modelo de deformación espacial Comportamiento durante el proceso de apertura Sujeción del hilo de contacto Figura 29. Modelo de deformación plana Comportamiento elástico del perfil Figura 27. Metodología empleada para comprobar la inserción del hilo de contacto Una vez definida la geometría del perfil y la unión entre barras colaterales, se inició la fabricación de un prototipo y las pruebas correspondientes en las mismas condiciones en las que luego se instalaría. Para la validación del diseño, en las condiciones de trabajo de explotación reales se sustituyó un cantón de la catenaria rígida que se había instalado hasta entonces por el nuevo perfil. 101 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Ya en fase de diseño se contactó con una empresa nacional líder en la extrusión de aluminio y se contó con su asesoramiento para elegir un perfil “extrusionable” adecuado a las necesidades. Se fabricó la matriz, y las dos primeras barras fueron analizadas para comprobar: geometría, resistencia, composición, estructura metalográfica, etc, en el Laboratorio de Recepción de Materiales de la Gerencia de Almacenes de Metro de Madrid, según se puede observar en las figuras 30, 31 y 32. Figura 32. Ensayo de rotura Validada la extrusión, se fabricó el cantón completo con las bridas de unión interiores y exteriores correspondientes (véase la figura 33). Figura 30. Ensayos de resistencia al material Figura 33. Proceso de extrusión de la catenaria PAC MM-04 Figura 31. Ensayo metalográfico 102 El coste de la fabricación y ajuste de matrices y útiles de punzonado y la extrusión y el mecanizado de los 500 m fue, para Metro de Madrid, de 14.740 euros (sin IVA). El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid PRUEBAS REALES DE CATENARIA PAC MM-04 Entre varios departamentos implicados de Metro de Madrid se eligió, como mejor opción para la prueba, la Línea 7 entre las estaciones de Lacoma y Pitis (véase la figura 34). Esta ubicación presentaba las siguientes ventajas: barras y se tendió el hilo de contacto. Durante una noche, usando los pernos más largos, se elevó la catenaria original y se reguló la de perfil nuevo. Posteriormente, se retiró la catenaria de perfil tipo Furrer+Frey. • La Línea 7 era la única donde los soportes estaban situados cada 12 m, lo que permitiría confirmar, no solo la instalación, sino las características estáticas y dinámicas que se habían obtenido en las simulaciones. • La interestación seleccionada tiene horario restringido, con lo que se disponía de más tiempo de trabajo para la sustitución de la catenaria. Figura 34. Zona de pruebas en la línea 7 • En el caso de que se presentasen problemas durante el montaje, al ser una interestación final de línea, con un número reducido de viajeros, se podría prestar servicio por vía única. Se contrató una empresa instaladora, la misma que había implantado la catenaria original en la Línea 7 (véase la figura 35), por un precio de 35.000 euros. El trabajo debía realizarse reabriendo el servicio todas las mañanas, de forma que el perfil nuevo debía montarse en paralelo con el existente, en una posición que evitase que fuera golpeado por los pantógrafos. Debido a que el perfil diseñado por Metro de Madrid era cuatro centímetros más alto, la primera tarea a acometer fue sustituir los pernos del aislador de suspensión por otros más largos para ganar altura. Después, sobre el mismo soporte, se instalaron nuevos aisladores de campana, se colocaron las Figura 35. Montaje de prototipo de catenaria: seccionamiento de perfil Furrer+Frey y perfil PAC MM-04 en paralelo Una vez concluida la instalación, en febrero del año 2004, se procedió a la elaboración del preceptivo informe de validación. Para ello, se instrumentó un pantógrafo y se midió la evolución temporal de la fuerza de contacto en ese cantón. Además, se montó una cámara sobre la caja de un tren, con objeto de poder grabar el contacto catenaria rígida-pantógrafo. El resultado fue realmente satisfactorio y, a partir de dicho momento, se especificó este perfil en todos los proyectos del Plan de Ampliación 2003-2007 y en aquellas otras obras de Metro de Madrid donde la mejor solución de electrificación fuera la catenaria rígida. Aunque los resultados de simulación confirmaban que el apriete del carril de aluminio sobre el hilo de contacto era suficiente, se hizo una termografía (véase la figura 36), con el carril tipo Furrer&Frey y con el diseñado por Metro, para 103 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Figura 36. Banco de ensayo para termografía verificar experimentalmente que la presión fuese la misma y que por tanto no se producirían calentamientos excesivos. Se inyectaron intensidades de 500, 700 y 1.000 A en los extremos de cada perfil durante más de dos horas. Se concluyó que no había diferencias de temperatura entre ellos y que ninguno presentaba calentamientos problemáticos en la zona de contacto entre el cobre y el aluminio. La evolución de la temperatura se consideró admisible y generada por los niveles de corriente eléctrica inyectada, como se puede observar en la figura 37. Figura 37. Evolución de las temperaturas Adicionalmente, se observó el comportamiento del conjunto por medio de cámaras instaladas en la parte superior de un tren y cerca del conjunto pantógrafo-catenaria, tal como puede observarse en la figura 38. En paralelo, se diseñó un nuevo aislador de sección, denominado ASCOM-05 (véase la figura 39), para ser instalado con el perfil PAC MM-04. El aislador de sección es un elemento que se intercala en la catenaria para interrumpir la continuidad eléctrica de la misma sin interrumpir el contacto mecánico catenaria-pantógrafo. Además de hacerlo apto para la nueva geometría, se utilizó la amplia experiencia de Metro de Madrid para optimizar el diseño y se contó de nuevo con la colaboración del CITEF. 104 Figura 38. Validación: cámara para ver el contacto catenaria rígida-pantógrafo El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid Madrid. La distancia entre soportes especificada es siempre de 12 m, ya que la velocidad máxima de circulación en la red es de 110 km/h y, según los estudios y experiencia en dichas condiciones, la calidad de la captación es satisfactoria. La implantación en la red de Metro de Madrid del perfil PAC MM-04 supone ahorro de costes y un beneficio, por dos motivos: • Aumento de la distancia entre soportes: al pasar la distancia entre apoyos consecutivos de 10 a 12 vanos, es preciso un 17% menos de soportes para obtener la misma calidad de la instalación. Figura 39. Aislador de sección ASCOM-05 Los costes externos del desarrollo se pueden observar en la tabla 7. Tabla 7. Resumen de costes externos del desarrollo del perfil PAC MM-04s Asistencia técnica desarrollo del nuevo sistema de catenaria rígida 96.200 euros Fabricación de 500 metros de perfil y accesorios 14.740 euros Instalación del cantón prototipo en Línea 7 35.000 euros TOTAL (sin IVA) 146.940 euros Además de las contrataciones exteriores, fueron muchas las personas de distintos departamentos de Metro de Madrid que colaboraron con gran intensidad en el desarrollo. IMPLANTACIÓN DE CATENARIA RÍGIDA PAC MM-04 Desde la exitosa finalización del proyecto de este nuevo perfil, la nueva catenaria se ha instalado masivamente en Metro de • El perfil PAC MM-04, así como sus bridas de unión, tornillos y aisladores de sección, los comercializa directamente Metro de Madrid. En el caso de que la obra de catenaria rígida se considere inversión de Metro para mejora o ampliación de la propia red, se pone el material a disposición del instalador, ahorrándose los coeficientes de paso, ya que en la situación anterior el contratista adquiría la catenaria y después Metro de Madrid se la abonaba ya instalada. A efectos económicos, si se considerase un kilómetro de catenaria rígida en instalación estándar en túnel, el ahorro medio por reducción del número de soportes es de 11.521 euros/km. Esta cifra es una media, ya que la misma es difícil de cuantificar exactamente debido a que cada contrato, y por tanto cada tramo instalado, se adjudicó en distintas condiciones. El ahorro por kilómetro de catenaria rígida PAC MM-04 debido a la gestión directa del material por parte de Metro de Madrid asciende a un valor medio de 4.350 euros/km. Dicho valor debe considerarse como una cifra aproximada, ya que aunque los costes de transformación sean razonablemente estacionarios, el aluminio es una materia prima cotizada en la bolsa de Londres, donde se negocia en dólares y lógicamente ambos parámetros oscilan en el tiempo. 105 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Es importante señalar que una obra de electrificación no incluye solamente lo que afecta a la catenaria, sino también a otros equipos auxiliares y accesorios, entre los que cabe destacar el cable de feeder positivo y negativo para alimentar la línea aérea propiamente dicha, y los seccionadores de puenteo. Si no se considerasen dichos elementos, el ahorro por la instalación de menos soportes alcanza un 12,5% de media sobre el global del proyecto. Si se consideran estos elementos, dicho porcentaje se minoraría hasta el 4%, aproximadamente. A la vista de los resultados satisfactorios obtenidos con la catenaria rígida, y en especial con el diseño propio PAC MM04, en el año 2008 se decidió sustituir la catenaria convencional existente en la Línea 6, por catenaria rígida perfil Metro (véase la figura 41). Esta obra concluyó en el verano de 2009. Durante la ejecución de la misma se utilizó en tren auscultador, diseñado por Metro de Madrid, para la obtención de datos y comprobación del tendido de línea aérea, según se puede observar en la figura 42. Teniendo en cuenta exclusivamente el ahorro producido por la instalación de menos soportes, con solo 13 km de vía sencilla se cubrieron los costes del desarrollo. Las primeras líneas de Metro de Madrid que dispusieron del perfil PACMM-04 fueron la Línea 3 (Legazpi-Moncloa, véase la figura 40) y la Línea 7 (Las Musas-Pitis), coincidiendo con la consolidación del túnel en la Línea 3 y el cambio de la tensión de tracción a 1.500 Vcc en ambas líneas. Después, a lo largo de 2007, se inauguraron todos los tramos nuevos del Plan de Ampliación 2003-2007, destacando el Metro Norte, con más de 12 km de túnel; y el Metro Este, con casi 11 km. Figura 41. Catenaria rígida PAC MM-04 en la Línea 6 del Metro de Madrid (2009) Figura 40. Perfil PAC MM-04 en la prolongación de la Línea 3 a Villaverde del Metro de Madrid (2007) 106 Figura 42. Tren auscultador de Metro de Madrid entrando a medir la calidad de la catenaria en la Línea 6 El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid El Plan de Ampliación 2007-2011 también contemplaba la electrificación de los tramos nuevos con catenaria rígida. Ya se pusieron en explotación la prolongación de la Línea 11 a La Fortuna, y en los próximos meses se inaugurarán la prolongación de la Línea 9 a Mirasierra y la correspondiente a la Línea 2 a Las Rosas. A día de hoy, el perfil PAC MM-04 está en el 33% de la red de Metro de Madrid. La evolución de los tendidos de los diversos modelos de catenaria rígida en Metro de Madrid se puede observar en las figuras 43 y 44. BENEFICIOS OBTENIDOS EN EL MANTENIMIENTO A lo largo del año 2009 se realizaron importantes acciones de mejora y renovación sobre las instalaciones. Se ha estudiado en concreto el comportamiento obtenido de la Línea 6. El escenario sufrió los siguientes cambios: • Antes de la reforma: — Catenaria convencional con dos hilos de contacto de 107 mm2 y sustentador de cobre de 153 mm2. — Interruptores/seccionadores telemandados Ferraz, con red Modbus. • Después de la reforma: — Catenaria rígida con perfil METRO y un hilo de contacto elíptico de 150 mm2. — Interruptores/seccionadores telemandados AEG, con anillo de fibra óptica y direccionamiento IP. Figura 43. Catenaria rígida PAC MM-04 instalada en 2010 Para poder establecer comparaciones, se escogió el plazo octubre 2008-octubre 2010. Las principales actuaciones tuvieron lugar entre los meses de junio de 2009 y septiembre de 2009. La repercusión sobre el servicio depende del tipo de fallo; por este motivo se realizó una comparación técnica, en paralelo con el indicador operativo más extendido en Metro de Madrid: el Índice de Perturbación IP (tiempo en segundos que, por término medio, se retrasa a todos los clientes que utilizan el servicio habitualmente). Figura 44. Instalación de catenaria rígida PAC MM-04 en el enlace de la Línea 11 con el Depósito 10 Cuatro Vientos (marzo 2010) Se valoraron las incidencias totales sobre equipos relevantes de electrificación. La evolución de las incidencias fue la que se indica en la tabla 8. 107 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Tabla 8. Evolución de las incidencias Año 2009 Tabla 9. Ratios económicos de la catenaria rígida Tipo de catenaria Año 2010 (extrapolado a fin de año) Reducción 2009 a 2010 Seccionadores 14 8,4* —40% Travo vía general 19 7,2* —62% Aisladores sección 3 3* 0% Concepto considerado Ciclos de revisión de mantenimiento preventivo (cada/meses) N.º actuaciones mantenimiento no preventivo (km/año) Convencional Rígida Línea 1y6 Jor. hom./km Coste (euros) Resto líneas Jor. hom./km Coste Rígida Jor. hom./km Coste (euros) 1 9 2.403,00 2 4,5 1.201,50 6 1,50 1.602,00 3,38 13,52 3.609,84 2,37 9,48 2.531,16 0,41 1,64 109,47 *Nota: los datos de 2010 se han extrapolado hasta final de año. La evolución del IP en el periodo estudiado se puede observar en la figura 45. Km de vía sencilla mantenido/agente 9,82 Coste repuestos consumibles/km/año (euros) 159 Cambios de hilo/km/año 3,04 Total 22,52 15,78 159 109 70,38 109 2,13 6.171,84 13,98 122 0,31 3.841,66 3,14 1.711,47 Nota: como catenaria convencional se han incluido todas las tipologías existentes que no sean rígidas. Es importante reseñar que en los sistemas tradicionales se conoce su evolución en el tiempo. Una línea envejecida supone un incremento en los costes de mantenimiento. Esta proyección a futuro con la catenaria rígida no es conocida todavía. Conclusiones Figura 45. Evolución del índice de perturbación En consecuencia, de los datos obtenidos se dedujo una mejora sobre el índice de perturbación al viajero interanual (tramo temporal de todo el día) del 66% (sobre media de IP antes/después de la reforma). Asimismo, los ratios de mantenimiento sobre los equipos más significativos también mejoraron manifiestamente. En lo concerniente a las repercusiones económicas obtenidas, estas se pueden concretar según la tabla 9 de ratios económicos. 108 Desde el punto de vista del mantenimiento de las instalaciones, los sistemas de catenaria rígida, en condiciones similares de explotación (con el conocimiento histórico del que se dispone hasta la fecha), resultan ventajosos frente a los sistemas de electrificación tradicionales, fundamentalmente por: • La relación: “recursos humanos por km de red catenaria rígida/recursos humanos por km de red en sistemas tradicionales”, disminuye a 1/3. • Las incidencias con afección al servicio son significativamente menores, tanto en número como en gravedad. El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid • Los costes de mantenimiento por km, también se reducen sensiblemente. • El sistema de catenaria rígida se manifiesta como más rentable cuanto más intensiva sea la utilización de la línea, con un coste directo medio de mantenimiento de 0,01 euros/c-km (euros/coches-kilómetro). PATENTE DE LA CATENARIA RÍGIDA PAC MM-04 IMPLANTACIÓN EN OTROS SUBURBANOS El perfil de catenaria rígida PAC MM-04 también ha sido instalado con éxito en una longitud de 15 km de la Línea 1 del Metro de Santo Domingo (República Dominicana) en enero del año 2009 (véase la figura 47). La Línea 2 de dicho suburbano, actualmente en construcción, que contará con una longitud de 20 km, también dispondrá de este tipo de catenaria rígida en la línea aérea de contacto. Metro de Madrid tiene patentada la catenaria rígida PAC MM-04 (véase la figura 46), con objeto de rentabilizar la misma por medio de su instalación en otros ferrocarriles suburbanos y, lógicamente, ostentar el derecho de propiedad y uso. Figura 47. Catenaria rígida PAC MM-04 en la Línea 1 del Metro de Santo Domingo (República Dominicana) FUTURO DE LA CATENARIA RÍGIDA PAC MM-04 Figura 46. Patente de la catenaria rígida PAC MM-04 Como consecuencia de la experiencia adquirida desde el año 2002, Metro de Madrid ha podido detectar nuevos apartados susceptibles de incorporar mejoras, tanto en el sistema de catenaria rígida PAC MM-04, como en otros elementos asociados. Así, el producto está sometido a ciclos de mejora continua, rediseño, cálculo y estudio. Actualmente, se encuentra en fase de diseño un nuevo carro de tendido, herramienta necesaria para la inserción del hilo de contacto en la ranura del carril conductor. Asimismo, se está trabajando en un nuevo diseño de perfil de catenaria rígida de altura reducida, con vistas a su instalación en túneles antiguos, con secciones muy comprometidas. La evolución en el sector ferroviario metropolitano Fernando Gómez Sánchez RETOS DEL FUTURO Como es sabido, la función de los metropolitanos es poner a disposición de los ciudadanos una alternativa de transporte masivo, rápido, fijo, seguro y económico, que permita abastecer las necesidades de movilidad de los mismos, en todas sus variantes: laboral, educativa y lúdica. Para Metro de Madrid, todo ello se concreta en su misión: “Ser la opción de movilidad socialmente más rentable y cercana a las expectativas de los clientes”. De esta forma, desde Metro de Madrid se trata de viabilizar la evolución y el progreso de las grandes urbes que, como Madrid, necesitan y demandan un transporte de estas características para sustentar su progreso y solventar sus necesidades de movilidad. Partiendo de esta premisa, se debe considerar que la evolución demográfica, cada vez en mayor medida, lleva parejo un proceso de concentración de una parte mayoritaria de la población total en las grandes ciudades. La importante aparición de concentraciones poblacionales en ciudades mayores de tres millones de habitantes es muy importante en el presente, con previsiones de acelerarse en el futuro de una manera muy significativa. Así pues, cumplir la misión que los ferrocarriles metropolitanos tienen asignada implica la solución de varios retos: • Las ciudades cuentan cada vez con mayor extensión, fruto de su expansión demográfica y de las actuaciones urbanísticas. • Una parte importante de los ciudadanos tienen sus residencias en las coronas metropolitanas y, consecuentemente, sus necesidades de desplazamiento son de mayor recorrido. • Las tendencias en la sociedad moderna indican que sus necesidades de desplazamiento son cada vez de mayor 111 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española frecuencia y con una significativa evolución positiva en el tiempo. • El número de ciudadanos bajo este modelo cada vez será mayor. Como consecuencia de todo ello, las redes de los ferrocarriles metropolitanos deberán abarcar una extensión geográfica cada vez mayor y dar solución a estas necesidades, si bien es cierto que las políticas urbanísticas tratarán de paliar estas situaciones por medio de actuaciones que mitiguen el número de desplazamientos, o que disminuyan la distancia media a recorrer. Independientemente de todo ello, estas políticas territoriales solo podrán tener, en principio, efectos paliativos, y es de suponer que los retos mencionados evolucionarán en el sentido indicado anteriormente. De tal forma que los costes de las soluciones de transporte previstas serán cada vez mayores y, en consecuencia, el importe económico a asignar por parte de las ciudades al sistema de transporte metropolitano subirá sustancialmente. Otro reto que exige solución es la reducción del tiempo medio de los trayectos a realizar, recogido incluso en el Libro Blanco de la CEE, que propone comenzar iniciativas en este sentido, como la incentivación del uso de los cada vez más eficientes transportes públicos, por la incidencia que tiene en el ciclo de crecimiento económico de la sociedad. En el futuro, se considera plausible la existencia de megaciudades con distribuciones policéntricas y con necesidades de movilidad, tanto para recorridos urbanos de dimensiones moderadas como para distancias superiores, que exigirán la existencia de líneas de alta capacidad de transporte preparadas para dar solución a necesidades de movilidad en trayectos superiores a los 100 km. Será preciso tener en cuenta que la movilidad, como tal, no es una actividad productiva que genere beneficios para la 112 sociedad en sí misma. Independientemente de que, además, se deben considerar otros factores de carácter social o medioambiental. En este escenario, los metropolitanos seguirán siendo en el futuro una alternativa de transporte esencial e imprescindible para solventar los problemas de movilidad de las grandes urbes, en colaboración y debidamente intercohesionados con otras modalidades de transporte complementarias, dando lugar a eficientes sistemas de transporte multimodales. Es probable que las instalaciones de ferrocarriles metropolitanos que se conocen actualmente no sean capaces de resolver la problemática del transporte previsto de una forma razonablemente eficiente, ya que existen problemáticas que, bajo dicho modelo, dificultan la solución adecuada de las necesidades planteadas. Entre otras se pueden enunciar las siguientes: • Cuando aumenta la longitud de las líneas, la velocidad comercial tiende a bajar; como consecuencia de ello, los tiempos de viaje se incrementan. • Las tecnologías de señalización ferroviaria y de trenes de última generación son incapaces, en la actualidad, de mejorar la velocidad comercial necesaria en el futuro, incluso en el caso de líneas de metropolitano automáticas. • La distancia media recorrida por los ciudadanos, y consecuentemente el tiempo del viaje, siguen aumentando como consecuencia de la expansión de las ciudades, tanto en las áreas urbanas como en las metropolitanas. Por otro lado, se deben tener en cuenta otros aspectos, como la evolución de la demanda, que apunta a cambios en las preferencias de la ciudadanía, por uno u otro modo de transporte. En la Comunidad de Madrid, y a título de ejemplo, si se parte de una situación basada en datos del año 2009 (véase la figura 1), se puede constatar que la cuota de mercado que La evolución en el sector ferroviario metropolitano ostenta Metro de Madrid es mayoritaria frente a otros modos de transporte. • Mejoras importantes en la calidad del servicio. • Incremento sustancial de la capacidad de transporte. 12,5% • Optimización del tiempo del viaje (acorde a las nuevas necesidades). 13,6% 52,4% 21,6% • Mejora de la accesibilidad. • Incremento de la eficiencia energética. Fuente: Memoria del CTM 2008. • Refuerzo de la gestión medioambiental. Figura 1. Cuotas del mercado del transporte en la CAM • Mejora de la percepción del tiempo de viaje. Pero además, dicha cuota de mercado se va consolidando y ampliando año a año respecto a otros modos de transporte, tal y como se desprende de los datos de la figura 2. Todo ello, asumiendo como objetivo primordial la aportación de valor a sus grupos de interés (clientes, sociedad, administraciones tutelares, empleados y proveedores). 12,5% 13,6% 52,4% 21,6% TENDENCIAS 2008 2009 3T 2007 2006 2005 2004 2003 2002 2001 2000 1999 1998 1997 1996 1995 Es precisa, pues, la búsqueda, en primer lugar, de soluciones alternativas que mejoren la velocidad media de los desplazamientos, incrementando suficientemente la velocidad comercial, sin olvidar otros aspectos también importantes. Figura 2. Evolución de la cuota de mercado de Metro Esta evolución en Metro de Madrid es representativa de la del sector, y es preciso tenerla en cuenta para poder gestionarla adecuadamente, ya que incide directamente en las proyecciones de necesidades del futuro. En consecuencia, y de manera general, los grandes retos existentes en el futuro para los ferrocarriles metropolitanos se pueden concretar en las siguientes líneas maestras: La búsqueda de estas alternativas debe adicionalmente contemplar soluciones a las expectativas en cada momento, tanto para los usuarios de las redes de metro convencional, como para los usuarios con necesidades de desplazamiento de alta distancia. Estas necesidades conducen a situaciones contrapuestas, puesto que para el primer caso se necesitan instalaciones con una gran capilaridad, que permita un alto grado de accesibilidad a la misma. Pero este planteamiento conlleva plantear instalaciones con distancias de interestación pequeñas (≈600 m), además de la ubicación de estaciones con una dispersión geográfica inferior a un kilométrico. Lógicamente, 113 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española este planteamiento penaliza la velocidad comercial, debido a un número elevado de paradas. El incremento sustancial de los tiempos consumidos en el transporte afectará negativamente a la calidad de vida de los habitantes de las futuras megaciudades y podrá limitar la competitividad de las mismas, poniendo en riesgo su viabilidad. De esta manera, el reto de reducir el tiempo empleado en el trasporte en las grandes ciudades se tornará un aspecto clave para garantizar la supervivencia de estas. El reto a resolver consiste en la búsqueda de una solución balanceada y de compromiso para que, por un lado, se concrete en un incremento de la velocidad comercial precisa (que genere una reducción de los tiempos de viaje, como factor determinante para asegurar la calidad de vida de los ciudadanos) y, por otro lado, exista una red metropolitana con alta capilaridad, que permita garantizar adecuadamente la cobertura del transporte demandado. No se trata de un reto exclusivamente tecnológico, ya que se deben considerar además aspectos de gestión que complementen las mejoras tecnológicas a implantar. Pero todas las proyecciones, tecnológicas o no, que se deban poner en escena para dar solución a los retos del futuro, deben plantearse ineludiblemente también desde una óptica de rentabilidad económica, social y ambiental, esto es, rentabilidad en el triple balance. La importancia económica de estos conceptos debe ser adecuadamente valorada. Sirva como ejemplo el capítulo de coste energético eléctrico, uno de los más importantes en el sector del transporte ferroviario de viajeros. Así, se puede comentar que Metro de Madrid ocupó, en el año 2008, el tercer lugar de consumo eléctrico, tal y como se puede observar en la figura 3: • Empresa líder en telefonía 1.543 Gwh • Empresa líder en hipermercados 1.122 Gwh • Metro de Madrid 114 772 Gwh Metro de Madrid consume un 5% de la energía eléctrica consumida en la ciudad, y un 2,5% de la de la Comunidad 5% 2,5% Figura 3. Consumo eléctrico de Metro Para gestionar adecuadamente las necesidades energéticas de las empresas de transporte, será importante contar con un plan de eficiencia energética, que gestione (como más relevantes) los siguientes aspectos: • Mejorar la eficiencia en costes y uso de los recursos energéticos. • Contribuir a la conservación del medio ambiente y a la lucha contra el cambio climático. • Gestionar la imagen (proveedor de transporte sostenible). • Gestionar soluciones innovadoras (gestión y tecnología). • Establecer pautas de concienciación (cultura de eficiencia energética). La evolución en el sector ferroviario metropolitano Pero será preciso plantearse que el concepto de rentabilidad que se debe tener en cuenta no debe circunscribirse exclusivamente a temas económicos, que, aunque importantes, no deberían ser los únicos a considerar. Así, cuando se hable de rentabilidad, las empresas deberán incluir además otras visiones. De tal forma que se atienda a un triple enfoque: • Económico. • Medioambiental. • Social. Cada uno de estos aspectos lleva incluidos factores que lo complementan y lo conforman. Por ello, en cada uno de estos enfoques deberán valorarse aspectos como: • Visión económica: • Visión social: — Tiempo del viaje. — Reducción de la congestión. — Accidentabilidad. — Servicios añadidos. — Accesibilidad. Respecto a este último apartado (visión social), es preciso reflexionar sobre ciertos aspectos intangibles, pero cada vez más importantes para el ciudadano. Aspectos que tendrán que ser atendidos y que, de alguna forma, consolidan otros muchos. En concreto, deben considerarse cuestiones relativas a imagen y reputación. A título de ejemplo, en la actualidad una comparativa del sector de transporte de viajeros, compara a Metro de Madrid con otras empresas del sector de transporte de viajeros, cuyos resultados se puede observar en la figura 4: — Reducción de costes. — I+D+i. — Retorno de la inversión. — Inversión y recursos necesarios. — Servicios exteriores. • Visión medioambiental: — Uso del suelo. — Gestión de residuos. — Consumo optimo de recursos. Fuente: Tracking MERCO. Octubre 2010 — Cambio climático. Figura 4. Imagen y reputación en el transporte — Emisión de ruido. — Contaminación local. Las empresas del sector de transporte, cada vez más, deberán gestionar adecuadamente su valoración reputacional, 115 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española que, aunque intangible desde el punto de vista estrictamente del negocio, cobrará cada vez mayor importancia para sus grupos de interés. Esta gestión permitirá, en el futuro, la generación de soluciones a los retos planteados por la sociedad, desde una óptica de sostenibilidad del negocio y del entorno. Innovación Un capítulo importante para encontrar soluciones a las problemáticas que será preciso resolver en el futuro, es la óptima gestión de las capacidades innovadoras existentes en las empresas. Para ello, será preciso el establecimiento de las vías adecuadas para su debido descubrimiento y encauzamiento empresarial, según indican diversos organismos (véase la figura 5). “El éxito empresarial depende de saber emplear eficazmente los conocimientos, las actitudes y el potencial innovador de las personas como recurso clave para mantener una ventaja competitiva.” (Consejo de Investigación Económica y Social) Para gestionar adecuadamente la innovación, se deberá potenciar el uso de modelos de Innovación Tecnológica y de Gestión (véase la figura 6) basados en la mejora continua y sistemática de los procesos de innovación, ya que, por medio de su uso, se descubren, se sistematizan y se canalizan las oportunidades existentes. Las empresas deberán ser conscientes de que es preciso canalizar y facilitar la transición de las ideas de una forma ordenada y eficaz, para ello se deberán crear organismos que faciliten dichas actividades. Metro de Madrid ya cuenta con un Comité de Innovación, a través del cual está mejorando sustancialmente los procesos claves de innovación, se podrá: • Vigilar e identificar las oportunidades. • Seleccionar y gestionar las mejores ideas. • Seleccionar y gestionar los proyectos innovadores. • Comercializar y poner en valor dichas ideas y proyectos. • Otorgar reconocimiento y gestionar las recompensas. “Innovar es la capacidad de lograr el futuro deseado” Mapa de procesos de gestión de la innovación El 71% de las ideas innovadoras llegan a las organizaciones por parte de sus propios trabajadores, el 21% de casualidades y el restante 8% de programas de innovación Xavier Sala-i-Martín, Cat. Economía Univ. Columbia Figura 5. Necesidad de innovación 116 Conocer expectativas y satisfacciones de clientes y GI Vigilar e identificar oportunidades Control documentación Control registros Definir la actuación estratégica Seleccionar y gestionar ideas Gestión de NC, AC y AP Establecimiento de planes y objetivos Seleccionar y gestionar proyectos consorciados de I+D+i Seleccionar y gestionar proyectos internos de I+D+i Auditoría interna Gestión de proveedores Seguimiento y revistión del SG por la dirección Comercializar y poner en valor Formación Figura 6. Mapa de gestión de la innovación Compras y contrataciones Clientes y otros grupos de interés OPERATIVA SOPORTE Clientes y otros grupos de interés ESTRATEGIA John Kao, Harvard Business School La evolución en el sector ferroviario metropolitano Oportunidades tecnológicas Para solventar algunas de las problemáticas planteadas, existen diversas líneas de actuación. En Metro de Madrid se tienen definidos, o en distinto grado de estudio, distintos planteamientos. A continuación se describen algunos de ellos. METRODUO (patente de Metro de Madrid) Este planteamiento está basado en las posibilidades que ofrecen los medios actuales de excavación. Estos métodos permiten construir infraestructuras de las dimensiones adecuadas para albergar dos líneas superpuestas de vía doble (véase la figura 7), una convencional y otra exprés. Esta última contaría exclusivamente con paradas en estaciones de correspondencia con otras líneas de la red de metro o con otras modalidades de transporte. Esta alternativa incrementa sustancialmente la capacidad de transporte con unos costes contenidos. Además, minimiza la pérdida de movilidad por incidencias en la prestación de servicio y permite dar solución razonable a las necesidades de los clientes, tanto si sus necesidades habituales se corresponden con trayectos cortos, medios o de largo recorrido. En el estudio realizado, la configuración elegida es la de distancia de 700 metros entre estaciones locales y de 2.800 metros entre estaciones exprés. Según este estudio, que analiza el proyecto desde el punto de vista del triple balance (económico, social y ambiental), los retornos de MetroDuo para una línea de 50,4 km arrojan como resultado una mayor inversión de una línea de MetroDuo de esta longitud respecto de una convencional, estimada en unos 1.600 millones de euros, que puede recuperarse en un plazo de 2,5 años. A partir de ese momento, MetroDuo proporciona un retorno anual a la sociedad de unos 680 millones de euros. Desde el punto de vista de la sostenibilidad ambiental, la explotación de una línea de MetroDuo respecto de una línea convencional supone dejar de emitir 13.000 toneladas de CO2, cantidad equivalente a la capacidad de absorción de 332.000 árboles. Energías alternativas La utilización de energías alternativas que permitan mejorar los costes, así como minimizar la huella de carbono y preservar el medio ambiente es otra oportunidad que se debe de fomentar en el futuro. Estas energías deberán cumplir con ciertos requisitos, a saber: ser renovables, baratas, eficientes, no contaminantes y en cierta medida disminuir la dependencia de terceros países. En este segmento se pueden considerar las instalaciones eólicas, solares, geotérmicas, etc. Figura 7. Esquema de MetroDuo Una energía alternativa que Metro de Madrid ya tiene en explotación en la estación de Pacifico, es la basada en la geotermia (véase la figura 8). 117 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española inteligentes de optimización del tráfico, regulación de velocidad y de señalización entre otras múltiples alternativas. Algunas aplicaciones son: • Localización de trenes en línea. Es el tradicional Control de Tráfico Centralizado (CTC), que permite ubicar a los trenes dentro de una línea y que, en combinación con otros elementos como la detección de personas en andenes o el número de viajeros que acceden a determinadas estaciones en determinados momentos, pueden dar información y permitir alinear de forma continua la oferta a la demanda. Figura 8. Aprovechamiento geotérmico Se define geotermia como la energía almacenada, en forma de calor, por debajo de la superficie de la tierra. Este calor se puede extraer mediante la utilización de bombas de calor geotérmicas y puede ser utilizado para mejorar el confort en las estaciones. TIC En un plano más general, la mayor utilización de las Tecnologías de la Información y las Comunicaciones (TIC) debe facilitar la optimización de los sistemas existentes y la implantación de nuevas soluciones innovadoras para resolver parte de estos problemas planteados. 118 • Localización de elementos en almacenes: reducción de los tiempos de localización y entrega. • Localización de personas: mejora de la eficiencia en la resolución de incidencias. • Recepción de órdenes de trabajo en tiempo real y optimización de las órdenes de trabajo (sistema GEMA). • Monitorización del funcionamiento de elementos desde un punto distante para evaluarlo de forma remota y anticipar la actuación y medios más adecuados. • Monitorización de alarmas, sugiriendo una organización priorizada de resolución. Por ejemplo, priorizando según el impacto en el negocio. La rápida evolución de las TIC permite ser optimistas respecto a su futuro potencial de utilización masiva en sistemas ferroviarios; y para, con base en las mismas, lograr la resolución de ciertas problemáticas del sector, tanto en el presente como en el futuro. • Monitorización de aforos mediante soportes como el sistema de Circuito Cerrado de Televisión (CCTV), que permiten tomar decisiones en tiempo real sobre actuaciones en, por ejemplo, estaciones. Adicionalmente, monitorización de eventos para su posterior análisis. Así, la utilización conjunta de sistemas informáticos avanzados con sensores y comunicaciones inalámbricas, permitirá un intercambio avanzado de datos entre tren y sistemas • Teleactuación remota sobre equipos: permite evitar en algunos casos el despliegue de medios y actuar de forma casi inmediata ante incidencias. La evolución en el sector ferroviario metropolitano • Automatización de avisos; por ejemplo, sobre la necesidad de adquisición de repuestos cuando se produce una rotura de stock. • Automatización de ciertas tareas, como puede ser la puesta en marcha de escaleras mecánicas (METROVISIÓN), consiguiendo que la logística de puesta en marcha previa a la apertura del servicio se haga de manera muy eficiente. de la línea, incluyendo actuaciones relacionadas con la jardinería, el mobiliario, la peatonalización o el carril bici, que hacen del metro ligero un elemento de transformación urbana. Igualmente, el incremento de materiales mayoritariamente reciclables en su construcción permitirá mejorar los costes de producción y disminuir en gran medida los residuos al final de su vida útil. De la minimización en la gestión de dichos residuos se deriva un impacto sustancial, por un lado en la huella de carbono, y por otro en el medio ambiente. Trenes más ligeros El estudio de las posibilidades de los nuevos materiales y su uso para la construcción de trenes más ligeros, permitirá mejorar el consumo derivado del movimiento de los trenes y, consecuentemente, optimizar los costes de explotación. Metro de Madrid ya tiene diseñado un coche basado en este paradigma. Algunos datos básicos sobre las consistencias, alcances y estado del proyecto, se pueden observar en la figura 9. El metro ligero combina las características del suburbano con las del tranvía clásico. El menor impacto ambiental que produce en comparación con el coche lo convierten en uno de los modos de transporte más respetuosos con el medio ambiente. Un metro ligero consume 360 kwh frente a los 5.500 kwh necesarios para transportar en coche a la misma cantidad de viajeros. Respecto del metro pesado, el consumo energético por coche/km del metro ligero es 2,5 veces menor (obtenido de datos de explotación de ML1 e informe de gestión propios, no de otras concesiones), y el impacto ambiental del proceso de construcción de la infraestructura es también lógicamente menor. Adicionalmente, el metro ligero permite la reducción del nivel de ruido y vibraciones respecto de otros modos de transporte, reduciendo también el efecto barrera. Otras mejoras ambientales se derivan del hecho de que la mayoría de los proyectos de metro ligero se acompañan de una renovación urbana en las inmediaciones del trazado Figura 9. Datos sobre el diseño de un coche en materiales plásticos Metro de Madrid seguirá trabajando, hoy y en el futuro, para dar un servicio de calidad y cercano a las expectativas de sus clientes, sobre la base de la innovación tecnológica, que permita reorientar el valor de su activo intangible más importante, las personas que trabajan en la compañía, hacia una atención e información cada día más avanzada, reforzando su compromiso con la sociedad. 119 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Adenda: Colaboraciones • Mostrar experiencias desarrolladas en empresas similares. Se entiende por empresas colaboradoras a aquellas empresas suministradoras de soluciones o implantadoras de sistemas. Su participación es importante, y en muchos casos, necesaria para implantar soluciones de mercado que, mediante el trabajo conjunto de estas y de personal de Metro de Madrid, puedan ser adaptadas a nuestras circunstancias y requerimientos particulares. • Participar en la detección de necesidades o aspectos de mejora. La participación de empresas podría contener las siguientes funciones: • Dar soporte y optimizar las soluciones implantadas • Mostrar y dar a conocer soluciones de mercado. 120 • Participar en la resolución de necesidades o aspectos de mejora. • Aportar un conocimiento experto en ciertas materias. • Mostrar nuevas opciones para la gestión de diferentes aspectos empresariales. El desarrollo de la banda ancha en Telefónica La telefonía móvil o el triunfo de la normalización CAYETANO LLUCH MESQUIDA (Ciutadella de Menorca, 1950) Consultor Vicedecano del COIT (Colegio Oficial de Ingenieros de Telecomunicación) Ingeniero de Telecomunicaciones. Tras ejercer durante seis años como ingeniero y jefe de diseño de equipos de comunicaciones móviles y rurales vía radio en GTE Electrónica, se incorporó a Telefónica donde ha desarrollado prácticamente toda su vida profesional. Dentro del grupo de Telefónica ha trabajado como ingeniero experto en especificación, diseño y prueba de sistemas rurales vía radio y sistemas móviles, en el Centro de Investigación y Estudios (CIE); Ingeniero experto en especificación, diseño y prueba de sistemas móviles, participando en la definición del sistema TMA900 y en el despliegue de la red TMA450, dentro de la Dirección de Normativa Técnica; Ingeniero experto en planificación, construcción y optimización de la red TMA900, en la Dirección de Comunicaciones Móviles. En Telefónica Sistemas ha sido Director de Radio, participando en la planificación y despliegue de las redes de comunicaciones móviles para los JJOO de Barcelona 92. En Telefónica Servicios/Telefónica Móviles fue Director de Radio; Director de Planificación y Construcción de Red; Director de División de Ingeniería y Desarrollo; Director General de Red; y Director General de Tecnologías, Plataformas y Servicios, con responsabilidad en el despliegue de distintas redes y la selección de las tecnologías a utilizar. Por último, en Telefónica España, fue Director General de Tecnología y desarrollo de Servicios responsable del desarrollo de Servicios fijos, móviles y convergentes para residencial, negocios y grandes empresas. El desarrollo de la banda ancha en Telefónica Cayetano Lluch Mesquida INTRODUCCIÓN El sector de las telecomunicaciones en España ingresó durante el año 20091 41.765 millones de euros anuales y representa el 4,0% del PIB, con una inversión de 4.276 millones de euros. Estos ingresos proceden de los servicios minoristas (a los usuarios finales), entre los que destacan: telefonía fija (6.485 millones de euros), telefonía móvil (14.453 millones de euros), Internet (3.932 millones de euros), servicios audiovisuales (4.540 millones de euros) y comunicaciones de empresa (1.518 millones de euros). a 1 Mbps). El acceso en banda ancha a Internet se presta principalmente sobre dos tipos de redes: de comunicaciones fijas y de comunicaciones móviles. A su vez, las redes de comunicaciones fijas más relevantes para el acceso a Internet se distinguen por el medio físico de acceso al usuario, siendo los dos más comunes: la línea telefónica o par de cobre de las redes telefónicas (2009: 13,6 millones de accesos en servicio; 7,7 millones en el servicio de banda ancha), y el cable coaxial y/o par de cobre de las redes de cable (2009: 2,7 millones de accesos en servicio; 1,9 millones en el servicio de banda ancha). Estos servicios se prestan por medio de redes de telecomunicaciones. En concreto, el servicio de acceso a Internet se ha venido prestando en dos modalidades: una en desuso, banda estrecha (velocidad de bajada, red a usuario, hasta 64 kbps); y la otra en banda ancha (velocidad de bajada superior Cada tipo de red de acceso a Internet se identifica por una familia de tecnologías que se aplica a cada uno de los medios físicos indicados: cobre, coaxial o fibra. Para las líneas telefónicas de cobre la tecnología normalizada por la UIT (Unión Internacional de Telecomunicaciones) es la xDSL (Digital 1 Informe anual de la Comisión del Mercado de las Telecomunicaciones sobre el año 2009. 125 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Subscriber Line), para el coaxial es la DOCSIS (Data Over Cable Service Interface Specification) y para la fibra la GPON (Gigabit-capable Passive Optical Network). 70% Acceso a Internet Usan Internet en los últimos 14 días 60% Han comprado alguna vez 50% A continuación se describe la historia del desarrollo del ADSL y de Imagenio en Telefónica, mostrando aspectos tecnológicos, comerciales y operativos. Tanto en un caso como en el otro, se trata de ejemplos de gestión y desarrollo de tecnología que han tenido una repercusión económica importante, pero que además, como se verá, han contribuido a la transformación de Telefónica. DEL LABORATORIO A LA RED Desde mediados de la década de los noventa, Internet irrumpe con fuerza en España, que se había conectado por primera vez en 1985. Empiezan a sonar empresas como Netscape, Yahoo, Amazon, eBay, etc., que van perfilando poco a poco la Sociedad de la Información y que van provocando un rápido y sostenido crecimiento de los usuarios que utilizan Internet. Sin embargo (véase la figura 1), en el año 2000, solo un 12,4% de la población española era usuaria de Internet, el 16% de las empresas tenían página web, y existía una demanda creciente tanto a nivel de empresas 126 40% 30% 20% 10% l ga rtu Po pa ña da Es an lia Irl Ita cia ia an Fr o an em o in Re Al Un id nd a a Ho la eg ia ru ec No Su ro pa 0% Eu El desarrollo de la tecnología ADSL (Asimetric Digital Subscriber Line), de la familia xDSL, y su implantación en la red de acceso a Internet para proporcionar servicios de banda ancha, principalmente servicios de vídeo, ha sido y es sin duda un caso de éxito de la tecnología e ingeniería de las telecomunicaciones en los últimos años en todos los países del mundo; por supuesto, también en España, de la mano, en especial, de Telefónica. Además, no es únicamente una tecnología de acceso a Internet, sino que, sobre la misma línea, se está utilizando para el servicio de distribución de televisión y acceso a contenidos de vídeo bajo demanda que, en el caso de Telefónica se denomina Imagenio. El servicio Imagenio ha sido desarrollado en su inicio íntegramente por TID (Telefónica Investigación y Desarrollo). Fuente: Pro Active Internacional. Figura 1. Uso de Internet en Europa (1999) como de particulares. España estaba todavía muy lejos de los principales países europeos; aunque se preveían unas buenas perspectivas económicas para los próximos años, era necesario un fuerte impulso al acceso a las redes de información para situarse en línea con los países más adelantados. En España, hasta el año 1995 en que se inició el despegue comercial de Internet, prácticamente solo las universidades, a través de la RedIRIS, y algunos centros de I+D tenían conexión a Internet. Es en ese año 1995 cuando se comienzan a comercializar las conexiones permanentes a Internet por parte de los operadores de datos existentes en aquel entonces, como Telefónica Transmisión de Datos (TTD); también es el año en que se inicia el Servicio de acceso a la información, más conocido por su nombre comercial InfoVía, que permitía a los usuarios finales conectarse a Internet a través de la red telefónica mediante un número único con tarifa metropolitana (055) que permitía un coste independiente de la distancia. A finales de 1997 InfoVía sumaba más de un millón de usuarios. El único intento de digitalizar mayoritariamente las líneas de abonado fue a partir de 1985 con la RDSI (Red Digital de El desarrollo de la banda ancha en Telefónica Servicios Integrados), cuyo acceso básico constaba de 2 canales B de 64 kbps y 1 canal D de 16 kbps (total 144 kbps). Permitía conectarse a Internet a 64 kbps, muy poco mas que un módem; pero dejaba libre el teléfono, que tenía su propio canal. Sin embargo, ya a finales de los años ochenta el crecimiento de las telecomunicaciones estaba liderado por el tráfico de datos y otras comunicaciones no de voz, como el vídeo. Estas comunicaciones, que reflejaban la futura demanda de los usuarios y que incluían estaciones de trabajo multimedia (voz, texto, gráficos, imágenes), transmisión de datos (interconexión de LAN, CAD/CAM, enlaces entre servidores), autoedición, imágenes médicas, recuperación de vídeo y de documentos (por ejemplo, para mantenimiento, comercio, compras en casa, educación e investigación), facsímil en color, videoconferencia y videotelefonía, HIFI y vídeo o HDTV digitales, se convirtieron en la primera fuerza conductora para la introducción de los servicios de banda ancha. Por ello, el Consejo de las Comunidades Europeas aprobó en 1987 el programa RACE (Investigación y Desarrollo en Tecnologías Avanzadas de Comunicaciones en Europa), uno de cuyos objetivos era contribuir a la introducción de los servicios de Comunicaciones Integradas de Banda Ancha (CIBA) en Europa a partir de 1995. En España, TID participó desde su inicio en el programa RACE y en 1991 puso en marcha el proyecto RECIBA (Red Experimental CIBA) que se apoyaba en la tecnología RDSI (Red Digital de Servicios Integrados) en su versión de banda ancha, cuando ya se veía que la RDSI básica se quedaba muy corta para transmitir vídeo; ello dio lugar a la tecnología ATM (Asynchronous Transfer Mode) adoptada por la UIT en 1988 y utilizada para conmutación de paquetes de transmisión de datos de gran ancho de banda y de propósito general desde velocidades muy pequeñas (inferiores a 64 kbps), hasta velocidades muy altas (155 Mbps y superiores), haciendo posible el uso de cualquier velocidad sobre un medio determinado, con el límite único de la capacidad máxima aceptada por dicho medio. Luego, la Dirección General de Telecomunicaciones promovió la puesta en marcha del PlanBA (Plan de Banda Ancha) entre 1992 y 1995, con un presupuesto de 5.500 millones de pesetas. Obviamente, nadie pensaba en extender la banda ancha a la línea de cobre del, entonces, abonado. En aquellos momentos, la opción tecnológica elegida para el acceso de banda ancha era la construcción de redes híbridas HFC (Fibra+Coaxial). Sin embargo, el despliegue de esta infraestructura era muy costoso y estaba muy poco desarrollado; en 1999 solo el 10% de los hogares estaban pasados, que no conectados, por cable. Telefónica se posicionó inicialmente en este tipo de redes y desplegó la parte de las redes de fibra óptica, continuando el Plan Fotón iniciado en 1994 y con el que se instalaron unos 20.000 km de cables de fibra en las ciudades de más de 50.000 habitantes, llevando a cada manzana de casas dos fibras de media. Pero no se llegó a tender nada significativo de las redes de coaxial; solo unos pocos barrios en Madrid y Barcelona. Realmente, el ADSL se inventó para facilitar el servicio de vídeo bajo demanda, pero en aquellos tiempos en Telefónica se probaban también otras soluciones distintas, como las de NEC y Broadband Technologies (luego adquirida por Bosch) de vídeo conmutado sobre cobre, en 1995. Además, y simultáneamente, se ponía en marcha una nueva plataforma por satélite, Vía Digital. En resumen, eran unos momentos en que había que tomar la decisión de realizar un despliegue de una nueva red de cable HFC para ofrecer servicios de difusión de televisión y acceso a Internet, pero al mismo tiempo se contaba con una plataforma por satélite para la difusión de televisión y con otra tecnología, ADSL, que, utilizando el cobre existente, permitiría ofrecer Internet y contenidos de vídeo. Por ello, Telefónica se convenció de la necesidad de cambiar la estrategia de desarrollo de la banda ancha en España. ¿Para qué precipitar esfuerzos con la fibra óptica y cable coaxial cuando con el cableado convencional se puede llegar al mismo lugar, pero sin necesidad de inmensas inversiones?, se preguntó antes de volcarse de lleno en el ADSL. 127 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Estas tecnologías xDSL, desarrolladas por los laboratorios Bell en 1988, parten del aprovechamiento del par de cobre en una banda de frecuencias mucho mayor que la de 3,1 kHz (de 0,3 a 3,4 kHz) utilizada por los módems telefónicos, y mayor que la utilizada por la RDSI (hasta 80 kHz), aun cuando la atenuación de la señal es mucho mayor (véase la figura 2). En este sentido, situaban el espectro de la señal de datos por encima del espectro de la banda vocal, 3,4 kHz, llegando hasta unos 4 MHz, de manera que con un simple filtro se separaban ambos servicios: el telefónico y el de datos. A su vez, se establecían dos canales de datos: uno ascendente, de usuario a red, y otro descendente, de red a usuario. Dentro de la familia de tecnologías xDSL, la de mayor difusión es sin duda la ADSL, pero hay otras muchas: HDSL (High bit rate Digital Subscriber Line), que fue la primera en desarrollarse, a principios de los noventa, porque facilita un acceso primario simétrico de 2 Mbps utilizando dos pares; SDSL (Symetric Digital Subscriber Line), basada en HDSL pero utilizando un solo par; IDSL (ISDN Digital Subscriber Line) para su uso en una línea RDSI, con velocidad simétrica de 128 kbps; y VDSL (Very high bit-rate Digital Subscriber Line), también asimétrica pero de alta velocidad. La tecnología ADSL aportaba una serie de ventajas, la mayor parte de las cuales parecen hoy características básicas y exigibles a cualquier método de conexión a Internet: • Reutilizaba eficazmente la planta existente de pares de cobre, no siendo preciso acometer masivas actuaciones en la red de acceso para obtener una gran cobertura. Figura 2. Composición de la señal ADSL DMT (UIT G.992.1) Los primeros estándares ADSL permiten velocidades de bajada (red a usuario) de 6,8 Mbps para distancias de, por ejemplo, 1 km de la central; pero una siguiente generación ADSL2+ permite velocidades de 16 Mbps para esa misma distancia, pudiendo llegar hasta 20 Mbps para ubicaciones muy cercanas a la central. Más recientemente, la nueva tecnología VDSL2 permite incrementar la velocidad en bucles cortos (hasta 1,3 km aproximadamente ofrece mayores prestaciones que las tecnologías previas), pudiendo ofrecer hasta 50 Mbps en bucles muy cortos (100 m). El éxito comercial del ADSL refleja también el avance de la tecnología electrónica, como el de los procesadores digitales de señal (DSP) y una mayor integración de funciones en los circuitos integrados (VLSI). Así, a finales de la década de 1990 se produjo una de esas afortunadas coincidencias de necesidad social y tecnología habilitante (DSL, Línea de Abonado Digital) que en los años siguientes dio lugar al boom de la banda ancha. 128 • Permitía la coexistencia del servicio telefónico y el acceso a Internet, liberando así al teléfono del secuestro temporal de la línea al que lo sometía el ordenador en las sesiones de conexión a Internet por módem vocal. • Se evitaba que el creciente tráfico IP atravesara la estructura de la red telefónica, permitiendo a esta última dimensionarse para aquello para lo que había sido concebida, es decir, el tráfico vocal. • Se ofrecía un servicio por primera vez concebido para ser facturado con independencia de la intensidad o duración de su uso. Los términos “tarifa plana” y always on (siempre conectado), usualmente asociados, hacían referencia a esta dualidad funcional y económica que posibilitaba a cualquier usuario la conexión permanente a Internet. • Para facilitar su adaptación a Internet, el caudal era asimétrico; de ahí la A, de manera que se reserva una anchura mayor al enlace descendente que al ascendente, según corresponde al modelo de tráfico de Internet, en el El desarrollo de la banda ancha en Telefónica cual lo normal es que se descarguen datos, más que subirlos. Desde entonces, la evolución tecnológica y de los estándares sobre el ADSL ha sido continua, permitiendo una mejora sustancial de las prestaciones, a cambio de una cierta complejidad añadida en el despliegue para garantizar la compatibilidad de diversas versiones funcionando sobre pares de cobre adyacentes. Para la separación de las señales transmitidas en baja frecuencia (voz) de las de alta frecuencia (datos/vídeo) se necesitan filtros (uno paso bajo y otro paso alto), agrupados en un dispositivo denominado splitter o separador. En una primera etapa, las instalaciones requerían la utilización en la entrada del par de cobre en el domicilio u oficina de este splitter, que independizaba las redes interiores de voz y datos (véase la figura 3). Esto suponía en la práctica la necesidad de reservar la red interior preexistente para uso exclusivo telefónico, y tender un nuevo par desde el filtro hasta el lugar de ubicación del módem y del ordenador. Pero pronto surgió la innovación del filtrado distribuido, es decir, microfiltros directamente insertables por el propio cliente en las rosetas donde existían teléfonos. Nacía así en 2003 el concepto del ADSL “autoinstalable”, que abarataba mucho el coste de instalación, al evitar que un técnico se desplazara al domicilio del cliente. Figura 3. Esquema de conexión de ADSL Tras unas discusiones con el regulador de las telecomunicaciones (CMT), Telefónica consiguió paralizar su despliegue de cable y sustituirlo por el ADSL, una tecnología cuyas inversiones eran bastante menores. Una vez que Telefónica consiguió convencer del principio de neutralidad tecnológica (no importa la tecnología, sino el servicio que se presta) para el servicio de banda ancha, a cambio de exigentes compromisos en el desarrollo de la banda ancha a través de su ADSL, la compañía dejó de abrir zanjas en las calles, al menos por unos años. En su momento esta decisión provocó una cierta polémica, ya que Telefónica dejaba de invertir 400.000 millones de pesetas en cable, si bien las trasladaba a la tecnología ADSL; pero realmente el lento despliegue del cable habría provocado un inevitable retraso del servicio de acceso a Internet en España y una falta de alineamiento con Europa, que también desplegaba la tecnología ADSL. DE LOS INICIOS A LA MASIFICACIÓN DE LA BANDA ANCHA Las primeras pruebas de campo se hicieron en 1999 en Madrid con equipo de central DSLAM (Digital Subscriber Line Access Multiplexer) de Alcatel y nodos ATM de Cisco, que son los que luego formaron parte del despliegue inicial. Sin embargo, la implantación del servicio de acceso a Internet mediante tecnología ADSL sufrió numerosos problemas y retrasos en 1999, lo que se tradujo en un número insignificante de abonados a este tipo de servicio. Desde marzo de 1999, en que se publicó la Orden de 26 de marzo de 1999 por la que se establecen las condiciones para la provisión del acceso indirecto al bucle de abonado de la red pública telefónica fija, sobre implantación de la tecnología ADSL, hasta el 31 de diciembre de 1999, el número de abonados a estos servicios no llegó a 700, cuando la primera fase de implantación de este servicio preveía que estuviera disponible una cobertura de 4,5 millones de líneas para aquel año. En cambio, en el año 2000, el servicio de acceso ADSL ya facturó un 20% del total de los ingresos por acceso a Internet. 129 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Desde el primer momento, Telefónica reconoció la importancia de impulsar el acceso a las redes de la información mediante la banda ancha, de manera que las necesidades de la sociedad marcaron sus prioridades. Para conseguirlo, fue necesario un gran esfuerzo en la evolución de la red a la tecnología ADSL: adaptación de los bucles de cobre para la transmisión ADSL (pupinización, calibre, red de dispersión, etc.), así como la readaptación de ciertos servicios como el Hilo Musical, alarmas, Ibermic, RDSI, etc., que ocupaban el espectro del ADSL; el equipamiento en los puntos de acceso de las centrales; la construcción de una red específica para la concentración (con tecnología ATM) y transporte (con tecnología IP y DWDM) del nuevo tráfico de acceso a Internet, nuevos servicios y contenidos de banda ancha, etc., convirtiéndose en el principal impulsor de la banda ancha a través de esta tecnología. Hacia el primer millón de clientes El primer plan técnico de ADSL se elaboró en marzo de 1999 y en él se contemplaban las demarcaciones del despliegue para los años 1999 y 2000. 130 La comunicación entre el módem/router del abonado y la red IP de acceso a Internet se realizaba primero sobre conexiones ATM, configurando la red GigADSL, que se dividía en dos: la red ADSL formada por el conjunto de DSLAM (concentradores de tráfico ADSL para distintos usuarios) y el conjunto de parejas ATU-C y ATU-R; y la red ATM pura, con enlaces de comunicaciones locales o remotos, y los nodos de conmutación encargados de establecer la conexión entre la red de acceso ADSL y la red IP. Desde el punto de vista de la arquitectura de protocolos, se transportaban Canales Virtuales (CV) ATM sobre ADSL. De esta forma, el usuario disponía de una conexión ATM permanentemente activa. Pero el soporte tradicional de IP sobre ATM daba lugar a serias limitaciones, como la falta de eficiencia en la conversión de protocolos y el elevado tiempo requerido para instalar, configurar y gestionar los equipos DSLAM y ATM convencionales de gran tamaño y escasa escalabilidad. Por ello, pronto se optó por basar los DSLAM en IP, y la red de agregación en tecnología Ethernet en vez de ATM. La arquitectura de red (véase la figura 4) estaba constituida por los equipos DSLAM que se conectaban a la red ATM mediante conexiones a 34 Mbps eléctricas y 155 Mbps ópticas y eléctricas; y desde la red ATM se pasaba a la red IP (RIMA, Red IP Multiservicio Avanzada), que proporcionaba el acceso a Internet y era utilizada también para facilitar servicios de interconexión de LAN, VPN, etc. Entre medias, los BRAS (Broadband Remote Access Server), que agregaban el tráfico regional de los usuarios. La red RIMA, que desplazó a la primera red IP (la red Nuria de Telefónica Data) migrando a los usuarios de terra.es a telefonica.net, pasó a ser el núcleo de las comunicaciones multimedia de Telefónica. Es una red IP multiservicio que integra voz, datos y vídeo sobre una misma infraestructura, a la vez que incorpora elementos de routing de alta conmutación para integrar todos los perfiles de tráfico IP y multimedia, que permiten llevar tráfico multimedia correspondiente a diversas calidades de servicio; en ella se utiliza el protocolo MPLS (MultiProtocol Label Switching). Figura 4. Arquitectura de acceso a Internet con ADSL El primer módem ADSL que se instaló en España en 1999 fue suministrado por Amper para el servicio residencial de Terra. Se trataba de un módem con tecnología ADSL2 con un puerto Ethernet que empleaba un chipset de Conexant. Como en muchas ocasiones a lo largo de los últimos años, los avances tecnológicos han estado ligados al desarrollo de circuitos integrados específicos que agrupan en un solo El desarrollo de la banda ancha en Telefónica chipset la base de la tecnología. En este sentido, Alcatel desarrolló inicialmente su propio chipset y luego pasó a utilizar el de GlobeSpan. En cuanto a diferentes tipos de equipo y fabricantes que han intervenido en el desarrollo de la tecnología ADSL, es oportuno citar los Multiplexores ADSL de central (DSLAM) de AlcatelLucent y Huawei; los módems ADSL de usuario de Alcatel, Amper-Xavi, Comtrend, Huawei, Zyxel, etc.; los microfiltros ADSL de Alcatel, Montseny- Balast, etc.; los conmutadores ATM de Cisco, los equipos MetroEthernet de Riverstone (inicialmente) y luego Alcatel y Huawei; y los routers IP de Cisco y Juniper. Así, después de haber invertido 2.000 millones de euros en el periodo 2000-2003, a finales de 2002 España comenzaba a ser un país de banda ancha, con más de un millón de clientes. Pero, para ello, hubo que cambiar también algunas cosas, como el acceso al servicio minorista. La Orden de 26 de marzo de 1999 por la que se establecen las condiciones para la provisión del acceso indirecto al bucle de abonado de la red pública telefónica fija, establecía las condiciones para la provisión del acceso indirecto al bucle de abonado de la red pública telefónica fija, en concreto la obligación de que los operadores dominantes de dichas redes dispusieran, mediante el despliegue de tecnologías ADSL, de una oferta de acceso al bucle de abonado de su red en modalidad de flujo binario de alta velocidad, que se denominó servicio GigADSL, poniéndola a disposición de operadores de red y proveedores de servicios de transmisión de datos con respeto al principio de neutralidad en relación con las condiciones económicas, operativas y comerciales. El servicio GigADSL arrancó el 15 de septiembre de 1999. Además, la orden había establecido el concepto de demarcación como el ámbito geográfico que disponía de un único punto de acceso indirecto al bucle donde se concentraban los flujos de información procedentes de las centrales locales ubicadas en dicho ámbito y que incorporaban tecnología ADSL. En el servicio GigADSL se ofrecían diferentes modos de conexión al punto de entrega de demarcación para los operadores de red autorizados, que iban desde los 2 Mbps hasta los 155 Mpbs. Pero a diferencia de otros países, y hasta la Resolución de 2001, la oferta a usuarios finales de servicios basados en ADSL en España procedía totalmente de operadores distintos de Telefónica, como Auna, Wanadoo, etc., que empleaban la citada oferta mayorista de acceso indirecto al bucle de abonado. En este contexto, el grupo Telefónica estaba presente en el mercado minorista a través de dos empresas del grupo, concretamente de Terra para el mercado residencial y de Telefónica Data en el segmento de empresas, que ofrecían sus servicios a los usuarios finales en régimen de precios libres, en competencia con las ofertas planteadas por el resto de operadores. Enseguida surgió la necesidad de dotar de accesos simétricos a las empresas, ya que cuando alojan páginas web es necesario aumentar la velocidad de subida, de bajada para los clientes que acceden a estas páginas. Así, además de utilizar SHDSL (Symmetric High bit rate Digital Subscriber Line), se desarrollaron accesos simétricos con ADSL de 1 y 3 Mbps. Fue la Resolución de 31 de julio de 2001, del Secretario de Estado de Telecomunicaciones y para la Sociedad de la Información, relativa a la prestación del servicio "ADSL minorista" por parte de "Telefónica de España, S. A. U.”, la que permitió la prestación del servicio ADSL minorista por parte de Telefónica de España, que veía disminuir los ingresos brutos del negocio tradicional, y la que propició el desarrollo explosivo de esta tecnología, creciendo de unos 400.000 clientes en agosto de 2001, momento en que Telefónica de España se convirtió en un ISP (proveedor de servicio de acceso a Internet), a un millón de clientes a finales de 2002. Todas estas circunstancias hicieron de Telefónica el operador de referencia de banda ancha en España y el primero a nivel europeo (véase la figura 5). Además, el decrecimiento que se estaba produciendo en los ingresos brutos del negocio tradicional, que en 2002 fue de 240 millones de euros, fue 131 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española España Cuota de mercado de accesos BA N.º de accesos en miles y porcentaje por operador 281 734 878 50 52 30 20 18 33 28 30 30 sep-01 ene-02 may-02 sep-02 Telefónica de España 34 Terra + Telefónica Data 33 Otros operadores (incluido cable) 529 42 el eje principal para la transformación de Telefónica, fidelizando a los clientes en un entorno complejo del mercado de voz, convirtiéndose en el motor de crecimiento frente a servicios tradicionales, y orientándose al cliente mediante la oferta de nuevos productos y servicios. Europa Penetración de ADSL en Europa Conexiones ADSL en hogares con Internet (% hogares en 2003) Hacia los 10 millones de líneas de banda ancha 0% 5% 10% 15% 20% 25% Figura 5. Cuota de mercado de ADSL en España y Europa compensado por el crecimiento de ingresos de la banda ancha, que en 2002 fue de 237 millones de euros. Para validar la red de acceso (pares de cobre) para servicios de banda ancha se desarrolló en TID la herramienta Scraba (Sistema de caracterización de la red de acceso para el transporte de señales de banda ancha), que facilitó el proceso de “precalificación” masiva de los pares de cobre, proporcionando información detallada sobre su potencial para ofrecer servicios en banda ancha. La operación, que se hacía desde un único extremo, reducía enormemente el coste del proceso y proporcionaba datos suficientes sobre la capacidad de servicio del par de cobre, incluso teniendo en cuenta el tramo de acometida desde la caja terminal hasta el domicilio del cliente, teniendo en cuenta también el efecto de ramas laterales, así como la presencia de otras señales que pudieran interferir. Para la clasificación de unidades básicas de la red de acceso (por ejemplo, cables de 25 pares), se calculaba la atenuación a 160 kHz (incluidas ramas laterales) de todos los pares de cobre de dicha unidad básica. A finales de 2002, España comenzaba a ser un país de banda ancha, con una cobertura del 90% de hogares, con un millón de clientes y con un 16% de los internautas utilizando la banda ancha. Definitivamente, la banda estrecha había quedado atrás. Además, la banda ancha se configuró como 132 En el aspecto tecnológico, cabe indicar que la UIT fue especificando variantes mejoradas del ADSL original, que suponían un incremento tanto de la velocidad binaria como de la longitud máxima del bucle: ADSL2+ (G.992.5), que permite hasta 24 Mbps de bajada y 1,2 Mbps de subida a distancias muy cortas, y posteriormente VDSL2. Otro hito tecnológico importante fue la especificación por el IEEE (Institute of Electrical and Electronics Engineers), a finales de los noventa, de una conexión de radio de corto alcance conocida como wi-fi (wireless fidelity), que Intel incluyó en los chips de los ordenadores portátiles y que utiliza bandas de uso común, sin necesidad de licencia para los usuarios. Para la mayoría de los usuarios, y desde el año 2004, ADSL y wi-fi han constituido una simbiosis perfecta. Además de la facilidad de instalación y configuración, el wifi permitió la movilidad de los ordenadores portátiles dentro y fuera del hogar. Parte de la popularidad de la banda ancha se ha debido, sin duda, al wi-fi doméstico o de la oficina, conseguido sin coste incremental con el alta del ADSL al estar incorporado en el módem-router ADSL. Telefónica fue pionera en la incorporación de wi-fi en los routers ADSL. En 2004 se alcanza una cobertura del 95% de las líneas telefónicas y más de 2,1 millones de líneas ADSL en servicio. La banda ancha en España alcanza los 2,5 millones de líneas con un mapa multitecnología (cable HFC y línea ADL) y multioperador. Tres son los modos de entrada utilizados por los operadores para acceder a la banda ancha: la utilización de red propia, como Telefónica de España o los operadores de cable; el acceso indirecto, con operadores que utilizan la El desarrollo de la banda ancha en Telefónica red de Telefónica para llegar al cliente; y el alquiler del bucle de abonado. TRANSFORMACIÓN DE TELEFÓNICA: NUEVA CULTURA OPERATIVA Y TECNOLÓGICA En esos momentos, Telefónica centró el avance de la banda ancha en dos ejes fundamentales: Es muy importante destacar la transformación operativa que se produce en Telefónica, internamente y en todos los ámbitos, a raíz del crecimiento y consolidación del negocio de ADSL. Había que cambiar los modos de hacer de miles de personas que dominaban la operativa de planta interna y externa de la red telefónica, pero que tenían que migrar a una operativa completamente distinta, en la que la calidad ya no estaba en la red, en casa, sino también en las líneas y equipos del cliente. Así, se pasó de una organización muy vertical, compartimentada y estanca, a una organización más horizontal con una filosofía de servicio extremo a extremo y metodología por proyectos (cuadros de mando, indicadores de calidad, etc.), con personal muy motivado, precisamente por la recuperación de un negocio nuevo que parecía destinado a llevarse desde una empresa independiente, como pasaba con el móvil y Telefónica Móviles, con los datos y Telefónica Data, etc. 1. Extensión del servicio. La extensión del servicio de ADSL ha requerido un esfuerzo en inversión acumulada de 3.671 millones de euros hasta 2010, principalmente en la instalación de equipos de central DSLAM (DSL Access Multiplexer), instalaciones y equipamiento de cliente, redes de agregación ATM y Ethernet, red IP así como el equipamiento de transmisión asociado, sistemas, centros de gestión y operación, desarrollo de servicios, etc. 2. Comercializar nuevos productos y servicios. Ampliando su oferta de banda ancha, creando alternativas para todos los clientes y convirtiéndola en un producto de consumo. Se produce un aumento progresivo de las velocidades de acceso del ADSL (véase la figura 6), aun cuando no es posible comercializarlo en toda la cobertura debido a la excesiva longitud de algunos bucles, que hoy permite alcanzar la velocidad de 10 Mbps. Ello ha provocado un desarrollo enorme de los equipos para redes IP, incorporando fabricantes no habituales entonces para los equipos de operador, como Cisco. En marzo de 2010 el número de líneas de acceso a Internet de banda ancha ha superado la cifra de 10 millones, según los datos reflejados por la CMT. Figura 6. Aumento progresivo de la velocidad de acceso Primera etapa del servicio ADSL El objetivo de esta primera etapa era atender a unos clientes desconocidos para Telefónica, hasta poder ofrecer servicios minoristas a finales de 2001. Estos clientes disponían del servicio GigADSL, soportado en una Red de Conmutación de Paquetes ATM, y que era un servicio regulado destinado en exclusiva a Operadores y Proveedores de Servicios de Acceso a Internet (ISP). Desde el inicio del servicio GigADSL en 1999, en Telefónica tuvieron lugar desde el punto de vista operativo varios acontecimientos importantes en el desarrollo de la banda ancha: • En 1999 se creó CNESGA (Centro Nacional de Explotación del Servicio GigADSL) en el Centro Nacional de Supervisión y Operación (CNSO) de Madrid-Aravaca, inaugurado en 1997, como el primer centro de banda ancha en España, con 50 personas y con responsabilidad global sobre la 133 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española explotación de la red y sobre la provisión y atención posventa de averías de clientes. La supervisión, operación y mantenimiento se centralizó en CNESGA y se realizaba a través de los gestores de red propietarios de Alcatel y CISCO. También se realizaba la actividad de soporte a los instaladores que encontraban dificultades en el alta del servicio. • En febrero de 2001 comienzan los cursos de formación al personal del CNESGA para iniciar el piloto de vídeo sobre ADSL en Alicante que será el embrión de Imagenio. También en 2001 comenzó la descentralización de actividad del CNESGA hacia los CSD (Centros de Supervisión y Diagnosis) de operaciones. • En septiembre de 2001, Telefónica obtuvo la licencia de minorista y por tanto podía ofrecer el servicio ADSL extremo a extremo a sus clientes. El 28 de diciembre de 2001 se lanza el kit ADSL USB, servicio perteneciente a la gama Línea ADSL de Telefónica, diseñado de forma que el cliente disponía en un kit de todos los elementos necesarios para obtener la conexión ADSL, instalándolos y configurándolos él mismo sin intervención de un instalador. Las primeras activaciones de conexiones ADSL se realizaban manualmente y de forma secuencial en cada una de las dos plataformas de gestión que componían el servicio GigADSL: AWS para los DSLAM de Alcatel y Strataview en los BPX de Cisco. Completar unas decenas de conexiones al día era todo un éxito. Las capacidades de los nodos DSLAM eran de 4 líneas ADSL por cada tarjeta. La mejora del proceso de activación se produjo cuando TID desarrolló e implantó una mejora que consistía en automatizar la activación de conexiones GigADSL en los diferentes elementos de red. Los trabajos en central se correspondían con la eliminación del puente entre el repartidor horizontal y el vertical, cableando un nuevo puente del repartidor horizontal a la regleta ADSL y de esta al repartidor vertical. En cuanto a la instalación en domicilio del cliente, no existía el kit ADSL y por tanto siempre se precisaba un instalador para el alta del ADSL. 134 Otra peculiaridad importante era que no existían terminales ADSL externos de banda ancha por lo que era necesario instalar una placa interna y, para ello, era necesario abrir el ordenador del cliente, con los problemas que esto conllevaba en seguridad, pérdidas de garantías, etc. Las averías y reclamaciones debidas a la manipulación en el propio ordenador del cliente eran frecuentes. En este escenario, se hizo necesario obtener la conformidad del cliente en el alta del servicio. El CNESGA, como único centro que centralizaba la actividad de operación y mantenimiento de la banda ancha en operaciones, era la organización que recibía, previo filtrado del CAA-SI (Centro de Atención de Averías), los avisos de avería de los clientes, que en función de la incidencia solucionaba el CNESGA o, si se precisaba apoyo exterior, se distribuía a las empresas colaboradoras para coordinar la visita domiciliaria. La evolución de averías ADSL y GigADSL fue: 2001 cerró con 35.408 averías de ADSL y 8.105 de GigADSL; 2002 cerró con 52.220 averías ADSL y 12.328 de GigADSL. En cuanto al modelo de atención al cliente, al finalizar 2001 existían diferentes organizaciones y niveles de atención: CAT (Centro de Atención Técnica), CNESGA y Help Desk. Las reclamaciones de cliente fueron: al cierre de 2001 se registraron 1.661 y al cierre de 2002 se registraron 2.823. El salto cualitativo como servicio masivo Con el objetivo de ser eficientes en provisión y mantenimiento, y excelentes en calidad percibida, se inició la siguiente etapa de crecimiento con la comercialización de servicios minoristas en 2001. En enero de 2001 se inicia el Programa Estratégico de Cambio (PEC): 1 Millón ADSL ready net, que recogía la necesidad de completar, como primera fase, 360.000 clientes a final de 2001. En él se definieron una serie de parámetros de seguimiento, sobre los que se realizó un control específico sema- El desarrollo de la banda ancha en Telefónica nal. Se revisaban diferentes datos sobre el nivel de cobertura y las medidas de calidad y se trataban también otra serie de indicadores, sobre el despliegue de acceso, red de transporte IP, calidad y materiales y equipos de cliente. Posteriormente, en abril de 2001, pasó a denominarse PEC Verne Ready Net, y años más tarde, arrancó el denominado PEC Imagenio. Desde el punto de vista de la ingeniería de estas nuevas redes, es conveniente resaltar algunas de las herramientas y procesos aplicados al proceso de construcción de las mismas. Para el inventario de la red se utilizó el sistema DITRA ya que este disponía de interfaz con la aplicación de provisión de circuitos (ATLAS) y eso facilitaba la implantación. La provisión de cliente en el ADSL nació ya dentro del sistema SIGA (Sistema Integrado de Gestión ADSL), que también incorporó posteriormente la configuración de red. En la red todo cambiaba, los equipos eran nuevos, los DSLAM en el acceso pasaban a ser las “nuevas centrales de la conmutación tradicional”, y aguas arriba en la red aparecían nuevas redes: GigADSL Uno IP y después la nueva Red IP: RIMA. Ello suponía nuevas tecnologías, protocolos, interfaces, fabricantes, etc. Lógicamente, estos cambios requerían poner en marcha todo lo asociado al proceso de operación y explotación de una red. En concreto, fue necesario determinar y definir el catálogo, ubicación, dimensionado y adquisición de los repuestos de todos los nuevos equipos que constituían estas redes. Inicialmente el dimensionado se basó en la tasa de fallos MTFB facilitada por los fabricantes, que posteriormente hubo que ajustar sobre la base de la experiencia de los primeros meses. Igualmente fue necesario establecer los contratos de soporte con todo el conjunto de fabricantes, bastantes de los cuales eran nuevos. En paralelo, también fue necesario engranar los procesos de atención al cliente con los procesos de la red. Se creó el Centro de Asistencia Técnica ADSL (CAT ADSL) el cual recibía las llamadas y avisos de avería de los clientes; estos se resolvían en su mayoría en esta primera línea y, en caso de ser necesario, se escalaban a los grupos operativos de mantenimiento. Simultáneamente se organizó el proceso que se activaba en caso de incidencias masivas en la red: en estos casos, se activaba automáticamente el concepto de “incidencia masiva” que hacía que en la primera línea del CAT tuvieran conocimiento de la misma de manera que se informara de forma automática mediante locución (IVR) a los clientes que llamaban refiriendo una avería en su servicio de ADSL. Muchos fueron los problemas en los equipos y en la red en el comienzo del servicio, en 1999. Problemas consecuencia de la inmadurez de las tecnologías o de las redes en sí mismas. Telefónica hizo buenos los diseños y desarrollos de todos los fabricantes elegidos para la red. Así, la integración del equipo seleccionado de Cisco para la función de BRAS requirió un plan especial de acción como consecuencia de las múltiples incidencias y carencias de que este equipo adolecía. Lo mismo ocurrió con los problemas de infancia en las tarjetas de los DSLAM, averías que provocaban el funcionamiento incorrecto una vez se activaba el servicio al cliente, lo que obligó una vez más a Telefónica a poner el máximo esfuerzo y compromiso con los clientes, obligando en el proceso de instalación a realizar una sincronización línea a línea previa a la provisión de los clientes que garantizase el éxito del funcionamiento cuando el cliente era dado de alta. Además de todos los aspectos comentados, hubo muchos otros que hicieron realidad la banda ancha con los requisitos de calidad necesarios; por citar algunos: • Inventario técnico con el nivel de detalle que permitiera actuar en la red de la forma más ágil y eficiente posible; a la vez, conseguir asociarlo al servicio que presta cada equipo, de manera que fuera factible conocer el servicio afectado en caso de incidencia. • Proactividad. Partiendo de todas las alarmas y eventos que continuamente generan los equipos de la red, era posible anticiparse a gran parte de las incidencias si estas se correlacionaban e interpretaban correctamente. 135 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española • Mantenimiento rutinario. Se definieron y procedimentaron todas aquellas tareas preventivas de mantenimiento rutinario que evitaban la posterior generación de incidencias o averías en la red. • Control hardware y software de la planta. El dinamismo de la banda ancha obligaba a una rápida evolución de los equipos, su hardware, las versiones de este y, sobre todo, sus versiones software. Por todo ello se implantó un estricto control hardware y software de todos los elementos de la red, para lo cual se decidió que las evoluciones software de los equipos se desplegaban desde los grupos de operación y mantenimiento. A su vez, las evoluciones hardware se controlaban por los mismos grupos, independientemente de que se realizaran por el fabricante o por un integrador. • Estricto control de la seguridad y backups de los equipos, de manera que siempre fuera factible retornar a un punto previo y seguro donde el funcionamiento de los equipos estuviera garantizado. En palabras de Carlos Calvo, director general de Operaciones en esa época, las cinco claves principales de la transformación operativa de Telefónica fueron las siguientes: • Enfoque de la organización hacia la gestión de la expectativa y la calidad percibida por el cliente. • Desplazamiento de las fronteras de actuación de operaciones con el cliente final. • Nuevo modelo contractual con las empresas colaboradoras, que incentivase la mejora de la satisfacción del cliente. • Mejora continua de la eficiencia y la productividad de los recursos de operaciones, tanto propios como ajenos. • El mantenimiento como negocio capaz de generar ingresos y fidelizar a los clientes. 136 En resumen, en operaciones se consiguió evolucionar del mundo del negocio tradicional a la banda ancha y ello fue gracias a la implicación, profesionalidad y apuesta decidida por la calidad, innovando en procesos y sistemas que permitieran conseguir la eficiencia necesaria para poder integrar todas las nuevas actividades en los recursos disponibles. EL SERVICIO IMAGENIO Los nuevos hábitos del estilo de vida digital propiciaban a principios de este siglo que la industria del entretenimiento y los medios de comunicación fueran un sector económico pujante, que representó solo en España y durante 2002 una cifra superior a 17.000 millones de euros. De ellos, la televisión convencional representaba un 12%; y la televisión de pago un 11%, pero con un crecimiento anual medio del 25% en los cuatro años anteriores. La televisión de pago se inauguró en España en 1990 con Canal+, utilizando medios terrestres de difusión codificada por radio, al que siguieron diversas plataformas de televisión vía satélite. O sea, en paralelo al desarrollo de la banda ancha en España, ha habido una importante aceptación desde mediados de los noventa de las diferentes plataformas de distribución de TV digital y de los servicios de difusión de audio y vídeo, que eran, junto con los servicios de alquiler de películas para DVD o vídeo VHS, el principal medio de entretenimiento doméstico a finales de los noventa y en la primera década de 2000. En este sentido, el desarrollo de Imagenio, que ofrece servicios de difusión de televisión y vídeo bajo demanda a través de ADSL constituye, por un lado, la evolución natural del negocio de Telefónica, con el objeto de darle mayor valor a la banda ancha, y un paso muy importante para una compañía prestataria de servicios de voz que busca convertirse en un operador multiservicio que cubra todas las necesidades del usuario en servicios de telecomunicaciones. Pero la entrada en el negocio de la TV es también la respuesta de Telefónica a la irrupción en el mercado de los operadores de cable que El desarrollo de la banda ancha en Telefónica ofertan, además de servicios de telefonía y de banda ancha, el servicio de TV, intensificándose la competencia. En aquel momento, el servicio de vídeo bajo demanda, VoD, de Imagenio, solo disponible sobre la tecnología ADSL, permitía a Telefónica no solo convertirse en un operador multiservicio, sino además, diferenciar su oferta de la de los operadores de cable. Aunque actualmente los operadores de cable pueden ofrecer VoD tras haber evolucionado sus redes, sigue siendo un servicio diferenciado de la oferta de Imagenio frente a oferta de la TV por satélite. videoconsola de juegos. En aquellas fechas, un millón de hogares disponían de los cuatro servicios avanzados (telefonía fija, móvil, TV de pago e Internet), mientras que otros tres millones disponían de al menos tres, y solo uno de cada tres hogares disponía de solo uno (véase la figura 7). La oportunidad era clara. El desarrollo y diseño de la arquitectura de red de Imagenio se especificó en Telefónica y se desarrolló e implementó inicialmente por TID. Imagenio, una idea con ingenio Pero la solución de Imagenio, que empezó siendo la marca de los servicios audiovisuales de Telefónica Cable, no es solo una alternativa a otras plataformas de distribución de televisión, sino que también se complementa con el uso de Internet, ya que las infraestructuras de acceso son comunes (línea ADSL). De hecho, como se ha indicado antes, a principios de 2004 los accesos de banda ancha ya superaban a los de banda estrecha. O sea, las familias que contratasen Imagenio podían acceder a sus servicios desde su televisor y al mismo tiempo compartir el acceso a Internet con el o los ordenadores que tuvieran en su red doméstica con acceso ADSL. Además, el hecho de que el PC fuese un equipo relativamente caro, que se quedaba rápidamente obsoleto y que requería ciertos conocimientos, limitaba el desarrollo de servicios basados en el acceso a Internet, cosa que no ocurre con un televisor. Así, la televisión por Internet y la visualización por PC apenas se ha desarrollado todavía hoy en día. Figura 7. Equipamiento de los hogares españoles Finalmente, la tabla 1 contiene una comparación de la tecnología utilizada en Imagenio, esto es, la distribución de señales de vídeo sobre IP y ADSL, con otras tecnologías presentes en el sector y con las que compite, resultando un buen compromiso de los factores de servicios, interactividad, facilidad de despliegue y madurez tecnológica. Desarrollo de Imagenio Además, los hogares españoles estaban cada vez mejor equipados para el ocio digital, ya que en 2003 un 28% de los hogares disponía de un reproductor DVD y un 24% de una Se pueden distinguir dos factores claves desde el punto de vista tecnológico que permitieron el desarrollo de Imagenio: por un 137 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Tabla 1. Comparativa de tecnologías de distribución de vídeo Servicios Interactividad Facilidad de despliegue Madurez tecnológica Puntos fuertes Puntos débiles Teléfono Vídeo sobre ADSL IMAGENIO Internet de banda ancha Muy alta Alta Alta Orientación al vídeo bajo demanda Alta Muy orientado a servicios de televisión. Gran ancho de banda Alta Muy extendido y maduro. Fácil despliegue Baja interactividad. No permite vídeo bajo demanda Baja interactividad. Número limitado de canales Televisión No permite TV de alta definición Vídeo bajo demanda Teléfono (IP y analógico) Redes de cable Internet de banda ancha Alta Baja Televisión Vídeo bajo demanda (limitado) Satélite TDT Televisión Televisión Muy baja Alta Muy baja Muy alta Media Muy sencillo de desplegar Muy alta Media Baja Carácter bidireccional Escaso ancho de banda Muy alta Baja Media Gran ancho de banda. Mucha flexibilidad Grandes costes de despliegue Alta Alta Baja Facilidad de despliegue Inmadurez tecnológica Televisión LMDS, distribución por radio Acceso a Internet Vídeo bajo demanda (limitado) Teléfono (IP y analógico) FTTH/VDSL Fibra y cobre Internet de banda ancha Televisión Vídeo bajo demanda (limitado) Teléfono PLC, distribución por línea eléctrica Internet de banda ancha Televisión Vídeo bajo demanda 138 El desarrollo de la banda ancha en Telefónica lado, el desarrollo de las nuevas redes, y por otro, las nuevas plataformas de televisión. Así, el desarrollo de las nuevas redes, como las de banda ancha ADSL, al tiempo que permiten distribuir en modo difusión los contenidos más demandados, también permiten que se pueda ofrecer un canal de retorno rápido y eficaz que hace posible la ejecución de aplicaciones interactivas, y además proporcionan un canal de bajada que permite la descarga de aplicaciones y contenidos personalizados a cada cliente. En cuanto a las nuevas plataformas de televisión o de vídeo sobre banda ancha que han creado servicios multimedia y de TV dirigidos al entorno residencial, cabe destacar la plataforma pionera de Kingston Interactive TV, en Reino Unido. Sin embargo, el producto de referencia para muchos operadores de banda ancha era Fastweb, en Italia. Otro aspecto importante a tener en cuenta en el desarrollo de una plataforma de TV es la estandarización. Como iniciativas competidoras de estandarización de la televisión digital cabe señalar la europea DVB (Digital Video Broadcasting) y la americana ATSC (Advanced Television Systems Committee). El estándar europeo DVB nació en 1992 y utiliza el sistema de codificación de vídeo MPEG2. Los servicios de Imagenio que había que desarrollar eran fundamentalmente tres: • Difusión de canales de TV y audio. • Contenidos bajo demanda (principalmente películas y series). • Acceso a Internet desde el televisor. A pesar de no existir en su momento estándares específicos, se utilizaron técnicas ya existentes en redes IP. Así, la difusión de canales utiliza la técnica de IP multicast, que permite la comunicación desde un origen a varios destinos. Cada canal de TV es transmitido en una cierta dirección IP multicast y, para sintonizar un canal, un descodificador debe suscribirse al grupo multicast correspondiente. Para ello envía un paquete IGMP hasta el router de acceso, que hace entonces llegar los paquetes correspondientes a través de la subred por la que recibió la solicitud. El servicio de vídeo bajo demanda, que es verdaderamente el motivo que justifica Imagenio, permite visualizar contenidos audiovisuales controlando su reproducción (pausa, avance, rebobinado, etc.) como si de un DVD se tratase. A diferencia de los canales de TV que son difundidos por toda la plataforma, estos contenidos son emitidos desde un servidor de vídeo, teniendo como destino únicamente el descodificador que cursó la demanda. Las redes ADSL están especialmente bien adaptadas a este servicio, ya que cada cliente tiene un canal dedicado. Para este servicio se utiliza el protocolo estándar de redes IP RTSP (Real Time Streaming Protocol). El desarrollo del acceso a Internet planteó el problema de garantizar la interoperabilidad de las aplicaciones proporcionadas por los distintos servidores accesibles desde Imagenio, pensados para acceder desde PC, cuando se accede con un televisor. Las soluciones empleadas se basan en la aplicación de los protocolos HTTP y HTML con un navegador web. También era necesario tener en cuenta que el monitor de televisión tiene mucha menos resolución que una pantalla de ordenador, además de que las pantallas de tubo curvan las imágenes por los bordes. Otro efecto problemático al mostrar las imágenes en el televisor es el efecto de flicker, o parpadeo que se produce al utilizar colores muy intensos y con mucho contraste entre ellos, o cuando se utilizan líneas de texto muy juntas. Pero quizás el factor más importante fuera la distancia entre el cliente y el terminal, que condiciona enormemente el tamaño de los elementos, especialmente la elección de las fuentes y tamaños de texto, que deben ser legibles sin esfuerzo a una distancia de unos dos metros. La aportación más importante de Telefónica al desarrollo de la tecnología IPTV fue la arquitectura de red de Imagenio 139 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española (véase la figura 8), pues había que integrar muchos elementos de red nuevos, cabecera de TV, centro de servicios locales y centrales en redes también nuevas, Ethernet, IP, etc. Además, destaca la incorporación de DSLAM-IP, que lleva el protocolo IP directamente sobre ADSL, con las ventajas de aumento de eficacia, velocidades más rápidas y gestión mejorada. plataforma IPTV de Imagenio. Por todo ello, decidió industrializar el software específico de Imagenio. Será AlcatelLucent la que finalmente apueste por esta tecnología, dándole el nombre de MyView TV y desarrollando en España un Centro de I+D mundial en IPTV. Con ello, Telefónica no se liberaba propiamente de las inversiones, ya que el software representa un máximo de un 10% de la inversión anual, pero sí compartía riesgos en el desarrollo de la experiencia de cliente, que es un elemento clave de diferenciación y de generación de ingresos. En aquellos momentos, el mercado de IPTV europeo era pequeño, pero España destacaba, junto a Francia e Italia, con unas 200.000 líneas, mientras que otros países como Alemania y Gran Bretaña apenas estaban desarrollando este mercado. En 2006, el crecimiento de la TV de pago fue del 10%, siendo la contribución de Imagenio del 43% de la ganancia neta total del mercado, y pasando a tener casi 400.000 líneas. Después de la aprobación de la “Línea Imagenio” por la Secretaría de Estado de Telecomunicaciones y para la Sociedad de la información, en 2003 se lanza Imagenio, una solución que permite ofrecer contenidos y servicios de valor añadido de vídeo en los hogares ofreciendo televisión sobre tecnología ADSL. El primer piloto comercial se desplegó en junio de 2004 en Alicante y la red inicial era totalmente independiente de la utilizada para el servicio ADSL. Por ello, era clave seguir desarrollando aplicaciones y facilidades. Un paso importante fue la adopción y migración a un nuevo estándar de codificación de vídeo, el MPEG-4, que disminuía la necesidad de ancho de banda de 4 Mbps a 2,5 Mbps, lo que permitía aumentar la cobertura de bucles válidos para Imagenio en torno a un 7%, o 310.000 líneas adicionales, y facilitar la ampliación de canales de TV de 120 a 200. Sin embargo, esta migración no estuvo exenta de problemas, y obligó a cambiar la cabecera de canales de TV y a retirar modelos de descodificadores que no permitían esta migración. También hubo que proteger las líneas contra el ruido impulsivo, al que se habían vuelto más sensibles, implantando medidas de corrección de errores, INP 2 y 4, entre DSLAM y descodificador cliente. En 2005 se identificó la necesidad de lanzar servicios de IPTV en otros mercados de Telefónica. También la necesidad de ir más rápido, lo que requería un aumento significativo de inversiones en desarrollo que Telefónica no quiso realizar en solitario. Además, detectó interés en la industria por la Siguieron nuevas facilidades como el Past-tv que permitía grabar en red determinados programas, generalmente informativos diarios, y ponerlos a disposición de los usuarios para verlos mas tarde. También la utilización de descodificadores grabadores, DVR, con funcionalidad semejante a un DVD Figura 8. Arquitectura de Imagenio Despliegue y evolución de Imagenio 140 El desarrollo de la banda ancha en Telefónica grabador, aunque era necesario tener suficiente ancho de banda en la línea para poder ver un canal y grabar otro. Sin embargo, el desarrollo de Imagenio en toda su potencialidad, como DVR, que necesita dos canales; TV de alta definición, que necesita unos 14 Mbps; y varios descodificadores en un hogar, siempre se ha visto limitado por el ancho de banda del bucle con tecnología ADSL, siendo necesaria la tecnología VDSL o de fibra hasta el hogar, FTTH. También es necesario reconocer que muchos servicios desarrollados en Imagenio, como el acceso a Internet, mensajería, videoconferencia, juegos, recarga de móviles, etc., no han tenido apenas éxito. Incluso un elemento tan necesario como la autoinstalación no ha podido llevarse a cabo por no disponer, como en el caso del Wi-Fi y el acceso a Internet, de sistemas de distribución de banda ancha dentro de los hogares. Por otra parte, cabe destacar el esfuerzo realizado para disponer de todos los contenidos de interés para el cliente (contenidos de las majors: Warner, Paramount, Walt Disney, etc., y de los principales productores independientes nacionales y europeos) en la oferta de Imagenio. A modo de ejemplo paradigmático del impacto de los contenidos en la rentabilidad, la incorporación de GOL TV a la oferta supuso unos 20 puntos porcentuales adicionales de ganancia neta durante unos meses. Sin embargo, el gasto en contenidos representa el 80% de los gastos de explotación. En cuanto a los aspectos económicos del desarrollo y explotación del servicio Imagenio, puede decirse que hasta principios de 2010 el resultado bruto de explotación no ha resultado positivo, con unos 800.000 clientes. En realidad se preveía que resultase positivo cuando el número de clientes estuviera en torno al millón, lo que debería haber ocurrido en 2008 si no se hubiera producido la crisis actual. En la primera etapa de desarrollo, hasta su industrialización por Alcatel-Lucent en 2005, trabajaron unas 40 personas con una inversión de unos 50 millones de euros. Ya en la fase de comercialización, los ingresos y gastos están en torno a los 150 millones de euros, ahora equilibrados, con un ingreso de unos 20 euros por cliente y mes. La inversión acumulada en el periodo de mayor crecimiento, 2005 a 2008, ha sido de 550 millones de euros; y la inversión por alta de cliente está en torno a 250 euros. Como se ha indicado, el futuro de la tecnología IPTV pasa por cambiar del portador de cobre a la fibra. Con la tecnología de acceso FTTH ya se están dando servicios Imagenio, bajo el nombre de Trío Futura, que incluyen la TV en alta definición (HDTV) y la posibilidad de disponer de varios descodificadores en una casa. Además, la calidad de imagen, incluso para la TV estándar, es mejor, codificándola a 6 Mbps en lugar de 2,3 Mbps. El futuro pasa también por distribuir e integrar los contenidos en las tres pantallas (TV, PC y móvil), incluyendo en la red plataformas de distribución de contenidos CDN (Content Delivery Network). Finalmente, es de reseñar que Telefónica está aplicando en diversos países modelos híbridos como el DTH de recepción por satélite e interactividad por ADSL, o como el OTT (Over The Top) de MoviStar Videoclub, que utiliza Internet para ver películas y que supone un paso más hacia la televisión del futuro: la televisión conectada. LA NUEVA BANDA ANCHA Hoy en día, el desarrollo de la tecnología permite el despliegue de redes de nueva generación, de mayor velocidad y capacidad, que van a satisfacer la necesidad de mayor ancho de banda y movilidad. La figura 9 muestra las velocidades habituales de banda ancha para los servicios que se podrán utilizar desde las redes fijas; como queda reflejado, en un hogar se podrá requerir una velocidad no menor de 50 Mbps en sentido descendente y 20 Mbps en sentido ascendente. Por otra parte, en un reciente estudio mundial, elaborado por Saïd Business School y Oxford University a petición de Cisco, sobre la calidad de la banda ancha, se indica que la capacidad consumida en un hogar básico es de 20 GB (gigabytes) 141 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española al mes, y su velocidad de banda ancha 6 Mbps, mientras que en un hogar avanzado estas cifras pasan a 500 GB y 28 Mbps respectivamente.2 movilidad y un elevado ancho de banda, por lo que es necesario unir la banda ancha fija y la móvil en la nueva banda ancha, dando entrada a nuevas tecnologías que la habilitan (véase la figura 10). A pesar de que ya en 2002 se hablaba de la fibra hasta el hogar, no fue hasta 2006 cuando se inició el proyecto Red 50 para progresar hacia un mayor ancho de banda en las redes fijas, el cual que perseguía incrementar en un orden de magnitud la capacidad de transporte de información de la que son capaces los bucles de cobre. Para ello se debía acercar la fibra óptica a los clientes, bien hasta un punto intermedio entre su domicilio y la central telefónica, con soluciones de “Fibra hasta el Nodo o Edificio (FTTN o FTTB en terminología internacional), bien directamente hasta el propio hogar (FTTH). Era lo que en determinados foros se denominaba Accesos de Nueva Generación (NGA). Era también una respuesta a las redes de cable, que cuentan con un despliegue de fibra hasta nodos que se encuentran a unos 500 m de los hogares. Figura 9. Ancho de banda de las redes fijas Pero los clientes no demandan solo servicios de banda ancha fija, sino acceso multidispositivo y desde cualquier lugar, a todo tipo de contenidos y servicios, lo que obliga a cambiar continuamente el modo en el que se les proporciona conectividad. Los usuarios piden servicios caracterizados por la 2 Broadband Quality Score III. A global study of broadband quality. Cisco. Octubre 2010. http://sociedadinformacion.fundacion.telefonica.com/seccion=1189&idioma=es_ES&id=2010102116170001& activo=1.do 142 La denominación Red 50 procedía de una reflexión sobre cuánta banda ancha se necesitaba en aquellos momentos y de cara al futuro. Así, uno de los servicios que iba a ser más intensivo en recursos de ancho de banda era la televisión de alta definición. Aun utilizando la nueva tecnología de compresión MPEG4, se estimaba que un canal precisaría no menos de 10 Mbps. A su vez, una necesidad ya constatada era la de poder incluir la transmisión de más de un canal de televisión en la oferta de Imagenio lo que, en calidad de televisión estándar, y también con MPEG4, supondrían otros 7 Mbps para dos canales. A esto habría que sumar un acceso a Internet potenciado en ancho de banda, necesario también para nuevas aplicaciones y servicios aún por llegar, como la telegestión domótica del hogar, los videojuegos, la videoconferencia, etc. Por ello, si se consideraba un mix simultáneo de servicios, por ejemplo un canal de TV de alta definición + 2 canales estándar + un acceso a Internet de unos 8 Mbps, se estaba definiendo una necesidad mínima de unos 25 Mbps para cada hogar. Pero el diseño de red que se estaba planteando era tal que 25 Mbps era la velocidad mínima garantizada, pues en función El desarrollo de la banda ancha en Telefónica Red fija Velocidad máxima de conexión ofrecida Red móvil Ancho de banda ofrecido de bajada Cobre Fibra 1.000 100 50-100 20 10 6 1 1 0,512 0,257 0,128 0,056 0,033 0,028 0,0144 0,0096 0,1 0,01 + 0,001 0,0012 0,0003 0,384 Mbit/ 0,040 Mbit/ FTTH VDSL 0,0024 >14 Mbit/ ADSL2+ 0,0086 Mbit/ HSPA+ LTE HSDPA/ HSUPA GPRS GPRS GSM ADSL 0,0001 1982 1985 1988 1992 1996 2000 2002 2004 2006 2010 2012 2014 Figura 10. Tecnologías para la nueva banda ancha de la ubicación del cliente (la distancia hasta el nodo remoto en el caso de FTTN) se podía llegar también en muchos casos a 30/35 Mbps. VDSL2 es una nueva tecnología de la familia xDSL que permite incrementar considerablemente el ancho de banda que el par de cobre es capaz de transmitir, pero a distancias más pequeñas, de centenares de metros (veáse la figura 11). Esto lo consigue haciendo uso de una mayor cantidad de espectro de frecuencias en el cobre. Sin embargo, los despliegues de VDSL2 tienen algunos inconvenientes: • Interferencias. Las señales procedentes de central para algunos servicios (como ADSL o ADSL2+) y las señales VDSL2 en el armario interfieren entre sí, teniendo que realizarse actuaciones para minimizar estas interferencias. • Desagregación del bucle. Es necesario desestimar, por imposibilidad física, la coubicación de distintos operadores en este tipo de armarios. A cambio, se les debe ofrecer la posibilidad de igualar los servicios que Telefónica puede ofertar, mediante una oferta de “bitstream”. • Problemas constructivos. Como la gestión de permisos, son armarios en calle que requieren obra civil, alimentación, y además una operación y mantenimiento que penaliza notablemente los costes de explotación frente a la fibra hasta el hogar. 143 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española desplegaron otros 294 armarios, hasta llegar a la cifra de 900 armarios de Red 50, dando una cobertura a unos 70.000 bucles. En Barcelona no llegaron a instalarse armarios ya que la tipología constructiva allí era diferente a la de Madrid, al haber mucha red de fibra desplegada a través de azoteas, lo que suponía que no se disponía de una ubicación adecuada para este tipo de armarios. Figura 11. Tecnología VDSL2 En cuanto al propio despliegue de VDSL2, en el año 2006 se focalizó el esfuerzo en las áreas urbanas y metropolitanas de Madrid y Barcelona, con una solución de red FTTB, de acortamiento de bucle, consistente en instalar un armario con equipamiento de Huawei VDSL2, y en interceptar los cables de pares de cliente, realizando un conformado de señal, para no degradar la señal ADSL que venía de central, tanto para clientes propios como para clientes de la competencia. Estos armarios se instalaron o bien en RIT (cuarto de telecomunicaciones de un edificio de nueva construcción) o bien en los garajes de los edificios a los que iban a dar servicio, previa autorización por parte del presidente/administrador del edificio. Una novedad a destacar en las primeras instalaciones era la utilización de un repartidor automático que permitía activar de forma remota la banda ancha y proporcionar directamente desde el armario servicios sobre VDSL2 sin necesidad de tener que desplazar un instalador al armario. En el año 2006 se desplegaron 606 armarios con estas características, exclusivamente en Madrid; y en el año 2007 se 144 En definitiva, como solución de red, FTTB ha sido una solución transitoria y, por la dificultad de hacer un despliegue masivo con esta solución, en 2007 se decidió balancear el despliegue hacia la solución FTTH. Aun así, en el año 2007 se decidió instalar VDSL2 en todas las centrales abiertas al servicio Imagenio en ciudades de más de 20.000 habitantes. En concreto fueron algo más de 800 centrales. A raíz de este despliegue, se tomó también una decisión importante: a partir de entonces, todas las tarjetas que se despliegan son tarjetas multinorma, es decir, capaces de dar tanto servicios ADSL2+ como servicios VDSL2. Las nuevas redes de acceso fijo de banda ancha se basan en Fibra Óptica hasta el Hogar (FTTH, véase la figura 12). La fibra óptica presenta importantes ventajas respecto a la tecnología xDSL actual: • Utiliza la canalización existente, desplegándose de forma superpuesta a la red de cobre sin afectar a los servicios actuales. • Cada fibra que sale de la central da servicio hoy hasta 64 clientes, pero pueden ser más o menos en función de la necesidad individual de ancho de banda. • Permite ampliar el ancho de banda de manera “casi ilimitada”, e incrementa de forma significativa el alcance de central a cliente. • La transmisión de luz sobre la fibra, basada en el estándar GPON permite inicialmente hasta 1.000 Mpbs por cliente. El desarrollo de la banda ancha en Telefónica En 2009 no hubo despliegue masivo de FTTH, pero sí hubo un hito muy relevante: este año se empezaron a atender las primeras nuevas urbanizaciones solo con el portador de fibra, no desplegándose ya cobre en las mismas. Todos los servicios, tanto de voz como de banda ancha, se empezaron a dar directamente por fibra. En 2010 se han optimizado despliegues previamente realizados, allí donde faltaba por construirse alguna parte de la red, para maximizar el mayor número de bucles en cobertura. De esta forma, hoy existe un acumulado de unos 420.000 bucles cubiertos con FTTH, de los que aproximadamente 15.000 son en zona nueva, cuyo único portador es la fibra. Telefónica lanza el Trío Futura a finales de 2009: un servicio que alterna FTTH y VDSL2, con velocidades garantizadas de hasta 30 Mbps. Figura 12. Banda ancha por fibra óptica Una vez finalizado el piloto precomercial, y todavía dentro del año 2007, se arrancó el primer plan masivo de despliegue FTTH para atender aproximadamente 300.000 bucles. Este plan incluía el despliegue en las provincias de Madrid, Barcelona, Vizcaya, Guipúzcoa, Álava, Zaragoza, Valladolid, Sevilla, Málaga, Murcia, Valencia, Las Palmas y Tenerife. El cierre de 2007 se finalizó con unos 180.000 bucles atendidos ya con FTTH, y la red de alimentación (fibras desde central hasta la cercanía de las viviendas) necesaria para cubrir los 300.000 bucles. En 2008 se continuó con un despliegue masivo de fibra, si bien el alcance se fue reduciendo a lo largo del año, no se abrieron nuevas provincias dentro del despliegue de ese año, y el ejercicio se cerró con una cobertura aproximada de 350.000 bucles con FTTH. Algo que también parece claro de cara al futuro es la convergencia de las redes fijas y móviles, cuya arquitectura evolucionará según los estándares definidos por TISPAN y 3GPP, concretamente hacia una arquitectura IMS en la capa de control, con una capa de transporte IP y diferentes tecnologías y medios de acceso. La capa de transporte IP estará construida sobre un núcleo IP de alta capacidad, disponibilidad y seguridad, con tratamiento específico y diferenciado de los tráficos en función de su volumen y QoS (Quality of Service). Telefónica lleva ya unos años en esta convergencia, definiendo y construyendo una red multiacceso (fijo con cualquier medio y móvil) y multiservicio. También parece probable que siga habiendo una separación clara entre el servicio de difusión de TV por medios radioeléctricos, la actual TDT, y los servicios de telecomunicación por medios físicos (cable, cobre y fibra) y radioeléctricos. Sin embargo, se espera una convergencia en algún momento del tiempo, sobre la base de la tecnología HbbTV (Hybrid broadcast-broadband system TV). 145 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española PREJUBILACIÓN DEL ADSL Como se ha visto, a mitad de la década de 1990 se quiso desarrollar la televisión por cable, a pesar de lo cual esta sigue difundiéndose mayoritariamente por el aire; eso sí, con el formato digital de la TDT. En cambio, se ha desarrollado una nueva tecnología, ADSL, que ha propiciado el despegue y universalización de la banda ancha en España. Lisboa y como puede apreciarse en la evolución de la banda ancha en este tiempo (véase la figura 13); y gracias no solo a Telefónica, sino a todos los operadores que ha contribuido a ello. Pero aun habiendo logrado muchísimo, España, y en general Europa, no se encuentran en el lugar que le corresponde en el contexto mundial (véase la figura 14, extraída del estudio de Cisco mencionado en el apartado “La nueva banda ancha). Decía el Consejo Europeo de Lisboa en el año 2000, refiriéndose a los objetivos estratégicos para la próxima década: “Una sociedad de la información para todos. Las empresas y los ciudadanos deben tener acceso a una infraestructura de comunicaciones de la mejor calidad, barata, y a un amplio abanico de servicios. Todo ciudadano debe poseer los conocimientos necesarios para vivir y trabajar en la nueva sociedad de la información. Las distintas formas de acceso deben evitar la exclusión en relación con la información.” No cabe duda de que la tecnología ADSL ha sido la catapulta que ha permitido el desarrollo de la sociedad de la información en estos diez últimos años, como pedía la Agenda de Fuente: Broadband Quality Score III. A global study broadband quality. October 2010. Saïd Business School, Oxford University para Cysco System. 2010. Figura 14. Líderes mundiales en banda ancha Figura 13. Evolución de la banda ancha 146 Debido a ello, España ha promovido intensamente el desarrollo de la banda ancha, y en general de las TIC, en el periodo de presidencia española durante el primer semestre de 2010, aprobando en la reunión informal de ministros de la UE celebrada en Granada los días 18 y 19 de abril de 2010, la “Declaración de Granada para una Agenda Digital Europea”. Más recientemente, en agosto de 2010, se ha promulgado por la Comisión, el Parlamento y el Consejo Europeo, la “Agenda El desarrollo de la banda ancha en Telefónica digital para Europa”, que establece los siguientes objetivos en relación con la banda ancha: • Para 2013, cobertura universal de banda ancha básica. La velocidad en España será actualizable, empezando con un mínimo de 1 Mbps. Se estima que la inversión puede alcanzar hasta los 11.000 millones de euros en toda Europa para llegar a universalizar esta velocidad; a España le podría corresponder alrededor de 1.000 millones de euros. Afortunadamente, estas velocidades son asumibles por la tecnología móvil, concretamente HSPA y LTE, por lo que no cabría esperar mayores problemas. • Para 2020, cobertura universal de banda ancha rápida a 30 Mbps, con al menos la mitad de los hogares conectados a 100 Mbps. Probablemente en el acceso móvil, debido al factor de forma de las pantallas, se considera que una velocidad de pico de 10 Mbps sería suficiente para los dispositivos portátiles y terminales móviles. Para este objetivo de 2020, aunque existen tecnologías que permiten todavía aumentar la velocidad de banda ancha de las líneas de pares de cobre, por ejemplo optimizando las técnicas actuales DSM (Vectored), Cu_PON, etc., es más que probable que el par de cobre, ahora en periodo de prejubilación, diga adiós definitivamente después de más de 100 años de servicio y evolución tecnológica. La fibra es sin duda el futuro, teniendo como habilitadores de la velocidad de despliegue tanto las inversiones disponibles de las operadoras como la tracción de los nuevos servicios demandados por los clientes; respecto al alcance, en zonas densas irá marcado por la competencia de las operadoras, y en las zonas dispersas y rurales serán las administraciones las que tengan la mayor responsabilidad en la promoción de despliegues. Finalmente, cabe recordar aquí la afirmación de Enrique Carrascal, director general de Red durante el desarrollo de la banda ancha, de que la tecnología ADSL ha permitido la transformación de Telefónica en una empresa moderna y dinámica, y más abierta a los cambios tecnológicos que se producen continuamente. GESTIÓN Y DESARROLLO DE LA TECNOLOGÍA A lo largo del relato del desarrollo de la banda ancha en Telefónica se ha podido también intuir la transformación del modelo de gestión de la tecnología de la principal compañía del sector de las telecomunicaciones en España. Telefónica es una compañía de servicios de telecomunicación y, como tal, su principal objetivo es ofrecerlos a sus clientes. Estos servicios se apoyan en unas redes de telecomunicaciones que son la “fábrica” de los servicios básicos. Así, fabrica minutos de voz para la telefonía fija y móvil; y accesos de banda ancha fijos, como el facilitado por el ADSL, y móviles. A estos servicios básicos se les suman otros muchos denominados de valor añadido, suplementarios o especiales, de los que se aquí se ha visto como ejemplo uno de los más sofisticados, el servicio Imagenio. A su vez, las redes se construyen sobre la base de elementos de red, que son los equipos y terminales interconectados mediante líneas, cables, fibra óptica y/o espectro, cuando se trata de radiocomunicaciones; y que se apoyan en unas infraestructuras: edificios y casetas, canalizaciones, torres, etc. Al menos hasta hoy, la misión de Telefónica es la de construir estas redes para soportar los servicios de los clientes, por lo que también son misiones principales suyas la ingeniería o diseño y la explotación de las mismas. La tecnología, como aplicación práctica de los avances científicos, reside básicamente en los elementos o equipos que componen las redes, en los terminales y en determinados elementos de infraestructura. Hubo un periodo, en la década de 1970 y principios de la siguiente, en que Telefónica era la locomotora de la tecnología y de la industria de telecomunicaciones en España. En el Informe Anual de 1983 se podía leer: 147 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española “La Compañía Telefónica no agota su contribución a la sociedad y a su progreso con la prestación de los servicios telefónicos, móviles y telemáticos, todos ellos en continuo proceso de modernización, sino que también contribuye como motor de un grupo de empresas, algunas de tecnología punta y de ámbito comercial muy especializado, y al desarrollo de la industria nacional mediante la creación de puestos de trabajo y fomento de las exportaciones.” Así, fue precursora en la investigación y desarrollo de las redes de datos con la red Iberpac, basada en el equipo Tesis, primicia mundial de los conmutadores de paquetes en 1974. Pero también en el desarrollo del servicio Videotex, inaugurado durante los mundiales de fútbol de 1982. Y con su participación en el desarrollo de la central semielectrónica Metaconta con Standard Eléctrica (luego Alcatel), y varias series de teléfonos con Citesa (Heraldo, Góndola, Teide, etc.) y de teléfonos públicos con Amper. Incluso se especificaban desarrollos en radio, como equipos para los sistemas rurales MAR con Telettra o los repetidores para flotas con GTE. Pero no era realmente excepcional: lo hacían todas las compañías telefónicas del mundo, los denominados PTT, que acudían a estandarizar al menos los interfaces para que las redes y terminales fueran interoperables. Iberpac, por ejemplo, se basaba en el conjunto de protocolos de comunicaciones X.25, estandarizados en 1970 por el CCITT (hoy ITU-T). A finales de 1986 Telefónica comenzó a reconsiderar la estrategia de liderar el sector industrial, apostando por la diversificación de suministros, y reduciendo con ello su dependencia de su grupo industrial, con la pretensión de ganar autonomía, y de esta forma abrir su mercado a un número mayor de empresas del sector. Dos décadas después, a finales de los noventa, época en que se sitúa la historia del ADSL y también de la globalización, casi nadie duda de que las empresas deben dedicar sus recursos a las actividades más nucleares de su negocio, que empiezan por todas aquellas relacionadas con el cliente. Así, se diría que una mano invisible ha ido transformando a los responsables, de un papel exclusivo de ingenieros y tecnó148 logos al de hombres de negocios dotados de la visión de negocio que proporciona la tecnología. También cabe destacar que los propios avances tecnológicos impiden abarcar desarrollos tecnológicos propios en todos los campos; piénsese que solamente en los terminales de clientes, el desarrollo de la microelectrónica ha concentrado la tecnología en unas pocas compañías. Finalmente, se debe resaltar la importancia actual de la tecnología, no solo en los equipos, sino en las redes y los servicios que dichas redes soportan; y la importancia cada vez mayor de decidir cuáles son las tecnológicas que se deben adoptar y cuáles no, porque no aportan elementos diferenciales, ni para el cliente en primer lugar, ni para los costes/capacidades en segundo. Así pues, vemos que Telefónica ha cambiado la gestión de la tecnología de manera que, en el caso que nos ocupa, sus departamentos de Tecnología y de I+D (TID) estaban al tanto de la tecnología de redes xDSL mucho antes de su comercialización, participando en la estandarización por la UIT de todas las versiones habidas, y realizando en sus laboratorios pruebas extremo a extremo en un entorno multisuministrador; pero además, siguiendo los avances tecnológicos que se producen continuamente; en el campo de un mayor aprovechamiento del par de cobre, por ejemplo, se está al tanto de la tecnología Phantom DSL, para aumentar la velocidad hasta 500 Mbps en distancias de hasta 500 m. Incluso antes de que estas tecnologías se implementen y comercialicen en equipos y terminales, comienza la selección de fabricantes y la certificación de modelos con pruebas de laboratorio y de campo, a las que siguen nuevas selecciones de fabricantes y certificaciones de nuevos modelos de manera continua. Así, por ejemplo, se ha visto que los primeros DSLAM eran de Alcatel y los últimos son también de Huawei. Como también ha quedado indicado, el diseño de las arquitecturas de las redes, así como su planificación, construcción y explotación, se realizan internamente, lo que obedece al deseo de implementar rápidamente, o incluso de desarrollar, los servicios que se soportan en las redes, como es el caso El desarrollo de la banda ancha en Telefónica de Imagenio, y con objeto de fomentar su evolución con nuevos equipos, nuevos protocolos, interfaces, codificadores, etc.; un buen ejemplo es el paso de MPEG-2 a MPEG-4 en Imagenio. También cabe destacar la visión de negocio en la actuación de los departamentos de Tecnología y de I+D, proponiendo alianzas con fabricantes, participando en organizaciones de estandarización, midiendo su eficacia en términos económicos de inversión y costes de red, consiguiendo significativas mejoras de calidad, y obteniendo una importante consideración internacional. Debe hacerse una importante distinción entre los dos casos reseñados: si bien ambos obedecen a decisiones de la alta dirección, provienen de dos estrategias diferentes. En el desarrollo del ADSL, es la propia evolución de la tecnología la que obliga a mejorar o desarrollar las redes, muchas veces partiendo de los propios departamentos técnicos que las desarrollan. Mientras que el caso de Imagenio obedece a una estrategia de mercado, voluntaria, que proviene de necesidades detectadas por los departamentos comerciales. Finalmente, es digna de mención la importante actividad de Telefónica I+D, que se orienta a la creación de servicios, la gestión de las redes, los servicios y los negocios, con especial atención a la innovación tecnológica de carácter estratégico o a productos inexistentes en el mercado. Actúa como motor de la innovación en Telefónica, desarrolla nuevos servicios anticipatorios e identifica las opciones tecnológicas emergentes. Dispone de una red de Centros de Excelencia con sedes en España, Brasil y México. En este sentido se ha incluido el desarrollo por TID de Imagenio como desarrollo propio de un servicio inexistente en su momento, que en estos momentos está dando sus frutos con cerca de un millón de clientes y un margen bruto ya equilibrado. Para terminar, un último dato: Telefónica dedica en España alrededor de 1.250 millones de euros al año a innovación tecnológica y más de 300 millones a investigación y desarrollo; cuenta con centros en Barcelona, Granada, Huesca, Madrid y Valladolid; y es la primera empresa española por ese concepto. La telefonía móvil o el triunfo de la normalización Cayetano Lluch Mesquida INTRODUCCIÓN El servicio móvil ha penetrado en todas las capas de nuestra sociedad, y no es exagerado decir que permite hacer cosas que hasta hace simplemente una o dos décadas parecían, o bien destinadas a un lejano futuro, o reservadas a los usuarios conectados a una red fija. Semejante estado de cosas no es fruto de la casualidad ni ha surgido de repente; por el contrario, es el resultado de una evolución tecnológica y regulatoria que, partiendo de unos orígenes modestos, ha desembocado en las redes y servicios que se disfrutan actualmente, y que desde luego no va quedarse ahí, sino que está destinado a experimentar cambios técnicos importantes y a mejorar sustancialmente sus prestaciones. Ese camino es precisamente el objeto del presente capítulo. En él se hará un breve repaso al proceso que ha conducido hasta lo que son hoy las redes y servicios móviles, intentando aventurar también cómo será el futuro que tienen por delante. Un proceso este que, más allá de los aspectos puramente tecnológicos, comprende también los relativos a la gestión del espectro radioeléctrico; porque, no hay que olvidarlo, estos son sistemas de radiocomunicaciones. Es decir, que utilizan las ondas de radio para cubrir una parte del trayecto que media entre los dos extremos a conectar. La gestión del espectro (también vale decir de las frecuencias o de las bandas de frecuencia a utilizar por las redes de radio) es algo que básicamente afecta a la manera en que los gobiernos y otras instituciones supranacionales, con las que estos tengan tratados o compromisos vinculantes, deciden regular el acceso a las frecuencias y las condiciones de uso de sus derechos de utilización. No obstante, antes de entrar en el objeto en sí del capítulo, es preciso hacer una consideración preliminar sobre el significado del servicio móvil. Se habla coloquialmente de las “redes móviles”, pero lo cierto es que las redes que soportan el servicio móvil no se mueven; antes bien, los que se mueven son los usuarios o clientes de las mismas. Una aparente perogrullada que no conviene perder de vista, ya que 151 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española la movilidad de los usuarios es la que imprime carácter y singularidad a este tipo de sistemas. Entre otras razones, porque establece la necesidad de articular soluciones técnicas que permitan mantener activa y disponible una conexión a pesar de que al menos uno de los extremos se desplace geográficamente; y porque exige que los sistemas sean capaces de alertar a un usuario móvil cuando hay una llamada dirigida a él, lo que en la práctica supone disponer de algún tipo de mecanismo de localización del mismo. Tales requisitos desembocan en la necesidad de que alguien disponga de toda una infraestructura de red y del permiso para utilizar ciertas frecuencias de radio con carácter exclusivo (bajo licencia). Vienen estas consideraciones al hilo de evitar una posible confusión con lo que en la literatura se denominan con frecuencia “sistemas inalámbricos o wireless”, que suele designar a aquellos que no están sujetos al requisito de la movilidad: bien porque conectan puntos que están fijos en el espacio (por ejemplo, los FWA o Fixed Wireless Access, para dar servicio de telecomunicaciones vía radio a domicilios en zonas aisladas o de difícil cableado) o porque se limitan a dar una extensión de radio a un punto de red fija (como sería el caso de un router wi-fi ligado a una conexión ADSL, por ejemplo). Es fácil ver que los modelos de negocio de un sistema móvil, asociado a fuertes inversiones en infraestructura especializada, serán muy diferentes de los de los sistemas inalámbricos. DE LA TECNOLOGÍA ANALÓGICA A LA DIGITAL. EL SISTEMA GSM Los comienzos del servicio móvil pueden situarse en torno al año 1976, cuando, de la mano de Telefónica y restringido a Barcelona y Madrid, se comenzó a prestar el denominado servicio TAV (Teléfono Automático en Vehículos), en la banda de 160 MHz. Fue un comienzo casi testimonial, con utilización restringida a altos cargos de la Administración. Posteriormente, en 1982 y coincidiendo con el Mundial de fútbol, se lanzó el servicio TMA-450 (Telefonía Móvil Automática, en 152 la banda de 450 MHz), basado en el estándar NMT; y en 1990 se puso en marcha el servicio TMA-900 (en la banda de 900 MHz), basado en el estándar TACS (Total Access Communication System), con el nombre comercial de Moviline. Este servicio estuvo activo hasta 2004, si bien a partir de 1995, en que apareció el GSM (Groupe Spécial Mobile) se encontró en franca desventaja tecnológica. La información transmitida (vocal) consistía en una señal eléctrica analógica. El usuario y los servicios tipo estaban restringidos a usuarios de alto poder adquisitivo, capaces de pagar unos cientos de miles de pesetas de la época por unos terminales transportables —que no portátiles— en su mayoría. Quizá el mejor ejemplo del contraste con la situación actual lo aporte la imagen de Michael Douglas interpretando el personaje de Gordon Gekko en la segunda parte de la película Wall Street, cuando recoge sus pertenencias al abandonar la cárcel en 2010; entre ellas, un voluminoso artefacto del año 1987, imposible de alojar en los bolsillos de la chaqueta e incluso algo grande para llevarlo en muchos portafolios, que el policía le entrega diciendo: “… y un teléfono móvil”, con evidente sorna. En cuanto al servicio, baste decir que por aquel entonces servicio móvil era equivalente a telefonía móvil. Esto es, a servicio puramente vocal. De esta época provienen sin embargo algunos de los conceptos bases para los potentes sistemas que vinieron en fases posteriores. Por ejemplo, el concepto celular, que hace que se hable de “redes celulares” o del “celular” para referirse al terminal móvil. Gracias a él los ingenieros pueden establecer un primer diseño teórico de la cobertura radio, a base de teselas hexagonales con las que recubrir el plano (y no por capricho: es la figura geométrica que maximiza la relación área/perímetro), que se corresponden con una o varias células, según se dividan o no en varios sectores iguales. Las células contiguas utilizan diferentes canales para evitar interferencias. Por supuesto que, al no ser los canales infinitos, es preciso repetirlos en algún momento; ello hace que para cubrir el plano sea necesario repetir un patrón de reparto de canales diferentes entre un racimo de células (cluster). Cuanto La telefonía móvil o el triunfo de la normalización mayor sea el repertorio de canales de este patrón, mayor será el número de células con diferentes canales y mayor la distancia entre células en los que se repiten, lo que implica menor cantidad de interferencia que cada célula recibe de las otras que tienen sus mismos canales, aunque al coste de utilizar más frecuencias. En definitiva, con este concepto los ingenieros de radio disponen de una herramienta que, a partir del dato de la relación señal útil/interferencia que admite la tecnología a desplegar, permite deducir el patrón de despliegue de los canales. Otro concepto clave aparecido en esta etapa es el del traspaso (handover o hand-off), técnica que hace referencia al procedimiento para transferir la conexión abierta entre una estación base y un terminal móvil que se está alejando de ella, hasta otra estación hacia cuya cobertura se acerca el móvil en su desplazamiento. Asimismo, el interés de los países escandinavos por permitir a sus usuarios acceder al servicio en todos ellos hizo que se desarrollara la solución a la cuestión de la itinerancia (roaming) de terminales móviles fuera de su red de abono, que permite disfrutar del servicio en redes visitadas. Génesis del GSM Naturalmente, el estado del arte no permaneció inalterado durante todo este periodo, especialmente en lo relativo a la electrónica y la capacidad de procesamiento de los dispositivos, de manera que a lo largo de la década de 1980 se hizo técnica y económicamente viable la digitalización de la información, seña de identidad de los sistemas móviles de segunda generación (2G). También se hizo posible recurrir a nuevas técnicas de acceso múltiple. Estas técnicas son las que proporcionan la manera de conseguir la existencia simultánea de varias comunicaciones en una misma célula, sin perjudicarse unas a otras. En la primera generación esto se hacía por medio del acceso múltiple por división en frecuencia (FDMA, Frequency Division Multiple Access), conforme al cual cada transmisión se hace en una frecuencia diferente. Posteriormente, en recepción, son los filtros los que se encargan de seleccionar la frecuencia correspondiente a la conexión específica, eliminando las señales de las transmisiones ajenas. Este método es sencillo pero poco eficiente; las frecuencias han de separarse por una banda de guarda para que los filtros puedan discriminarlas, lo que implica una cierta pérdida de espectro; sin contar con que, al ser las frecuencias un bien escaso y costoso, no resulta una técnica escalable cuando los sistemas crecen. Una alternativa que se hizo accesible para la siguiente generación fue el acceso múltiple por división en tiempo (TDMA, Time Division Multiple Access). TDMA se basa en el establecimiento de un turno de palabra rotatorio, en el que se definen varias ventanas de tiempo (time slots). Cada ventana es una transmisión, de manera que, cuando llega su momento, es cuando puede tener lugar esa y solo esa transmisión; de esta forma se asegura que ninguna transmisión interfiera con las demás, ya que ninguna puede coincidir en el tiempo con las otras. Ahora, lo que hay que hacer en recepción es abrir la escucha solo durante la ventana correspondiente. Por otro lado, si cada una de las transmisiones requiere una velocidad de transmisión de V kbps y existen n ventanas dentro del turno, esto supone que la velocidad dentro de cada turno habrá de ser de n ×V kbps, dado que cada transmisión solo utiliza 1/n de todo el tiempo total. Esta técnica es la que se seleccionó como base del sistema móvil de la siguiente generación en Europa: el GSM. GSM es el acrónimo de Groupe Spécial Mobile, constituido en 1982 en el seno de la CEPT (Conferencia Europea de Administraciones Postales y de Telecomunicaciones) para especificar el que sería el sistema sobre el que se asentaría el servicio móvil en Europa. Su gestación comenzó en un mundo donde los servicios de telecomunicación todavía se prestaban por medio de organismos administrativos o de empresas estatales, designadas comúnmente por las siglas PTT (Post, Telegraph and Telephone), muy sugerente del entorno estatalizado y monopolístico de la época, que paulatinamente dio paso a otro muy diferente, donde las opera153 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española doras entraron en una dinámica de privatización más o menos rápida, y los servicios (entre ellos el móvil) en otra de prestación en competencia. Un claro ejemplo de ello es que la responsabilidad de la especificación terminó pasando en 1989, de la CEPT a manos del ETSI (European Telecommunications Standardisation Institute), una entidad regida, no ya exclusivamente por las administraciones, sino por todos los actores del sector de las telecomunicaciones europeas (fabricantes, operadores, administraciones) sin más privilegios que los que confiere la cuota de socio. Telefónica en concreto fue miembro fundador del ETSI, en el que participa activamente, y en el que posee el máximo posible de poder de voto para un miembro, ya que satisface la cuota máxima de afiliación. Estos orígenes de la norma, enraizados en un entorno donde los operadores se encontraban en una posición de monopolio o de virtual oligopolio, motivaron que el proceso de normalización estuviese dirigido en gran medida por los operadores, que, merced a esas condiciones, disponían de amplios recursos técnicos y económicos para dicha actividad. Uno de los objetivos del GSM era acabar con la situación de fragmentación de sistemas existente en la 1G, donde, solo en Europa, llegó a haber hasta nueve diferentes, todos incompatibles entre sí. El desarrollo de la norma tuvo lugar en varias etapas. La fase I concluyó en 1990 con la especificación de los servicios de voz, mientras que la II se concluyó en 1994 e incluyó los servicios de datos y SMS (Short Message Service). En 1995 se inició la denominada fase II+, en la que se incluyeron mejoras como el GPRS y EDGE, de las que se hablará más adelante. El GSM constituyó un salto disruptivo en el servicio móvil. En primer lugar, por su innovación tecnológica, de la que cabe destacar sobre todo la digitalización. Esta posibilidad quedó al alcance de los ingenieros gracias al avance del estado del arte, en especial por las mejoras en la capacidad de procesamiento. Un avance que permite ventajas sustanciales, derivadas del hecho de que ahora la señal a transmitir se compone de niveles digitales discretos, apta para ser procesada 154 de diferentes maneras. Por ejemplo, para incorporar técnicas de detección y corrección de errores, que suponen una mayor robustez del sistema frente a ruidos, interferencias y desvanecimientos, lo que al final redunda en menores clusters que los sistemas analógicos, y por tanto en una mayor eficiencia en el uso de las frecuencias. Además, la digitalización consigue que la señal a transmitir ocupe menos ancho de banda, por cuanto hace posible su posterior procesamiento para eliminar redundancias, lo que abunda en la cuestión de la eficiencia espectral. Y finalmente, también permite procesar la señal para encriptarla, o lo que es lo mismo, protegerla frente a accesos no autorizados. Algo de lo que se carecía en la 1G, donde era fácil demodular la señal ajena; de hecho, muchos fabricantes regalaban con los terminales un conjunto de pegatinas para poner en el coche, en las que se contenían textos del tipo: recuerde que su conversación puede ser escuchada. En definitiva, con el GSM se gana en eficiencia y seguridad. Sin embargo, los cambios aportados por el GSM no se quedan únicamente en el plano tecnológico, sino que afectan a la forma de entender el servicio móvil, en una manera que tiene mucho que ver con la forma en que se desplegó. Esta, en su fase inicial, tuvo lugar en la banda de 900 MHz, que fue la atribuida al servicio de radiotelefonía digital en Europa. Sin embargo la Comisión Europea fue un paso más allá y exigió, mediante una Directiva (87/372/CEE, de 25 de junio de 1987), que en la Comunidad Europea dicho servicio se satisficiera por medio de la tecnología GSM. El resultado fue que paulatinamente la zona UE (Unión Europea) se vio salpicada de redes GSM. Redes que establecieron acuerdos de itinerancia entre ellas, de suerte que sus abonados se encontraron en disposición de acceder al servicio no solo cuando se encontraban en el país de su red de abono, sino también cuando viajaban a otros en los que hubiera redes con acuerdos de este tipo. De hecho, los principales operadores del momento (13 de 15 países) firmaron en 1987 el denominado “acuerdo de colaboración” o MoU (Memorandum of Understanding) GSM, para proporcionar un marco en el que gestionar y facilitar los acuerdos de itinerancia, así como para enviar La telefonía móvil o el triunfo de la normalización una señal clara a la industria manufacturera de equipos (tanto de terminales como de red) sobre el compromiso de estas empresas para desplegar la tecnología. Posteriormente, en 1995, el MoU GSM se convirtió en la Asociación GSM (GSM-A). De esta manera la oferta del servicio pasó de la mayoritariamente nacional de la primera generación (salvo en casos regionales como el de los países escandinavos), a una más y más multinacional. Y todo ello sobre una misma norma, en contraposición al puzle de sistemas de la primera generación. Telefonía móvil (millones de líneas) 60 50 40 30 20 10 El resultado de un escenario como el descrito fue un círculo virtuoso, en el que la amplitud del mercado permitió unas economías de escala cada vez mayores, con el consiguiente abaratamiento paulatino de los terminales y de las tarifas, lo que a su vez estimuló una mayor demanda y un mayor mercado. Abonarse a una red GSM suponía de hecho mucho más que disfrutar del servicio móvil en un país determinado: implicaba unirse a un club con cobertura cada vez mayor, en un conjunto de países cada vez más amplio. Un círculo cuyo radio se fue extendiendo, de manera que EEUU también se sumó a los despliegues GSM. Ejemplo de ello son los más de 4.500 millones de terminales y más de 800 operadores móviles en 219 países del mundo que existen hoy en día. Asia, en cambio, permaneció separada con su propia norma. La figura 1 muestra el efecto del GSM en el número de clientes de telefonía móvil en España1, que registra un incremento notable a partir de 1999. Una de las conclusiones que el sector extrajo del caso del GSM fue la de la posibilidad y las ventajas de cierta colaboración entre competidores, en unos términos en los que no se vulnere el libre mercado, pero al mismo tiempo se facilite el éxito comercial del servicio. Por un lado, colaborando en definir, mantener y enriquecer una norma común, que permita economías de escala a los fabricantes, especialmente a los de terminales móviles, sujetos siempre a la pesadilla de 1 0 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 Fuente: CMT. Figura 1. Número de clientes de telefonía móvil automática en España producir equipos obligados a soportar una multiplicidad de sistemas; una economía de escala que también beneficia a los operadores, que tienen en la norma un facilitador para la extensión de un mismo servicio a lo largo de la geografía internacional, por cuanto es mucho más fácil conseguirlo cuando las redes que se despliegan responden a una norma común. Estas ventajas exceden con mucho los costes de elaboración y mantenimiento de la norma (que, aparte de los viajes y reuniones, para los fabricantes son comunes al caso de un desarrollo propietario, como las pruebas en laboratorio, estudios previos, elaboración de documentación, etc.) o el hipotético ahorro que para los operadores podría representar la adopción de sistemas propietarios, desarrollados por uno o varios fabricantes, sin tener que aportar esfuerzo por su parte pero siempre expuestos a una implantación restringida o un eventual fracaso frente a otros sistemas propietarios. Y por otro lado, existen también ventajas en colaborar para alcanzar acuerdos de itinerancia (roaming) mediante los cuales ofrecer a los abonados un plus de acceso al servicio en un grupo francamente amplio de países. CMT. Informe anual 2009. 155 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Aportaciones principales del GSM Una cuestión que merece ser mencionada es que el GSM sienta las bases de la arquitectura sobre la que se apoyará la siguiente generación, si bien, como se verá en el punto siguiente, será en las postrimerías de la tercera generación cuando se introduzcan cambios fundamentales. En esta arquitectura GSM, ilustrada en la figura 2, la red se compone de tres grandes bloques: • Los terminales móviles. • La Red de Acceso Radio o RAN (Radio Access Network). • El núcleo de red o CN (Core Network). La misión de la RAN es servir de interfaz entre los terminales móviles y el núcleo de red, mientras que este último encamina la información recibida/enviada desde/hacia la RAN hacia/desde otras redes (por ejemplo, la red telefónica, Internet u otras redes celulares) u otras partes de la RAN. Figura 2. Arquitectura del sistema GSM 156 La Red de acceso radio incluye las denominadas estaciones de base o BTS (Base Transceiver Station), que dialogan con los terminales móviles pero no se conectan directamente al núcleo de red, sino que lo hacen por la mediación de los denominados controladores de estaciones de base, que en la norma GSM reciben el nombre de BSC (Base Station Controller). Estos equipos tienen el doble papel de controlar y de gestionar diferentes procesos ligados al conjunto de BTS bajo su cargo (por ejemplo, el traspaso entre células que dependan exclusivamente de su grupo de estaciones de base), así como de concentrar/repartir el tráfico dirigido a/proveniente del núcleo de red. Dentro del núcleo de red existen dos dominios: de circuitos y de paquetes. El dominio de circuitos se compone de centrales de conmutación de circuitos con funciones específicas de los sistemas móviles, denominadas MSC (Mobile Switching Centre), mientras que el de paquetes lo integran nodos de conmutación de paquetes denominados GSN (GPRS Service Node). Como fácilmente puede intuirse, la voz discurre por el domino de circuitos y los datos por el de paquetes. Adicionalmente, el núcleo incluye una serie de bases de datos que el sistema requiere para funcionar (por ejemplo, un registro de los usuarios abonados a la red que se encuentran bajo cobertura de la misma u otro de los de redes ajenas que están temporalmente en situación de itinerancia), así como diversas plataformas de servicios, si bien se va imponiendo la tendencia a que las mismas se sitúen fuera de la red móvil. Al hilo de esta arquitectura, y aunque aparecerá más tarde (en la época de la 3G), es interesante señalar el concepto de OMV u Operador Móvil Virtual. Se trata de un operador que no dispone de red de acceso radio, pero sí de toda la infraestructura restante, o al menos de parte de ella, de manera que alquila a un operador con infraestructura aquella de la que carece. En España el regulador abrió esta posibilidad mediante la orden CTE/601/2002 de la Secretaría de Estado de Telecomunicaciones, si bien no fue hasta 2006 cuando aparecieron las primeras ofertas comerciales basadas en OMV. En la La telefonía móvil o el triunfo de la normalización figura 2 puede apreciarse que un OMV no dispondría de ninguno de los elementos de la RAN y tampoco los del núcleo de red, al menos, no todos (por ejemplo, sólo dispondría de las bases de datos, pero no de los nodos, o carecería de ambos). Finalmente, hay una seña de identidad del GSM de la que resulta obligado dejar constancia: la personalización de los terminales. Desde el principio esta fue una opción elegida en la norma, que consiste en el hecho de que se separa el terminal, el equipo en sí, del usuario, de suerte que no es sino a través de la inserción en aquel del denominado módulo SIM (Subscriber Identity Module), como el usuario personaliza el terminal como suyo. Esta es una posibilidad que no se encuentra en sistemas de la misma generación, como por ejemplo el IS-95 estadounidense, y que da más flexibilidad al servicio, al no ligarlo con el terminal. Evolución del GSM: GPRS y EDGE Superada la fase inicial de despliegue de redes e implantación del servicio en cada vez más capas de la sociedad, operadores y fabricantes se dedicaron a una labor de constante mejora y enriquecimiento de la norma, aprovechando el nuevo entorno que brindaba el ETSI. Una norma abierta y libre, por el que nadie había de pagar para su utilización e implementación, ni tampoco por su acceso, limitado solamente por la capacidad de acarrear y almacenar la gran cantidad de papel asociada al mismo (todavía no existían ni la Internet ni las versiones en red). En este sentido, es preciso señalar que lo que hizo el ETSI fue, por un lado, tratar de adecuar la norma a las exigencias de la sociedad y de los usuarios, que, una vez accedieron al servicio GSM, fueron demandando más calidad, capacidad (sobre todo en datos) y cobertura, y menores tarifas, así como que el servicio vocal se fuera pareciendo lo más posible al de la telefonía fija (con los mismos servicios suplementarios, de red inteligente, etc.). Y, por otro lado, ir mejorándolo para lograr una operación más eficiente y escalable a medida que su éxito iba creciendo. Sin embargo, una idea debe de quedar clara: el germen, el nacimiento del GSM, no reside en una demanda de la sociedad, sino en una iniciativa del sector, que, conocedor de las nuevas posibilidades tecnológicas (digitalización, procesamiento, miniaturización…) apuesta por desarrollar y ofrecer a la sociedad un nuevo sistema. Es lo que se puede resumir en la frase atribuida a Henry Ford: “Si hubiese preguntado a la gente por lo que quería, me habrían contestado que caballos más rápidos”. La lista de elementos que fueron engrosando la norma es demasiado prolija para enumerarla aquí, amén de que la aceptación de que gozó cada uno de ellos fue desigual. Por ello, solo se incluirán un par de ejemplos relevantes. En cualquier caso, antes de hacerlo merece la pena recalcar la dinámica de progreso de la norma GSM: se parte de una versión inicial y luego se van generando versiones con adiciones y mejoras (sistemas que en la prensa se suelen designar como los “decimales” de la generación, por ejemplo, la 2.5 G), hasta un punto en que la norma ya no da más de sí y es preciso pasar a uno nuevo. Esta dinámica es la que de hecho va a seguirse en la siguiente generación, como se verá más adelante, y la que previsiblemente se seguirá en las futuras. • GRPS. A la hora de seleccionar algunas de las mejoras más significativas del GSM, probablemente la que debe figurar en primer lugar es el GPRS (General Packet Radio Service). Su inclusión respondió al intento de enmendar una carencia de las versiones primeras del GSM: su orientación a la voz. Esta circunstancia se tradujo en una escasa capacidad para la transmisión de datos (el servicio inicial de datos contemplaba tan solo una velocidad de 9,6 kbps) y, lo que es peor, soportada mediante el modo circuito de transmisión. Un modo en el que, como su nombre indica, cuando se abre una conexión se establece un circuito entre emisor y receptor en tanto que ambos extremos decidan mantener viva la conexión, de suerte que la tarificación se hace por el tiempo que el circuito está reservado. Dadas las condiciones técnicas de aquel entonces (la voz sobre paquetes no era posible), esto era casi obligado para 157 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española la voz al objeto de conseguir la inmediatez de transmisión que requiere dicho servicio; pero en el caso de los datos era una forma muy onerosa de funcionar: el usuario pagaba por todo el tiempo que el circuito estaba disponible, normalmente bastante superior al tiempo durante el que lo utilizaba (piénsese por ejemplo en alguien que se conecta para bajarse el correo, lo lee, escribe varios correos y luego los envía), y a su vez el operador se veía imposibilitado de aprovechar esos recursos durante los intervalos de inactividad. Para resolver este problema se especificó el modo paquete (GPRS), gracias al cual se hizo posible utilizar los recursos solo cuando eran necesarios, liberándolos para otras transmisiones cuando no eran requeridos. Con ello también se accedió a un nuevo esquema tarifario, basado en los volúmenes de información transmitidos en lugar del tiempo de establecimiento de la conexión, ya que ahora no había un circuito (recursos cautivos) ligado a la misma. LOS DATOS Y LA GLOBALIZACIÓN: LA TERCERA GENERACIÓN (3G) Una conclusión que es fácil extraer de la historia del GSM descrita en el punto anterior, es que se trata de un sistema pensado originariamente para el servicio de voz, que posteriormente evolucionó hacia una mayor prestación de servicios de datos (modo paquete, mayores velocidades…). Una estrategia que le permitió responder durante un tiempo a la demanda creciente de servicios de datos en movilidad, pero que venía limitada por el propio diseño del sistema; de forma que, tarde o temprano, se haría necesario el salto hacia una nueva generación de redes, dotadas “de serie” con servicios de transmisión de datos suficientemente potentes. Esta fue básicamente la motivación de la siguiente generación de sistemas móviles, la tercera (3G). Génesis de la 3G: IMT-2000 y espectro asociado • EDGE. Otra de las características iniciales del GSM que se reveló como una carencia, el tope de velocidad de datos, también fue objeto de varios cambios en la norma. Uno de ellos el denominado EDGE (Enhanced Data rates for GSM Evolution), que supuso el paso de métodos de modulación binarios, donde los niveles discretos de la señal digital moduladora son dos (1 y 0), a otros multinivel o de varios niveles (siempre una potencia de 2, de manera que con 2 n niveles la velocidad se multiplica por n con respecto a un régimen binario, puesto que con cada nivel es posible designar n bits). Con ello se consiguió elevar las velocidades del sistema, aunque solo para canales radio con calidad suficiente, puesto que un inconveniente de las modulaciones multinivel para casi todos los métodos de modulación (y este era el caso del usado en el GSM) es que, a mayor número de niveles, mayor vulnerabilidad al ruido (el rango de variación de la señal digital se fragmenta en más escalones, más cercanos entre ellos, y por tanto sujetos a errores en la recepción con menor cantidad de ruido que en el caso binario). 158 La gestación de la 3G presentó varios rasgos netamente diferenciales. Uno de ellos, la definición de sus líneas maestras con carácter global dentro de un organismo de rango mundial. En efecto, si se repasa el punto anterior, se concluye que el GSM fue una iniciativa regional (europea), diseñada primero en la CEPT y luego en el ETSI, de manera que sus capacidades y principales rasgos definitorios fueron establecidos en el seno de estas organizaciones regionales. Otros sistemas parejos en otras partes del mundo (EEUU, Asia…) se definieron mediante procesos parecidos, dentro de sus respectivas organizaciones territoriales. En el caso de la 3G, se decidió dar un salto e intentar definir el marco general de esta nueva generación en un organismo como la UIT (Unión Internacional de Telecomunicaciones), un organismo de las Naciones Unidas especializado en las telecomunicaciones. Dicho marco tomó la forma de un conjunto de Recomendaciones e Informes. En ellos se contendrían cuestiones como los requisitos mínimos, las bandas de frecuencia candidatas para su despliegue, estudios de compatibilidad con otros La telefonía móvil o el triunfo de la normalización sistemas en dichas bandas, cantidad de espectro necesario, etc. Al concepto así definido se le dio el nombre de IMT-2000 (International Mobile Telecommunications). La cifra 2000 tenía el doble significado de designar la primera banda de frecuencias en la cual se desplegarían estos sistemas (2.000 MHz) y el año en el que debían estar disponibles las Recomendaciones e Informes correspondientes. Nótese que IMT-2000 no se corresponde con un conjunto de especificaciones ni con una tecnología determinada, sino con un marco general en el que pueden entrar y encajar varias tecnologías, especificadas ya por sus correspondientes organizaciones regionales de normalización. Pero, más allá de esta diferencia, se introdujo otra de no menor calado en la 3G: la selección de las tecnologías aptas para cumplir con el marco IMT-2000 también en un entorno consensuado y global, de nuevo el de la UIT. Así, se estableció un procedimiento para presentar candidaturas de tecnologías radio (entendiendo que, luego, alrededor de ellas se especificaría la red completa), al que seguiría otro de evaluación de las mismas (pero no por la UIT, sino individualmente por aquellos de sus miembros que deseasen hacerlo, bien en solitario, bien en grupo con otros); posteriormente, todos los resultados de la evaluación se sometieron a análisis en la UIT, de forma que, tras una fase de consenso, se terminó seleccionando un grupo de cinco tecnologías basadas en redes terrestres. Una de ellas, el UMTS (Universal Mobile Terrestrial System). En realidad son más tecnologías, puesto que el IMT2000 comprende de hecho dos grupos: el de redes terrestres y por satélite, si bien este capítulo se centra solo en las primeras. En teoría, el proceso está abierto a incorporaciones en cualquier momento, y así ha ocurrido por ejemplo con el grupo del satélite. Sin embargo, en el caso de las redes terrestres el repertorio de tecnologías ha permanecido muy estable hasta 2007, momento en que se añadió Wimax móvil (802.16e) como sexta tecnología IMT-2000. El conjunto de interfaces radio admitidas como parte de IMT-2000 se recoge en la Recomendación M.1457 de la UIT. Como se verá más adelante, en el punto sobre la génesis del UMTS, cada una de estas tecnologías fue propuesta y especificada por un consorcio de organizaciones de normalización o de cooperación industrial. En suma, las líneas anteriores muestran una manera de hacer las cosas sensiblemente diferentes de la 2G, donde aparece un grado de colaboración internacional que no existía anteriormente. Bien porque hay un convencimiento de sus ventajas tras las experiencia del GSM, bien porque, no habiéndolo, existe en cambio un temor a verse fuera de un nuevo caso de éxito como el del GSM. Otro aspecto interesante de la 3G es el hecho de que se apoyó en bandas de frecuencias que la UIT intentó atribuir al servicio móvil con rango mundial. La primera banda, acordada en la Conferencia Mundial de Radio del año 1992, fue la de 2.100 MHz y en este sentido el éxito fue parcial, por cuanto en EEUU la banda ya estaba ocupada en gran medida. Posteriormente, en la Conferencia Mundial del año 2000, se atribuirá la banda de 2.600 MHz como ampliación del sistema. Nótese la antelación en la atribución de las bandas (elaborar las normas y liberar las bandas de otros servicios lleva su tiempo), que son adjudicadas a servicios, no a tecnologías. Sobre este punto merece la pena comentar que de la 2G a la 3G ha variado mucho la forma de gestionar el espectro radio. De un marco rígido, muy reglamentado y denominado en la literatura como de reglamentación y control (command and control), se ha ido pasando a otro flexible, definido por tres ejes: • Neutralidad tecnológica: enfocado a que, una vez decidido qué servicio se atribuye a una banda, no se impongan restricciones a las tecnologías con las que soportar dicho servicio; dicho de otra manera, algo totalmente opuesto a lo que hizo la Comisión Europea con la Directiva GSM: lejos de imponer tal o cual tecnología, ahora lo “políticamente correcto” es no establecer restricciones a ese respecto. Un ejemplo de ello lo constituye el denominado refarming (reorganización) de la banda de 900 MHz. Inicialmente esta banda se ligó en Europa —tal y como se mencionó en el apartado de la 2G— a la tecnología GSM, 159 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española por medio de una Directiva. Sin embargo, recientemente esta Directiva ha sido modificada (Directiva 2009/114/CEE) para abrir el uso de esta misma banda a cualquier tecnología para la que se hayan establecido unos criterios técnicos de coexistencia con el GSM (el UMTS cumple, por cierto, este requisito). • Neutralidad de servicios: un paso más allá. Ahora se trata de dejar abierta la cuestión de para qué utilizar una banda de frecuencias (esto es, a qué servicio atribuirla). Un ejemplo de ello es el denominado dividendo digital, que no es sino la cantidad de espectro que sobra tras digitalizar el servicio de televisión (recuérdese que, tal y como se vio en el caso de la 2G, la digitalización supone la ventaja de una menor ocupación espectral), una porción del cual se ha abierto en Europa para el servicio móvil, además del de radiodifusión. • Mercado secundario: consiste en un marco en el que los agentes con derechos sobre las bandas pueden comerciar entre ellos, abriendo la puerta a que el mercado encauce el uso del espectro hacia la máxima eficiencia. Ello no implica que el regulador sea ajeno a este mecanismo; antes bien, ha de intervenir para garantizar el respeto a ciertas reglas del juego como son la transparencia (a través de un registro público de las transacciones habidas), la evitación de maniobras de acaparamiento (esto es, acumular derechos sin utilizarlos, a la espera de revalorizaciones, lo que va contra la idea del uso eficiente del espectro) y la equidad (evitando, por ejemplo que, quien haya accedido a los derechos en condiciones especialmente favorables, por razones históricas, no consiga beneficios por la venta de los mismos inasequibles a los demás). La idea detrás de toda esta flexibilidad en la gestión del espectro es la de permitir que sea el mercado quien decida la forma en que se utiliza (con qué tecnología, para qué servicio), como agente capaz de maximizar la eficiencia en su uso. El concepto europeo que pretende incorporar estos principios de gestión flexible del espectro se designa por las siglas 160 WAPECS (Wireless Access Policy for Electronic Communications Services), que hace referencia a una política para los sistemas de acceso radio, que en la práctica incorpora los principios antes mencionados. Sobre el asunto de la coexistencia con otros sistemas, es preciso llamar la atención sobre las ventajas que supone para una tecnología ser catalogada como IMT-2000, ya que ello supone que se analizan y establecen los requisitos de coexistencia entre tecnologías IMT-2000 y con otras vecinas en frecuencia. Algo que no es baladí, y que supone que estas tecnologías llevan incorporados “de serie” dichos requisitos. Recuérdese que, por ejemplo, la modificada Directiva GSM, antes citada, abre el uso de la banda de 900 MHz a otras tecnologías diferentes de GSM, pero a condición de que posean unos requisitos de coexistencia con él. Por tanto, ser miembro del club IMT-2000 aporta interesantes ventajas también desde el punto de vista de acceso al espectro. Especificación del UMTS Como se ha dicho, no es a la UIT a quien compete especificar cada una de las tecnologías IMT-2000. Puede pensarse que esto es algo que han de realizar los organismos regionales de normalización. Sin embargo, esto no es del todo cierto debido al carácter global del proceso de normalización de la 3G. En efecto, ocurre que algunas tecnologías IMT-2000 son el resultado de una integración de varias propuestas provenientes de diferentes lugares del mundo; es el caso del UMTS, que al final devino en una fusión de propuestas de Asia y Europa, con colaboraciones de organismos de otras zonas, como EEUU. Ello hizo que la responsabilidad de su especificación inicial y su posterior evolución quedase en manos de un consorcio multinacional de organismos de estandarización, denominado 3GPP (3rd Generation Partnership Project o Proyecto conjunto para la tercera generación), del que formaba parte el ETSI y a través del cual Telefónica participó en dicha especificación, La telefonía móvil o el triunfo de la normalización como parte de su apuesta por UMTS como tecnología IMT2000 a desplegar en sus redes. Es, pues, tarea de este proyecto conjunto la elaboración de las especificaciones detalladas del UMTS (también las del GSM, que adoptaron el nombre de GERAN: GPRS EDGE Radio Access Network). Y como matiz adicional cabe señalar que, a su vez, son las organizaciones miembros del 3GPP las que formalmente publican las normas del UMTS, trasponiendo las especificaciones a su ámbito regional (por ejemplo, el ETSI al europeo) y eventualmente particularizándolas para alguna peculiaridad (como puede ser la interconexión con una red concreta de su región). El 3GPP no es, en cualquier caso, el único proyecto conjunto de especificación nacido al calor de IMT-2000; ya existe otro con el poco original nombre de 3GPP2, enfocado a otra tecnología de la familia, en este caso la CDMA-2000 (Code Division Multiple Access). Por cierto, al hilo de este último nombre, es conveniente decir que, en lo que a UMTS se refiere, la tercera generación supuso el abandono del TDMA y la adopción de una nueva técnica de acceso múltiple: CDMA, adoptada también por otros sistemas IMT-2000, como es el caso del antes mencionado CDMA-2000. En resumidas cuentas, en la técnica CDMA lo que se hace es multiplicar la señal digital en banda base por una de velocidad sensiblemente mayor, con lo que se consigue una señal digital moduladora de bastante más ancho de banda que la de la de banda base, cuya velocidad, lo mismo que la de la secuencia multiplicadora, no se expresa en bps (bits por segundo) sino en cps (chips por segundo). Dado que la señal modulada de radiofrecuencia (RF) que se transmite al aire posee un ancho de banda similar en orden de magnitud al de la señal moduladora, lo que se consigue es que dicho ancho de banda sea mucho mayor que el que se obtendría modulando directamente con la banda base, lo que le confiere interesantes propiedades de inmunidad a los desvanecimientos multitrayecto típicos del canal radio, amén de otras ventajas que no es posible describir aquí en detalle. Cada transmisión se multiplica por una secuencia diferente de la de las otras con las que comparte el espacio radioeléctrico. En recepción se obtiene, tras la demodulación, una suma de señales digitales correspondientes a todas las transmisiones existentes simultáneamente en el aire, dentro de una misma frecuencia. Esta suma se multiplica por la secuencia de la transmisión correspondiente y, merced a las propiedades de las secuencias, en el caso de la transmisión afectada por dicha secuencia se recupera la señal en banda base, mientras que para las restantes se da lugar a una señal muy similar al ruido. Por tanto, en CDMA las otras comunicaciones que comparten las frecuencias con la de interés aportan una cierta cantidad de ruido (o lo que es lo mismo, es una técnica de acceso que no ofrece ortogonalidad perfecta, a diferencia de FDMA o TDMA). Es interesante también mencionar que, a diferencia del GSM, la normalización de UMTS fue un proceso dirigido en su mayor parte por los fabricantes de equipos de red, y no por los operadores. Las razones de ello hay que buscarlas en el cambio de papel que el nuevo escenario de total competencia trajo para los operadores, sometidos a una fuerte presión para el ajuste de los costes en el despliegue y mantenimiento de sus redes, así como para potenciar la comercialización de sus servicios, todo ello en detrimento del protagonismo de la normalización, a la que no podían dedicar ya tanta atención ni recursos como en la época del GSM. En su lugar, los fabricantes, con el incentivo de introducir en la norma sus patentes y desarrollos, retomaron el testigo del liderazgo. Una consecuencia de esta situación ha sido la preponderancia que las cuestiones y las disputas ligadas a los derechos de patente y propiedad intelectual han venido cobrando a partir de la norma UMTS. LA BANDA ANCHA MÓVIL: PRESENTE Y FUTURO El presente de la BAM (Banda Ancha Móvil) pasa, en Europa, por el despliegue de UMTS y su evolución. Actualmente se 161 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española puede decir que en la mayor parte de Europa la tecnología UMTS ha alcanzado una fase de madurez, y que las dudas y el escepticismo sobre su aceptación se han superado. La figura 3 proporciona una idea del momento en el que se encuentra el mercado de los servicios fijos y móviles en el mundo 2. Se aprecia un hito relevante de la telefonía móvil cuando, alrededor del año 2002, superó en penetración a la telefonía fija. Y se observa también cómo en 2008 se produjo el mismo efecto en el caso de las líneas de banda ancha. ancha dan fe asimismo las conclusiones del Informe 2 de la Comisión sobre la banda ancha y el crecimiento digital establecida por la UIT y la UNESCO, donde se citan estimaciones del Banco Mundial 3 sobre el impacto en el PIB de una mejora del 10% en la cobertura de diversos servicios de telecomunicaciones. La figura 4 recoge estas conclusiones gráficamente. En ella puede apreciarse que la banda ancha es, por encima del servicio fijo, móvil e Internet, la que consigue un mayor impacto (del orden de 1,38 puntos del PIB para los países desarrollados). Porcentaje de incremento del PIB por un incremento del 10% en la cobertura de diversos servicios 1,5 Economías con altos ingresos Economías con medios y bajos ingresos 1,0 0,5 0,0 Fijo Móvil Internet Banda ancha Fuente: Report 2. Broadband: A Platform for Progress. International Telecommunication Union (ITU). 2010. Fuente: Global ICT developments, 2000-2010. ICT Statistics. International Telecommunication Union (ITU). 2010. Figura 3. Evolución del mercado TIC en el mundo La pendiente de crecimiento de la telefonía móvil sugiere la proximidad con una fase de madurez, con crecimientos más moderados; en cambio, la de la banda ancha está en sus comienzos, camino seguramente de una pendiente mucho más pronunciada. De la importancia de los servicios de banda 2 Base de datos de indicadores de la UIT, http://www.itu.int/ITU-D/ ict/statistics/index.html. 3 Banco Mundial, citado en el Report 2 de la Broadband Comission de la UIT, http://broadbandcommission.org/outcomes.html. 162 Figura 4. Impacto en el PIB de un incremento del 10% en la cobertura de diversos servicios de telecomunicaciones Como consecuencia de lo expuesto anteriormente, la agenda de los operadores no tiene ya como punto prioritario el despliegue y consolidación de la tecnología, pero sí otras cuestiones de gran calado, como pueda ser la consecución de un modelo de crecimiento que permita acompasar el aumento del tráfico con el de los ingresos. Algo que se producía de forma natural en el caso de la voz (ya que se tarificaba por tiempo de conversación), pero no en el de los datos, donde la influencia del modelo seguido por las redes fijas, basado en tarifas planas, suscita el riesgo de exigir inversiones cada vez mayores en infraestructura de red sin contrapartidas equivalentes en los ingresos. O sea, se ha producido ya un desacoplamiento entre el tráfico y los ingresos, como se La telefonía móvil o el triunfo de la normalización Tráfico Desacoplo tráfico/ingresos Dominio voz Ingresos Dominio datos tiempo Figura 5. Desacoplamiento tráfico-ingresos muestra en la figura 5 4. Sin pretender entrar en consideraciones con respecto a los modelos tarifarios, lo cierto es que desde el punto de vista del despliegue de red, y como parte de la solución a este problema, se plantea el reto de conseguir estrategias y mecanismos de incremento de capacidad y velocidad con los mínimos costes incrementales. En cualquier caso, hay que tener presente que el crecimiento del tráfico no va a venir condicionado solamente por las tarifas. Así, aparecen en la ecuación factores como: • La evolución de los terminales. • Los ecosistemas de aplicaciones desarrollados por terceros. • El aumento en el uso de terminales con altas capacidades multimedia y, en general, de aplicaciones demandantes de servicios de datos (smartphones, por ejemplo). • Las comunicaciones máquina-máquina (M2M). • Las conexiones con redes de sensores (o su incorporación al teléfono móvil). • La prestación de servicios móviles, no ya en la pantalla de los terminales móviles, sino también en la de TV o en la del ordenador. 4 Del libro LTE: Nuevas tendencias en comunicaciones móviles, de Ramón Agustí y otros. Y todo ello sin olvidar una tendencia que ya se apunta actualmente, como es la de los servicios y contenidos en “la nube”, conforme a la cual se avanzaría hacia un nuevo paradigma donde los usuarios no almacenarían ni contenidos ni aplicaciones ni ficheros en sus terminales u ordenadores, sino que dispondrían de ellos en ubicaciones remotas y accesibles a través de conexiones, móviles o fijas, mediante las que podrían recuperar el contenido o disfrutar de los servicios asociados a ellos. Semejante modelo habría de descansar, además de sobre ciertas garantías de confidencialidad y seguridad, sobre conexiones de velocidad y calidad suficientes, lo que incide directamente en la necesidad de soportar un mayor tráfico con velocidades suficientemente altas como para olvidarse del almacenamiento local. Otros desafíos pendientes son, por supuesto, la eficiencia energética y el impacto ambiental; en este último caso, no solo por motivos estéticos, sino también de impacto social, por cuanto la percepción del ciudadano sobre la inocuidad o perjuicio de las emisiones radioeléctricas de estas redes está —se quiera o no— ligada a dicho impacto visual (a mayor impacto, peor percepción). La cuestión es especialmente importante si se tiene en cuenta que la cobertura para el servicio de datos va a requerir de una importante densificación de las redes móviles. Algunas contribuciones a la solución de estos retos vienen de la mano de la evolución de la norma UMTS y del salto a la siguiente generación. En especial en cuanto a las mejoras en la velocidad y a la introducción de nuevas arquitecturas que permitan el soporte de los servicios de datos de una manera más escalable y eficiente. En este sentido cabe preguntarse si estas mejoras son una respuesta a una demanda o son fruto de otras motivaciones. Lo cierto es que puede decirse que la industria (sobre todo los fabricantes) intenta ir por delante de la demanda y anticiparse, diseñando sistemas para una previsible mayor demanda (a veces con excesiva anticipación, como demuestra la fase inicial del UMTS). En el apartado siguiente se hará una semblanza de las mejoras más destacables. 163 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Evolución a corto plazo de la banda ancha móvil en Europa Retomando por el momento la cuestión del presente de la BAM y su evolución, se puede decir que actualmente la mayoría de las redes europeas se encuentran en un estado de aprovechamiento de la norma UMTS, basado en canales de 5 MHz, como forma de crecer en capacidad y velocidad de manera económicamente escalable. De las primeras fases se ha pasado a la paulatina introducción de un primer paquete de mejoras englobado bajo las siglas HSPA (High Speed Packet Access), que incluye diversas mejoras tendentes a proporcionar mayores velocidades; entre ellas, el uso de modulaciones multinivel (en línea con lo que en su momento se hizo en GSM con el EDGE), que en este caso llegan incluso a 16 niveles, lo que supone multiplicar la velocidad por cuatro con respecto a modulaciones binarias (si bien con el matiz de que semejantes aumentos solo se consiguen para enlaces radio de buena calidad, esto es, para radios de cobertura bastante cercanos a la célula o, lo que es lo mismo, para porcentajes bajos de la superficie de las células). HSPA puede desglosarse en mejoras para el enlace descendente, agrupadas bajo las siglas HSDPA (High Speed Downlink Packet Access) y para el ascendente, que en este caso se engloban en las siglas HSUPA (High Speed Uplink Packet Access). Más allá en el horizonte se encuentra otro paquete de mejoras denominado HSPA+, que promete nuevos incrementos de velocidad y reducción de latencias, llegando hasta modulaciones QAM de 64 niveles y el uso opcional de técnicas MIMO (comentadas más extensamente en el apartado “Génesis de la 4G y LTE como antesala de la misma”, al hablar de la evolución a largo plazo de UMTS). HSPA+ puede considerarse como el conjunto de soluciones técnicas que permiten sacar el máximo partido a la norma UMTS conforme a la técnica de acceso CDMA. Esta circunstancia, sin embargo, no es sinónima del hecho de que más allá de UMTS HSPA+ haya forzosamente que dar el salto a la cuarta generación (4G). En efecto, lo que ha hecho el 3GPP para ir más allá del UMTS es precisar lo que ellos definen como la evo164 lución a largo plazo del UMTS (LTE o Long Term Evolution), que no es otra cosa que identificar una nueva interfaz radio, basada en una nueva tecnología de acceso. Se abandona por tanto el CDMA y se pasa a otra solución, en este caso la denominada OFDMA (Orthogonal Frequency Division Access), que es la que utilizan también sistemas como Wimax móvil (802.16e). OFDMA es una suerte de segunda juventud del viejo FDMA, basado en situar cada transmisión en una frecuencia diferente. Solo que ahora lo que se hace es repartir la señal en banda base entre un conjunto de subportadoras. Así, si por ejemplo se desea transmitir una señal digital de 100 Mbps, y se dispone de 100 subportadoras, cada una de ellas se modularía con una señal de 1 Mbps. La ventaja con FDMA consiste en que ya no es necesario separar en exceso las subportadoras debido a que, merced a que sus frecuencias son múltiplos enteros de una misma frecuencia, se consigue que los espectros de todas ellas se puedan situar muy cerca, de tal manera que los máximos de cada una coinciden con los nulos de los de las demás. Esta imbricación ortogonal de los espectros, sin que se interfieran los unos con los otros, es lo que se esconde detrás de la “O” de OFDMA, y es una de sus señas de identidad. De acuerdo con esta manera de organizar las transmisiones, a cada usuario en un momento determinado se le puede asignar un conjunto de subportadoras durante un lapso de tiempo dado, lo que en la jerga de la norma se denomina como chunk (pedazo); por tanto, ahora el sistema goza de dos parámetros para organizar las transmisiones: las subportadoras y las ventanas de tiempo. Génesis de la 4G y LTE como antesala de la misma LTE es por tanto una nueva interfaz radio, un nuevo sistema que, sin embargo, no cabe calificar como de 4G, sino de 3G. De hecho, la UIT lo considera una evolución de la interfaz UMTS de IMT-2000. Los cambios que supone LTE van más La telefonía móvil o el triunfo de la normalización allá del simple incremento de velocidad, ya de por sí importante. De entrada, es una norma capaz de manejar canales sensiblemente mayores o menores que los del UMTS (5 MHz), ya que está pensada tanto para despliegues en zonas donde solo se disponga de retazos de bandas, como para otras donde exista la posibilidad de canales de hasta 20 MHz. Las mayores velocidades se consiguen, obviamente, con estos últimos canales de 20 MHz. Además recurre a las técnicas conocidas como MIMO (Multiple Input Multiple Output), basadas en el establecimiento de varios canales simultáneos mediante varias antenas de emisión y recepción (de ahí el nombre de MIMO). La condición necesaria para sacar partido a esta técnica es la no correlación de las señales de cada una de las antenas, lo que puede exigir cierta separación espacial, algo especialmente problemático en ciertos tipos de terminales móviles de tamaño reducido. Por otro lado, la necesidad de más antenas en las estaciones de base puede suponer, además de un mayor coste de despliegue, un cierto rechazo social a los emplazamientos, dado el carácter tan negativo que las antenas tienen sobre la percepción de los efectos de las emisiones radioeléctricas por una gran parte de la población. De todas las técnicas aportadas por LTE, MIMO es seguramente la más gravosa desde el punto de vista económico, por cuanto obliga a incrementar el número de elementos radiantes en los emplazamientos y los terminales. Aunque LTE se inscribe en el mismo proceso de normalización que el del UMTS, es interesante resaltar que los operadores han adoptado un papel más activo y vigilante, a través de organizaciones regidas exclusivamente por ellos, como es el caso del consorcio NGMN (Next Generation Mobile Networks), destinado a definir los requisitos que los operadores consideran mínimos en las redes móviles de la próxima generación, y a influir en los procesos de normalización con el fin de conseguirlos. Otra iniciativa también importante es la denominada LSTI (LTE SAE Trial Initiative), destinada a coordinar las pruebas y ensayos con la tecnología LTE, para así evitar mensajes confusos sobre el grado de madurez, disponibilidad y capacidades de la tecnología, enviando una señal clara a la industria sobre los progresos habidos en su desarrollo. Asimismo, LTE supone el triunfo de lo que en GSM fue un añadido posterior: el dominio de paquetes. Y ello es así porque la arquitectura LTE supone el siguiente gran salto cualitativo en la arquitectura de los sistemas móviles de la familia 3GPP, donde desaparecen algunos elementos que hasta ahora venían siendo habituales: en concreto los controladores de estaciones de base y el dominio de circuitos. Con LTE toda la información, incluida la vocal, adopta la forma de paquetes de datos y es tratada como tal dentro de un solo dominio, el de paquetes, que constituye el núcleo de red conforme a una nueva arquitectura denominada EPC (Enhanced Packet Core) o en ocasiones también SAE (System Architecture Evolution). Las estaciones de base, que en UMTS tienen el nombre de “nodos B” y en LTE de “e-nodos B” (la “e” es de enhanced) se conectan, por el protocolo IP, entre sí y a una nube conformada por dos tipos de entidades funcionales (que no tienen, por tanto, que corresponder a plataformas físicas): • Entidades de gestión de la movilidad o MME (Mobility Management Entity): son nodos de conmutación de paquetes con capacidades de control e inteligencia relacionada con los procesos ligados de las redes móviles (derivados de la movilidad). • Nodos de anclaje (anchor): constituyen un punto de unión en las conexiones con otras redes, como puedan ser las de versiones anteriores del UMTS o de interfaces no 3GPP, como Wimax móvil, por ejemplo (en realidad, la norma distingue entre unidades de anclaje con redes 3GPP, confiables porque utilizan los mismos procedimientos de seguridad, y unidades de anclaje con redes ajenas al estándar 3GPP). Esta nueva arquitectura simplifica el diseño y se acerca mucho a la de las redes fijas de paquetes, en lo que sin duda constituye un intento por adaptarse a los nuevos escenarios 165 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española de servicio que se avecinan, fuertemente volcados hacia la transmisión de datos. La figura 6 la resume gráficamente. quienes los pierdan fuera de las opciones a desplegar masivamente la 3G (y en su día la 4G), dado que son las frecuencias por debajo de 1 GHz las que, por su mejor radio de cobertura, posibilitan objetivos de despliegue a porcentajes elevados de población y de geografía. ¿Es LTE el final de esta historia, al menos por el momento? Ciertamente no. Y es que se puede dar cuenta ya de los primeros pasos hacia la 4G, que seguirá un esquema muy parecido al de la 3G: • Definición del marco general en la UIT, que ahora toma el nombre de IMT-ADVANCED. • Selección en ella de las tecnologías parte del mismo. • Especificación posterior en los organismos de normalización. Figura 6. Arquitectura EPC del LTE En general, y en España en particular, las redes LTE se desplegarán con canales de 15 o 20 MHz, casi con toda seguridad primero en la banda de 2600 MHz (la de extensión de IMT-2000), y más adelante en la de 1800 MHz (en su día la de extensión de GSM). Con el tiempo también lo harán en las bandas más bajas (800 y 900 MHz), si bien no con canales de 20 MHz. Sobre este último punto es interesante resaltar que, en lo que a oferta de nuevas bandas se refiere, se tiende hacia frecuencias cada vez mayores, por ser donde hay posibilidades de oferta. Piénsese si no en la secuencia temporal desde la banda de 900 MHz: 1.800 (ampliación de GSM), 2.100 (despliegue inicial de UMTS), 2.600 (ampliación de UMTS con LTE) y 3500 MHz (LTE-A). Los casos del refarming de la banda de 900 MHz y del dividendo digital en 800 MHz son excepcionales, y no es previsible que surjan oportunidades como estas, por debajo de 1 GHz, a corto y medio plazo. Son, en definitiva, dos trenes que, de no cogerse, dejarán a 166 La decisión sobre este esquema vino precedida de vivas discusiones en el seno de la UIT, con dos posturas enfrentadas: la de los que pretendían de la UIT un mero papel testimonial, a cargo simplemente del trámite de poner el sello IMT-A en las propuestas que la industria le presentase; y la de los que pretendían continuar en la línea de IMT-2000. Los primeros alegaban que el marco de la 3G era demasiado resistente al cambio, y que en cierto modo hurtaba propuestas innovadoras, mientras que los segundos hacían énfasis en las economías de escala y en el peligro de una excesiva atomización de las tecnologías. Finalmente, y como propuesta de consenso, se retuvo el esquema 3G, si bien haciéndolo más abierto a futuras incorporaciones. Los objetivos globales de esta nueva generación se reflejan gráficamente en el conocido como “diagrama de la camioneta” (van diagram), mostrado en la figura 7 5. Puede observarse en ella los ambiciosos objetivos para IMT-A, que están en torno a los 100 Mbps (para toda la célula) en pleno movimiento (con usuarios moviéndose hasta a 250 km/h), y 1 Gbps en situaciones estáticas. La figura ilustra también (es uno de sus méritos) 5 Elaborada a partir del documento IMT-ADV/1-E de la UIT. La telefonía móvil o el triunfo de la normalización la diferencia con las prestaciones esperables de las evoluciones de los diferentes sistemas IMT-2000, como LTE. En cualquier caso, lo cierto es que, tras la fase de convocatoria, análisis y selección, son solamente dos las tecnologías terrestres seleccionadas: LTE-ADVANCED y WIRELESSMAN-ADVANCED (MAN es el acrónimo de Metropolitan Area Network). La primera es una evolución de LTE (también conocida como la versión 10 de la norma UMTS) bajo tutela del 3GPP, y la segunda una evolución de Wimax móvil, designada también como 802.16m, elaborada por el Fuente: reelaboración a partir de la figura de la ITU. IEEE (Institute of Electrical and Electronics Figura 7. Diagrama de la camioneta sobre objetivos globales de IMT-A Engineers). Si se compara con los comienzos de la 3G, cuando fueron cinco las tecnologías terrestres, se aprecia que pese a todo ha primado el al lanzamiento comercial. Todo ello podría muy bien situar pragmatismo de intentar reducir las opciones y apostar por la aparición de los primeros sistemas comerciales 4G en el tecnologías con cierto recorrido previo. El tiempo dirá si a año 2015 como pronto. En este sentido es preciso decir que estas dos se le añadirá alguna más o si al final quedará una el espectro ya está listo, puesto que en la Conferencia Munsola. Lo cierto es que, hoy por hoy, la superioridad en desdial de Radio de 2007, la UIT identificó la banda de 3.500 pliegues del UMTS+LTE es abrumadora frente a la de Wimax MHz para este tipo de servicios (sin contar con que, merced móvil, si se tienen en cuenta los datos que ofrece la GSM-A al principio de neutralidad tecnológica, será posible en su en su página web (www.gsacom.com), que cifran las susmomento migrar las tecnologías existentes en otras bandas cripciones mundiales de GSM+UMTS en el 89,7% del total, del servicio móvil hacia IMT-A). con cerca de 4,45 millardos de abonados en todo el mundo, ostentando los sistemas UMTS cerca del 75% del mercado A modo de resumen final, la tabla 1 muestra las diferentes cade 3G en el mundo, de los que cerca del 99% han introdupacidades ofrecidas por el GSM, UMTS y LTE conforme a cido ya el paquete de mejoras HSPA. una evaluación realizada por el 3GPP y Telefónica O2, incluida en el documento del UMTS FORUM “Recognising the LTE-A es, por tanto, la última criatura derivada de la línea promise of Mobile Broadband”. Se incluyen también los obevolutiva iniciada en su día por el GSM. Es el punto donde jetivos previstos para IMT-ADVANCED, y LTE-A, todavía por se tiene que finalizar esta historia, puesto que más allá no es confirmar. Asimismo, otras interesantes novedades que se posible vislumbrar lo que deparará el sector. El calendario espretenda que incluya LTE-A son los canales de… ¡100 MHz!, tablecido por la UIT fija 2011 como el año objetivo para la la radio cognitiva (la posibilidad de utilizar dispositivos que disponibilidad de las Recomendaciones e Informes IMT-ADsean capaces de detectar bandas de frecuencia inactivas y VANCED. A partir de aquí habría que desarrollar las especiutilizarlas, abandonándolas en cuanto adviertan que los ficaciones, desarrollar los equipos, hacer pruebas y proceder usuarios con prioridad desean usarlas) o el uso de unidades 167 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Tabla 1. Valores significativos de las principales tecnologías 2G-3G y 4G Tecnología 2G 3G GSM/GPRS EDGE (MC-9) Ancho de banda de la portadora Velocidad de pico Velocidad de pico en el enlace (UL) en el enlace (DL) ascendente descendente Latencia Espectro (MHz) Eficiencia espectral de pico (bit/s/Hz) 200 kHz 58 kbit/s 118 kbit/s 114 kbit/s 236 kbit/s 500 ms 300 ms 900/1.800 0,17 0,33 EDGE W-CDMA 5 MHz 384 kbit/s 384 kbit/s (2 Mbit/s) 250 ms 900/1.800 2.100/2.600 0,51 HSPA 5 MHz 5,7 Mbit/s 14 Mbit/s 70 ms 800/900 2.100/2.600 2,88 HSPA+ (16QAM) (64QAM+Dual) 5 MHz 11,5 Mbit/s 28 Mbit/s (42 Mbit/s) 30 ms 800/900 2.100/2.600 12,5 LTE (Rel. 8) (2x2 MIMO) Variable 20 MHz 75 Mbit/s a 20 MHz 150 Mbit/s a 20 MHz 10 ms 800/900/1.800 2.100/2.600 16,32 WiMax 802. 11e 10 MHz 70 Mbits/s 70 Mbit/s 134 Mbit/s 50 ms 2.600/3.500 3,7 LTE - Advanced Variable 100 MHz >500 Mbit/s 1 Gbit/s <5 ms IMT DL > 30 UL > 15 IMT - Advanced Variable 100 MHz 270 Mbit/s 675 Mbit/s 600 Mbit/s 1,5 Gbit/s <10 ms IMT DL > 30 UL > 6,75 4G Fuente: 3GPP/O2. repetidoras, pensadas para expandir la cobertura en pequeños radios. Aunque posiblemente es algo que se deduce implícitamente de todo lo anterior, es interesante señalar la confluencia de diferentes tecnologías en los sistemas móviles. Las tecnologías electrónicas (miniaturización, visualización, semiconductores…), muy ligadas a los terminales móviles, y las de procesamiento, que entran también en los elementos de red, permitiendo plataformas más potentes y el uso de 168 nuevos métodos y soluciones inicialmente planteados a nivel teórico (digitalización, conmutación de paquetes, acceso múltiple TDMA, CDMA…). Las tecnologías de red, como pueda ser el modo paquete, y más específicamente el mundo IP, que las redes móviles han ido abrazando poco a poco hasta integrarlo y asumirlo en su arquitectura de futuro, de suerte que, junto con las mejoras de procesamiento, se hace posible finalmente soportar mediante paquetes incluso los servicios con fuertes requisitos de interactividad e inmediatez como la voz. La telefonía móvil o el triunfo de la normalización Las tecnologías de transmisión, que, como la fibra óptica hoy día, permiten conectar las estaciones de base con las velocidades y capacidades requeridas por las mayores capacidades de las interfaces radio. Las tecnologías radio, mediante las cuales es posible conseguir un aprovechamiento más eficiente del espectro (mayor eficiencia espectral) así como mayores velocidades y capacidades. Quizá, de todas estas tecnologías, las que atañen a los terminales móviles sean aquellas que pasan más desapercibidas en este tipo de trabajos, posiblemente porque se tiende a hacer más énfasis en la infraestructura de red. Pero lo cierto es que los terminales son uno de los componentes de la cadena que han experimentado una transformación que, en muchos aspectos, podría calificarse de espectacular. No solo en el ámbito del tamaño, donde el grado de miniaturización es ciertamente notable, sino también en el del procesamiento, de suerte que la potencia de los procesadores converge cada vez más con la de los ordenadores y las consolas de videojuegos, haciendo que sea difícil trazar ya la frontera entre ciertos terminales y los ordenadores. En general, puede decirse que los terminales han ido evolucionando conforme lo han hecho las redes, creciendo en potencia y capacidad de almacenamiento, pero al mismo tiempo aprovechando este crecimiento para alojar otras funciones que enriquecen su utilidad. Existe, no obstante, una asignatura pendiente: la vida de la batería, como bien saben actualmente los usuarios de servicios móviles de datos a través de terminales. Y es que, en cuanto se hace un uso más o menos intensivo de aquellos, la carga de la batería no supera típicamente las 24 horas. En este sentido, la verdad es que no ha habido mejoras sustanciales desde la aparición, en los años 90, de las baterías de ión-litio, ni parece razonable esperar otras de ese calado en el futuro más inmediato. Por último, y como cierre de este capítulo, quizá lo más pertinente sea terminar con una reflexión en torno a la cuestión de qué es lo que aporta la 4G y su antesala, el LTE. En realidad, si se examina el camino seguido en la normalización no hay más remedio que concluir que se ha adoptado un enfoque opuesto al de la 3G: lo que debía ser una evolución (LTE) del UMTS, es en realidad un salto disruptivo, y lo que debía ser un salto de este tipo (LTE-A), es en realidad una evolución de LTE. Por ello, parece razonable hacerse la pregunta ya desde la irrupción de LTE. A este respecto, se puede concluir que, en el caso de la 4G, se intenta ofrecer unas velocidades y capacidades que permitan un nuevo nivel de servicios que el “tuneado” del UMTS ya no permite, como son los basados en contenidos multimedia, vídeo, alta definición, realidad aumentada o en 3D, telepresencia, juegos interactivos o contenidos remotos en la nube. A título de ejemplo, el Informe 2 de la Comisión UIT-UNESCO sobre la banda ancha estima que, en el ámbito de la sanidad, se necesitan velocidades de 16 Mbps para soportar servicios avanzados con el fin de apoyar la toma de decisiones clínicas; de 70 Mbps o velocidades superiores para consultas clínicas de emergencia por telepresencia; gestión interactiva de imágenes cerebrales en 3D; etc. En su mayoría, todos estos servicios todavía están por aparecer; los potenciales usuarios no los demandan porque en muchos casos no tienen a su disposición las herramientas tecnológicas, y por tanto ni se los imaginan como posibles. Pero eso no evita el hecho de que, en una mayoría de casos, sean la evolución natural de los servicios actualmente disponibles, lo que hace razonable esperar que puedan tener una respuesta favorable. LA IMPORTANCIA DE LA TECNOLOGÍA NORMALIZADA A lo largo de esta descripción sobre la evolución de la telefonía móvil se ha podido vislumbrar la importancia de las normas en ella. Así, del repertorio de sistemas incompatibles que era la primera generación, se pasó al estándar GSM, que devino a su vez en los estándares de tercera generación. Un 169 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española hecho que sin duda mueve a la reflexión acerca del papel de los estándares en el mundo de la empresa, de la tecnología y de la innovación, en particular en el sector de las telecomunicaciones, que es justamente la intención de este último apartado. En este sentido, se puede constatar que estos proporcionan múltiples beneficios: • La adopción de normas en una empresa tiene un efecto positivo en los negocios, ayudando a mejorar los procesos. • La normalización es una actividad de cooperación voluntaria entre industria, consumidores, autoridades públicas y otras partes interesadas en el desarrollo de especificaciones técnicas. La industria utiliza normas para satisfacer las necesidades del mercado con mayores garantías de éxito para ella y para los consumidores, así como para asegurar la aceptación de sus soluciones innovadoras y para facilitar la interoperabilidad. Es interesante señalar que norma no es sinónimo de abierto, ya que en ocasiones el conocimiento detallado de ciertas normas y el acceso a ellas se restringe a determinadas empresas o socios del grupo promotor del mismo. A ese respecto, mientras la industria utiliza cualquier estándar, las autoridades públicas prefieren, o incluso se obligan a utilizar, aquellos que proceden de procesos de elaboración abiertos, transparentes e inclusivos. Además, la referencia a normas y su uso por las autoridades públicas promueve la competitividad de la industria en beneficio de los consumidores. • Las empresas más involucradas en la elaboración de normas alcanzan mayores beneficios a corto y largo plazo en términos de costes y capacidad competitiva que las que no participan. Además, cuando un órgano legislativo requiere una determinada reglamentación técnica, generalmente acude a las normas. Si una compañía ha sido activa en la elaboración de normas, puede adoptarlas antes de que se conviertan en ley, evitando los costes que implicaría una implementación posterior. • Las normas son hoy una parte importante del proceso de transferencia internacional de tecnología, que facilita el progreso de las naciones y se entiende como esencial para la competitividad, de suerte que los resultados de I+D consiguen su máximo valor económico cuando son transferidos a la propia economía global. Así, en el Reino Unido se ha calculado que un 13% del crecimiento de la productividad desde después de la guerra puede ser atribuido a esta diseminación de la tecnología y del conocimiento. Por otro lado, y a pesar de su importancia, la actividad de elaborar normas no está exenta de problemas y limitaciones: • Diversos estudios realizados sobre el impacto económico de la normalización sitúan su contribución al PIB en torno al 25% (un resumen de los resultados de estos estudios puede 170 consultarse en la tabla 7 del documento The economic impact of standardisation: Technological change, standards growth in France. Hakima Miotti. AFNOR. 2009). • Las normas evitan la dependencia de un único suministrador, porque su disponibilidad abre el mercado. El resultado es una mayor oferta y un aumento de competencia entre suministradores. También se obtiene una mayor calidad y fiabilidad de los suministradores que las utilizan. Las normas son también utilizados por las empresas para ejercer presiones hacia la cadena de valor de suministro. • Las normas encauzan la innovación y, por tanto, reducen el riesgo de I+D y sus costes. La ausencia de normas, aunque paradójicamente pueda presentarse como que no restringe la innovación y permite más opciones en el mercado, tiene también ciertos riesgos importantes, como el de convertirla en propietaria o el de que el consumidor tenga mayores probabilidades de apostar por una opción perdedora, al presentársele por regla general un conjunto de opciones mayor que en el caso normalizado, las cuales compiten por sobrevivir dentro de un mercado más fragmentado. No es menos cierto que las normas son una vía La telefonía móvil o el triunfo de la normalización importante para promover la traslación de los resultados de investigación a aplicaciones prácticas. • Puede parecer que los organismos de normalización son lentos, demasiado formales y afectados de una excesiva inercia. Esta es posiblemente la crítica vista desde fuera más que la realizada, y la que señala un problema siempre latente en la normalización: el riesgo de evolucionar hacia un “pensamiento único”, dominado por unos pocos, que excluya las contribuciones innovadoras de otros actores menos significativos y caiga en una cierta rutina y autocomplacencia. • Realmente no es así en el campo de las TIC, donde la elaboración de las normas evoluciona con bastante rapidez si tenemos en cuenta la velocidad con que las innovaciones tecnológicas en este ámbito se suceden. Hay que pensar que un organismo de normalización ha de ser transparente y estar abierto a las opiniones constructivas que le vengan de otras partes interesadas. No obstante, en el campo de las tecnologías que sustentan al servicio móvil, se están tomando medidas para evitar prácticas que limiten la evolución de las tecnologías y el dinamismo para introducir cambios que la rigidez y la lentitud puedan agravar al extenderse estos atributos al mundo de la asignación de las frecuencias, donde también pueden arraigar prácticas que limiten las tecnologías y el dinamismo para introducir cambios. Algo que, como se ha visto en los apartados anteriores, se está tratando de evitar con un marco de gestión flexible del espectro. • Las empresas utilizan las normas para expandir su mercado potencial; sin embargo, también se exponen a una mayor competencia. Al mismo tiempo, la elaboración de dichas normas implica una cierta cooperación con los competidores que, si no se toman medidas, puede degenerar en una estructura monopolística. • Quizás el mayor problema actual en la elaboración de normas consista en el tratamiento de los derechos de propiedad intelectual. El retorno económico para una determinada investigación tecnológica proviene de las patentes esenciales para el sistema desarrollado, que se deberían declarar y comunicar antes de ser incluidas en una determinada norma. Su inclusión debiera suponer la aceptación de la cesión de las mismas en términos razonables y no discriminatorios (FRAND) a los fabricantes que van a desarrollar implementaciones de la misma. Finalmente, resulta indicado señalar la importancia de las normas TIC en la Unión Europea, cuya especificidad deriva de la necesidad de interoperabilidad. Las TIC en Europa constituyen el mayor soporte a la competitividad y representan uno de los sectores industriales claves en el siglo XXI. En 2007, la industria TIC europea movió 670.000 millones de euros y representó el 5% del empleo en Europa. En este contexto, la normalización desempeña un importante papel, especialmente por el carácter transversal de las TIC, presentes en todos los sectores de la economía. La cocina de inducción de Fagor La evolución del electrodoméstico ANTONIO LÓPEZ RUIZ (Baeza, Jaén, 1961) Trabaja en IKERLAN-IK4 y actualmente es Dinamizador del Observatorio Estratégico del Clúster de Electrodomésticos de Euskadi (ACEDE) Ingeniero en Electrónica por Mondragón Unibertsitatea. Ha desarrollado toda su carrera profesional dentro de la Corporación Mondragón. En 1986 ingresó en IKERLAN-IK4 (Centro de Investigaciones Tecnológicas) en calidad de socio. Durante cuatro años fue colaborador científico, ejerciendo como Jefe de Proyectos de Transferencia para empresas como Fagor Electrodomésticos, Copreci, Fagor Electrónica, Mondragón Sistemas, Azkoyen y Telvent. En el año 2000 pasó a ser Jefe de Proyectos de desarrollo de nuevos productos para Fagor Electrodomésticos y, en calidad de tal, ha sido miembro de los equipos de desarrollo de la Red Domótica Fagor y de las aplicaciones Ambient Intelligence para Fagor Electrodomésticos. En la actualidad es Dinamizador del Observatorio Estratégico del Clúster de Electrodomésticos de Euskadi (ACEDE), programa auspiciado por el Gobierno Vasco. La cocina de inducción de Fagor Antonio López Ruiz INTRODUCCIÓN Se tiende a pensar que, para las empresas, la exigencia de innovar es consecuencia de estos tiempos convulsos. Puede creerse que la feroz competencia por sobrevivir es propia de esta era, que solo ahora las compañías han empezado a sentirse particularmente exigidas para conseguir un hueco en el mercado y para mantenerlo. los antes múltiples fabricantes en pocas y grandes corporaciones. En lo que a calidad y diferenciación se refiere, ya en la década de 1970 FED definió la innovación como la línea estratégica a partir de la cual conseguir un objetivo principal: ser referente en su mercado, no limitarse a sobrevivir. Pues bien, esta es la historia de cómo se fraguó el más importante de los logros de FED en lo que a innovación se refiere. Un relato que simplemente narra los hechos, pero que quisiera dejar constancia del entusiasmo y de la visión de cuantos participaron en esta aventura. Nada más lejos de la realidad. No ha habido tiempo en el que el mercado no haya impuesto sus inapelables leyes de competencia: ser el mejor en calidad, innovación, servicio, imagen, distribución y coste. Leyes que son aún más implacables en aquellos sectores que, como el del producto doméstico, deben aunar calidad, diferenciación y precio. UNA TECNOLOGÍA DE INTERÉS En este contexto ha tenido y tiene que pelear Fagor Electrodomésticos (FED a partir de ahora) en un mercado caracterizado por la innovación continua, por la extrema importancia del precio y, en los últimos años, por la concentración de El calentamiento por inducción se ha utilizado desde los años treinta en procesos industriales, más concretamente metalúrgicos, en hornos de fundición, en aplicaciones de calentamiento de vigas previos a la extrusión y la forja, en temples 175 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española superficiales de profundidad extremadamente baja, en revenido y en soldadura, debido a las dos características fundamentales de esta tecnología: localización de gran cantidad de energía en volúmenes pequeños y sencillez en el control de su intensidad. La inducción se basa en el hecho de que determinados materiales, al ser sometidos a campos electromagnéticos, absorben parte de esta energía transformándola en calor. Estos materiales son normalmente metálicos y deben presentar alguna de las siguientes propiedades: • Buena conductividad eléctrica, que posibilite la circulación interna de las llamadas corrientes inducidas o de Foucault (también conocidas como “eddy currents”). • Ferromagnetismo, gracias al cual se produce el fenómeno de la denominada histéresis magnética. Ambos fenómenos permiten la transformación de la energía del campo electromagnético en calor generado internamente en el material. La corriente circulante se mueve en contra de la resistividad del material y genera calor. El campo electromagnético necesario es creado mediante una fuente de corriente de media/alta frecuencia constituida por componentes electrónicos y un sistema inductor. El principio eléctrico es sencillo: una bobina inductora, que obra como primario de un transformador, es recorrida por una corriente alterna. Junto a esta bobina, la pieza metálica a calentar obra como un secundario en cortocircuito, en la cual se induce una corriente de Foucault que crea un flujo opuesto al flujo del primario. Las corrientes inducidas se concentran en la superficie de la pieza, decreciendo su intensidad de la periferia hacia el centro (efecto pelicular o skin, descubierto por Kelvin). Estas corrientes, por efecto Joule, generan un calor proporcional a su intensidad o, lo que es lo mismo, a la del campo magnético inducido. La figura 1 esquematiza este concepto. De esto se deduce que los elementos básicos de un sistema de calentamiento por inducción son el generador de corriente alterna, la bobina inductora, el sistema de control y el material que se pretenda calentar o tratar. Figura 1. Concepto básico de la cocina de inducción 176 La cocina de inducción de Fagor Las aplicaciones industriales antes reseñadas ponían de manifiesto las ventajas de este tipo de calentamiento: • Ausencia de contacto físico. • Generación del calentamiento en el lugar requerido: el calor inducido se puede dirigir con facilidad; se puede calentar un área reducida sin que afecte a las áreas que la circundan. • Bajas perdidas en transferencia calórica; rendimiento superior al 80%. • Rapidez y precisión; el calor se genera directa e instantáneamente dentro de la pieza. • Proceso limpio, no crea polución ni produce emisiones dañinas, gases de escape, humo, fuertes ruidos o contaminación térmica. Por todo esto, no es de extrañar que los fabricantes de electrodomésticos tuviesen la convicción de que esta tecnología sería aplicable al desarrollo de cocinas domésticas. Entre estos fabricantes, FED fue uno de los pioneros. Figura 2. Vapotrón deparó un sistema desproporcionadamente grande y con un alto consumo, ambas cosas motivadas, fundamentalmente, por las características de los vapotrones. En 1975 aparecen los tríodos de Philips (véase la figura 3), concretamente de 1 kW, con los que MU desarrolla un oscilador resonante con un condensador de aceite, con el propósito INMADUREZ Y COMPLEJIDAD Desde principios de los setenta, el departamento técnico de FED tuvo el convencimiento de que tras la inducción “hay un producto”. Se conocían exhaustivamente las propiedades y características de esta tecnología, gracias a los diversos puntos de proceso industrial en los que, en varias de sus plantas productivas, se aplicaba. En 1973 la Universidad de Mondragón (MU a partir de ahora) por iniciativa de una empresa de la zona, diseñó un generador de inducción para soldadura de tubos. Para ello, empleó vapotrones como elementos interruptores con los que controlar qué porcentaje de la onda de corriente alterna llegaba a la bobina. Los vapotrones (véase la figura 2) eran tiratrones de alta potencia conseguidos a partir de válvulas de tres electrodos a las que se había añadido gas a baja presión. Este desarrollo Figura 3. Triodo de los setenta y su diagrama 177 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española de seguir investigando con esta tecnología. El conjunto formado por la bobina, el transformador y el tríodo ocupaba un armario eléctrico convencional. Nuevamente el tamaño y el consumo como grandes limitaciones. FED tiene noticias de estos trabajos de MU y contacta con su departamento de desarrollo con el fin de formar un equipo mixto con el que experimentar en la aplicación de la inducción a la cocción doméstica. Se emplean los primeros tiristores (véase la figura 4) en el desarrollo de los osciladores (el tiristor es un dispositivo rectificador unidireccional con tres terminales, ánodo, cátodo y puerta; si se aplica una corriente en la puerta hacia el cátodo, el tiristor conduce siempre que el ánodo tenga mayor potencial que el cátodo; deja de conducir cuando esta diferencia de potencial se invierte, tras un determinado tiempo llamado de cola o corte, que resulta crítico). Fuente: Vishay (anteriorment International Rectifier®). Figura 4. Tritor de rosca y su esquema A mediados de los setenta los tiristores ofrecían unos tiempos de cola de varios milisegundos, tiempo excesivo que era la causa de que se produjeran cortocircuitos en las fases de conmutación (recuérdese que el semiciclo de la onda de baja tensión es de 10 ms, por lo que tiempos de corte de varios milisegundos invalidaban a estos primeros semiconductores de potencia). En 1976 RCA presentó un tiristor asimétrico muy rápido en el que, al invertirse la corriente, el tiempo de cola era de pocos microsegundos. La expectación que este anuncio 178 generó en FED fue tanta que investigadores y directivos de la compañía y de MU acudieron ese mismo año a la Feria de Componentes de París a hablar con RCA, de quien consiguieron el compromiso de enviarles las notas de aplicación del nuevo semiconductor. Conviene recordar que no existían ni Internet ni el e-mail, y que conseguir los “data sheet” y las notas de aplicación de cualquier componente electrónico nuevo era una tarea ardua y dilatada en el tiempo. Por entonces, la empresa francesa que años más tarde sería Thomson Electromenager también estaba trabajando en esta misma línea. MU tuvo conocimiento de esto gracias a un antiguo alumno que colaboraba en aquel tiempo con el equipo investigador francés, con el que se contactó y acordó una reunión en Marsella, en los laboratorios de Sescosem, a finales de ese año. El equipo francés defendía que era posible desarrollar interruptores automáticos electrónicos con un tiempo de corte de microsegundos, con lo que se podría, por primera vez en la historia, proteger un semiconductor (hasta entonces los semiconductores se quemaban antes que el fusible). Utilizaban transistores como elementos de corte, por lo que el debate se entabló acerca de la conveniencia de sustituir estos por los nuevos tiristores de RCA. Con los transistores se podían desarrollar onduladores con cierta robustez pero de muy baja potencia. Meses más tarde se recibieron las primeras muestras del nuevo tiristor de RCA. Hasta entonces RCA no las había suministrado, presuntamente por no estar el componente suficientemente testado cuando se presentó en París. Así, en 1978, y como consecuencia de estas acciones, FED contrata a MU para desarrollar lo que sería el primer prototipo de placa de cocción por inducción, utilizando los nuevos tiristores de tiempo de cola de microsegundos. Se construyeron dos prototipos de metacrilato de un foco, con la idea de comparar sus virtudes y defectos. Uno de ellos La cocina de inducción de Fagor con el tiristor de rosca de RCA siguiendo las pautas de este fabricante, y el otro a partir de las indicaciones de Sescosem, con un transistor TO3. Las bobinas para ambos prototipos fueron diseñadas y fabricadas artesanalmente por parte de FED al no disponerse de ellas comercialmente. Cada una de ellas se construyó bobinando 20 espiras en forma plana con un mazo de 8 hilos de 0,6 mm de diámetro, con lo que se obtenían bobinas de 19 cm de diámetro exterior y 3 cm de interior. El máximo esfuerzo se aplicó al desarrollo del prototipo basado en el tiristor RCA, pues solo de este podría surgir un producto comercializable por parte de FED. Los esquemas que a continuación se adjuntan (véase la figura 5) son los originales que formaron parte del informe que, al final del proyecto, presentó MU a FED. Este desarrollo se protegió con la primera patente presentada por FED a este respecto, denominada “Sistema de cocción por semiconductores para el calentamiento por inducción de utensilios de cocina”. Figura 6. Inversor, filtros y bloque de alimentación (1978) y del material que se pretenda calentar. Cuando IL llega a cero, el tiristor TH1 se corta y la corriente cambia de sentido, circulando por el diodo D1. TH1 necesita un tiempo (Z) para recuperar su capacidad de bloqueo, alrededor de 5 μs, a partir del cual puede aplicarse un impulso a la puerta de TH2 para que sea este el que conduzca (véase la figura 7). Figura 5. Diagrama de bloques básico del primer desarrollo FED MU Se desarrolló un circuito de potencia o generador de alta frecuencia (véase la figura 6) que, esencialmente, era un inversor serie compuesto por dos tiristores asimétricos (ASCR) y un circuito resonante LC. Antecedía a este circuito un rectificador en puente monofásico y un filtro, en el que C3 filtraba a 50 Hz y L3 con C4 hacían de choque y filtro para minimizar el paso a la red de las perturbaciones de alta frecuencia. Teóricamente el diseño era impecable: si se ceba el tiristor TH1, el condensador C3 se descarga a través de la bobina L3, por la que circula una corriente senoidal cuya frecuencia corresponde a la resonancia del circuito (L4 con C5 y C6), y cuya intensidad depende del factor de calidad Q de la bobina Figura 7. Corrientes del sistema 179 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Mientras el circuito sea capaz de cebar alternativamente y en el momento adecuado a los dos tiristores, respetando sus respectivos tiempos de corte, circulará por la bobina de inducción una corriente alterna cuya frecuencia dependerá del circuito resonante y del retardo Z, parámetro mediante cuya manipulación desde el control se puede regular la potencia suministrada al elemento que debe calentarse. Este módulo de control (véase la figura 8) lee la consigna de potencia dada por el usuario (potenciómetro de seis posiciones) y actúa sobre Z. Como habían previsto los técnicos, surgieron dos problemas que impedían que este diseño pudiera preindustrializarse. • Se producían frecuentes cortocircuitos debido a la escasa calidad que por entonces tenían los semiconductores de potencia. Los tiristores, al calentarse por funcionamiento, variaban considerablemente y sin seguir un patrón el tiempo de corte, produciéndose continuos cortocircuitos cuando se cebaba, por ejemplo, TH2 y aún estaba conduciendo, por esta anomalía, TH1. • Las perturbaciones electromagnéticas que producían la alimentación y el corte de la bobina de calentamiento (L3 en la figura 6) eran de tal magnitud que: a. Afectaban al control de la placa hasta el punto de generar malos funcionamientos. b. Inducían en la red eléctrica unas interferencias muy por encima de lo que permitía la norma entonces vigente al respecto (CENELEC EN 50006). Este segundo problema era, en aquellos momentos, de difícil solución, especialmente en lo concerniente al cumplimiento de la norma EN 50006. Pero lo realmente problemático resultó ser el mal funcionamiento de los tiristores cuando se calentaban. Esto, sencillamente, era irresoluble hasta que no mejorase la tecnología de fabricación de estos semiconductores. Aun así, se construyeron seis prototipos de dos focos (véase la figura 9), constando cada uno de ellos de dos circuitos como los mostrados en las figuras 6 y 7, y con ellos se acudió a la Feria HogarHotel de Barcelona de 1980, en la que se presentaron como una novedad a nivel europeo. Figura 8. Control/driver de inducción (1978) 180 FED era consciente de la imposibilidad de industrializar este desarrollo, pero decidió mostrarlo en dicha feria con el fin de analizar la respuesta del sector profesional. Las demostraciones se hacían con sumo cuidado, intentando no sobrepasar el tiempo de funcionamiento a partir del cual se calentaban los La cocina de inducción de Fagor Figura 9. Detalles de la placa de dos fuegos presentada en HogarHotel (1980) tiristores y se cortocircuitaba el ondulador serie. A pesar de estas prevenciones, los prototipos que formaban el panel de demostración tenían que ser reparados prácticamente a diario. Durante la feria, estas embrionarias placas de inducción fueron presentadas al Secretario General Técnico del Ministerio de Industria (Eduardo Punset). La demostración que contempló consistió en poner un billete de 5.000 pesetas entre el cristal de la placa y el recipiente, en el que se puso agua a hervir. El agua hervía y el billete, ante el asombro general, salía indemne del experimento. Durante el evento quedaron patentes la mejoras que, para cocinar, reportaba esta tecnología, especialmente la rapidez y la sencillez a la hora de limpiarla, lo que hizo que la inducción de FED se convirtiese en la estrella de la feria. Este resultado, vivido como un “experimento comercial” por parte de FED, llevó a la compañía a redoblar esfuerzos para 181 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española resolver los dos problemas tecnológicos que se le planteaban. Desafortunadamente, el primero de ellos siguió siendo irresoluble a lo largo de los dos años que se prolongó el proyecto (hasta 1982) por lo que este se abandonó a la espera de que mejorase la tecnología por la que se obtenían semiconductores de potencia. La empresa perdió interés, pero lo conservó el departamento de I+D, donde de forma latente se siguió llevando a cabo una tarea de prospección acerca de estos semiconductores y de posibles productos de cocción por inducción que pudieran aparecer en el mercado. DESARROLLO DE LOS PRIMEROS PRODUCTOS Y TECNOLOGÍA MADURA En 1987 se retomó el tema con un nuevo proyecto, gracias a los resultados obtenidos en la prospección previa, en la cual se habían localizado unas pequeñas placas de un foco, de baja potencia, japonesas, comercializadas como hervidores de arroz, que empleaban un ondulador resonante paralelo monosemiconductor homopolar. El nuevo proyecto consistió en analizar estos aparatos con la esperanza de que en ellos estuviera la solución al principal problema que lastró el desarrollo de los primeros prototipos. Desafortunadamente, no fue así. En la figura 10 se reproduce parte del informe original referente a este análisis. Estos productos empleaban transistores como semiconductores de potencia. Por entonces, el transistor soportaba como máximo una tensión inversa de unos 500 voltios. Esto era suficiente en Japón ya que la red eléctrica allí era y es de 110 V. Si se rectifican y acoplan a un circuito oscilante, como máximo se genera el doble de tensión continua (teoría de los circuitos oscilantes), así que con un transistor de 500 V de inversa se podían diseñar pequeñas inducciones de entre 600 y 700 watios, suficiente para la aplicación que se les daba, y que en Japón era muy apreciada, como cocedores de arroz. 182 Figura 10. Configuración básica de un inversor homopolar y su esquema funcional Como el comportamiento térmico de estos transistores sí era aceptable, era entendible que en ese país se estuvieran comercializando los tres equipos estudiados. Sin embargo, por necesidades de potencia y por los 220 V imperantes en Europa, esta solución no era aplicable a los desarrollos de FED. Mientras tanto, aparecieron en el mercado GTO mejorados (Gate Turn-off Thyristor: se enciende por un solo pulso de corriente positiva en la terminal puerta o gate, al igual que el tiristor normal, pero en cambio puede ser apagado aplicando un pulso de corriente negativa en la misma puerta; esto supuso una enorme innovación en el mundo de los semiconductores de potencia) comercializados por Philips (véase la figura 11). La cocina de inducción de Fagor Figura 11. Evolución del GTO Como consecuencia de esto, en 1988 FED y MU inician un nuevo proyecto cuyo objetivo es el desarrollo de un prototipo de cocina de inducción monopolar con GTO, en vez de con transistores, toda vez que estos no soportarían la tensión inversa generada por la tensión de red europea. IGBT de 50 A y 600 V, componentes que suponen una auténtica revolución en la historia de los semiconductores en general y en la de los de potencia en particular. Un IGBT (Isolated Gate Bipolar Transistor) generalmente se emplea como interruptor controlado en circuitos de electrónica de potencia. Combina las características de las señales de puerta de los transistores de efecto campo con la capacidad de alta corriente y bajo voltaje de saturación del transistor bipolar, esto es, una puerta aislada FET para la entrada de control y un transistor bipolar como interruptor, en un solo dispositivo. El circuito de excitación del IGBT es el del MOSFET, mientras que las características de conducción son las del BJT (véase la figura 12), lo que depara el primer semiconductor para potencias medias realmente controlable gracias a sus particularidades de conducción, similares a las del transistor bipolar: capacidad de control, escasa deriva térmica y alta tensión inversa; justo lo que se estaba esperando. Se obtuvo un prototipo con un resonante paralelo homopolar, mucho más robusto que los diseños de finales de los setenta y principios de los ochenta, pero con el que solo se obtuvieron 1.000 W de potencia útil, insuficiente para ser comercializado en Europa. Ante esto, se paralizó el proyecto y se reactivó el trabajo de prospección. En 1990 se consiguió una muestra de una cocina de inducción trifásica de una empresa alemana. Trabajaba con 540 V de bus, gracias a lo cual se necesitaban bajas corrientes para conseguir potencias importantes. Utilizaba como principio de funcionamiento el ondistor (resonante serie bipolar) y empleaba GTO. Constaba de dos focos, uno de 1.700 W y otro de 1.200 W. Un solo ondulador alimentaba a los dos focos, lo que reducía considerablemente el coste. La potencia se controlaba mediante una inductancia saturable (principio similar al del amplificador magnético). FED se dio cuenta de que era posible: un ondulador, dos focos, suficiente potencia en ambos; esto es, la antesala de un nuevo producto. En el año 1991, coincidiendo con el anuncio de Philips de que deja de producir GTO, IR (International Rectifier ®) presenta los Fuente: Escuela Superior de Ingenieros de la Universidad de Sevilla. Figura 12. Estructura del IGBT 183 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española La tecnología “tiristor” había sido un enemigo en cuantos desarrollos se habían llevado a cabo hasta entonces. Las derivas térmicas del tiempo de cola; la vulnerabilidad de los terminales “gate” ante cualquier ruido eléctrico o perturbación electromagnética, que devenía continuamente en la conducción de ambos tiristores; y el consiguiente cortocircuito, habían impedido que se alcanzasen los niveles de fiabilidad necesarios para industrializar lo desarrollado. Los IGBT llegaron para resolver estos problemas. FED, con estos nuevos componentes, desarrolló el primer prototipo preindustrializable de placa de inducción, la cual, antes de iniciarse el proceso de industrialización, fue presentada a diversos estamentos de la empresa francesa Thomson Electromenager, con quien unos años antes FED había constituido una empresa de apoyo mutuo llamada TEMFA (curiosamente, años más tarde, en 2006, cuando Thomson Electromenager había pasado a ser Elco Brandt, esta fue adquirida por FED, constituyéndose lo que hoy es FAGOR GROUP). A FED le interesaba la opinión de Thomson, toda vez que esta compañía también estaba desarrollando su propia placa de inducción y que las buenas relaciones entre ambas empresas permitían y favorecían que se compartiera información reservada como era esta. Thomson no suscribió el diseño planteado por FED, alegando que los IGBT eran unos componentes demasiado nuevos que no habían tenido tiempo de demostrar su fiabilidad. En cualquier caso, FED decidió culminar el desarrollo en curso, entre otras cosas al sentirse acuciada porque Balay en España y Orega (Grupo Thomson) en Francia acababan de presentar sendos prototipos de placa de inducción. Se obtuvo el primer prototipo fiable, robusto y, por lo que a funcionalidad se refiere, industrializable, compuesto por dos focos de 1.400 W cada uno, suministrados por un ondulador de 2.800 W, empleando los IGBT de IR, a diferencia de Orega que utilizó transistores de potencia. Se consiguió un importante ahorro de coste al basar el driver de control de los IGBT 184 en el circuito IR2110, lo que permitió prescindir de los complejísimos drivers empleados hasta entonces. Lo más sofisticado de este desarrollo se protegió con la patente “Detector de cazuela para encimera de inducción”, finalmente concedida en 1995. El departamento de Márketing de FED impuso que estas nuevas placas debían instalarse sobre encimera y, preferiblemente, con un horno debajo. Conviene recordar que en los primeros noventa era muy habitual en las casas el montaje de los hornos bajo la encimera de la cocina, a ras de suelo. El prototipo obtenido no permitía esto, por dos razones. La primera, su excesivo tamaño. La segunda y más importante, porque las pérdidas de calor de un horno, cercanas a los 420 W, terminaban por impedir el correcto control de los IGBT, por lo que se producían cortocircuitos. Por lo tanto, y ante el imperativo de Márketing, este modelo no se comercializó. Para resolver esto, se siguió trabajando hasta obtener un prototipo de dos cuerpos. Por un lado, en un módulo se concentraban los onduladores con los IGBT y el control/driver. Por otro, en otro módulo, las bobinas de inducción, el cristal de la placa y la interfaz de usuario (véanse las figuras 13, 14 y 15). Ambos módulos se unían a través de una manguera especial antiperturbaciones. La idea era ubicar, en los hogares, el módulo del ondulador detrás del horno, entre la pared y el suelo, lo que lo protegería de las altas temperaturas que aquel generaba. Esto resolvía el problema, pero originaba otro de precio, al ser extremadamente caro el cable que unía ambos bloques. El modelo empezó a comercializarse a un precio desorbitado para la época, lo que hizo que el interés del mercado fuese mayor que las ventas. Con el propósito de mejorar esta situación, en 1992 se creó un equipo formado por FED, MU e IKERLAN-IK4. Su objetivo fundamental: rediseñar el producto de manera que todos los componentes estuvieran integrados en un único módulo cuyas dimensiones y comportamiento térmico fueran compatibles con su ubicación sobre un horno. Además, debían La cocina de inducción de Fagor Figura 13. Prototipo original del módulo ondulador y cable Figura 14. Componentes del modulo ondulador-control Figura 15. Bobina del módulo encimera reducirse los costes. IKERLAN-IK4 aportaba a este equipo su conocimiento tecnológico y su experiencia en el desarrollo de nuevos productos, llegando hasta la fase de industrialización. zaron y reubicaron los componentes, se analizó cada soldadura, se cuestionó cada cable, etc. En definitiva, se entendió como vital la mejora de cada elemento de la placa. Se mejoró la refrigeración, aunque no lo suficiente como parar soportar las fugas térmicas de los hornos. Se minimi- Disminuyeron las perturbaciones electromagnéticas que generaban los bloques de potencia, gracias a un trabajo más 185 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española cercano al empirismo que al análisis científico, a base de colocar diversas ferritas en diferentes sitios, guiándose los técnicos por el procedimiento de prueba y error. Las bobinas inductoras seguían fabricándose manualmente en FED. En conjunto se redujo sensiblemente el coste pero, aun así, seguía siendo un producto muy caro. En cualquier caso, en 1994 comenzó su comercialización: una placa con dos focos de inducción y dos vitrocerámicos clásicos de infrarrojos (pensando en el gran parque de utensilios de aluminio y barro que aún había en los hogares). Los dos focos infrarrojos se colocaban detrás, para dificultar que se pudieran quemar los niños. Esta fue una excelente decisión de márketing que contribuyó al aumento de las ventas. Este modelo se denominó internamente “2.ª Generación”, y se instalaba en la encimera cuando no había un horno debajo. Cuando sí lo había, se montaba el modelo de dos módulos. Llegados a este punto, en 1994, FED considera que la tecnología está madura y que la compañía tiene un conocimiento amplio sobre la misma y sobre el proceso productivo relacionado con la aplicación de cocción doméstica. También, por primera vez en lo referente a este producto, se consigue la total adhesión al proyecto del departamento de Márketing que, hasta esta fecha, se había mostrado un tanto frío y escéptico. Escepticismo perfectamente comprensible, pues los análisis comerciales realizados evidenciaban las dificultades que, en un principio, se tendrían para mostrar al usuario las ventajas de la inducción y para justificar el importante sobreprecio. Había que explicar muy bien, con el producto apagado en la tienda, cuáles eran estas ventajas, ya que en ese estado resultaban “invisibles” para el usuario, quien básicamente veía una placa en apariencia normal, pero tres o cuatro veces más cara que una vitrocerámica radiante. Habrían de necesitarse años, y entonces esto ya se intuía, para que se generase en el mercado el suficiente conocimiento de la inducción, tarea a la que contribuyó una imagen tan sorprendente como la mostrada en la figura 16. Otro problema o freno de compra venía dado por la necesidad de utilizar recipientes ferríticos. FED arriesgó y resolvió 186 Figura 16. Ejemplo de cómo no se pega la comida en la placa este problema regalando una batería de cocina de su propio catálogo con cada inducción. El éxito de esta iniciativa terminó de cohesionar toda la estructura de la compañía en el empeño común de convertir la cocina de inducción en un producto de alta gama exitoso. ECLOSIÓN Y ÉXITO Llegó un momento en el que nadie dudaba en FED de que, una vez se ajustasen los costes, la placa de inducción sería un rotundo éxito comercial. Se ha llegado a definir como el producto perfecto para una determinada aplicación. Aúna las ventajas del gas (inmediatez, velocidad, baja inercia) y de las vitrocerámicas (seguridad, interfaz de usuario y estética), aportando la más apreciada de las características para una cocina doméstica: la facilidad de limpieza (el cristal permanece frío; no se pega aquello que caiga sobre él; basta pasar una bayeta para eliminar cualquier residuo (véase la figura 16). La cocina de inducción de Fagor Para ratificar este convencimiento, FED presentó el nuevo producto por todo el país, por el método de convocar grupos de consumidores que respondieran a distintos perfiles de entre los proclives a adquirir un electrodoméstico de estas características. El resultado de este proceso fue más que alentador. En 1999, cuando las ventas anuales de la 2.ª Generación alcanzaron las 10.000 unidades (85% en España), comenzó un nuevo proyecto con el recurrente fin de disminuir tamaños y costes y de mejorar la resistencia al calor. Se alcanzaron todos los objetivos, llegándose a lo que se denominó “3.ª Generación”, la cual no llegó a comercializarse. En vez de eso, se inició el desarrollo de la “4.ª Generación”, que debía caracterizarse por la disposición de todos los componentes sobre un único circuito impreso (fuente de alimentación, inversores, control), mejorando así el comportamiento térmico, la generación de EMC y el coste. Cada módulo constaba de dos focos con 2,8 kW por generador, y permitía distintos diámetros en estos, introduciendo el concepto “paellero” (la simultaneidad de dos focos para cubrir recipientes de mayor superficie). cantidades. Su comercialización comenzó en 2004, con unas ventas de 150.000 unidades al año, con un 20% de exportación. Así, FED se erige en el líder absoluto de este sector en España, disponiendo entonces del 45% del mercado, y con la única competencia de BSH. La figura 17 ubica temporalmente y muestra el grado de éxito de cada una de las generaciones de cocinas de inducción desarrolladas por FED. En 2006 FED adquiere la empresa Elco Brandt (Francia), líder mundial en inducción, con una producción de 200.000 inductores al año. Desde entonces, el desarrollo de los nuevos productos y la producción de estos se han centralizado en las plantas de Orleans. Actualmente, Europa es el principal mercado para este producto, con unas ventas anuales superiores al millón y medio de placas y con un valor de mercado cercano a los ochocientos millones de euros. Francia supone el 33% de este mercado, mientras que España representa el 12%. En estos países, respectivamente, FED abarca el 33,90 y el 26,30% de las ventas. Esta generación comenzó a comercializarse en 2002, logrando unas ventas de 50.000 unidades anuales (80% en España). A pesar de seguir siendo un electrodoméstico caro, había alcanzado el estatus de producto de masas. En 2003 comienza el desarrollo de la 5.ª Generación, manteniendo la filosofía de la anterior (todo integrado, reducción de tamaño, componentes y coste) y buscando un aumento de potencia. Se llega hasta los 3,6 kW por ondulador, a repartir entre dos focos, y se reduce el coste, entre otras razones por el aumento de las Figura 17. Desarrollo temporal y grados de éxito 187 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española En Alemania y los Países Bajos la penetración es paulatina, con un crecimiento consistente que deparará próximamente importantes ventas. Grecia y los países del este comienzan a interesarse por el producto. Gran Bretaña, Irlanda e Italia, siendo como son países gasistas, no serán a medio plazo consumidores significativos de cocinas de inducción. Fuera de Europa, China y Japón, sin ser aún mercados consolidados (a excepción de algunos productos como los hervidores de arroz) son los más dinámicos en este sentido y, obviamente, los más atractivos para los fabricantes, más allá de las dificultades administrativas y culturales a las que deben enfrentarse las empresas no nativas. Estados Unidos, Canadá, Australia, Nueva Zelanda y los países asiáticos suficientemente desarrollados, donde la presencia de la inducción es todavía escasa, representan las nuevas oportunidades de expansión. EVOLUCIÓN FUTURA FED dispone de un grupo de investigación de 25 ingenieros centrado exclusivamente en el desarrollo de nuevos productos de inducción. Este grupo se complementa con un equipo de “Inteligencia Competitiva y Vigilancia” compuesto por el departamento de Patentes de FED y por el Observatorio Estratégico del Clúster de Electrodomésticos de Euskadi, auspiciado este último por el Gobierno Vasco. Recientemente, este equipo ha llevado a cabo un trabajo de prospección acerca de la evolución de esta tecnología, indagando para ello en bases de datos de artículos científicos, en diversas oficinas de patentes y en los contenidos de congresos y ferias, del cual se ha concluido que: • Sigue siendo una tecnología con recorrido. Esto es, los principales fabricantes siguen investigando sobre esta tec188 nología con el fin de obtener placas de inducción más versátiles, de mayor potencia, más seguras, más eficientes, de más fácil manejo, más atractivas y, en última instancia, más baratas. • No se vislumbra, a corto y medio plazo, una tecnología que mejore a la inducción y acabe por trivializarla (como la inducción está paulatinamente haciendo con los sistemas vitrocerámicos). Desde este convencimiento, FED trabaja en el desarrollo de nuevas placas de inducción que se caractericen por: • Transmitirle al usuario la sensación de que la placa está activada a una determinada potencia, para lo cual cada foco incorporará una guía de luz. Esto responde al único reproche que ha recibido este producto: que es una potencia invisible. • Mejorar la interfaz de usuario, por lo que se están añadiendo visualizadores LCD. Esto no ha sido posible hasta ahora debido a la incapacidad, ya solventada, del cristal vitrocerámico para dejar pasar otro color que no fuera el rojo. • Ofrecer una mayor potencia. Ya se han conseguido focos de hasta 4,6 kW aplicables a cocinas industriales (restaurantes, comedores de empresa, etc.). • Ser más robustas, especialmente ante el calor. En este sentido, se ha marcado como objetivo que soporten la cercanía de un horno, incluso de un pirolítico. • Ser más baratas, básicamente por la continua racionalización de los sistemas productivos y logísticos. • Funcionar con otro tipo de recipientes, especialmente los de aluminio. Para conseguir esto debe aumentarse considerablemente la frecuencia, lo que de momento encarece bastante el producto final. La cocina de inducción de Fagor La evolución principal, a corto plazo, es la placa de inducción de superficie total. Esto es, una placa en la que toda su superficie pueda generar calor, de forma que cualquier recipiente que se ponga sobre ella, independientemente de su forma y de dónde se ubique, sea detectado y se induzca calor exclusivamente sobre la superficie de contacto. FED acaba de presentar un producto de este tipo, bajo la marca DeDietrich y denominado PIANO, con una evolución tecnológica sustancial: la placa consta de 72 minibobinas, cada una de ellas gobernada por un IGBT. La evolución del electrodoméstico Antonio López Ruiz INTRODUCCIÓN: CAMBIOS SOCIALES Y CULTURALES El mundo occidental actual resulta inconcebible sin electrodomésticos. Están tan asociados a la vida cotidiana que se tiende a creer que han acompañado al hombre desde la noche de los tiempos, como el vestido, el fuego o aquello que en cada época se haya conocido como hogar. En realidad su origen es mucho más reciente. Incluso para detectar una necesidad hace falta haber alcanzado cierto nivel de progreso. Y eso, cierto nivel de progreso, necesitaron las sociedades europea y norteamericana para llegar a la conclusión de que el hogar era un generador de trabajo, de tareas engorrosas, rutinarias y poco gratificantes que sería conveniente erradicar o, al menos, suavizar. A esta percepción contribuyó el advenimiento de la clase media, especialmente tras la Segunda Guerra Mundial, y su conversión en clase dominante. A mediados del siglo XX, quienes componían esa clase media tenían aspiraciones sociales, inquietudes culturales y necesi- dades de clase con las que no casaban bien las tareas cotidianas en el hogar. Por otra parte, gozaban de cierta solvencia económica, pero no de la suficiente como para disponer de servicio doméstico, lo que llevó a la más lógica de las consecuencias: el desarrollo, la comercialización y el éxito de masas de los electrodomésticos. Un éxito que permitió que no solo la clase media los disfrutase, sino que empezaran a ser asequibles para la clase trabajadora propia de las sociedades industriales. Si bien hay que entender que el auténtico beneficiario de esta aparición fue la sociedad en su conjunto, en realidad fueron las mujeres las que, gracias a la masiva difusión de estos aparatos, alcanzaron un nuevo rol social. Hasta los años cincuenta del siglo pasado, incluso en occidente, el papel de la mujer había estado absolutamente supeditado al del hombre, confinada a las tareas domésticas, y totalmente apartada del mercado de trabajo. La llegada de los electrodomésticos ayuda a que esto cambie: la mujer dispone de más tiempo para sí misma que, entre otras cosas, dedica a tomar conciencia de su papel en la sociedad. Se libera 191 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española de tareas, y con ello empieza a hacerlo de su antiguo y subordinado rol. Por primera vez le sobra tiempo; tiempo que empieza a dedicar al trabajo fuera de su hogar. Adquiere independencia económica; contribuye al incremento de las rentas familiares, consolidando así el concepto de clase media; y ayuda en la construcción de la sociedad de la que es parte. El resto es historia. Más allá de que se convenga en que el nacimiento de los electrodomésticos como tales se da entre las décadas de 1940 y 1950, se tiene constancia de que ya desde finales del siglo XIX, y siempre por iniciativa individual de unos pocos pioneros, se empezaron a desarrollar diversos ingenios con la pretensión de realizar lo que hemos denominado tareas domésticas engorrosas. Ingenios que pueden considerarse como los embriones de los sofisticados aparatos de los que actualmente disfrutamos. Desde el siglo XIX, pasando por mediados del XX y hasta llegar a nuestros días, los electrodomésticos han tenido el lógico proceso de evolución, motivado por las exigencias del mercado y conseguido gracias a los avances tecnológicos en áreas como la mecánica, la electrónica y los materiales, además de por la racionalización y la mejora de los procesos productivos. Así, el objeto de este documento es describir los hitos tecnológicos más significativos que han jalonado dicho proceso de evolución, tanto los que han tenido repercusión en el conjunto de aparatos como aquellos que han favorecido el desarrollo y la mejora de un electrodoméstico en concreto (cocina, frigorífico, lavadora, lavavajillas, etc.), y asomarse a lo que puede ser la evolución de la tecnología en las principales líneas de electrodomésticos. AVANCES DE APLICACIÓN GENERAL Respecto a los avances tecnológicos que han propiciado mejoras en los electrodomésticos, se da un caso curioso: después del gran salto dado desde finales del siglo XIX hasta mediados 192 del XX, gracias a la electrificación de Europa y EEUU y al empleo de motores de corriente alterna, estos aparatos no cambian prácticamente, más que de forma cosmética, hasta la consolidación de la aplicación de la electrónica en el desarrollo de sus controles y programadores. Sin embargo, desde el comienzo de este siglo las aportaciones tecnológicas a este sector están apareciendo a una velocidad vertiginosa, y a este mismo ritmo seguirán surgiendo en los próximos años. Desde los primeros artefactos rudimentarios que pretendían lavar la ropa o los utensilios de cocina a partir de un ingenio mecánico construido con madera y accionado mediante fuerza animal, hasta la eclosión y el éxito comercial generalizado dado en los comienzos de la segunda mitad del siglo XX, los primeros hitos realmente remarcables son: • La electrificación generalizada de Europa y EEUU. • El empleo de motores de corriente alterna en accionamientos de diversa índole. • El uso del acero en la fabricación de las carcasas y chasis de estos aparatos. • La racionalización y modernización de los procesos productivos. A partir de estos hitos se consolida la producción y comercialización masivas de los electrodomésticos, los cuales no sufren grandes cambios conceptuales favorecidos por la tecnología hasta la inclusión de la electrónica en sus sistemas de control. Por esto, se entiende que la irrupción del transistor es un hito tecnológico importante en lo que a la generalidad de los electrodomésticos se refiere. Por último, si algún aspecto es inherente a cualquier electrodoméstico este es la interfaz de usuario, entendida como el mecanismo que permite la relación entre la persona y la máquina. De todos estos aspectos tratan los siguientes subapartados. La evolución del electrodoméstico Electrificación generalizada Es bien conocida la historia de la electricidad, desde las primeras apreciaciones de Tales de Mileto en el 600 a.C. hasta la invención de la lámpara incandescente por parte de Edison en 1879, pasando por las aportaciones de Gilbert, Coulomb, Galvani, von Guericke, Franklin, Volta, Ohm, Ampere, Joule, Oersted y Faraday, todas ellas producidas en el siglo XIX. El descubrimiento de la lámpara incandescente y la aplicación de esta al alumbrado, primero público y posteriormente doméstico, aceleró el proceso de construcción de centrales eléctricas y, como consecuencia de ello, de electrificación de, al menos, las ciudades más importantes de Europa y EEUU. En 1880 entró en funcionamiento en Londres la primera central eléctrica destinada al sostenimiento del incipiente alumbrado público, y en 1882 se hizo lo propio en EEUU. Al ser centrales de corriente continua (DC) las pérdidas eran notables y las áreas que podían abarcarse poco extensas. Esto se resolvió gracias a los trabajos de la empresa Westinghouse, que depararon la corriente alterna (AC). Tras la conocida controversia entre Edison y General Electric, que apoyaban la DC, y Westinghouse, que abogaba por la AC, triunfó esta última, toda vez que resolvía gran parte de los problemas existentes con las primeras centrales (conmutaciones peligrosas, altas pérdidas, baja potencia, etc.). La AC se estandarizó, surgió el concepto de estación central y, con él, el de subestaciones, de manera que a finales de la década de 1930 las zonas urbanas de Europa y EEUU estaban electrificadas casi al 100%. Esto fue posible gracias a los trabajos de Werner von Siemens quien, en 1867, había desarrollado en Alemania el primer dispositivo capaz de generar industrialmente corrientes eléctricas (alternas) a partir de trabajo mecánico. Estos aparatos, denominados dínamos, permitieron la construcción de usinas eléctricas a partir de las cuales se generalizó el uso de la electricidad como fuente de luz y potencia domiciliaria. Sin este proceso de electrificación generalizada no hubieran existido los electrodomésticos, ni tantas otras cosas, como hoy en día los conocemos. Motores AC Las primeras compañías eléctricas (principios del siglo XX) se autodenominaban compañías de iluminación, por ser esta prácticamente la única utilidad que se le daba a la nueva energía. Esto suponía que se concentraba casi todo el consumo en las horas de oscuridad, manteniendo al sistema de centrales casi ocioso durante el día, lo que frenaba la expansión de esta energía. Vino a poner remedio a esto el motor eléctrico y, más concretamente, el motor AC que, al ser masivamente empleado en líneas productivas y en infinidad de aparatos, facilitó que el consumo diurno de electricidad fuese lo suficientemente importante como para dar el último y definitivo impulso a la electrificación de Occidente. El descubrimiento de este tipo de motores se debe fundamentalmente a Faraday, quien en 1821, después de que el químico danés Oersted descubriera el electromagnetismo, construyó dos aparatos para producir lo que él llamó rotación electromagnética, que no eran otra cosa que los primeros motores eléctricos. Diez años más tarde, en 1831, descubrió la inducción electromagnética mediante una serie de experimentos que aún hoy son la base de la moderna tecnología electromagnética. La primigenia fuera bruta, animal o humana, que era necesaria para la realización de tantas tareas, empezó a ser paulatinamente sustituida por el empleo de motores AC, sobre todo en tareas que requerían la traslación lineal o rotatoria de algún elemento, como es el caso de ciertos electrodomésticos. Sin la invención de estos motores tampoco existirían los electrodomésticos, ni muchos otros aparatos que hoy resultan imprescindibles. 193 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Empleo del acero Acero es el nombre que se da al hierro que contiene una cantidad determinada de carbono (hasta el 3,5%). Es inoxidable cuando, además, contiene otros componentes como manganeso, fósforo, níquel y otros. El llamado inoxidable ferrítico tiene un mínimo del 10% de cromo. Sus cualidades de dureza, resistencia y ductilidad lo predestinaban a ser el material con el que se construirían masivamente los electrodomésticos. Esto terminó siendo posible gracias a las mejoras en los procesos productivos de este material, desde el horno de solera abierta de 1864, el empleo de hornos eléctricos a partir de 1902 y el proceso del oxígeno básico de 1948, hasta la fundición continua de 1950, precursora de los más modernos y actuales altos hornos. Henry Ford logró reducir sus costes de producción gracias a una rigurosa organización del trabajo industrial. Su herramienta principal fue la cadena de montaje, que reemplazaba el desplazamiento del obrero en busca de las piezas por el desplazamiento de estas hasta el puesto fijo del obrero. La disminución del coste del producto se hizo a costa de la transformación del trabajo industrial en una sencilla tarea repetitiva. Tanto el taylorismo como el fordismo fueron ampliamente aceptados hasta los años ochenta, momento en el que empiezan a ser cuestionados por la deshumanización del trabajador que conllevan y, en su lugar, aparece el toyotismo, importante innovación en lo que a metodología productiva se refiere, que preconiza el trabajo de montaje en equipos donde se dé relevancia a la figura del operario. Descubrimiento del transistor Procesos productivos Ningún producto hubiese alcanzado en el siglo XX el grado de producto de masas si en dicho siglo no se hubiesen mejorado enormemente los procesos que permitieron la reducción de los costes de producción, especialmente en lo concerniente a la mano de obra y, en consecuencia, al precio de mercado. A esto contribuyeron, además de los lógicos avances en motorización y automatización, dos importantes teorías cuya influencia, aun relacionada con el trabajo industrial, va más allá de la propia actividad productiva, teniendo incluso connotaciones sociales. Estas son el taylorismo y el fordismo. Frederick W. Taylor, en su obra de 1912 Principles of Scientific Management defiende la "organización científica del trabajo", con la que se disminuía la incidencia de la mano de obra en el coste de las manufacturas industriales. La reducción de las tareas a movimientos lo más sencillos posibles se usó para disminuir las destrezas necesarias para el trabajo, transferidas a máquinas, reduciendo en consecuencia los salarios y aumentando la inversión de capital. 194 Los estudios teóricos de Julius Lilienfeld sentaron las bases de la comprensión del comportamiento eléctrico de los materiales semiconductores. En 1939 Walter Schottky describió el efecto de las uniones PN de semiconductores deliberadamente impurificadas, terminando de sentar las bases teóricas para la invención del transistor. En 1948, tras veinte años de investigaciones, John Bardeen, Walter House Brattain y William Shockley construyeron el primer prototipo operativo de transistor en los laboratorios de la empresa Bell. El dispositivo reemplazó pronto al tríodo, hasta entonces usado para modular y amplificar corrientes eléctricas, debido a su pequeño tamaño y consumo y al bajo coste de su fabricación en masa. El transistor y otros componentes derivados de él, como los fototransistores, revolucionaron la electrónica, miniaturizándola y haciéndola portátil, es decir, utilizable en cualquier producto. Control de los aparatos e interfaz de usuario Todo aparato electrodoméstico debe relacionarse con sus usuarios. Este axioma es lo que han tenido en común todos La evolución del electrodoméstico los aparatos electrodomésticos independientemente de su naturaleza (lavadoras, frigoríficos, etc.) y de la época de la que hayan formado parte. En el intervalo de algo más de cien años que va desde las primitivas interfaces (cuesta llamarlas así) de principios del siglo XX hasta los sofisticados sistemas actuales constituidos por visualizadores de diversas tecnologías y pantallas y teclados touch, la tecnología ha condicionado los modos de relación hombre-máquina. Siempre, en todos los casos, la interfaz de usuario ha sido un apéndice del sistema de control (o programador) del aparato. Los electrodomésticos del primer tercio del siglo pasado carecían casi totalmente de mecanismos de regulación de su actividad, por lo que el usuario se limitaba a encenderlos y a apagarlos mediante medios puramente mecánicos (habitualmente un solo interruptor). Entre los años treinta y finales de los setenta predominan los electrodomésticos con control o programador electromecánico, a los cuales el usuario accedía a través de una rueda de varias posiciones con la que podía seleccionar diversos programas funcionales en un mismo aparato (aún se comercializan lavadoras y lavavajillas con este sistema). La eclosión de los semiconductores en la década de 1970 apenas tuvo incidencia en el electrodoméstico hasta que los precios de los microcontroladores no se normalizaron. Durante los ochenta aparecen electrodomésticos, normalmente de gama alta, con control o programador electrónico desarrollado alrededor de un microcontrolador de 8 bits. Gracias a la capacidad de los microcontroladores de leer y activar puertas digitales se desarrollaron nuevos sistemas de interfaz basados en teclas (con las que el usuario ordena) y visualización luminosa, habitualmente diodos led y pequeños visualizadores de siete segmentos (con los que el aparato notifica su estado). La siguiente evolución apenas ha afectado al control, ya que este ha seguido basándose en el empleo de microcontrola- dores. Sin embargo, sí es importante en lo que a la interfaz se refiere. A comienzos del presente siglo se dispone, a precios asequibles, al menos para la gama alta, de sofisticadas pantallas de visualización, habitualmente de 7 pulgadas, desarrolladas con tecnología LCD, plasma o LED, la mayoría de ellas touch (capacitivas) con las que se implementan interfaces de usuario gráficas con iconos. Previsión de futuro Los controladores serán exclusivamente electrónicos, basados en microprocesadores específicos para aplicaciones embedded. Se emplearán aparatos comerciales de uso cotidiano (tablet PC, SmartPhone, iPad) como medios de interfaz de usuario. EL COCINADO ELÉCTRICO: COCINAS Y HORNOS El principio de funcionamiento de estos equipos es el efecto Joule. Se hace circular una corriente eléctrica por un conductor con una fuerte resistividad térmica con el fin de que este adquiera una alta temperatura. En el caso de las cocinas, la transmisión térmica al alimento se ha hecho básicamente por conducción, esto es, por el contacto físico de la resistencia con el utensilio de cocina que se pretendía calentar. En los hornos de resistencia, esta transmisión hacia el alimento se realizaba por convección. Esto ha sido exclusivamente así, en lo que a cocinas se refiere, desde finales del siglo XIX hasta la aparición de la cocina de inducción. Algo similar se puede decir de los hornos, con la excepción de los microondas. Tecnología para la generación de calor En 1892, una década después de que Edison diera a conocer la lámpara incandescente, los británicos R. E. Crompton y 195 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española J. H. Dowsing patentaron la primera estufa eléctrica por efecto Joule para uso doméstico. Luego, esta técnica se aplicó a los fogones mediante resistencias enrolladas helicoidalmente en una base de material cerámico y, más adelante, mediante resistencias blindadas o embutidas en una placa metálica. Cocinas En 1912 General Electric comenzó la producción de su modelo de cocina independiente R-1 (véase la figura 1). No se darán cambios importantes, ni tecnológicos ni funcionales, hasta finales de los setenta, cuando aparecen las placas vitrocerámicas. En estas también se genera un importante foco de calor por efecto Joule en una bobina, pero en vez de estar en contacto directo con el recipiente, entre este y el foco se coloca un cristal especial que se caracteriza por su bajísimo coeficiente de dilatación, por soportar altas temperaturas y por ser prácticamente transparente a la radiación infrarroja (el calor llega al alimento por conducción y radiación). Durante los años ochenta surge una segunda generación de vitrocerámicas con la sustitución de las bobinas por lámparas halógenas (filamento de wolframio dentro de una cobertura de cristal de cuarzo con gas halógeno en su interior) haciendo que la transmisión del calor sea fundamentalmente radiactiva. Estas placas, en ambas versiones, supusieron para el usuario una mejora cualitativa importante: calentaban más rápido; disminuía el calor residual; y solo se calentaba la zona de la placa en contacto con la fuente de calor, lo que, unido al hecho de que el cristal vitrocerámico es una superficie plana, facilitaba la limpieza. Figura 1. Cocina independiente R-1 (1912) Los primeros fogones eléctricos echaban a perder casi todas las comidas preparadas sobre ellos. Estaban equipados con termostatos muy rudimentarios, y la temperatura solo podía regularse aproximadamente, lo que hacía que los alimentos quedaran crudos o carbonizados, sin término medio. El siguiente salto cualitativo se dio en la década de 1940 gracias al empleo de los termopares en la implementación de termostatos, lo que aumentaba la fiabilidad de estas cocinas. Esto, unido a la electrificación generalizada en Europa y EEUU, permitió la expansión del producto. 196 El siguiente salto tecnológico vino dado por la aplicación de la inducción electromagnética como fuente generadora de calor. Esta tecnología, después de décadas de frustrados intentos debidos a la escasa calidad de los primeros semiconductores de potencia, alcanzó el estatus de producto de masas en los noventa a partir de la aparición de los IGBT y gracias a las ventajas que aportaba respecto a las cocinas previas, básicamente en lo referente a inmediatez, rendimiento y limpieza (toda la placa permanece prácticamente fría). Hornos En los hornos eléctricos el principio de generación de calor por efecto Joule se ha mantenido a lo largo de los últimos setenta años. Las mejoras que ha aportado la tecnología se La evolución del electrodoméstico han centrado en el proceso productivo y constructivo con el fin de aumentar el aislamiento, mejorando así la eficiencia y el consumo. Los dos hitos funcionales más significativos fueron la aparición en los años ochenta de hornos combinados de efecto Joule y microondas y la inclusión en estos aparatos de la pirólisis (consolidada a finales de la década de 1990) para facilitar la limpieza. En los años cincuenta se consiguió la refrigeración del magnetrón por aire, lo que favoreció su expansión. Durante esa década se popularizó en EEUU la comida precocinada, para la que este tipo de horno resultó ser el complemento perfecto. Los modos de cocinado cambiaron debido a la comodidad y al ahorro de tiempo y de energía que el uso de estos hornos reportaba. Previsión de futuro En lo referente al control, en estos aparatos se ha conseguido un elevadísimo grado de automatización gracias a la microelectrónica y al software, pilares de los sistemas embebidos con los que se implementan los programadores de los hornos de alta gama. Estos incorporan una lista de recetas en su control, recetas que se visualizan en el display que obra como interfaz de usuario. La duración de una fase, el modo de funcionamiento y la temperatura son parámetros incorporados a la receta en cuestión, que el usuario no necesita introducir. Microondas El horno de microondas tiene su origen en la casualidad. En 1946 el doctor Percy Spencer, ingeniero de la Raytheon Corporation, realizaba un proyecto de investigación ligado al estudio del radar. Mientras probaba un nuevo tubo de vacío (magnetrón) descubrió que, curiosamente, unos dulces que guardaba en la bolsa del almuerzo se habían derretido. Intrigado, y ante la perspectiva de que los dulces hubieran sido afectados por la radiación generada en su experimento, acercó al tubo unos granos de maíz que, confirmando sus sospechas, se convirtieron en palomitas. A finales de ese mismo año la Raytheon Company solicitó una patente para emplear las microondas en el cocimiento de los alimentos. En 1947 salió al mercado el primer horno comercial de microondas, de 1,60 m de altura y 80 kg de peso. El magnetrón se enfriaba con agua, de modo que era necesario instalar una tubería especial. Placas de cocina En generación de calor no se vislumbra ninguna tecnología que pueda suplantar, y ni siquiera mejorar, a la inducción. En un futuro próximo, las mejoras tecnológicas girarán en torno a esta tecnología, y en las siguientes direcciones: • Funcionalidad: aumento del número de bobinas con el fin de obtener la placa de superficie total (en cualquier punto de la placa puede generarse calor, de manera que independientemente de la forma de la base del recipiente, de su tamaño y de dónde se ubique, se inducirá calor en este). • Sostenibilidad: mediante algoritmia se desarrollarán programas de control que mejoren el rendimiento y reduzcan el consumo. Hornos La innovación más importante a corto plazo será el horneado en vacío. El modo de generar calor seguirá siendo el mismo, pero se generará el vacío en el interior del horno como paso previo a la cocción del alimento. Esto variará drásticamente las tablas de temperatura y de tiempos y, fundamentalmente, dará al usuario una herramienta con la que acceder a las técnicas de cocina más sofisticadas. Innovaciones de menor rango vendrán por la combinación del cocinado al vapor con la generación tradicional de calor, 197 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española con el fin de preservar los sabores y las propiedades nutricionales de los alimentos que así se cocinen. técnicas para producir hielo artificial. El ingeniero alemán Carl von Linde patentó en 1876 el proceso de licuar el gas, básico en la tecnología de la refrigeración. Microondas Ya en el siglo XX, en 1918 Nathaniel Wales desarrolló el modelo Kelvinator, introduciendo el compresor y un rudimentario sistema de control. Y en 1923 General Motors presentó la primera unidad compacta. Hasta este momento, la nevera estaba en la cocina, mientras que el extremo mecánico (el motor, el compresor y el condensador) se instalaba separadamente, por lo general en el sótano. Los gabinetes de acero y porcelana comenzaron a salir al mercado a mediados de los años veinte. Difícilmente, incluso a largo plazo, las microondas serán sustituidas por otra tecnología para las aplicaciones de calentamiento y descongelación a las que ahora se dedican. Es y será una tecnología con una enorme vigencia. Las mejoras que se prevén por aplicación de la tecnología son: • Funcionales: inclusión de medición de temperatura en el horno y en el alimento para mejorar el resultado y aumentar la automatización. • Funcionales y de sostenibilidad: mejorar los magnetrones y el diseño físico de estos hornos para obtener un reparto más eficiente de las microondas y aumentar la superficie útil de aplicación de estas. EL FRIGORÍFICO Desde muy antiguo el hombre ha tenido la necesidad de mantener frescos sus alimentos y, de la misma forma, ha sabido que el frío le ayudaría a conseguirlo. En 1784 William Cullen construyó una máquina para enfriar, utilizando dietil éter como líquido refrigerante y una máquina de vacío. De esta manera consiguió producir hielo de manera mecánica por primera vez en la historia. En 1800 Michael Faraday licuó amoníaco para provocar enfriamiento. Este sistema suponía la compresión de un gas hasta convertirlo en un líquido que absorbía el calor. Al hacerlo, volvía a convertirse en gas. En 1860, el francés Ferdinand Carré produjo hielo artificialmente mediante un aparato que funcionaba con gas de amoníaco. A partir de aquel momento, se desarrollaron las 198 En 1931, el químico Thomas Midgley preparó por primera vez el diclorodiflurometano, que consiste en una molécula formada por un átomo de carbono al que se han unido dos átomos de cloro y otros dos de flúor. Esta sustancia era ideal para la refrigeración y supuso el primer paso para la utilización de CFC (clorofluorocarbonos) en los frigoríficos. El líquido resultante se registró como freón, y ha sido empleado hasta nuestros días. En 1971 Bosch desarrolló el primer aparato que se descongelaba automáticamente. En los años ochenta surge la preocupación por el medio ambiente cuando los científicos Mario Molina y Sherwood Rowland descubren que los clorofluorocarbonos, como el freón, se acumulan en la atmósfera y dañan la capa de ozono. El Protocolo de Montreal de 1987, internacionalmente aceptado, marcó las pautas para la desaparición de los CFC y su sustitución por otros refrigerantes menos dañinos para el ambiente. En 1994 dejan de fabricarse CFC y en 1999 dejan de emplearse en los frigoríficos, siendo sustituidos por hidrofluorocarbonos y bromofluorocarbonos. Los fabricantes de electrodomésticos de frío fueron los primeros en asumir el etiquetado energético en 1995. Actualmente, los frigoríficos de última generación: La evolución del electrodoméstico • Cumplen escrupulosamente con los preceptos de la sostenibilidad: se ha alcanzado la clasificación A++ con un consumo un 45% menor que un frigorífico de clase A. • Disponen de circuitos de frío independientes y compresores de velocidad variable junto con sensores que detectan la carga del frigorífico y adaptan la temperatura y la humedad de cada compartimento a las necesidades de los alimentos que cada uno contiene. • Son controlados por programadores electrónicos que ofrecen modos de funcionamiento ecológico, para vacaciones, programas de enfriamiento y congelación rápidos, funciones de bloqueo para evitar manipulaciones no deseadas (niños) y gestión de alarmas de temperatura. • Incorporan en los circuitos de refrigeración filtros de aire de carbono activo para absorber los compuestos volátiles provenientes de los alimentos, evitando así la mezcla de olores y sabores. También se añaden iones de plata en las paredes de la cuba interior para neutralizar el crecimiento de bacterias. ganismos y de las proteínas, y de romper las membranas celulares. Su efecto dependerá de la frecuencia, de la duración de los pulsos, de la longitud de onda y de la distancia al producto a tratar. • Enfriamiento ultrarrápido con microondas. • Higiene y protección antibacterias: se están desarrollando nanopartículas y biopartículas con las que crear recubrimientos para las superficies internas de los frigoríficos con el fin de eliminar las bacterias. • Sostenibilidad por la mejora del aislamiento: empleo de aerogeles para este propósito (material coloidal de estructura amorfa y gran porosidad; excelente aislante térmico, acústico y eléctrico). • Frío distribuido: desaparece el frigorífico como elemento monolítico y, en su lugar, se tienen distintos recintos, esparcidos por la vivienda, con distintas temperaturas de consigna en función de lo que deban conservar (verduras, lácteos, carnes, vinos, etc.). La generación de frío, en este caso, se hará mediante isobutano y ciclopentano. Previsión de futuro Estas seis apuestas de futuro están en fase experimental. El frigorífico futuro será consecuencia de la aplicación a la generación de frío y a la conservación de alimentos de tecnologías como: magnetismo, microondas, luz pulsada, nanoy biotecnología, y materiales aerosoles: Por otra parte, existe una línea de trabajo en torno a la tecnología de autoidentificación por radiofrecuencia o, lo que es lo mismo, Radio Frequency Identification Devices (RFID), la cual se basa en unas etiquetas electrónicas o tags que se componen de un chip y una pequeña antena. Estas etiquetas se pueden incorporar a cualquier producto y hacen posible su identificación a cierta distancia y su control a lo largo de toda la cadena de producción y distribución, desde el fabricante hasta el comprador. La idea es que estas etiquetas acabarán sustituyendo a las actuales de código de barras, gracias a lo cual se podrán desarrollar frigoríficos con lectores RFID incorporados, de manera que se pueda informar al usuario de las existencias, de los riesgos de caducidad y de la conveniencia de realizar la compra conforme se consuma lo almacenado en el frigorífico. • Frío magnético: hasta ahora, el funcionamiento de un frigorífico se ha basado en la compresión de gases y la evaporación de líquidos; es decir, en los cambios térmicos generados en los cambios de estado. Por el contrario, el nuevo frío magnético se logrará mediante sólidos magnéticos a los que, en vez de ciclos de compresión-expansión, se apliquen ciclos de imantación-desimantación. • Conservación de alimentos por pulsos de luz: la luz posee componentes UV capaces de alterar el ADN de los microor- 199 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española LA LAVADORA Las primeras lavadoras (siglo XVIII) consistían básicamente en una cuba de madera con patas y una tapa. Se introducían la ropa, el agua y el jabón dentro de la cuba, y se accionaba manualmente un mecanismo que hacía girar unas paletas que removían la ropa dentro del agua jabonosa, consiguiéndose el lavado. Prácticamente lo mismo que hacen ahora las más sofisticadas lavadoras, con las lógicas salvedades que en este apartado se detallan. En 1930, Miele introduce la primera lavadora fabricada totalmente en metal. A mediados de los años treinta una filial de la Bendix Corporation empezó a trabajar en una de las mejoras más significativas en la fabricación de lavadoras: una máquina diseñada por John Chamberlain que lavaba, enjuagaba y exprimía la ropa en una sola operación. En 1938, Nineteen Hundred (Whirpool) crea la primera lavadora con agitación motorizada. Esas primeras lavadoras eran impulsadas a mano, con el uso de ruedas, bombas manuales y fuerza animal. Existían diversos sistemas para golpear la ropa contra las paredes de la tina. El problema de todas ellas era que, aunque aligerasen un poco la tarea, seguían requiriendo de atención constante y trabajo muscular. Hacía falta una fuente de energía que realizase el trabajo: a principios del siglo XX se consigue esto al incluirse motores de gasolina en los aparatos. En 1908 se presentó por primera vez una lavadora eléctrica en el mercado. Se trataba de la lavadora Thor (véase la figura 2) fabricada por Hurley Machine Company de Chicago. Era una máquina cilíndrica, con una tina galvanizada y un motor eléctrico. Su patente se registró el 9 de agosto de 1910. Además de su elevado precio, las primeras lavadoras eléctricas tenían otro inconveniente: el motor, la cinta de transmisión y los engranajes estaban fuera de la estructura de la lavadora y no se encontraban bien protegidos bajo la máquina. El tambor y la tapa perdían agua con facilidad, por lo que la mayor parte de estas lavadoras acababan mojando el motor y los cables, lo que podía dar lugar a cortocircuitos, incendios y descargas eléctricas. En 1919, la empresa Maytag fabricó la primera lavadora de aluminio (véase la figura 3) y, dos años después, introdujo un sistema para impulsar el agua a través de la ropa mediante un agitador, en vez de arrastrar la ropa a través del agua. Este sistema es el que comúnmente se utiliza hoy en día. 200 Figura 2. Patente de la lavadora Thor (1908) La evolución del electrodoméstico hasta hoy en día) gracias a los cuales se acuñó el concepto “lavadora automática”. Tres avances funcionales de mediados del siglo XX son: • El centrifugado. La idea básica era hacer que el tambor de la lavadora fuera doble: el exterior es un tambor normal, con entrada y salida de agua, y el interior tiene pequeños agujeros por los que puede pasar el agua pero no la ropa. Mientras el tambor gira de manera razonablemente lenta, el agua y la ropa están mezclados, pero si se hace girar el tambor muy rápido, el agua se escapa por los agujeros y la ropa se seca hasta cierto punto (tanto más cuanto mayor sea la velocidad de giro, por supuesto). Las primeras máquinas centrifugadoras no lograban velocidades muy grandes, pero según fueron avanzando los motores eléctricos se fue consiguiendo un mayor secado. Sin embargo, el centrifugado trajo consigo un problema. La velocidad de giro y las vibraciones asociadas a él hacían que las lavadoras se movieran sin control a ritmo de centrifugado. La solución, entonces igual que ahora, fue burda pero sencilla: lograr el mayor peso posible. Antiguamente se ponían piezas de hierro forjado dentro de la lavadora; hoy se hace con soluciones más baratas como, por ejemplo, el cemento. Fuente: Whirlpool Coorp. Figura 3. Lavadora Maytag (1918) Las lavadoras eléctricas de las décadas de 1920 y 1930 tenían una ventaja fundamental sobre las manuales: no hacía falta estar presente durante el tiempo del lavado. Sin embargo, al principio sí se requería, además de calentar el agua antes de iniciar el lavado, controlar la colada de vez en cuando y cambiar la velocidad de giro manualmente, ya que no había programación alguna. Esto cambió en los cincuenta cuando se desarrollaron programadores electromecánicos (vigentes • La inclusión de todo el sistema eléctrico y mecánico dentro de un chasis. Esto hacía más seguros estos aparatos, siempre que el chasis estuviera bien aislado eléctricamente. • El uso de agua corriente de las casas para llenar la lavadora. Antes de que casi todas las casas tuvieran tomas de agua y de desagüe, llenar y vaciar el aparato era, por razones obvias, una tarea especialmente engorrosa. Hoy día suele haber grifos específicos para este electrodoméstico. En 1960 Miele lanza la primera lavadora de ciclo “lavado delicado” y control por termostato y, en 1962, presenta la primera lavadora automática con un solo mando de control. 201 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Un simple giro del mando era suficiente para elegir el programa adecuado. El programador automático regulaba por sí solo 11 programas. A finales de los setenta se desarrollan las lavadoras modernas, con un programador electrónico que controla el tiempo de giro, el sentido del motor y la velocidad, permitiendo un abanico de combinaciones en cuanto al tipo de lavado, temperatura del agua, etc. Actualmente se están comercializando equipos que se automatizan al máximo, son capaces de detectar los tipos de tejido, el nivel de carga o la suciedad de las prendas, ajustando los consumos energéticos, de agua y de detergente en función de estas variables. Se han añadido depósitos adicionales de detergente que permiten la dosificación automática durante varios ciclos de lavado. Se puede combinar la dosificación de detergente con la del suavizante, evitándose así la infra- o sobredosificación de detergente. Los años ochenta fueron la década de los grandes avances tecnológicos: se crean lavadoras más seguras (sistema AquaStop de Bosch en 1985), versátiles (adaptadas a detergentes líquidos y en polvo), ecológicas (ahorran detergente y consumen menos agua) y funcionales (lavadoras totalmente electrónicas), con indicadores de tiempo restante. En 1989, Miele introduce la primera lavadora que incorpora un dispensador automático de detergente líquido y de descalcificador. Las lavadoras, por medio de la optimización y el rediseño de los motores, llegan a obtener marcas de consumo energético inferior en un 30% al fijado para conseguir la clasificación A de eficiencia energética. Por medio de la dosificación exacta del detergente se consiguen ahorros de 7.000 litros de agua al año. Hay equipos que incluyen sensores ópticos en el tubo de recirculación para analizar la turbidez del agua y decidir respecto a la intensidad y el número de aclarados, buscando un resultado óptimo de lavado con un consumo mínimo de agua. En la década de 1990 llegaron algunos de los grandes avances tecnológicos relacionados con la microelectrónica. Sistemas de control difuso, sensores de agua y de turbiedad gracias a los cuales se optimizaba el lavado y con él los consumos de agua y de energía. Las lavadoras comienzan a incluir microcontroladores y microprocesadores extremadamente potentes, e incluso algunas marcas incluyeron técnicas de programación basadas en "lógica difusa" en sus programadores. Y antes de llegar al final de esta década, en 1998, llegaron al mercado las primeras lavadoras de 6 kg, fundamentalmente de la mano de Fagor Electrodomésticos, empresa que fue pionera en ofrecer este aumento de carga. En el aspecto de la reducción de ruidos y vibraciones, se han conseguido valores por debajo de 49 dB en el lavado y de 69 dB en el centrifugado, aplicando nuevos paneles antivibración y sistemas de compensación basados en sensores que detectan y compensan la existencia de cargas descentradas dentro del tambor de lavado. A partir de los años noventa las mejoras han tendido a centrarse en disminuir el consumo energético, de detergente y de agua, sin que estas disminuciones afecten a la eficacia del lavado. El problema es que resulta complejo alcanzar el equilibrio: cuanto más caliente está el agua y más cantidad de agua se utiliza, más intenso es el lavado, pero menos eficiente energéticamente es la lavadora. 202 Se ha llegado a modelos de lavadoras de tamaño estándar con 8 kg de capacidad de carga que, además de permitir lavar una mayor cantidad de ropa en cada ciclo, facilitan el planchado posterior de esta, ya que, al contar con un tambor de lavado de mayor volumen, se limita la generación de arrugas en las prendas durante el lavado. Previsión de futuro Las lavadoras que depare el futuro serán consecuencia de los resultados que lleguen a obtenerse en las siguientes líneas de investigación tecnológica: La evolución del electrodoméstico • Sensorización: transductores electroquímicos basados en redes de microelectrodos y redes (arrays) de sensores con los que detectar la suciedad de la ropa, la turbidez del agua, el pH de esta, etc. • Desarrollo de textiles multifuncionales: — Nuevas fibras de carácter “bio”, ecológicas y no derivadas del petróleo. — Tratamientos especiales de carácter enzimático. • Higienización (técnicas de detección de microorganismos): — Métodos catalíticos de higienización basados en la aplicación de un compuesto oxidante (H2O2, O2 en fase gas) junto a catalizadores de diferente naturaleza en medio acuoso para reducir la temperatura de los procesos oxidativos e incrementar la generación de radicales altamente oxidantes, principalmente radicales hidroxilo. — Métodos enzimáticos de higienización: la aplicación de peróxido de hidrógeno será utilizada para la higienización de biofilmes en diferentes sustratos o en función de los microorganismos formadores de los filmes. — Métodos electroquímicos de higienización. — Métodos de higienización basados en gases oxidantes. — Métodos de higienización basados en plasmas. • Métodos de higienización basados en gases oxidantes: la mayoría de estudios hacen referencia al ozono. Actualmente se están investigando métodos para oxidar microcontaminantes aplicables a procesos de decoloración de aguas residuales y de textiles, eliminación de metales, esterilización de instrumentación médica o de alimentos e higienización de aire, entre otras. Un estudio reciente ha combinado las tecnologías de ozonización, ultrasonidos y electrólisis de plata en sistemas de lavado y desinfección. • Métodos alternativos de lavado para ahorro de agua: disolución de agua con ozono en una cámara de contacto; tratamiento mediante luz UV; fluidos supercríticos (CO2); tratamiento con microburbujas; método basado en fotocatálisis; métodos alternativos de lavado basados en plasmas; compuestos de clorofenildiguanidina; cloruro de cetilpiridinio; derivados de la octenidina; dióxido de cloro; N- clorosulfamatos; persulfatos. • Autolimpieza (self cleaning): las nanotecnologías juegan un papel cada vez más importante en el dominio textil. Las nanopartículas contribuirán a la obtención de tejidos “self cleaning”. Son tejidos que utilizan el principio de las hojas de loto. Sobre el tejido se aplican nanopartículas de menos de 100 nanómetros. Las partículas de suciedad no contactarán con la superficie del tejido, sino que se posarán sobre las nanopartículas de la superficie. Así, al aplicar agua sobre la prenda, la suciedad será arrastrada sin necesidad de detergente. Algunos de los tratamientos mediante los cuales se pueden conseguir este tipo de acabados son los siguientes: — Fotocatálisis: consiste en recubrir el tejido con una capa de 20 nm de dióxido de titanio (TiO2) o de óxido de zinc (ZnO). Cuando la luz llega a la capa de TiO2 se produce la fotocatálisis y, mediante una reacción, los compuestos orgánicos (suciedad o bacterias) se convierten en dióxido de carbono o en agua. — Microondas. — Recubrimiento con nanotubos de carbono o nanopartículas de plata. — Tratamiento con óxido metálico coloidal: el tejido se impregna de una solución de óxido metálico coloidal y se trata con calor. LOS LAVAVAJILLAS Orígenes El origen del lavavajillas se suele ubicar en la década de 1880, en Shelbylle (Illinois). Curiosamente, lo que motivó la invención 203 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española no fue en primera instancia ahorrar trabajo, sino evitar destrozos. Josephine Cochrane (1839-1913) se encontraba más que harta de que el personal encargado de la limpieza de su delicada vajilla china deteriorara constantemente las piezas. Necesitaba imperiosamente un aparato que ahorrara en lo posible el trasiego manual de la vajilla. Tras realizar las correspondientes medidas, ordenó la elaboración de compartimentos individuales de tela metálica para platos de diversos tamaños y para diferentes piezas de cristalería. Estos compartimentos se ajustaban en torno a la circunferencia de una rueda montada en una gran caldera de cobre. Un motor accionaba esta rueda, haciendo que saliera agua caliente jabonosa del fondo de una caldera y que cayera sobre la vajilla. El diseño del ingenio (véase la figura 4) era un tanto rudimentario, pero bastante efectivo; tanto como para patentarlo el 28 de diciembre de 1886. El número de registro fue el 355.139. El invento recibió un impulso considerable al ser galardonado con el primer premio de la Exposición Mundial de Chicago de 1893. En dicho certamen se destacó que era “la mejor construcción mecánica, por su adaptación a una determinada línea de trabajo”. En 1920 se comercializaron lavavajillas mecánicos dotados de un motor eléctrico, pero. su uso no se extendió a los hogares, quedando reservado al sector de la restauración y la hostelería o a las mansiones de lujo. El mercado doméstico permaneció adormecido durante décadas. Poco a poco se fueron produciendo mejoras técnicas que dieron cierto impulso al aparato. Algunos de los hitos más importantes se produjeron en el periodo de entreguerras. Los modelos instalados con fontanería permanente aparecieron en la década de 1920. En 1929, los alemanes empezaron a interesarse por este tipo de aparatos. En ese año, Miele fabricó el primer lavavajillas eléctrico de Europa. El agua, en el lavado, es proyectada sobre la vajilla sucia por una rueda de paletas accionada eléctricamente. En 1937 William Howard Livens inventó un pequeño lavavajillas adecuado para las cocinas domésticas. Contaba con muchas de las características de un aparato lavavajillas moderno, como una puerta de entrada para la carga, una rejilla de alambre para mantener la vajilla y un pulverizador giratorio. Los elementos eléctricos de secado, una función innovadora desarrollada por Bosch, se añadieron en 1940. El antecedente del actual electrodoméstico hay que situarlo después de la Segunda Guerra Mundial. Progresivamente, los aparatos totalmente automáticos fueron sustituyendo a las máquinas de lavar platos que requerían una atención manual. En 1960, la fábrica de Miele en Bielefeld lanzó el primer lavavajillas totalmente automático (véase la figura 5) con carga frontal y brazos aspersores giratorios. Figura 4. Máquina de lavar platos patentada por J. Cochrane (1886) 204 En los años setenta el aparato contenía ya entre sus funciones varios programas, como el del chorro aspersor y el regulador de la potencia de pulverización del agua. Se funde la cuba con la carcasa, formando una unidad compacta, lo que La evolución del electrodoméstico del interior del equipo es conducido al depósito que contiene las zeolitas, donde se le extrae la humedad y se devuelve seco y caliente de nuevo al interior del lavavajillas para ayudar al secado. De igual modo, incorporan sensores para determinar la turbiedad del agua de lavado y decidir si hay que hacer una renovación de la misma o se puede seguir utilizando, buscado un buen resultado en la limpieza y una reducción del consumo de agua. Previsión de futuro El sector del lavavajillas no es tan dinámico como el resto en lo que a innovación se refiere. De hecho, las dos líneas de trabajo más importantes en el futuro no son de carácter tecnológico. Estas son: Figura 5. Primer lavavajillas automático (1960) proporciona una mayor estabilidad a la máquina y una mayor amortiguación de los ruidos. A principios de los ochenta se introdujo la microelectrónica, que contribuyó a mejorar la automatización de los programas de lavado y la interfaz de usuario. En 1988, Miele lanza el primer lavavajillas que lava en tres niveles, y un año más tarde el primer lavavajillas que incorpora un dispensador automático de detergente líquido y descalcificador. En la actualidad, prácticamente el 95% de los equipos que se comercializan son de eficiencia energética clase A. Hay modelos que integran depósitos con zeolitas. En estos equipos se consiguen consumos energéticos un 20% inferiores a los propios de la clasificación A. Las zeolitas son aluminosilicatos porosos que tienen la capacidad de absorber y almacenar humedad y desprender calor. En la fase de lavado el aire frío del interior del equipo es enviado al depósito de zeolitas, donde se calienta con una resistencia eléctrica. Este aire caliente pasa al interior del lavavajillas para alcanzar la temperatura de lavado. En la fase de secado, el aire húmedo • Diferentes cavidades: se pretende diseñar un equipo que contenga, dentro de las dimensiones habituales, al menos dos cavidades de uso independiente para ubicar en cada una de ellas un tipo de menaje concreto (por ejemplo, cubertería en una y vajilla en la otra) con el fin de optimizar el lavado y reducir el consumo de agua y de detergente. • Toma de agua caliente: mejora constructiva por la cual el lavavajillas podría recibir agua caliente generada por la caldera de agua caliente sanitaria. Esto reduciría considerablemente el consumo eléctrico, toda vez que el calentamiento del agua es la fase que más consume dentro de un proceso de lavado. NUEVOS NEGOCIOS Y TECNOLOGÍAS ASOCIADAS En este apartado se describen las nuevas áreas de negocio en las que se está adentrando el sector del electrodoméstico, entre las que destacan la comercialización de servicios (pago por uso, diagnóstico médico, telemantenimiento, redes sociales, etc.). 205 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española El desarrollo tecnológico de las últimas décadas está produciendo cambios significativos en la estructura económica y social. La información se ha convertido en el eje promotor de estos cambios. La expansión de redes informáticas ha hecho posible la universalización de los intercambios y las relaciones, al poner en comunicación a amplios sectores de ciudadanos residentes en espacios geográficos muy distantes entre sí. El sector de los electrodomésticos también ha sido afectado por los avances en las TIC que marcarán el devenir de este sector en los próximos años, mediante la generalización de la domótica, de la telemedicina y de la comercialización de nuevos servicios relacionados con las comunicaciones: redes sociales, telemantenimiento, asesoramiento, etc. El resto de tecnologías también influirán en el desarrollo del sector en los próximos años, pero en una medida menos significativa. Se seguirá trabajando en la mejora de los productos convencionales, buscando una mayor eficiencia energética y un menor consumo de agua. De acuerdo a las nuevas normativas y requerimientos del ecodiseño, se fabricarán electrodomésticos evitando el uso de metales pesados y refrigerantes con halógenos, y en muchas de las piezas de estos aparatos se sustituirá el metal por vidrio o plástico. Telemedicina Uno de los mayores retos sanitarios de la Unión Europea viene dado por el progresivo envejecimiento de su población. Se calcula que en el año 2025 la población de personas mayores se va a doblar porcentualmente con respecto a la actual. En España, la población mayor de 65 años ha crecido más rápidamente en el último siglo que el resto de grupos de población. Hoy, alrededor de 6,5 millones de españoles tiene más de 65 años (INE, Instituto Nacional de Estadística). Esta evolución demográfica tendrá importantes repercusiones en la estructura económica y social. Se prevé un aumento 206 considerable del número de personas mayores que vivan solas, de las cuales un amplio porcentaje sufrirá síndromes y trastornos que producen dependencia y que, por lo tanto, requieren de apoyos y cuidados. En España, en torno al 15% de los pacientes genera el 65% del gasto sanitario. Pero además, estas personas, que suelen ser mayores de 65 años, no padecen solo una enfermedad, sino varias a la vez, y generalmente crónicas. Así, de todos los diabéticos, solo el 8% sufre únicamente esta enfermedad. Lo habitual es que además padezcan hipertensión, obesidad, hipercolesterolemia, etc. Se estima que en 2020 más del 60% de las patologías serán crónicas Ante esta perspectiva, la telemedicina surge como una necesidad y como un nuevo negocio: un nuevo modelo de práctica y organización de la atención sanitaria, vinculado a la utilización de las TIC, que permitirá distribuir recursos y competencias profesionales y poner en comunicación a los pacientes con los servicios de salud mientras aquellos permanecen en sus domicilios. En los diferentes ámbitos y escenarios en los que se desarrolla la sanidad, la telemedicina está generando importantes expectativas de superación de las actuales limitaciones e ineficiencias de los sistemas sanitarios y, probablemente, va a ser un componente esencial de los modelos sanitarios del próximo futuro. Para determinados grupos de población, portadores de enfermedades crónicas, ancianos o personas en situación de dependencia, para los que el punto de asistencia más razonable puede ser el propio domicilio, los procedimientos de telemedicina ofrecen la posibilidad de acercar los recursos sanitarios al propio entorno del usuario y mantener un contacto constante. Algunos médicos ya usan las redes sociales para comunicarse con sus enfermos. La implantación generalizada de estas podría evitar visitas innecesarias, optimizando el tiempo de atención y disminuyendo la burocracia a la hora de pasar consulta y atender a los pacientes. La evolución del electrodoméstico Esta nueva manera de ver la atención sanitaria ha abierto las puertas a nuevos negocios para los fabricantes de electrodomésticos: será necesario desarrollar nuevos productos y servicios, ambos para ser utilizados en los hogares; esto es, allí donde estas empresas saben llegar. En el mercado existen algunas iniciativas empresariales relacionadas con la teleasistencia, en las que la empresa realiza labores de seguimiento telefónico periódico y personalizado a través de un sistema instalado en el domicilio asociado a la línea telefónica. También Fagor Electrodomésticos, en colaboración con la Sociedad Española de Diabéticos, va a comercializar un servicio de estas características. En cuanto a teleasistencia móvil, ya existe algún desarrollo que ejerce cierto seguimiento de la persona tanto dentro como fuera del domicilio. Este sistema ofrece un control de la movilidad, un sistema de localización y un sensor de movimiento, inactividad y caídas (teleasistencia Móvil Alares®Ghost®). Se han creado servicios completos en telemedicina, como pueden ser: • Plataforma de telemedicina: se encarga de la implantación y desarrollo personalizado de soluciones de telemedicina. • Sistemas de teleasistencia: sistemas de monitorización para la evaluación y el seguimiento sanitario a distancia. Sistema que permite la comunicación entre un centro médico y un centro con pacientes potenciales: colegios, residencias, centros de día, etc. Instala en los hogares los siguientes equipos médicos: — Estetoscopio electrónico, para escuchar los latidos del corazón y los sonidos respiratorios. — Video-otoscopio/laringoscopio, para obtener imágenes de garganta y oído. — Cámara fija para obtener imágenes de piel. Mediante una videoconferencia se presta asistencia médica remota e inmediata ante incidencias médicas leves, además de realizarse el seguimiento continuo de un paciente. Durante la videoconferencia se utilizan los aparatos médicos mencionados, gracias a los cuales el médico realizará un diagnóstico más efectivo. Paralelamente a la creación de empresas de sistemas de teleasistencia o telemedicina se deben desarrollar productos para la monitorización de magnitudes fisiológicas (signos vitales) en un entorno doméstico que den servicio a estos sistemas. La optimización y mejora de estos productos permitirá la evolución de la telemedicina y del telediagnóstico. Esto abre un gran ámbito de negocio en el que muchas empresas fabricantes de electrodomésticos están dispuestas a entrar a medio plazo. Actualmente ya existen varias empresas fabricantes de este tipo de aparatos utilizables en el ámbito doméstico: • La empresa CORSCIENCE cuenta entre sus productos de aplicación doméstica con electrocardiógrafo, tensiómetro, pulsioxímetro, glucómetro, báscula y espirómetro. El conjunto de artefactos del que disponen le permite monitorizar multitud de patologías, sobre todo las típicas enfermedades crónicas que afectan a la población occidental. Los dispositivos están diseñados para que su uso por parte del paciente sea sencillo, de manera que, en la mayoría de los casos, el usuario solo tenga que pulsar un botón. La transmisión de los datos registrados se realiza mediante Bluetooth sin que se requiera ninguna intervención por parte del usuario. La recepción de estos datos puede darse en cualquier aparato provisto de Bluetooth. Se han desarrollado aplicaciones para teléfono móvil y para PC. • Nonin Medical dispone de oxímetros, pulsioxímetros, oxímetros cerebrales, monitores de respiración y monitores de presión sanguínea no invasiva (PSNI-NIBP). También cuenta con un software y accesorios confiables y portátiles. 207 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española El reto pasa por desarrollar un único equipo (electrodoméstico de salud: torre de salud) capaz de sensorizar en el hogar los signos vitales básicos a partir de los cuales puede llevarse a cabo el seguimiento de un buen número de dolencias crónicas. Estos signos serían el peso, la temperatura, el ritmo cardiaco, la tensión arterial, la oxigenación de la sangre, la conductividad de la piel y el ECG (electrocardiograma). considerarse el primer electrodoméstico específico de salud. La llegada de este equipo a los hogares favorecerá la comercialización de los servicios con los que conseguir la teleasistencia sanitaria. Con esta premisa está trabajando la empresa española RGB Medical, cuyo propósito es desarrollar una torre de salud de aplicación doméstica (véase la figura 6) que podría El término “domótica” compendia el conjunto de soluciones que mediante el uso de las técnicas y tecnologías disponibles (electricidad, electrónica, informática, robótica y comunicaciones) logra una mejor utilización, gestión y control de ciertos aspectos relacionados con la vivienda (confort, seguridad, ahorro de energía, comunicaciones, informática, entretenimiento, etc.). Domótica La domótica aporta a la vivienda tradicional la posibilidad de controlar y gestionar de forma eficiente los sistemas existentes y los equipos ya instalados (sistemas de alarma, TV, teléfono, agua, cocina, refrigerador, etc.) mediante un sistema de gestión técnica inteligente a partir de una red de comunicaciones que interconecte a todos los aparatos implicados. Las principales funciones que hasta ahora han caracterido a la domótica son: • Automatización y control de los dispositivos: abrir, cerrar, apagar, encender, regular dispositivos y actividades domésticas. • Gestión energética: conexión de dispositivos de calefacción y aire acondicionado según criterios de ahorro y confort. • Seguridad: vigilancia automática de personas, bienes, e incidencias y averías. Fuente: RGB Medical Devices, S.A. Figura 6. Boceto de una torre de salud doméstica 208 • Comunicaciones: transmisión de voz y datos, incluyendo textos, imágenes y sonidos (multimedia) a través de redes locales (LAN) que comparten acceso a Internet. La evolución del electrodoméstico • Mantenimiento: capacidad de incorporar el telemantenimiento de los equipos. El panorama mundial del uso de sistemas domóticos en las viviendas es el siguiente: en países como Suiza, Alemania, Italia, Francia, Reino Unido, Canadá y Estados Unidos se pueden encontrar los porcentajes más altos de utilización de este tipo de sistemas. En comparación con los demás miembros de la Unión Europea, se podría decir que España está entre los que cuentan con una menor implantación. En el sector del electrodoméstico, la domótica propone, por un lado, la interconexión de los electrodomésticos mediante buses domésticos cuyo medio físico sea la red doméstica de baja tensión, el par trenzado, un medio wireless como Bluetooth o ZigBee o una combinación de estos; y, por otro, el acceso desde Internet a la red resultante. Estas redes de electrodomésticos para la vivienda, ya existentes aunque poco extendidas, permiten la comunicación remota y en doble sentido entre el usuario y cada aparato, desde cualquier lugar del mundo con acceso a la red. Las prestaciones que esto ofrece van desde la seguridad hasta la descarga de programas de control y recetas, pasando por la gestión eficiente de la energía. La posibilidad de acceder desde un teléfono móvil, PDA u ordenador de cualquier tipo al sistema de control domótico del hogar potencia estas prestaciones. La evolución en las TIC está permitiendo que estas prestaciones aumenten y se sosfistiquen, entrando en el negocio de los servicios. Así, grandes empresas, entre ellas Fagor Electrodomésticos, están desarrollando servicios facturables aplicables al hogar, como pay per use, “telemantenimiento”, “actualización remota del software de los electrodomésticos”, “servicios de asesoramiento técnico y dietético on line”, “redes sociales de amantes de la gastronomía”, “simulaciones de ahorro de energía”, etc., que necesitan de la existencia de una red de electrodomésticos interconectados para ser realmente eficientes. REFERENCIAS BIBLIOGRÁFICAS • ACEDE “Prospección salud: Empresas comercializadoras de equipos de monitorización de magnitudes fisiológicas de ámbito doméstico”. • ALARES, expertos en asistencia familiar “La Teleasistencia Móvil Alares®. Movilidad, Comunicación. Localización y Asistencia Personal las 24 Horas” http://fundacionalares.es • ARTICA TELEMEDICINA, S.L. http://www.articatelemedicina.com/ • Barber, William (coord.) Mecanització de la casa: una història de l'electrodomèstic. Col·lecció Alfaro Hofmann/ Andrés Alfaro Hofmann. Generalitat Valenciana. 1995. • Campo, J.J.; García-Etxabe, R.; Gómez, L. Materiales plásticos: Una alternativa en los electrodomésticos de línea blanca. Matellanes. GAIKER Centro Tecnológico. Plast´21 Noviembre 1994. • Catálogo de exposición: Centre Cultural La Beneficència. Valencia, mayo/agosto 1995. Textos en valenciano, español e inglés. • Colección Alfaro Hofmann [Dossier técnico]. • Godella: Colección Alfaro Hofmann, 2003. • Godella: Colección Alfaro Hofmann, 2008. • Historia del Electrodoméstico: Grandes Hitos de una Nueva Era: http://www.activahogar.com/05historiaelec. php?seccion=05mundo • http://iesbujar.educa.aragon.es/informacion/tecno/premiados/segundo/morales.pdf • http://www.balay.es/ 209 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española • http://www.educar.org/inventos/lavadorasysecadorasderopa.asp • Mecanització de la casa: una història de l'electrodomèstic [Dossier de prensa] • http://www.lg.com/es/electrodomesticos/index.jsp • Miele 1899-1974. • http://www.profesorenlinea.cl/mediosocial/refrigerador1.htm • Origen de las Cosas Cotidianas de casa. http://www.tinet.cat/ ~vne/CC01.htm • http://www.smeg.es/ • Panati, Charles. Las cosas nuestras de cada día. Ediciones B. 1987. • http://www.teleasistencia.com • http://bioingenieria.es/Teleasistencia/Teleasistencia.htm# PRESENTACION • Inventos ingeniosos — La Nevera. http://eltamiz.com/ 2007/08/28/inventos-ingeniosos-la-nevera/ • Inventos ingeniosos — La lavadora. http://eltamiz.com/ 2010/06/02/inventos-ingeniosos-la-lavadora/ • ITELEMEDICINA. http://www.itelemedicina.com/index.asp ?p=inicial.asp • “La web 2.0 acerca a médicos y pacientes”. El Mundo. 2010-09-27 210 • SABIA BIOINGENIERÍA ARAGONESA S.L. http://bioingenieria.es • TELEASISTENCIA. http://www.teleasistencia.com • “Telemedicina contra las listas de espera”. El País. 200910-19 • www.aeg-electrolux.es • www.bosch-home.es • www.miele.es • www.fagor.com Gestión tecnológica en el sector vitivinícola LUIS CARLOS MORO GONZÁLEZ (Valladolid, 1953) Presidente del Grupo Matarromera Carlos Moro es Ingeniero Técnico Superior Agrónomo (ETSIA. Madrid), Diplomado en Economía de la Empresa (Universidad Politécnica de Madrid), Doctorado en Enología y Viticultura (Universidad Politécnica de Madrid), Diplomado en Economía de la Pyme (Universidad Complutense de Madrid) y Máster en Sistemas de Información y de las Comunicaciones. Comenzó como Ingeniero Agrónomo del Ministerio de Agricultura, en la Dirección General de Industrias Agrarias y también como Adjunto al Secretario General de la Federación Española de Industrias de la Alimentación y Bebidas (FIAB). Trabajó como Experto Agroindustrial de la FAO (ONU). Pasó al Ministerio de Industria y Energía donde fue Responsable de las áreas de Tecnología y de Industria Aeronáutica, miembro del Comité Intergubernamental Nacional de Airbus, Secretario General de la Asociación Técnica de Constructores de Material Aeronáutico. Además, participó en los comités de evaluación del PYTMA, PATI y PROFIT. En 1997, cuando deja el sector público, se dedica plenamente a Bodega Matarromera, que había fundado en 1988, origen del actual Grupo Matarromera del que es Presidente y en el que ha diseñado los vinos “Matarromera”, “Melior”, “Emina”, “Valdelosfrailes”, “Vermilion”, “Matarromera Prestigio”, “Rento” y “Terravid”. Recientemente ha creado “EMINAZero”, el primer vino sin alcohol y sin calorías. Además, pertenece a los cuerpos superiores de Administradores Civiles del Estado (1983) y Sistemas y Tecnologías de la Información. Ha obtenido numerosos premios y reconocimientos tales como el Cecale de Oro al mejor empresario. Pertenece a la directiva del Patronato de Cartif, al pleno de la Cámara de Comercio e Industria de Valladolid, a la Junta Directiva de la Cámara Hispano-Alemana. Además, es socio de Bodega Protos, de la Industria Azucarera Acor, y es Fundador y Presidente de VITARTIS (Asociación de Biotecnología de Castilla y León), de la Asociación REDUCE CO2 y de la Asociación de Aceites del Duero. Gestión tecnológica en el sector vitivinícola Luis Carlos Moro González INTRODUCCION Génesis del Grupo Matarromera Los orígenes de las viñas del Grupo Matarromera, en Valbuena de Duero, se remontan a los monjes cistercienses del siglo XII, que aportaron sus variedades y las adaptaron a la región. En aquella época, cada monje tenía su ración diaria de vino, que era de una emina. Desde aquellas épocas, la familia Moro ha venido cultivando sus vides y elaborando su vino. Siguiendo con esta tradición viticultora y bodeguera de sus antepasados, Carlos Moro decide en 1988 renovar el viñedo y proyecta la construcción de una bodega de nueva planta que, con moderna tecnología, mantenga las formas de elaboración tradicional e incorpore todos los elementos de calidad en materiales y control de procesos que ofrece el mundo actual, dando lugar al nacimiento de Matarromera. La bodega (véase la figura 1) se crea con el objeto de hacer vinos de excelencia propios de la tierra y la zona, el corazón Figura 1. Bodega Matarromera 215 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española de la Denominación de Origen de Ribera del Duero, pretendiendo ser también un referente como empresa moderna y global, y colaborar en el desarrollo económico, social y cultural de la región. En busca de la excelencia, Matarromera ha abordado, como parece más cercano y obvio, toda el área enológica, que incluye diversas facetas como la vitivinícola, la de construcción industrial, la logística, la planificación estratégica, etc.; pero también ha abordado otras áreas de carácter horizontal como la informática, la estadística o los sistemas de información y de comunicaciones, que han reforzado la fortaleza de la empresa, consiguiendo, por ejemplo, controlar la trazabilidad de sus productos. Además, en busca de esa modernidad y globalidad, Matarromera se ha introducido, gracias a su actitud y aptitud investigadora, en otras áreas relacionadas con su actividad vitivinícola, pero en modo alguno convencionales. Es el caso, por ejemplo, del vino desalcoholizado, la extracción de los polifenoles de la uva, la obtención de alimentos funcionales o la obtención de cosméticos dermatológicos de alta gama. directamente de la uva y de la viña, solo hay dos referencias con autenticidad y trazabilidad del origen: una compañía francesa y Matarromera (ESDOR).1 En el ámbito de la sostenibilidad y la protección del medio ambiente, Bodega Matarromera, ha tomado por bandera y por referencia la asunción de los conceptos de funcionamiento y desarrollo de la empresa con aplicaciones novedosas y exclusivas, como la recuperación de todo tipo de residuos orgánicos para uso energético. Y, por supuesto, el aprovechamiento de todos los fluidos y del agua de proceso, así como de aguas pluviales. Todo ello conforma el amplio mundo de innovación y desarrollo tecnológico en el que participan activamente todas las secciones y empresas del Grupo Matarromera, compuesto por siete bodegas (Matarromera, Emina, Valdelosfrailes, Rento, Cyan, Emina Rueda y Emina Oxto), la Destilería del Duero y el restaurante La Espadaña, así como las 815 ha de diversos cultivos con predominio de la uva y el olivo. La cultura tecnológica En paralelo con la actividad vitivinícola, también se debe citar el desarrollo moderno del cultivo del olivo en Castilla y León y su procesamiento moderno para obtener aceite de oliva virgen extra de la máxima calidad y, a su vez, la extracción de los polifenoles de este fruto. Cuando se habla de desarrollo informático o de trazabilidad, se puede considerar que se trata de conceptos “comunes”, pero la eficiencia, el enfoque y la utilidad son realizaciones específicas de cada empresa y básicas para su competitividad. Por ello, se debe lograr en ellas el nivel más alto posible para conseguir la homologación a nivel mundial. Desde su origen, la cultura de Matarromera está impregnada de la idiosincrasia, experiencia y trayectoria profesional de su fundador, quien había trabajado durante un buen número de años en sectores punteros en investigación y tecnología como los de informática, sistemas de información, telecomunicaciones, nuevos materiales o aeronáutica y espacio. Esta experiencia en otros ámbitos y sectores de la actividad industrial, tan ajenos a la realidad de un sector por demás 1 En el caso de la obtención y el uso de los polifenoles, los precursores fueron doctores estadounidenses, si bien con la colaboración de investigadores de otros mucho países. Con respecto a los cosméticos basados en polifenoles obtenidos 216 La web www.springwise.com proclama “lo esperanzador que resulta que una compañía se expanda de manera que refleje la sostenibilidad y las buenas sinergias, como lo ha hecho la empresa bodeguera Matarromera, utilizando viñedos 100% de la Ribera del Duero y un proceso patentado con la molécula eminol, también patentada”. Gestión tecnológica en el sector vitivinícola clásico como el vitivinícola, ha permitido a Matarromera identificar y aplicar numerosas sinergias o similitudes conceptuales que están permitiendo la “desmaduración” y diversificación de su actividad. Otro componente importante de la cultura de innovación procedió del conocimiento de los modelos y prácticas en la gestión de los proyectos de investigación europeos, españoles y regionales. Estos conocimientos implican la familiarización con los sistemas de funcionamiento y los apoyos para la realización de proyectos de investigación que las distintas administraciones y organismos públicos están poniendo a disposición de las empresas, las universidades y los centros tecnológicos y de investigación, para desarrollar y ampliar sus capacidades. Estas actitudes tecnológicas iniciales se reforzaron con una captación de personal orientada a conseguir la participación de algunos de los mejores ingenieros, enólogos y empresarios del mercado, lo que ha permitido a la empresa contar con todas las raíces tradicionales y culturales del sector y con toda la fuerza del conocimiento del “estado del arte” del presente. La motivación hacia la excelencia pasa por la búsqueda constante de la mejora, y para ello es indispensable la investigación permanente. En Matarromera existe una cierta fuerza interior que la encamina hacia la búsqueda de esa calidad en todo cuanto aborda. Debe tenerse en cuenta que los competidores en vinos de calidad forman el más amplio elenco de bodegueros de todo el mundo. El grupo de investigadores, técnicos, enólogos y demás profesionales de alto nivel, conforman el componente más valioso del Grupo Matarromera. Durante años se ha realizado una labor de selección y formación del personal científico y técnico, incorporando a diversos doctores e investigadores, o a personas que han conseguido sus doctorados trabajando dentro del Grupo. Un mundo tan competitivo como el del vino de máxima calidad fomenta la sana competencia y la beneficiosa inclinación a “ir más allá”, a buscar el “vino perfecto”, que seguramente no se pueda conseguir nunca, como sucede con tantos otros sueños de la humanidad. Implantación de la función de investigación La motivación del Grupo Las bases de la motivación ya están sentadas en los principios comentados en el apartado anterior: origen de los responsables, formación científica y técnica, experiencia en la realización de investigación o en el fomento y promoción de la misma. Pero, sobre todo, habría que citar el fuerte deseo de convertir una empresa con una base y concepto tradicionales, en una empresa puntera, líder y presente a nivel mundial. El deseo de ser capaces, desde un pueblo de las tierras castellanas, de generar conocimiento y valor, similares a los generados en cualquier otra parte de ese mundo que se presenta como más moderno a los ojos del ciudadano español. Es obvio que los fines estratégicos señalados (exclusividad, calidad, eficiencia empresarial y excelencia) solo se pueden alcanzar por medio de una cualificación investigadora al más alto nivel y en competencia mundial. Como palanca de impulso al mercado y de referencia del soporte investigador, solo lo realmente novedoso y de altura consigue las preferencias de los medios científicos, de los medios de comunicación social, y de las personas y los consumidores o usuarios en particular. Lo vacuo o lo inconsistente no tardan en caer, y no reflejará la solidez, seriedad y fortaleza de una organización. Matarromera ha buscado las políticas a medio y largo plazo y la estabilidad, permanencia y perdurabilidad para sus esfuerzos innovadores. 217 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Tras unos primeros años reservados a ingentes acciones en inversión, construcción, replantación de viñedo y creación de las bases para el desarrollo de la empresa, a partir de finales de 1992, Matarromera comienza a realizar todas las acciones operativas y de materialización física de los proyectos de inversión. La obtención de un importante premio2 convirtió a la empresa en noticia de cabecera nacional, de referencia internacional, y de amplia extensión y significado. Fue un nuevo impulso a la rutilante Ribera del Duero y a los vinos españoles en el mundo. En el año 2000, una vez acumulado un equipo humano mínimo necesario para dedicar tiempo y trabajo eficaz a las labores de investigación, se pudo participar en un Proyecto Europeo Craft (Wine Panel Taste), que convirtió a Matarromera en el líder de un consorcio en el que participaban los centros enológicos de La Rioja y de Castilla y León, la Universidad de Valladolid y 16 empresas más, ocho de ellas bodegas pertenecientes a cuatro países distintos. Así se pudo conocer el entorno tecnológico de centros de enología punteros, universidades y, sobre todo, empresas. El proyecto fue exitoso, con la consecución de un prototipo patentable, y propició la formación del equipo tecnológico y enológico de Matarromera, además de aportar, la experiencia en la dirección de proyectos y la relación con las autoridades responsables de los distintos organismos y de la Unión Europea. El año 2004, con el impulso de CARTIF y los apoyos de la Agencia de Desarrollo Económico de Castilla y León y del CDTI (Ministerio de Industria y Energía), se produjo un salto cualitativo y cuantitativo sustancial: se abordaron los pro2 Una Gran Medalla de Oro, en uno de los concursos oficiales de la OIV (Organización Internacional de la Viña y el vino), premio que no había conseguido ningún vino tinto español en los diez años anteriores. 218 yectos de desarrollo de sistemas automáticos de control, de trazabilidad y de desarrollo de nuevas técnicas para la extracción de moléculas polifenólicas antioxidantes. Esto dio lugar a la creación en Matarromera del Departamento de Investigación y Desarrollo, con personalidad e identificación propias, y con un equipo todavía pequeño, pero bien conjuntado. La envergadura de los proyectos y la aún reducida dimensión de la empresa llevaron a tomar una decisión trascendental para su futuro desarrollo y para la aplicación de la investigación a todos los ámbitos de la empresa y, lo que es más importante, a todos los intersticios entre esos ámbitos. La decisión fue involucrar a todos los técnicos, enólogos y departamentos en los proyectos de investigación. Se pidió el compromiso de una parte del tiempo de cada uno de ellos en los proyectos, que no eran solo del departamento de I+D+i, sino de toda la empresa. En consecuencia, cada enólogo, bodeguero o técnico debía participar en las tareas requeridas en el marco de unos proyectos importantes, serios, bien concebidos, totalmente auditados, y contratados por organismos y unidades de la Administración y de los centros tecnológicos. Esta decisión histórica y esta actitud, no solo han permitido desarrollar los proyectos, sino que han hecho que todo el mundo —o todos los que tenían relación con la materia- aportase su valor, su experiencia y su conocimiento práctico. Además, el contacto y la interrelación con los miembros de las universidades, de los centros tecnológicos y de las auditorías técnicas realizadas para la Administración Pública o la Unión Europea, han elevado el saber y el hacer técnico diario de las personas, y su nivel científico. Esto ha permitido estar en el estado del arte, tanto a la organización como a los miembros que la componen, y poder incorporarla a las normas ISO (International Standard Organization), a los procedimientos, o posteriormente, a la norma UNE 166002 de I+D+i, siendo la única bodega de Europa que hasta la fecha dispone de ella. Gestión tecnológica en el sector vitivinícola Medios utilizados Una apuesta de la envergadura que se describe en este trabajo no se podría haber hecho únicamente con los medios propios de la organización. Desde el primer momento se planificó contar con cuantos organismos, instituciones, empresas o personas tuvieran mayor experiencia en los campos de investigación a desarrollar. Para ello se ha contado de forma prioritaria con diferentes institutos tecnológicos, centros de investigación, universidades y empresas de probada experiencia tecnológica; y, para las instalaciones físicas, con los suministradores óptimos de maquinaria, equipos, laboratorios o todo tipo de ingredientes, componentes o consumibles. Cabe destacar los proyectos realizados con el apoyo del Centro Tecnológico Cartif, así como del CETECE, las Universidades de Valladolid, León, Salamanca y Burgos, ITACyL, Estación enológica de Castilla y León y Estación enológica de Haro, en La Rioja, el CSIC, AINIA, Imbiotec y otras universidades y centros tecnológicos españoles, a los que habría que añadir algún otro europeo. También deben ser mencionados los estudios clínicos desarrollados en la Facultad de Medicina de la Universidad de Valladolid y los estudios clínicos en humanos llevados a cabo con Quantum en la Universidad de Álava y en el Hospital Clínico de Madrid. Otro punto importante es la creación de Abrobiotech, S. L., empresa dedicada a la biotecnología y su investigación, que ha tomado el relevo de múltiples proyectos de investigación especializándose en la extracción de polifenoles y en su selección, refinamiento y conservación. A nivel interno, se ha instalado un laboratorio central de investigación ubicado en el Centro EMINA y se ha dotado de laboratorios descentralizados a todas las bodegas principales del grupo, así como a la planta de deconstrucción molecular, pionera en el mundo. Utilización y repercusión de los resultados obtenidos Una de las circunstancias de las que Matarromera y su departamento de I+D se sienten más satisfechos es la de que todas las investigaciones que se han realizado han tenido una gran utilidad, no solo para la empresa, sino para todo el sector de aplicación; e incluso en el caso de ingredientes, como el eminol, para todo tipo de empresas alimentarias y farmacéuticas. Además de ello, la gran mayoría de las investigaciones están llevando a conseguir productos y procesos comercializables, que aportan al mercado un valor diferencial. Es el caso de: • Los vinos de alta calidad o de mejores características organolépticas, o con menores contenidos de moléculas no deseadas. • Los nuevos productos (moléculas o conjunto de moléculas) como el eminol, muy valiosos como antioxidantes, antifúngicos, o de interés para prevenir o mejorar afecciones, como hipocolesterolemia, ateromas, etc. • El sistema de deconstrucción molecular del vino, conocido por algunos autores como desalcoholización, que ha dado lugar a la modificación de la normativa vinícola comunitaria, pero sobre todo a la autorización de la práctica enológica por la Unión Europea. El resultado concreto del sistema ha sido la consecución de vinos sin alcohol, vinos sin alcohol y sin calorías o bebidas refrescantes sobre la base de vino desalcoholizado. • Nuevas fórmulas complejas y funcionales para conseguir la línea de cosméticos, de probada excelencia y eficacia, que acaba de aparecer a finales del año 2010. El ámbito de las investigaciones es absolutamente general y global, con repercusiones a nivel mundial; y no solo en el 219 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española ámbito de investigación, sino en el de los propios productos y su comercialización. La incidencia en el entorno está siendo vital: la creación de empleo y el desarrollo económico, social y científico en la zona, han resultado fundamentales para anclar población cualificada y con perspectivas de futuro. De vital importancia ha sido la creación, para cada desarrollo, de empresas específicas dentro del ámbito interno del Grupo: Bodega Emina (sin) se especializa en la producción de vinos bajos en alcohol o sin alcohol; la empresa Abrobiotech, en el desarrollo de I+D y biotecnología para las otras empresa del grupo o para terceros. Las inversiones realizadas y el equipo formado, con multitud de becarios, de doctorandos o personas en prácticas incorporadas a una sólida base estructurada, permiten augurar un futuro prometedor, y la continuidad en las líneas de investigación y en la profundización y extensión de las mismas. Pero aún queda todo por hacer, solo se han dado los primeros pasos; hay una infinita cantidad de actividades de progreso, que pueden aportar a la sociedad nuevos productos que mejoren la salud, la calidad de vida, la nutrición o, simplemente, la satisfacción de sus ciudadanos. lidad de sus vinos le ha proporcionado. Todo ello con gran austeridad y ahorro de medios superfluos, pero sin escatimar los necesarios para contar con las personas e instituciones necesarias en cada tema y sector. En los apartados siguientes se desgrana cada una de las cuatro líneas que se apuntan en los párrafos anteriores, los elementos peculiares del desarrollo de cada una de ellas y los detalles más interesantes de lo que se ha venido experimentando. Hay que remarcar que todas las líneas de trabajo han tenido una importancia enorme sobre la reducción de costes en los proyectos horizontales y en los de sostenibilidad y en el aprovechamiento de las energías alternativas y de la biomasa. Sobre el mercado, las proyecciones de cada una de las líneas y empresas son muy esperanzadoras, pero ahora habrá que aplicar otras cualificaciones y otras técnicas empresariales para llevarlas a todos los rincones del mundo con eficacia y con rentabilidad. También en eso la empresa está implicada y comprometida, para que se pueda seguir alimentando ese deseo de desarrollo de investigación y, en definitiva, de futuro. VINOS Posicionamiento del sector Corolario de la introducción Este es el resumen de la actividad de la empresa en el campo de la investigación, pero esta se desarrolla a través de líneas específicas y de aéreas concretas de departamento o empresa, y cada una de ellas tiene una notable relevancia y supone una importante inversión. El conjunto de la inversión desde 2004 hasta 2010, en proyectos aprobados oficialmente, ha sido de 27,4 millones de euros, que no es pequeño esfuerzo para una empresa o pequeño grupo. Matarromera está situada en pleno corazón de la Ribera del Duero. La Denominación de Origen Ribera del Duero es una de las más prestigiosas regiones vitivinícolas en España3. Constituida por municipios de las provincias de Burgos, Valladolid, Soria y Segovia, su ubicación resulta el marco perfecto para la elaboración de unos tintos donde predomina la variedad tempranillo o tinta del país, la uva idónea para el clima continental de la zona. Los contrastes climáticos son 3 Matarromera no ha hecho otra cosa que aplicar los recursos propios y la reinversión de los buenos resultados que la ca220 Prueba de ello es que el crítico estadounidense Robert Parker destacó 176 vinos en su última selección, pertenecientes a 38 bodegas de las casi 250 que conforman la Ribera del Duero. Gestión tecnológica en el sector vitivinícola protagonistas durante todo el año: los veranos suelen ser muy calurosos, con extremadas diferencias térmicas diurnas y nocturnas; y los inviernos, muy fríos y largos. Esto influye a lo largo del ciclo vegetativo de las viñas, desempeñando un papel fundamental en el desarrollo de la planta y la maduración de la uva. La satisfactoria experiencia en la creación y desarrollo de Bodega Matarromera fue un aval importante para que el grupo vinícola se introdujera en la zona de Cigales, creando la Bodega Valdelosfrailes (véase la figura 2) con el mismo objetivo de producir unos vinos reconocidos internacionalmente por su calidad y personalidad. Esta fue creada en 1999 y supuso acometer un ambicioso plan de inversiones para dimensionar adecuadamente la bodega, y para contar con el viñedo propio necesario para la oportuna elaboración. Posteriormente, Bodega Matarromera, S. L. continuó su expansión empresarial con la compra de una destilería y un restaurante, y con la construcción de otras bodegas (véanse las figuras 3 y 4). Figura 3. Destilerías del Duero y restaurante La Espadaña. Año 2003 Emina-Medina se ha convertido en el emblema de Matarromera dentro de la zona con mayor y mejor potencial para la Figura 2. Bodega Valdelosfrailes Figura 4. Bodega Emina (D. O. Ribera del Duero). Año 2005 221 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española elaboración de vinos blancos de toda España. Una bodega en la que se ponen de manifiesto la apuesta por la I+D+i y los vinos blancos de calidad (véase la figura 5). Figura 6. Bodega Emina Oxto (D. O. Ribera del Duero) Figura 5. Bodega Emina-Medina (D. O. Rueda). Año 2007 La zona de producción amparada por la D. O. Rueda se encuentra en la comunidad autónoma de Castilla y León, y está integrada por 72 municipios. Es una de las pocas zonas vinícolas europeas especializadas en la elaboración de vino blanco y en la protección y desarrollo de su variedad autóctona, la verdejo. El carácter Rueda está definido por tres elementos: la uva verdejo, autóctona de la zona, el clima continental y los suelos cascajosos. Gracias a la destilería y a los mostos obtenidos en Bodega Emina durante la añada 2005, Bodega Matarromera, S. L. recupera en la zona baja del Duero los vinos fortificados, surgiendo así una nueva empresa: Emina Oxto (véase la figura 6). Merced al trabajo realizado estos últimos años, Bodega Matarromera, S. L. se ha convertido en una de las empresas vitivinícolas con mayor proyección en el panorama nacional e internacional. Además de la línea de elaboración y comercialización de vinos, orujos y destilados de calidad, la empresa realiza otras activi222 dades focalizadas en el enoturismo. Los vectores de impulsión de esta actividad son el Centro de Interpretación Vitivinícola de Emina y el restaurante La Espadaña de San Bernardo. Tecnologías existentes y aplicación España se encuentra en un momento crucial en el sector vitivinícola. La enorme competencia mundial en el segmento correspondiente al vino obliga a conseguir un producto diferenciado, de alta calidad, que combine la tradición vitivinícola con oportunas investigaciones. Conseguir esta diferenciación pasa por realizar una adecuada innovación tecnológica en todos los aspectos relacionados con los procesos de elaboración de los vinos. Dicha innovación, en sus aspectos científico-tecnológicos, puede concretarse en los siguientes puntos: • Mejora de las técnicas agronómicas. • Mejora de las técnicas enológicas y control de las fermentaciones. Gestión tecnológica en el sector vitivinícola • Diseño de un conjunto de procesos dotados con las más modernas tecnologías que permitan mejorar y asegurar las mejores características de los productos. • Mejoras inherentes al proceso de etiquetado para realizar un correcto loteado y codificación del producto. • Reducción máxima del impacto medioambiental de los procesos y diseño de un sistema que permita un menor consumo de agua, el aprovechamiento de residuos vitivinícolas y la utilización de energías alternativas. • Integración del proyecto de I+D+i; es decir, conseguir que esté acorde con el nivel tecnológico del resto de los procesos. La implantación de un sistema de gestión de la trazabilidad en Bodega Matarromera S. L. ha permitido controlar el proceso industrial y gestionar de una manera eficaz el viñedo. Con el sistema diseñado se consigue un control de la calidad desde la cepa hasta la copa, incrementando el valor añadido de los productos (vinos, aguardientes y licores). Para este fin ha sido necesario disponer de una herramienta informática desde la cual se trabaje y sobre la que se diseñen y programen nuevas aplicaciones que permitan anotar y registrar toda la información que surge en cada proceso; posteriormente permitirá extraer datos para diferentes fines (búsquedas específicas en proyectos de investigación, consultas de trazabilidad, estudios enológicos, etc.); además, se ha buscado que dicha herramienta aglutine todos los datos relevantes para la empresa (facturación, contactos de clientes, proveedores, compras, ventas, etc.). En este caso se ha implantado una gestión de recursos empresariales (ERP) basada en Microsoft Dynamics Navision con un software específico diseñado para el control específico de bodegas: Vinotec. Sin embargo, el compromiso de Bodega Matarromera respecto a la trazabilidad de sus productos pretende llegar a un nivel superior, consiguiendo controlar la trazabilidad palé por palé, caja a caja y botella a botella. Es decir, un sistema de trazabilidad total en el que controlar cada botella como si de un lote único se tratara. Minimizar lotes implica que los análisis de incidentes siempre se acoten a un menor número de unidades. Este nuevo sistema permite actuar de una forma más rápida y sencilla ante cualquier incidente o reclamación de un consumidor, acotando de una forma más directa y controlada el origen del problema, minimizando así los posibles errores del proceso productivo y en concreto del envasado del producto final, punto crítico de dicho proceso. Se ha avanzado también en el seguimiento de los procesos de producción y elaboración de los vinos, y ahora todos los datos están almacenados de manera segura en un servidor cuyos datos son accesibles desde cualquier punto de la empresa, teniendo el control de todos los procesos de producción: entrada de uva, remontados, prensados, trasiegos… Esto permite la trazabilidad en los procesos de producción y de embotellado, tarea obligatoria desde el 1 de enero de 2005, según la normativa europea de trazabilidad. Además de tales logros, esta tecnología permite realizar numerosas gestiones de forma automática, a distancia y en cualquier momento: se llega a más clientes y se atienden más peticiones en menos tiempo. Como prueba de su compromiso tecnológico en el campo de la enología, el Grupo Matarromera ha adquirido recientemente un novedoso y costoso equipo desarrollado en Francia del que apenas existen unas pocas unidades en España. Este equipo emplea tecnología de visión artificial para medir el color y volumen de las bayas, y los integra con una serie de parámetros analíticos para ofrecer una información muy valiosa desde el punto de vista de la viticultura y la enología. Así, por ejemplo, permite conocer los cambios en la composición aromática de la baya (perfil terpénico/perfil tiólico), pudiendo ajustar el momento de vendimia para obtener vinos con aromas más herbáceos (terpénicos) o más afrutados (tiólicos), según convenga. Además, con este equipo es posible seguir la evolución de las maduraciones sacarimétrica y fenólica, lo que permite determinar el momento óptimo de madurez de la uva para 223 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española decidir en qué momento se debe vendimiar. La información ofrecida por este equipo sitúa al Grupo Matarromera en una posición ventajosa, pues permite vendimiar las uvas en su momento óptimo de madurez y con una composición aromática idónea para elaborar los mejores vinos. Una vez que la uva llega a la bodega, un factor muy importante en la obtención de la calidad de los vinos es la temperatura en todo el proceso de elaboración. En cada momento necesita una temperatura adecuada, sobre todo durante las fermentaciones. La gestión de control de fermentación (frío/calor) se le ha encomendado a un sistema gobernado por una pantalla táctil, con visualización de sinópticos y control digital. Durante la fermentación y maceración, además de controlar la temperatura se deben realizar remontados para una mejor extracción de la materia colorante y la consiguiente obtención de vinos de mayor calidad. La extracción es la principal función de los remontados, debido a que la materia colorante se encuentra en la piel de la uva, llamada hollejo. Durante la maceración y fermentación se forma una pasta de hollejos en la superficie del depósito, denominada sombrero. El remontado se realiza extrayendo con una bomba el mosto/vino de la parte inferior y elevándola por una tubería hasta la boca superior, donde se distribuye de manera automática por la superficie del sombrero; de esta manera se produce el contacto entre el mosto/vino y los hollejos, dando lugar a la extracción de materia colorante. En las maceraciones se busca estabilizar el color del vino tinto, para lo cual se favorece la unión tanino-antociano y se emplean técnicas de copigmentación utilizando taninos que proceden de la pepita de la uva. Para alcanzar la máxima calidad de sus vinos, Bodega Matarromera produce tintos de crianza, reserva y gran reserva. Estos vinos se consiguen mediante el paso del vino por la barrica de roble. En la barrica, además de la microxigenación se produce una migración de compuestos aromáticos de la madera al vino. Para obtener vinos con personalidad propia se seleccionan barricas y tostados de la madera que integren, armonicen y complementen las cualidades naturales de los vinos. La microxigenación es un proceso en el cual el vino absorbe pequeñas cantidades de oxígeno, que debe ser aportado de forma muy lenta y controlada. Esta técnica se utiliza en la elaboración del vino para mejorar ciertas cualidades, como la disminución del carácter vegetal y la desaparición del gusto a reducido. La microxigenación también preserva el color, el aroma y el equilibrio de los vinos, sobre todo entre fermentación alcohólica y maloláctica. En las barricas de madera, la microxigenación se produce debido a que la madera deja pasar pequeñas cantidades de oxígeno. Pero, gracias a la tecnología, Matarromera es capaz de realizar microxigenaciones durante el proceso de elaboración, mejorando la calidad de sus vinos. I+D+i En función del tipo de uva, se aplica un programa de remontado diseñado a medida (con o sin difusor, con más o menos aporte de oxígeno, remontados de descarbonatación, délestages, etc.). La aplicación de oxígeno a la fermentación permite fijar el color y controlar las poblaciones de levaduras. La microxigenación se realiza de manera precisa, controlando tanto el tiempo como el caudal de oxígeno que se aplica, y sustituye en parte a los tradicionales remontados con carro que, además de no controlar el oxígeno que se añadía, producían una pérdida irrecuperable de aromas. 224 La actividad investigadora del Grupo Matarromera comenzó en el año 2002 con la participación en el proyecto europeo Wine Panel Test, cuya finalidad fue el diseño de un panel de cata electrónico, equipado con sensores capaces de identificar y cuantificar las características organolépticas del vino de manera análoga a un catador experimentado. El departamento de I+D+i, creado en 2004, tiene como misión impulsar la mejora continua de procesos, implantando Gestión tecnológica en el sector vitivinícola nuevas tecnologías y desarrollando los sistemas de gestión que rodean al mundo enológico, como son la trazabilidad, la gestión de recursos empresariales (ERP) y la propia gestión de la I+D+i. A continuación se realiza una somera descripción de algunos de los proyectos de mejora acometidos por este departamento. Uno de los objetivos principales del Jardín de variedades del Centro es mantener y adaptar en la región una gran variedad de especies que van desde la tinta del país, tempranillo, tinta de Toro, rufete, Juan García, mencía, verdejo, etc., hasta la pinot noir, chardonay, viognier, Gewürtzraminer, petit verdot, etc. La conservación y la experimentación con estas variedades de vid permiten conocer la capacidad de adaptación de estos cultivos como consecuencia del cambio climático. Eminatraza Desarrollo de un sistema de optimización y control de la producción vitivinícola (parcela y bodegas) y aumento del valor añadido del producto final, mediante la utilización de las más modernas tecnologías en comunicaciones y nuevos algoritmos de proceso. Los principales avances tecnológicos que se han conseguido desarrollar mediante este proyecto de investigación están relacionados con el empleo de técnicas innovadoras en la fase de embotellado y etiquetado de vino del proceso productivo, así como la integración y automatización completa de todos los equipos, la monitorización de los autómatas (desde el ordenador central de la bodega) y la captación de datos en tiempo real. Embotellado Diseño y desarrollo de la automatización y control on-line del embotellado, almacenamiento y etiquetado de vinos acogidos a la D. O. Ribera del Duero con ahorro energético mediante el empleo de energías alternativas. Jardín de variedades En el año 2007, comenzó en el Centro de Interpretación Vitivinícola Emina un estudio sobre el comportamiento de las variedades autóctonas y de otras nuevas de interés enológico en la región ante el cambio climático. Estudio del efecto de procesos agronómicos, procesos enológicos y microorganismos, en la presencia de sustancias nocivas en el vino: histaminas Una de las motivaciones del departamento de I+D+i en relación con los vinos surge porque las nuevas generaciones de consumidores demandan vinos de grandes cualidades organolépticas, pero al mismo tiempo desean productos con excelentes garantías saludables, es decir, que no contenga sustancias nocivas ni produzcan reacciones alérgicas. En el vino están presentes compuestos beneficiosos para la salud como los polifenoles, con demostrados efectos antioxidantes y cardioprotectores. No obstante, en determinadas condiciones pueden aparecer en el vino otros compuestos que pueden afectar negativamente a la salud de los consumidores, como las histaminas. Las histaminas son compuestos químicos que pertenecen al grupo de las aminas biógenas que, a elevadas concentraciones, pueden producir en algunas personas hipersensibilidades alimentarias similares a reacciones alérgicas u ocasionar dolores de cabeza. Además de en el vino, las histaminas se pueden encontrar en niveles considerables en distintos alimentos como queso, chocolate, pescado y otros. De hecho, las concentraciones de estos compuestos en el vino son muy inferiores a las del resto de alimentos, y normalmente no están presentes en cantidades tales que puedan afectar a la salud de los consumidores. Sin embargo, la consideración que tiene el vino 225 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española como alimento saludable hace que los controles sobre los niveles de estos compuestos sean más estrictos. La presencia de histaminas en los vinos está determinada por factores agronómicos y enológicos, por lo que unas buenas prácticas en el campo y en la bodega permiten mantener estas sustancias a niveles inocuos. Por regla general, su contenido aumenta en gran medida al finalizar la fermentación maloláctica, por lo que el contenido en histaminas es habitualmente mucho menor en los vinos blancos y rosados que en los tintos. La vigilancia de los niveles de histaminas en vinos viene aumentando en los últimos años en varios países, que han impuesto mayores controles a su importación. Así por ejemplo, el Gobierno suizo recomienda que los niveles de los vinos que entran en su país estén por debajo de 10 mg/l. Otros estados europeos, como Países Bajos, Dinamarca y los países escandinavos, comienzan a ser más restrictivos con estas sustancias. En este aspecto, el Grupo Matarromera desarrolla, entre otros, este proyecto de investigación con el objetivo de garantizar al consumidor que sus vinos, además de sus excelentes cualidades organolépticas, son completamente inocuos para la salud. El objetivo es potenciar en el vino la presencia de compuestos beneficiosos y a la vez reducir la cantidad de aquellos compuestos que pueden afectar a la salud de los consumidores y causar problemas a la hora de exportar los productos. Desarrollo de métodos vitícolas y enológicos frente al cambio climático. Aplicación de técnicas que mejoren la eficiencia de los procesos resultantes: CENIT Deméter El cambio climático global es un hecho científico contrastado; en concreto, en el viñedo español se observan cambios en el proceso de maduración de la uva, produciéndose un desfase entre la madurez en el contenido de azúcares y la madurez 226 de los aromas y los polifenoles. En consecuencia, para conseguir aromas y polifenoles maduros se deberán fermentar mostos con elevada concentración de azúcar, obteniendo vinos excesivamente alcohólicos y de baja acidez. Este tipo de vinos resultan pesados y más vulnerables a fenómenos de oxidación. Con vendimias más tempranas se obtendrán vinos más frescos y ligeros, pero más verdes y de menor complejidad aromática. Surge la preocupación de cómo el cambio climático va alterar la composición de la baya, posiblemente modificando las concentraciones de compuestos beneficiosos y nocivos. Además, existe la preocupación por la viticultura, ya que se modificarán sustancialmente los periodos de cultivo de la vid y su adaptación a la climatología externa. El Consorcio CENIT Deméter está integrado por 26 empresas españolas vinculadas al sector vitivinícola, de las cuales dos tercios son bodegas y el tercio restante corresponde a empresas auxiliares. Gracias a este proyecto, que supondrá una inversión global de casi 27 millones de euros durante cuatro años, se llevarán a cabo diversas investigaciones con 31 grupos de investigación pertenecientes a 17 centros públicos de investigación y a cinco centros tecnológicos, entre los que destacan el Consejo Superior de Investigaciones Científicas, la ETS de Ingenieros Agrónomos de Madrid o la Universidad de Salamanca, entre otros. Grupo Matarromera, que invierte 2,8 millones de euros en el Proyecto CENIT Deméter hasta 2011, trabaja con dos variedades de gran calidad: es la única bodega del grupo de empresas integradas en el proyecto que estudia la variedad verdejo —típica de la zona de Rueda— (véase la figura 7) y también estudia la variedad tempranillo de la Ribera del Figura 7. Emina Verdejo Duero (véase la figura 8). Gestión tecnológica en el sector vitivinícola parte de la vid. Las temperaturas cada vez son más elevadas y las precipitaciones menores, por lo que la vid sufre estrés hídrico. En este proyecto se observan los cambios de expresión génica con el proceso de maduración de la uva (síntesis de azúcares, aromas y polifenoles). Mediante técnicas desarrolladas por el CSIC se puede identificar qué genes de la vid se ponen de manifiesto cuando la planta está estresada, de forma que se podrán seleccionar variedades o clones donde estos genes tengan un menor peso específico. • Estudio de técnicas vitícolas de adaptación del viñedo a las nuevas condiciones derivadas del cambio climático: se intenta combatir este cambio mediante nuevas estrategias agronómicas. Figura 8. Uva variedad tempranillo El objetivo general es realizar una investigación de carácter estratégico y multidisciplinar en el campo de la vitivinicultura a nivel nacional, que permita la generación de conocimientos científico-técnicos para un mejor posicionamiento futuro del sector bodeguero y de la industria auxiliar del vino frente al cambio climático. Entre las líneas de investigación que se llevan a cabo se desarrollan: • Estudios de biología molecular: hay múltiples estudios que consisten en identificar y conocer los genes que forman • Estudio de estrategias de adaptación de levaduras y estudio de estrategias de adaptación de bacterias a la nueva composición de mostos y vinos. La levadura es el microorganismo encargado de realizar la fermentación alcohólica: transforma los azúcares en alcohol y CO 2; las bacterias son las encargadas de realizar la fermentación maloláctica: transforman el ácido málico en ácido láctico y CO 2 (en menor cantidad que las levaduras). Estas líneas de estudio incorporan tecnologías avanzadas en la gestión enológica como estrategia de adaptación al cambio climático; en concreto, a graduaciones alcohólicas elevadas. Las graduaciones alcohólicas elevadas, o el pH muy ácido si se vendimia antes de tiempo para conseguir graduaciones alcohólicas moderadas, dificultan las fermentaciones, sobre todo la fermentación maloláctica. • Estudio de análisis de aromas y polifenoles. Esta rama está relacionada con el resto de estudios anteriores. Los análisis de aroma y polifenoles son importantes para comparar los cambios genéticos, debido a que el estrés al que está sometida la planta con el cambio climático cambia la expresión génica y por tanto la síntesis de aromas y polifenoles. 227 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española • Con el estudio de viticultura y enología se pretende obtener mayor contenido aromático y polifenólico sin alcanzar grandes graduaciones alcohólicas, consiguiendo así vinos de calidad. • Existe también un apartado en el que se estudian los vinos espumosos (cava, champán, etc.) y donde se están realizando series de ensayos con la intención de conseguir la adaptación integral al cambio climático del sector del espumoso, motivado por algunas inquietudes distintas al sector de los vinos, como las relacionadas con la espuma: capacidad espumante de un vino, tamaño de la burbuja, durabilidad, persistencia, etc. • El estudio del medio ambiente busca estrategias que permitan reducir el impacto medioambiental del sector vitivinícola. Se abordan proyectos como la reutilización de aguas residuales y el análisis del ciclo de vida del sector del corcho. Se trata de un proyecto de investigación sin precedentes, que pretende conseguir que la viticultura y la enología españolas accedan a una posición de liderazgo en un contexto global y cambiante. Productos Solamente en el sector del vino, el Grupo Matarromera tiene: • Más de 30 referencias de las cuatro Denominaciones de Origen (Ribera del Duero, Rueda, Cigales y Toro) en las que está presente con sus siete bodegas. • Seis variedades de vino: tintos, rosados, blancos, semidulces, espumosos y oportos. • Seis tipos de vino: robles, crianzas, reservas, grandes reservas y vinos de pago. 228 VINO SIN ALCOHOL Posicionamiento del sector En los últimos años, numerosos estudios han demostrado que el consumo moderado de vino aporta beneficios para la salud, principalmente debido a sus propiedades antioxidantes y a sus efectos en la prevención de enfermedades cardiovasculares. En 1990 los doctores Curtis Ellison y Serge Renaud revelaron, en un programa de televisión de la BBC, un estudio realizado con datos de varios países que hacía referencia a una aparente discordancia entre el consumo de grandes cantidades de bases grasas y la baja incidencia de enfermedades cardiovasculares entre los franceses. Era la primera vez en la que se llamaba la atención sobre la denominada “paradoja francesa”. En Francia, el consumo de grasa saturada —aquella que favorece el depósito de colesterol en las arterias— es similar al de otros países industrializados como Estados Unidos o Reino Unido, y también son similares los niveles de colesterol plasmático. Sin embargo, la tasa de mortalidad cardiovascular es notablemente más baja en Francia que en otros países analizados. La explicación de esta diferencia se ha buscado en la dieta propia y característica de los franceses, conocida como dieta mediterránea, que incluye abundante pan, verdura, fruta, queso, aceite de oliva y vino, así como poca mantequilla. Particularmente, se atribuye un papel clave al consumo de vino, que en los franceses es de entre 270 y 400 ml por día. En relación con la cantidad, una curva clásica, designada como curva en J (véase la figura 9), muestra cómo la mortalidad es mayor tanto entre quienes se abstienen de consumir vino como entre quienes lo hacen en exceso. Así, la moderación es clave. Efectivamente, en Francia y otros países del área mediterránea (España, Portugal, Italia, Grecia y Yugoslavia) el vino es Gestión tecnológica en el sector vitivinícola • Evitan que las plaquetas de la sangre se aglutinen formando coágulos. Riesgo relativo de mortalidad 2,5 2,0 • Disminuyen las inflamaciones. 1,5 1,0 0,5 0 0 1-6 3 7-1 -27 14 -41 28 -69 42 9 >6 Tragos semanales Los taninos son parte de los polifenoles que se encuentran en la piel de la uva, y se reconocen por el sabor secante en la boca. No todos los tipos de uva tienen la misma cantidad de taninos: el que posee mayor concentración es el cabernet sauvignon, seguido de syrah, malbec, merlot y pinot noir. El contenido de taninos produce mayor cantidad de colesterol bueno, o HDL, y sirve de cardioprotector debido a su alta densidad. Figura 9. Curva en J que muestra el riesgo de mortalidad consumido con las comidas y en situaciones en las que beber es una forma de interacción, no el objetivo de la actividad. El uso del vino está integrado en los comportamientos habituales de estos pueblos, que lo consumen en las comidas y en ocasiones de celebración social. En general, en estos países hay menos problemas de abuso de alcohol. La cultura mediterránea es una cultura basada en la moderación, que recibe en su salud los beneficios de su dieta. Por lo tanto, queda demostrado que el vino tinto consumido moderadamente es saludable y ofrece diversos beneficios para el sistema cardiocirculatorio. Por otra parte, el contenido en polifenoles y vitaminas combate el envejecimiento y ayuda a tener una piel más sana y tersa. Asimismo, disminuye el nivel de insulina en sangre, aumenta los niveles de estrógeno y mejora la circulación de la sangre en el cerebro. El vino tinto tiene flavonoides y antocianidinas, y estos serían los factores que le aportan poder antioxidante. Los flavonoides presentan características muy útiles: • Hacen más inofensivo el colesterol LDL (malo) impidiendo su oxidación. Pero ¿por qué privar de las ventajas del vino a aquellos sectores de la población que no pueden beber alcohol? En el mundo existen más personas que no beben alcohol que las que sí lo hacen. Motivos como la edad (niños y ancianos), el estado de salud (personas con dolencias hepáticas, hipertensión) o los religiosos (mundo musulmán); las mujeres embarazadas; o las personas que, por ideología, han decidido no ingerir alcohol. Además, la preocupación creciente por parte de los consumidores por el cuidado de la salud ha conllevado un aumento del consumo de productos saludables y está reduciendo significativamente el de alcohol. Ahora, es posible obtener vinos sin alcohol o con un contenido reducido del mismo, con la ventaja añadida de conservar el sabor y las propiedades beneficiosas de los vinos tradicionales. Además de carecer de alcohol, los vinos desalcoholizados tampoco contienen grasa, y suponen menos de la mitad de calorías que el vino tradicional. Esto se traduce en una ingesta de entre 19 y 36 calorías por una consumición de 30 cl, en comparación con las 100 calorías de promedio que supondría en los vinos con alcohol o las entre 100 y 130 calorías que supone beber una lata de refresco. Personas a dieta, conductores, embarazadas o cualquiera que tenga alguna restricción con el alcohol, pueden disfrutar del vino desalcoholizado como una compañía excelente en comidas, eventos profesionales y celebraciones sociales. 229 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española La reducción o eliminación del contenido alcohólico de los vinos no solo está teniendo un profundo impacto sobre el consumidor en relación con la percepción del sabor de un vino, sino que también puede establecer una amplia gama de oportunidades para la creación de nuevas líneas de vinos con un bajo o nulo contenido de alcohol. La posibilidad de elaborar un refresco de sabor intenso y con baja graduación alcohólica que permita su disfrute es la semilla de una novedosa visión que está permitiendo a Bodega Matarromera adentrarse en un mercado nuevo e innovador. de la Viña y el vino) tiene prohibidos los OGM (Organismos Genéticamente Modificados) en el vino, por lo que de momento no se pueden emplear. Tecnológicamente solo existen en la actualidad dos técnicas que permitan la desalcoholización parcial de vinos, una es la ósmosis inversa y la segunda es la evaporación a vacío y baja temperatura. Ósmosis inversa Tecnologías existentes y aplicación Existen distintas alternativas para conseguir vinos de baja graduación alcohólica, como una vendimia prematura o una selección de levaduras con un menor rendimiento de transformación de azúcar en etanol. Para reducir el alcohol en vinos ya elaborados, los procedimientos fundamentales de desalcoholización pueden clasificarse en: • Procesos térmicos (evaporación y destilación en columna). La ósmosis inversa fue desarrollada en los años cincuenta para el ejército estadounidense. Su primer propósito fue la purificación de agua, aunque además tuvo aplicaciones médicas. Es esencialmente un proceso de filtración, pero con necesidades mayores de presión: la técnica requiere alrededor de 70 atmósferas. El sistema que se sigue para disminuir la graduación alcohólica de un vino es el mostrado en la figura 10. El vino (1) es recirculado bajo presión a través de una membrana de ósmosis inversa (4) que solo permite el paso de los componentes más pequeños, principalmente agua y etanol, • Procedimientos de membrana (ósmosis inversa y diálisis). • Crioconcentración. • Extracción con fluidos. • Absorción sobre superficies porosas.4 También se está estudiando la posibilidad de alcanzar una reducción del alcohol mediante bacterias modificadas genéticamente, pero en Europa la OIV (Organización Internacional 4 Pérez, R.; Salvador, M.ª D.; Melero, R.; Nadal, M.ª I. y Gasque, F.: “Desalcoholización de vino mediante destilación en columna. Ensayos previos”. Revista de Agroquímica y Tecnología de Alimentos, n.º 29 (1). 1989. pp.: 124-130. 230 Figura 10. Equipo de osmosis inversa Gestión tecnológica en el sector vitivinícola a los que se denomina permeado (6). Por el contrario, el color, el sabor y ácidos como el tartárico y el málico permanecen retenidos en la membrana (5). Las partículas no retenidas en la membrana (6), junto con el etanol y el agua (permeado), se introducen en una columna de destilación continua (7), donde se separan en alcohol destilado (11) y un residuo de agua pura (9). La corriente de agua pura se mezcla posteriormente con las partículas retenidas en la membrana, reduciéndose por tanto el alcohol en el vino tratado. Columna de Conos Rotatorios (CCR) Bodega Matarromera está centrando sus investigaciones en el diseño de una bebida refrescante, obtenida a partir de sus típicos caldos pero con bajo contenido alcohólico, gracias a la aplicación de técnicas instrumentales como la destilación (a vacío y baja temperatura, para evitar posibles daños térmicos) mediante una columna de conos rotatorios. Desarrollada en Australia, la columna de conos rotatorios (CCR) es el método más rápido, eficaz y rentable existente para capturar y conservar los componentes volátiles de sabor de todo tipo de sustancias liquidas o slurries (líquidos con sólidos en suspensión) a alta velocidad y bajas temperaturas. La técnica CCR surgió a principios de la década de 1990, y produjo un impacto radical sobre toda una generación de enólogos y sobre la manera en que estos abordaban el concepto de "manejo de sabor" en vinos de calidad Premium. Dicho avance fue posible gracias a este método infalible de ajuste de alcohol que no altera las características de sabor naturales de un vino. El objetivo principal de esta tecnología es lograr la separación del alcohol pero sin eliminar, ni tampoco añadir, otros componentes. La ausencia de componentes externos al vino se consigue gracias a que el vapor empleado para la extracción de los componentes volátiles procede del mismo vino. Los beneficios de la tecnología CCR podrían ser resumidos en los siguientes puntos: • Es un proceso sin problemas desde el punto de vista sanitario, ya que se usa acero inoxidable en el equipamiento, fácilmente limpiable. • No se requieren membranas o recambios similares. • No hay pérdida de aromas. • Es un proceso continuo. • El proceso es relativamente barato. El principio de la desalcoholización se basa en la evaporación de los componentes más volátiles del vino (compuestos aromáticos, alcohol), que son recuperados por condensación. El proceso se realiza en condiciones de vacío para favorecer una extracción eficaz, en la que se reduzca el tiempo de operación y se evite la degradación de los componentes que integran el vino. Al trabajar en vacío, la temperatura de ebullición se reduce considerablemente. En el interior de la columna la temperatura es baja (25-32 °C), lo que supone una reducción de las temperaturas de ebullición de los compuestos, permitiendo un proceso menos agresivo para el vino y, por consiguiente, también una disminución en las necesidades energéticas de calentamiento. Además, el uso de fuerzas mecánicas suaves (el líquido cae sobre un cono invertido que gira a altas revoluciones) permite una separación rápida, eficiente y rentable de los compuestos volátiles de aroma/sabor a través de una delgada película de líquido. Con un cierto detalle, el sistema CCR consiste en una columna de extracción gas-líquido donde se produce una transferencia de masas entre ambas fases, permitiendo la separación de componentes en función de su punto de ebullición. El sistema consta de un cilindro vertical de acero inoxidable en el cual un gas recolector inerte captura, en vacío, una corriente de vapor 231 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española de los componentes volátiles de líquidos o de una suspensión. El vino es introducido por la parte superior de la columna, y por gravedad recorre en sentido descendente el interior de la misma, pasando por un sistema de conos rotatorios y fijos que permiten crear una serie de películas muy finas y muy turbulentas. En sentido contrario (ascendente), una corriente de vapor obtenido a partir del mismo vino extrae sus compuestos volátiles, que son recuperados por la parte superior de la CCR, y condensados a través de un sistema de condensadores y enfriadores. El vino desalcoholizado sale de la columna por la parte inferior y es enfriado antes de su almacenamiento en depósitos de acero inoxidable. Para la aplicación de esta técnica, Bodega Matarromera ha tenido que realizar una modificación sustancial en la tecnología, que permite reincorporar una parte del vino procesado en forma de vapor, el cual se utiliza para extraer los componentes volátiles del vino. El proceso consta de dos etapas: 1. Inicialmente se produce una desaromatización del vino, de manera que los compuestos aromáticos (más volátiles) se mantienen separados en un depósito refrigerado; el vino desaromatizado se lleva a otro depósito refrigerado. 2. En la segunda etapa del proceso, el vino desaromatizado es desalcoholizado, obteniéndose de nuevo dos fracciones: etanol de aproximadamente 60°, y vino desaromatizado y desalcoholizado. Una vez culminada la desalcoholización, la fracción aromática es reintegrada al vino desalcoholizado, conservando así todas las cualidades organolépticas del vino original. 232 I+D+i de Bodega Matarromera en el área de la desalcoholización de vinos. Desarrollo de un sistema de evaporación a vacío a través de columnas de conos rotatorios para eliminar el etanol de los vinos de forma parcial (Fase I. Periodo: 2006-07) El objetivo principal de la investigación se basa en reducir el grado alcohólico en vinos que presentan defectos por exceso de alcohol, graduaciones alcohólicas por encima del 14% vol. Supone la reducción del alcohol del vino en 0,5-2,0°, consiguiéndose graduaciones alcohólicas dentro del límite de 12-14% vol. De esta forma se consigue minimizar los siguientes efectos: • Sensación de “calor” asociada al alto nivel de alcohol que oculta el sabor del vino y que cada vez con mayor frecuencia es rechazada por los consumidores. • Sobrextracción de las uvas debido al alto nivel de alcohol. • Fermentación paralizada y otra serie de consecuencias negativas. La innovación principal de este proyecto consiste en que permite minimizar la causticidad y el efecto ardiente que aporta el etanol, así como ajustar sus niveles en un vino con precisión, pero consiguiendo mantener intactas el resto de cualidades organolépticas del vino. I+D+i Estudio, diseño, puesta a punto y optimización de una planta piloto para la desalcoholización parcial o total de vinos de alta calidad Diseño de vinos bajos en alcohol (Fase II. Periodo: 2007-10). Financiación: ADE En los siguientes apartados se ofrece una breve descripción de los proyectos llevados a cabo por el Departamento de La finalidad de este proyecto es el diseño y obtención de “vinos de diseño”, es decir, vinos cuyo grado alcohólico se ha Gestión tecnológica en el sector vitivinícola reducido hasta niveles mínimos (2-3 °alc.) o medios (5-8 °alc.), pero que mantienen intactas todas sus cualidades organolépticas. En este contexto, los objetivos particulares de este proyecto son: • Evaluar la evolución de los parámetros físico-químicos que caracterizan al vino. • Estudio organoléptico del comportamiento de los vinos sometidos a masivas reducciones de alcohol. Se trata de una reducción del 12-11% del volumen completo del vino, lo que supondrá una concentración del resto de componentes (acidez, compuestos polifenólicos, etc.), pérdida de estructura, etc. • Ensayos de incorporación de aditivos alimentarios que permitan reemplazar la estructura y volumen en boca que se pierden al retirar el etanol. La tecnología puesta a punto permite ajustar con precisión el nivel de alcohol del vino para lograr la armonía y el equilibrio (equilibrio óptimo) con el resto de los componentes del vino. La percepción del sabor del vino por parte del consumidor se ve profundamente afectada por sus otros componentes (incluido el alcohol) y por el "manejo" que hace el vinicultor del equilibrio entre dichos componentes. Incluso diferencias bastante pequeñas en niveles de alcohol pueden Grado alcohólico del vino Efecto creciente del “calor” alcohólico; opaca percepción del sabor. (Impuestos pueden aumentarse también) % V/V 16 15 14 ÁREA DE EQUILIBRIO ÓPTIMO PARA LA MAYORÍA DE LOS VINOS 13 12 11 El vino empieza a perder “estructura”; posible necesidad de ajustar acidez, etc. 10 9 afectar en gran medida el aroma y el sabor percibidos del vino. La figura 11 muestra el equilibrio óptimo entre el grado alcohólico de un vino y la apreciación por parte del consumidor de sus características organolépticas. Otros de los objetivos de este proyecto son la eliminación de olores desagradables o la posibilidad de la elaboración de vinos durante todo el año y la reducción de sulfuroso. Investigación de técnicas de desalcoholización de vinos y su aplicación para el diseño de vinos de baja graduación alcohólica (Periodo: 2008-11). Financiación: CDTI A diferencia de los estudios previos realizados por Bodega Matarromera, la base científica-técnica de este proyecto consiste en la puesta en marcha de un novedoso sistema que permita la eliminación de un porcentaje importante de alcohol en los vinos (superior a 5 °alc.) con el fin de obtener una bebida refrescante con una graduación alcohólica comprendida entre 0,5 y 9 °alc. Investigación, diseño y optimización de un proceso para la elaboración de una novedosa bebida refrescante derivada del vino (Periodo: 2010-12). Financiación: FEOGA Mediante este proyecto se pretende obtener un producto refrescante sin alcohol y sin calorías. El proceso de elaboración de dicho producto consta de varias y complejas fases a partir del vino natural. En primer lugar, el proceso de elaboración comienza en el viñedo, mediante diferentes tratamientos vitivinícolas gracias a los cuales se obtiene una uva con un bajo grado alcohólico probable. Posteriormente, esta uva es sometida a una vinificación experimental que permite obtener un vino de elevada aromaticidad y un bajo grado. 8 Figura 11. Grado alcohólico de un vino Toda la investigación llevada a cabo en el ámbito de la desalcoholización de vinos ha permitido el diseño de la mayor 233 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española planta de desalcoholización de vinos (planta de deconstrucción molecular, en su nombre técnico) de Europa, así como la adaptación de la tecnología empleada a los requerimientos impuestos. De hecho, completando los medios e instalaciones de I+D que existen en el grupo empresarial, ya se dispone en el centro Vitivinícola Emina de Valbuena de Duero (Valladolid) de dicha planta desalcoholizadora para la reducción parcial y total del grado alcohólico en vinos, reutilizando el etanol residual en la planta de extracción de polifenoles. Esta planta incorpora una tecnología pionera, inédita y avanzada para la deconstrucción molecular y desalcoholización de vinos, y multiplica el ritmo de elaboración de productos desalcoholizados derivados del vino, alcanzando una operatividad de 4 millones de litros al año, lo que convierte al Grupo Matarromera en líder en la elaboración de dichos productos y le permite atender la fuerte demanda de los mercados exteriores. Productos La posibilidad de ofrecer un producto con todas las características del vino pero sin alcohol o con una baja graduación alcohólica a partir de diferentes métodos, va a permitir ofrecer un novedoso producto a un gran colectivo de la sociedad que por motivos de empleo, salud, religión, etc., no pueden consumir alcohol. Actualmente la Ley de la Viña y del Vino no contempla una denominación específica para las bebidas con una graduación por debajo de 9 ºalc. Según el reglamento de la Ley, para que una bebida pueda llamarse vino tiene que tener más de 9 ºalc, excepto en algunos casos especiales, como los enverados, el chacolí y los vinos verdes, que pueden tener 8-8,5 ºalc. Una vez más las leyes van por detrás de la rápida evolución del mercado. Atender a la demanda de productos de bajas calorías y evitar el rechazo que está sufriendo el consumo del vino por el 234 endurecimiento de la ley de tráfico son algunos de los argumentos que, en opinión de las bodegas, justifican el lanzamiento al mercado de estos nuevos productos. En virtud de lo anterior y fruto de sus investigaciones, Bodega Matarromera saca al mercado los siguientes productos: • WIN: un vino de baja graduación, con 9,5 °alc. Presentado en tres variedades: tinto, rosado y blanco, y destinado a un público joven (véase la figura 12). • EminaSIN: una bebida obtenida con vino desalcoholizado, con menos del 0,5% de alcohol. Elaborado en las instalaciones de la compañía en San Bernardo (Valladolid), el producto se configura como una novedad mundial, dado su casi nulo contenido alcohólico5 (véase la figura 13). • EminaZero: un refresco ligeramente carbonatado elaborado con vino desalcoholizado y edulcorante, sin alcohol (0,0%) y sin calorías. Es la primera bebida del mundo a base de vino desalcoholizado con 0,0% de volumen de alcohol y 0 calorías, por lo que EminaZero elimina los posibles inconvenientes del vino y mantiene todas sus ventajas (véase la figura 14).6 • EminaZero espumoso: elaborado a partir de uvas verdejo y chardonnay de la zona de Rueda por el método tradicional para vinos espumosos, se ha procedido a la desalcoholización de sus componentes a través del sistema de conos rotatorios, y a la posterior reconstrucción organoléptica. Es el primer “champán” 0,0% del mercado (véase la figura 15). 5 Ha sido galardonado por la revista Castilla y León Económica y ForoBurgos como producto más innovador del año 2009. 6 Ha conseguido el Premio INNOVAL, otorgado en la Feria Alimentaria de Barcelona del año 2010, como el producto más innovador en la categoría de “vinos y espirituosos”. El premio se concede a la concepción, desarrollo y lanzamiento del producto más innovador de los dos últimos años. Gestión tecnológica en el sector vitivinícola Figura 12. Tinto, rosado y blanco WIN Figura 13. Tinto, rosado y blanco EminaSIN Figura 14. Tinto, rosado y blanco EminaZero Figura 15. EminaZero espumoso 235 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española INGREDIENTES DE ALIMENTOS FUNCIONALES Los expertos recomiendan seguir una dieta sana, variada y equilibrada como la mejor manera de prevenir ciertas enfermedades, asegurando una buena salud. Posicionamiento en el sector Con la creación de una nueva entidad de carácter biotecnológico —Abro Biotec—, el Grupo Matarromera apuesta por la innovación ampliando su campo de actuación a la obtención de productos que, si bien siguen estando relacionados con la industria agroalimentaria, su aplicación y consumo alcanza al sector farmaceútico, nutricional y cosmético. En concreto, la obtención de un principio activo de origen natural a partir de la uva abrirá las puertas del Grupo Matarromera al mercado de los extractos naturales que son la materia prima de los nuevos productos de carácter funcional (alimentos funcionales) que demandan los consumidores. La biotecnología es, actualmente, uno de los sectores más dinámicos, considerado como el principal motor de cambio tecnológico y acelerador del crecimiento, y es una herramienta de ayuda al desarrollo que ofrece muchas expectativas socioeconómicas. Dependiendo del sector en el que se aplica, la biotecnología se ha dividido en varios tipos: roja, blanca, verde, azul y gris. Dentro de esta clasificación, es la biotecnología verde la que produce mejoras de la competitividad en los sectores agrícola, ganadero y forestal, incrementando la productividad y resistencia de las especies y variedades, tanto vegetales como animales. Alimentación funcional En los últimos años ha aumentado considerablemente el interés por conocer la relación entre la dieta y la salud. Se ha demostrado que muchos alimentos tradicionales como las frutas, las verduras, el pescado y la leche contienen componentes que resultan beneficiosos para nuestro organismo. 236 La falta de tiempo para cocinar, el aumento del consumo de alimentos ricos en grasas y el ritmo de vida actual producen una serie de desequilibrios y desajustes alimentarios cuya consecuencia es la aparición de enfermedades. De esta situación surgen los “alimentos funcionales” que pueden compensar esos desequilibrios alimentarios y garantizan las ingestas de nutrientes recomendadas por los especialistas en nutrición. Un alimento puede considerarse funcional cuando se demuestra adecuadamente que, además de sus efectos nutritivos, afecta beneficiosamente a una o más funciones del organismo de forma que mejora el estado de salud o bienestar o reduce el riesgo de enfermedad. Estos alimentos ejercen además un papel preventivo, ya que reducen los factores de riesgo que provocan la aparición de enfermedades. Se pueden elaborar mediante: • Eliminación de un componente conocido que causa un efecto no beneficioso cuando se consume (por ejemplo, proteína alergénica: celiacos). • Aumento de la concentración de un componente presente de forma natural en un alimento hasta un nivel en el que se produzca el efecto deseado. • Adición de un compone no presente en la mayoría de los alimentos pero para el cual se ha descrito un efecto beneficioso (por ejemplo, oligosacáridos prebióticos). • Reemplazamiento de un componente, usualmente un macronutriente (por ejemplo, grasas) cuya ingesta es normalmente alta y puede tener un efecto nocivo, por otro componente con un efecto beneficioso para el organismo. • Aumento de la biodisponibilidad o la estabilidad de un componente que produzca un efecto beneficioso o que reduzca el riesgo de padecer una enfermedad. Gestión tecnológica en el sector vitivinícola Debido al creciente interés por este tipo de productos, las investigaciones se han centrado en la búsqueda y diseño de ingredientes de origen vínico y de alimentos enriquecidos con estos ingredientes, así como en el estudio de los mecanismos de acción de los mismos, con el fin de obtener una respuesta positiva sobre la salud. Teniendo en cuenta las propiedades beneficiosas que tiene para la salud el consumo moderado de sustancias antioxidantes, uno de los objetivos principales es la búsqueda de un proceso para el aprovechamiento de los extractos ricos en sustancias antioxidantes procedentes de la uva (flavonoles, taninos, antocianos, ácido fenólicos y estilbenos), así como la búsqueda de un vehículo apropiado y alternativo para la aplicación de estos antioxidantes naturales al organismo humano. calidad de algunos productos, sobre todo los de alto contenido en grasas y lípidos, y mantener así su valor nutritivo. Estos antioxidantes, principalmente de naturaleza fenólica, son la mayoría sintéticos, como terbutil-hidroxitolueno (BHT), terbutil-hidroxianisol (BHA), galato de propilo (PG), galato de dodecilo (DG) y terbutil-hidroquinona terciaria (TBHQ). Mayor interés para la investigación de Abro Biotec tienen los antioxidantes naturales, componentes de los alimentos de origen vegetal, principalmente polifenoles o compuestos fenólicos, que están de forma natural en los productos iniciales o que se forman como consecuencia de su procesado. Los flavonoides y los ácidos fenólicos son los que reciben mayor atención como agentes potenciales antioxidantes, debido fundamentalmente a su amplia presencia en un alto número de alimentos de gran consumo. Antioxidantes de origen natural: polifenoles En la actualidad se ha incrementado el interés por la búsqueda de antioxidantes, generalmente constituidos por mezclas de compuestos con una elevada diversidad molecular y funcionalidad biológica. Una de las familias de compuestos más interesantes desde el punto de vista biotecnológico son los antioxidantes de origen natural. Estas sustancias se extraen de productos naturales, por lo que pueden encuadrarse dentro de las herramientas que utiliza la biotecnología verde. Por otro lado, su aplicabilidad en mezclas de alimentos y su demostrada funcionalidad les permiten entrar dentro de las actividades englobadas en la biotecnología roja (o sanitaria), mejorando y aportando beneficios a la salud humana. Se han de considerar dos aspectos de los antioxidantes: por un lado están las sustancias que, añadidas a los alimentos, son capaces de preservarlos retardando su deterioro, ranciedad o decoloración, debido a la oxidación; y por otro, los compuestos originalmente presentes en los alimentos y que tienen efectos beneficiosos para la salud. La industria de los alimentos usa antioxidantes para prevenir el deterioro de la Los antioxidantes pueden actuar por medio de diferentes mecanismos: • Deteniendo la reacción en cadena de oxidación de las grasas. • Eliminando el oxígeno atrapado o disuelto en el producto, o el presente en el espacio que queda sin llenar en los envases, el denominado espacio de cabeza. • Eliminando las trazas de ciertos metales, como el cobre o el hierro, que facilitan la oxidación. La actividad antioxidante de los polifenoles se debe a su facilidad para reducir la producción de radicales libres, bien por inhibición de las enzimas que intervienen, bien por quelación con los metales de transición responsables de la generación de los radicales libres. Además, los flavonoides, por su bajo potencial re-dox, son capaces de reducir las especies de oxigeno reactivo (ROS), altamente oxidadas. En general los compuestos polifenólicos son multifuncionales como antioxidantes, y actúan según los mecanismos mencionados. Los polifenoles de tipo flavonoideo, como flavonoles, flavonas, 237 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española isoflavonas, antocianos, flavanonas, catequinas y proantocianidinas, son los antioxidantes más potentes presentes en los alimentos vegetales. El estrés oxidativo y la peroxidación lipídica son los causantes de un gran número de enfermedades crónicas que incluyen cáncer, enfermedades cardiovasculares, cataratas y demencia. Algunos estudios han demostrado que el consumo de frutas y hortalizas puede reducir la incidencia y mortalidad de estas enfermedades y, hasta donde se conoce, este efecto protector está determinado por la presencia de agentes antioxidantes en estos alimentos, principalmente polifenoles. En los últimos años, diversos trabajos realizados sobre los efectos in vivo de estos compuestos han probado que una pequeña fracción de los polifenoles ingeridos en la dieta se absorben en su forma inicial, aglicona o glicósido, mientras que la mayor parte se degradan a diferentes metabolitos. Tanto los compuestos absorbidos como los metabolitos a que dan lugar muestran capacidad antioxidante in vivo, lo que indica la existencia de una especie de reacciones en cascada en las que intervienen los antioxidantes de forma diferente. Los compuestos fenólicos se encuentran en una gran variedad de plantas comestibles, frutas, hortalizas, bebidas como té, café, cerveza y vino tinto, en el aceite de oliva, en cereales y en algunas semillas como las de leguminosas. El té, y en menor proporción el vino tinto, contienen apreciables cantidades de procianidinas y de catequinas. El aporte de polifenoles en la dieta puede estar entre 50 y 800 mg/día, dependiendo del consumo de productos que los contienen. Cuando el consumo es de unos 800 mg/día, lo que puede lograrse con una dieta rica en frutas y hortalizas, se alcanza un nivel importante de antioxidantes. Por otro lado, las industrias alimentarias intentan evitar la oxidación de los alimentos mediante diferentes técnicas, como el envasado al vacío o en recipientes opacos, pero también 238 utilizando antioxidantes. La mayoría de los productos grasos tienen sus propios antioxidantes naturales, aunque muchas veces estos se pierden durante el procesado (en el refinado de los aceites, por ejemplo), pérdida que debe ser compensada. Las grasas vegetales son en general más ricas en sustancias antioxidantes que las animales. También otros ingredientes, como ciertas especias (por ejemplo, el romero), pueden aportar antioxidantes a los alimentos elaborados con ellos. La tendencia a aumentar la insaturación de las grasas de la dieta como una forma de prevención de las enfermedades coronarias hace más necesario el uso de antioxidantes, ya que las grasas insaturadas son mucho más sensibles a los fenómenos de oxidación. Polifenoles de origen vínico Desde la antigüedad se conocen los beneficios saludables de los compuestos polifenólicos presentes en la uva y posteriormente en el vino. La base de estos beneficios se debe a un amplio conjunto de sustancias de origen natural que se caracterizan por poseer anillos aromáticos con sustituyentes hidroxilos, en su mayoría potentes antioxidantes por su estructura química (donador de H+ o electrones). Debido a este comportamiento de carácter antioxidante, estos compuestos tienen tendencia a oxidarse más rápidamente que otros compuestos que estén a su alrededor. Por ejemplo, en diversos estudios epidemiológicos se ha asociado la ingesta diaria de flavonoides con una reducción del riesgo de enfermedades cardiovasculares y cáncer, y se han descrito también otros efectos potencialmente beneficiosos de este tipo de compuestos, por ejemplo en el sistema nervioso central. Sobre la base de estas premisas, parece lógico el gran interés en la recuperación y reutilización de los subproductos del proceso de vinificación y destilación: los orujos de uva para el enriquecimiento de productos alimenticios o para su uso como suplemento nutricional. De esta forma, además de contribuir a la conservación del medio ambiente (disminuyendo el Gestión tecnológica en el sector vitivinícola porcentaje de residuos industriales), se obtiene un nuevo producto con alto valor añadido. Posibilidad de aprovechamiento de los compuestos polifenólicos presentes enlos orujos tras el proceso de elaboración de vino y destilación de los orujos En la uva, los compuestos polifenólicos se encuentran en un 10% en el jugo; un 30% en la piel, especialmente en las células epidérmicas; y el 60% restante en las pepitas (véase la figura 16). Los tipos y concentraciones de los polifenoles presentes en el vino dependen principalmente de la variedad y grado de maduración de la uva empleada, de las condiciones climáticas y de las técnicas utilizadas durante la vinificación. Una parte de estos compuestos polifenólicos son cedidos al vino durante el proceso de elaboración. La extracción de estos compuestos se realiza macerando los hollejos de las uvas tintas con el mosto-vino en fermentación. En consecuencia, el vino adquiere un intenso color, así como una potente estructura y carnosidad en boca. Sin embargo, durante la fermentación alcohólica no existe una transferencia total de dichos compuestos al vino. En general, se puede indicar que la capacidad de extracción de los compuestos polifenólicos de la uva —durante la maceración de la uva con el mosto y en el proceso fermentativo— es del 50-60%, siendo la concentración total de estos compuestos polifenólicos en el vino de 1,80 al 4,06 gr/l equivalentes en ácido gálico. El 40% restante se encuentra retenido en el orujo. Por lo tanto, después de la vinificación, y como subproducto del vino, se obtienen unos orujos que todavía mantienen un amplio contenido polifenólico con un interesante valor terapéutico que merece la pena que sea extraído con posterioridad a dicho proceso productivo. Además del importante contenido de compuestos polifenólicos presentes en los orujos tras el proceso de vinificación y destilación, hay que destacar que los orujos están constituidos por un 12-14% de proteína, 17-35% de fibra cruda, 5-9% de grasa y 5-9% de minerales. Debido a este importante contenido en fibra presente en los orujos, diversos estudios realizados en los últimos años han demostrado que el orujo de uva puede ser utilizado como fuente de fibra dietética para consumo humano. En esta idea, el objetivo principal de la investigación se ha centrado, por una parte, en optimizar la extracción de este porcentaje residual de compuestos polifenólicos de los orujos tras el proceso de vinificación y destilación, y en estabilizar dichos extractos; y, por otra parte, en adicionar estos extractos —ricos en antioxidantes y fibra— a diversas matrices alimentarias para evaluar su efecto en diferentes propiedades de dichas matrices, consiguiendo alargar la vida útil de los alimentos. Normativa y legislación El Reglamento europeo sobre declaraciones nutricionales y propiedades saludables de los alimentos (Reglamento CE n.º 1924/2006) y sus modificaciones posteriores (Reglamentos CE n.º 109/2008 y n.º 353/2008) establecen las reglas que deben seguirse por parte de la industria alimentaria para poder afirmar que un alimento contiene determinadas propiedades saludables, lo que se conoce como “alegación”. Figura 16. Distribución de los compuestos polifenólicos Es una normativa de obligada aplicación en cada Estado miembro, en la cual tiene un papel destacado la Autoridad 239 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Europea de Seguridad Alimentaria (EFSA). La Agencia Española de Seguridad Alimentaria y Nutrición (AESAN), en colaboración con las comunidades autónomas, participa con la EFSA en la evaluación de las bases de alegaciones, particularmente las que se planteen desde la industria alimentaria española. Los pasos necesarios para extraer los compuestos bioactivos de los residuos de procesado de la uva son: Uno de los aspectos más relevantes que presenta la norma es que: “las declaraciones nutricionales y de propiedades saludables deberán basarse y fundamentarse en datos científicos generalmente aceptados” (art. 6), de tal forma que un explotador de empresa alimentaria que efectúe este tipo de declaraciones deberá justificar debidamente el uso de las mismas. Incluso las autoridades competentes pueden solicitar aquellos datos pertinentes que demuestren el cumplimiento de la normativa (art. 6.3). • Purificación de los extractos. En consonancia con esta normativa, Grupo Matarromera, además de las mejoras tecnológicas de los alimentos, está trabajando en demostrar las evidencias científicas sobre los efectos beneficiosos de los polifenoles sobre la salud. La investigación de extractos ricos en compuestos fenólicos supondría el primer paso para la obtención de alimentos funcionales de gran aplicación. En general, para que los polifenoles puedan ejercer sus efectos positivos a nivel sistémico, deben primeramente ser absorbidos por el organismo. En concreto, el fin de estas investigaciones, tras un estudio farmacocinético de la absorción de polifenoles en un grupo de individuos sanos, es confirmar que el consumo de extractos ricos en compuestos fenólicos dará lugar a un aumento significativo de la concentración plasmática de polifenoles respecto a compuestos con menos polifenoles. Tecnologías existentes y aplicación Actualmente, existen diferentes técnicas disponibles para la extracción y purificación de compuestos bioactivos a partir de residuos del procesado de la uva. 240 • Pretratamiento de los residuos. • Extracción de los residuos del procesado de la uva, secos y homogeneizados. • Secado de los extractos purificados. El proceso de extracción consiste en la separación de una o más especies de una matriz, sólida o líquida, basada en la diferente solubilidad relativa de dicha sustancia o sustancias en un determinado disolvente con respecto a la del resto de los componentes de la matriz. Algunas de las técnicas empleadas son las siguientes: a) Extracción con disolventes: • Extracción convencional sólido-líquido. • Extracción asistida con ultrasonidos. • Extracción asistida con microondas (MAE). • Extracción con disolventes acelerada (ASE). b) Extracción con fluidos/CO2 supercríticos (SFE) SC-CO2. I+D Dos de los proyectos de I+D más relevantes desarrollados por Grupo Matarromera se han centrado en el desarrollo de dos de estas técnicas de extracción: extracción convencional sólido-líquido (Proyecto EXPOL) y extracción con fluidos supercríticos (Proyecto EXTRANAT). Directamente derivados de estas investigaciones han surgido nuevos proyectos de I+D centrados en el desarrollo de ingredientes para alimentos funcionales (Proyecto Pan de vino y Proyecto SENIFOOD). Gestión tecnológica en el sector vitivinícola Proyecto EXPOL: “Desarrollo de un proceso de aprovechamiento de antioxidantes, polifenoles y otros productos naturales de alto valor a partir de orujo de uva con D. O. Ribera de Duero (2007-09)” con un presupuesto total de 1.708.461 euros La técnica que desarrolla este proyecto implica el contacto de la matriz sólida de la planta con un disolvente líquido. La selección del disolvente estará determinada por las características químicas y físicas de las sustancias objetivo. En concreto, la estabilidad térmica y la polaridad de las sustancias a extraer tienen una importancia especial. La temperatura del disolvente se debe seleccionar en función de la materia prima y de la resistencia térmica de los compuestos a extraer. Previamente a este proceso, la alimentación suele tratarse mecánicamente para facilitar la transferencia de las sustancias objetivo de la matriz al disolvente. Este proceso, que se utiliza para extraer aceites, no es adecuado para extraer sustancias termolábiles. Algunos disolventes orgánicos que se pueden utilizar como agente extractor son tóxicos y pueden dejar restos en el producto final. El etanol se puede utilizar para sustituir algunos disolventes orgánicos tóxicos o peligrosos. Además, la extracción con disolventes orgánicos requiere una etapa final de purificación, como por ejemplo, filtración o centrifugación. La extracción asistida con ultrasonidos o microondas es parecida a la extracción convencional, pero empleando estas ondas para aumentar los rendimientos del proceso, reducir el consumo de disolvente o reducir el tiempo de proceso. nitaria 88/344/CEE y posteriores modificaciones, como son el etanol y el agua con pH modificado. Previo al proceso de extracción, los orujos procedentes de la vinificación se reciben en fresco y son destilados en los alambiques por arrastre de vapor o calentamiento directo para extraer los aromas y el alcohol. Proyecto EXTRANAT: “Highly selective and environmentally friendly fruit extraction using supercritical fluids technology” (2006-07) con un presupuesto total de 98.897 euros El estado supercrítico es alcanzado llevando un fluido a unas condiciones de temperatura y de presión por encima de su punto crítico. Los fluidos supercríticos presentan algunas características propias de gases y algunas propias de líquidos que los hacen especialmente adecuados para los procesos de extracción. Para la realización de microextracciones de compuestos polifenólicos de uva tinta y blanca se emplea una microplanta que permite la recuperación de sustancias de alto valor añadido encerradas en matrices vegetales (frutas y hortalizas). El diseño de esta planta es fruto de una investigación llevada a cabo en cooperación en un proyecto europeo (EXTRANAT) con otras entidades internacionales pertenecientes a diferentes sectores. La extracción de polifenoles en los términos en los que se está efectuando, es un proceso novedoso y sujeto a la patente n.º 200700641, por lo que no se encuentran referencias descritas de procesos similares extractivos. Los equipos han sido diseñados para alcanzar los objetivos de extracción establecidos. Proyecto PAN DE VINO: “Investigación para la obtención de nuevos productos de panificación y repostería enriquecidos en polifenoles vínicos. Análisis de los beneficios potenciales de su consumo sobre la salud humana” (2007-09) con un presupuesto de 788.878,58 euros La técnica de extracción sólido-líquido en continuo empleada, utiliza disolventes no restringidos por la Directiva Comu- El proyecto está centrado en la incorporación al pan de molde de los beneficios que aportan los polifenoles presentes 241 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española en la piel de la uva. El pan enriquecido con polifenoles de uva es un pan de molde, envasado y de larga duración, que ha sido desarrollado con un proceso productivo controlado en el que se adiciona un extracto rico en compuestos polifenólicos de uva tinta con elevada capacidad antioxidante, obtenido de los hollejos y semillas de uvas tintas. La cantidad de polifenoles adicionada al pan es tal que 100 g de pan equivaldrían al contenido polifenólico de dos copas de vino tinto, que es la dosis saludable recomendada por la Organización Mundial de la Salud. En este proyecto trabajan conjuntamente el Grupo Matarromera y el Centro Tecnológico de Cereales (CETECE) de Palencia. Grupo Matarromera se encarga de la extracción de polifenoles a partir de orujos de uva, la caracterización de los polifenoles vínicos extraídos y la posterior adaptación de los métodos analíticos para la determinación de polifenoles en los productos de panificación y repostería. Además, lleva a cabo el estudio de beneficios del extracto de polifenoles sobre la salud. Por su parte, el CETECE desarrolla estos productos de panificación y repostería enriquecidos en polifenoles vínicos. Al tratarse de un alimento de consumo diario recomendado, el pan constituye un vehículo muy apropiado para poder incorporar ingredientes con características beneficiosas para prevenir enfermedades o para mejorar la salud, tanto en grupos de población con necesidades nutricionales especiales (embarazadas, ancianos, niños), como en las situaciones de estados carenciales y en los colectivos de riesgo en determinadas enfermedades (osteoporosis, trastornos cardiovasculares, trastornos de la función intestinal, diabetes, obesidad, etc.). A estas cualidades se suman las antioxidantes de los polifenoles, que permitirán que este pan de vino tenga una vida útil más larga que el pan tradicional, ya que se conserva cinco o seis días más. 242 Proyecto SENIFOOD: “Investigación industrial de dietas y alimentos con características específicas para las personas mayores” con un presupuesto de 1.815.656 euros Grupo Matarromera es el primer grupo bodeguero que se centra en la investigación industrial de dietas y alimentos con características específicas para las personas mayores mediante la intervención nutricional preventiva. Para ello es necesario, además del establecimiento de dietas equilibradas y variadas, la inclusión en las mismas de los alimentos que mejor se adecuen a las necesidades de este segmento de la población y cuyo consumo frecuente prevenga o mitigue determinadas patologías o cambios fisiológicos derivados del envejecimiento (hipertensión arterial, artritis, riesgo coronario, etc.). Hay que tener en cuenta que los beneficiarios no serán personas que padezcan patologías, sino aquellas con niveles de riesgos altos, pero no lo suficiente como para ser medicadas. Para ello, Bodega Matarromera está centrando sus investigaciones en la búsqueda y diseño de ingredientes de origen vínico y de alimentos enriquecidos con estos ingredientes, así como en el estudio de los mecanismos de acción de los mismos, con el fin de obtener una respuesta positiva sobre algunas de las patologías y cambios fisiológicos que se presentan de forma más frecuente en las personas mayores. Senifood es un proyecto subvencionado por el CDTI y coordina distintas empresas que invertirán más de 24 millones de euros durante un periodo de algo más de tres años. El consorcio del proyecto Senifood cuenta principalmente con empresas productoras de ingredientes (Naturex, Bioibérica, Biópolis, Nutrafur) y empresas alimentarias (Campofrío, Central Lechera Asturiana, CustomDrinks, Ordesa, Tutti Pasta). Bodega Matarromera se enmarca dentro de ambos sectores, ya que investigará tanto en la aplicación y mejora del eminol, extracto polifenólico con elevada capacidad antioxidante, como en el enriquecimiento de sus propios vinos Gestión tecnológica en el sector vitivinícola y bebidas derivadas para adaptarlos al sector de la población objeto de estudio, especialmente con el objetivo de disminuir el colesterol y de reducir la tensión arterial. y no enzimáticos) para hacer frente a las agresiones ambientales. Sin embargo, ante un exceso de estímulos, los mecanismos endógenos resultan insuficientes para combatir los efectos nocivos, apareciendo entonces los problemas dérmicos y, entre ellos, el envejecimiento cutáneo. Productos Los alimentos funcionales comercializados son los siguientes: • Extracto líquido con polifenoles y otros compuestos procedentes de la uva. Eminol®. • Extracto sólido con polifenoles y otros compuestos procedentes de la uva. • Extracto de uva sólido concentrado obtenido a partir de Eminol®. Fibra antioxidante de origen vínico (mantiene el 10-12% de polifenoles originales). Estos extractos son susceptibles de ser consumidos directamente en forma de cápsulas o bien incorporados como ingrediente en una matriz alimentaria. EL EFECTO ANTIOXIDANTE DE LA UVA AL CUIDADO DE LA PIEL: COSMÉTICOS ESDOR Posicionamiento del sector En la actualidad se vive el auge de una corriente cosmética que centra su eficacia en las propiedades antienvejecimiento de determinados extractos naturales, que se usan como ingrediente estrella en el diseño de productos cosméticos de alta gama. Entre ellos se encuentran extractos de aloe vera, baba de caracol o incluso veneno de serpiente; pero es con el extracto procedente de la piel de la uva con el que se ha conseguido la mayor eficacia antioxidante. Desde el punto de vista fisiológico, la piel posee de manera natural mecanismos de defensa antioxidantes (enzimáticos El envejecimiento es un proceso muy complejo que trae consigo cambios moleculares que se manifiestan a nivel celular, histológico y anatómico, siendo el envejecimiento cutáneo una de sus manifestaciones más evidentes. Biológicamente se puede decir que durante este proceso se produce una disminución del número de células, de fibras de colágeno y de elastina, e importantes alteraciones en la matriz extracelular. Esto provoca la merma del grosor de la piel y de su capacidad de renovación y reparación, especialmente motivada por la menor producción de factores de crecimiento y acúmulo de radicales libres. Además, la mala circulación trae consigo una disminución del aporte nutritivo y de las secreciones glandulares (ecrinas, apocrinas y sebáceas), y retención de líquidos: la piel se deshidrata y tiende a la descamación, se hace más laxa y pierda tersura; se forman arrugas y aparece la flacidez, el descolgamiento y la atrofia tisular, principalmente del tejido graso subcutáneo, muscular y óseo. En los últimos años se ha descrito la existencia de modificaciones bioquímicas que explican los cambios que se producen en la piel durante el proceso de envejecimiento, siendo el más importante el que parece afectar al metabolismo del colágeno, proteína que es un componente esencial de la matriz intracelular que constituye la epidermis. Existen gran cantidad de estudios que indican que durante el proceso de envejecimiento se produce un desequilibrio entre los mecanismos de síntesis y los de degradación del colágeno, en el que predomina esta última; ello produciría las alteraciones típicas de una piel envejecida. Por otro lado, estudios realizados en el campo de la etiología del fotoenvejecimiento han demostrado que este está provocado, al menos en parte, por las especies reactivas de oxígeno 243 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española (ROS), más conocidas como radicales libres. Las ROS se generan no solo cuando la piel es expuesta a agresiones como la luz ultravioleta, sino también en el proceso natural de envejecimiento. Así pues, si la relación prooxidantes/antioxidantes es favorable a los primeros, aparece el llamado estrés oxidativo, que parece ser la causa extrínseca más importante del envejecimiento cutáneo. Es evidente que el primer paso para conseguir una piel sana y protegida frente a estas agresiones externas será, además de una alimentación adecuada, el empleo de productos cosméticos que garanticen esa protección y que la hagan duradera. De todas estas respuestas cosméticas fruto de la investigación médica y dermofarmacéutica, los polifenoles de uva, en concreto de uva tinta, constituyen actualmente la más atractiva de las incorporaciones por las posibilidades que ofrecen estos compuestos al ser responsables de importantes beneficios sobre el organismo, como la captación de radicales libres, el retraso del envejecimiento celular y cutáneo, y la estimulación de la producción de colágeno, elastina y ácido hialurónico en la piel. En concreto, y centrando la atención en las investigaciones científicas publicadas sobre los compuestos polifenólicos procedentes de uva, las propiedades fisiológicas atribuidas a este tipo de sustancias se podrían resumir de la siguiente manera: • Actividad anticancerígena atribuida a los polifenoles, como por ejemplo el resveratrol y las antocianidinas. • Propiedades antiteratogénicas, como ocurre en el caso de los flavonoides que contribuyen también en la coagulabilidad de las plaquetas. • Actividad antiinflamatoria de las antocianinas. • Actividad antibacteriana y antivírica atribuida a los compuestos fenólicos, propiedad muy útil y de aplicación en la industria farmacéutica y cosmética. 244 • Actividad antioxidante y antielastasa en la mayor parte de las sustancias mencionadas. Estas propiedades permiten la reducción de los efectos de los radicales libres sobre la salud, dado que estos tenderán a unirse con los polifenoles, lo que evita su acción directa sobre el organismo. Estas propiedades antirradicales refuerzan los efectos antiinflamatorios y la capacidad antiproteasa del organismo. • Actividad clarificante por polimerización y unión con proteínas, caso dado con los taninos, antocianinas, etc., que resulta útil en la industria agroalimentaria. En todos los casos, la actividad de los distintos compuestos activos extraídos de la uva dependerá no solo del tipo de compuesto, sino también de la concentración de las muestras empleadas, teniendo en cuenta que una dosis inadecuada de los compuestos podría tener un efecto negativo sobre la salud. No es de extrañar, por tanto, que, habiéndose investigado en las propiedades saludables del vino y de la uva, las líneas cosméticas tengan cada vez más presente la incorporación de extractos derivados de ambos en nuevos productos relacionados con el rejuvenecimiento y la lucha contra los efectos del sol en la piel. De hecho, diferentes casas de cosméticos han diseñado tratamientos eficaces contra el envejecimiento incluyendo en su formulación derivados polifenólicos de uva tinta o blanca. No obstante, estos productos incluyen extractos comerciales que pueden haberse obtenido directamente de vino sometido a un proceso de desalcoholización o a partir de la uva por métodos extractivos comunes. A diferencia de estos productos comerciales, Emina Cosméticos, S. L. diseña y desarrolla cosméticos que incluyen en su formulación extractos de uva tinta con una concentración de polifenoles muy superior a otros comerciales. Este hecho es consecuencia, por un lado de la calidad y las especiales características de la uva tinta que se cultiva en la zona de Ribera del Duero Gestión tecnológica en el sector vitivinícola y que derivan en un elevado contenido de polifenoles en la uva madura, y por otro del proceso extractivo patentado. Pero, sin duda, el aspecto diferenciador más importante es que Grupo Matarromera tiene un conocimiento del origen de su producto, ya que posee un control de trazabilidad absoluto. Esto es así porque conjuga las actividades de viticultura, elaboración de vinos y extracción de principios activos, obteniendo un producto de uva 100%. El mercado español de cosmética y perfumería se sitúa en el quinto puesto del ranking de países de la Unión Europea de los 27, lo que constituye un 12% de todo lo que se vende en nuestro entorno. Analizando el contexto mundial, Europa supone el primer mercado, seguido de Estados Unidos y Japón, lo que refuerza aún más la posición de España. Un dato favorable que contribuye a la buena salud del mercado en España es que este es uno de los países de mayor consumo per cápita de Europa; de hecho, ostenta el cuarto lugar de la lista de los Estados europeos, incluidos Noruega y Suiza, y el segundo si solo se tiene en cuenta la Europa de los 27. Con respecto al decrecimiento del sector en 2008, en España ha sido mayor que en otros Estados porque han coincidido en el tiempo dos circunstancias distintas: que el mercado español de la cosmética alcanzó su madurez el año anterior y la crisis económica. En cambio, esta coyuntura no se dio en países como Alemania, Francia o Reino Unido, cuyos mercados llegaron a esa madurez a finales de los años noventa, por lo que en 2008 tan solo tuvo que hacer frente a los efectos de la recesión. El sector de la cosmética y la perfumería en España movió el pasado año un volumen de negocio de 4.864 millones de euros de facturación y 7.782 millones en cifras de consumo, según datos facilitados por Stanpa. Aunque en los últimos diez años este mercado ha destacado por un crecimiento sostenido, en torno al 5, 6 y 7 %, el pasado ejercicio lo cerró con cifras negativas de un 1,5%. La buena noticia que se puede extraer de esta coyuntura económica desfavorable es que de los seis canales reconocidos por Stanpa —gran consumo, selectividad (cosméticos de alta gama), farmacia, peluquería, venta directa y estética profesional (salones de belleza)—, la farmacia no solo no decreció en 2008, sino que creció por encima del gran consumo, que representa la mitad del sector. Así, los datos de la patronal muestran que el aumento de 2008 con respecto a 2007 fue de un 1,85% frente al 0,52% registrado en gran consumo. En este canal, los productos que más porción del mercado se llevan son los de higiene bucodental y los de dermofarmacia, concretamente los destinados a la fotoprotección. Un dato interesante es que los cosméticos para el cuidado de la piel generan unos 1.300 millones de euros anualmente, de los cuales unos 250 millones se facturan en farmacia. El canal farmacia ha experimentado una gran eclosión en los últimos años. Según los datos de mercado, entre 2002 y 2008 este canal ha visto cómo han aumentado sus referencias, concretamente en lo que se refiere a productos destinados al cuidado de la piel: la farmacia ha pasado de tener cinco mil referencias a treinta mil. Desde Stanpa también se subraya el amplio catálogo de productos cosméticos que tiene la farmacia en general, pues solo en 2008 se registraron en Sanidad 250.000 referencias. Tecnologías existentes y aplicación Dado el importante papel que juega la piel como primera barrera de defensa natural frente las infecciones, su cuidado y conservación ha dejado de ser una cuestión meramente estética para convertirse en la actualidad en una necesidad real que preocupa a médicos, dermatólogos y ciudadanos. En este sentido, el sector cosmético-farmacéutico está focalizando sus esfuerzos en la realización de trabajos de investigación y en el desarrollo de productos que permitan dar una respuesta cosmética al estrés oxidativo y paliar los daños directos y colaterales sobre el organismo derivados del mismo. 245 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Estas respuestas cosméticas se basan en el empleo de principios activos cuyo origen es muy variado. A continuación se citan algunos ejemplos. • Vitaminas antioxidantes: son principalmente las vitaminas C y E. Se ha escrito mucho sobre su papel como antioxidantes biológicos, pero existe controversia respecto a su uso y estabilidad galénica. • Activos obtenidos a partir de bacterias: son lisados obtenidos biotecnológicamente. • Moléculas endógenas: citocinas extraídas de la leche que actúan como inmunomoduladores. • Enzimas: superóxido dismutasa, catalasa y glutatión reductasa. • Extractos vegetales: este es el grupo más fecundo, y del que forman parte los extractos ricos en flavonoides (polifenoles) como antioxidantes. proporcionar una piel más estirada, pero en modo alguno garantiza una piel sana con una presencia más saludable. Por esta razón, lo primordial es acondicionar la piel incluso antes de abordar cualquier problema puntual mediante tratamiento quirúrgico o recurriendo a los tratamientos no ablativos de regeneración de la piel sin cirugía. Desde un punto de vista tecnológico, los procesos que se aplican para la obtención de los extractos ricos en polifenoles son tecnologías no difundidas y con un marcado carácter innovador encerrado en ellas, por lo que también dotan a los productos de un importante valor añadido y de un alto impacto en el sector cosmético y farmacéutico. I+D+i Emina Cosméticos ha aprovechado el conocimiento y el saber hacer de Bodega Matarromera en el campo de la extracción de polifenoles para, a partir de ahí, trabajar en el desarrollo de formulaciones cosméticas capaces de vehiculizar estos principios activos. • Pseudodipéptidos y silanoles. Como puede observarse, a la lista de ingredientes con actividad cosmética propuestos en los últimos años se han sumado sustancias antioxidantes o antirradicalarias más específicas para luchar contra el fotoenvejecimiento (fenómeno mejor estudiado del envejecimiento extrínseco) y contra otras agresiones a las que el organismo se ve sometido en exceso, como la polución. Basándose en los estudios científicos realizados en esta área, se acepta desde hace un tiempo que la aplicación tópica de antioxidantes es efectiva para el tratamiento de los síntomas del envejecimiento de la piel. En este sentido, Emina Cosméticos, S. L. intenta desarrollar productos innovadores con la función de prevenir problemas dermatológicos, desarrollando cosméticos con ingredientes específicos en las formulaciones fruto de la investigación biotecnológica. Por otro lado, cualquier tratamiento dermoestético que implique cirugía, por ejemplo un lifting, puede 246 Así pues, en 2007 el Departamento de I+D+i de Emina Cosméticos, S. L. inicia su actividad realizando la revisión bibliográfica legislativa, documental y científico-técnica para el desarrollo de una nueva línea de cosméticos. A partir de entonces comienza a participar en diversos proyectos de investigación relacionados con la extracción de polifenoles de uva tinta, su actividad fisiológica y su aplicación en diferentes sectores. Por otro lado, Emina Cosméticos cuenta con recursos humanos gracias al Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica del MICINN para llevar a cabo el proyecto: “Estudio biotecnológico, diseño y optimización de compuestos antioxidantes naturales procedentes de subproductos obtenidos en el proceso de elaboración de vinos de calidad como complemento nutricional en humanos, cosmético y farmacológico”, así como el “Estudio, diseño y desarrollo de compuestos antioxidantes naturales procedentes de orujos de uva Gestión tecnológica en el sector vitivinícola tinta para su aplicación en el sector de los complementos nutricionales, cosmético y farmacológico", financiado por la Agencia de Inversiones y Servicios de la Junta de Castilla y León. Este es el último proyecto en el que ha entrado Emina Cosméticos como entidad colaboradora, prestando apoyo desde el punto de vista técnico para llevar a cabo tareas de índole investigadora, administrativas y de gestión. Tras adquirir experiencia en el campo de la investigación científica y el desarrollo tecnológico de la mano de otras empresas y organismos de investigación, a finales de 2007 Emina Cosméticos comienza un proyecto como líder del mismo. Este proyecto es financiado por la Agencia de Inversiones y Servicios de la Junta de Castilla y León a través de la Línea 4, y lleva por título “Desarrollo biotecnológico y diseño de una gama de productos cosméticos enriquecidos con antioxidantes procedentes de uva”. De este modo, Emina Cosméticos, S. L. ha puesto en marcha una estrategia apoyada en la investigación y el desarrollo que pretende derivar en un futuro factor de diferenciación tecnológica, posicionándose en el segmento de los productos funcionales y enriquecidos. Esa misma estrategia apunta el establecimiento de la marca, identificándola como una empresa vinculada al bienestar, la salud y la calidad. a disposición de los clientes formulaciones cosméticas con un elevado efecto antioxidante que cuidan la piel. Los productos ESDOR son cosméticos funcionales de alta gama elaborados con una base de polifenoles extraídos, bajo un proceso productivo único patentado por Grupo Matarromera, de uvas Vitis vinifera de la variedad tempranillo procedentes de los más adecuados viñedos en la zona de la Ribera del Duero. De forma general, ESDOR ayuda a frenar el efecto del paso del tiempo en la piel; a proteger la elastina y las fibras de colágeno, retrasando la aparición de arrugas; a aumentar la vitalidad celular, la resistencia y la flexibilidad de la piel para evitar la aparición de cuperosis; además de proteger la piel de agresiones externas provocadas por el humo, el sol, el viento y la contaminación. Los productos que comercializa actualmente Emina Cosméticos pueden verse en la figura 17 y se enumeran a continuación: • Crema hidratante antioxidante ESDOR con polifenoles de uva tinta. • Contorno de ojos antioxidante ESDOR con polifenoles de uva tinta. Esta estrategia pretende hacer realidad la comercialización de productos, todos ellos concebidos para cubrir necesidades de los consumidores, apostando por el desarrollo y gestión de proyectos dentro del sector de la cosmética, los extractos naturales y los productos funcionales. Por todo ello, Emina Cosméticos tiene su actividad centrada principalmente en la investigación y diseño de formulaciones cosméticas de uso tópico y oral. • Crema nutritiva antioxidante ESDOR con polifenoles de uva tinta. Productos Dentro de la investigación y el desarrollo de nuevas formulaciones cosméticas, se realizan investigaciones científico-clínicas para asegurar la eficacia del producto final, así como para garantizar la inocuidad de la formulación global. Emina Cosméticos ha desarrollado una línea cosmética de alta gama —ESDOR— que nace con el único objetivo de poner • Leche limpiadora antioxidante ESDOR con polifenoles de uva tinta. • Tónico antioxidante ESDOR con polifenoles de uva tinta. • Body Milk antioxidante ESDOR con polifenoles de uva tinta. 247 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Energía solar • Solar fotovoltaica: de forma general, Matarromera potencia el uso de energías renovables con la implantación de cinco plantas de energía solar fotovoltaica, sumando una potencia instalada para uso industrial y dotacional de 447 kW y una producción anual agregada de 715.000 kWh, lo que la convierte en autosuficiente desde un punto de vista energético. La bodega Emina, situada en Valbuena de Duero (D. O. Ribera del Duero), cuenta con tres plantas de energía solar fotovoltaica, con una capacidad conjunta de 247 kW y un total de 1660 paneles fotovoltaicos. La más potente, de 100 kW y una producción anual de 160.000 kWh, está oculta a la vista, ya que se creó sobre la cubierta de la nave. Las otras dos plantas se sitúan en la bodega Valdelosfrailes (Cubillas de Santa Marta, D. O. Cigales) y en Emina Rueda (Medina del Campo, D. O. Rueda). Ambas tienen una potencia de 100 kW cada una y están constituidas por 630 paneles (véase la figura 18). Figura 17. Gama de productos ESDOR OTRAS ACTIVIDADES TECNOLÓGICAS Medio ambiente y sostenibilidad El Grupo Matarromera adopta un gran compromiso por la sostenibilidad y la eficiencia energética. En las siete bodegas del Grupo se dispone de tecnología avanzada en materia energética con el objetivo de aprovechar los recursos naturales para producir energía y generar un menor impacto ambiental. Los principales puntos en los que el Grupo Matarromera basa su desarrollo sostenible son los siguientes: 248 Figura 18. Placas fotovoltáicas de la bodega EMINA Gestión tecnológica en el sector vitivinícola • Solar térmica: asimismo, se dispone de sistemas de calentamiento de agua para su uso sanitario e industrial, de cara al autoabastecimiento del proceso productivo, mediante dos plantas de energía solar fototérmica: 23 colectores en Bodega Valdelosfrailes y 30 colectores en Bodega Matarromera. Biomasa: sistema de producción energética a partir de subproductos vitícolas Debido al proceso productivo vitícola, en toda bodega se generan subproductos que son destruidos o llevados a un vertedero sin ningún tipo de aprovechamiento previo. La gestión y la eliminación de estos subproductos suponen el empleo de gran cantidad de recursos humanos, materiales e infraestructuras, además de las pérdidas, ineficiencias energéticas y contaminación ambiental que se derivan de dicha eliminación por combustión. Para solventar estos problemas y obtener energía verde, Grupo Matarromera aprovecha estos subproductos a través de una caldera de biomasa que gestiona 143 toneladas al año, con una producción energética de 623.200 kWh/año, empleados para: • Climatización y calefacción de las instalaciones. • Agua sanitaria para baños, lavabos y duchas en bodega y CIVE. • Uso de agua caliente industrial en: — Elaboración: lavado de depósitos, barricas, maquinaria de vendimia. de un litro de gasolina. El consumo de biomasa de Matarromera equivaldría, por tanto, a la utilización de 48.000 l de gasolina. El empleo por Matarromera de la biomasa ahorra de forma anual a la atmósfera 400 t de emisiones de CO2, ayudando por tanto a reducir el efecto invernadero. Los sistemas de generación de energía por biomasa dan lugar a "balance neutro” de emisiones de CO2.7 EDAR propia y aprovechamiento de aguas pluviales y residuales para riego La utilización de la EDAR (Estación Depuradora de Aguas Residuales) permite que se trate la totalidad de las aguas residuales producidas en los distintos centros de producción del grupo, devolviendo el agua al ecosistema en perfectas condiciones para su reutilización. Las bodegas tienen un sistema de acopio y aprovechamiento de aguas pluviales recogidas en toda la superficie de la parcela, canalizadas mediante la red de pluviales hacia el pozo de sondeo y las balsas de la EDAR. Con este método, el agua de lluvia se aprovecha y no se pierde por evaporación, y se minora así la extracción de agua del acuífero, evitando esquilmarlo. El porcentaje de ahorro de agua estimado es del 50%. Asimismo, se cuenta con un sistema de riego de alta eficiencia y ahorro mediante goteros autocompensantes de caudal controlado. 7 — Embotellado: lavado higiénico de botellas. En este caso, la energía se obtiene bajo sistema de cogeneración (producción conjunta de energía térmica y eléctrica). El uso de 3 kg de biomasa equivale a la potencia calorífica Este proyecto ha recibido el galardón a la Mejor Acción Ecoinnovadora en el ámbito de la biomasa sólida, otorgado por el Centro Tecnológico CARTIF, la Fundación Biodiversidad y el Fondo Social Europeo a través del Programa Empleaverde 2007-2013, que reconoce la labor de Matarromera en los procesos de aprovechamiento de residuos agronómicos, forestales y enológicos para la obtención de energía mediante biomasa. 249 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Gracias a estas buenas prácticas, se consigue un ahorro anual que se cifra en 0,05 l de agua por botella de vino producida; esto significa que, con una capacidad productiva anual de 1,2 millones de botellas, el ahorro estimado es de 60 m3 (60.000 l) al año, únicamente en el proceso productivo. variedades de uva blanca y tinta. Este jardín permite realizar investigaciones de I+D+i sobre adaptación a las condiciones climáticas de la zona, sensibilidad a enfermedades y plagas, microvinificaciones para determinar potencialidad enológica o ensayos de manejo del cultivo mediante sistemas ecológicos; todo ello por medio de prácticas integradas y respetuosas con el medio ambiente. Edificios ecoeficientes: el CIVE como ejemplo de ecosostenibilidad Agricultura ecológica: olivo/viñedo El Grupo Matarromera mejora la eficiencia energética de sus instalaciones mediante edificios diseñados con iluminación natural y un óptimo aislamiento y orientación. La sede central del Grupo Matarromera y el Centro de Interpretación Vitinivinícola de Emina (CIVE) son un ejemplo de edificación ecosostenible: un 90% de su demanda energética está cubierta por energías renovables, un 60% de los espacios del edificio tienen luz natural, utiliza un 70% de materiales reciclados, un sistema de climatización con posibilidad real de empleo de energía solar térmica mediante absorción térmica, emplea como combustibles gas licuado del petróleo y biomasa, y tiene un sistema de refrigeración pasiva con orientación norte en zonas con menores requerimientos térmicos o lumínicos. Además, el CIVE se integra en el entorno rural mediante el empleo de materiales de construcción autóctonos, manteniendo la armonía paisajística y con un bajo nivel de edificabilidad de la parcela. En el CIVE se emplean materias primas de proximidad, lo que repercute en mejores eficiencias energéticas al minimizar el concepto del transporte: empleo de sarmientos de viñedos cercanos, aprovechamiento de barricas de la propia zona de crianza, aprovechamiento de orujos de uvas resultantes del proceso enológico en la destilería aneja, etc. El CIVE cuenta con un Jardín de variedades de vid único y referente a nivel vitícola y enológico, que alberga más de 60 variedades tanto nacionales como foráneas, incluyendo 250 Como prueba del compromiso del Grupo Matarromera con el medio ambiente, gran parte de sus más de 300 hectáreas de viñedos y más de 70 ha de plantaciones de olivo siguen métodos de producción de agricultura ecológica. Próximamente se prevé que todos sus vinos de la D. O. Toro procedan de la agricultura ecológica. Aplicativo huella de carbono La huella de carbono en el sector vitivinícola es un indicativo del impacto de la elaboración de cada vino en el medio ambiente. Grupo Matarromera se ha convertido en la primera empresa española en conocer el cálculo de la huella de carbono en uno de sus productos, Emina Verdejo; o lo que es lo mismo, en saber el impacto real que tiene la producción de uno de sus vinos sobre la atmósfera y sobre el medio ambiente. La huella de carbono es el conjunto de gases de efecto invernadero (GEI) asociados a las distintas fases del ciclo de vida del producto, medidos en unidades de dióxido de carbono (CO2) equivalente. La Asociación Española de Normalización y Certificación (AENOR) ha certificado el balance de CO2 desde el viñedo del que proceden las uvas con las que Matarromera elabora su Emina Verdejo, pasando por el proceso de producción y elaboración del vino, el transporte, la distribución, el consumo y el reciclaje de las diferentes partes del producto. Gestión tecnológica en el sector vitivinícola Tras analizar todos estos procesos, AENOR ha certificado que Grupo Matarromera emite 829 g de CO2 equivalente por la producción de cada botella de Emina Verdejo. El objetivo de este dato es cuantificar de una manera acreditada el CO2 emitido a la atmósfera y establecer los procedimientos para reducir y compensar esas emisiones en las futuras añadas. • Necesidad de diferenciación de la competencia. • Compromiso de sostenibilidad y reducción de emisiones y costes. Normativa y certificación Tras el cálculo de la huella de carbono obtenido para la referencia Emina Verdejo, Matarromera ha obtenido la misma certificación en otras referencias vinícolas: Emina 12 meses, con una emisión de 1,4 kg de CO2 por cada botella; y Matarromera Crianza, con 1,1 kg. La siguiente referencia que Matarromera quiere medir es Eminasin Tinto. Asimismo, Matarromera investiga desde su Departamento de I+D+i la huella de agua en el proceso de producción de una botella de vino, así como la huella ecológica general para contabilizar los recursos utilizados desde un punto de vista amplio a nivel ecológico. La huella de agua es el indicador de huella hídrica usada directa o indirectamente en el proceso para producir bienes o servicios. Por ejemplo, está comúnmente aceptado que la huella hídrica para producir un vaso de cerveza es de 75 l de agua, para una copa de vino 120 l, para una taza de café 140 l, y 2.400 l para una hamburguesa. La medida considera el agua consumida o contaminada, tanto en el proceso de producción del producto mismo como en la cadena de abastecimiento, para obtener su materia prima. La empresa posee actualmente certificaciones según diversas normas: • Sistema de Gestión de I+D+i certificado según UNE 166002. • Sistema de Gestión de la Calidad certificado según UNEEN ISO 9001:2000 por AENOR y por Iqnet. • Certificado AENOR Medio Ambiente: CO2 calculado (huella de carbono) para los productos Emina verdejo (primer vino a nivel nacional), Emina 12 meses y Matarromera Crianza. • Legislación ambiental cada vez más exigente. Cabe señalar que el sistema de gestión de I+D+i con certificado UNE 166002 ha permitido al grupo empresarial gestionar de manera organizada todas las actividades de I+D+i a través de los diversos procedimientos y documentación correspondiente: previsión tecnológica, vigilancia tecnológica, creatividad, análisis externo e interno, análisis DAFO, transferencia tecnológica, seguimiento y medición de resultados del producto IDI, protección y explotación de resultados y, en general, la gestión de proyectos. Gracias a este sistema de gestión se han podido aprovechar mejor las capacidades internas, estudiar las condiciones externas y gestionar la I+D+i, desarrollando proyectos que han dado como fruto un importante know-how, propiedad intelectual e industrial. Estos, unidos al gran esfuerzo inversor en materia de I+D+i, han posicionado al Grupo Matarromera como ejemplo de gestión de la I+D empresarial. • Exigencia de ecoetiquetado por algunas cadenas de distribución e importadores. Dentro de las colaboraciones con AENOR, es de destacar que esta asociación realiza el proceso de certificación como Hay un creciente interés en el sector debido a: • Aceptación social: creciente interés de los consumidores por adquirir productos respetuosos con el medio ambiente que no contribuyan a la emisión de gases de efecto invernadero. 251 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española proyecto de I+D de muchos de los proyectos que desarrolla el Grupo Matarromera. El proceso de certificación concluye con la obtención de un informe técnico del experto y de un certificado que posibilitan la emisión por parte del MICINN del correspondiente informe motivado. Este informe motivado es vinculante a efectos de deducciones fiscales por I+D en el impuesto de sociedades. Dichas deducciones fiscales facilitan al grupo empresarial mantener sus elevadas inversiones en I+D+i. Propiedad industrial Como consecuencia de la actividad investigadora del Grupo durante los últimos años destacan los siguientes patentes en el sector del vino: • Patente del catador electrónico fruto del proyecto europeo Wine Panel Test. • Patente para la obtención de una patente PCT para: “Procedimiento para la obtención de vino desalcoholizado, vino desalcoholizado obtenido y bebidas que lo comprenden” (PCT/ES2010/070497). Dentro de la actividad investigadora en el campo de los polifenoles, durante los últimos años destacan los siguientes resultados de propiedad industrial: • Aplicación de los polifenoles líquidos y sólidos a productos de panificación y repostería (pan de vino) (PCT/EP2009/ 070434). • Solicitud de patente de Producto Lácteo al aroma de vino enriquecido con polifenoles. • El método empleado para la obtención de los ingredientes incorporados en los diferentes productos de la gama ESDOR es el descrito en la patente ES2319032, propiedad de Bodega Matarromera. 252 • Emina Cosméticos se encuentra en pleno proceso de solicitud de una nueva patente con número de solicitud PCT/ES2010/070689 y que lleva por título “Extracto polifenólico de uva y producto cosmético que lo comprende”. EVOLUCIÓN DE LA TECNOLOGÍA EN DIFERENTES ÁREAS ALIMENTARIAS La ciencia y el desarrollo de las tecnologías aplicadas al diseño de los alimentos del futuro alcanzan límites insospechados. Puede parecer ciencia ficción, pero las tendencias en investigación están demostrando que en un futuro no muy lejano la alimentación será más saludable gracias a la investigación. Si se puede llegar a conocer las enfermedades o dolencias a las que somos más propensos a lo largo de nuestra vida, se podría hacer de la alimentación una baza para prevenir enfermedades y mejorar la salud. Al hablar de las tendencias de futuro en el sector de la alimentación es inevitable abordar conceptos como los alimentos funcionales y transgénicos, la nutrigenómica, y las nanotecnologías aplicadas a la producción y comercialización de alimentos. Gracias a las nuevas técnicas experimentales se ha producido un importante avance en el conocimiento sobre el potencial de los alimentos para conservar o mejorar la salud. Las posibilidades de usar alimentos de acuerdo con su composición genética, o de modificarlos para obtener solo ciertos nutrientes, o de que en nuestro organismo se liberen solo ciertos principios activos, son hoy una realidad. Sin embargo, es importante resaltar que, frente a los gigantescos avances en tecnología alimentaria y al interesante y prometedor panorama que se ofrece en términos de alimentación, salud, calidad y expectativa de vida con los llamados nuevos alimentos y tecnologías, está la abrumadora realidad del hambre y la desnutrición en el mundo. El mayor reto al que se enfrenta la humanidad es que en 2050 se prevé un incremento de la población mundial del 40%, llegando a casi los 9.000 millones de habitantes. La Gestión tecnológica en el sector vitivinícola Organización de Naciones Unidas para la Agricultura y la Alimentación (FAO) estima que dentro de 40 años se deberá producir un 70% más de alimentos. Para ayudar a solucionar este problema se debe recurrir ineludiblemente a la ciencia. Una de las posibles vías es la ingeniería genética. Los OMG son plantas y animales a los que se les ha modificado su diseño genético para mostrar características que no tienen por sí mismos. Simplificando mucho, se trata de copiar el gen de una especie que tiene la característica que se está buscando, como, por ejemplo, la resistencia a las sequías, y transponerlo en el mapa genético de otra especie para que desarrolle esa misma capacidad. Insertando ciertos genes en plantas se han conseguido cultivos resistentes a malas hierbas, a herbicidas, a plagas de insectos, cultivos con mayores rendimientos por hectárea, resistencia a sequía o cambios fenotípicos que incluyen la maduración retardada. El caso del arroz dorado (golden rice) merece especial mención. Para la producción de este alimento básico, se insertan los genes que llevan a la síntesis y acumulación de vitamina A en el arroz, lo que permitiría mejorar la calidad de vida de los millones de personas cuya alimentación está basada en él y que año tras año mueren por deficiencia de dicha vitamina, sobre todo en Asia y África. El segundo pilar que modula la investigación agroalimentaria se sustenta en el considerable aumento durante los últimos años del interés por conocer la relación entre la dieta y la salud. Se ha demostrado que muchos alimentos tradicionales, como las frutas, las verduras, el pescado y la leche, contienen componentes que resultan beneficiosos para nuestro organismo. Los expertos recomiendan seguir una dieta sana, variada y equilibrada como la mejor manera de prevenir ciertas enfermedades y asegurar una buena salud. Pero la falta de tiempo para cocinar, el aumento del consumo de alimentos ricos en grasas y el ritmo de vida actual producen una serie de desequilibrios y desajustes alimentarios cuya consecuencia es la aparición de enfermedades. Como resultado de esta situación, surgen los alimentos funcionales, que pueden compensar esos desequilibrios alimentarios y garantizan las ingestas de nutrientes recomendadas por los especialistas en nutrición. Aunque los alimentos funcionales son reconocidos mundialmente, es necesario definir adecuadamente sus alegaciones nutricionales y normar sobre las mismas para evitar confusiones en el público y establecer claramente de qué se trata y qué beneficios pueden obtenerse al usar estos alimentos. Para ello, la Unión Europea ha legislado el tipo y alcance de las alegaciones nutricionales que pueden publicitarse con cada alimento (Reglamento CE n.º 1924/2006), siendo necesario presentar varias evidencias científicas que demuestren las funcionalidades que se aleguen; esto supone una protección del consumidor europeo, por cuanto impide publicitar efectos que no han sido científicamente demostrados, lo que permitirá un aumento de la confianza del consumidor en el uso de este tipo de alimentos. Entre las herramientas innovadoras que permiten investigar en la tecnología de los alimentos está la nutrigenómica, una ciencia que busca dotar de una explicación molecular al modo en que los productos químicos ingeridos por la dieta pueden modificar el estado normal de salud, alterando la estructura de la información genética. Se describen dos vertientes: la nutrigenómica, que estudia el efecto de ciertos nutrientes sobre la regulación de la expresión genética; y la nutrigenética, que analiza la respuesta de la estructura genética particular del individuo a ciertos nutrientes. Cada vez está más claro que los nutrientes interaccionan directamente con los genes, y todo parece indicar que ciertos alimentos son capaces de poner en marcha regiones del ADN con acción protectora frente a algunas enfermedades, mientras que otros provocan el efecto contrario. Es decir, que estos hallazgos no tienen una aplicación universal, porque existen individuos con variantes genéticas en las que la mencionada relación entre nutrientes y genes no funciona. Por ejemplo, se sabe que el té verde es saludable por sus efectos antioxidantes, pero es posible que haya personas 253 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española con configuraciones de su ADN que hagan que no se beneficien de dichas propiedades. Existen genes que se relacionan directamente con el riesgo de contraer enfermedades (cardiopatías, cáncer, osteoporosis y diabetes, por ejemplo), y se sabe que la expresión de esos genes puede ser modificada por la nutrición. Todos llevamos alguna versión de esos genes, de modo que es perfectamente posible investigar cuáles son las versiones de genes que tenemos y basar la dieta en esa información. en la manipulación de la materia a escalas namométricas. La inclusión de nanopartículas permitirá controlar la composición de suelos, la calidad y cantidad del agua empleada, la productividad de las cosechas o el uso y cantidad de pesticidas a utilizar, mediante la incorporación de pequeñas partículas directamente a la planta. En cuanto al alimento, por medio de esta nueva tecnología pueden hacerse modificaciones en su composición, controlar su maduración, estimar su vida útil, etc. Otra de las tendencias en la investigación agroalimentaria se centra en la consecución de alimentos orgánicos, biológicos o ecológicos. Son alimentos que se publicitan como aquellos “que cuidan tanto la salud de los consumidores como el equilibrio del medio ambiente en que se producen”. El éxito de estos productos se basa en que se consideran más saludables y más seguros (al ser producidos de forma más “natural”), por lo que los consumidores están dispuestos a pagar más por ellos, ya que se sienten más conscientes de sus beneficios no solo para quien los consume, sino también para la protección del medio ambiente y para el bienestar de los animales. Su principal atractivo consiste en la baja o inexistente carga de pesticidas usados en su producción, aun cuando este factor se ha vuelto más difícil de controlar a medida que su demanda ha aumentado. En el área de la industrialización es posible diseñar envases inteligentes que produzcan cambios de color si se rompe la cadena de frío, si el alimento se somete a un exceso de radiación solar o si el producto está a punto de caducar. Otros ejemplos son la microencapsulación de los aromas que se aportan a una goma de mascar, que se van abriendo de manera gradual para dar una mayor prolongación de su sabor, o la microencapsulación de determinados principios activos que se liberan en zonas determinadas del organismo (estómago, intestino grueso, etc.), favoreciendo la absorción en el lugar más adecuado con objeto de que su efecto sea el mayor posible. Otras tecnologías emergentes que van a tener impacto en un futuro son las llamadas nanotecnologías, que consisten 254 A modo de conclusión, se puede resumir que en el desarrollo de los alimentos del futuro está influyendo de manera decisiva la investigación en técnicas biotecnológicas que trabajan con el conocimiento de los genes, así como la aplicación de productos que mejoran o complementan las cualidades de las materias primas de las que parten. Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional ANTONIO PÉREZ PÉREZ (Villarrobledo, Albacete, 1949) Ex Director de Ingeniería y Calidad de EADS-CASA Ingeniero Aeronáutico por la ETSIA (Universidad Politécnica de Madrid), Máster en Métodos Cuantitativos de Gestión (EOI) y Licenciado en Ciencias Empresariales (ICADE). Tras sus inicios en el Departamento de Estudios de la EOI (Escuela de Organización Industrial) y después en Chrysler España como Ingeniero del Departamento de Ingeniería de Fabricación, en 1975 se incorpora a CASA (Construcciones Aeronáuticas, S.A.) donde ha desarrollado su carrera profesional hasta su reciente jubilación, ocupando diversos puestos como el de Ingeniero de Cálculo de Estructuras en los proyectos CASA C212 y C101, Jefe de Cálculo Estructural de los proyectos Airbus, Jefe del Departamento de Análisis de Estructuras, Subdirector Ejecutivo de Diseño de Avión y Director de Proyectos y Sistemas (Ingeniería). Después de la integración de CASA en EADS (European Aeronautic Defence and Space Company) en el año 2000, continuó como Director de Ingeniería de la División de Aviones de Transporte Militar (EADS-CASA) y, en los últimos tres años, Director de Calidad y miembro del Comité de Dirección. En estos treinta y cinco años como profesional del campo aeroespacial ha participado, desde sus diferentes responsabilidades en los proyectos CASA C212, C101, CN235, CASA3000 y C295; Airbus A300, A310, A320, A330, A340, A380 y A400M; Eurofighter EF2000; McDonnell Douglas MD11 y MD12; Saab2000; Dornier Do728; Falcon F7X y P3 Orion. Asimismo, ha sido miembro del Technology Management Group de Airbus, de los Comités de Directores Técnicos de Airbus y Eurofighter, del Technical Executive Committee de EADS, del High Level Group para el desarrollo de los acuerdos de integración de CASA en EADS, del Quality Council de EADS y del Quality Board de Airbus; líder del Joint Structural Team del EF2000; representante de ATECMA en la ASD Operation Commission; miembro del IAQG (International Aerospace Quality Group) Council y Strategic Working Group y del EAQG (European) Executive Committee, y presidente del CBMC (Certification Body Management Committee) del Esquema de Certificación Aeroespacial Español. Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional Antonio Pérez Pérez LA INDUSTRIA AEROESPACIAL En todos los países donde la industria aeroespacial ha alcanzado un desarrollo significativo, esta es considerada como un sector estratégico desde diversos puntos de vista: militar, por el grado de independencia que puede dar en la política de defensa y seguridad; tecnológico, por el desarrollo de tecnología punta, integradora de muy diversos campos técnicos y con un importante efecto de arrastre sobre otros sectores industriales; económico, por el elevado valor añadido de sus productos y el alto porcentaje de exportación de los mismos; y social, por su contribución a la creación de empleo altamente cualificado. En Europa, según datos de la AeroSpace and Defence Industries Association of Europe (ASD. Fact and Figures. 2009), las ventas de la industria aeroespacial en 2009 alcanzaron un valor de 109.000 millones de euros (5.700 millones en España), dando empleo a medio millón de personas (en España, 37.000 empleos directos). Pero si se ha de señalar un rasgo claramente distintivo de la industria aeroespacial, este sería su carácter decididamente tecnológico y multidisciplinar, que abarca campos tan variados como la aerodinámica, la mecánica de vuelo, la ciencia de los materiales, las estructuras y una diversidad de sistemas —aviónica, navegación, eléctrico, hidráulico, etc.—, con todo su extraordinario bagaje de conocimientos técnicos y científicos. Desarrollo tecnológico e innovación, aplicados a la mejora continua y al diseño de nuevos productos y procesos, van, por consiguiente, inseparablemente unidos a esta industria y, junto al objetivo común de toda I+D de conseguir un aumento de las prestaciones de los productos y la optimización de la relación eficacia-coste, persiguen otro que, sin ser exclusivo de ella, la condiciona de manera singular: la seguridad, objetivo primordial al que queda supeditado todo avance tecnológico en la industria aeronáutica. Es un sector que duplica con creces el nivel de gasto en I+D que la OCDE define como de alta intensidad tecnológica, realizando un esfuerzo en I+D que en términos económicos 259 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española representa más del 12% de las ventas del sector en Europa. En España, 800 millones de euros en 2009, un 14% de la facturación. El carácter estratégico del sector, su relación con la defensa y la seguridad, pero sobre todo los largos ciclos de desarrollo y las cuantiosas inversiones que requiere cada proyecto, justifican las ayudas institucionales sostenidas que todos los gobiernos dedican a esta industria. Sirvan como ejemplo en el campo aeronáutico los costes de desarrollo de algunos programas de Airbus: A380, más de 12.000 millones de euros; A400M, por encima de 6.000 millones; y el nuevo proyecto A350, que tiene prevista una inversión de 10.000 millones de euros. Es por ello también por lo que, contrariamente a otros sectores tecnológicos de alta innovación, como puede ser el de la electrónica y comunicación de consumo, los mayores ingresos en la industria aeronáutica no provienen de los nuevos productos, sino que se basan principalmente en los que llevan ya algún tiempo en el mercado o provienen de las modificaciones de mejora, siendo este el caso del A320 en el segmento de aviones comerciales de Airbus y los CN235 y C295 en los aviones de transporte militar de la antigua CASA, hoy Airbus Military. Aviones de misión Todos los aspectos hasta ahora descritos de la industria aeroespacial se dan especialmente en el segmento de los aviones de misión, al que pertenece el caso de desarrollo tecnológico que se expone en este capítulo, pero además hay que añadir otros que le son específicos. Estos tienen que ver fundamentalmente con dos características del mercado al que van dirigidos: en primer lugar, el cliente, ya que son casi exclusivamente los gobiernos, ya sean los departamentos de Defensa u otras agencias gubernamentales, los que adquieren estos productos bajo especificación de sus necesidades operativas; y, en segundo lugar, los extremadamente largos periodos de tiempo que transcurren entre proyectos, que se miden en decenios, lo que da lugar a una dependencia 260 directa de los presupuestos estatales, tanto para la venta de estos aviones como para las ayudas al desarrollo tecnológico necesario para mantener el capital de conocimiento de las empresas y los avances técnicos en cada nuevo proyecto. Un avión de misión puede definirse de manera sencilla como una plataforma —el avión— donde se integran una serie de sistemas y sensores que proporcionan la adquisición, procesamiento, transmisión y análisis de datos, el control y la capacidad para realizar la misión para la que han sido diseñados, sea esta de vigilancia, patrulla marítima, zonas económicas exclusivas, aduanera, protección medioambiental, vertidos marítimos, lucha contraincendios, inteligencia, alerta temprana, guerra electrónica o reabastecimiento en vuelo. Es en este campo, el de los aviones de reabastecimiento de combustible en vuelo, donde se inscribe el proyecto de desarrollo tecnológico realizado por EADS-CASA que se describe con detalle más adelante: el desarrollo de un sistema de pértiga telescópica de reabastecimiento de combustible en vuelo, conocido por sus siglas en inglés ARBS (Advanced Aerial Refuelling Boom System). Como ejemplo de aviones de misión desarrollados en España, en la figura 1 puede verse un avión CN235 de patrulla marítima fabricado por EADS-CASA para el servicio de Guardacostas de EEUU, y en la figura 2 un avión cisterna Airbus A330 desarrollado por EADS-CASA para la Fuerza Aérea de Australia.1 LA EMPRESA Y SU ENTORNO El sector aeroespacial ha sufrido un largo proceso de concentración de empresas en todo el mundo, que alcanzó su máxima intensidad en la segunda mitad del siglo XX, pasando de 60 empresas fabricantes de aviones a principios de los años cincuenta, en Europa y EEUU, a 11 al final del siglo, en un proceso que ha transcurrido paralelo a la drástica reducción 1 Todas las figuras han sido cedidas por EADS-CASA Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional Figura 1. CN235 de patrulla marítima fabricado por EADS-CASA para el servicio de Guardacostas de EEUU de programas de desarrollo de nuevos aviones (véanse las figuras 3 y 4). En su tramo final, el gobierno de EEUU lanza en 1994 el llamado proceso de reorganización de las industrias aeronáuticas y de defensa, que culmina tres años después con el surgimiento de tres nuevos gigantes: Boeing, Lockheed Martin y Raytheon. Northrop-Grumman quedará como cuarto actor tras su fallida fusión con Lockheed. Como un claro exponente del carácter estratégico y de Estado de esta industria, todas las fusiones y absorciones de empresas se hicieron a nivel nacional, posiblemente sin excepción, hasta que al comienzo del presente siglo tuvo lugar la EEUU Europa consolidación industrial 1950 21 39 del sector más importante 1960 20 35 en Europa, por primera 1970 19 22 vez transnacional, con la 1980 19 17 creación de EADS (Euro1990 18 14 pean Aeronautic Defence 1995 10 12 and Space Company) me1999 5 6 diante la fusión de Aèrospatiale-Matra de Francia, Daimler Chrysler Aerospa- Figura 3. Evolución del n.º de fabricantes de ce (DASA) de Alemania y aviones en la segunda mitad del siglo XX Figura 2. A330 MRTT desarrollado por EADS-CASA para la Fuerza Aérea de Australia 35 Entrada en producción EEUU 30 Entrada en producción Europa 25 20 15 10 5 0 1945 1950 1955 1960 1965 1970 1975 1980 1985 1990 1995 Figura 4. Evolución del n.º de nuevos programas de aviones militares en la segunda mitad del siglo XX 261 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Construcciones Aeronáuticas, S.A. (CASA) de España; es decir, prácticamente toda la industria aeroespacial de esos tres países, dando lugar a una empresa de más de 90.000 empleados con una cifra de negocios agregada en 1999 de 22.500 millones de euros. La incorporación de CASA a EADS representó un reto de enorme magnitud, ya que significaba adaptarse a un marco supranacional en la gestión y toma de decisiones. Para ello cambió su estructura legal y organizativa, adaptándola a la estructura de gestión por divisiones del grupo; lo que dio lugar a la constitución de EADS-CASA y Airbus España, bajo el punto de vista legal; y a la reorganización por divisiones de todos sus recursos, bajo el punto de vista de gestión. Se dibujaba así un cuadro empresarial en el que aparecían nuevas amenazas y oportunidades. Entre las primeras cabe destacar la competencia interna entre los distintos componentes de EADS, con sus redundancias e ineludibles corrientes nacionales, y la pequeña dimensión en términos relativos de CASA frente a sus nuevos socios —CASA representaba apenas el 6% de las ventas y el 8% de la plantilla de la nueva compañía—; y entre las segundas, fundamentalmente, las que ofrecía el Plan Industrial acordado por la SEPI durante las negociaciones de integración de CASA en el grupo. De acuerdo con este plan, en la nueva compañía se asignaba a CASA el liderazgo de los aviones de transporte militar, que luego adquiriría el rango de División: una de las cinco en las que se estructura EADS y que, entre otros programas, será responsable de los derivados militares de Airbus. La firma de un contrato de Airbus con el Gobierno alemán el 15 de diciembre de 2000 para convertir sus cuatro A310 de transporte en aviones de reabastecimiento en vuelo (MRTT, Multi Role Tanker Transport), ofreció la primera oportunidad de poner en práctica las nuevas responsabilidades asignadas a esta División de Aviones de Transporte Militar (MTAD, en sus siglas en inglés). Aunque el programa continuó inicialmente bajo dirección de Airbus Deutschland, se asignó a MTAD el diseño, la fabricación, montaje y certifica262 ción del sistema de reabastecimiento, lo que incluía el propio subsistema de reabastecimiento de combustible, las modificaciones estructurales y de los sistemas del avión, y los subsistemas de operación y control. Hay que destacar que este contrato interno de MTAD con Airbus se obtuvo reemplazando, por ser más competitivos, a la empresa estadounidense Raytheon, que contaba con la ventaja de un acuerdo previo para realizar tal trabajo. Este programa permitiría adquirir una experiencia vital, bajo el punto de vista de un negocio que daba sus primeros pasos, por tratarse del desarrollo de un sistema extraordinariamente complejo y de la conversión del avión que lo integraba, dándole una funcionalidad completamente nueva. Pero el acceso al mayor mercado del mundo en este tipo de aviones, el de EEUU, exigía el desarrollo de un sistema diferente, aún más avanzado y complejo, y para el cual habría que partir de cero, ya que la flota de aviones a repostar utilizaba un sistema conceptualmente distinto. Se planteaba, por consiguiente, la necesidad de lanzar un proyecto de desarrollo tecnológico de gran envergadura, que requeriría una inversión de decenas de millones de euros y, en consecuencia, la aprobación por el propio Comité Ejecutivo de EADS. Sistemas de reabastecimiento Se hace ya necesario aquí describir los dos conceptos de sistema de reabastecimiento en vuelo que existen, obligados por el tipo de aeronave receptora o, mejor dicho, por el tipo de sistema de recepción del combustible que posea. • Sistema de reabastecimiento en vuelo de manguera y cesta (hose and drogue): básicamente consiste en sendas góndolas (pods) instaladas bajo las alas del avión nodriza, que alojan las mangueras y cestas que se despliegan en la operación de reabastecimiento para conectarse al receptor, provisto este de una pértiga (probe) o lanza en la proa del avión que se inserta en la cesta para recibir el combustible. Mediante este sistema, es el piloto del avión Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional receptor quien maniobra para conectarse a las cestas previamente desplegadas por el avión cisterna (véanse las figuras 5 y 6). del fuselaje, generalmente hacia la proa. Con este sistema es el operador del boom quien extiende y vuela la pértiga desde el avión cisterna para conectarla con el avión receptor una vez alineado con el anterior (véanse las figuras 7 y 8). • Sistema de reabastecimiento en vuelo de pértiga o tubo telescópico rígido (Boom System): instalado en la parte posterior del avión cisterna, se despliega insertándose en el receptáculo del avión a repostar, situado en la parte superior Figura 7. Sistema boom desarrollado por EADS-CASA Figura 5. A330 MRTT repostando a dos F18 mediante el sistema de manguera y cesta Figura 6. Sistema de manguera y cesta visto desde el avión receptor Figura 8. A330 MRTT repostando un F16 mediante el sistema boom 263 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española OPORTUNIDAD Y DECISIÓN Como se ha señalado en el apartado anterior, el mayor mercado de aviones cisterna se encuentra en EEUU, que dispone de una flota de más de 550 aviones, en su gran mayoría (419) del modelo KC-135 derivado del avión comercial Boeing 707; estos aviones empezaron a entrar en servicio en 1956, entregándose a las Fuerzas Aéreas el último de ellos en 1964 y, aunque han sido sometidos a diversos programas de modernización, incluido el cambio de motores, su envejecimiento y problemas de operación, que mantiene de forma continua en tierra al 20% de la flota, hicieron prioritaria su sustitución ya desde principios de este siglo. En las fechas en que se preparó este plan de reemplazamiento de los viejos aviones, Boeing era la única empresa que disponía de un sistema de reabastecimiento en vuelo del tipo pértiga telescópica antes descrito, imprescindible para los aviones de la Fuerza Aérea estadounidense (USAF), semejante al que montaban los cisterna a ser sustituidos. Se encontraba, por tanto, en una situación de monopolio extraordinariamente perjudicial para su gran competidor Airbus, no solo por lo que este contrato representaba en sí mismo, sino por la posición dominante en el mercado y por el margen comercial excepcional que su situación de monopolio podría proporcionarle —como los hechos posteriores vinieron a demostrar—, que le hubieran permitido hacer una política de precios más agresiva en el campo de los aviones civiles. Es en este contexto, crítico para el negocio de los dos gigantes de la aeronáutica, en el que se dan los primeros pasos hacia el que más tarde se convertiría en uno de los proyectos de desarrollo tecnológico más ambiciosos de la industria aeronáutica española, resultado de la acción persuasiva del entonces máximo responsable en EADS-CASA de los aviones de patrulla marítima y derivados militares de Airbus (Rafael Acedo) y la apuesta personal del también entonces presidente de EADS-CASA y máximo responsable de la División de Aviones de Transporte Militar (Alberto Fernández) por entrar en el mercado estadounidense de aviones cisterna. 264 Se realiza así en la primera mitad de 2001, con la colaboración de CESA, filial de EADS-CASA, un primer estudio de factibilidad sobre el desarrollo de un sistema de pértiga telescópica de reabastecimiento que sirvió de base para decidir, en noviembre de ese mismo año, iniciar los trabajos de desarrollo del mismo, decisión que habría de ser sometida después a la aprobación del Comité Ejecutivo de EADS. Es casi un año más tarde, en septiembre de 2002, con Francisco Fernández Sainz ya al frente de EADS-CASA, cuando el Comité Ejecutivo aprueba el proyecto y una financiación de 60 millones de euros para el mismo. Un factor contributivo para esta decisión fue el requerimiento que la Fuerza Aérea de EEUU hizo a EADS en febrero de ese año para que presentara una oferta al programa de sustitución de aviones cisterna que transcurría desde el año anterior. El hecho de que, como se describe más adelante, esta petición se hiciera en el contexto de turbulencia política desencadenada en el Congreso estadounidense por el programa de leasing en curso, lo que restaba credibilidad a la misma —se dio un plazo de quince días para presentar la propuesta y, una vez presentada, se desestimó en menos de un mes—, no impidió que se hiciera patente la imposibilidad de concurrir al mercado de EEUU sin disponer de un sistema propio de reabastecimiento en vuelo de nueva tecnología. Como ya se ha mencionado, los acontecimientos que se relatan en el párrafo anterior se desarrollan en mitad del primer intento de la USAF por dotarse de modernos aviones cisterna, que se verá frustrado por una serie de vicisitudes que merece la pena comentar. El plan inicial era dar un contrato a Boeing mediante la fórmula de fuente única de suministro, por el leasing de 100 aviones KC-767 que irían reemplazando paulatinamente a 136 KC-135. Boeing obtuvo el contrato por 23 100 millones de dólares en medio de las protestas, encabezadas por el senador McCain, de quienes consideraban el leasing una mala fórmula para el contribuyente. Por este motivo, el contrato, por la misma cuantía, se convirtió en noviembre de 2003 en Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional la compra de 80 aviones del mismo modelo y el leasing de 20 más. En diciembre del mismo año el contrato fue suspendido por el Pentágono al iniciarse una investigación por corrupción que afectaba a dos directivos de Boeing, uno de ellos la anterior adjunta al subsecretario de la Fuerza Aérea responsable de Compras hasta enero de 2003; ambos fueron posteriormente condenados a penas de cárcel y el contrato fue formalmente cancelado en enero de 2006. (all-electrical boom) y se compone de los siguientes subsistemas principales: • El mástil o estructura de tipo aeronáutico, semimonocasco, articulado, que constituye la propia pértiga telescópica rígida; de 11,6 m de longitud retraído, y 18,2 m extendido (véase la figura 9). Todas estas lamentables circunstancias, sin embargo, dieron a EADS-CASA un tiempo precioso para el proyecto de desarrollo tecnológico emprendido años atrás, de tal manera que este se encontraba ya en sus fases finales de experimentación en vuelo el 30 de enero de 2007, fecha en la que el Departamento de Defensa de EEUU publicó su Petición de Oferta en un nuevo programa de adquisición de aviones de reabastecimiento llamado KC-X. PROYECTO TECNOLÓGICO: PÉRTIGA TELESCÓPICA DE REABASTECIMIENTO EN VUELO En el año 2002, a propuesta de la División de Aviones de Transporte Militar, el Comité Ejecutivo de EADS había aprobado el lanzamiento de un proyecto de desarrollo tecnológico de un sistema de reabastecimiento en vuelo válido para repostar aviones receptores provistos de un sistema del tipo receptáculo, que permitiera competir en el mercado de aviones cisterna con aviones derivados de los modelos comerciales de Airbus y, en particular, con el A330. El sistema tendría que desarrollarse partiendo de cero y debería tener unas prestaciones superiores a las de su competidor, lo que significaba un mayor flujo de combustible durante la transferencia y que la propia operación de repostaje, sin cambiar en lo fundamental, pudiera realizarse de una forma más sencilla y segura. Conocido por sus siglas en inglés, ARBS, advanced Aerial Refuelling Boom System, el sistema es completamente eléctrico Figura 9. Modelo CATIA 3D • Las superficies aerodinámicas móviles que permiten “volar” el boom mediante un sistema de mandos eléctricos (fly-by-wire). • El sistema de extensión-retracción de la viga telescópica. • El sistema de suelta e izado del boom desde/hasta su posición de estiba en el fuselaje. • El sistema de visión con cámaras de vídeo digitales de alta definición y visión estereoscópica sintética mediante espejo dicroico. • La consola de control remoto del operador del boom, ubicada en la cabina de pilotos, que incluye un sistema de visión sintética, los controles de todos los sistemas y los 265 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española sticks de control del movimiento del boom (stick de vuelo y stick de extensión-retracción) (véase la figura 10). • Una mayor facilidad de operación por la óptima interfaz hombre-máquina debida al sistema de visión 3D de alta definición, por la fácil coordinación de los pilotos con el operador al ubicarse en la cabina de pilotaje y por el sistema activo de mandos de vuelo del boom. • La mejora en la seguridad de la operación que proporcionan el sistema de alivio de cargas y el desenganche automático cuando se superan los límites, la fiabilidad de los mandos eléctricos de vuelo cuyas leyes de control contemplan cualquier caso de fallo y la redundancia de las computadoras de control de todo el sistema. Figura 10. Consola del operador del boom • El sistema automático de alivio de cargas, que mide las fuerzas de acoplamiento en la unión con el receptor y alimenta las leyes de control del boom para reducirlas cuando alcanzan ciertos límites. • La unidad de control del boom u ordenadores de control de la operación del boom. DESARROLLO DEL PROYECTO, FINANCIACIÓN Y RECURSOS El sistema desarrollado tiene unas prestaciones que superan las de la competencia en varias características importantes El proyecto se organizó inicialmente mediante un esquema convencional con un ingeniero jefe al que se proporcionaron recursos de las distintas áreas técnicas, en gran medida las mismas que son necesarias para el desarrollo de un avión, es decir, aerodinámica, dinámica y mandos de vuelo, estructuras y sistemas, siendo en esta área donde el proyecto presentaba mayor dificultad por la necesidad de desarrollar e incorporar nuevas tecnologías no disponibles “en la casa”, al no ser propias del diseño de un avión. Para estas últimas se eligió una combinación de ingenieros propios con experiencia en materias afines y de proveedores que, en principio, contaban con el know-how requerido al contar con productos similares a esos subsistemas. • La velocidad de transferencia de combustible, con un flujo de 1.200 galones americanos por minuto (4.542 l/min), con potencial de crecimiento a 1.500 (5.680 l/min), frente a los 900 (3.400 l/min) del competidor. Los problemas encontrados en una primera fase del proyecto para el desarrollo de esos equipos llevaron a reorientar y remodelar la organización, creando un grupo multidisciplinar mucho más integrado y bajo la autoridad directa • El sistema de combustible para la transferencia desde el avión nodriza al receptor. • Las PDL (Pilot Director Lights), sistema de luces en el fuselaje posterior, que guían al piloto del avión receptor para situarse en la posición adecuada para la operación. 266 Por otra parte, el diseño conceptual del sistema y las tecnologías utilizadas suponen un potencial de desarrollo futuro hacia un sistema de acoplamiento y reabastecimiento automático de nueva generación. Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional del jefe del proyecto y, poco tiempo después, a poner en marcha un plan B para desarrollar internamente esos equipos de riesgo, al menos en su configuración de prototipos. El tiempo vino a demostrar el acierto de esta decisión, ya que en la solución final fueron estos desarrollos B internos los que tuvieron éxito, abandonando la vía de suministro externo para ellos. El equipo de trabajo dedicado al proyecto fue relativamente pequeño si se compara con los estándares del mundo aeronáutico, ya que siempre estuvo por debajo de las 75 personas, incluidos ingenieros, técnicos, operarios y pilotos, para la realización de todas las actividades, desde el diseño a los ensayos en vuelo y la conversión del propio avión demostrador. Un equipo extraordinariamente motivado y comprometido con el proyecto, de gran talento, que fue viendo crecer sus conocimientos y experiencia a medida que se alcanzaban nuevos hitos. Figura 11. Modelo aerodinámico de avión y boom Aerodinámica y leyes de control Tras los estudios de factibilidad iniciales, se abordó el diseño preliminar del boom, y en primer lugar su diseño aerodinámico, mediante el uso extensivo de herramientas CFD (Computational Fluido Dynamics) y la realización de varias campañas de ensayos en túnel aerodinámico. Hay que resaltar los importantes retos que hubo que afrontar en este terreno al tener que operar el boom desde bajas velocidades hasta régimen transónico con elevados ángulos de ataque, la fuerte interacción entre la deformación estructural y la aerodinámica, y la gran exactitud de datos requerida para el diseño de las leyes de control del boom, elemento de primordial importancia para el éxito de la operación de acoplamiento con el avión receptor (véanse las figuras 11 y 12 con los modelos y análisis CFD de avión con boom instalado y de la estela del boom, respectivamente). El diseño de las leyes de control del boom, exigido por un sistema de mandos completamente digital, representaba Figura 12. Análisis CFD de la estela del boom un auténtico reto para los ingenieros de mecánica de vuelo, estabilidad y control, ya que las características específicas del sistema lo hacían en cierta medida más complejo que el sistema de mandos de vuelo de un avión “convencional”, al tener que hacer compatibles los requerimientos contradictorios que se plantean en las diversas fases de operación: despliegue/izado, vuelo libre y vuelo acoplado al receptor, y la 267 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española exigencia de un comportamiento dinámico que garantizara una gran precisión en el seguimiento del receptáculo hasta la inserción, evitando, por una parte, el riesgo de acoplamiento aeroelástico asociado a una estructura altamente flexible y, por otra, el riesgo de rotura y de daños al avión receptor durante el tiempo de repostaje. Este último requisito se resolvió mediante el diseño de un sistema automático de alivio de cargas que desengancha el avión nodriza del receptor cuando las cargas que aparecen debido a su desplazamiento relativo sobrepasan un cierto valor admisible. En definitiva, el diseño acertado de las leyes de control y unas óptimas cualidades de vuelo establecen una diferencia significativa con la competencia, ya que se traducen en un tiempo inferior para realizar los contactos, una mayor eficiencia de la misión y un menor tiempo de entrenamiento. Subsistemas Durante esta fase de diseño aerodinámico y estructural se pusieron en marcha las distintas actividades para el desarrollo de los diversos subsistemas del boom: • Sistema computacional y de control, conocido por sus siglas en inglés como BCCS (Boom Control and Computing System), de arquitectura de control y monitorización redundante, que gestiona los distintos modos de operación del boom, implementa las leyes de control de vuelo, controla las PDL, y controla y monitoriza el sistema de actuación de las superficies de mando, el sistema de extensión/retracción y el sistema de izado; además, proporciona el sistema de detección de fallos y reconfigura el sistema aislando los mismos. Consta de dos ordenadores o unidades de control que utilizan códigos en lenguaje Ada95 y C, con un canal de control y un canal de monitorización cada uno, basados en equipos COTS (Commercial on the shelf). • Sistema de extensión/retracción: el sistema de actuación que controla el movimiento telescópico del boom es uno 268 de los sistemas de actuación eléctrica de mayor potencia instalados en un avión. Controla continuamente la viga telescópica en un rango de velocidades que va de 0 a 3 m/s, una velocidad espectacular si tenemos en cuenta que la viga-tubo llena de combustible pesa más de 500 kg y la elevada presión del combustible que se opone a la retracción. Cada motor es capaz de una operación continua de 2,5 kW, con un pico de 12 kW en la retracción de emergencia. • Sistema de izado: es un sistema similar al de extensión/retracción en cuanto a sus componentes: fuente de potencia, controladora, motor eléctrico y reductora, si bien hubo de afrontar los problemas mecánicos asociados al despliegue y rebobinado del cable que sujeta el boom. • Sistema de control de vuelo: son dos superficies aerodinámicas o “aletas” en V, con un sistema electromecánico de accionamiento, que producen el movimiento de cabeceo y balanceo del boom. • Sticks: uno que gobierna el vuelo del boom (stick de vuelo), y que también manda la transferencia de combustible, las comunicaciones y la desconexión, entre otras funciones; y otro stick para el mando telescópico del boom. • Sistema de visión: sistema de videocámaras que permiten al operador ver el boom desde la cabina de piloto, donde se encuentra situada la consola de operación. La percepción de profundidad necesaria se proporciona mediante una imagen 3D generada a bordo por un sistema dicroico. Tres cámaras más dan la situación panorámica de 180º y otras dos con capacidad de basculación y zoom permiten una visión detallada del receptáculo y son capaces de reemplazar la imagen 3D en caso de fallo del sistema principal. • Un sistema de iluminación de infrarrojos de última tecnología láser permite la operación nocturna de reabastecimiento (véase la figura 13). Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional Figura 13. Imágenes diurna y nocturna obtenidas por el sistema de visión La gran dimensión del proyecto a realizar y la especialización requerida en los diversos campos tecnológicos de los subsistemas descritos anteriormente, llevó en un primer momento a una amplia subcontratación tanto a empresas nacionales como extranjeras; así, los sistemas de extensión/retracción y de izado por un lado, y los sticks por otro, se contrataron a empresas estadounidenses con gran experiencia en el sector aeronáutico; los ordenadores de control y los servoactuadores de las superficies de mando, a empresas europeas; el software de la unidad de control, a una empresa india; y los sistemas de visión y de iluminación, así como el diseño de la estructura del boom, a empresas españolas, igualmente con gran experiencia en el sector. sivo hasta el año 2004, impulsado de forma irreversible por la firma del primer contrato de aviones cisterna que incorporaban este sistema de reabastecimiento en vuelo: la venta de cinco aviones A330 MRTT a la Fuerza Aérea de Australia. Es a partir de entonces cuando se pondrán de manifiesto las dificultades para lograr en el plazo requerido y con las prestaciones especificadas tanto los sistemas de extensión/retracción e izado, como los sticks, por lo que en 2006 hubo que adoptar un plan alternativo para realizar el desarrollo de estos sistemas internamente en EADS-CASA, con el refuerzo de unos pocos ingenieros contratados y el soporte de empresas locales, ambos con experiencia en esos campos. Lo que resultó en la fabricación de nuevas controladoras y reductoras para los primeros y de nuevos sticks en el segundo caso, prototipos que fueron los que finalmente se seleccionaron como definitivos frente a los contratados en principio. Por su parte, el sistema de visión inicialmente desarrollado también sufrió un cambio radical, siendo sustituido por uno de desarrollo interno con cámaras digitales, pantallas de alta definición, imagen estereoscópica e iluminación infrarroja por láser, que integraba los equipos y componentes de distintos proveedores en un sistema de nueva generación desarrollado en EADS-CASA, finalmente incorporado en los aviones A330 MRTT. A la fase de diseño y fabricación de las primeras unidades prototipo, y en gran medida solapándose con ella, siguió la fase de ensayos en tierra. Para ello se hizo un uso extensivo de bancos de ensayo, en primer lugar, y después del propio avión de ensayos, un A310 de segunda mano adquirido y modificado a tal efecto, en el que se instaló el sistema de reabastecimiento y la consola del operador para ser utilizado como plataforma de ensayos en vuelo. Desarrollos alternativos y ensayos en tierra y en vuelo En esta fase se utilizaron las siguientes instalaciones y bancos de prueba: Aunque en los dos primeros años se hicieron numerosos trabajos en todas las actividades y sistemas descritos más arriba en lo que se podría denominar una fase de estudio, definición y prediseño, el proyecto no tuvo un lanzamiento inten- • Simulador de ingeniería. En el que puede simularse el vuelo del boom desde la consola del operador. Aquí se realiza el desarrollo y evaluación de las leyes de control de vuelo utilizando los modelos aerodinámicos del avión y del 269 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española boom y el stick real, y la evaluación del sistema de visión, incluidas cámaras, sistema estereoscópico y superposición de imágenes (véase la figura 14). Figura 14. Simulador de ingeniería • Banco de software. En el que se desarrolla y prueba el software con unidades de control reales y conexiones y señales de entrada y salida también reales, utilizando un sistema de estimulación que simula los sistemas y sensores con los que interacciona. • Banco de integración de los sistemas de extensión/retracción e izado. En el que se prueban los equipos desarrollados internamente, y los sistemas integrados y la funcionalidad del sistema de actuación. • Banco de integración del sistema completo a escala real. Con el propio boom y la mayoría de los sistemas reales y modelos aerodinámicos de vuelo, lo que permite operar el boom simulando un vuelo real, en el que pueden ensayarse contactos con el receptáculo y transferencia de combustible, y realizar todo tipo de ensayos de desarrollo y calificación del sistema completo en tierra antes de las pruebas en avión (véase la figura 15). La última fase de los ensayos en tierra se realiza en el propio avión-demostrador tecnológico. Ensayos de vibraciones sobre el avión para determinar sus modos propios de vibración en las diferentes configuraciones de vuelo, con y sin combustible, con el boom desplegado y estibado. Ensayos de despliegue del boom y transferencia de combustible en tierra, para lo cual se ha construido un foso equipado a tal fin. 270 Figura 15. Banco de ensayos del boom a escala real La fase final del desarrollo es la de ensayos en vuelo, para la cual se utiliza el avión-demostrador ya mencionado, totalmente instrumentado con acelerómetros, captadores de presión, extensímetros y todo tipo de sensores y equipos de medida para los distintos sistemas. La transmisión de datos a la estación de tierra se realiza por telemetría, lo que permite el seguimiento y control del vuelo en tiempo real. Los ensayos en vuelo se dividieron en varias fases que se extendieron desde el 16 de marzo de 2006, día en que tuvo lugar el primer vuelo del demostrador con el boom estibado, hasta el 30 de julio de 2008, en que se terminaron todos los ensayos una vez completados los contactos y transferencia de combustible en distintas configuraciones de vuelo y con todos los tipos de aviones receptores seleccionados, entre otros F-16, F-18 y AWACS. En la primera fase de ensayos en vuelo se efectuó la apertura de la envolvente de vuelo del avión con el boom instalado, probando las cualidades de vuelo y el comportamiento aeroelástico del avión y del propio boom con unas leyes de control de vuelo simplificadas. Los datos obtenidos permitieron definir con mayor exactitud los modelos aero- Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional dinámicos, estructurales, y de actuadores y sensores, lo que permitió mejorar la aerodinámica y optimizar las leyes de control en vuelo libre del boom. La segunda fase se utilizó para el desarrollo y evaluación de las leyes de control de vuelo del boom, tanto en vuelo libre como acoplado con el avión receptor, realizando contactos en seco y en húmedo, es decir, sin y con transferencia de combustible, para determinar las características operativas y las prestaciones del sistema en las diferentes configuraciones de operación y en toda la envolvente de vuelo. Financiación El proyecto contó con una financiación inicial de 60 millones de euros de la empresa matriz EADS, reembolsables con la venta de un número determinado de aviones, que posteriormente se complementó con fondos propios de EADS-CASA por un importe similar, si bien estos fueron ya empleados parcialmente en la integración del sistema en un nuevo avión, el A330. Hubo también una financiación institucional por parte de la Comunidad Autónoma de Madrid en forma de subvención durante los años 2003 a 2008 por un valor cercano a los dos millones de euros. PRODUCTO Y MERCADO El sistema de reabastecimiento de combustible en vuelo (ARBS en sus siglas en inglés, advanced Aerial Refuelling Boom System) desarrollado por EADS-CASA, se ofrece al mercado en dos plataformas Airbus, el A310 y el A330, combinado con el sistema de reabastecimiento de manguera y cesta (hose and drogue) con la denominación A310 MRTT y A330 MRTT (Multi Role Tanker Transport); de esta forma se cubren todas las necesidades de las fuerzas aéreas en aviones de ala fija (por otra parte, y aunque se sale del ámbito de esta narración, el campo de los helicópteros queda cubierto con los modelos CN235, C295 y, en el futuro, con el A400M, con sistemas de manguera y cesta). Figura 16. A330 MRTT de EADS-CASA para la Fuerza Aérea de Australia repostando un F16 El producto principal solicitado por el mercado es el A330 MRTT (véase la figura 16), que se ha constituido desde el momento de su desarrollo, con sus 111 toneladas de capacidad de combustible sin necesidad de tanques auxiliares, en el avión de reabastecimiento estratégico para las fuerzas aéreas. El avión se presenta en varias configuraciones que resultan de la combinación de los sistemas mencionados de reabastecimiento, es decir, ARBS instalado en la parte posterior inferior del fuselaje, manguera y cesta bajo las alas y, al igual que el ARBS, en el fuselaje posterior. El avión cisterna se obtiene a partir de un “avión verde”, es decir, según sale de la línea de montaje final del modelo civil antes de instalarse los sistemas de pasajeros, al que una vez en las instalaciones de EADS-CASA en Getafe (Madrid) se le integran los distintos sistemas de reabastecimiento y la consola de operación remota de los mismos; se le modifican los sistemas necesarios 271 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española del avión básico: el sistema de mandos de vuelo, el sistema de combustible, la aviónica, el sistema eléctrico, etc.; y adicionalmente se le incorporan algunos sistemas propiamente militares como son los de comunicaciones, transmisión segura de datos, data link, identificación amigo-enemigo, y sistemas defensivos y de guerra electrónica. El mercado está constituido por las fuerzas aéreas del lado de la demanda y, en cuanto a la oferta, se da una situación de duopolio, con EADS y Boeing como únicos fabricantes. El modelo A330 MRTT ha ganado todos los concursos a los que se ha presentado, en los que competía con el Boeing 767, obteniendo los siguientes contratos: • Australia: 5 A330 MRTT para la RAAF. • Reino Unido: 14 A330 MRTT del programa FSTA (Future Strategic Tanker Aircraft) de la RAF, mediante la modalidad de Iniciativa Financiera Privada, es decir un contrato de servicios por 27 años a través de la sociedad AirTanker participada por EADS. • Emiratos Árabes Unidos: 3 A330 MRTT. • Arabia Saudí: 6 A330 MRTT. En total, 28 aviones que en sus diversos contratos de venta y servicios suman una cifra de negocio de más de 18.000 millones de euros. Mención aparte merece el programa KC-X del Departamento de Defensa de EEUU. Tras los antecedentes relatados en el apartado 3, en enero de 2007 se publicó la petición de oferta para adquirir 179 aviones cisterna en sustitución de los viejos KC-135 aún en servicio. Se trataba de un programa de entre 35.000 y 40.000 millones de dólares por el que competían Boeing y EADS asociada con Northrop-Grumman. Este programa, en realidad, representaba tan solo un tercio de la flota de aviones a reemplazar, lo que quería decir que podría ser la primera parte de una serie de contratos potenciales por 272 un importe global de más de 120.000 millones de dólares que, de acuerdo con un informe del Congreso de los EEUU de 2009, se desarrollaría a lo largo de 40 años. En febrero de 2008, las Fuerzas Aéreas de EEUU anunciaron la selección de EADS como ganadora del contrato; sin embargo, ante una reclamación de Boeing, la GAO (Gubernamental Accountability Office) emitió un informe en junio de ese año en el que admitía el recurso de Boeing por sobrecumplimiento de la especificación, lo que llevó finalmente a la anulación del concurso en septiembre por el Secretario de Defensa. Un nuevo episodio, cargado de connotaciones políticas, inició su curso en septiembre de 2009 con una nueva petición de oferta y los mismos competidores —si bien EADS acudió esta vez sola, sin su socio anterior Northrop Grumman— cuyo desenlace se espera para principios de 2011. REALIDAD Y FUTURO El diseño, desarrollo, experimentación y, finalmente, la certificación de un sistema de reabastecimiento en vuelo totalmente nuevo, ha representado para EADS, y sobre todo para su filial española, EADS-CASA, un salto cualitativo que tiene su expresión en el impacto producido en terrenos diversos. En primer lugar, EADS se ha convertido en la empresa líder mundial en la tecnología de aviones de reabastecimiento en vuelo, al desarrollar un producto cuyas características técnicas y operativas, así como su fiabilidad, se encuentran claramente por encima de los productos de sus competidores, lo que le da unas ventajas competitivas puestas de manifiesto en todos los contratos adjudicados en los últimos años. El desarrollo de un producto técnicamente tan complejo ha requerido la adquisición de nuevos conocimientos y experiencia en materias tan diversas como la mecánica de vuelo, la aerodinámica, la aeroelasticidad, la electrónica de control, los sistemas ópticos de visión, los mandos de vuelo, etc., con un Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional notable desarrollo del capital humano, tanto del personal ya existente al comienzo del proyecto como de las importantes incorporaciones que se produjeron a lo largo del mismo. Y un activo en propiedad intelectual que se ha traducido en más de treinta patentes registradas, en todos los campos técnicos investigados. Así, sirvan como ejemplo, en el de la mecánica, la rótula de unión del boom al fuselaje, el sistema de recogida del cable telescópico y el sistema de desconexión; en aerodinámica y dinámica de vuelo, diversos dispositivos aerodinámicos especiales y las propias leyes de control de vuelo; en los sistemas, el sistema de visión, los iluminadores infrarrojos y el stick de vuelo; y en simulación, el sistema de entrenamiento en vuelo. Pero este activo tecnológico no se ha limitado a EADS-CASA, sino que se ha propiciado también en una docena de empresas españolas que han intervenido en la mayor parte del proceso de desarrollo y en la fabricación en serie, y en algunos casos en empresas nuevas en el sector a las que se ha contratado la industrialización de los prototipos desarrollados en EADS-CASA. También ha supuesto un impacto en el modelo de negocio, ya que el desarrollo del boom ha permitido a su vez el pleno desarrollo de una línea nueva de negocio, la de aviones de reabastecimiento en vuelo o aviones cisterna con capacidad para repostar a cualquier tipo de receptor, que da empleo a más de 2.000 personas en España y que ha alcanzado ya un volumen de facturación de 700 millones de euros al año, equivalente a un tercio de las ventas de la división. Porcentaje que se mantendrá estable en los próximos años y cuya proyección a más largo plazo está en gran medida condicionada por el resultado final del contrato con la Fuerza Aérea de los EEUU en el programa KC-X. Como conclusión, el proyecto de desarrollo tecnológico emprendido por EADS-CASA en los primeros años del siglo XXI para desarrollar un sistema de reabastecimiento de combustible en vuelo de nueva generación, le ha permitido acceder con pleno éxito a un mercado donde anteriormente no tenía presencia, convirtiéndose en líder mundial del mismo y en la referencia tecnológica para sus competidores. Representa, por lo tanto, un hito empresarial de extraordinaria importancia, que ha dotado a la compañía de un capital tecnológico y humano fundamental para la apertura de una línea de negocio que ya es una realidad y la más sólida base para afrontar retos futuros. La construcción de obras civiles. La tecnología de las presas El futuro de la tecnología de las presas y balsas JOSÉ POLIMÓN LÓPEZ (Madrid, 1940) Presidente de SPANCOLD (Comité Nacional Español de Grandes Presas) Presidente de AUSIGETI (Asociación Nacional de Auscultación y Sistemas de Gestión Técnica de Infraestructuras) Doctor Ingeniero de Caminos, Canales y Puertos. Inició su trayectoria profesional en 1964 en Hidroeléctrica Española (hoy Iberdrola), trabajando en los proyectos y la supervisión de obra de presas y centrales hidroeléctricas. En 1970 pasó a INTECSA como Jefe de Proyecto de Planes de viabilidad de riegos, estudios de potencial hidroeléctrico y proyectos de presas y centrales en España, y en otros países como Brasil, Ecuador y República Dominicana. Como Jefe de la División de Energía dirigió proyectos de centrales eléctricas (hidráulicas, térmicas y nucleares), así como de oleoductos, gasoductos y estaciones de compresión de gas. En este periodo se realizaron también los estudios de potencial aprovechable con minicentrales en España. Como Subdirector responsable del Área de Agua, Energía y Medio Ambiente, y posteriormente como Director de Desarrollo, fue responsable de los proyectos y direcciones de obra de estos sectores. En 1994 pasó a GEOCISA donde, primero como Director Técnico y luego como Director General, se ocupó del impulso tecnológico en esta empresa especializada que cuenta con áreas de actuación pioneras, a nivel internacional, relacionadas con la innovación en la construcción, la restauración de monumentos y la protección ambiental de suelos entre otras. Desde 2002 a 2009, como Director Técnico de Dragados, ha sido responsable del apoyo técnico a los distintos proyectos que la empresa acomete en todo el mundo, así como de la innovación y del sistema de gestión del conocimiento, que permite la identificación, difusión y aplicación de las nuevas tecnologías desarrolladas en las obras. Estas innovaciones permiten aumentar la seguridad de las personas y del medio ambiente, al tiempo que se optimizan los plazos y los costes, con el objetivo de ser competitivos en el mercado internacional. JOSE MARÍA OSORIO SÁNCHEZ (Málaga, 1940) Consultor independiente Vocal colaborador de SPANCOLD Doctor Ingeniero de Caminos, Canales y Puertos. Comenzó el ejercicio profesional en 1963 en obras en Dragados (Túnel de Guadarrama, Riegos del Órbigo, y otras obras en León, Valladolid y Bilbao). En 1968 fue designado Director Regional en Sudamérica, Responsable de obras de administraciones estatales (viales, hidroeléctricas, petroquímicas; fondos del Banco Mundial y del Banco Interamericano de Desarrollo; créditos españoles con exportaciones de equipos), y en 1981, Director para Oriente Medio y África, responsable, igualmente, de obras de administraciones estatales (edificación, regadíos, termoeléctricas; créditos españoles con exportaciones de equipos). En 1987 se incorporó a Polarsol, S.A., empresa inmobiliaria, como Director General. En 1996 fue nombrado Director de Relaciones Institucionales del Grupo Dragados y más tarde Director de Calidad del mismo. En 2004 pasó a ejercer libremente su profesión. Es vocal colaborador de SPANCOLD (Comité Nacional Español de Grandes Presas). Ha sido también Consejero del Colegio de Ingenieros de Caminos, Canales y Puertos, y Vocal Tesorero del Comité Ejecutivo de la Cámara de Comercio e Industria de Madrid. La construcción de obras civiles. La tecnología de las presas José Polimón López José María Osorio Sánchez INTRODUCCIÓN Evolución de la construcción de obras civiles en España La evolución de las tecnologías en la construcción de obras civiles desde los años sesenta del pasado siglo ha sido espectacular, como lo demuestra el paso del sector desde una situación de precariedad casi absoluta de medios y materiales que obligaba a resolver los problemas con el ingenio y el esfuerzo de los profesionales implicados, lo que hizo que la innovación fuera imprescindible, hasta el momento, solo una década después, en que las empresas españolas salen al mercado internacional y compiten con otras de gran tradición exportadora. Esta evolución se ha producido en todos los campos de la ingeniería civil, pero si se ordena por el tipo de obras que las empresas españolas han desarrollado en el extranjero, lo que da una idea de aquellas que ya disponen de un nivel alto de tecnologías propias, el orden cronológico sería: presas, cen- trales hidroeléctricas, planes de regadío, túneles, trasvases de agua, autopistas, puertos, puentes y planes de saneamiento de ciudades. A todas ellas se han sumado ahora: las líneas de ferrocarril de alta velocidad, la desalación de agua de mar, las energías renovables (eólica, solar e hidráulica), los canales de navegación, los grandes viaductos y las infraestructuras urbanas (metro, circunvalaciones subterráneas e intercambiadores de transporte). Dada la gran variedad de los tipos de obras mencionadas, más otras que sería preciso añadir, parece procedente analizar la evolución de las diversas tecnologías implicadas, más desde la perspectiva de uno de los casos y considerando el sector correspondiente en su conjunto, mejor que el caso de una empresa. Con ello, se dispondrá de un ejemplo aplicable a los demás casos y que abarca a constructoras, ingenierías, consultores, empresas especializadas, fabricantes de maquinaria y suministradores de materiales y servicios. Sin olvidar que el desarrollo conseguido es deudor del apoyo decidido de la Administración pública, que ha sido el cliente profesional que ha permitido afrontar los nuevos y sucesivos retos, 277 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española al tiempo que se ha preocupado de atender la demanda de infraestructuras que el país necesita para mejorar la competitividad de España y que ha aprovechado, de forma ejemplar, las oportunidades de financiación de los fondos estructurales de la Unión Europea. Por ello, al seleccionar un tipo de obras civiles como ejemplo parece lógico tomar el caso de las presas ya que, además del hecho ya mencionado de haber sido el primero en acometer la exportación de tecnología, tanto en construcción como en proyecto, ha tenido un índice muy elevado de crecimiento para poder atender las necesidades de agua y energía en un país que, sin las presas, dispondría apenas de un 10% del agua necesaria, y que realizó su despegue económico gracias a la energía hidroeléctrica, componente autóctono y renovable del actual mix energético que evita, además, la emisión de gases de efecto invernadero. Como elemento complementario de las presas que está teniendo un gran desarrollo hay que contar también con las balsas, que facilitan la disponibilidad de agua embalsada en la proximidad de las zonas de producción de alimentos o de consumo urbano o industrial. Por otra parte, el caso de las presas y las balsas es también muy adecuado para exponer los nuevos retos a los que, como sociedad, debemos hacer frente, entre los que se debe mencionar el cambio climático, el almacenamiento de energía, la conservación del patrimonio construido y la exportación de tecnología. Estructura tecnológica del sector La construcción de obras civiles es una de las mayores industrias españolas y cuenta con un buen número de empresas punteras en un mercado globalizado y muy competitivo. Como es bien sabido, esto solo es posible con unas tecnologías bien desarrolladas y con una constante innovación para su mejora y adaptación a circunstancias diversas y a las 278 duras condiciones que se encuentran en la localización de las obras, en el clima y en la necesaria reducción de los plazos para llegar cuanto antes a la fase de explotación. La tecnología de presas, al igual que en el resto del sector de la construcción de obras civiles, tiene su origen en los diferentes agentes del proceso global, que están estructurados en los niveles que se describen sucintamente a continuación: • La Administración central del Estado, que cumple varias funciones esenciales: la de análisis de las demandas de agua, la planificación hidrológica para definir las soluciones a adoptar, la aprobación de las Declaraciones de Impacto Ambiental (DIA), la promoción de las obras necesarias, la elaboración de las normas de aplicación, la concesión de aguas a particulares, la vigilancia de las presas durante todas las fases de su vida útil y, finalmente, la de cliente de los demás agentes. En todos estos aspectos actúa como impulsora y aplicadora de las numerosas tecnologías implicadas, con la colaboración del resto del sector. • Las comunidades autónomas, que pueden ser también promotoras de las obras para atender demandas de sus poblaciones y que además vigilan el cumplimiento de los aspectos de su competencia, en especial los relacionados con la seguridad de las personas y con el cuidado del medio ambiente. • Los concesionarios, como son las empresas eléctricas o de abastecimiento o los regantes, que, una vez conseguida la concesión de caudales de agua, actúan como promotores de las obras necesarias y como clientes de otros agentes. En algunos casos cuentan con importantes equipos técnicos que desarrollan directamente una parte importante de las labores de ingeniería en todas las fases. • Las empresas de ingeniería y los consultores, que desarrollan los estudios básicos (hidrología, geología, geotecnia, ambientales, aplicación de modelos matemáticos para los elementos hidráulicos o para los cálculos estructurales, La construcción de obras civiles. La tecnología de las presas simulación de explotación del embalse, etc.), el análisis de alternativas y su comparación, los anteproyectos, los proyectos para licitación y construcción y la asistencia técnica a la dirección de las obras. • Las constructoras, que estudian la obra definida por los anteriores, proponen soluciones sobre la base de los procesos de construcción que estiman más adecuados, aportan la tecnología propia de dichos procesos, la maquinaria necesaria y el personal experto para llevar a cabo la construcción. • Las empresas especializadas, que disponen de equipos de expertos y especialistas en tecnologías específicas: realización de sondeos y de ensayos en el emplazamiento de la obra, laboratorios de ensayo de materiales de campo y de construcción, tratamientos de mejora del terreno, inyecciones de impermeabilización, auscultación durante la obra y en explotación para vigilar el comportamiento con respecto a lo previsto en proyecto, modelos matemáticos de operación de la presa y de sus elementos, etc. • Los centros de investigación, como el CEDEX del Ministerio de Fomento con sus laboratorios especializados en geotecnia, estructuras, materiales y modelos hidráulicos a escala reducida; o el Instituto Eduardo Torroja del Consejo Superior de investigaciones Científicas (CSIC), que abarca varias especialidades de homologación de materiales y compuestos, así como ensayos de estructuras. A estos centros de titularidad pública hay que añadir laboratorios privados tanto en ensayos hidráulicos como en la caracterización de materiales de construcción. • Las universidades, que a través de distintos departamentos colaboran de forma muy activa en las propuestas de innovación hechas por otros agentes y en aspectos relacionados con el medio ambiente, la geología, la hidrología, la geotecnia y en todos aquellos en que se necesita dedicar tiempo de investigación y desarrollo de nuevos productos o procesos. • Los fabricantes de maquinaria de obra, que con su propia experiencia y la que recogen de los constructores, van adaptando las máquinas a las condiciones cada vez más exigentes en cuanto a seguridad de las personas, cuidado del entorno y optimización de los costes. • Los fabricantes de equipos hidromecánicos, como compuertas, válvulas, cuadros de control, etc., que aportan su tecnología de evacuación y aireación de caudales de agua o de producción de energía, como turbinas, alternadores, transformadores, etc. • Los suministradores de materiales: cemento, áridos, cenizas volantes, productos asfálticos o láminas impermeables. • Las asociaciones profesionales, y muy especialmente el Comité Nacional Español de Grandes Presas (SPANCOLD), que produce y difunde guías técnicas y recomendaciones elaboradas por sus comités técnicos y por sus correspondientes comités internacionales de la Comisión Internacional de Grandes Presas (ICOLD), en los que la participación española es activa e importante. La tabla 1 muestra la lista de estos comités, los cuales cubren todos los aspectos tecnológicos de las presas y las balsas. A esto hay que añadir, a nivel internacional, el estímulo para la innovación que supone enfrentarse con condiciones locales de todo tipo, a las cuales hay que adaptar la realización de las obras en otro país. Esto constituye la prueba de fuego del estado de la tecnología, ya que solamente si se tiene un alto nivel tecnológico es posible exportar a otros países, en los que además los costes de personal pueden ser menores. El gran número de tecnologías necesarias para la construcción y explotación de las presas y las balsas va naciendo normalmente de la colaboración y experiencia de varios de estos agentes, con el objetivo de conseguir que estas instalaciones sean seguras, que tengan el menor impacto ambiental posible y que cumplan con sus fines al menor coste. 279 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Tabla 1. Comités técnicos españoles e internacionales Comité SPANCOLD Comité ICOLD Actividades del ingeniero en planificación de recursos hidráulicos Engineering activities in the planning process for wáter resources projects Aspectos sísmicos Seismic aspects of dam design Auscultación de presas Dam surveillance Avenidas Dams and floods Balsas Small dams Cálculo de presas Computational aspects of analysis and design of dams Presas de estériles Taillings dams and waste lagoons Explotación, mantenimiento y rehabilitación Operation, maintenance and rehabilitation of dams Hidráulica Hydraulics for dams Hormigón para presas Concrete dams Información al público y educación Public awareness and education Materiales para presas de materiales sueltos Materials for fill dams Medio ambiente Environment Papel de las presas en el desarrollo y la gestión de cuencas Role of dams in the development and management of river basins Presas y energía hidroeléctrica Dams for hydroelectric energy Presas subterráneas Groundwater dams Presas y cambio climático Global climate change Presas y transferencias de agua Dams and wáter transfers Puesta fuera de servicio de presas Dam decommissioning Reducción de costes en la construcción de presas Costs savings in dam construction Registro mundial de presas Register of dams and documentation Sedimentación de embalses Sedimentation of reservoirs Seguridad Dam safety Fuente: SPANCOLD. 280 PASADO Y PRESENTE DE LAS PRESAS Y LAS BALSAS El agua embalsada El agua embalsada es una riqueza renovable que se hace posible gracias a las presas. El uso que luego se da al agua es variado, desde las aplicaciones primarias como el abastecimiento a poblaciones e industrias, el riego, la producción de energía, o el mantenimiento del caudal ecológico o de los canales de navegación, hasta la creación de paisaje o microclima, pesca o cultivo de peces, recreo, modificación de cauces, extinción de incendios y otros secundarios. Las presas constituyen, por otra parte, el mecanismo de defensa, la contención y laminación de las avenidas que arruinarían otras riquezas y la misma vida de las personas. Sirven, además, como elemento esencial de trasvase allí donde la fertilidad de las tierras no está acompañada de caudales suficientes. Para centrar la importancia del valor del que se está tratando, basten estos datos. El agua que se suelta de los embalses genera el 6% de PIB español. Las pérdidas por inundación que se pueden evitar son incalculables. Las necesidades se cifran en un mínimo de 1.000 m3 por habitante y año para todos los usos; sin presas, solo se dispondría de la cuarta parte. En sentido estricto se llama presa a la barrera que cierra el paso al agua corriente por los cauces fluviales, creando de esa forma un vaso de reserva de llenado principalmente natural, al que se denomina embalse. En su curso alto, la pendiente del río es fuerte y sus aguas bajan rápidas, por lo que el vaso resultante de un cierre sería relativamente pequeño. En la zona media y baja de los ríos, en cambio, una presa puede dar lugar a un extenso y voluminoso embalse. Presa y embalse son consustanciales, surgiendo las necesidades de gestión de la creación del complejo, y de las acciones combinadas de la conservación de la presa y de la explotación del embalse (véanse las figuras 1, 2 y 3). La construcción de obras civiles. La tecnología de las presas Fuente: Archivo SPANCOLD. Fuente: foto cedida por ROP. Figura 1. Presa José Torán (Sevilla) Figura 3. Presa de Charco Redondo (Cádiz) En España hay unas 1.300 grandes presas1, o presas importantes, que se corresponden con un número ligeramente menor de embalses. En la tercera parte de ellos se concentra la casi totalidad de los 56.000 millones de m3 de capacidad conjunta. En relación con el número de habitantes, España tiene una densidad de presas entre las más altas del mundo, aunque, debido a la irregularidad hidrológica, su posición en relación con el volumen de embalse es bastante baja (véanse las figuras 4 y 5). De las líneas fluviales a las áreas de demanda hay gran trecho, lo que propicia la aparición espontánea de almacenamientos o embalses menores, de llenado artificial en casi su totalidad, construidos sencillamente donde se ha podido, a veces en hoyas naturales y otras en las cumbres de los 1 Fuente: foto cedida por Iberdrola. Figura 2. Presa Jose M.ª Oriol (Cáceres) Se denominan grandes presas a las que tienen más de 15 m de altura o a las que crean un embalse con una capacidad mayor de 100.000 m3. También tienen esta consideración las presas cuyas características les hagan ser importantes para la seguridad. 281 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Fuente: Berga Casafont, L. Manifiesto sobre la energía eléctrica 2011. Conferencia inaugural de la jornada sobre el futuro del sistema eléctrico español. Madrid, 2011. Figura 4. Países con mayor número de presas Fuente: Berga Casafont, L. Manifiesto sobre la energía eléctrica 2011. Conferencia inaugural de la jornada sobre el futuro del sistema eléctrico español. Madrid, 2011. Figura 5. Países con mayor capacidad de embalse montículos. A estos módulos se les llama balsas2, aunque también son presas en sentido amplio. Su inventario en España es difícil, por lo que su número entre 60.000 y 70.000 responde a la estimación actual, seguramente superada por la realidad; se desconoce su capacidad integrada y no se recaban datos sobre su explotación (véase la figura 6). La realización de un inventario de los ingenios para retener, derivar o remansar las aguas es una ardua tarea que tropieza con los inconvenientes de la clasificación y de la variedad. Hay azudes que solo sirven para derivar el agua, como también hay otros para tranquilizar la turbulencia en las cimentaciones de los puentes. Hay retenciones singulares como las ataguías, los diques de contención del mar (los de Nueva Orleans, por ejemplo), las presas de sólidos mojados, las de residuos urbanos o las de contraembalse. 2 Se entiende por balsa toda estructura artificial destinada al almacenamiento de agua, situada fuera de un cauce y delimitada total o parcialmente por un dique de cierre. 282 Fuente: Archivo SPANCOLD. Figura 6. Balsas de riego La construcción de obras civiles. La tecnología de las presas Se comprende que se está manejando así un recurso natural, como es el agua de lluvia y nieve, con sus propias leyes de precipitación y drenaje, las cuales se deben acoplar a las necesidades de la población, que tiene las suyas. Este recurso natural cae de las nubes, se retiene sólido en las alturas en algunos lugares, se esponja en los suelos, se desacelera en las vegetaciones de las laderas, se mete por venas subterráneas y corre por los ríos. Mientras está en tierra, en España se evapora en la asombrosa cantidad de sus dos terceras partes, quedando el resto a nuestra disposición. A los efectos de este escrito, se concentrará la atención en los casos de las presas importantes por su altura, su longitud, su volumen de agua embalsada o su singularidad técnica; y en las balsas, que merecen un interés especial por su número, disposición y administración. Construcción de presas y balsas Las presas están formadas con material sólido, suelto o cementado, y como tales se han construido desde la antigüedad (todavía está en servicio la presa romana de Proserpina en la cuenca del Guadiana, de 21,6 m de altura y casi medio kilómetro de longitud). Ya en la Edad Moderna se han levantado en España importantes muestras de estas obras hidráulicas, como la presa de Tibi sobre un afluente del río Júcar, construida en 1594, que mantendría por dos siglos su récord de 46 m de altura. La utilización del hormigón de cemento portland desde finales del siglo XIX y la evolución de las grandes máquinas de movimiento de tierras han elevado las técnicas de construcción para que respondieran a los avances en el cálculo y el dimensionamiento. En España, los planes hidrológicos de los años veinte del siglo pasado, seguidos desde entonces por las sucesivas administraciones públicas, han propiciado la construcción de presas con suficiente y actualizada tecnología, distinguiéndose la etapa de 1960 hasta fin de siglo como la de más acelerada construcción y explotación de sistemas hidráulicos, lo que ha dado lugar a resolver los importantes retos encontrados, en muchos casos con una gran precariedad de recursos. Estos muros pueden ser de considerable altura y de un volumen solo manejable con medios muy potentes. En el último tercio del siglo pasado se han elevado en España presas de hormigón que superan los 200 m desde el cimiento hasta la coronación, con el precedente de que ya en los años veinte se habían alcanzado los 100 m. No menor reto ha sido el de la construcción de presas de gran masa de este material en el menor tiempo posible, por encima del millón de m3 a razón de más de 50.000 m3 al mes; técnicas en las que la ingeniería española ha estado siempre en vanguardia. Por otra parte, las tierras, convenientemente seleccionadas, tratadas, zonificadas y compactadas, han sido material de masa de estos grandes diques, de ejecución rentable gracias a le eficiencia de las máquinas y a las técnicas de utilización en que la ingeniería española ha estado siempre al nivel de las mejores. Observando el detalle de estas estructuras se encuentran elementos esenciales de su composición, necesarios para su estabilidad y para las funciones que desempeñan. Son estos principalmente los aliviaderos, las tomas de agua y los desagües de fondo, a los que se añaden los caminos de coronación y pie, las galerías de inspección, las casetas de control y otros. Particulares de las balsas son los dispositivos de llenado. Como cierre de esta breve descripción, merece la pena retener la idea de que una presa es un binomio formado por una masa nueva y un terreno viejo, al que hay que preparar para confiar en su capacidad portante y en su impermeabilidad, y al que hay que aproximarse con las formas adecuadas. Técnica La tecnología de presas ha ido evolucionando con los tiempos y con las circunstancias, tanto en las formas estructurales 283 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española como en sus masas componentes y en la práctica de la construcción. Se han diseñado muchos modelos geométricos y modos de resistencia de los muros, arcos y bóvedas de hormigón, así como gran variedad de dosificaciones y cementos a partir del clásico pórtland. También se ha vertido investigación y desarrollo en los ingenios de colocación, moldeo, compactación y curado de la masa. En movimientos de tierras se han aprovechado al máximo los estudios y avances en geotecnia y las posibilidades de la maquinaria. La ingeniería de presas ha estado siempre muy viva, muy comunicada en los medios profesionales internacionales y muy aceptada por el mundo del agua. Lo mismo debe decirse de la explotación de los embalses. En cuanto a las balsas, la tecnología ha permitido mayores alturas de cierres; el desarrollo del plástico, llamado el quinto material primario y que ha tenido un continuo y rápido progreso desde hace muchas décadas, como principal elemento de impermeabilización ha sido definitivo en la instalación de estos vasos. han sido en general encargados a empresas o grupos de personas asociadas que han reunido múltiples disciplinas. La construcción ha sido contratada con empresas constructoras, con la colaboración de especialistas en la variedad que se haya necesitado. El mantenimiento recae alternativamente en las organizaciones propias del ente responsable o en empresas especializadas en conservación y reparación. Las balsas son, en general, propiedades privadas de personas o comunidades, con organizaciones reguladas y tutela de las administraciones públicas. El hecho de que tengan un volumen de embalse moderado y que estén formadas con pequeños diques es una consideración relativa, pues en particular cada una representa una reserva vital para sus propietarios, que en algunos casos puede comportar un riesgo de daños, cuando menos de la ruina de la propia balsa y de su sistema anejo. TECNOLOGÍA El estado actual de la técnica es de búsqueda de innovaciones para atender, con la mayor economía de medios, un plan de construcción de presas más lento en comparación con décadas anteriores. Para todo el tejido técnico español se presentan otras oportunidades de gestión, como las de mejoras de sistemas, las de conservación de las presas, las de exportación de la tecnología o las de perfeccionamiento de la vigilancia y el control de estas estructuras. Administración Las presas y los embalses pertenecen a las administraciones públicas o corresponden a concesiones de agua a empresas suministradoras de servicios (abastecimiento, regadío, energía, etc.). A estos entes ha correspondido la planificación, proyecto, construcción, mantenimiento y explotación de los elementos de contención y almacenaje de las aguas. Los proyectos, así como sus estudios previos, 284 Complejidad del planteamiento Las presas, como otras obras civiles, son singulares en el sentido de que cada presa es única, ya que su tipología y todas sus características han de establecerse en función del río en que se sitúa y de los condicionantes que impone el terreno en que se cimenta y el entorno que la rodea. A partir de este principio, se trata de aprovechar los procesos tecnológicos más adecuados para cada caso, de forma que las distintas actividades se puedan realizar utilizando métodos contrastados que se van complementando siempre con innovaciones que se constituyen en nuevos procesos. Dicho lo anterior, el proceso de vida de una presa es similar al de cualquier otro proyecto de ingeniería civil: análisis de las demandas que hay que atender, planificación, diseño, construcción, conservación, explotación y puesta fuera de La construcción de obras civiles. La tecnología de las presas servicio3. Al depender de las demandas existentes o previstas, la presa es parte de una planificación de orden superior, lo que requiere que aquellas estén organizadas por cuencas hidrográficas y por usos previstos. Tan importante es el estudio de la pluviometría o los aforos de caudales del río como el proyecto de un goteo en un huerto o el cálculo del riesgo de una población del valle. Para todo hay que disponer de la mejor técnica, y evitar el desequilibrio de una refinada presa estable y funcional cuyos antecedentes fueron planteados a la ligera. Para las inevitables variaciones del futuro hay que fortalecerse en el mejor presente. A tal fin, las administraciones y los particulares cuentan con muy buenas herramientas de toma y registro de datos, así como con el concurso de firmas especialistas. Se evidencia así que la multiplicidad de responsabilidades presenta una circunstancia en la que se hace complicado impulsar la tecnología del complejo hidráulico. Proceso tecnológico Las prospecciones geológicas y geotécnicas son fundamentales para el diseño de una presa. La evolución en las técnicas de prospección ha sido muy bien aprovechada por la ingeniería española. Se practica la cartografía geológica por fotografía aérea, las catas superficiales y los sondeos a grandes profundidades, acompañados por todas las exploraciones pertinentes, como toma de muestras, acciones mecánicas, inyección de fluidos, inspección óptica, propagación de sonido, pulsación nuclear, así como ensayos de los materiales extraídos. La ciencia geotécnica ha avanzado con mucha firmeza en los últimos cuarenta años, al igual que lo han hecho 3 La vida útil de una presa puede ser muy larga, de cientos de años, siempre que se conserve adecuadamente tanto la obra civil como las instalaciones hidromecánicas (compuertas, válvulas, etc.). Su puesta fuera de servicio normalmente obedece a que la demanda que atendía ha dejado de existir o a que se dispone de otra alternativa para dar ese servicio. los medios físicos de penetración y análisis de terrenos y los de multiplicación informática de transmisión y proceso de datos. Este estado de la tecnología favorece tanto el proceso de diseño como el de control de comportamiento de la presa. Toda la ciencia aplicada en el cálculo de presas, desde la fase de elección del tipo, está apoyada por programas informáticos y modelos matemáticos de alta potencia, de forma que los estudios de sensibilidades a los cambios de variable se producen con rapidez a la vez que con poco consumo de recursos. Esto ha sido revolucionario a partir de los años ochenta del pasado siglo. Por ejemplo, la determinación de las áreas que se iban a inundar aguas arriba de una hipotética presa en momentos de riada era trabajo de semanas de una o varias personas en los años sesenta, teniendo que repetirse tantas veces como el proyectista propusiera cambiar la cota del vertedero. Hoy se pueden hacer varios tanteos en el término de horas. Por otra parte, la consulta de las publicaciones sobre cualquier tema de interés es inmediata, e incluso la conferencia directa. Los proyectistas siempre han ampliado su conocimiento gracias al diálogo con los constructores y con los fabricantes de materiales y equipos, lo que cada vez se facilita más con la tecnología disponible. Durante la construcción, las presas se encuentran en una delicada etapa inicial en la que se reanudan las prospecciones geotécnicas de comprobación y se toman decisiones muy importantes sobre el tratamiento del terreno. La confianza en la estabilidad debe fraguarse en poco tiempo, el que permite la campaña, ya que la construcción de una presa es la más estacional de las obras, hasta el punto de que un retraso de un mes puede significar la pérdida de un año entero. Los constructores han mejorado la planificación y el control de este proceso gracias a las tecnologías de detección, inspección rápida e interpretación casi instantánea. 285 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española El hormigón en masa En la etapa de construcción, las presas son escenarios de avances tecnológicos en todas las actuaciones, principalmente en la puesta en obra de sus volúmenes. Nada hay más importante que la planificación y la ejecución bajo control de cada uno de los metros cúbicos que componen el dique, con el aseguramiento de que la confección del bloque o de la tongada, como elemento indivisible de la masa, cumple con todas las especificaciones de proceso para lograr una perfecta unión con los que le circundan o le preceden, una validez en sí mismo como elemento resistente e impermeable, y un comportamiento en espera que no estropee ninguna de sus propiedades. Tal es el caso, por ejemplo de la colocación de hormigón, operación que se repite en dados de varias centenas de m3, ininterrumpida y precisa en su ejecución. El fraguado es exotérmico; el calentamiento durante el mismo puede arruinar el compuesto, lo que obliga a evitarlo. Los consumos de cemento son tan continuos que el polvo caliente que llega a los silos no puede enfriarse en el escaso tiempo que por prescripción allí permanece, lo que agrava el fenómeno inconveniente. Las soluciones han surgido con la práctica, y se han consolidado con la observación y las técnicas de mejora. Se han inventado ciclones de enfriamiento del cemento o de las arenas y gravas, se han interpuesto fábricas de hielo en escamas para incorporarlas en el amasado, se han distribuido serpentines (tubos por los que circula agua fría durante las horas de reacción química) o se han empleado aditivos atenuantes. Como se ve, el proceso tecnológico está integrado en el proceso de ejecución, a veces para desechar lo que ya se está ejecutando por una vez, hasta que surge, volviendo al ejemplo, la solución de salir del hormigón clásico creando unas nuevas fórmulas para que se produzcan menos calorías. El problema se va arreglando a medida que la tecnología se desarrolla. Hace veinticinco años se construyó en Oregón la primera presa de hormigón compactado con rodillo. En pocas palabras, se puede decir que la forma tradicional de hacer que 286 la pasta y las gravas se conviertan en un sólido homogéneo y sin huecos o segregaciones consiste en sumergir en ella unos vibradores prendidos del arco frontal de un tractor que danza sobre sus orugas o sus ruedas. En cambio, tratar el material fresco como si fuera tierra y compactarlo por extensas capas con rodillos vibradores como los usados en los rellenos de obras viales constituyó un salto tecnológico de alcance, aplicable a una amplia gama tipológica de presas. Apenas dos años después, ya se construía en España la primera presa con esta innovación, lo que da idea de la rápida asimilación de tecnología de que puede hacer gala la industria española constructora. Pero hay algo más que añadir, y es que, en esta y en otras primeras obras, los procesos de compactación se han trabajado poco a poco hasta darles la robustez y la eficiencia que ahora tienen. Este modelo de integración del proceso de innovación en el propio proceso constructivo es característico de las presas, con participación de proyectistas, constructores, empresas especializadas y fabricantes de maquinaria (véase la figura 7). Fuente: foto cedida por Dragados. Figura 7. Presa de Beni Haroun (Argelia) La construcción de obras civiles. La tecnología de las presas El material suelto Las presas de materiales sueltos, más llanamente llamadas de tierras o de escollera, responden a unos conceptos muy primitivos a la vez que de complicada realización. Nada más natural que construir un dique aportando tierras a la angostura de un río hasta una determinada altura, confiando en que la masa resultante resista el empuje del agua y sea impermeable. Pero para que un montón de material suelto no se desplace en el sentido de dicho empuje hay que contar con sus esenciales propiedades de cohesión y rozamiento, asociada la primera a los finísimos componentes plásticos de la arcilla y consecuente el segundo con la estructura granular, y ligados ambos a la humedad que se guarde en el interior del cuerpo. Se pueden recordar aquí las construcciones infantiles de playa: con arena seca no se hacen castillos; con mojadura en exceso el fluido es intratable. En cuanto a la impermeabilidad, también se ofrece la arcilla como el componente natural único que la asegura, con la precisa humedad controlada; de no ser así, de no poderse mejorar, o de no disponer de materia plástica cohesiva en absoluto, como sería el caso de un dique de escollera, la impermeabilidad de la presa se consigue con una pantalla de hormigón o de aglomerado asfáltico extendida sobre el paramento que va a estar en contacto con el agua embalsada. Como característica negativa, y por tanto de extremado cuidado, debe señalarse la vulnerabilidad de la masa de tierras a las vías de agua en su superficie, en su contorno e incluso en su interior. Es lógico que los materiales integrantes de la presa se repartan las funciones, que a unos corresponda la impermeabilidad y que a otros se confíe la resistencia; simplificando la cuestión, se trata de que el paquete se distribuya en zonas constituidas cada una por el material más adecuado. En pocos renglones se ha esbozado el problema de concepción del dique de materiales sueltos. Solo falta decir que hay que buscar en las cercanías un considerable volumen de tierra aprovechable y trabajable. Es evidente que no hay proyecto sin estudio de masas, ni zonificación preestablecida sin el conocimiento de lo que pueda extraerse de la zona, ni definición completa sin saber si se pueden asegurar las propiedades esenciales. La construcción de una presa de tierras es un proceso que realimenta al de proyecto, del que se espera una aproximación muy estudiada. Se dice en las Guías técnicas de presas que la primera actividad antes de iniciar una de tierras es comprobar que las fuentes de suministro de los materiales previstas en el proyecto, u otras alternativas, son aptas tanto en calidad como en cantidad para llevar a buen fin la presa proyectada. Si se consideran estas líneas en sentido contrario, se ve que no habría solución ante un resultado negativo de esta comprobación. Es decir, el proyecto es, en esencia, la búsqueda de componentes aptos para formar un cuerpo estable e impermeable en un entorno del lugar en el que se prevé cerrar el valle. Con esos componentes se hará lo que se pueda, y se podrá hacer lo que permita el conocimiento profundo de ese entorno y de las propiedades de las tierras que alberga. Por fortuna, los valles están hechos de detritos de rocas rotas y descompuestas que ruedan y se estacionan por las laderas, y que luego el río reforma y recoloca valle abajo. A veces, las rocas se descomponen en su propio lugar, sin que nada las molture ni las transporte. La naturaleza, pues, ofrece la fabricación primaria de estos materiales, los cuales se encuentran en tamaños ordenados, formas de grano, humedad y plasticidad, listos para ser extraídos con delicadeza, darles los tratamientos de mejora que necesiten y colocarlos cuidadosamente en su lugar. Así, la tecnología empieza a ser de aplicación en el estudio de lo que yace bajo las capas de vegetación que componen el paisaje de laderas y terrazas. Las campañas de prospección son muy complejas y requieren de aparatos muy sofisticados para asegurarse de que el material encontrado es apto, y de que no se ha desechado el que lo fuera. La discusión sobre la determinación de las características de los materiales es continua, y la tecnología asociada a los sondeos, los ensayos y las interpretaciones evoluciona muy 287 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española rápidamente. La técnica de la repetición, base de todo trabajo investigativo, se impone en beneficio del estudio de materiales. La ciencia estadística ha pasado a ser disciplina fundamental en la ingeniería de estos materiales. Una vez que las tierras han sido seleccionadas, extraídas y transportadas, hay que mejorarlas acondicionando su granulometría y su plasticidad, empleando para ello máquinas convencionales de machaqueo, criba y mezcla, grupo de ingenios que han evolucionado sobre todo en sus elevadas capacidades de producción y en sus elementos de desgaste de avanzada metalurgia y cerámica. Colocados por lotes y extendidos en sus lugares respectivos y con la humedad óptima controlada, los materiales sueltos se someten a procesos de compactación confiados a rodillos de peso y vibración. En el momento presente hay poco que avanzar en el aprovechamiento de la energía de combustibles, pues ya se disfruta de la experiencia y de la evolución operada en muchas obras de compactación en el mundo, muy comprometidas algunas, como los terraplenes de aeropuertos y los de trenes de alta velocidad; obras a las que, como en el caso de las presas, se exige no solo resistencia, sino una deformabilidad extremadamente baja (véase la figura 8). Acondicionamiento del terreno Los terrenos sobre los que se asienta la presa también colaboran como contención de las aguas, por lo que deben consolidarse e impermeabilizarse, y al mismo tiempo prepararles un sistema de drenaje de las aguas que puedan pasar inevitablemente. A estos efectos, los terrenos se taladran y se inyectan con cemento y otros materiales. El manejo de líquidos en los taladros, principalmente agua de lavado, y de las mezclas semilíquidas de cemento y aditivos, requiere de mucha destreza para hacer robustos unos procesos en los que las variaciones son tan características. La tecnología, además de lo que a ella han aportado las máquinas a las que se han encomendado la realización física de las innovaciones hechas durante el proyecto y la construcción, se ha concentrado en la preparación de dichas mezclas, su colocación en los puntos precisos de los taladros, la regulación de las presiones y cantidades, las esperas de fraguado y la detección de las penetraciones, todo un complejo de fórmulas y de decisiones sobre el terreno y en tiempo ajustado (véase la figura 9). Auscultación Fuente: foto cedida por Dragados. Figura 8. Presa de materiales sueltos en construcción 288 Antes de terminar la construcción de una presa, ya ha comenzado esta a dar señales de su existencia y de sus efectos sobre el terreno en el que se ha cimentado y con el que empieza a interactuar. Terminada la construcción, comienza una etapa intermedia en la vida de la presa, como es la de su llenado, la prueba de su entrada en carga. Ya en régimen de explotación continúan las alternancias de nivel de embalse mientras con el tiempo se van manifestando los movimientos de todo el interior del cuerpo y del terreno adyacente. Construir, probar y mantener una presa requiere su observación La construcción de obras civiles. La tecnología de las presas nómeno no deseado para detenerlo si tiende a manifestarse, como se ha hecho siempre, solo que las técnicas de la visibilidad se han mejorado rápidamente. Los signos palpables de deterioro, como antes eran una grieta o un hilo de agua, hoy saltan en monitores con mucha antelación, cuando aún tienen dimensiones microscópicas, por sí o por accidentes cercanos y asociados. Los riesgos están concatenados, lo que ha creado un sentido de relación de fenómenos y de observación integrada y conjunta de los mismos. La auscultación es la base de la ciencia experimental que sirve, de manera continua, a la mejora de los métodos de cálculo, como se indica en la Guías técnicas de presas (véase la figura 10). Fuente: foto cedida por Dragados. Figura 9. Tratamiento del terreno de cimentación de una presa en todos los instantes de su existencia. Como ejemplo, basta referirse al complejo fenómeno de la dilatación y la contracción de tan enorme masa de material, que en la construcción se retrae como consecuencia del fraguado y de la pérdida de humedad, para después volver a entumecerse e inflarse con el agua de las filtraciones y las lluvias, mientras que las variaciones de temperatura afectan al material, no solo a lo largo del día o de las estaciones, sino del paramento oculto mojado al visto. Muchos son los fenómenos que hay que observar, muchos los puntos en el espacio que requieren esa inspección y muchos los momentos en que hay que asomarse a los datos. La auscultación es uno de los campos más intensos de esta especial ingeniería de presas, en el que se han registrado importantísimos avances en los últimos años, con aplicación de variadas tecnologías en materia de sensores, profusión de estos, seguridad de su funcionamiento, costes de producto e instalación, lectura telemática, proceso de datos y revista de los mismos. El fin inmediato es el diagnóstico, sin el que no puede actuarse. Lógicamente, se trata de anticipar el fe- Fuente: foto cedida por OFITECO. Figura 10. Esquema de auscultación de una presa Visto el nivel alcanzado en auscultación y la facilidad con que se practica, cabe preguntarse qué hacer con las presas que ya se pueden considerar antiguas, construidas hace apenas veinte o treinta años, en las que no se han instalado la variedad y cantidad de sensores que hoy se desearía para ellas, ni se ha considerado la lectura permanente, registrada y revistada de continuo. La respuesta es que se debe actuar. La tecnología de aplicación de los medios actuales a las construcciones del pasado es distinta, y tiene sus facetas muy delicadas, pero los 289 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española fundamentos son los mismos. Esto ha motivado su avance, de forma que los dueños de los sistemas hidráulicos han emprendido proyectos de auscultación sobre las presas existentes que se han realizado y aprovechado convenientemente, en ocasiones impulsados por la investigación de amenazas detectadas por el sistema antiguo, para llegar a conclusiones de que el mal podría haber tenido más temprano ataque. Otras veces el motivo de la intensa auscultación de una presa vieja ha sido la rehabilitación o el recrecido. Comportamiento a largo plazo Las presas tienen una vida muy larga, aunque no perpetua, y ello obliga a pensar en aquellos fenómenos que sobrevienen lentamente, así como en qué hacer con las que hayan dejado de atender las demandas para las que se construyeron, en cómo gestionar su inercia terminal, cuando es bien sabido que su principio, el agua, va a seguir vivo; y que su herencia, buena o mala, también va a perdurar. Entre los acontecimientos de despaciosa génesis que se van a presentar, se puede citar como ejemplo el de la acumulación de sedimentos en el fondo de los embalses, que reducen el volumen de agua embalsada, hacen perder capacidad de regulación y dificultan la explotación, especialmente en la parte baja de la presa, hasta el extremo de inutilizar los elementos de desagüe. Es preceptivo el control de esta formación, el análisis de sus riesgos y la retirada periódica. El agua remansada arrastra poco de los depósitos de aguas arriba, como poco necesita el cono de pie de presa para llenarse; en cambio, en las laderas suceden más derrubios de los que se han producido en su estado natural a causa de las variaciones del nivel de agua que sufre el embalse. En las proximidades de la presa, la retirada de sedimentos no puede realizarse en seco, salvo excepciones. Se presenta por tanto una actividad de dragado cuyas particularidades han dado buen trabajo de investigación y desarrollo, tanto a la ingeniería hidráulica como a la de maquinaria de extracción subacuática de sólidos. Las técnicas de dragados marítimos y fluviales, propios de puertos y de canales de navegación, han 290 sido originales para el estudio de semejante asunto en los embalses, pero se han impuesto condicionantes propios. En general, los sedimentos causados por la retención de la presa son de grano fino, fangos arenosos o limos con gravas, de extracción fácil por succión, si no fuera porque la profundidad no es la clásica del dragado para superar el calado de los barcos, sino que son varias decenas de metros las que separan el sedimento de la maquinaria flotante de bombeo, y otros tantos de impulsión al punto de vertido o de carga para el transporte. La movilidad de un ingenio de dragado clásico lo hace rentable, lo que no es el caso de un equipo confinado en el propio lago artificial. Estos retos se han planteado en algunos embalses españoles con notables resultados, a los que seguirán otros en el futuro, lo que potenciará la trayectoria de innovación para evitar los efectos perjudiciales mencionados. Hay también arrastres flotantes, como puedan ser los troncos de árboles, que se acumulan y se sitúan en lugares inconvenientes del embalse, incluso en contacto con la presa, para los que se pueden disponer barreras flotantes. La explotación En la explotación de un embalse se plantean complicados sistemas de proposiciones lógicas que superan al número de incógnitas planteadas. Cuando esto sucede los sistemas deben compatibilizarse artificialmente. Las decisiones no deben tomarse simplificando dichos sistemas por desaparición de alguna de aquellas proposiciones; mucho menos sustituyéndolas por otras que nada tengan que ver con la hidrología en su doble vertiente de disponibilidades y necesidades. Por ejemplo, nada hay más desacertado que creer en lo bueno que es tener el embalse lleno y lo pernicioso que es desaguar. La cuestión es matemática, desde luego, con gran contenido estadístico y empírico; pero sujeta a leyes y medidas. Por ello, todo lo que se invierta en mejora de la inspección y de la metodología de cálculo debe ser celebrado. La construcción de obras civiles. La tecnología de las presas Bien se ve que el embalse, siendo un ingenio de contención con una cierta asociación a la idea del agua en reposo, presenta grandes problemas cuando esta empieza a moverse y la energía se libera a través de los elementos esenciales de la presa. El movimiento tridimensional del fluido ha sido estudiado, con toda precisión científica y con la mayor acumulación empírica, con el auxilio de las teorías de semejanza hidrodinámica en laboratorios de ensayos en modelo reducido —entre los que los españoles brillan por sus recursos y gestión—, así como con elaborados modelos matemáticos. Así se han creado formas de tomas de agua y conductos para utilización, o de desagüe y alivio, de vertido en chorros y melenas que, bajo su belleza y estruendo, esconden la técnica de disipación de energía por choque con el fondo y las laderas, lanzamientos de trampolín o rozamiento con el aire hasta dar lugar a masas nebuladas de polvo acuático. En los citados laboratorios se estudian incluso comportamientos de antiguos aliviaderos cuya mejora viene impulsada por el avance de la teoría y por las nuevas experiencias, lo que puede dar lugar a un programa de renovación de alcance generalizado en beneficio de un mejor control de las crecidas y de las energías a disipar (véase la figura 11). Tecnologías asociadas Ya se han citado varios casos de tecnologías asociadas a las presas en sus diferentes fases de vida. Otros casos particulares merecen ser reseñados por su importancia en la explotación, como son los relativos a las ingenierías de montes y de cultivos. Los vasos deben ser deforestados para beneficio biológico de las aguas embalsadas, mientras que las laderas de los valles han de poblarse de árboles y arbustos para conseguir que la escorrentía sea suave y arrastre menos detritos. A veces la transformación forestal lleva décadas de trabajo paciente, con el beneficio de conseguir valles nuevos en su habitabilidad y aprovechamiento, y de reducir los efectos perniciosos de las riadas. Toda innovación en los riegos, traducida en ahorro de agua por racionalización de los mismos, tiene incidencia en la Fuente: foto cedida por ROP. Figura 11. Presa de Itoiz (Navarra) con el aliviadero vertiendo agua función de las presas del valle, pudiendo dar lugar a nuevas planificaciones por cambio en los balances hídricos de las cuencas. Otra disciplina asociada es la relativa a las aguas residuales de poblaciones e industrias. Las técnicas de depuración permiten devolver agua limpia a los cauces y a los embalses después de su uso en las poblaciones, con no mucha pérdida. 291 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Dinámica de la tecnología Con todo lo que antecede se ha querido hacer un somero repaso, con ejemplos, a lo que se enunciaba en la primera línea del título como proceso tecnológico en la vida de una presa, en su planificación, diseño, construcción, conservación, explotación y puesta fuera de servicio. Desde la Antigüedad, la tecnología ha fluido por las arterias de la información, como se comprueba en la historia de las ciudades griegas o del Imperio romano. Se diría en lenguaje actual que la tecnología está globalizada por naturaleza y desde siempre. En cuanto a la gestión del conocimiento, la tecnología de presas ha pasado por etapas de distinto carácter. Podría decirse que los años cincuenta del siglo pasado marcaron el cambio más importante. En la época de marcha firme pero ralentizada por las economías de posguerras, la tecnología nacida de los procesos en curso en la construcción quedaba muy encerrada en el ámbito de la propiedad y de sus colaboradores, proyectistas y constructores principalmente, sin ánimo de ocultación, pero sin afán centrifugador de experiencias y sin promoción de esfuerzos agrupados. Este modelo de cultivo tecnológico cambió, como también lo hizo el ritmo de las construcciones, a la práctica de la tecnología impulsada por la creación de centros de concurrencia de los conocimientos, la difusión y promoción de actividades convencionales, y el aprovechamiento del potencial de las escuelas universitarias y fundaciones a su tutela. En el mundo se siguió también este modelo, acompañado del desarrollo de una intensa comunicación. En este campo, es fundamental la función de difusión e intercambio de experiencias que vienen haciendo la Comisión Internacional de Grandes Presas (ICOLD), creada en 1928, y su Comité Nacional Español (SPANCOLD) creado cinco años más tarde. El caudal de tecnología que ha salido de este concepto de gran presa y que ha fluido hacia todas las obras hidráulicas en su diversidad de tipologías y tamaños ha sido muy abundante. 292 Muy importante ha sido también la transferencia horizontal de tecnología, el riego que se ha dispensado, valga también aquí la metáfora hídrica, a otras disciplinas. Un ejemplo puede ser la utilización de los procesos de enfriamiento durante la fabricación de los hormigones utilizados en las presas en la construcción en España de las vigas del puente danés de Oresund. Siendo muy largo el proceso de realización de una presa, así como luego su vida útil, ella misma es el laboratorio de los avances, lo que da lugar a procesos quizás muy productivos pero poco formalizados. En general, no es posible saber el coste de los trabajos de innovación, los cuales quedan envueltos en el coste general, pasando sus resultados al activo intelectual de propietarios y constructores, siempre depositados en personas hasta que las experiencias salen a la luz por las vías forzadas de las publicaciones y conferencias. Todo el desarrollo y toda la innovación se han realizado sobre la propia obra de la presa, su diseño y su ejecución, y sobre las mismas actuaciones de conservación y explotación, de forma que ha sido muy difícil determinar cómo y por cuánto se ha financiado este proceso de avance tecnológico, situación que aún persiste. Los intervinientes no suelen tener presupuestos para la investigación, salvo raras excepciones. Las empresas de ingeniería y los consultores trabajan por encargo sobre proyectos en marcha. Durante la construcción, las empresas experimentan sobre la obra presente por cuenta de las propias unidades en ejecución. En obras hidráulicas, como en otras obras civiles, se preparan lotes de ensayo, pero la obligación y la necesidad no se consideran aspectos independientes del coste industrial, sino parte —una más— de la preparación. La asimilación por las empresas de la idea de la obra como un proceso ayuda a separar en los costes unitarios lo que pueden ser los correspondientes a investigación y desarrollo (véase la figura 12). Otra cuestión es la de la propiedad de las innovaciones, de los ingenios desarrollados y, en su caso, de la patente. Hace La construcción de obras civiles. La tecnología de las presas relativamente poco tiempo que las presas han entrado en los registros de tecnología industrial, de proceso exclusivamente. La construcción en general no tiene cajas negras, pues pocos de sus procesos pueden ocultarse en una nave. Las presas no guardan ventajas competitivas por mucho tiempo para sus propietarios, proyectistas o consultores, pues las ventanas de observación están muy repartidas. Las empresas especialistas y las marcas de maquinaria son extraordinarios difusores de cualquier novedad. NORMATIVA Normativa de presas y balsas La Instrucción para el Proyecto, Construcción y Explotación de Grandes Presas es de 1967, y se afirma que bajo sus prescripciones se realizaron y se siguen realizando una gran parte de las grandes presas españolas. Antes de 1967 existían ya más de quinientas presas en España. La calidad se manejaba con protocolos internos, según el sector y la autoridad de empleo del agua; y el sistema, al cual se incorporaban subsistemas de las distintas especialidades, se montaba sobre la misma obra. Esta norma ha funcionado, en general, de forma satisfactoria a pesar de que le faltaba el requisito de albergar en sí misma el mecanismo de su propia crítica y revisión. Afortunadamente, la tecnología ha escapado a esta limitación que podría haber obrado como un muro de contención ante las innovaciones tecnológicas. Una norma es una especificación técnica que recoge el estado del arte de un sector de actividad de aplicabilidad voluntaria; cuando se añade que es de obligado cumplimiento se incurre en redundancia. Los sistemas de gestión son documentales, por lo que las normas deben ser escritas. Su expresión en calidad industrial son los procedimientos, sin los cuales hoy ya no se trabaja. Otros documentos complementarios y frecuentemente precedentes de las normas son las Fuente: Archivo SPANCOLD. Figura 12. Ensayo hidráulico en modelo reducido del aliviadero de una presa instrucciones, los métodos, las guías y las recomendaciones. Bueno es recordar estos rudimentos para una breve andadura por la normativa de presas. Transcurrieron treinta años desde aquella Instrucción hasta que apareció el Reglamento Técnico sobre Seguridad de Presas y Embalses, sin derogación de la Instrucción. Los dos códigos coexisten, el primero atendiendo más al diseño y a la construcción, y el segundo, que se aplica a las presas de titularidad estatal, más dirigido a la explotación y al mantenimiento. La aplicación de la Instrucción y del Reglamento se ha visto facilitada por las Guías Técnicas editadas por la Dirección General del Agua y por el Comité Nacional Español de Grandes Presas (SPANCOLD) que han actuado como complemento indispensable y de gran utilidad para proyectistas y constructores tanto en España como en otros países donde se han constituido como documentos de referencia. En realidad el conjunto no tiene condición normativa, por lo que la Dirección General del Agua ha emprendido la redacción 293 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española de las nuevas Normas Técnicas de Seguridad, que afectarán tanto a las presas como a las balsas, siendo la situación actual la descrita en la página web del Ministerio de Medio Ambiente y Medio Rural y Marino (www.marm.es): “Estas nuevas Normas Técnicas de Seguridad, una vez aprobadas, constituirán la única normativa legal en materia de seguridad de presas y embalses, unificando la normativa actualmente vigente, derogando la Instrucción para el Proyecto, Construcción y Explotación de Grandes Presas así como el Reglamento Técnico sobre Seguridad de Presas y Embalses. Las Normas Técnicas de Seguridad, que serán aprobadas, previo informe de la Comisión Técnica de Seguridad de Presas y de la Comisión de Normas para Grandes Presas, establecerán las exigencias mínimas de seguridad de las presas y embalses, graduándolas según su clasificación y determinarán los estudios, comprobaciones y actuaciones que el titular debe realizar y cumplimentar en cada una de las fases de la presa. Asimismo, las Normas Técnicas de Seguridad establecerán los criterios básicos para la convalidación o adaptación, en su caso, de las actuaciones y exigencias de seguridad en las presas y embalses existentes, que se hubiesen realizado de acuerdo con las normas dictadas antes de la entrada en vigor de aquéllas.” 1. Seguridad de presas. 2. Criterios para proyectos de presas y sus obras anejas. a. Presas de fábrica. b. Presas de materiales sueltos. 3. Estudios geológico—geotécnicos y de prospección de materiales. 4. Avenida de proyecto. 5. Aliviaderos y desagües. 6. Construcción de presas y control de calidad. 7. Auscultación de las presas y de sus cimientos. 8. Explotación y Conservación. 9. Aspectos ambientales. Cuando se publiquen las Normas Técnicas de Seguridad mencionadas será el momento de revisar estas guías para adaptarlas a ellas. Véase la portada de una de estas guías en la figura 13. Guías técnicas de presas y Manual de balsas Como se ha dicho, existen unas Guías técnicas de presas, que han sido editadas por SPANCOLD y que constituyen las recomendaciones a los profesionales del sector para desarrollar las distintas actividades garantizando la seguridad y el buen hacer. Estas guías definen las tecnologías a emplear y su forma de aplicarlas, cubriendo las actividades incluidas en los siguientes aspectos: 294 Figura 13. Portada de una de las guías La construcción de obras civiles. La tecnología de las presas Además, se dispone de los Boletines de la Comisión Internacional de Grandes Presas (ICOLD) sobre los distintos aspectos tecnológicos de las presas, que son redactados por Comités Técnicos en los que los profesionales españoles participan de forma muy activa. Los que se consideran de mayor interés para su difusión en el sector son traducidos por SPANCOLD al castellano (véanse las figuras 14 y 15). Figura 16. Portada del Manual para el diseño, construcción, explotación y mantenimiento de balsas Figura 14. Portada de un boletín técnico en inglés y francés Figura 15. Portada de un boletín técnico en español En cuanto a las balsas, se ha publicado recientemente (2010) el Manual para el diseño, construcción, explotación y mantenimiento de balsas, que ha sido redactado por el Centro de Estudios y Experimentación de Obras Públicas (CEDEX), a encargo de la Dirección General del Agua, con la colaboración de SPANCOLD (véase la figura 16). CONTROL DE RIESGOS La tensión del agua Los embalses y las balsas son acumulaciones de energía que comportan el riesgo de que se desaten súbitamente, se excedan y desborden con o sin voluntad de sus gobernantes, o se liberen con un mal control. El efecto de una riada provocada por estos fallos, tanto aguas arriba como aguas abajo de la presa o en el entorno de la balsa, depende del cauce por donde discurra, por lo que los componentes del problema se extienden al estado de márgenes y fondos, a las obras interpuestas de travesía o defensa, a las derivaciones y al aprovechamiento rural y urbano de las riberas. En cabeza de la protección civil ante estos riesgos se encuentran los responsables de los embalses, cuyo primer conocimiento a adquirir sobre cada río es el de la probabilidad de la avenida de cierta cuantía. Para ello se dispone de la información recopilada durante la planificación y el proyecto, con las medidas precisas de precipitaciones y caudales en ciertos puntos, tomadas con adecuada frecuencia y con una técnica mejorada con el progreso de los tiempos, y desde hace unos años se cuenta además con los datos aportados en cada cuenca por los Sistemas Automatizados de Información Hidrológica (SAIH) que, combinados con las previsiones meteorológicas, permiten realizar una explotación con un grado alto de seguridad gracias a los niveles de alerta establecidos (véase la figura 17). 295 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española a convertirse en una disciplina permanente de defensa civil en continua revisión y mejora, a lo que ha contribuido notablemente el desarrollo de la automatización de la observación con niveles de alarmas. La tecnología no solo ha servido para diseñar y construir mejor las nuevas presas y las nuevas balsas con suficientes márgenes de seguridad, sino para precisar el riesgo que significa el estado actual de las cosas por acumulación de las construcciones del pasado, alcanzando incluso a generar información sobre las necesidades de reformas de estas. Fuente: SPANCOLD. Figura 17. Esquema del SAIH Se puede pues entender que una presa o un conjunto de ellas, materializando un sistema de embalses en una cuenca, cada uno con un casual llenado, puede laminar una avenida de un cierto porte, cuya probabilidad de suceso se estima para un determinado lapso de tiempo mayor de cinco siglos, y con una cierta magnitud del daño, que es la otra variable importante del riesgo. Si esta previsión no se cumple se está ante la fuerza mayor, como en casos en que la avenida de más de quinientos años se ha presentado en plena construcción, llevándose por delante la labor realizada hasta el momento y cambiando también la faz del terreno. En España la obra hidráulica es profusa, y sin embargo las aguas pueden hacer daño y generan duda popular sobre la eficacia de las obras o de su operación. Enfoque del riesgo El control de riesgos de índole hidráulica ha pasado de ser una actuación puntual de socorro cuando llega el accidente 296 Las aguas desmadradas suelen arrastrar sólidos que agravan los daños de choque de la corriente, incluso por la posibilidad de taponamiento de los puentes. La sedimentación de una riada puede preparar las peores condiciones para la siguiente. Esto hace pensar también en todo lo implantado en las márgenes, en la vegetación de los vasos y en la limpieza después de cada incidente. La gente teme que se arríen sus bienes, y sin embargo se instala en las riberas y hasta en los cauces de avenida, a veces fuera de la ley. A la sociedad, que se beneficia del producto y que incluso lo cuenta en estadísticas, le resulta difícil calcular el análisis de riesgos, la cobertura económica y la indemnización. A este servicio se aplica también la tecnología para reducir los efectos negativos sobre la población (véase la figura 18). Se está avanzando mucho en la tecnificación de la detección de problemas, emergencias, alarmas y evacuaciones, todo lo cual necesita de innovación permanente y de protocolización revisada. La catástrofe también puede ocurrir por falta de agua, la cual puede causar ruina de bienes y pérdidas de vidas, precedidas de enfermedades. Por lento que parezca este proceso comparado con el de la riada, no deja de ser objeto de estudio para su tratamiento tecnificado. El estiaje se caracteriza por una humedad baja del aire con aumento de la evaporación y un cambio biológico de las aguas embalsadas en bajos niveles. La construcción de obras civiles. La tecnología de las presas Fuente: SPANCOLD. Figura 18. Inundaciones producidas en 2010 Se observa que el problema de los riesgos está extendido a toda la cuenca en su causa y a todo el valle en su efecto, así como a todas las acciones u omisiones de los responsables y de los potenciales damnificados; pero la presa vuelve a apa- recer como el elemento radical cuya seguridad, no solo resistente, sino funcional, es esencial para el control. En ella se concentran muchos de los recursos de defensa, de retención o de desagüe, como puede ser una presa complementaria, 297 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española a modo de fusible, que se deja ensanchar y destruir cuando el nivel alcance su altura, provocando un alivio encauzado con obstáculos de desgaste de energía y destino de menor daño, y con ganancia de tiempo. Por otra parte, los elementos accionables de las presas se diseñan para su utilización en emergencia, muy distinta de la de explotación normal, teniendo en cuenta además que, como las desgracias nunca vienen solas, se puedan producir cortes de electricidad, caída de comunicaciones, ausencia de expertos o auxiliares y fallos de procedimiento. Los Planes de Emergencia de Presas, en función de la calificación de cada presa4 tienen previstas las condiciones descritas, implantando las necesarias medidas de comunicación a las poblaciones y también de protocolización de sus comportamientos en casos críticos, incluidas las simulaciones periódicas, como se hace con otros tipos de riesgos (véanse la tabla 2 y la figura 19). Tabla 2. Clasificación de las presas y balsas españolas en tres categorías de riesgo Categoría Descripción N.º de presas y balsas* A Presas cuya rotura o funcionamiento incorrecto puede afectar gravemente a núcleos urbanos o servicios esenciales o producir daños materiales o medioambientales muy importantes 718 B Presas cuya rotura o funcionamiento incorrecto puede producir daños materiales o medioambientales importantes o afectar a un número reducido de viviendas 111 C Presas cuya rotura o funcionamiento incorrecto puede producir daños materiales o medioambientales de moderada importancia y solo incidentalmente pérdida de vidas humanas. En todo caso, a esta categoría pertenecerán todas las presas no incluidas en las categorías AyB 701 Actos inciviles (*) Los datos incluyen a las presas y balsas en proyecto, construcción y explotación. Las obras hidráulicas son muy vulnerables, a la par que muy susceptibles de generar daños de progresión acelerada, por lo que necesitan de una vigilancia especial a la que hay que dedicar recursos importantes, en particular tecnológicos, tanto en prevención como en detección de siniestros (véase la figura 20). Al obvio empleo del cerramiento de las áreas de las instalaciones, se debe añadir la necesidad de elementos de señal de tránsito sospechoso y violación, como la televisión en circuito cerrado u otro tipo de activadores de las alarmas. Contenido de los planes de emergencia de presas Análisis de la seguridad de la presa Zonificación territorial y estimación de daños • Determinación del área inundada, de los tiempos de llegada de la onda de rotura y estimación de daños potenciales. Normas de actuación • Situaciones en las que se intensificará la vigilancia de la presa y sus objetivos. • Medidas a adoptar para la reducción del riesgo. • Procedimientos de información y comunicación. Organización 4 A efectos de seguridad, cada presa o balsa se analiza para calificarla en una de las tres categorías existentes (A, B o C) según los daños potenciales a las personas y al entorno que podría producir en caso de accidente. Los planes de emergencia se establecen sobre la base de estas calificaciones. 298 • Situaciones y fenómenos a considerar. • Indicadores de las situaciones y fenómenos. • Umbrales para cada escenario de seguridad. Medios y recursos • Equipo necesario para la puesta en práctica de las normas de actuación previstas. • Sala de emergencia, sistema de aviso a la población y medios y recursos necesarios. Fuente: Ministerio de Medio ambiente y Medio Rural y Marino. Figura 19. Contenido de los planes de emergencia La construcción de obras civiles. La tecnología de las presas ingenios de tierra armada, es decir, con incorporación de barras o flejes de acero, y escamas de hormigón en paramentos que han permitido elevar las pendientes de los taludes. Variante digna de mención es la de los muros verdes, así llamados por la incorporación de una masa de tierra vegetal con función de contención y protección. El inicio del uso de estas estructuras se puede fechar en los años setenta del pasado siglo. La técnica de estabilización de terrenos confiada a los anclajes y al hormigón proyectado, en combinaciones adecuadas, también ha evolucionado gracias a las experiencias acumuladas en los apoyos de las presas en las laderas, en las que se han abierto excavaciones de gran altura y fuertes pendientes (véase la figura 21). Fuente: foto cedida por el CEDEX. Figura 20. Daños vandálicos en una lámina de impermeabilización de una balsa Fuente: Archivo SPANCOLD. EFECTO INDUCTOR DEL SECTOR Figura 21. Ladera de un embalse estabilizada mediante anclajes Contención de tierras Impermeabilización, drenaje y sombra Las obras de tierra y sus medios de contención, tan antiguas y de tan variado fin, se han modernizado en diseño y construcción. Las obras hidráulicas han marcado exigencias que han excitado la innovación en reducción de espacios con La impermeabilización por láminas es necesaria en muchos de los elementos de embalse, y especialmente en las balsas. La tecnología de láminas, llamadas geomembranas, ha evolucionado muy rápidamente, gracias a la investigación de 299 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española nuevos productos en la que colaboran los propios fabricantes, con la aparición de sábanas de base plástica, polímeros de variada composición y densidad, de grandes tamaños, fuertes espesores y larga durabilidad. El reto de la extensión en grandes áreas con pendiente variable, necesariamente estancas y con metrajes de soldadura proporcionalmente grandes, ha sido superado con metodologías de rentable producción y rápida colocación. Los materiales básicos están evolucionando continuamente en distintas direcciones, especialmente en cuanto a propiedades térmicas, siendo la impermeabilización de balsas la aplicación impulsora, extendida después a la arquitectura y a otras variantes de construcción. Como capas de protección, drenaje y filtro se emplean los geotextiles, que no son propiamente tejidos sino en apariencia, de estructura reticular con diferente hueco. Como en el caso de las geomembranas, su evolución en las obras hidráulicas ha sido de aprovechamiento en otras técnicas (véase la figura 22). Las láminas geotextiles, además, se han combinado con productos impermeabilizantes encapsulados. Fuente: foto cedida por GISCOSA. Figura 22. Balsa impermeabilizada con geomembrana El combate contra la evaporación también se ha practicado mediante coberturas plásticas a modo de toldo o de capa flotante en balsas de poca superficie (véase la figura 23). Productos aditivos La investigación físico-química ha sentido la demanda de productos para su empleo en las construcciones de presas y balsas, como componentes de masa de efectos ya comentados, sean lodos, resinas, retardadores de fraguado, filmógenos, reductores de óxidos, o neutralizadores de sales nocivas. Prefabricados Los prefabricados de construcción merecerían un tratado sobre su evolución en los últimos cincuenta años. Valga con decir, a modo ilustrativo, que sus distancias de competitivi300 Fuente: foto cedida por JSF Hidráulica, S.L. Figura 23. Cubierta de balsa para evitar evaporación y para seguridad dad han superado los 1.000 km de transporte por tierra y los 3.000 km por mar, con ejemplos espectaculares a cargo de empresas españolas. Ejemplo de ello son las ya citadas vigas del puente de Oresund, construidas en Puerto Real y transportadas por mar hasta su emplazamiento entre Dinamarca y Suecia; o el muelle flotante de Mónaco, de 350 m de longitud, construido íntegramente en La Línea de la Concepción y que se llevó navegando hasta su emplazamiento definitivo (véase la figura 24). La construcción de obras civiles. La tecnología de las presas pasando por los más destacados campos del proyecto y la construcción. Fue un momento de gran oportunidad para el estado de la técnica en nuestro país, ya con un conocimiento consolidado y unas relaciones seguras, de forma que el modelo para muchos proyectos hidráulicos, especialmente para riegos y electricidad, ha sido difundido y aceptado a nivel mundial. Un buen ejemplo de las primeras exportaciones de tecnología de presas lo constituye la presa de Santo Domingo, en Venezuela (véase la figura 25). Fuente: foto cedida por Dragados. Figura 24. Vigas prefabricadas en Cádiz en fase de colocación en el Puente de Orensund (Dinamarca-Suecia) En las balsas y en los depósitos de agua en general se han demandado soluciones de muros prefabricados que pudieran responder tanto a su estática resistente y su aptitud a la función, como a su facilidad de transporte por vías rurales, montaje con economía de medios y prescripciones ligeras de conservación. La técnica de los prefabricados exige que no se estropee después de la salida de la factoría la excelencia que se ha logrado dentro de sus muros. MERCADOS EXTERIORES Presencia española Durante el último tercio del pasado siglo se dio una notable presencia española en los mercados exteriores en obras hidráulicas de gran porte. Han sido años de fuerte impulso al desarrollo en países con grandes recursos hidráulicos, con el apoyo de las instituciones financieras internacionales para la creación de capital fijo. La oferta de la ingeniería española es muy amplia, desde la planificación hasta la explotación, Fuente: foto cedida por Dragados. Figura 25. Presa de Santo Domingo (Venezuela) 301 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española El campo de exportación presenta algunas particularidades que lo hacen harto difícil: la primera de ellas es la fuerte inversión inicial que requiere instalarse en otro país, enviando costosa maquinaria que corre el riesgo de quedarse inmovilizada por condicionantes ajenos a la construcción. Los equipos técnicos de los países en desarrollo a los que se dirige la ingeniería española gozan de un alto nivel de conocimiento, tanto generalista como especializado, dada su cuidada formación en los mejores centros, españoles entre otros, en la que se incluye su familiaridad con las administraciones y autoridades de otros lugares, especialmente el de origen de la oferta que se les puede presentar, lo que siempre significa una facilidad a la par que un reto de prestigio. Las agencias de fondos internacionales de fomento se hacen asesorar por las más distinguidas instituciones y personalidades científicas para asegurar el destino y rentabilidad de sus asignaciones, de forma que lo que pudiera aparentar subdesarrollo es en realidad un escenario de alta competencia y puja tecnológica, al mismo tiempo que un medio de transmisión de experiencia, de tal manera que la presencia de una empresa en un proyecto puede significar la entrada en una esfera de ámbito mundial, para lo bueno y para lo malo. Las autoridades locales vigilan con celo la realización de proyectos que son señeros para su evolución. Las empresas españolas tienen que añadir a sus tecnologías de partida otras por adquisición o por asociación de esfuerzos en uniones temporales. En la época mencionada de primeras exportaciones (y actualmente en algunos países) era bastante común el hecho de enfrentarse a licitaciones que presentaban mayores retos que los experimentados en las décadas anteriores en España. En ocasiones había que excluir metodologías ya desechadas o prohibidas en las especificaciones básicas de concurso. En otras se estrenaban procesos, solo empleados en el interior por semejanza a menor escala. Varias de las empresas españolas han batido récords en el extranjero, tanto en los países visitados como en su propio historial interno. 302 Competencia En aquellos años sesenta de reconstrucción y desarrollo, superada la ruina y descapitalización que habían causado las guerras, se produjo una explosión en la maquinaria pesada, con importantes flujos de equipos modernos hacia las áreas de trabajo programadas. Estados Unidos, Europa y Japón competían en estos mercados, al mismo tiempo que las circunstancias exigían la renovación no solo de los equipos, sino de la forma de aprovecharlos. En esto último encontraron las empresas españolas de construcción grandes escollos para la innovación. El desarrollo tecnológico en las empresas está propiciado por las direcciones de las mismas en función de la proximidad y de la fórmula de asociación temporal con otras empresas. Las obras en el extranjero están lejos y muy condicionadas por las comunicaciones. Por otra parte, ha sido habitual en las empresas conceder amplia autonomía a los consorcios de variadas especialidades, lo que significaba un factor parecido a la lejanía a la hora de requerir apoyos y directrices. Un inconveniente muy particular radica en el hecho de que el elevado nivel tecnológico exigido y vigilado tiene que practicarse en un entorno de subdesarrollo, tanto en la disponibilidad de medios auxiliares y materiales como en la formación de operarios hasta llevarlos al grado de destreza necesario. Para obtener, por ejemplo, hormigones de alta resistencia con cementos de procedencias lejanas, quizás únicas, los sistemas de calidad de los contratistas han de traspasar las vallas de las fábricas y modular en ellas los procesos necesarios. En las exportaciones de bienes de equipo, como puede ser el caso de una compuerta de aliviadero, hay que contar con medios potentes de descarga en puerto, transporte y manejo en obra. Esta es la ocasión de comprobar si el progreso del lugar de destino está ordenado y si, en una etapa precedente, se han anticipado los caudales de financiación del fomento para que la realización de grandes obras públicas sea posible. Incluso la legislación tiene que ayudar, especialmente la relativa a la moneda, las importaciones o la La construcción de obras civiles. La tecnología de las presas inmigración. De no darse mínimas condiciones de desarrollo acompañante, las obras podrían ser ruinosas. La extraordinaria demanda de todo orden que genera una gran presa, incluso de infraestructura circundante, tiene que verse correspondida. En todos los casos cobran extraordinaria fuerza las tecnologías de la flexibilidad y de la improvisación, para luego ser ejemplos reimportados. A pesar de estas dificultades, los concursos de proyectos y obras en el exterior, y en particular los de ejecución de presas de fuerte compromiso, han sido abordados por firmas españolas con notable éxito y buena acogida, y en algunos casos con repetición. La nómina de grandes presas fuera de nuestras fronteras es muy larga a la par que variada y extendida, como se puede ver en las tablas 3 y 4, que recogen las presas Tabla 3. Presas construidas en el extranjero por empresas españolas Realizaciones de las empresas de construcción Presas 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 Mecha Homadi Najla Oliveira Salazar Merchra Klila Kadincik Derivaolón Portezuelo Portezuelo Portezudo Grande Cedillo Las Barias Maderas (Las) Valdesia Futalefu Santa Rita Dique Bahía Blanca Guri Etapa Final (excavación) Rincón Dique de las Peñas Blancas Djama Hatillo Yacambú Lekhal Salvajina Condoroma Daule Peripa López Angostura Mexenna Agua del Toro Dzioua Gera Iruro Paso de Las Piedras Sabaneta Santo Domingo Sisa Guavio Abast. a Orán (Despost. El Volcán) Haouareb Rio Blanao Rio Grande II San Rafael La Esperanza Santa Juana Pangue Reparación presa de Manatali Al Wahda Sidi Alch Lam Ta Kong Asfalou Ghrass Beni Haroum Contraembalse de Monolón Porce II Las Juntas Rucacura Gigel Gibe Monción Alqueva Dukeko Maguaca Caruachi Odelouca Monti Nieddu Villarpando Situación Marruecos Marruecos Chicamba (Mozambique) Marruecos Tarsos (Turquía) Neuquen (Argentina) Neuquen (Argentina) Neuquen (Argentina) Portugal República Dominicana Jujuy (Argentina) República Dominicana Chubut (Argentina) Medellín (Colombia) Bahía Blanca (Argentina) Bolivar (Venezuela) República Dominicana Prov. Santa (Argentina) Senegal República Dominicana Lara (Venezuela) Bouira (Argelia) Cali (Colombia) Majes (Perú) Ecuador República Dominicana Argelia Mendoza (Argentina) Argelia Tarapoto (Perú) Iruro (Perú) Buenos Aires (Argentina) San Juan (República Dominicana) Mérida (Venezuela) San Martín (Perú) Boyacá (Colombia) Orán (Argelia) Kairouan (Tunisia) República Dominicana Medellín (Colombia) Nayarit (México) Manabí ( (Ecuador) Chile Chile Republica de Mali M’Jaara (Marruecos) Túnez Thailandia Marruecos Marruecos Mila (Argelia) República Dominicana Antioquía (Colombia) Los Angeles (Chíle) Los Angeles (Chíle) Addis Abeba (Etiopía) República Dominicana Moura (Portugal) Chile República Dominicana Bolivar (Venezuela) Algarve (Portugal) Cerdeña (Italia) República Dominicana Año finalización (1) 1945 1948 1960 1963 1970 1973 1973 1973 1973 1973 1975 1975 1976 1976 1977 1978 1978 1981 1982 1983 1983 1985 1985 1987 1987 1987 1987 1988 1988 1988 1988 1988 1988 1988 1988 1989 1990 1990 1990 1992 1994 1995 1995 1996 1996 1997 1997 1999 1999 1999 2000 2000 2001 2001 2001 2002 2002 2003 2003 2003 2004 2005 C C Tipo (2) Altura (m) Principales características Volumen de presa Propósito 10>m> (3) Arch H G G G Earth Arch CFRD Earth G CFRD RFIC Earth G G G G RFIC CFRD RFIC CFRD RFIC RFIC RFIC 28 20 34 14 74,5 15 98 80 130 50 32 170 54 12,6 20 51 160 45 160 92 90 21,5 30 30 160 500 763 370 4500 600 6000 5500 5600 3600 170 30,5 95 16000 6956 1504 3500 4800 8000 200 Arch RFIC G CFRD RFIC RFIC Arch G RFIC Earth Earth 116 38 18 49 55 70 61 10 247 18 35 320 1600 6 253 3280 6300 119 16674 1436 6600 I H S S 45 58 106 115 2524 97 4500 2700 790 H H I/S I H 26400 882 5280 80 I/H/N RFIC G (RCC) Earth CFRD G (RCC) Earth Earth RFIC AFRD Arch Arch G (RCC) FSHD - RFIC G (RCC) Earth Arch AFRD RFIC Arch Earth RFIC G Earth G (RCC) G (CCR) 88 48 50 90 85 118 28 123 15 15 40 122 96 15 30,5 72 75 87 6,5 1900 175-450 1450 350 35 3000 2890 1100 60 48,7 1705 2000 518 24 H H H H H I/H I/H I/H H H S H I/S/H H N I/H I/S I/S H I/H I/H/S I/H/S Propietario Compañías españolas en la construcción NECSO NECSO NECSO NECSO DRAGADOS DRAGADOS DRAGADOS DRAGADOS NECSO FERROVIAL-AGROMAN DRAGADOS FERROVIAL-AGROMAN DRAGADOS NECSO NECSO DRAGADOS FERROVIAL-AGROMAN DRAGADOS NECSO FERROVIAL-AGROMAN OHL DRAGADOS DRAGADOS NECSO FERROVIAL -AGROMAN FERROVIAL -AGROMAN NECSO Dirección General de Marruecos y Colonias Dirección General de Marruecos y Colonias Sociedad Hidroeléctrica de Revue Dirección General de Marruecos y Colonias Cokurova Hidronor Hidronor Hidronor Hidroeléctrica Española INDRHI Provincia de Jujuy INDRHI Agua y Energía Eléctrica Emprecas Públicas de Medellín Dep. Obras Sanitarias de Buenos Aires Edelca INDRHI Agua y Energía Elect. O.M.V.S. INDRHI M.M.A.R.N. Ministere Hydraulique CVC Colombia Autoridad Autónorna de Majes CEDEGE INDRHI Ministere Hydraulique S H I/H H I I I/S I/S/H H H H H I/S/H H H I H I I/S DRAGADOS DRAGADOS NECSO DRAGADOS DRAGADOS NECSO NECSO NECSO DRAGADOS FERROVIAL-AGROMAN DRAGADOS NECSO NECSO FERROVIAL-AGROMAN DRAGADOS NECSO DRAGADOS DRAGADOS FERROVIAL-AGROMAN DRAGADOS NECSO NECSO NECSO FERROVIAL - AGROMAN DRAGADOS/NECSO NECSO FERROVIAL-AGROMAN DRAGADOS NECSO DRAGADOS/FCC FERROVLAL-AGROMAN M.M.A.R.N Empresa de E. E. de Bogotá Ministere Hydraulique Ministere Hydraulique Corporación Dominicana Empresas Públicas de Medellín Comisión Federal de Electricidad C.R.M. (Ecuador) Dirección de Riego Min. de Obras Püblicas Pangue S.A. O.M.V.S. y SOGEM Ministere de Travaux Publics E.G.A.T. Ministere de Travaux Publics Ministere de Travaux Publics Ministere Hydraulique INDRHI EE PP de Medellín Sociedad Iberoamericana de Energía S.A. Sociedad Iberoamericana de Energía S.A. Ethiopian Electric Ligh & power Authority INDRHI EDIA lberoamericana de Energía INDRHI EDELCA INAG C. Bonifica Sardegna M. INDRHI (1) C: En construcción (2) BD: Contrafuertes; G: Gravedad; Earth: Tierras; Arch: Arco/Bóveda; RFIC: Escollera con núcleo impermeable; CFRD: escollera con pantalla de hormigón; AFRD: Escollera con pantalla de asfalto; PFCD: ESCOLLERA CON PANTALLA PLASTICA; G (RCC): Gravedad de hormigón compactado; G (FSDH): Gravedad (HARDFILL) (3) I: Regadío; S: Abastecimiento; UI: Usos industriales; N: Control de avenidas; H: Producción de energía; C: control de inundaciones Fuente: SPANCOLD. 303 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Tabla 4. Presas proyectadas en el extranjero por empresas españolas Realizaciones de las empresas de ingeniería Presas 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 Passo de Mendoça Bom-Sera Santa Rita Chamizo Tahuin I Tahuin II Punceres Chongón Abastecimiento Caracas Chanlud Subeybaja Convento Viejo Tacuarí Pirque Manabao Río Mosquito Tambo Bejucal II Iruro Dkhila Gera Lekhal Colinares de Targuist Bejucal II San Pablo Caren Río Grande Condoroma Haouareb Guavio Esperanza Beni Haroum Pangue Maya Vicho Simbocal Ovejería Baba Duqueco II Duqueco I Murumuntani Khaspicancha Los Llanitos Jicatuyo Gilgel Gibe I San Rafael Kamieniec Zabkowicki Situación Río Grande do Sul (Brasil) Río Grande do Sul (Brasil) Antioquía (Colombia) Ecuador Oro (Ecuador) Oro (Ecuador) Monaga (Venezuela) Guayas (Ecuador) Venezuela Azuay (Ecuador) Guayas (Ecuador) Colchaga (Chile) Treinta y Tres (Uruguay) Valle del Maipo (Chile) La Vega (República Dominicana) Manabí (Ecuador) Ica (Perú) La Vega (República Dominicana) Nazca (Perú) Agadir (Marruecos) Tarapoto (Ecuador) Bouira (Argelia) Targuist (Túnez) Jarabacoa (República Dominicana) Bellavista San Martín (Ecuador) Rancagua (Chile) Manabí (Ecuador) Majes (Perú) Kairouan (Túnez) Boyacá (Colombia) Manabí (Ecuador) Mila (Argelia) Chile Vargas (Venezuela) Mizque (Bolivia) Manabí (Ecuador) Región Metropolitana (Chile) Guayas (Ecuador) Duqueco (Chile) Duqueco (Chile) Mizque (Bolivia) Mizque (Bolivia) Valle del Suia (Honduras) Valle del Suia (Honduras) Etiopía Nayarit State (México) Polonia Año de diseño (1) 1971 1971 1972 1973 1975 1976 1977 1978 1978 1978 1979 1980 1981 1981 1982 1982 1982 1982 1982 1983 1984 1984 1984 1984 1984 1986 1986 1987 1988 1989 1990 1993 1995 1995 1997 1998 1999 1999 2000 2000 2000 2001 2001 2002 2003 2003 2005 Tipo (2) Altura ( m) Volumen de presa 10>m> Propósito (3) Earth Earth RFIC Earth Earth CFRD Earth Earth Arch Arch Earth Earth Earth Earth G Earth RFIC CFRD CFRD G G RFIC Earth RFIC G Earth RFIC RFIC Earth RFIC Earth G (RCC) G (RCC) 35 58 50 70 45 45 87 26 100 40 32 38 23 70 28 61 30 90 40 29 18 45 38 90 9 54 58 92 35 247 58 118 115 1400 5600 Earth Earth Earth Earth Arch Earth Earth Earth G (RCC) CFRD Earth G (RCC) Earth 38 2 I H H H/I I I S C S H C I/S I I/S H I I H I/S I/S H I/S S H I UI (Minera) I/S I/H S H I/S I/S H S I C UI (Minera) H C H I I H H H H C/H 356 1200 300 2800 960 120 20 1337 1700 1300 12800 50 1500 1500 900 250 19 6 1504 2000 5 7000 1710 4800 6600 16674 4500 1900 790 58 55 30 26 115 100 41 45 20 Principales características Compañía española involucrada INTECSA-INARSA INTECSA-INARSA IBERINSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA CYGSA INTECSA-INARSA IBERINSA INTECSA-INARSA IBERINSA INTECSA-INARSA INTECSA-INARSA INTECSA-INARSA TYPSA TYPSA INTECSA-INARSA CYGSA TYPSA IBERINSA IBERINSA TYPSA TYPSA TYPSA TYPSA IBERINSA IBERINSA IBERINSA Tipo de colaboración Anteproyecto Anteproyecto Soporte técnico al constructor Anteproyecto Anteproyecto Anteproyecto Anteproyecto Anteproyecto Proyecto de construcción Proyecto de construcción Anteproyecto Proyecto de construcción Anteproyecto Anteproyecto Anteproyecto Anteproyecto Anteproyecto Anteproyecto Anteproyecto Proyecto de construcción Proyecto de construcción Soporte técnico al constructor Anteproyecto Proyecto de construcción Proyecto de construcción Ingeniería de construcción Anteproyecto Soporte técnico al constructor Soporte técnico al constructor Soporte técnico al constructor Proyecto de construcción Anteproyecto Soporte técnico al constructor Anteproyecto Supervisión de la programación Anteproyecto Ingeniería de construcción Ingeniería de construcción Ingeniería de construcción Ingeniería de construcción Supervisión de la programación Supervisión de la programación Estudio de factabilidad Estudio de factabilidad Ingeniería geotécnica y supervisión de la construcción Proyecto de licitación Ingeniería de construcción Propietario DNOS DNOS EEPP de Medellín Instituto Ecuatoriano de Electrificación Subcomisión Ecuatoriana del Puyango-Túmbez Prodesur, Comisión Ecuatoriana Instituto Nacional de Obras Sanitarias Comisión Desarrollo Cuenca del Guayas Instituto Nacional de Obras Sanitarias Empresa Eléctrica de Cuenca Comisión Desarrollo Cuenca del Guayas Dirección de Riegos de Chile Comisión Uruguaya de la laguna Merlín Ministerio de Obras Públicas de Chile Corporación Dominicana de Electricidad CRM Ecuador Corporación Desarrollo del Dep. de Ica Corporación Dominicana de Electricidad Ministerio de Agricultura de Perú Direction Genérale de L’Hydraulique Dirección Ejecutiva Huallaga Central Ministere Hydraulique Ministére de lÉquipapement et de le Promotion Corporación Dominicana de Electricidad Dirección Ejecutiva Huallaga Central CODELCO CRM (Ecuador) Auroridad Autónoma de Majes Ministere Hydraulique Empresa de EE de Bogotá CRM (Ecuador) Ministere Hydraulique Pangue S.A. MMARN Comisión Europea. Convenio Bolivia CRM (Ecuador) CODELCO CODELCO GrupoIBENER GrupoIBENER Comisión Europea. Convenio Bolivia Comisión Europea. Convenio Bolivia Comisión Ejecutiva del Valle del Suia Comisión Ejecutiva del Valle del Suia Ethiopian Electric Power Corporation Comisión Federal de Electricidad Environmental and Natural Resources Ministry (1) C: En construcción (2) BD: Contrafuertes; G: Gravedad; Earth: Tierras; Arch: Arco/Bóveda; RFIC: Escollera con núcleo impermeable; CFRD: escollera con pantalla de hormigón; AFRD: Escollera con pantalla de asfalto; PFCD: ESCOLLERA CON PANTALLA PLASTICA; G (RCC): Gravedad de hormigón compactado; G (FSDH): Gravedad (HARDFILL) (3) I: Regadío; S: Abastecimiento; UI: Usos industriales; N: Control de avenidas; H: Producción de energía; C: control de inundaciones Fuente: SPANCOLD. construidas y proyectadas con tecnología española, a las que habría que añadir casi otra decena en curso de realización por nuestras empresas. Como ejemplo, véanse las figuras 26 (presa de Tsankov Kamak, en Bulgaria), 27 (presa de El Bato, en Chile) y 28 (presa del río Portugués, en Puerto Rico). Intercambio tecnológico Puede decirse que las presas en el extranjero han sido escuelas técnicas en muchos aspectos. La hidrología y la geología de sus localizaciones han presentado problemas nuevos para los ingenieros españoles y para sus colaboradores en maquinaria y medios. Como un ejemplo de conjunto de estas especiali304 dades están las noticias de los deslaves, como son llamados en América los derrumbes de masas de tierra empapada, que sugieren un enfoque distinto de los problemas de excavación y contención cuando las precipitaciones tienen otra intensidad y otro calendario, la vegetación es de más débil enraizamiento y los terrenos son diferentes; todo lo cual, siendo ajeno a los hábitos españoles, genera una avidez por el desarrollo de métodos de drenaje, la disciplina madre del tratamiento del fenómeno. En el campo de la sismicidad, aspecto de suave incidencia en la península ibérica, las empresas españolas han cobrado notables experiencias. Con todo lo que puedan dar de sí las soluciones a problemas puntuales del diseño y construcción de las presas y su mante- La construcción de obras civiles. La tecnología de las presas Fuente: foto cedida por Dragados. Figura 28. Presa del Río Portugués (Puerto Rico). Infografía Fuente: foto cedida por FCC Construcción. Figura 26. Presa de Tsankov Kamak (Bulgaria) Fuente: foto cedida por Ferrovial. Figura 27. Presa de El Bato (Chile) nimiento en contratos en el extranjero, mucho más importante resulta la asimilación del concepto global de la obra, la aventura de instalarse para varios años de desafío para una producción sistematizada con todas las limitaciones de las que se ha venido dando idea. No faltan ejemplos de obras piloto, en las que se preparan los concursos por fases para que, con lotes de menor porte, como los accesos o las ataguías, se consigan asentar tecnologías de trabajo a mayor escala en las fases posteriores. A veces se ha separado a concurso previo la instalación auxiliar de construcción de una gran presa como una obra independiente, con el acierto de considerar que la tecnología de la preparación es de distinta naturaleza. Esto requiere una planificación a largo plazo para la que las empresas, con independencia de su tamaño, han tenido que estar preparadas. Las administraciones locales han visto siempre con muy buenos ojos la mecanización que se asentaba en sus territorios con la ejecución de las grandes presas, han propiciado su productividad dando continuidad a trabajos semejantes y han lamentado la retirada cuando no se han dado las condiciones precisas. Esto quiere decir que el sistema de planificación conjunta de administraciones, proveedores de productos, fabricantes equipos y empresas constructoras practicado en nuestro país para ambiciosos programas de 305 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española obras, como la aplicación de los fondos estructurales europeos a la inversión en infraestructuras, se ha ampliado al ámbito exterior. Hay tecnologías dormidas en el sector español de grandes presas, no desarrolladas del todo en España o carentes del ritmo adecuado por la desaceleración de estas construcciones en los últimos tiempos, lo que obliga a buscar en el extranjero obras de perfeccionamiento y de mantenimiento de la especialidad, así como de permanente puesta al día. Esto sugiere la necesidad de un criterio de orientación de los créditos al desarrollo. 306 Una especialidad digna de ser tenida en cuenta en su aspecto tecnológico es la de la retirada de la obra, es decir, el desmontaje de todos los medios de construcción, su reparación para ponerlos en estado de venta, regreso a parque o traslado a otra obra, su situación temporal y guarda hasta ulterior destino, la logística de movimientos con tramitación conductora y la gestión de la chatarra. Entre hacer todo esto bien o hacerlo mejor, con notable diferencia de economía, media la aplicación de la experiencia propia o adquirida, la innovación impulsada e incluso la entrega del trabajo a empresas especializadas. El futuro de la tecnología de las presas y balsas José Polimón López José María Osorio Sánchez PROSPECTIVA NACIONAL • Paliar los periodos de sequías y reducir el riesgo de las inundaciones. Marco general El futuro de las presas y las balsas, y de sus tecnologías, está condicionado por el desarrollo de las infraestructuras hidráulicas necesarias y viables en España, dentro del marco de la sostenibilidad. Las obras hidráulicas van a seguir siendo necesarias para: • Abastecimiento de poblaciones y de industrias, que puede atenderse con aguas superficiales, subterráneas o desaladas. • Saneamiento de los vertidos de aguas usadas. • Regadíos para producción de alimentos, continuando con la política de ahorro de agua basado en la modernización de regadíos, el riego por goteo y la reutilización de aguas. • Producción y almacenamiento de energía (centrales hidroeléctricas, reversibles y minicentrales). La actividad futura dependerá del grado de cobertura de las demandas y del crecimiento de la población, contando con una activa política de ahorro y reciclado del agua. En este sentido, va a ser muy importante la planificación hidrológica, que está en fase muy avanzada de desarrollo por las demarcaciones hidrográficas, en la que se establecen las demandas previstas y las soluciones para satisfacerlas. En el momento actual, aún hay zonas que no tienen cubiertas las demandas, especialmente las de abastecimiento y concretamente en la época estival. En estas zonas están sobreexplotados los recursos subterráneos y no se dispone de dotaciones suficientes ni garantizadas, ni está resuelto adecuadamente el saneamiento, lo que crea además problemas adicionales de contaminación seria tanto fluvial como marina. Las necesidades de agua para regadío son conocidas, así como las dificultades para conseguir dotaciones suficientes en zonas con un gran potencial de producción de alimentos 309 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española para consumo interno y para exportación, dentro de la línea ya consolidada de mejora de regadíos con ahorro de agua. Para ambos usos, abastecimiento y riego, se dispondrá de los planes hidrológicos de las distintas cuencas hidrográficas, lo que permitirá tener mapas detallados de las necesidades mínimas de agua para las zonas deficitarias, así como de las que no tienen saneamiento adecuado. Hay algunas zonas en las que se están acometiendo ahora los proyectos de saneamiento, cuando ya deberían estar terminadas las obras y en funcionamiento para conseguir ríos y costas limpios. Para la producción de energía existe todavía un potencial económicamente aprovechable que se cifra en unos 20.000 GWh (véase la figura 1), una parte del cual es fácilmente aprovechable en presas existentes que no disponen de central a su pie. La definición, en los planes hidrológicos, de caudales ecológicos, va a garantizar que se puedan construir esas nuevas centrales hidroeléctricas en presas existentes, dotándolas de contraembalses de regulación Futuro de la producción hidroeléctrica Potencial hidroeléctrico español (GWh) • Potencial fluvial bruto . . . . . . . . . . . . . . . 150.000 • Potencial técnicamente desarrollable . . . . 70.000 • Potencial desarrollado . . . . . . . . . . . 38.000 (54%) • Máximo social y ambientalmente desarrollable . . . . . . . . . . . . . . . . . <20.000 (25%) Fuente: Berga Casafont, L. Manifiesto sobre la energía eléctrica 2011. Conferencia inaugural de la jornada sobre el futuro del sistema eléctrico español. Madrid, 2011. Figura 1. Potencial hidroeléctrico español 310 que permitirán suministrar al río el caudal ecológico establecido al tiempo que se dispone de energía hidráulica de calidad, que se puede situar instantáneamente en el sistema eléctrico cuando este lo solicita. Por otra parte, el sistema eléctrico español tiene una potencia total instalada muy grande, que repercute en un excedente de energía en horas valle; en cambio, hay momentos en que para dar la punta extrema de la curva de carga hay que recurrir a poner en marcha turbinas de gas o a aprovechar las centrales hidroeléctricas reversibles. Estas instalaciones de almacenamiento masivo de energía mediante bombeo de agua a un depósito elevado son las únicas con energía sobrante, que se turbina de manera inmediata cuando se necesita. Hasta aquí se ha tratado de las necesidades para atender demandas, sean de agua o de energía, pero además hay que tener en cuenta los efectos previstos del cambio climático, que se traducirán en periodos mayores de sequías e inundaciones. Para las sequías se cuenta con varias fuentes de suministro, como las aguas subterráneas, las desaladas o los trasvases entre cuencas, así como con las aguas superficiales reguladas por los embalses que pueden almacenar los recursos necesarios para esos momentos de sequía. Para las inundaciones se dispone de una serie de posibles actuaciones, estructurales y no estructurales, que se comentan más adelante; pero entre las primeras y más eficaces están los embalses que permiten almacenar el agua de las riadas para evitar o reducir las inundaciones. De lo expuesto se deduce que, de cara al futuro, es necesario planificar y desarrollar una actividad continua en la gestión del agua, que tiene como elementos fundamentales a las presas, las balsas, los embalses y sus obras auxiliares (sistemas de distribución de agua, conducciones, centrales hidroeléctricas y reversibles, colectores, etc.). El futuro de la tecnología de las presas y balsas NUEVOS RETOS Los nuevos retos que se plantean en relación con la tecnología de presas y balsas son el cambio climático y el almacenamiento masivo de energía, que agudizan a su vez un reto actual cuya importancia se irá incrementando: la gestión y conservación del patrimonio hidráulico. • Las lluvias a escala mundial van a aumentar, pero su distribución local no va a ser uniforme. El número de días secos aumentará, así como la intensidad de las precipitaciones. • Las regiones áridas serán más áridas debido a un ensanchamiento de los sistemas de altas presiones subtropicales. Los cinturones de precipitación de las latitudes medias se van a desplazar hacia los polos. El cambio climático El Panel Internacional para el Estudio del Cambio Climático (IPCC) ha establecido unas conclusiones de las que conviene resaltar las siguientes: • Las observaciones realizadas en todos los continentes y en la mayoría de los océanos evidencian que muchos de los sistemas naturales están siendo afectados por los cambios climáticos regionales. • Existe un alto nivel de consenso en que están ocurriendo cambios en el sistema hidrológico. • Es muy probable que la mayor parte del calentamiento observado sea debido al aumento de las emisiones de gases de efecto invernadero. • La continuación de las emisiones de gases de efecto invernadero ocasionará un calentamiento adicional durante este siglo que será mayor que el observado durante el siglo XX. • El calentamiento antropogénico y el ascenso del nivel del mar continuarán durante siglos, incluso aunque ahora se estabilizasen las emisiones. • El cambio climático está afectando ya a los recursos hídricos y lo seguirá haciendo en el futuro, influyendo negativamente sobre la cantidad y calidad de agua, así como sobre las sequías e inundaciones, cuya frecuencia es muy probable que aumente. • En el centro de Europa el ciclo estacional se desplazará, causando mayores precipitaciones en invierno y menores en verano. • Habrá una tendencia hacia precipitaciones más intensas junto a periodos de sequía de mayor duración. • La intensificación del ciclo hidrológico hará que las sequías y las inundaciones sean más frecuentes y extremas. • Las sequías en las zonas áridas y semiáridas son motivo de especial preocupación por su duración y extensión espacial, con los consiguientes impactos sobre la agricultura y el desencadenamiento de posibles hambrunas. En particular, en España se han producido en los últimos años inundaciones con efectos muy perjudiciales para la población y para la economía de las zonas afectadas, que además a veces han acarreado la pérdida de vidas humanas. Este riesgo natural ha hecho que la Unión Europea haya redactado una Directiva que ha sido traspuesta a la legislación española, mediante el Real Decreto 903/2010, de 9 de julio. A la vista de estas circunstancias, la probable situación creada en el próximo futuro por los efectos mencionados del cambio climático plantea estas cuestiones: • Se debe cambiar la forma de gestionar las presas y embalses para adaptarla a dichos efectos, dejando una mayor capacidad libre en los embalses para laminar las avenidas 311 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española y prevenir las inundaciones. Al mismo tiempo, se debe tener un mayor volumen de agua almacenada para combatir las sequías. Ambas condiciones llevan a la necesidad de una mayor capacidad de regulación de los ríos españoles. • La forma de poner de acuerdo las estrategias para prevenir estos efectos del cambio climático pasa por la gestión integrada de las cuencas hidrográficas, lo que pone de manifiesto que el modelo de gestión por cuencas recomendado por la Directiva Marco Europea del Agua (2000/60/CE), que es el “inventado” por España hace unos ochenta años, es imprescindible para gestionar adecuadamente los recursos hidráulicos. • Además, es necesario conocer la capacidad real actual de los embalses, dado que en algunos, como ya se ha dicho (véase el capítulo anterior), esta capacidad se ve reducida por el gran volumen de sedimentos que se ha ido depositando en ellos. Aunque se han hecho diversos estudios y trabajos de campo, debe plantearse una campaña sistemática de evaluación del volumen disponible en cada embalse y poner en marcha las acciones necesarias para ampliar su capacidad, limpiándolos de sedimentos, estudiando las repercusiones ambientales que tendrían dichas acciones e implantando las medidas necesarias para evitar efectos negativos. Un buen ejemplo ha sido la limpieza de sedimentos de la presa de Barasona por la Confederación Hidrográfica del Ebro. De acuerdo con lo anterior, está claro que hay que analizar las alternativas que tenemos en relación con la atención presente y futura de las demandas para establecer las estrategias adecuadas y desarrollar las acciones correspondientes a corto y medio plazo para evitar los problemas esbozados, mediante el desarrollo y la implantación de nuevas tecnologías. Los efectos previstos del cambio climático harán que la definición de alternativas, la selección de las estrategias adecuadas y de los planes de acción, así como la implantación 312 de los nuevos modelos de gestión sostenible de los embalses, den un nuevo impulso a la innovación para desarrollar tecnologías eficaces para atender este reto. El patrimonio hidráulico español es de unas 1.300 presas, y entre 60.000 y 70.000 balsas, al que hay que añadir las 36 presas en construcción o recrecimiento y un número importante y creciente de balsas en construcción. Con estos datos, la situación de España es similar a la de otros países desarrollados (como Japón o EEUU), en el sentido de que la actividad fundamental, ahora y en adelante, es la conservación y el mantenimiento del patrimonio hidráulico, continuando asimismo con la construcción o recrecimiento de las 36 presas mencionadas y analizando la necesidad de otras nuevas en función de las previsiones de situaciones relacionadas con mayores frecuencias de sequías e inundaciones. En el futuro, el papel de las presas en el control de avenidas y en los usos del agua irá incrementando cada vez más su importancia, y como, por otra parte, la puesta en servicio de nuevas presas requiere unos plazos muy largos, habrá una fuerte demanda para la utilización eficaz de los embalses existentes. Las razones para que se siga esta tendencia son: • Quedan pocos sitios que reúnan condiciones geográficas y geológicas adecuadas para construir nuevas presas, por lo que debe hacerse una cuidadosa planificación para determinar la viabilidad de las que resulten necesarias. • La duración de los proyectos de nuevas presas es cada vez más larga, debido a condicionantes económicos para su financiación así como por una mayor dedicación a los aspectos sociales y ambientales. • En general, las presas existentes están bien adaptadas a su entorno social y ambiental, y sus funciones atienden El futuro de la tecnología de las presas y balsas sus demandas de forma equilibrada con la preservación del medio ambiente. • La utilización eficaz de las presas existentes tiene unos impactos sociales y ambientales mínimos, por lo que gozan de consenso público y su eficiencia económica es excelente en comparación con las nuevas presas. En consecuencia, las actividades de renovación, recrecimiento, actualización de sus instalaciones y mejora de los procesos de gestión de las presas existentes, se consideran alternativas ventajosas en tanto se analiza la necesidad de nuevas presas, como en el caso de la figura 2, que muestra la nueva presa de La Breña construida aguas abajo de la antigua para aumentar la capacidad de embalse y poder almacenar agua bombeada desde el río Guadalquivir. Por ello, es imprescindible que las presas existentes sean gestionadas de forma eficiente para que dispongan de su máxima capacidad para desempeñar sus funciones durante el mayor tiempo posible. Teniendo en cuenta lo anterior —y que las presas son uno de los elementos a considerar en la atención de las necesidades de agua, así como esenciales en la gestión de las situaciones extremas, sequías e inundaciones—, se debe aprovechar la capacidad actual de regulación de las presas y, lo que es más importante, su capacidad futura de regulación, cambiando los criterios de gestión de los embalses existentes. No obstante, es completamente necesario plantearse la puesta en marcha de una planificación de nuevas presas de tamaño mediano que permitan disponer de una mayor capacidad de regulación para hacer frente a los efectos mencionados del cambio climático, ya que el plazo hasta conseguir tener una presa en condiciones operativas es muy largo, del orden de 15 años, por lo que se puede llegar a situaciones muy comprometidas para evitar inundaciones y prever sequías. Estas perspectivas están siendo ya objeto de debate en distintas jornadas y congresos profesionales (véase la figura 3), cuyas conclusiones hasta el momento se pueden reunir y resumir así: • Los efectos del cambio climático hacen preciso aumentar la capacidad de regulación de los ríos españoles por dos vías: la gestión de los embalses existentes y la planificación de nuevas presas. • Es de vital importancia mantener los datos de aforo para el estudio y redacción de proyectos de nuevas presas, así como para establecer las estrategias de gestión de los embalses existentes, determinando su capacidad real actual. Fuente: foto cedida por ACUASUR. Figura 2. Incremento de la capacidad de embalse por construcción de una presa de mayor altura. Presas de la Breña I y II • Se aprecia la necesidad de formación de las nuevas generaciones en materia de presas, muy en especial en los trabajos relacionados con la gestión, la explotación, los aspectos ambientales y los de seguridad. 313 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española • Los diferentes documentos de seguridad de presas (normas técnicas de seguridad, clasificación, normas de explotación, planes de emergencia, implantación de planes de emergencia, revisiones de seguridad, informes anuales), así como las guías técnicas y manuales, están experimentando un gran avance, y se debe continuar en esta línea reforzando las oportunidades de innovación y de difusión de nuevas tecnologías. • Se manifiesta la necesidad de emplear en las presas sistemas de auscultación automatizados, de continuar con la aplicación de nuevas tecnologías y de la conveniencia de utilizar herramientas de interacción auscultación-modelos. • Se debe aprovechar y potenciar el desarrollo tecnológico con soluciones novedosas e investigación incesante que permitan mejoras en su explotación, en sus vertientes científica, técnica, ambiental y social. Fuente: Archivo SPANCOLD. Figura 3. Jornadas Españolas de Presas • Se deben potenciar los equipos humanos adecuadamente formados y preparados de las Administraciones responsables de la gestión de presas. • El conocimiento científico y técnico existente en España en materia de presas es muy importante, por lo que se debe difundir, nacional e internacionalmente, a través de un sistema de gestión del conocimiento. • Debe ser tenida en cuenta la importancia de la seguridad, tanto en lo relacionado con la gestión y el envejecimiento de las infraestructuras hidráulicas, como por las posibles afecciones en situaciones extremas. • La aplicación de metodologías basadas en las técnicas de análisis de riesgos pueden proporcionar al titular de la presa una información objetiva para la gestión de la seguridad. 314 • A esta concienciación sobre la optimización del uso del agua se une en la sociedad actual una exigencia también mayor sobre el control de los riesgos naturales, que deriva a nivel práctico en la aplicación de soluciones técnicas para la regulación de caudales en los ríos. El almacenamiento de energía La potencia total instalada del sistema eléctrico español, a 31 de diciembre de 2010, es de 102.981 MW, como se ve en la tabla 1, de los que aproximadamente el 62% corresponde a centrales convencionales, que se contabilizan como Régimen ordinario, mientras que el 38% corresponde a centrales incluidas en el Régimen especial. La potencia máxima demandada por el sistema eléctrico es de unos 47.000 MW, lo que quiere decir que se dispone de una potencia instalada muy superior a la que podría ser necesaria. El hecho de que las instalaciones eólicas y solares no puedan garantizar su disponibilidad sostenida, ha hecho necesario, en la práctica, El futuro de la tecnología de las presas y balsas instalar otro tipo de centrales, como las turbinas de gas, que puedan sustituir en algunos momentos a esas energías, que tienen la ventaja de ser renovables pero cuya producción es aleatoria. Tabla 1. Potencia eléctrica instalada en España Balance potencia, a 31/12/2010 (en MW) Hidráulica Nuclear Carbón Fuel/gas Ciclo combinado Total régimen ordinario Eólica Solar FV Solar térmica Minihidráulica Biomasa Residuos Cogeneración + trat. residuos Total régimen especial Total España Peninsular 16.657 7.716 11.380 2.860 25.220 63.833 19.813 3.485 482 1.990 678 488 6579 33.515 97.348 Extrapeninsular 1 0 510 3029 1624 5.164 146 163 0 0 1 116 43 469 5.633 Total España 16.658 7.716 11.890 5.889 26.844 68.997 19.959 3.648 482 1.990 679 604 6.622 33.984 102.981 Fuente: UNESA Hay que precisar que las centrales hidroeléctricas están incluidas, en su mayor parte, en el paquete de Régimen ordinario, quedando las minicentrales dentro del Régimen especial. Esta división por régimen tarifario no refleja bien la realidad de la energía hidráulica, ya que sería más lógico diferenciar estas centrales según dispongan de embalse de regulación o sean centrales de agua fluyente, entre las que están las minicentrales. En ambos casos, aunque tienen un valor diferente para su inclusión en la curva de carga del sistema, se trata de una energía renovable y autóctona con las ventajas correspondientes de reducción de importación de hidrocarburos y de no tener impacto sobre el efecto invernadero. La potencia de origen hidráulico instalada es de 18.648 MW, que supone el 18% de la potencia total. Por ello, si se suman todas las energías renovables, el sistema alcanza el 41% de potencia renovable instalada; aunque, dada la variabilidad de su funcionamiento, que depende del agua que baja por los ríos, de la fuerza del viento y de la cantidad de luz solar, la producción total representa solamente el 27% de la energía eléctrica producida en un año medio. Las centrales hidráulicas, como queda dicho, dependen de la regulación de que disponga el río en que se encuentran, lo que en la práctica está ligado a la existencia de presas con embalse suficiente para modular los caudales que se sueltan al río. Esto se traduce en que hay dos tipos de centrales: las que disponen de regulación que les permita generar energía en el momento que resulte más conveniente para el sistema; y aquellas otras que, en cambio, deben producir la energía cuando pasa el agua fluyente. A este segundo tipo pertenecen las centrales situadas al pie de presas que deben atender otros usos (abastecimiento, riego o caudal ecológico) y las minicentrales. Entre las centrales con regulación deben distinguirse, a su vez, las centrales reversibles, que bombean agua desde un embalse inferior a un depósito elevado, consumiendo energía sobrante en el sistema, lo que permite entregar su producción cuando se necesita mediante la turbinación del agua almacenada en el depósito superior al embalse inferior. Proceso que puede hacerse repetidamente, puesto que se sigue disponiendo del agua utilizada. En la figura 4 se ve el esquema de la central de La Muela. Este proceso reversible constituye, en tanto no se desarrollen otras tecnologías, el método más adecuado de almacenar grandes cantidades de energía para tenerla a disposición del sistema eléctrico. La potencia instalada en centrales reversibles es de 2.440 MW, aunque hay varios proyectos en marcha para ampliarla. Este proceso consume más energía en el bombeo de la que luego se obtiene turbinando, por lo que la rentabilidad de una inversión en este tipo de centrales depende de que se disponga de energía excedente en algunos momentos o de que se establezca un sistema de compensación económica por almacenamiento de energía. 315 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española de energías no programables, como se ve en la figura 5, que muestra la energía excedente en el valle que se aprovechó para bombear y la correspondiente turbinación en las horas punta de un día de gran demanda de energía eléctrica. Fuente: UNESA. Figura 5. Curva de carga de un día de gran demanda eléctrica REE estima que en el año 2020 la probabilidad de estos vertidos puede alcanzar el 5% de la energía eólica producible o casi el 4% de la producible por medios eólicos y solares. Asimismo, cifra la frecuencia de ocurrencia de estos vertidos entre el 4% y el 7% de las horas del año. Fuente: foto cedida por Iberdrola. Figura 4. Central reversible y esquema de la ampliación de la central de la Muela (Valencia) Según Red Eléctrica de España (REE) se están produciendo ya excedentes de energía (especialmente eólica o solar), a los que denomina vertidos, que en algunos momentos el sistema no puede absorber, como ocurre cuando la demanda diaria en algunas horas es inferior a lo que el sistema suministra porque se esté produciendo una cantidad importante 316 Se estima que, para dar la punta extrema del sistema durante un periodo comprendido entre 500 y 700 horas anuales, se va a requerir una nueva potencia instalada comprendida entre 5.000 y 7.000 MW. Esta potencia se puede conseguir con centrales reversibles o con turbinas de gas, correspondiendo unos 3.000 MW a hidráulicas reversibles, por lo que será necesario construir varias de las centrales de este tipo que están en fase de planificación o proyecto, aprovechando embalses existentes (como en el caso que muestra la figura 6), El futuro de la tecnología de las presas y balsas Fuente: Iberdrola. Figura 6. Esquema de la central reversible San Esteban – San Pedro (Orense), aprovechando embalses existentes y completar el esquema con otras infraestructuras como balsas, conducciones y, por supuesto, con nuevos equipamientos de turbinación y bombeo. Por otra parte, las presas que dan lugar a los embalses de regulación que abastecen a las centrales hidroeléctricas, como ya se ha dicho, tienen una edad media superior a los 45 años, por lo que paralelamente será necesario programar un plan de modernización de instalaciones tanto en las propias presas como en sus correspondientes centrales. • Edad de las presas, con una media de 45 años, lo que hace necesario proceder a reparaciones de las obras civiles (presas, balsas, conducciones, centrales, etc.) así como a la modernización de los equipos mecánicos y eléctricos, y a la actualización y automatización de los sistemas electrónicos de adquisición de datos y de comunicación. La figura 7 muestra la evolución del número de presas en España y de la edad de las mismas. Gestión y conservación del patrimonio hidráulico Los efectos previstos del cambio climático y las necesidades de almacenamiento masivo de energía, a su vez, van a agudizar los problemas de gestión y conservación del importante patrimonio hidráulico español, entre los que se destacan los siguientes, algunos de ellos ya mencionados: • Capacidad de regulación real de los embalses, reducida progresivamente por la sedimentación en ellos de material sólido arrastrado por los ríos, especialmente en algunas zonas. Fuente: SPANCOLD. Figura 7. Edad en años de las presas españolas en explotación 317 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española • Adaptación a la nueva Normativa Técnica de Seguridad, próxima a publicarse por el Ministerio de Medio Ambiente y Medio Rural y Marino (MARM), que puede dar lugar a cambios importantes en las presas y las balsas existentes, así como en sus elementos de seguridad y en sus planes de emergencia. de presas, balsas y embalses. Actualmente es de uso normal en varios países, especialmente en EEUU, y se cuenta con buenos trabajos piloto en presas del Duero y del Ebro, realizados por profesionales españoles. Campos de innovación • Cambios producidos por la definición de las zonas inundables que está realizando el MARM de acuerdo con la trasposición de la Directiva europea 2007/60/CE (Real Decreto 903/2010, de 9 de julio). Los mapas de riesgo de inundación deben estar concluidos antes del 1 de junio de 2013 y los planes de gestión de riesgos antes del 1 de junio de 2015. Las actuaciones destinadas a delimitar y reducir los riesgos de inundación serán tanto estructurales (presas, encauzamientos, reforestación, etc.) como no estructurales (ordenación del territorio, limitación de usos del suelo en las zonas que pueden resultar inundadas, etc.). Estos factores van a necesitar de un importante esfuerzo innovador y de desarrollo de nuevas tecnologías, ya que los métodos y herramientas actuales no permitirían hacer frente a los problemas mencionados de forma que las inversiones a movilizar sean de un orden de magnitud que permitan la realización de los trabajos a emprender dentro de un marco de optimización que tenga en cuenta las circunstancias actuales y futuras de restricción económica y de globalización. Todo ello, partiendo de una cuidadosa planificación en la que uno de los factores fundamentales será la disponibilidad anual de fondos para acometer los trabajos, que naturalmente se priorizarán de acuerdo con la urgencia de las actuaciones dentro de una preocupación constante por la seguridad de las poblaciones y la protección medioambiental. Una herramienta ya disponible, y que aumentará progresivamente su aplicación, será el análisis de riesgos, que permite analizar, priorizar y servir de base a la planificación de las actuaciones necesarias en una presa o en un conjunto 318 Para los retos mencionados y para aportar soluciones viables económica y ambientalmente se debe contar, en primer lugar, con los trabajos de los Comités Técnicos de ICOLD y de sus homólogos de SPANCOLD, donde ya se apuntan posibles líneas de innovación contrastadas a nivel internacional. A partir de esa base, y aunque con las cautelas lógicas, es previsible que entre las innovaciones que se pondrán en juego, alguna de ellas ya con avances en fase de investigación, estén las que se relacionan a continuación, que no pretenden ser ni exhaustivas ni limitativas, pero que responden a necesidades sentidas actualmente por el sector para afrontar el futuro: • Mejora de los métodos de medición del volumen de sedimentos existente en los embalses y sistematización de las medidas para disponer de un conocimiento de la realidad que permita planificar y priorizar las acciones necesarias. • Determinación de actuaciones tendentes a evitar el acarreo de sólidos dentro de los embalses por erosión de las cuencas vertientes. • Investigación y puesta en práctica de un sistema de gestión ambiental para los sedimentos existentes en los embalses, analizando las posibles soluciones para reutilizarlos o eliminarlos de forma no dañina para el medio ambiente. • Mejora de modelos matemáticos de gestión de sistemas de embalses en cadena, con determinación de los puntos débiles y optimización de las inversiones para adaptarlos a nuevas disposiciones normativas. El futuro de la tecnología de las presas y balsas • Nuevos materiales para reparación del hormigón de las propias presas o de elementos auxiliares de las instalaciones. • Nuevos materiales y procedimientos de tratamiento de los terrenos en los que se cimentan las presas, reduciendo filtraciones. • Implantación de nuevos sistemas de reducción de costes de construcción, analizando la posible aplicación de los trabajos del Committee on Cost Savings de ICOLD, actualmente en fase de publicación. • Nuevos sistemas automatizados de auscultación y comunicación a largo plazo de los datos esenciales sobre el comportamiento de las presas y sus terrenos de apoyo, con medida fiable y rápida de su evolución en el tiempo. • Desarrollo de equipos ágiles y fiables de control de avenidas y desagües, y de turbinación y bombeo. • Sistemas de ahorro de energía en todos los elementos de las presas, balsas, equipos mecánicos, eléctricos, electrónicos, de auscultación, etc. • Análisis e implantación de sistemas seguros y fiables de aviso a las poblaciones próximas a las presas y balsas que requieran disponer de planes de emergencia. • Normalización de procedimientos para inspección de presas y balsas existentes, teniendo en cuenta la experiencia de comportamiento durante la vida de cada instalación. • Métodos de aviso temprano para policía de las zonas inundables, en lo que respecta a posibles edificaciones en dichas zonas, con información simultánea a los distintos niveles administrativos. • Y como complemento imprescindible para gestionar adecuadamente la explotación y la seguridad de las presas y las balsas, programas máster y módulos especializados para formación tanto de personal titulado como auxiliar.1 Alcanzar los objetivos enunciados requiere la puesta en valor de los conocimientos científicos y técnicos actuales; y, especialmente, una disposición clara hacia la innovación para poder disponer de las tecnologías necesarias para los nuevos retos de la gestión sostenible del agua. En esta labor, el Comité Nacional Español de Grandes Presas participa mediante la gestión y difusión del conocimiento, con los trabajos que desarrollan los Comités Técnicos, que están abiertos a la colaboración de todos los profesionales del sector, así como con la celebración de jornadas técnicas. PERSPECTIVAS INTERNACIONALES PARA LA TECNOLOGÍA DE PRESAS Y BALSAS El alto nivel conseguido por la tecnología española de presas ha permitido, como queda dicho, que se haya producido una participación significativa de empresas y profesionales españoles en el desarrollo hidráulico de otros países. Sin contar las numerosas actuaciones de los profesionales que han colaborado como asesores, hay 67 presas construidas por empresas españolas y otras 47 en las que los proyectos han sido realizados por empresas de ingeniería, a los que hay que sumar las presas que ahora están en fase de construcción. En todos los casos, se da una estrecha colaboración con las empresas y los profesionales locales, lo que hace que se produzca una continua transferencia de tecnología española de presas a esos países, que también se da a través de las guías 1 En este sentido, hay que destacar el Máster Internacional en Explotación y Seguridad de Presas y Balsas, iniciado en 2010. Promovido por SPANCOLD, el Colegio de Ingenieros de Caminos, Canales y Puertos y las Fundaciones Caminos y Agustín de Betancourt, cuenta con el reconocimiento como máster propio de la Universidad Politécnica de Madrid. 319 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española técnicas de SPANCOLD utilizadas habitualmente en varios países centro y sudamericanos. se ha ido produciendo por otras causas e independientemente de la disponibilidad de este recurso renovable. Las perspectivas de exportación de tecnología están, como es lógico, directamente ligadas con las demandas de agua no cubiertas en países emergentes o en desarrollo. Las posibilidades son muy amplias y están limitadas fundamentalmente por las dificultades de obtener financiación, ya que la distribución de la población en el mundo no se corresponde con la disponibilidad del recurso (véase la figura 8). Además de la producción de alimentos y el abastecimiento y saneamiento, otra de las carencias en muchas zonas es la de la energía, y ahí juega un papel muy importante la hidráulica que, al ser renovable y autóctona, evita el consumo de combustibles fósiles cuya combustión influye decisivamente en la emisión de gases de efecto invernadero. También entre los países emergentes (como China o Perú) y en algunos de la Unión Europea (como la presa ya mencionada en Bulgaria) se están impulsando importantes proyectos hidráulicos, en algunos de los cuales la tecnología española está colaborando con las empresas locales que disponen también de experiencia acreditada pero que valoran las oportunidades de aprovechar las innovaciones realizadas por países con tecnología madura como España. La figura 9 corresponde al proyecto de defensa contra avenidas del río La Leche en Perú, mediante las presas de La Calzada y Calicantro, donde se cuenta con la colaboración de expertos españoles. Fuente: World Council of Civil Engineers (WCCE). Figura 8. Población y recursos hidráulicos en el mundo La superpoblación de algunas zonas se ha producido de manera independiente de la disponibilidad de agua en las mismas, lo que ha creado unos problemas muy importantes de producción de alimentos junto con unas condiciones sanitarias muy deficientes que repercuten de forma severa en la salud y en los índices de mortalidad. Este problema acuciante afecta a numerosos países, especialmente en África, pero también hay regiones en las que se dispone de un volumen de agua por encima de la demanda total, y el crecimiento de la población 320 Fuente: foto cedida por GEOPROB. Figura 9. Proyecto de regulación del río La Leche (Perú) El futuro de la tecnología de las presas y balsas Por todo ello, puede decirse que la exportación de las tecnologías de presas, balsas y otras asociadas con ellas puede tener un futuro prometedor siempre que las empresas sigan trabajando con espíritu innovador, mostrando la competitividad que les proporciona el dominio de dichas tecnologías, y que cuenten con un apoyo institucional claro; apoyo que además debería reforzarse con unas condiciones de financiación adecuadas, las cuales pueden proporcionar un retorno económico importante y constituir una fuente de empleo para los distintos profesionales del sector. Referencias bibliográficas • Berga Casafont, Luis. Manifiesto sobre la energía eléctrica 2011. Conferencia inaugural. Jornada sobre el futuro del sistema eléctrico español. Colegio de Ingenieros de Caminos, Canales y Puertos. Madrid, 2011. • Capote del Villar, Antonio; Abadía Anadón, Fernando y Flórez Casillas, Víctor E. “Construcción de presas en el exterior. Periodo entre Congresos Barcelona 2006 y Brasilia 2009”. Revista de Obras Públicas, N.º 3.509. Madrid, 2010. pp: 159—178. • Carbajo Josa, Alberto (REE). Visión desde la seguridad de la operación del sistema eléctrico. Jornada sobre el futuro del sistema eléctrico español. Colegio de Ingenieros de Caminos, Canales y Puertos, Madrid, 2011. • De Cea Azañedo, Juan Carlos y Sánchez Cabezas, Francisco Javier. “Gestión de la seguridad de presas”. Revista de Obras Públicas, N.º 3.509. Madrid, 2010. pp: 73—82. • ICOLD (International commission on large dams). Boletines técnicos y documentación de los Congresos internacionales de grandes presas, así como de las reuniones anuales de los Comités Técnicos. (www.icold-cigb.org). • ICOLD EUROPEAN CLUB SYMPOSIUM. Dam safety. Sustainability in a changing environment. Organizado por ATCOLD (Austrian National Committee On Large Dams). Innsbruck, 2010. • Marcos Fano, José M.ª (UNESA). El sistema eléctrico en el entorno 2020. La sostenibilidad técnica, ambiental y económica. Jornada sobre el futuro del sistema eléctrico español. Colegio de Ingenieros de Caminos, Canales y Puertos. Madrid, 2011. • Moreno Rodríguez, José Manuel (UCLM, miembro del panel internacional de expertos sobre el Cambio Climático). Jornada de presentación y debate de la Carta del Agua Zaragoza 2008 organizada por SPANCOLD. Madrid, 2008. • Ministerio de Medio Ambiente y Medio Rural y Marino. Manual para el diseño, construcción, explotación y mantenimiento de balsas. CEDEX—SPANCOLD. Madrid, 2010. • Navalón Burgos, Baldomero y Gómez Martín, Patricia (Iberdrola). Visión de los productores. Generación hidráulica. Jornada sobre el futuro del sistema eléctrico español. Colegio de Ingenieros de Caminos, Canales y Puertos. Madrid, 2011. • Díaz—Guerra, Belén (REE). Sistema eléctrico español en el año 2020: necesidad del almacenamiento en la operación del sistema. Jornadas técnicas 2010. Cigré, España. • Polimón López, José. Tratamiento de puntas de demanda por el sistema hidroeléctrico. Jornada técnica “El debate sobre el futuro energético”. Colegio de Ingenieros de Caminos, Canales y Puertos. Zaragoza, 2009. • Girón Caro, Fernando y Vázquez Brea, Fernando. “Mejora de presas existentes”. Revista de Obras Públicas, N.º 3.509. Madrid, 2010. pp: 65-72. • Polimón López, José. Futuro de las presas y las balsas. Retos y necesidades. Encuentros CEDEX “Retos tecnológicos de la política de aguas en España”. Enero 2010. 321 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española • Polimón López, José y Girón Caro, Fernando. “El Máster Internacional en explotación y seguridad de presas y balsas”. Revista de Obras Públicas, N.º 3.509. Madrid, 2010. pp: 93—98. • Sánchez Caro, Francisco Javier. “Presas y Cambio climático”. Revista de Obras Públicas, N.º 3.493. Madrid, 2008. pp: 117-124. • Sancho Marco, Tomás S. y Colón, Emilio. “La ingeniería, respuesta imprescindible al reto del agua para todos y el desarrollo sostenible”. Ingeniería y Territorio, N.º 91. Barcelona, 2011. • Saura Martínez, Juan. “El fenómeno de las inundaciones: La riada del Guadalquivir en el pasado invierno 20092010”. Revista de Obras Públicas, N.º 3.512. Madrid, 2010. pp: 7—20. • SPANCOLD (Comité Nacional Español de Grandes Presas). Las Presas en España. Colección ciencias, humanidades e 322 ingeniería. Colegio de Ingenieros de Caminos, Canales y Puertos. Madrid, 2008. • SPANCOLD. Jornada de presentación y debate de la Carta de Zaragoza 2008. Madrid, 2008. • SPANCOLD. Guías Técnicas, documentación de las Jornadas de presas y balsas, publicaciones, etc. (www.spancold.es). • SPANCOLD. Jornada técnica de análisis y evaluación de riesgos. Una herramienta innovadora para la gestión de presas y embalses. Valladolid, 2009. • SPANCOLD. Jornada de innovación y tecnología internacional en presas y balsas. Retos actuales y futuros. Madrid, 2011. • Yagüe Córdova, Jesús y De Cea Azañedo, Juan Carlos. “Evolución de las presas en España”. Revista de Obras Públicas, N.º 3.493. Madrid, 2008. pp: 73-88. Aplicación de la nanotecnología en construcción: creación de una empresa de base tecnológica Aplicación de la nanotecnología en construcción: posible evolución ANTONIO PORRO GUTIÉRREZ (Madrid, 1955) Director de Tecnología de la Unidad de Construcción de Tecnalia Research And Innovation Doctor en Ciencias Químicas. Inició su carrera profesional en el Departamento de I+D de la Compañía Hispanoamericana de Pinturas. En 1984 entró como investigador en Labein, hoy incorporado a Tecnalia, donde ha sido Jefe de Línea Tecnológica “Durabilidad de Materiales”, Jefe de Laboratorio de Química y Medio Ambiente, Jefe de Línea Tecnológica “Materiales”, Gerente de NANOC (Aplicación de Nanomateriales en Construcción), y que en 2005 ha sido reconocida como Unidad Asociada al CSIC a través del Instituto de Ciencias de la Construcción Eduardo Torroja. Ha sido Representante de Eurolab en el Grupo de Trabajo conjunto EA-EUROLAB–EURACHEM-EUROMET, WorkGroup Selection and use of Reference Materials y Miembro del Advisory Committee de la Red de Excelencia NANOQUANTA. Actualmente es experto evaluador de propuestas en el Programa Europeo SMT (Standards, Measurements and Testing), de la DG XII de la Comisión Europea; Evaluador de la ANEP (Plan Nacional de Materiales); Miembro de la Delegación Europea en el Workshop From Nanomaterials to Nanotechnology, organizado conjuntamente por la National Science Foundation y la Comisión Europea; Experto evaluador y miembro del Panel Nano and Bio Mechanics of Materials del Nanotechnology Interdisciplinary Research Team, de la National Science Foundation de los EEUU; experto evaluador de propuestas del 7.º Programa Marco, Prioridad temática NMP; Miembro del Ad-hoc Advisory Group on Industrial Nanotechnologies, DG Research de la Comisión Europea; y Visiting Professor en la Faculty of Science and Technology de la University of the West of Scotland. Aplicación de la nanotecnología en construcción: creación de una empresa de base tecnológica Antonio Porro Gutiérrez RESUMEN En el presente capítulo se presenta el proceso seguido en la transformación de una idea, o concepto tecnológico, en un activo tecnológico capaz de producir beneficios en el mercado. El proceso comienza con la formación, en el seno de Tecnalia, de un grupo (NANOC) dedicado a la generación de derechos de propiedad industrial y posterior explotación de los mismos. Continúa con el desarrollo de un programa de investigación específico, que permite la solicitud de diversas patentes de productos y procesos industriales y concluye con un proceso que conduce a la creación de una empresa (NACOALIA) dedicada a la explotación del activo generado. PROCESO DE CREACIÓN DE NANOC Las características de la nanotecnología son ampliamente descritas en el capítulo siguiente. Atendiendo a tales características, y siendo consciente de la enorme potencialidad que este nuevo campo de investigación podía suponer, la Unidad de Construcción de Tecnalia Research & Innovation, que por el año 2001 era aún LABEIN-Tecnalia, decidió crear un grupo especialmente dedicado a la investigación y el desarrollo de las aplicaciones de la nanotecnología en el sector de la construcción. El grupo debía estar enfocado en la generación de una base de propiedad industrial, que permitiese posteriormente desplegar una política de explotación de los derechos derivados de ella. Además, debería tener un carácter multidisciplinar y ser capaz de colaborar con otros grupos de investigación, así como con la industria. El resultado fue la creación, en 2002, del Centro de aplicaciones de nanomateriales en construcción (NANOC). NANOC está concebido como una plataforma para el desarrollo de las capacidades tecnológicas claves que permitan a la industria de la construcción utilizar la nanotecnología como herramienta de competitividad. Esta formulación implica que, desde el punto de vista de la tecnología, el equipo de investigadores de NANOC debe: 327 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española • Distinguir, entre toda la serie de conocimientos necesarios para el desarrollo de su misión, cuáles son claves y cuáles de carácter instrumental. Necesidades de la industria /mercado Productos / procesos • Conseguir el dominio de los conocimientos claves. • Conseguir la colaboración de aquellos grupos de investigación que dominan los conocimientos instrumentales. El hecho de considerar a la nanotecnología como una herramienta de competitividad, entraña también una serie de implicaciones tales como: • Este conocimiento, generado bajo un esquema de colaboración, ha de tener por objetivo la resolución de problemas sectoriales específicos no resueltos, lo que significa la transformación del conocimiento en productos de alto valor añadido. • Estos productos han de ser capaces de generar oportunidades de negocio en el mercado. • Para conseguir estos fines, además del dominio de la tecnología, es necesario entender las claves de funcionamiento del mercado de la construcción, como aspecto esencial para conseguir que esas oportunidades de negocio sean tales. 328 Campo de juego de NANOC Conocimiento tecnológico Conocimiento científico básico Fuente: Tecnalia. Figura 1. Esquema de posicionamiento de NANOC Por otra parte, fruto del conocimiento científico se generan una serie de conocimientos tecnológicos específicos. En esta situación, el “campo de juego” de NANOC se sitúa en ese espacio central, enlazando diferentes “casillas” de conocimiento tecnológico, para dar lugar a otras “casillas” de producto o proceso. • Esas claves de funcionamiento del mercado han de ser interpretadas como formas de incrementar la cuenta de resultados de aquellas empresas que mantienen relaciones con NANOC. En lo que se refiere a la forma de transferencia tecnológica, se optó por la vía de la explotación de la propiedad industrial, bien mediante el desarrollo de proyectos de carácter estratégico para las empresas relacionadas con NANOC, o bien mediante la concesión de licencias de la propiedad industrial, contemplando también la creación de empresas destinadas al negocio de la explotación industrial de aquellos productos que reúnan una serie de características apropiadas a este efecto. Desde un punto de vista esquemático, en la figura 1, se puede apreciar cuál es el espacio que ocupa NANOC entre el conocimiento tecnológico y el mercado. El mercado marca unas necesidades que ha de satisfacer la industria. Esas necesidades se pueden traducir en términos de productos o procesos específicos. El carácter multidisciplinar del equipo está garantizado por la formación de la veintena de personas que lo componen, que cubre campos tales como las ciencias químicas (química física, química orgánica y química inorgánica), ciencias físicas (física teórica y física de la materia condensada) ciencias geológicas (cristalografía y mineralogía), ingeniería industrial, e Aplicación de la nanotecnología en construcción: creación de una empresa de base tecnológica ingeniería de caminos, canales y puertos. Más de la mitad de ellas están en posesión del grado de doctor y, o bien lo han obtenido en una universidad extranjera, o bien han tenido una estancia superior a un año en un centro de investigación o universidad extranjeros. De esta forma se consigue una adecuada visión desde diferentes puntos de vista, aportando culturas o experiencias de trabajo de muy diversa procedencia, lo que se consideró esencial para el adecuado desarrollo del programa de trabajo. Aunque la misión del Centro es la de generar oportunidades de negocio basadas en la nanotecnología, en el seno del grupo se preparan una o dos tesis doctorales al año, lo que es un indicador del nivel científico del mismo. Desde el punto de vista de las técnicas utilizadas, en NANOC se utiliza una combinación de técnicas experimentales avanzadas, como la simulación numérica multiescalar, utilizando entre otras técnicas: simulación ab-initio; molecular dynamics; brownian cluster dynamics; Monte Carlo; etc. La aproximación que se sigue es una integración de la ciencia y la ingeniería de materiales (véase la figura 2) en la que precisamente la modelización multiescalar es el nexo de unión entre la estructura y las prestaciones del material en cuestión. Este es un aspecto sumamente importante, ya que la nanotecnología ha de permitir el control de la estructura del material en la nanoescala, Prestaciones Ingeniería de materiales Fabricación Modelización multiescalar Propiedades Ciencia de materiales Estructura Fuente: Tecnalia. Figura 2. Integración de conocimientos en tanto que la utilización de un material para un determinado uso depende de las prestaciones macroscópicas del mismo. El área de trabajo de NANOC es la correspondiente a los materiales de construcción, y más en concreto a aquellos de matriz inorgánica, como son el cemento y sus derivados (morteros y hormigones), así como los silicatos y sílico-aluminatos (aerogeles, geopolímeros, zeolitas, etc.), incluyendo revestimientos de matriz inorgánica, con propiedades especiales. Para conseguir los resultados deseados, los investigadores de NANOC trabajan en dos grandes ámbitos: uno el de la modificación de las matrices, recurriendo a técnicas de autoensamblado o de hibridación orgánico-inorgánica. El otro ámbito es el de introducción de determinadas estructuras capaces de conferir otras propiedades a los materiales. Entre ellas se incluye la adición de nanoestructuras o de materiales encapsulados. La política de alianzas es otro apartado esencial en el trabajo de NANOC, de ahí que se preste especial atención al establecimiento de colaboraciones estables a lo largo del tiempo con otros grupos, centros o instituciones, buscando la existencia de complementariedades que permitan generar sinergias, así como objetivos de mutuo interés, bien en el campo de la investigación, bien en el del desarrollo de productos, o en ambos. Fruto de esta política es: el convenio por el que se reconoce a NANOC como Unidad Asociada al CSIC a través del Instituto Eduardo Torroja de Ciencias de la Construcción, con el nombre de Unidad de Materiales Nanoestructurados y Ecoeficientes para Construcción; y la colaboración con el Centro de Investigación Cooperativa en Nanociencia (CIC nanoGUNE Consolider), desde su creación, como parte de su estructura virtual. Desde su creación, el equipo de investigadores de NANOC ha solicitado un total de siete patentes, de las que tres están concedidas; una de ellas se ha extendido a siete países y otra a seis. La tercera es únicamente española. De las 329 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española cuatro restantes, dos han sido ya publicadas y las otras dos fueron solicitadas en 2010. Finalmente, hay que señalar que se ha creado una empresa con el fin de explotar industrialmente uno de los productos recientemente desarrollados. desplegar una estrategia de investigación abierta, integrando los resultados de otros grupos en los de NANOC, a la vez que fomenta una transferencia de tecnología, basada en la explotación de los derechos de propiedad industrial generados al alcanzar el objetivo primero. FORMA DE TRABAJO EN NANOC • El proceso seguido en NANOC se inicia con una primera acción doble de vigilancia. Por una parte, la del conocimiento científico-tecnológico de las áreas de competencia del Centro, siguiendo la evolución del conocimiento y los avances conseguidos por otros grupos. Por otra parte, como centro tecnológico, es necesario mantener una vigilancia de la evolución del mercado, dada la importancia del conocimiento del mismo y de sus resortes. Este último aspecto es esencial para conseguir la plena adecuación de las soluciones tecnológicas desarrolladas a las necesidades del mercado. Los objetivos de NANOC son de dos tipos diferentes, según su naturaleza: • Científico-tecnológicos: 1. Desarrollo de materiales con prestaciones extraordinarias. 2. Conocimiento de la nanoestructura de los materiales, buscando establecer la conexión nano-macro. 3. Modelización multiescala de materiales. • De posicionamiento: 4. En la cadena de valor de Tecnalia, buscando el establecimiento de oportunidades de negocio basadas en la aplicación de la nanotecnología. 5. En el sistema ciencia-tecnología-empresa, desarrollando una interlocución con grupos de investigación de excelencia (líderes internacionales) y empresas con visión y vocación innovadoras. De estos cinco objetivos, los esenciales son los indicados en primer y cuarto lugar. El desarrollo de materiales con prestaciones extraordinarias permite dar respuestas a problemas no resueltos. Por otra parte, estos desarrollos han de tener impacto en el negocio del cliente, al ofrecer nuevas oportunidades. Los objetivos segundo y tercero son los que permiten alcanzar el primero, al proporcionar la base de conocimiento necesaria, en tanto que el objetivo quinto permite 330 • La segunda acción corresponde a la identificación de oportunidades para el desarrollo de soluciones tecnológicas (que pueden ser de muy diversa naturaleza) que den respuesta a necesidades del mercado, y cuya cobertura pueda suponer una mejora en la posición en el mercado de la empresa que ofrezca dicha respuesta. • La tercera acción es el desarrollo de la solución en sí. Este proceso tiene cuatro etapas diferentes: — Análisis conceptual de la solución. — Análisis de las posibilidades de su implementación. — Desarrollo o adquisición de los conocimientos necesarios. — Transformación de los conocimientos en un proceso que lleve a un producto, o al producto en sí. Este último punto es el neurálgico del proceso de desarrollo, ya que tras su breve formulación se encuentra la totalidad del proceso de investigación y desarrollo del producto en sus diferentes fases: Aplicación de la nanotecnología en construcción: creación de una empresa de base tecnológica — Fase de desarrollo básico o inicial, que finaliza con la prueba de concepto. — Fase de desarrollo tecnológico y de demostración, que concluye con la validación de un prototipo preindustrial. — Fase de despliegue industrial. • La cuarta acción es la protección del conocimiento generado (propiedad industrial). • La quinta y última acción es la explotación de los derechos de propiedad obtenidos, lo que implica un análisis y decisión sobre la forma óptima de explotación. Los conocimientos necesarios se desarrollan en el marco de un programa de investigación, que se revisa cada tres años, y que cubre las etapas de investigación que suponen un mayor riesgo tecnológico. Algunos de los componentes de este programa se desarrollan siguiendo un esquema de colaboración con otros grupos de investigación. Esta interacción se considera esencial para el adecuado progreso de NANOC, a la vez que permite acelerar las fases iniciales del proceso de investigación. El trabajo en colaboración se refleja en la publicación de artículos científicos en revistas indexadas y en la presentación de ponencias en congresos de ámbito internacional. Otro punto relevante es el intercambio de investigadores, con un programa de estancias de los investigadores de NANOC en otros centros por periodos comprendidos entre uno y tres meses. EXPLORANDO UNA IDEA: REVESTIMIENTOS FOTOCATALÍTICOS El sector de la construcción ha mostrado interés por las posibilidades que ofrecen determinadas nanopartículas de mostrar una actividad fotocatalítica al ser iluminadas por la luz solar, es decir, que bajo iluminación natural se pueden producir determinadas reacciones químicas en su superficie, sin que estas nanopartículas se consuman. Dicho interés quedó plasmado en la Agenda Estratégica de Investigación de la PTEC (Plataforma Tecnológica Española de Construcción). Pero antes incluso de la creación de esta plataforma, ya en los trabajos de la red E-CORE (European Construction Research Network) de investigación en construcción (2001-2005), se identificó el interés por este tipo de desarrollos. En Japón se había despertado aun antes el interés industrial por los trabajos sobre fotocatálisis del profesor Fujishima. En esta situación, NANOC decidió incluir esta temática en el proyecto NANOMAT, que fue parcialmente financiado por el Departamento de Industria, Comercio y Turismo del Gobierno vasco en el marco del programa de investigación estratégica ETORTEK en el periodo 2002-2004, posteriormente continuado en el proyecto NANOMATERIALES (2005-2007), también financiado por el citado programa. En este marco, se realizó un trabajo sobre las posibilidades de la aplicación de nanopartículas de dióxido de titanio (TiO2) en su forma cristalográfica anatasa, para obtener revestimientos aplicados sobre acero inoxidable y acero recubierto con materiales poliméricos, que diesen lugar a superficies que se mantuviesen limpias sin intervención humana (conocidas como superficies autolimpiables). El mecanismo de funcionamiento es consecuencia del carácter semiconductor del TiO2 en forma anatasa, que al ser iluminado por la luz solar genera un par electrón-hueco, que es el responsable del desencadenamiento de toda una serie de reacciones químicas que, en presencia de luz y humedad, dan lugar a la eliminación de la suciedad depositada sobre estas partículas. Los trabajos realizados pusieron de manifiesto que los revestimientos obtenidos a partir de este tipo de material pueden dar lugar a toda una serie de propiedades de alto interés tecnológico —que van desde la superhidrofilicidad al carácter bactericida, pasando por la autolimpieza o la eliminación de contaminantes— que, si son adecuadamente tratadas, pueden dar lugar a oportunidades de negocio para las empresas que se decidan a trasladar su oferta al mercado. 331 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española El análisis de las posibles vías de obtención de revestimientos de esta naturaleza puso de manifiesto que existían tres grandes tipos de técnicas para la aplicación de los mismos: • La aplicación química en fase vapor (conocida por sus siglas en inglés, CVD). • La aplicación térmica. • La vía sol-gel. DE LA “PRUEBA DEL CONCEPTO” AL PRIMER CONTRASTE CON LA INDUSTRIA Tal y como se ha indicado en el apartado anterior, el principal objetivo marcado, en lo que se refiere al tipo de superficie a recubrir, fue la del acero inoxidable, ya que su uso en construcción puede estar ligado al mantenimiento de las condiciones estéticas de la superficie. Pero dado que este mercado, por su volumen, puede ser considerado “de nicho”, se decidió incluir como objetivo adicional la posibilidad de aplicación del revestimiento sobre superficies poliméricas, y especialmente sobre pinturas. Esta decisión implicó una fuerte restricción respecto de la forma de aplicación del revestimiento, ya que dejaba fuera de juego a los tratamientos que implican altas temperaturas, necesarios para asegurar que el revestimiento final aplicado sobre la superficie estuviese compuesto por nanopartículas de TiO2 en forma anatasa. Por otra parte, para conseguir las propiedades pretendidas el revestimiento buscado no podía ser una pintura ya que, por una parte, es necesario que la mayor parte de la superficie de las nanopartículas esté expuesta al medio en cuestión, lo que llevaría a un contenido en pigmento por encima de su concentración crítica, en volumen. Y por otra parte, el ligante utilizado ha de tener una gran resistencia química, ya que en la superficie de las nanopartículas aparecerá una elevada alcalinización del medio, como consecuencia de la acción fotocatalítica, que degradaría el ligante. 332 En estas circunstancias, la única opción viable para obtener un revestimiento con las propiedades fotocatalíticas buscadas, que a la vez fuera transparente y permitiera que, en casos como el de su aplicación sobre acero inoxidable, este mantenga su apariencia metálica, era la vía sol-gel. Siguiendo estas premisas se desarrolló en laboratorio un producto que, aplicado por inmersión y tras un curado térmico a una temperatura de 105 ºC, formaba un revestimiento sobre chapa de acero inoxidable. Sobre la base de este desarrollo se estableció y superó una “prueba de concepto”, o lo que es lo mismo, la prueba de la viabilidad de desarrollar un producto que cumpla unas condiciones determinadas, que en el presente caso se establecieron en demostrar que el revestimiento posee actividad fotocatalítica (mediante el ensayo del azul de metileno, según la norma japonesa JIS 1703-2:2007) y que el recubrimiento tiene una distribución uniforme del TiO2 (determinada mediante microscopía electrónica de barrido). El producto obtenido era un revestimiento que, con un espesor que puede oscilar entre 200 y 1.000 nm, daba cumplida satisfacción a los requisitos fijados. En ese momento era claro que la tecnología resultaba viable, pero la prueba se había realizado únicamente en laboratorio, lo que constituye un requisito necesario, pero no suficiente, de cara a su explotación industrial. Por esta razón se decidió participar en un proyecto del Programa NMP, enmarcado en el 6.º Programa Marco de Investigación de la Comisión Europea, que permitiese evaluar las posibilidades reales de explotación del producto desarrollado en laboratorio. De esta forma se vio que era posible adaptar el producto a determinados criterios industriales, centrados en la incorporación de la aplicación del mismo en una línea industrial, a la vez que acortar los tiempos de curado, por debajo de un minuto, así como variar la forma de aplicación. Las pruebas preindustriales realizadas dieron resultados satisfactorios, con lo que se consideró superada la prueba de la tecnología en un ambiente industrial representativo. Aplicación de la nanotecnología en construcción: creación de una empresa de base tecnológica Una vez alcanzado este punto, la siguiente etapa consistió en acotar determinados parámetros de fabricación de cara a la industrialización, así como en la evaluación de la posible ampliación, tanto de las técnicas de aplicación del producto como del tipo de sustrato a recubrir. Para estas fases se contó con el apoyo económico del Departamento de Promoción Económica de la Diputación Foral de Bizkaia y de la Sociedad para la Promoción y Reconversión Industrial del Gobierno vasco. Dos aspectos relevantes de esta parte del proceso de desarrollo fueron la demostración de que, junto a las propiedades de autolimpieza, el revestimiento poseía una actividad biocida muy buena (determinada según JIS Z 280) y capacidad de eliminación de contaminantes, expresada como eliminación de acetaldehído en una corriente de aire con 3 ppm del citado producto químico. Estos ensayos fueron realizados en Tsukuba, en el National Institute for Advanced Industrial Science and Technology (AIST) de Japón, durante una estancia de uno de los investigadores de NANOC en el citado centro. Otro aspecto relevante de esta parte del desarrollo fue la obtención de revestimientos fotocatalíticos aplicados sobre vidrio, manteniendo la transparencia del soporte. conocimiento que dio lugar a la solicitud de patente Recubrimientos fotocatalíticos híbridos, procedimiento para aplicarlos sobre distintos sustratos y usos de los sustratos así recubiertos (PCT/ES2010/070775). Respecto de la explotación del conocimiento generado, se inició el análisis en sí, abordando cinco aspectos diferentes que constituyen la propuesta de negocio al respecto. Dicho trabajo fue realizado con la colaboración de ADL Consultores. El análisis se inició mediante la identificación de la matriz de posición competitiva, de cara a identificar cuáles habían de ser las acciones a tomar al respecto. Los factores analizados de cara al posicionamiento en la citada matriz fueron: • Factores de atractivo del mercado: — Barreras de entrada/salida. — Rentabilidad del sector. — Potencial de diferenciación en el sector. — Potencial de crecimiento. DECISIÓN SOBRE LA FORMA ÓPTIMA DE EXPLOTACIÓN En paralelo al desarrollo tecnológico indicado, se llevó a cabo otro proceso dedicado al análisis de las posibilidades óptimas de explotación del conocimiento que se estaba generando respecto de un producto cuyo desarrollo mostraba signos de poder ser convertido en un producto industrial de éxito. La primera decisión fue la protección de la propiedad industrial. Esta se ha traducido en la solicitud de la patente Procedimiento para obtener revestimientos fotocatalíticos sobre sustratos metálicos (PCT/ES2009/070113). Durante el proceso de desarrollo indicado, además de la puesta a punto del producto original, se desarrolló un nuevo — Tipo de competidores. — Tamaño del mercado. — Poder de negociación de los clientes. — Intensidad de la inversión. • Factores de posición competitiva: — Nivel de precios. — Liderazgo tecnológico y know how. — Diferenciación de competidores. — Cuota del mercado. — Gama de productos y servicios. — Sistema de distribución. 333 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española La posición resultante en la matriz (véase la figura 3) corresponde a: “esfuerzo en inversión y crecimiento”, siendo un negocio de alto atractivo, pero que precisa de unos precios adecuados. Estos resultados suponían la confirmación de que la mejor forma de explotación del conocimiento generado era la creación de una empresa de base tecnológica que ofreciese el producto al mercado. Matriz de posición competitiva baja 250 Atractivo del mercado media alta 300 Selección oportunista Inversión y crecimiento selectivo. Para mejorar la posición competitiva Esfuerzo en inversión y crecimiento. (productos prioritarios para asignar recursos) Desinversión controlada (a través de tácticas invisibles para los clientes) Prudencia en la asignación de recursos y selectividad vía segmentación Inversión y crecimiento selectivo. Para mantener la posición competitiva Desinversión rápida. No invertir (concentrar los esfuerzos en productos prioritarios) Abandono. No dedicar recursos a largo plazo (desinversión parcial vía segmentación) Productos vaca lechera • Se trata de un recubrimiento de alta calidad con propiedades fotocatalíticas (autolimpieza, bactericida y purificación de aire), que ofrece buena adherencia, flexibilidad (el producto revestido puede ser conformado) y transparencia, manteniendo al mismo tiempo las propiedades intrínsecas del sustrato recubierto con este producto. El rendimiento del mismo (en gramos por metro cuadrado) es elevado, su proceso productivo es sencillo y su aplicación en líneas industriales no difiere de la forma de aplicación de las pinturas industriales. 200 150 El segundo aspecto tratado se refirió a la evaluación del grado de desarrollo del producto alcanzado de cara a su aplicación industrial, la estimación del valor añadido del mismo y su diferenciación. 100 50 • El producto obtenido puede ser aplicado industrialmente, mostrando la flexibilidad necesaria para adaptarse a diferentes cadencias de producción. Su elevado rendimiento lo hace muy atractivo. Por el momento no hay en el mercado productos que ofrezcan el mismo conjunto de propiedades. 0 0 50 100 150 200 250 300 Posición competitiva baja media alta Fuente: Tecnalia. Figura 3. Matriz de posición competitiva Una vez tomada la decisión al respecto, el trabajo continuó mediante el desarrollo de los puntos reflejados en los apartados que a continuación se describen. Análisis de la propuesta de valor El análisis de la propuesta de valor se inició mediante una descripción clara y concisa del producto desarrollado, de 334 forma que se pudiese poner en evidencia cuál era el grado de novedad del mismo frente a otros productos que pudiesen existir en el mercado. El tercer aspecto se centró en las posibilidades de protección frente a imitadores del producto, no solo desde el punto de vista legal, sino desde el punto de vista de las posibilidades de mantenimiento de una ventaja competitiva por evolución del producto. Este punto se cerró con un análisis de los posibles productos sustitutivos que pudiesen aparecer en el mercado y dañar la posición del producto en el mismo. • El producto y su proceso están protegidos por patentes. De todas formas, las posibilidades de evolución del producto son claras y la posible competencia tendría que cubrir no solo la desventaja actual en términos de desarrollo de producto, sino además acortar la diferencia que el proceso de I+D en curso tiende a agrandar. Aplicación de la nanotecnología en construcción: creación de una empresa de base tecnológica Análisis del entorno En este epígrafe se analizó la estrategia del sector o sectores a los que se dirigía la oferta de este producto nuevo. Se estudiaron cuáles podrían ser las fuentes de ventaja competitiva o, lo que es lo mismo, cuáles son las claves de éxito de un producto en esos sectores. • De forma sucinta, las fuentes de ventaja competitiva radican en las nuevas propiedades que confiere el revestimiento a la superficie tratada, que no se pueden obtener de otra forma y que suponen un valor añadido para el producto recubierto. marcando el modelo de negocio a desplegar y la consiguiente estrategia a seguir. Bajo el siguiente epígrafe se esbozaron los planes de márketing, comunicación y ventas acordes con el modelo de negocio adoptado y siguiendo la estrategia marcada. Finalmente, el último epígrafe de este apartado se refirió a la planificación empresarial en sí, abordando la planificación legal y societaria, el plan de sistemas e infraestructuras, el plan de inversiones y el plan financiero.1 Propuesta de industrialización Otro epígrafe tratado fue el compuesto por clientes (naturaleza, poder de negociación, factores decisorios de compra, etc.), competidores (tipo, tamaño, gama de productos, etc.), proveedores (poder de negociación, existencia de suministradores alternativos, capacidad de suministro, etc.) y regulación del mercado. • Una de las principales dificultades para la introducción de este producto radica en la novedad del mismo, lo que implica ausencia de referencias. Por el contrario, no hay problemas relativos al suministro de materia prima, ya que existen diversos suministradores del material necesario. Con este análisis se estimó cuál podría ser la situación en la que la nueva empresa habría de desenvolverse, las presiones a las que podría verse sometida y la capacidad de actuación frente a las mismas. Análisis interno En el marco de este punto se realizó el estudio de los factores internos a la empresa a constituir. El trabajo se estructuró abordando tres epígrafes. En el marco del primero de ellos se efectuó un análisis DAFO, que dio lugar a la primera aproximación a las políticas de producto-precio a desarrollar, La traslación de un proceso de síntesis en laboratorio hacia un proceso productivo a escala industrial plantea toda una serie de problemas a solventar, y este caso no iba a ser una excepción. Al tratarse de un proceso químico, el escalado del mismo es genéricamente más fácil que en otros casos. Los problemas a resolver se ciñeron al manejo de sólidos pulverulentos y líquidos, así como a la necesidad de mantener de forma escrupulosa los tiempos y condiciones de reacción. Todo ello acompañado por la necesidad de especificar los materiales a utilizar para la fabricación de la infraestructura, o los espacios necesarios para la planta productiva o para almacenamiento, tanto de materia prima como de producto acabado, y teniendo en cuenta las servidumbres que el proceso requería. El hecho de que tras el producto subyaciera un proceso de “química verde” hacía que no fuera previsible ningún riesgo de emisiones tóxicas o de producción de residuos tóxicos o peligrosos. 1 No se hace mención especial a estos aspectos, puesto que no existe ningún aspecto diferenciador en el presente caso y se consideran muy sensibles. 335 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Análisis de riesgos y contingencias El análisis realizado al respecto, puso de manifiesto la existencia de diversos tipos de riesgos que la empresa habría de afrontar en el futuro. Algunos de ellos eran riesgos relacionados con el producto en sí, y otros estaban relacionados con la empresa. Como resultado de ello se estableció el correspondiente Plan de Contingencias, con las distintas opciones a seguir. Todo este proceso que se acaba de relatar, fue realizado en paralelo con las últimas etapas del trabajo de desarrollo tecnológico del producto, ofreciendo puntos a ser considerados en el mismo. El resultado ha sido una clara mejora en las expectativas de éxito del producto en el mercado. PRÓXIMAS ACTUACIONES Con los resultados del análisis anterior, y amparado en las actuaciones de Tecnalia T4, se procedió a la elaboración del Plan de Negocio de la empresa, que sirvió de base a la creación de NACOALIA en 2010. Esta empresa se dedicará a la fabricación de revestimientos nanoestructurados con propiedades excepcionales, derivadas de su capacidad fotocatalítica. Las propiedades de las superficies revestidas con los productos fabricados por NACOALIA corresponderán a una gama que 336 va desde propiedades biocidas, que impidan el crecimiento de poblaciones bacterianas sobre ellas, hasta superficies de fácil limpieza, pasando por las superficies con capacidad de mantenerse limpias por sí solas, es decir, autolimpiables. Estos revestimientos tienen también propiedades de eliminación de la contaminación del aire. En el momento de redactar este capítulo, NACOALIA está afrontando el inicio del proceso de construcción de su planta de producción industrial, proceso que se inició con la puesta en servicio de una planta piloto. Dicha planta piloto será un elemento esencial en la estrategia de la empresa, ya que no solo permitirá cerrar las etapas de industrialización del producto, sino que hará posible el desarrollo progresivo de toda su gama de nuevos productos, que han de permitir mantener la posición de liderazgo en el mercado a la que NACOALIA aspira. En este sentido, la colaboración establecida con Tecnalia para el desarrollo de la actividad de I+D se considera un factor decisivo y diferenciador frente a su competencia. De esta forma se cierra un círculo virtuoso, que se inicia con un proceso de desarrollo tecnológico que da lugar a un producto destinado a cubrir una demanda insatisfecha hasta el momento. El proceso de puesta en valor de este producto ha dado lugar a la creación de una empresa dedicada a su producción industrial. Finalmente, la empresa identifica al proceso de I+D como factor esencial para el mantenimiento de su posición en el mercado, cerrando el círculo tecnológico. Aplicación de la nanotecnología en construcción: posible evolución Antonio Porro Gutiérrez ¿QUÉ ES LA NANOTECNOLOGÍA? Si se entiende la tecnología como un conjunto de conocimientos más la forma en que estos se usan en un determinado ámbito, la nanotecnología es un amplísimo conjunto de conocimientos en las áreas de la física, la química y la biología, más la forma en que estos conocimientos se usan para lograr el control de las propiedades de la materia cuando se trabaja en unas dimensiones comprendidas entre 0,1 y 100 nm. Esta definición tiene varias implicaciones que es preciso resaltar. En primer lugar, el carácter multidisciplinar. La nanotecnología emerge como fruto del conocimiento acumulado en disciplinas tales como la física, la química o la bioquímica, que han venido trabajando en el desarrollo del conocimiento a escala subatómica, atómica, molecular o supramolecular. Las aplicaciones prácticas de este conocimiento son consecuencia del desarrollo tanto de técnicas experimentales cada vez más complejas y avanzadas, y que alcanzan una mayor re- solución espacial y temporal, como de las técnicas de simulación computacional, que están adquiriendo un inusitado desarrollo fruto del impresionante aumento de la capacidad de cálculo de los sistemas hoy en día disponibles. En segundo lugar, la definición entraña el concepto de control de las propiedades de la materia, es decir, su utilización para conseguir unas propiedades nuevas en los materiales. Estas propiedades emergentes son el resultado de que, en la escala mencionada, los fenómenos superficiales, así como los fenómenos cuánticos (que prevalecen por debajo de 20 nm), condicionan el comportamiento de los materiales. De esta forma el “juego” de la nanotecnología consiste en explotar esas propiedades emergentes de la materia y trasladarlas a la escala macroscópica, de modo que resulte posible dar respuesta a problemas que hasta ahora eran considerados irresolubles. Precisamente esta es la razón por la que esta tecnología ha despertado un inusitado interés en todos los países, siendo objeto de programas específicos para su desarrollo. 339 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española CAPACIDAD DE TRANSFORMACIÓN DE LA NANOTECNOLOGÍA Todas las tecnologías tienen su ciclo de vida propio. En su evolución experimentan tres fases muy marcadas: embrionaria, emergente y de madurez. Si se representan en un diagrama que indique la capacidad de generar retorno económico, en función de la inversión necesaria para su desarrollo, la gráfica resultante es la conocida como la S de la evolución tecnológica: en la etapa embrionaria, el desarrollo de la tecnología requiere de grandes inversiones para dar un retorno limitado; en la etapa emergente, pequeñas inversiones en el desarrollo de la tecnología en cuestión son capaces de producir grandes retornos por diferenciación; en la etapa de madurez, se vuelve a requerir una inversión considerable para producir cualquier innovación que entrañe una cierta ventaja o retorno. Se dice que una tecnología es de carácter disruptivo cuando su aparición y posterior desarrollo hacen que otras tecnologías que hasta ese momento eran consideradas esenciales, pasen a ser obsoletas. Este tipo de tecnología raramente aparece aislada, de forma que los grandes cambios son el fruto de la convergencia del avance en diferentes tecnologías. La revolución industrial no fue fruto exclusivamente de la introducción de la caldera de vapor en las fábricas, sino que las revoluciones en el transporte, construcción, comunicaciones, etc., contribuyeron decisivamente a la creación de un nuevo orden industrial y social, al alcanzar los nichos más internos de la sociedad, forzando su cambio. Otro caso de tecnología disruptiva es el de la tecnología digital. La posibilidad de adquirir, tratar y utilizar una gran cantidad de información de forma rápida y eficaz supuso un nuevo cambio en la forma de trabajar de la industria. La plena automatización de las plantas de producción condujo a unas capacidades de producción tremendas, con unos niveles de calidad y uniformidad en los productos que supuso un cambio radical en las formas de producción. 340 Hasta ahora, una tecnología disruptiva aparecía cuando la tecnología anterior llegaba a un grado de madurez tan elevado que cualquier innovación en la misma era muy costosa. De esta forma la “curva en S” de la nueva tecnología disruptiva se incardinaba de forma que su etapa embrionaria coincidía con la etapa de madurez de la tecnología anterior. A la nanotecnología se le reconoce un carácter disruptivo, ya que por su propia naturaleza va a dar lugar a la aparición de nuevos productos y procesos de producción completamente diferentes a los hasta ahora conocidos. Por ejemplo, se irá viendo cómo aparecen productos capaces de evolucionar o dar respuesta a determinados estímulos, como fruto de un autoensamblado preprogramado durante el mismo proceso de concepción del citado producto. Pero, volviendo al carácter disruptivo de la nanotecnología, la gran diferencia respecto de las tecnologías precedentes consiste en que su aparición tiene lugar cuando la tecnología anterior (la digital) aún no ha llegado a su etapa de pleno desarrollo o madurez. En cierta medida, la aparición de la nanotecnología ha sido posible gracias al desarrollo de la tecnología digital, pero a su vez la nanotecnología está introduciendo grandes cambios en las tecnologías de la información y comunicación, de forma que cada una de ellas, la nanotecnología y las TIC, están experimentando un desarrollo mutuamente coadyuvado, lo que origina una situación completamente atípica y con gran poder de transformación. ESTRATEGIAS Y PROGRAMAS EN DIFERENTES PAÍSES Un claro reflejo de la importancia del desarrollo de la nanotecnología es la existencia de innumerables programas gubernamentales, dedicados a asegurar que cada país pueda tener acceso al desarrollo de esta tecnología y a posicionarse adecuadamente de cara a su posterior explotación industrial. Este mismo hecho ha motivado la aparición de una corriente de opinión tendente a pensar que el propio desarrollo de la Aplicación de la nanotecnología en construcción: posible evolución nanotecnología pueda agrandar aún más la brecha existente entre países desarrollados y en vías de desarrollo, pensando que tal diferencia puede llegar a ser de una magnitud tal que la haga infranqueable. Pero este es otro tema de discusión que corresponde a un ámbito diferente del presente. El primero de los programas nacionales dedicados al impulso de la investigación en nanotecnología como tal, o al menos el primero del que se tiene constancia, es la National Initiative On Nanotechnology (NION), establecido por el Gobierno británico en el periodo 1986-1995. Este programa coexistió, en el periodo 1989-1994, con el Programa LINK de Nanotecnología (LNP), también establecido por el Gobierno británico. Hasta entonces, el área de trabajo, vislumbrada en 1959 por el ganador del Premio Nobel Richard Feynman1, se había ido desarrollando en proyectos encuadrados en programas no específicos, sin ninguna percepción concreta por parte del público en general. En el año 2000, el entonces presidente de los EEUU, Bill Clinton, aprueba la dedicación de un presupuesto de 500 millones de dólares para el desarrollo de la National Nanotechnology Initiative (NNI). Esta iniciativa suponía coordinar el esfuerzo realizado al respecto por diez agencias federales. En la actualidad2 el número de integrantes de la NNI se eleva a 25 departamentos y agencias. De alguna forma, se considera que la aparición de la NNI era el resultado del logro de la masa crítica necesaria para que la nanotecnología adquiriese su propia carta de naturaleza. fue tomado, principalmente, por el Programa Nanotechnologies and nanosciences, knowledge-based multifunctional materials and new production processes and devices, conocido por sus siglas NMP. A finales de 2006, ya encuadrado en el 7.º Programa marco, el relevo es tomado por el Programa Nanosciences, Nanotechnologies, Materials and new Production Technologies, que mantiene el acrónimo NMP. Desde un punto de vista formal, la Comisión Europea ha ido plasmando en diferentes comunicaciones su política de desarrollo de la nanotecnología. Entre otros cabe destacar los que a continuación se mencionan: en 2004, la comunicación de la Comisión europea COM (2004) 3383 (Hacia una estrategia europea para las nanotecnologías) propone acciones para el mantenimiento y fortalecimiento de la posición de la I+D europea en el ámbito de la nanociencia y la nanotecnología; en 2005, la comunicación COM (2005) 2434 (Nanociencias y nanotecnologías, un Plan de acción para Europa 2005-2009), presenta un plan que define y articula una serie de acciones para la implementación de una estrategia segura, integrada y responsable, para el desarrollo de la nanociencia y la nanotecnología. En aquellos años, en la Unión Europea, una gran parte de la investigación en nanotecnología se encontraba enmarcada en el Programa GROWTH del 5.º Programa marco de investigación. En el 6.º Programa marco (2002-2006), el relevo En el caso de Japón, su gobierno formuló su propia iniciativa en nanotecnología al año de ser formulada la NNI estadounidense. La investigación se enmarca en las políticas de tecnología nano y de materiales del Gobierno japonés. El segundo Plan básico de ciencia y tecnología (2001-2006) implicaba al ministerio de Educación, Cultura, Deportes, Ciencia y Tecnología (MEXT) y al de Economía, Comercio e Industria (METI). En lo que se refiere al origen de los fondos de I+D, un 23% proviene del Gobierno y un 77% de la industria. Un 14% va dirigido a investigación fundamental, un 25% a investigación aplicada y un 61% a desarrollo de productos. 1 Feynman, R. “There’s plenty of room at the bottom: an invitation to enter a new field of physics”. Engineering and Science 23 (22). 1960. 3 ftp://ftp.cordis.europa.eu/pub/nanotechnology/docs/nano_com_ es.pdf. 2 4 http://www.nano.gov/html/about/nniparticipants.html (consulta diciembre 2010). ftp://ftp.cordis.europa.eu/pub/nanotechnology/docs/nano_action_ plan2005_es.pdf. 341 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española PREVISIBLES CAMBIOS ECONÓMICOS Y SOCIALES INDUCIDOS Es evidente que la mera posibilidad de cambiar las bases de la competitividad industrial entraña unas posibilidades de transformación de la sociedad en sus aspectos económicos y sociales. En primer lugar, para el propio desarrollo de la base de conocimiento necesaria, la nanociencia, así como de sus aplicaciones tecnológicas (la nanotecnología y su posterior industrialización), se precisa una gran base de conocimientos, además de unas infraestructuras avanzadas, que no van a estar disponibles en todos los países. En segundo lugar, los productos basados en la nanotecnología no van a poder obtenerse siguiendo técnicas y formas de producción al uso, por lo que en aquellos sectores en los que se vayan implantando irán desplazando progresiva e inexorablemente a otros productos y formas de producción. El elevado valor añadido de estos productos, unido a un uso más razonable de los recursos para su fabricación (en términos de materias primas y consumo energético) será un factor de creación de riqueza de primer orden. Pero para hacer esto posible será necesario disponer de profesionales altamente cualificados, en un campo en el que la oferta de formación es aún escasa. Respecto de la factibilidad de disponer de profesionales cualificados, el informe de la Fundación de la Innovación Bankinter5, publicado en 2006, señala en su apartado “La carrera por liderar la nanotecnología” que, en el momento de publicarse el referido informe, los Estados Unidos tenían una posición de liderazgo clara al disponer de una masa de investigadores del orden del 45% del total, seguida por la Europa Occidental, con un 25% y Japón con un 15%. Otro de los factores esenciales es la disponibilidad de la infraestructura adecuada para el desarrollo de la investigación en el campo. De nuevo en este aspecto los Estados Unidos llevan ventaja. Una de las áreas de actuación de la National 5 FTF Informe 05 Nanotecnología. La revolución industrial del siglo XXI. Fundación de la Innovación Bankinter. 2006. 342 Nanotechnology Initiative, es la dotación de infraestructuras6. Entre las agencias participantes en la misma, y en el plazo de una década, han creado un total de 60 grandes centros de investigación e “instalaciones para usuarios”. Pero volviendo al objeto de este apartado, es fácil imaginar los cambios sociales a los que el pleno desarrollo de la nanotecnología va a llevar. Es muy posible que las zonas en las que este tipo de industria florezca se parezcan a grandes parques científicos o tecnológicos, en cuyo entorno se establezca una población de alta capacitación técnica y alto poder adquisitivo, y en las que la incidencia del desempleo sea muy baja, ya que la principal “lucha” va a ser la de la atracción de talento, procurando que el mismo se estabilice en ellas. CONTRIBUCIÓN AL LOGRO DE LOS OBJETIVOS DE LA ESTRATEGIA DE EUROPA 2020 En marzo de 2010, la Comisión Europea puso en marcha la estrategia de Europa 20207 para salir de la crisis y preparar la economía de la UE de cara a la próxima década. La Comisión ha identificado tres motores claves de crecimiento que deberán ponerse en marcha a través de acciones concretas, interrelacionadas y que se refuerzan mutuamente: • Crecimiento inteligente, desarrollando una economía basada en el conocimiento y la innovación. • Crecimiento sostenible, fomentando una economía de bajo nivel de carbono, eficiente en términos de recursos y competitiva. • Crecimiento integrador, estimulando una economía con un alto nivel de empleo que fomente la cohesión social y territorial. 6 http://www.nano.gov/html/centers/home_centers.html. 7 http://ec.europa.eu/europe2020/index_en.htm. Aplicación de la nanotecnología en construcción: posible evolución Para lograr estos objetivos, la Comisión propone la agenda Europa 2020, consistente en una serie de grandes iniciativas, entre las que figuran: • La Unión de la innovación, que supone reorientar la política en materia de I+D y de innovación en función de los principales desafíos, superando el desfase entre la ciencia y el mercado para convertir las invenciones en productos. • Una Europa eficiente en términos de recursos, apoyando el cambio hacia una economía de bajo nivel de carbono y eficiente en términos de recursos. • Una política industrial para el crecimiento verde, que implica ayudar a la base industrial de la UE a ser competitiva en el mundo después de la crisis, promoviendo el espíritu empresarial y desarrollando nuevas capacidades. La consecución de estos objetivos supone el despliegue de una serie de políticas que fomentan el desarrollo de un conocimiento dirigido hacia la creación de productos altamente tecnificados y, consecuentemente, de alto valor añadido, como base para el desarrollo de una economía que ya no puede basarse en una competición en precio. Adicionalmente, el desarrollo que se persigue ha de ser respetuoso con el medio ambiente, lo que implica que las tecnologías a desarrollar deberán ser “limpias”, minimizando las emisiones a la atmósfera asociadas y la producción de residuos, y buscando hacer un uso lo más eficaz posible de los recursos materiales y energéticos. En este sentido, la nanotecnología es un claro ejemplo de contribución a un desarrollo sostenible y basado en el conocimiento, al combinar tanto la posibilidad de dar soluciones a problemas no resueltos como el hecho de hacerlo desde un punto de vista amigable hacia el medio ambiente. Pero para entender cuáles son las razones que motivan esta afirmación es preciso describir con algo más de detalle algunos conceptos. Para el desarrollo de la nanotecnología caben dos aproximaciones completamente diferentes: • Top-down approach: como su propio nombre indica, supone una progresiva disminución del tamaño de los objetos que manipula, hasta llegar a la nanoescala, es decir hasta tamaños comprendidos entre 0,1 y 100 nm. • Bottom-up approach: supone partir de los elementos más pequeños posible, conocidos en el argot como “elementos constitutivos básicos”, para obtener los derivados a partir de su unión o ensamblado progresivo en elementos de mayor tamaño. Cada una de estas formas de trabajar tiene sus ventajas e inconvenientes, como es lógico. En el caso de la progresiva disminución de tamaños, partiendo de la microtecnología, el principal inconveniente que puede aparecer es la superación de la barrera situada al reducir el tamaño a dimensiones de 20 nm o inferiores. Justamente a esas dimensiones empiezan a ser relevantes los fenómenos cuánticos, y su superación puede entrañar un auténtico obstáculo difícil de franquear. En las partículas de estas dimensiones hay una proporción significativa de moléculas que se encuentran en su superficie, respecto de las que se encuentran en su interior. En otras palabras, las propiedades superficiales gobiernan el comportamiento de la partícula. La combinación de ambos efectos, cuánticos y superficiales, es precisamente la que dota a esos materiales (nanomateriales) de sus extraordinarias propiedades, en comparación con las que corresponden a las partículas macroscópicas del mismo material. Este fenómeno es el conocido como emergencia de propiedades en la nanoescala. En el caso de la aproximación bottom-up, por contraposición, al tomar como punto de partida los elementos constitutivos básicos más pequeños, pero con entidad propia, lo que se hace es beneficiarse de esas propiedades para conseguir unas prestaciones macroscópicas extraordinarias, derivadas de esas propiedades emergentes. Lógicamente, en este caso la identificación de esos elementos constitutivos básicos, 343 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española conocidos como basic building blocks, puede llegar a ser todo un desafío. En esta aproximación se busca conseguir el autoensamblado de esas unidades básicas para formar otras entidades de mayor tamaño, que ya no tienen por qué ser nanométricas. Esta aproximación entraña otras ventajas adicionales nada desdeñables. La primera de ellas es la de hacer un uso lo más eficaz posible de los materiales de partida, puesto que el ensamblado de los mismos podría realizarse átomo a átomo o molécula a molécula, sin dar lugar a la formación de subproductos o residuos. La programación de este autoensamblado se logra mediante la incorporación de determinados grupos o “funcionalidades” químicas y haciendo un uso intensivo de los procesos químicos conocidos como “química verde”, que implican la minimización del uso de compuestos agresivos o nocivos para el medio ambiente. Además, este tipo de procesos de autoensamblado tiene la ventaja adicional de que el consumo de energía se reduce al máximo. EVOLUCIÓN DE LA TECNOLOGÍA Una de las dificultades que entraña el desarrollo de la nanotecnología se deriva precisamente de su carácter multidisciplinar, que obliga a combinar conocimientos de disciplinas científicas muy diferentes. Es decir, que no solo hace necesario que los investigadores que trabajan en este campo tengan unos conocimientos científicos profundos, sino que también han de ser capaces de trabajar codo con codo con expertos en otras disciplinas. Ese carácter implica la superación de diversos tipos de barreras muchas veces no claramente percibidas, como el propio lenguaje científico utilizado en cada disciplina: un concepto aparentemente claro y unívoco puede presentar en realidad distintos matices, en función del uso dado al mismo en las diferentes disciplinas. disciplina académica. Este hecho, que ha demostrado ser adecuado para la formación de científicos e ingenieros, así como para el desarrollo de la investigación en la disciplina correspondiente, ahora ha de ser superado mediante el necesario trabajo conjunto en áreas diferentes, en las que hay que generar determinadas sinergias. De la adecuada resolución de este problema puede derivar el éxito o el fracaso de una iniciativa de desarrollo como la nanotecnología. En lo que se refiere a la evolución de la tecnología en sí, se puede citar a Mihail C. Roco, quien decía: “Yo veo la nanotecnología como una ayuda clave a la capacidad de la industria existente para hacerse más eficiente y competitiva, avanzando el conocimiento y las tecnologías emergentes, y desarrollando productos sin precedentes y procedimientos médicos que no podían ser realizados con los conocimientos e instrumentos existentes.”8 En el año 2003, el propio Roco9 realizó un análisis sobre la evolución tecnológica prevista, en el cual señalaba que, fruto del continuo avance del conocimiento, el desarrollo de la nanotecnología iba a dar lugar a diferentes generaciones de productos a lo largo del tiempo. Esta evolución seguía el siguiente esquema: • Primera generación: nanoestructuras pasivas, aparecidas en el mercado a partir del año 2000, por ejemplo, revestimientos, nanopartículas, metales, cerámicas y polímeros nanoestructurados. • Segunda generación: nanoestructuras activas, que aparecerían en el mercado a partir de 2005, por ejemplo, transistores, amplificadores, medicamentos específicos, estructuras adaptativas, actuadores. 8 Por otra parte está el hecho de que el sistema universitario español ha propiciado la formación y mantenimiento de departamentos que cultivan exclusivamente una rama de una 344 Mihail C. Roco fue el primer coordinador de la National Nanotechnology Initiative de los EEUU. 9 Roco, M. C. “Nanoscale science and engineering: Unifying and transforming tools”. AIChE Journal. Vol. 50 (5). 2004. pp: 890-897. Aplicación de la nanotecnología en construcción: posible evolución • Tercera generación: sistemas de nanosistemas, que aparecerían en el mercado a partir de 2010, por ejemplo, ensamblado molecular guiado, redes tridimensionales, robótica. • Cuarta generación: nanosistemas moleculares, que aparecerían a partir de 2020, por ejemplo, moléculas utilizadas como sistemas o componentes basados en un diseño atomístico, sistemas con capacidad de evolución. Si se pasa revista a estas predicciones, a fecha de hoy se puede constatar que los productos de primera generación ya se encuentran en el mercado y que las empresas dedicadas a su producción, muchas de ellas surgidas como startups de centros de investigación o universidades, tienen un futuro prometedor ante sí. tecnología de carácter absolutamente horizontal, con potencial de transformación de todos los sectores a los que irá afectando y en los que irá tomando formas de evolución diferentes. El informe de la Fundación de la Innovación Bankinter previamente citado (véase nota al pie 5) presenta las áreas en las que la nanotecnología puede tener un mayor impacto, distinguiendo entre países desarrollados y países en vía de desarrollo. En el caso de los países desarrollados, las áreas con un posible mayor impacto son: • Sistemas de liberación de medicamentos dentro del organismo (15%). • Seguimiento del paciente (14%). • Diagnóstico de enfermedades (13%). Respecto de los productos de segunda generación, también hay ejemplos en el mercado, aunque a una escala mucho más reducida, y con un gran potencial de desarrollo por delante. Este tipo de productos se encuentra con diversas barreras para su entrada en el mercado. Una de ellas es la falta de normalización y estandarización al respecto, aunque se están realizando numerosos esfuerzos para paliar esta carencia. La formación del Grupo Específico Temporal AEN/GET 15 Nanotecnologías, en el seno de AENOR, es un claro ejemplo en este sentido. Otro de los aspectos críticos a superar (que, por una parte, guarda relación con el punto anteriormente citado y, por otra, se deriva de la ausencia de referencias de éxito previas, aspecto evidente dada la novedad de los productos) es la adopción por la industria de este tipo de productos. • Energía (13%). • Eliminación de la polución del aire (13%). • Construcción (11%). De forma meramente indicativa, cabe mencionar algunos de los desarrollos sectoriales específicos: • En salud, nuevos implantes (prótesis) con tratamientos superficiales que favorecen la osteointegración, nuevos tipos de medicamentos que solamente actúan en tejidos específicos (donde son necesarios) o nuevas técnicas de diagnóstico. CARÁCTER HORIZONTAL • En transporte, nuevos materiales más ligeros y resistentes. Otra característica aún no mencionada, pero que está implícita en la descripción hasta ahora efectuada, es precisamente la capacidad que tiene la nanotecnología de afectar a casi todos los sectores, no solo industriales, sino también a aquellos relacionados con la salud. En este sentido es una • En el sector espacial, materiales más ligeros y resistentes, con mayor tolerancia al daño y capacidad de autoreparación. • Respecto del medio ambiente, detección de especies químicas en muy bajas cantidades, nuevas técnicas de recu345 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española peración de suelos contaminados, eliminación de agentes contaminantes, tratamiento de agua, etc. • En energía, nuevos sistemas de almacenamiento de energía, cables superconductores, nuevos componentes para sistemas de generación de energía. • En la industria química, nuevos tipos de catalizadores, sistemas de análisis miniaturizados lab-on-a-chip. • Respecto de las tecnologías de la información y la comunicación, nuevos procesadores, con mayor capacidad de cálculo, más rápidos, así como mayor velocidad de transmisión de datos. Como ya se ha mencionado, las posibilidades de retroalimentación entrañan un potencial de desarrollo absolutamente impredecible. de actividades que, se predecía, serían significativas a mediolargo plazo para el sector de la construcción. Las actividades citadas son: • Comprender los fenómenos que ocurren en la nanoescala, en los materiales de construcción. Por ejemplo: la hidratación del cemento y la formación de nanoestructuras, origen de la adherencia, estructura porosa y zona de transición interfacial en el hormigón, mecanismos de degradación y durabilidad, herramientas de diseño basadas en la modelización y la simulación numérica, etc. • La modificación de los materiales en masa tradicionales del sector. Por ejemplo: hormigón, asfalto, plásticos modificados con nanopartículas, aditivos especiales y nuevas técnicas de procesado que permitan la modificación de las nanoestructuras internas, etc. El caso de la construcción se trata en los apartados siguientes. LA NANOTECNOLOGÍA Y LA CONSTRUCCIÓN Respecto del caso concreto de la evolución de la nanotecnología en la construcción, el primer ejercicio destinado a conocer el posible uso que iba a experimentar esta tecnología fue el reflejado en la Hoja de ruta10 elaborada por el Prof. Bartos dentro del Proyecto europeo NANOCONEX11. Como paso previo a su elaboración, en el marco del mencionado proyecto, Zhu, Gibbs y Bartos prepararon un informe sobre el Estado de la Técnica12,13, en el que identificaban una serie 10 Informe NANOCONEX/011 ROADMAP for future developments. 11 Proyecto NANOCONEX, G1MA-CT-2002-04016 (Programa Growth, FP5). 12 Informe NANOCONEX/005 State-of-the-Art Report 2003. 13 W. Zhu, W; Bartos, P.J.M. y Porro, A. “Application of Nanotechnology in Construction - Summary of a State-of-the-art Report”. Mater. Struct. 37. 2004. Páginas: 649-658. 346 • Materiales estructurales de altas prestaciones. Por ejemplo: nanotubos de carbono, nuevas fibras de refuerzo, nanoaleaciones, aceros avanzados, materiales biomiméticos, etc. • Recubrimientos especiales, pinturas y películas delgadas. Por ejemplo: revestimientos resistentes a la intemperie, pinturas duraderas, revestimientos autolimpiables, bactericidas y antigrafitis, películas delgadas inteligentes, etc. • Materiales y componentes multifuncionales. Por ejemplo: aerogeles y materiales aislantes, membranas y filtros eficientes, catalizadores, materiales autorreparables; etc. • Nuevas herramientas, controles y técnicas de producción. Por ejemplo: producción de materiales y estructuras más amistosa con el medio ambiente y con menor demanda de energía, nuevos procesos biomiméticos, sistemas de control más integrados e inteligentes, etc. • Estructuras inteligentes y uso de micro- y nanosensores. Por ejemplo: sistemas nanoelectromecánicos, sensores Aplicación de la nanotecnología en construcción: posible evolución biomiméticos o en pinturas y estructuras y componentes autoactivables, etc. • Sistemas de monitorización y diagnóstico integrados. Por ejemplo: para monitorización de defectos estructurales y de corrosión de armaduras, monitorización de cambios o condiciones ambientales y detección de riesgos para la seguridad o terrorismo, etc. • Sistemas de iluminación de bajo consumo, células de combustible, dispositivos de comunicación y computación. Por ejemplo, células de combustible y fotovoltaicas más eficientes y baratas, sistemas de iluminación basados en LED, dispositivos de comunicación en red y ordenadores rápidos, herramientas de comunicación avanzadas, dispositivos de identificación y seguimiento, etc. Teniendo en cuenta estas actividades, y en función de la forma en que las mismas podrían ser utilizadas para fines industriales concretos, en la Hoja de ruta, que preveía el desarrollo de la nanotecnología en el sector de la construcción a lo largo del periodo comprendido entre 2003 y 2025, quedó reflejada la evolución previsible de estos desarrollos en tres gráficos esquemáticos, caracterizados por contemplar diferentes grados o niveles en la cadena de valor de la construcción, de acuerdo a la siguiente estructura: • Materiales en masa, que presenta la evolución previsible, fundamentalmente siguiendo procesos top-down, de los materiales tradicionales de construcción utilizados en masa y que son más habituales en el sector. • Edificios del futuro, que presenta la evolución sostenible de los edificios. • Nuevos materiales de construcción, que presenta un nuevo tipo de materiales con propiedades completamente nuevas, o que han sido drásticamente modificadas siguiendo procesos bottom-up, con la peculiaridad de incluir una línea específica para desarrollos no previsibles con el conocimiento disponible en aquel momento. Las figuras 1, 2 y 3 muestran estos gráficos esquemáticos. Una particularidad de dichos gráficos es la existencia de interconexiones entre unos desarrollos y otros, de forma tal que unos pueden verse influenciados por la evolución de otros TIMESCALE (years) Present 0 5 10 TIMESCALE (years) 20 25+ self--cleaning glass Bitumens, polymers nanofillers molecular assembly of new polymers Timber modified wood for construction, fast growing defect-free, dense/strong 10 20 self-cleaning glass and bio-active surfaces High performance insulating materials High thermal mass materials Stronger, tougher, lighter and more durable composites Smart materials and components Safety and security Fibre-optic and microchip control systems Photovoltaic surfaces & solar cells - roofs & cladding Destination NANOCONEX ROADMAP: Chart 2 - Buildings of Future NANOCONEX ROADMAP: Chart 1 - Bulk Construction Materials Fuente: Tecnalia. Figura 1. Materiales de construcción en masa 25+ Buildings of Future tougher ceramics 5 Embedded sensors, condition monitoring and diagnostic devices BUILDINGS of TODAY Ceramics, bricks, glass bio-active surfaces 0 Zero or positive energy balance; maximum sustainability of resources; integrated lifespan of materials and components; of resources; integrated lifespan of materials and & components novel, non-traditional binders ductile cements & tougher concrete nano-layers/coatings Present Active nano-coatings Advanced Bulk Materials Concrete low energy cement Negligible/zero/positive environmental impact, sustainable resources, pre-set grading of properties replaced by properties optimised for applications Steel corrosion resistant construction steel Destination Fuente: Tecnalia. Figura 2. Edificios del futuro 347 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española TIMESCALE (years) Present 0 5 10 20 Destination 25+ Bio-mimetic materials Composites with self-adjusting interfaces Smart, materials, shape memory, self-repairing, strain hardening Active nano-coatings Novel, controlled and durable fracture mechanisms Stronger, tougher, lighter and more durable composites Exploitation of nanoparticles, nanotubes, nanofibres Photovoltaic materials Safety and security Novel construction materials EXISTING CONSTRUCTION MATERIALS Construction materials ‘built’ from basic nano-scale basic components. Extreme strength and toughness; no health hazard; acceptable degree of sustainability of resources, environmentally harmless on local/global scale Unforeseen developments? Es más que evidente que, a la luz de las posibilidades bosquejadas en el apartado anterior, las oportunidades que la nanotecnología puede generar en el sector de la construcción, son amplísimas y de muy diversa naturaleza. De una forma genérica, las oportunidades se derivan de la emergencia de propiedades de la materia en la nanoescala, ya mencionada. Estas propiedades nuevas del material pueden constituir una respuesta o solución adecuada a problemas que hasta el momento se consideran irresolubles. debido a la propia complejidad de cada uno de los desarrollos reflejados, que muchas veces pueden adoptar más de una ruta de forma independiente; o que, en otros casos, pueden dar lugar a resultados no previsibles por integración con otros desarrollos. A modo de ejemplo, se puede considerar el caso de uno de estos problemas aún no resueltos, como es el de la formación de microfisuras en el hormigón bajo determinadas condiciones. Su formación supone, entre otras, la posibilidad de facilitar el acceso de determinadas sustancias de carácter agresivo al interior de la masa del elemento estructural, con el consiguiente riesgo de corrosión de las armaduras. La solución de una patología de este tipo entraña la necesidad de detectar el problema y de acceder a la zona a tratar; lo que conlleva, por una parte, un gasto de inspección y, por otra, la intervención en sí. Este documento ha sido objeto de seguimiento recientemente, con motivo de la mesa redonda organizada por la Agencia rusa de nanotecnología, en Moscú, en torno a la posibilidad de lanzar un programa ruso, específico para el desarrollo de las aplicaciones de la nanotecnología en construcción, y que contó con la participación del Profesor Bartos, junto con otros expertos europeos y americanos en este campo14. En la misma se pudo apreciar cómo estos desarrollos estaban siguiendo unas pautas de progreso específicas muy diferentes. Algunos de ellos son ya realidades en el mercado; otros se encuentran aún en desarrollo y, como es lógico, otros se han visto abandonados o tienen una evolución mucho más lenta de lo inicialmente previsto. Pero ¿qué sucede en el caso de estructuras de difícil accesibilidad? Se puede imaginar la dificultad que entraña el caso de las estructuras enterradas, por ejemplo; o el de las estructuras sumergidas. En estos casos es evidente que, si se dispusiese de un hormigón con capacidad de autosellado de estas microfisuras, el problema quedaría resuelto. Se impediría, por una parte, la progresión de la fisura; y por otra, el acceso a la masa de hormigón de posibles agentes agresivos. Evidentemente, este caso supone una oportunidad, cuya adecuada respuesta puede suponer una gran ventaja competitiva para la empresa que sea capaz de poner en el mercado un producto de estas características, al ser la única que ofrecería al mercado ese producto. NANOCONEX ROADMAP: Chart 3 - NOVEL MATERIALS Fuente: Tecnalia. Figura 3. Nuevos materiales de construcción 14 348 OPORTUNIDADES Y VENTAJAS COMPETITIVAS Entre ellos, el autor de este artículo. Por supuesto que a esa empresa le surgirá competencia, pero si dispone de una adecuada protección de la propiedad Aplicación de la nanotecnología en construcción: posible evolución industrial, gozará de una excelente posición. Si además tenemos en cuenta que este tipo de desarrollos no son fácilmente imitables, la empresa dispondría de un tiempo considerable hasta la aparición de los primeros competidores, tiempo que podría aprovechar para mejorar su producto, manteniendo su posición de ventaja en el mercado. Este es precisamente el caso del trabajo realizado por Erkizia y col.15, que han desarrollado un sistema que, ante la formación de una microfisura, desencadena de forma autónoma todo un mecanismo complejo de liberación de una sustancia que mediante reacciones químicas une los labios de la fisura y rellena su interior, taponando el acceso de sustancias provenientes del exterior. De esta forma se impide tanto la progresión de la fisura como el acceso de agentes agresivos, todo ello realizado sin intervención externa alguna. Otra de las áreas en desarrollo que va a dar lugar a numerosas oportunidades, es la dedicada al estudio de la formación y agregación de las unidades constitutivas básicas de la matriz cementicia. Hoy en día es posible explicar numéricamente el modelo de Jennings de formación de gel C-S-H de alta o baja densidad, en función de una sola unidad constitutiva básica16, o la descripción numérica de la formación de las capas interna y externa del gel C-S-H formado en torno a las partículas de clinker al hidratarse las mismas. Tras conocer la explicación de la formación de estas estructuras, se abre la oportunidad de controlar la formación de especies con mejores propiedades mecánicas, mediante un control de los procesos de autoensamblado de estas estructuras. De la misma forma, se abre la posibilidad de controlar la durabilidad de estas matrices, lo que redundaría en una vida en servicio más larga. 15 16 PRIMERAS APLICACIONES EN DESARROLLO Hasta el momento son relativamente pocas las aplicaciones o desarrollos basados en la nanotecnología que se encuentran en el mercado. En su mayoría corresponden nanopartículas o nanoestructuras que pueden ser utilizadas como materia prima para elaborar productos con propiedades “especiales”. Hoy en día es posible encontrar suministradores: • Nanoestructuras derivadas del carbono: — Nanotubos de carbono monocapa (single-wall CNT). — Nanotubos de carbono multicapa (multi-wall CNT). — Grafenos. — Nanohorns, etc. • Nanopartículas de óxidos metálicos o cerámicos: — Óxido de titanio. — Óxido de sílice. — Óxido de aluminio. — Óxido de circonio, etc. En el caso de los nanotubos de carbono, hay varias técnicas de producción posibles. En función de la técnica elegida, o del tratamiento posterior de purificación de los mismos, el suministro puede contener residuos carbonosos o bien restos de los catalizadores utilizados. También hay que tener en cuenta la posible presencia de defectos en las paredes de los nanotubos, que pueden dar lugar a la curvatura de los mismos y que, consecuentemente, supondrán una modificación de sus propiedades. Solicitud de patente: PCT/ES2010/000419. González-Teresa, R. et al. “Structural models of randomly packed Tobermorite-like spherical particles: A simple computational approach”. Materiales de Construcción, Vol. 60, 298. 2010. pp: 7-15. Algunas de las empresas que comercializan nanotubos de carbono los suministran ya funcionalizados, es decir, incorporando determinados grupos químicos funcionales que 349 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española persiguen objetivos muy diferentes, como es el de mantenerlos sin que se aglomeren entre sí (tienden a formar estructuras conocidas como bundles o ropes, que son complicadas de romper). El otro posible objetivo perseguido con la funcionalización es la de hacer posible la unión química con otro tipo de estructuras. Incluso en el caso de los nanotubos de carbono monocapa, las propiedades que presentan pueden ser diferentes. Así, hay nanotubos que desde el punto de vista eléctrico se comportan como superconductores, o bien como semiconductores, en función de la dirección del vector de quiralidad. En lo que se refiere a las nanopartículas de óxidos, normalmente se comercializan como sólido pulverulento, pero también es posible encontrarlas como dispersión acuosa. En estos casos las partículas se caracterizan, además de por su estructura cristalográfica o su pureza, por el tamaño de la partícula en sí. Este es muy variable, siendo posible encontrar tamaños que van de unos 5 nm a la veintena o más. Pero hay que tener en cuenta que el tamaño “real” puede ser muy superior al indicado ya que, como respuesta a la elevada reactividad que las caracteriza, las nanopartículas tienden a aglomerarse, siendo esta aglomeración una forma de “estabilización natural” de las mismas. De esta forma es muy posible que se encuentren en el mercado unas nanopartículas que, teniendo un tamaño de 25 nm por ejemplo, presenten en realidad un tamaño de grano del orden de 100 a 150 nm. Como es evidente, esto puede ser un inconveniente de cara a su utilización en determinados casos, máxime cuando la rotura de esos aglomerados puede ser complicada o de difícil mantenimiento una vez que cese la acción que consigue su dispersión. En lo que se refiere a productos nanoestructurados, los que han ido apareciendo en el mercado corresponden a la primera generación, según el esquema de Roco presentado en el apartado “Evolución de la tecnología” de este capítulo. Los primeros productos que aparecieron en el mercado provenían del campo de la cosmética, que añadía determinados 350 tipos de nanopartículas para conseguir, por ejemplo, filtros o protectores solares. Volviendo a las aplicaciones al sector de la construcción, a este grupo de productos pertenece toda una gama de recubrimientos que van desde los de fácil limpieza, a los autolimpiables, o con propiedades bactericidas. Se basan en las propiedades fotocatalíticas que tienen tanto las nanopartículas de dióxido de titanio (TiO2) en forma anatasa, como las de óxido de zinc, o incluso las de algún otro tipo de óxido. Este tipo de propiedades son el resultado de una combinación de propiedades superficiales, junto con las derivadas de la capacidad fotocatalítica de las partículas, que en presencia de agua y por efecto de la luz solar, conducen a la formación tanto de especies radicales como de superficies saturadas de iones hidroxilo. En esta situación, la materia grasa que tiende a fijar la suciedad sobre la superficie, es eliminada y arrastrada por el agua de lluvia, dando lugar al efecto de autolimpieza, también conocido como el “efecto flor de loto”. Si la actividad fotocatalítica es muy elevada, puede llegar a producirse una eliminación de compuestos contaminantes, lo que da lugar a otro tipo de aplicaciones de gran interés. Los primeros desarrollos al respecto fueron los vidrios desarrollados por separado tanto por Saint Gobain, como por Pilkington, que disponen de una superficie de TiO2 sobre el vidrio, de un espesor tal que permite el paso de la luz y no distorsiona la visión a través del vidrio. Esta aplicación tiene un indudable interés en un momento en el que los arquitectos demuestran una especial predilección por la construcción de edificios con “piel” de vidrio, que suponen una elevada superficie que mantener limpia. EVOLUCIÓN PREVISIBLE A CORTO Y MEDIO PLAZO La evolución de la nanotecnología en el sector de la construcción, a corto y medio plazo, va a estar condicionada, como es lógico, por las características propias del sector y por las tendencias que marcan su evolución. En primer Aplicación de la nanotecnología en construcción: posible evolución lugar hay que tener en cuenta que este sector es un gran integrador de tecnologías, tanto las propias (fundamentalmente las de los materiales, estructurales o no), como las provenientes de otros sectores (energía, información y comunicación, iluminación, etc.), que busca la integración de los desarrollos específicos, basados en la nanotecnología, con otros desarrollos convencionales. En segundo lugar hay que tener en cuenta que el sector de la construcción evoluciona hacia posiciones de mayor sostenibilidad de sus procesos y materiales. Esto supone una mayor presión sobre el uso de recursos naturales, una mayor vida en servicio de las estructuras y un claro interés por potenciar la eficiencia energética de los edificios, aspecto este que reviste especial importancia en los procesos de su rehabilitación. Por otra parte, la creación de las plataformas tecnológicas de la construcción, tanto en la Unión Europea, como en distintos países, es una señal del interés y preocupación crecientes de los agentes del sector por el desarrollo de políticas de I+D y de promoción de la innovación como formas de mejora de su posición competitiva. • Hormigones de mayor durabilidad frente a procesos de lixiviación de calcio, o de corrosión de armaduras. En esta situación, es de esperar que haya grandes avances tanto en el desarrollo de materiales estructurales como en el de materiales y productos destinados al logro de una mayor eficiencia energética de los edificios. En concreto, en el caso de los materiales estructurales se podrían ver en el mercado: • Instalaciones de aire acondicionado con capacidad para evitar problemas de contaminación por bacterias. • Componentes de hormigón armado más ligeros, pero con la misma capacidad portante que otros de mayor masa. • Aumento del uso de materiales compuestos, que presentan un mejor comportamiento frente al fuego. • Materiales con mayor tolerancia al daño. • Sistemas estructurales capaces de suministrar información sobre su estado tensional. Entre los materiales no estructurales, se verán aparecer: • Materiales de alto poder aislante, bajo peso y de fácil instalación. • Sistemas de iluminación de muy bajo consumo. • Integración de la generación de energía en edificios y barrios, que reduzca las necesidades de suministro de la red. Estos desarrollos serán posibles por la continuación del esfuerzo que están realizando las grandes compañías suministradoras de materiales de construcción, pero sin perder de vista que irán apareciendo pequeñas y medianas empresas dedicadas a la producción de nanomateriales, nanoestructuras y productos “de nicho” con un alto contenido en tecnología. Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo JOSÉ IGNACIO ULÍZAR ÁLVAREZ (Vitoria, 1968) Director de Ingeniería y Tecnología de ITP (Industria de Turbopropulsores) Ingeniero Aeronáutico. Máster en Mechanical Engineering. PhD Mechanical Engineering. Se inició como Research Assistant en el Cranfield Institute of Technology, incorporándose en 1994 a ITP (Industria de Turbopropulsores), primero como Ingeniero de prestaciones de motor, para, posteriormente ser Responsable de aerodinámica, Jefe del departamento de aerodinámica y sistemas, Ingeniero jefe de I+D y Director de Tecnología. Actualmente, sigue siendo el Responsable de Ingeniería y Tecnología del grupo ITP. Ha sido Vicepresidente de Cycle Innovations Committee International Gas Turbine Institute (American Society of Mechanical Engineering), Presidente de Cycle Innovations Committee International Gas Turbine Institute (American Society of Mechanical Engineering) y Representante español en el European Turbomachinery Committee (ETC). En la actualidad es el Representante español en la International Society of Air Breathing Enginges (ISABE). Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo José Ignacio Ulízar Álvarez INTRODUCCIÓN La empresa ITP fue fundada en el año 1989 por SENER, el INI y Rolls Royce, gracias tanto a la ambición empresarial española como al impulso del programa EFA, en el seno del cual, y por primera vez en la historia, España se embarcaba en el diseño y desarrollo de un avión y un motor completamente nuevos junto con otros socios europeos de Alemania, Italia y Reino Unido. Si bien este hecho es clave para la rama que, dentro de la industria aeronáutica, representan las aeronaves, es aún más relevante para la del motor, ya que rompe un largo periodo de varias décadas durante el que la industria no había realizado ningún desarrollo en el campo de la propulsión. Es más, desde el último diseño y desarrollo industriales en España, se había pasado de los motores alternativos a las turbinas de gas, ya que el turborreactor denominado oficialmente INI-11, más conocido como Aries, que se diseñó 35 años antes de la fundación de ITP, no pasó del banco de pruebas, constituyendo el primer y último intento de desarrollo de una turbina de gas española. En este entorno, donde el desarrollo de la tecnología aeronáutica en España era un reto titánico, no únicamente por la dificultad intrínseca del sector, sino por la ausencia tanto de tejido industrial especializado como de núcleos estables de investigación y de centros tecnológicos, es donde ITP se marcó el reto de entrar en el sector de las turbinas de gas civiles. También hay que mencionar que no todo eran dificultades, ya que la última década del siglo XX fue una época muy proclive a las alianzas y colaboraciones internacionales, lo que facilitó la consecución exitosa de la aventura. La aeronáutica tiene, al igual que ocurre con otros sectores, algunas particularidades que marcan su ritmo vital y por tanto sus necesidades. Algunas de las más relevantes serían: • Elevado nivel de seguridad requerido. • Altos niveles de inversión de capital (por ejemplo, el desarrollo de un nuevo avión de doble pasillo tiene un coste de más de 10.000 millones de euros y, en el caso de un 355 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española nuevo motor, supone más de 1.000 millones de euros y más de cinco años de esfuerzo). • Requisitos medioambientales severos, tanto en CO2 y NOx, como en ruido. • Demanda tecnológica muy exigente (los componentes aeronáuticos están sometidos a temperaturas superiores a las de fusión de los materiales, esfuerzos cercanos a los de ruptura, etc.). • Elevado nivel de competitividad, en todos los casos, entre un grupo reducido de empresas. • Largo plazo de los programas, tanto para el diseño/desarrollo como para la producción y el soporte en servicio. En muchos casos la duración completa es de más de treinta años, con un plazo de recuperación de la inversión de entre quince y veinte años. Todo esto hace que las industrias aeronáuticas de primer nivel sean empresas de gran tamaño, globalizadas, con una historia en muchos casos centenaria y, por tanto, con una sólida reputación. En el sector de la propulsión hay una división entre empresas: las que tienen capacidad de integrar un motor completo, y que son las dueñas del Certificado de Tipo del motor; las que tienen capacidad de suministrar módulos completos, conocidas como Tier 1; y, finalmente, las que suministran componentes. De las primeras, las principales compañías son General Electric, Pratt & Whitney y Rolls Royce. A estas hay que sumarles otras dos, que son Safrane (Snecma y Turbomeca) y Honeywell. Al segundo grupo, en el que competiría ITP, pertenecen la alemana MTU, la italiana Avio, la sueca Volvo Aero, la belga Techspace Aero y las japonesas IHI y MHI. El tercer grupo es bastante más numeroso y no se entrará en detalles aquí, aunque sí hay que recalcar que es un eslabón esencial, puesto que, en general, son las empresas suministradoras del grupo anterior. 356 Para elegir el modo de participación hay que tener en cuenta varios aspectos claves, cuya elección va a determinar el futuro tecnológico e industrial. Los más relevantes son: • Ser suministrador de módulo, como el fan, el compresor, la turbina, etc., frente a ser suministrador de piezas. Claramente, ser una empresa capaz de suministrar un módulo completo tiene ventajas; pero llegar a esa posición es una tarea costosa en todos los aspectos que se han mencionado anteriormente. • Ser socio de riesgo—beneficio durante la vida del programa frente a ser suministrador estratégico. De forma análoga al caso anterior, ser socio de riesgo—beneficio en un programa proporciona una estabilidad que no se consigue en el caso de ser suministrador estratégico. Pero, por el contrario, la inversión, la dificultad de participar en aplicaciones competidoras entre sí y el riesgo son mayores. Ante estas decisiones, ITP optó por la estrategia de ser un suministrador de módulo y socio de riesgo—beneficio en los programas. Finalmente, quedan dos aspectos no menos importantes y que están íntimamente relacionados entre sí, que son el módulo y el cliente. A la hora de elegir el módulo, una empresa como ITP, que estaba en aquellos momentos dando sus primeros pasos, debía concentrarse en un módulo que el integrador de motor percibiera como clave, de forma que ese socio le diera valor añadido, pero no tan crítico como para que nunca quisiera o pudiera desprenderse de él. También había que intentar que el módulo elegido pudiera desarrollarse para más de un integrador de motor, ya que eso permitiría maximizar las sinergias en el desarrollo de tecnologías, tanto básicas como aplicadas; si bien esta no es una tarea simple, puesto que la competencia entre las grandes compañías hace difícil que una tercera desarrolle un mismo módulo para dos o más de ellas. Con todos estos requisitos, la decisión se inclinó hacia la turbina de baja presión, o TBP. La figura 1 muestra la TBP en una Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo turbina de gas que propulsa a un avión de doble pasillo, y la figura 2 es la primera TBP para el Trent 900, que propulsa al Airbus A380. EL MERCADO AERONÁUTICO: APUNTES BREVES Si hay peculiaridades destacables en el ámbito del negocio que distinguen al sector aeronáutico de otros, estas son el ciclo de vida de los proyectos, con una duración típica de más de cuarenta años; y la necesidad intensiva de capital, con unos costes de desarrollo superiores a los 10.000 millones de euros para un nuevo avión y motor. Con estos condicionantes, el número de desarrollos que se realizan es, obviamente, muy limitado, y tanto el capital como la tecnología suponen una enorme barrera de entrada frente a competidores. Sin pretender mostrar un estudio exhaustivo, se darán a continuación unas breves pinceladas del mercado civil aeronáutico. Figura 1. TBP en una turbina de gas Figura 2. Primera TBP para el Trent 900 En lo que se refiere a segmentación, el mercado se divide tradicionalmente en tres grandes grupos: aviación de negocios y regional, segmento medio o monopasillo, y aviones de fuselaje ancho o de doble pasillo. La figura 3 muestra el mercado global en función de la capacidad de la aeronave en número de asientos y del alcance de la misma. Se puede apreciar un segmento de aeronaves de gran tamaño y con un gran alcance, donde se encuentran compitiendo actualmente los dos grandes fabricantes mundiales, Airbus y Boeing, con modelos como los Airbus A340 y A380 (y en unos pocos años, el A350) o los Boeing 747, 767 o 777 (y en un futuro próximo, el 787). En lo que se refiere a la propulsión de estos aviones de doble pasillo, compiten los tres fabricantes de motor, General Electric, Pratt & Whitney y Rolls Royce, si bien en los últimos años General Electric y Rolls Royce han ido ganando cuota de mercado. El segmento medio, donde también compiten hoy en día Boeing y Airbus, cada uno con su familia de aviones, el Boeing 737 y el Airbus A320, con varios modelos cada uno de ellos (la familia del A320, por ejemplo, está compuesta por 318, 319, 320 y 321). En este segmento hay fundamentalmente dos competidores: CFM, que es una alianza entre General Electric y Snecma, con el CFM56; y el consorcio 357 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española IAE, compuesto por Pratt & Whitney, Rolls Royce, Japanese Aero Corporation y MTU, con el V2500. medio, todavía hoy los de doble pasillo representan un mayor valor económico: un 60%, frente al 40% de los aviones monopasillo (Rolls Royce. Market Outlook. 2009). EL SECTOR DE LA PROPULSIÓN: LAS TURBINAS DE GAS Introducción Desde hace décadas, las turbinas de gas son el método de propulsión para las aeronaves, desde las de negocio y regionales, hasta las de doble pasillo y de transporte de mercancías. En resumen, excepto los motores de la conocida como aviación general (general aviation) que siguen siendo motores alternativos, el resto del sector aeronáutico se propulsa con turbinas de gas, incluidos los turbohélices de la aviación regional de menor tamaño. Figura 3. Segmentación del mercado En estos dos grandes segmentos, un cambio fundamental respecto a la situación que había hace algún tiempo es la desaparición de empresas, como por ejemplo McDonnell Douglas, en su día líder en el segmento medio y adquirida por Boeing; esto ha hecho que, por el momento, Airbus y Boeing hayan quedado como únicos grandes competidores, con un reparto bastante equilibrado del mercado. Centrando el análisis en los segmentos medio y de doble pasillo, la perspectiva a principios de los noventa, cuando ITP afrontaba la decisión estratégica de futuro, era clara: en número de unidades, la expectativa para las dos siguientes décadas era de una cuota de mercado de aproximadamente el 50% para cada uno, si bien cuando se va al valor económico de ambos grupos, el de los aviones de doble pasillo representa aproximadamente el 75% frente a un 25% para el monopasillo (McDonnell Douglas. Outlook for Commercial Aircraft. 1991-2010). Aunque durante las dos últimas décadas ha habido cambios en las previsiones a futuro del mercado, con un aumento relativo de los aviones del segmento 358 Las turbinas de gas son, desde el punto de vista termodinámico, un ciclo de Brayton, donde tienen lugar los siguientes procesos: • El aire de entrada se comprime en uno o más compresores axiales o, para el caso de los motores pequeños, de tipo centrífugo en las últimas fases de la compresión. • Se mezcla el combustible con el aire y se quema la mezcla en la cámara de combustión, aumentando la temperatura. • Los gases procedentes de la combustión, que se encuentran a alta presión, se expanden en las turbinas que, con la potencia generada a través de esa expansión, mueven los compresores; con la energía restante, esos gases propulsan la aeronave. Para los turbofanes, que son los sistemas propulsores usados en la inmensa mayoría de los aviones hoy en día, la diferencia fundamental radica en que, tras la primera fase de compresión, una parte muy sustancial del aire no continúa dicho proceso Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo de compresión y posterior combustión y expansión, sino que se usa directamente para propulsar. La relación entre la cantidad de aire que se usa directamente para propulsar y la que sigue el proceso completo del ciclo de Brayton se denomina relación de derivación y, como se verá más adelante, es uno de los parámetros claves. Esta primera etapa de la compresión la desarrolla el fan o ventilador, movido por la turbina de baja, que es el módulo que diseña, desarrolla y fabrica ITP para los aviones de doble pasillo, además de algún otro caso. Principales factores de impulso en el desarrollo de la tecnología de las turbinas de gas Cuando se analizan las necesidades tecnológicas y se plantea cómo serán las turbinas de gas del futuro, es necesario analizar primero qué factores impulsan hoy esas necesidades. • En primer lugar hay que situar siempre todos los aspectos relacionados con la seguridad en la operación. Este es un denominador común en el sector aeronáutico y, por supuesto, en el de la propulsión. • En segundo lugar están los requisitos medioambientales: dióxido de carbono, óxidos de nitrógeno y emisiones acústicas en las diferentes maniobras. • En tercer lugar están los aspectos económicos y de la calidad: costes de adquisición, mantenimiento y operación, fiabilidad, etc. Estos requisitos fueron definidos para todo el sector aeronáutico por el Advisory Council for Aeronautics Research in Europe (ACARE) en el European Aeronautics: A vision for 2020. En particular para el sector industrial aeronáutico, los objetivos fueron: • Reducción del índice de accidentes en un 80%. • Reducción del CO2 en un 50%. • Reducción de los NOx en un 80%. • Reducción del ruido a la mitad. • Disminución del impacto de la actividad industrial en el medio ambiente. Si se centra la evaluación en los aspectos tanto medioambientales como económicos, la primera conclusión a la que se llega es que, para los grandes aviones, el consumo es el aspecto fundamental. La razón es clara: los motores operan durante más de quince años a razón de cinco mil horas al año. Para tener una idea de cuánto significa el consumo, en un avión de doble pasillo una ventaja de un 1% es equivalente a más de un millón de euros por aeronave solamente en combustible, y una cifra entre dos y tres veces mayor en carga de pago. Por tanto, para cada avión, conseguir una mejora de un 1% conlleva una mejora de entre tres y cuatro millones de euros. Si esto se multiplica por el número de unidades de la totalidad de una flota, resulta en una cifra de miles de millones de euros. Con los cambios recientes en legislación, a esto habría que añadir el impacto en tasas por emisiones de dióxido de carbono, que harán todavía más atractivas las mejoras en consumo. Para el caso de los óxidos de nitrógeno la situación es más compleja, puesto que el objetivo de reducción entra en conflicto con la reducción de dióxido de carbono: uno de los mecanismos para aumentar la eficiencia es elevar la temperatura de combustión, pero este aumento genera mayor cantidad de óxidos de nitrógeno. Para compensarlo hay que evitar que existan zonas localizadas de alta temperatura. El ruido tiene también gran relevancia. La legislación, tanto global como local (no ya de diferentes países, sino incluso de diferentes aeropuertos), hace que se tenga que prestar una atención especial a este aspecto. La importancia puede ser clave, ya que en algunos casos no se trata de compensaciones 359 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española económicas en caso de mayores niveles de ruido, sino de la prohibición de operar en ciertos aeropuertos o en ciertas franjas horarias. Por tanto, no basta únicamente con cumplir con los requisitos actuales, sino que, dado que la aeronave operará previsiblemente durante más de dos décadas, hay que tratar de asegurarse de que se satisfarán las restricciones futuras. El ruido de aeronave se mide en tres maniobras en el entorno del aeropuerto: cut back, sideline y approach, y las medidas se corrigen por diferentes efectos, como el ruido de tonos o la frecuencia, para tener en cuenta de la manera más real posible el efecto en el ser humano. En todas ellas, pero especialmente en las dos primeras, el motor tiene una contribución clave. Es por esto por lo que, en algunas de las turbinas de gas recientes, se han penalizado ligeramente atributos considerados antes como intocables, como son el peso o el consumo, para asegurar un funcionamiento lo más silencioso posible. Figura 4. Aumento en la relación de derivación Estos desarrollos tecnológicos se han traducido en mejoras significativas, tanto en consumo como en ruido, situándonos en valores cercanos a los objetivos del ACARE 2020, aunque todavía sin alcanzarlos, como se muestra en las figuras 5 y 6. Salto tecnológico de la turbina de gas en las dos últimas décadas Con las necesidades impuestas por los requisitos del apartado anterior, las turbinas de gas han evolucionado de forma sustancial: • Aumento en la relación de derivación o, lo que es lo mismo, mayor tamaño del fan o ventilador de entrada en relación con el tamaño del núcleo, tal y como se aprecia en la figura 4. Figura 5. Reducción de consumo • Aumento de la temperatura de entrada a la turbina de alta, con valores actualmente cercanos a los 1.700 ºC, muy superiores a las temperaturas de fusión de los metales que se encuentran en los álabes y otras piezas, lo que hace necesaria una refrigeración extensiva. • Aumento de la relación de compresión, con valores superiores a 40:1. 360 La turbina de baja presión y su relevancia dentro de la planta propulsora Anteriormente se ha descrito brevemente el trabajo de la TBP dentro del ciclo completo, que no es otro que extraer de forma eficiente trabajo de los gases que pasan a través de la Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo • Las pérdidas aerodinámicas son inferiores al 8% o, lo que es lo mismo, tiene un rendimiento superior al 92%. • Las tolerancias de fabricación son, en la mayoría de los casos, de centésimas de milímetro, para piezas cuyo tamaño puede ser superior a un metro. En este entorno hay que ser capaces de desarrollar unas tecnologías de materiales, aerodinámicas, aeroacústicas, de procesos de fabricación, cálculo de vida, etc., cada vez mejores que vayan proporcionando avances en todos los aspectos claves. Figura 6. Reducción de ruido misma para mover el fan o ventilador de entrada, además de dejar el flujo de salida en las mejores condiciones para proporcionar empuje al avión. Para entender el reto de la tecnología en la TBP dentro de los motores que propulsan a los aviones de doble pasillo, merece la pena dar unas pinceladas que harán comprender fácilmente la dificultad intrínseca a la que se enfrenta la actividad de I+D. • La TBP está sometida a una temperatura de entrada superior a 1.000 ºC, cercana o superior a la de fusión de la mayoría de las aleaciones metálicas. • Cada uno de los álabes, además de estar sometido a altas temperaturas, soporta una fuerza centrífuga de varias toneladas y extrae una potencia superior a los 100 CV. Resulta fácil calcular, por tanto, que una turbina de baja de un motor de los que aquí se tratan, proporciona una potencia superior a los 50.000 CV, o lo que es lo mismo, energía suficiente como para abastecer de electricidad a una ciudad pequeña. • Tiene un requisito de vida superior a las diez mil de horas de funcionamiento. El papel de la turbina de baja presión y su evolución en las dos últimas décadas Remontándonos veinte años atrás, si bien el papel de la turbina de baja presión era relevante en el conjunto de la turbina de gas, este no era comparable al que juega en la actualidad. Desde un punto de vista global, la turbina de baja representaba, en relación a la planta propulsora: • Aproximadamente un 15% del peso. • En torno a un 12% del coste. • Un impacto en el consumo de 0,5—0,6% por cada punto de rendimiento de turbina. • Peso relevante en el ruido de la maniobra de aproximación. Cuando se analiza la situación actual, en unas turbinas de gas con relaciones de derivación superiores a 10:1, o lo que es lo mismo, con un aumento del 100% frente a las que había hace dos décadas, con unas temperaturas de 1.700 ºC y unas relaciones de compresión de 45:1, la turbina de gas representa, frente a la planta propulsora: • En torno al 25% del peso. 361 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española • Aproximadamente un 20% del coste. • Impacto en consumo de 0,7-0,8% por cada punto de rendimiento de turbina. • Peso relevante en el ruido de la maniobra de aproximación, con frecuencias más dañina para el oído humano. como se ve en la figura 7, y abarca prácticamente a todas las fases del ciclo de vida del producto, que se describe en la figura 8. Este nivel de compromiso con la I+D se ha venido sosteniendo durante décadas y, como resultado, se han visto avances más que notables en todos los aspectos centrales: fiabilidad, consumo, ruido, etc. (véase la figura 9). Es claro que la TBP es uno de los subsistemas más importantes de la turbina de gas y, por tanto, los desarrollos tecnológicos que redunden en mejoras de este módulo tendrán un impacto directo en la planta propulsora y en la aeronave en su conjunto. INVERSIÓN EN I+D COMO ELEMENTO IMPULSOR CLAVE Introducción Se ha venido remarcando en apartados anteriores que una de las características claves del sector de la propulsión aeronáutica es su elevado nivel de inversión en I+D. Este es claramente superior al de la media global en la industria, tal y Figura 8. Ciclo de vida del producto Figura 9. Avances tecnológicos Figura 7. Inversión en I+D de ITP 362 Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo El entorno del apoyo a la I+D frente a los competidores europeos Es de sobra conocido que el nivel global de inversión en I+D en España es claramente inferior al de otros países de la Unión Europea o al de Estados Unidos o Japón. Este hecho, que de por sí es preocupante a nivel macroeconómico, lo es aún más en sectores como el aeronáutico, donde, como se ha mencionado anteriormente, el mercado está globalizado (este aspecto se tratará en detalle más adelante). Si se analiza el entorno de países como Alemania, Francia o Reino Unido, es fácil percatarse de que en todos ellos hay una política activa y permanente de apoyo público a los sectores más intensivos en I+D. Esto hace que universidades, centros tecnológicos y empresas que disponen de este marco estable, sean capaces de dar pasos sostenidos hacia una diferenciación tecnológica. En España se han ido dando los primeros pasos y, poco a poco, se ha producido una concienciación a todos los niveles sobre la importancia capital de la I+D. Pero todavía queda mucho camino por recorrer, y es clave avanzar rápido, ya que, en caso contrario, las empresas estarán en una desventaja insalvable frente a sus competidoras, que partiendo de un nivel tecnológico superior y teniendo mayor volumen, y por tanto más facilidades para las sinergias, siguen avanzando con paso firme. figura 10. Esta ha venido siendo de forma sistemática una de las líneas prioritarias en el ámbito de los programas marco. Los proyectos, siempre plurianuales y de un volumen económico ajustado al objetivo y al nivel de madurez que se persigue, aglutinan a empresas que en el marco comercial son, en muchos casos, competidoras pero que, en el seno de un PM son capaces de colaborar; aun protegiendo, obviamente, los intereses individuales y la propiedad intelectual de cada empresa. Además, ha permitido que, poco a poco, los centros colaboradores también participen como socios en proyectos, haciéndose un hueco entre sus homólogos europeos. Reducción CO2 / NOx / ruido Aerodinámica/ aeroacústica EEFAE-ANTLE FP5 VITAL FP6 DREAM FP7 ICAS-GT1 FP4 ICAS-GT2 FP5 ICAS-GT2 FP5 AITEB FP5 UTAT FP5 MAGPI FP6 AIDA FP6 TATEF2 FP6 COJEN FP6 TATMO FP6 FUTURE FP7 ERICKA FP7 FACTOR FP7 Reducción ruido SILENCER FP5 OPENAIR FP7 TURBONOISE FP7 Materiales RAMGT FP5 OTISPRAY FP5 DOLSIG FP6 PREMECCY FP6 ACCENT FP7 Tecnología mecánica ADTURB FP4 ADTURBII FP5 ELUBSYS FP7 Tecnología fabricación MMSFC FP6 MANHIRP FP5 FANTASIA FP6 VERDI FP6 MERLIN FP7 Virtual enterprise VIVACE FP6 Figura 10. Proyectos de I+D de los programas marco de la UE en los que ITP ha participado Los proyectos de I+D de los programas marco europeos Inversión sostenida en I+D como elemento clave en el desarrollo de tecnología Desde hace casi dos décadas los programas marco europeos (PM) (ITP se incorporó al tercer PM, y en la actualidad está en vigor el séptimo) no son únicamente una fuente de clave de financiación, sino fundamentalmente un entorno de colaboración estable entre empresas y centros tecnológicos, clave para el desarrollo, la vertebración y la organización del impulso tecnológico en Europa. Durante los últimos doce años, y con el objetivo de dar un salto cualitativo desde la posición en la que se encontraba a principios de la década de los noventa, ITP ha realizado inversiones en I+D superiores a los 1.000 millones de euros, según muestra la figura 11; de estos, más de un 15% ha sido invertido en tecnologías básicas precompetitivas, como se puede apreciar en la gráfica de la figura 12. Durante los últimos años, ITP ha participado en múltiples proyectos del área aeronáutica, tal y como se muestra en la Esto ha situado a ITP, de forma permanente a lo largo de los últimos años, entre las cinco empresas con mayor inversión 363 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española aviones de doble pasillo. El siguiente paso es ampliar este liderazgo a otros mercados, como el de los aviones regionales y de negocios o el segmento del monopasillo. Figura 11. Evolución de la inversión de ITP en I+D en el conjunto de la industria española, siendo la primera empresa industrial en términos de I+D sobre ventas. Pero aún más importante: también se ha situado en cabeza frente a sus homólogas del sector aeronáutico a nivel mundial, tal y como se muestra en la figura 13. Cuando la comparamos con sus competidores más directos, se aprecia que su inversión es en torno a tres veces superior. Este más que notable esfuerzo se traduce en que, con la cartera de pedidos derivada de los motores que se han desarrollado gracias a la actividad de investigación y desarrollo, ITP tendrá en los próximos años un 50% del mercado mundial de turbinas de baja en los I+D en programas (85%) Colaboración con universidades y centros tecnológicos: un aspecto clave en el desarrollo de la tecnología En el proceso estructurado de desarrollo de tecnología, esquematizado en la figura 14, cuando se analizan los niveles de madurez (conocidos como Technology Readiness Levels o TRL) Tecnologías básicas (15%) Figura 12. Distribución de la inversión en I+D 364 Figura 13. Inversión en I+D de las empresas aeronáuticas Figura 14. Niveles de madurez de las tecnologías Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo inferiores (niveles 1 a 3-4), la conclusión es que no resulta viable realizar esta actividad en la empresa. Es aquí donde entran en juego de forma activa tanto las universidades como los centros tecnológicos, siempre en coordinación con la visión de las necesidades de los productos que proporciona la empresa. Cuando ITP analizó esta realidad en el entorno aeronáutico y, en particular, en el sector de la propulsión, la conclusión no fue diferente. Sin embargo, se encontró con un reto muy relevante: la actividad en torno a las turbinas de gas, tanto la universitaria como en los centros tecnológicos, era prácticamente inexistente. Ese vacío industrial de décadas en España, como no podía ser de otra manera, había calado en el entorno docente e investigador. Esta realidad era aún más impactante cuando se comparaba con los países de los socios o clientes. Sin tener que cruzar el Atlántico, países como Alemania, Francia o Reino Unido contaban con una red local de universidades y centros tecnológicos de gran tradición, con unos medios envidiables y con un soporte público incuestionable, lo que había redundado y, por supuesto, sigue redundando, en una gran calidad en sus resultados. Por lo que respecta al segundo aspecto, el desarrollo de centros a nivel local, se vio que era prácticamente imposible en un marco temporal de corto plazo. Por tanto, la estrategia seguida fue la de tener, primero, alianzas tácticas con universidades y centros europeos y, en paralelo, ir impulsando el desarrollo o, en algunos casos, la creación, de centros tecnológicos. Si bien esta ha sido la tendencia general, hay que mencionar que en algunos casos, como por ejemplo el de métodos computacionales y algunos otros, el desarrollo comenzó directamente en los centros locales. Así, durante los últimos años de la década de los noventa y, principalmente, los primeros años de este siglo, se ha dado un impulso muy importante a los centros españoles identificados como claves y, durante los últimos años, se ha empezado a recoger el fruto de todo ese esfuerzo, si bien la situación económica reciente, con la consiguiente dificultad de financiación, está haciendo peligrar este sistema. El modelo que se ha seguido en la relación es el de establecer marcos de colaboración estables; en la figura 15 se muestra un mapa de los centros con los que ITP ha mantenido relaciones plurianuales en la última década. Como ya se ha mencionado, El camino que tomó en aquel momento ITP fue el de centrarse en dos aspectos fundamentales: priorizar con enorme cuidado las áreas en las que había que poner más esfuerzo y tratar de impulsar en España, en un plazo medio, una red de centros capaces de desarrollar la tecnología necesaria para los productos claves. En el primero de los aspectos se vio que había cuatro áreas tecnológicas claves donde la colaboración debería dar fruto y donde se podría recortar la clara ventaja que tenían otras empresas europeas y sus centros asociados: • Aerodinámica (incluyendo aeroacústica). • Materiales y procesos. • Tecnologías de fabricación. • Métodos computacionales. Figura 15. Ubicación de los colaboradores de ITP 365 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española una de las características diferenciales del sector aeronáutico es la de los largos periodos de maduración de las tecnologías, por lo que la necesidad de establecer estas colaboraciones de largo plazo es, si cabe, aún más necesaria. • Reducción de longitud superior al 20%. • Sustancial mejora en el rendimiento. • Reducción del ruido hasta un nivel tal que no contribuye al ruido de la aeronave. LAS NUEVAS TURBINAS DE BAJA PRESIÓN DESARROLLADAS POR ITP Introducción Los grandes proyectos aeronáuticos tienen una cadencia relativamente baja, por lo que es crítico que, cuando tiene lugar el lanzamiento de uno de estos programas, la tecnología esté lo suficientemente madura como para ser introducida en el producto con un riesgo bajo. En caso contrario, habrá que esperar al siguiente programa, que puede tardar muchos años en ocurrir, por lo que se habrá perdido una oportunidad vital. Para ITP, esta oportunidad se presentó en el Trent 1000, uno de los dos motores que propulsa al Boeing 787. En los programas de aviones de fuselaje ancho anteriores, algunas de las tecnologías claves en desarrollo estaban todavía lejos de su madurez, por lo que no se produjo un salto cualitativo en el módulo de la turbina de baja, donde ITP es responsable. Como ya se ha mencionado, las demandas tecnológicas requerían una mejora en consumo, que se traduce en aumento de rendimiento, reducción de peso, reducción del ruido en las maniobras críticas, y en un salto en la competitividad del subsistema para contribuir a la competitividad global del motor en su conjunto. Para hacer frente a estos retos, ITP ha estado desarrollando tecnologías aerodinámicas, aeroacústicas, mecánicas y de materiales y procesos. Finalmente, el salto global en los parámetros claves ha sido: • Reducción de peso superior al 25%. 366 • Mejora en la competitividad, derivada tanto de la reducción de peso como de diseños avanzados de los componentes. Desarrollo de un sistema de simulación computacional Enfrentarse al reto del diseño competitivo en productos altamente tecnológicos como los motores aeronáuticos, solo es posible si se cuenta con las mejores armas. En este caso, estas armas son los sistemas de diseño computacional. Estas herramientas de diseño, que en buena parte son propiedad intelectual, y la información que en ellas está contenida, son el secreto mejor guardado de las empresas. En ellas están guardados la mayor parte del conocimiento y la experiencia de años y años de investigación y desarrollo, garantizando que en cada nuevo diseño se vierte toda la experiencia de los anteriores y todas las mejoras obtenidas en la I+D. Para ello, a mediados de la década de 1990, ITP con la colaboración de la ETS de Ingenieros Aeronáuticos de la UPM, comenzó a desarrollar paso a paso todas las herramientas necesarias para conseguir una ventaja competitiva, primero en el diseño aerodinámico y posteriormente en todos los aspectos de diseño mecánico. Después de cerca de quince años de desarrollo, ITP está a la vanguardia mundial en códigos fluidodinámicos, aeroelásticos y termomecánicos, no sólo en cuanto a cada uno por separado, sino que en su conjunto, que se describe de forma gráfica en la figura 16, constituyen un sistema líder a nivel mundial, pudiendo Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo compararse al que poseen algunas de las empresas que superan ampliamente a ITP tanto en experiencia como en volumen. Estas herramientas incluyen, entre otros, códigos de simulación tridimensional, multietapa y no estacionarios (véase la figura 17), y todas ellas han incorporado los resultados experimentales que se describirán en los próximos apartados. Mediante el uso de estos códigos se llega a simular con enorme precisión el comportamiento funcional de la turbina en todo el rango de operación. Desarrollo de la tecnología aerodinámica Dado que la función principal de la turbina es la de extraer el trabajo de los gases de forma eficiente, combinado con el hecho de que la TBP es el componente de mayor relevancia en lo que a consumo se refiere, se comprende fácilmente que los desarrollos de tecnología en el área de aerodinámica son probablemente los más importantes para conseguir un producto competitivo. Capacitación en universidades y centros tecnológicos: desarrollo de túneles de investigación experimental La labor de las universidades y centros tecnológicos se centra fundamentalmente en los niveles inferiores de la escala de madurez de la tecnología, es decir, en aquellos estadios donde el peso se centra en el desarrollo teórico básico o experimental a escala de laboratorio. Figura 16. Esquema del sistema de diseño de ITP En el caso de la tecnología aerodinámica, cuando ITP exploró las posibilidades en España, encontró que no existía ninguna instalación que pudiese servir para la investigación en turbomaquinaria, ni tampoco había instalaciones que, sin cubrir exactamente las necesidades, fuese lo suficientemente similar como para que la experiencia del equipo humano sirviese y la instalación pudiera ser adaptada. 367 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española Figura 17. Códigos de simulación fluidodinámica Dada la situación, el camino que se siguió fue el que ya se ha mencionado con anterioridad: comenzar las actividades en centros europeos ya existentes y, en paralelo, desarrollar la capacitación de universidades y centros locales. Esta labor de adquisición de tecnología de universidades y centros ha durado una década y todavía no ha concluido, por lo que hay que seguir realizando un esfuerzo continuo para, poco a poco, ir acortando las distancias con los centros punteros a nivel europeo y mundial. 368 Durante esta década de impulso empresarial en la investigación, tecnología e innovación en los centros, merece la pena destacar por su importancia dos casos: el Laboratorio de Fluidodinámica que se encuentra en la ETS de Ingenieros Aeronáuticos de la Universidad Politécnica de Madrid (UPM) y el Banco de Ensayos Fluidodinámicos del Centro de Tecnologías Aeronáuticas (CTA). En el primer caso, se conjuga la investigación teórica fundamental y la experimentación básica, mientras que en el segundo se da el salto a los vehículos experimentales más cercanos al entorno real en que después Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo funcionarán las turbinas. En ambos casos, el objetivo fundamental es entender los mecanismos físicos que dan lugar a las pérdidas de eficiencia y los medios para minimizar dichas pérdidas, así como comprobar experimentalmente las soluciones adoptadas. Merece la pena resaltar que, a diferencia de otros módulos del motor, la turbina de baja funciona a un número de Reynolds típicamente transicional, es decir, en una primera parte de los álabes el flujo es laminar para, posteriormente, variar a turbulento. Este hecho es clave para entender las dificultades y riesgos que acompañan a la aerodinámica de las TBP y analizar las áreas de mejora. Un ejemplo de riesgo que se puede dar con bastante probabilidad, si no se entienden a fondo los mecanismos físicos de la aerodinámica transicional, es la posibilidad de tener el flujo desprendido en los álabes, lo que da lugar a una reducción drástica tanto de la eficiencia como del trabajo que proporciona la turbina. Para conseguir los objetivos fijados en la colaboración entre ITP y la UPM, el equipo investigador conjunto ha desarrollado, además de numerosos modelos teóricos de comportamiento fluido, tres túneles aerodinámicos, uno de los cuales se muestra en la figura 18, que simulan el comportamiento de una fila de álabes y de sus zonas más críticas, así como de una amplia variedad de tecnologías de medida. Este último aspecto es clave para que la validación de los modelos teóricos sea lo más precisa posible. Entre otras técnicas se emplea la anemometría láser, la película y el hilo caliente. El dominio y perfeccionamiento en las medidas es, en sí mismo, un área de desarrollo tecnológico. En el caso del Banco de Ensayos Fluidodinámicos del CTA, que se muestra en la figura 19, ITP contribuyó hace algo más de una década a su creación y puesta en marcha. Este centro tiene capacidad para ensayar prototipos de turbina, con un tamaño muy cercano al real, y para reproducir prácticamente todos los fenómenos físicos que se encuentran en el motor. Al igual que en el laboratorio de la UPM, el aspecto fundamental es la capacidad de medir con precisión y alcanzar un alto grado de Figura 18. Túnel aerodinámico Figura 19. Banco de ensayos fluidodinámicos del CTA repetibilidad, ya que en muchos casos se intentan comparar mejoras relativamente pequeñas, y la falta de precisión o de repetibilidad pueden dar lugar a resultados erróneos. Aquí se han desarrollado tecnologías de medida con sondas miniaturizadas, como la que se muestra en la figura 20, comparando su tamaño con una moneda; o sondas de alta velocidad que no Figura 20. Sonda miniaturizada 369 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española solo son altamente precisas, sino que reducen el tiempo de ensayo de forma significativa. Ello ha colocado al CTA en una posición de liderazgo frente a la mayoría de laboratorios europeos y, por tanto, ha permitido a ITP dar un salto en el diseño aerodinámico de turbinas, haciéndolas más compactas, reduciendo la longitud más de un 20% con diseños más agresivos, reduciendo el número de álabes y, por tanto su peso y coste, y seguir aumentando el rendimiento, lo que ha situado a la empresa en una posición de liderazgo a nivel mundial. Desarrollo de la tecnología aeroacústica El ruido es uno de los aspectos con más repercusión social, ya que en la operación de las aeronaves las áreas afectadas pueden llegar a ser muy amplias y están, en muchos de los casos, en zonas urbanas o cercanas a las mismas. En la maniobra de despegue, la turbina de baja apenas contribuye al ruido global, siendo el fan y el chorro los mayores contribuidores en el lado del motor. Sin embargo, en el caso del ruido de aproximación, la turbina de baja es potencialmente una de las fuentes de ruido más importantes del motor. Esta contribución puede ser especialmente penalizadora, ya que las frecuencias de los tonos que se emiten en la maniobra de aproximación están en el entorno del rango más dañino para el oído humano. Para conseguir que el ruido sea el mínimo en los puntos de operación de interés hay que desarrollar la capacidad de simular las emisiones acústicas y su espectro completo, lo que en el caso de una turbomáquina multietapa tiene una enorme complejidad. A diferencia de otros atributos técnicos, en los que la física tiene unos efectos mayoritariamente lineales, las emisiones acústicas son altamente no lineales. Este efecto es aún mayor en una turbina de baja presión, donde, por ejemplo, se puede dar la situación de que el ruido de tonos de una etapa quede totalmente atenuado en la siguiente o, por el contrario, se amplifique enormemente. 370 Durante los últimos años, tanto en el ámbito de las simulaciones computacionales como de los ensayos experimentales de prototipos de I+D, se han producido enormes avances, de forma que hoy se pueden predecir con una precisión más que notable las emisiones acústicas de la TBP, además de tener una serie de criterios orientados a minimizar, desde las fases más tempranas del diseño, el impacto acústico en los puntos de operación de interés. Hasta no hace mucho, las reglas disponibles eran demasiado simples, muy cualitativas, no siempre conservadoras y, por tanto, se confiaba en los ensayos de medidas acústicas sobre el motor real durante la fase de desarrollo, que proporcionaban la información necesaria para saber si se requería o no un cambio de diseño, dando además una indicación de dónde estaban los principales problemas. Pero, obviamente, no indicaban cómo solucionar el problema detectado, a lo que hay que añadir la escasez de centros de pruebas a cielo abierto para realizar este tipo de ensayos. En la última turbina diseñada por ITP para un avión de doble pasillo, y que ya ha sido probada en motor completo en un ensayo acústico, se ha comprobado que las predicciones de ruido a nivel del módulo completo se cumplen satisfactoriamente. Este hecho supone un espaldarazo definitivo a todo lo que se ha venido desarrollando tanto a nivel de simulación como a nivel de medidas en túnel aerodinámico, donde se dispone de un módulo rotatorio de medida de ruido, orientado a la validación de los diseños dotados de nuevas técnicas de reducción de emisiones acústicas. Desarrollo de nuevos materiales de turbina Trabajar de forma continua a temperaturas en el entorno de los 900 a 1.000 ºC, con unos gradientes térmicos gigantescos tanto en el espacio (en unas pocas decenas de milímetros hay diferencias de temperaturas de varios cientos de grados) como en el tiempo (un motor pasa de la condición de ralentí a máxima potencia en menos de cinco segundos), y sometidos además a unos tremendos esfuerzos tanto estacionarios Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo como alternantes, requiere unos materiales con unas propiedades mecánicas fuera de lo común. Esto es especialmente exigente en los álabes, tanto estacionarios como rotativos, ya que se encuentran en contacto directo con los gases procedentes de la combustión. Para superar continuamente este reto, se han venido creando nuevas aleaciones para usarlas en la fundición de estos componentes, además de nuevos procesos como la solidificación direccional o la solidificación en monocristal. Todas estas superaleaciones tienen como materiales principales el níquel y el cobalto, con menor cantidad de otros aleantes, que se añaden para robustecer alguna de las propiedades particulares que demanda este tipo de componentes. El resultado final: una nueva generación de turbinas de baja Cuando se combinan todos los desarrollos aerodinámicos, aeroacústicos, mecánicos, materiales, etc., en el nuevo producto, se obtiene como resultado una nueva generación de turbinas de baja (véase la figura 21) que consigue los objetivos de reducción de peso, longitud, ruido, mejora de rendimiento y competitividad. A pesar de que las cantidades de otros elementos son proporcionalmente pequeñas, al tratarse de materiales poco comunes, como por ejemplo algunos elementos de los que se encuentran entre las tierras raras de la tabla periódica, el coste sube de manera exponencial. Dentro de esta categoría de materiales, ITP ha desarrollado aleaciones que son propiedad de la empresa y que suponen una ventaja competitiva en propiedades mecánicas y peso. Si se atiende ahora a las últimas etapas de la TBP, esta es sometida a una temperatura que, si bien es superior a la que se encuentra en la mayoría de turbomáquinas, ha decrecido entre doscientos y trescientos grados en relación con la etapa inicial. Esta menor temperatura abre la puerta a utilizar en la parte final materiales intermetálicos y, en particular, aluminuros de titanio. La menor densidad, con la consiguiente reducción de peso, es el hecho que impulsa a usar estas aleaciones, si bien sus propiedades mecánicas, inferiores a las que se encuentran en las superaleaciones, junto a una mayor fragilidad a temperatura ambiente, han venido dificultando su uso en la propulsión aeronáutica. Finalmente, si se mira hacia el futuro se abre un nuevo campo en los materiales compuestos de matriz cerámica, por su alta capacidad de resistencia a la temperatura y por la reducción de peso que permiten. Supone un reto enorme, pero las recompensas merecen la pena. Figura 21. Nueva generación de turbinas de baja Este salto es tal que sitúa a ITP en la vanguardia de las empresas aeronáuticas, proporcionando unas mejoras sobresalientes al motor en su conjunto que contribuyen a su competitividad. Así, en los próximos años, la mitad de los aviones de doble pasillo de todo el mundo llevarán una turbina de baja de ITP. Además de eso, toda la capacitación, no solo de la propia empresa sino de la red de centros que colaboran con ella, pone a la industria española en una posición inmejorable para acceder a otros segmentos de negocio como los aviones monopasillo o los regionales, con este u otro subsistema. 371 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española COMPETITIVIDAD Y MERCADO GLOBAL Expansión de la empresa: competitividad y globalización Introducción La competitividad en el sector aeronáutico se puede ejemplificar en tres factores: la constante reducción de las tarifas aéreas (Partnership for Research and Technology and European Growth. A Position Paper produced by the External Advisory Group for Aeronautics. Recommendations to the European Commission. Office for Official Publications of the European Communities. April 2000) en contraposición al aumento del precio del petróleo, contribuyente clave en los costes de operación; la escalada en el precio de las principales materias primas, tanto de la aeronave como del motor; y el aumento de los costes de personal. Ante esta tendencia, que hace que la competencia sea cada vez mayor entre los diferentes actores, solo queda una solución: ostentar el liderazgo tecnológico para ir un paso por delante de los principales competidores. En lo que se refiere al mercado global, desde hace décadas el sector aeronáutico está completamente globalizado. Aquí se pueden poner numerosos ejemplos, pero basta simplemente con mirar una pieza como puede ser un álabe de la TBP para descubrir que el diseño se realiza en España, la fundición puede hacerse en Europa o Estados Unidos, el mecanizado en Japón y el montaje final en la turbina, nuevamente en España. Desde el punto de vista logístico es fácil ver que no es lo óptimo, pero este ejemplo es algo que, lejos de ser la excepción, es una situación bastante habitual, por lo que hay que tener los mecanismos adecuados para gestionarla. Otro de los elementos impulsores fundamentales en la globalización es el “efecto dólar”: el sector aeronáutico civil tiene como moneda de referencia el dólar y, por tanto, los precios, transacciones, etc., tienen lugar en esta moneda. La consecuencia es que si se quiere reducir el riesgo de las fluctuaciones de cambio, que están fuera del control de las empresas y que son imposibles de predecir, además de los instrumentos financieros habituales hay que tener una base de operación en zona dólar. 372 En aras de mejorar la competitividad y también para ser capaces de afrontar el reto de la globalización, principalmente en lo que se refiere al “efecto dólar”, ITP ha decidido tener mayor presencia mundial, tal y como se muestra en la figura 22. Aquí merece especial atención la planta de México, donde además de un negocio de mantenimiento que fue el origen del centro, hace unos años que se lanzaron las actividades de ingeniería de diseño y fabricación. Ambas garantizarán la presencia en un país competitivo y con una moneda más ligada al dólar, factores ambos claves para el futuro. En el caso de la ingeniería de diseño, las herramientas computacionales que permiten gestionar el trabajo en múltiples localizaciones geográficas, como Product Lifecycle Management (PLM), son claves para que los potenciales errores, fruto de las dificultades de comunicación generadas por la distancia geográfica o, en otros casos, por las diferencias tanto culturales como de idioma, sean mínimos e, idealmente, desaparezcan. La calidad como aspecto diferencial Para entender la importancia de la calidad en el sector de la propulsión aeronáutica se podría retroceder unas cuantas décadas, hasta los comienzos de este sector, cuando los motores eran de tipo alternativo, y recordar las palabras de sir Roy Fedden: “When the Ministry of Munitions tried to force Rolls-Royce to get a dozen or so other firms to make their engines, that very great man Claude Johnson took the bold stand that he would tear up every drawing and go to prison rather than agree to risk inferior skills of other companies”. El temor de Claude Johnson no era otro que el de enfrentarse a cantidades ingentes de piezas que no fuesen más que chatarra o, todavía peor, a escapes de calidad que pudiesen dar lugar a incidentes más graves. Este ejemplo, lejos de ser Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo algo que no responde a la realidad de hoy día, es un caso que podría haberse producido hace unos poco años o unos pocos meses. Pero esta obsesión por la calidad no es algo que ocurra únicamente en los aspectos de fabricación, sino que está presente en todo el proceso de diseño y desarrollo. Los estrictos criterios de certificación y cualificación hacen que, desde todas las fases del diseño a los ensayos de componente y de motor, junto con todos los aspectos documentales, respondan a los más altos estándares de calidad. Es más, la Agencia Europea de Seguridad Aérea (EASA), certifica la conformidad no solo de los productos, proporcionando lo que se conoce como certificado de tipo, sino que previamente es necesario que para ambos casos (diseño y desarrollo en primer lugar y fabricación a continuación), las organizaciones estén cualificadas, objetivo para el cual son sometidas a rigurosas auditorías. Estas tratan de garantizar que las empresas dispongan desde el primer momento de los mecanismos necesarios para que los diseños y su fabricación sean los adecuados. Esto podría ser algo valorado en otros sectores, pero en el caso del aeronáutico, donde la seguridad es un requisito incontestable, se convierte en vital y constituye uno de los elementos diferenciales. Figura 22. Presencia mundial de ITP 373 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española EL FUTURO DE LAS TURBINAS DE GAS Introducción Ahora mismo la aeronáutica se encuentra en un momento clave para ser capaz de superar los retos que tiene enfrente, fundamentalmente el medioambiental, y marcar así la senda de las próximas décadas. El segmento del avión monopasillo está a punto de renovarse y en este paso es probable que haya un cambio no solo cuantitativo, sino también cualitativo. La presión por la reducción de CO2, junto con el precio del petróleo en cotas superiores a los 100 dólares por barril, hacen que haya que explorar soluciones innovadoras para alcanzar mejoras en el consumo de combustible. En los ciclos convencionales, el esfuerzo por mejorar el consumo se ha realizado tanto aumentando la eficiencia propulsiva, que mejora el empuje específico, como mejorando la eficiencia termodinámica. Como se ha visto anteriormente, esto lleva a aumentar la relación de derivación, con ventiladores de mayor tamaño y núcleos cada vez más pequeños, a la vez que se aumenta la temperatura máxima y la relación de compresión. En el estado tecnológico actual, todavía sería posible aumentar la temperatura, puesto que no se ha llegado al límite estequiométrico, pero eso conduciría a unos niveles excesivamente altos de emisiones de NOx. Por otra parte, el aumento del tamaño del fan y la consiguiente reducción del tamaño del núcleo, con la configuración actual, hace que la mejora teórica desaparezca, puesto que aumenta el peso, se incrementan las pérdidas de instalación en la aeronave y la eficiencia real del núcleo también se reduce, al reducirse su tamaño. Todo esto conduce a que sea necesario un cambio de arquitectura. ciclo. Desafortunadamente, no todo son ventajas y el aumento de peso y, sobre todo, el ruido tanto radiado al exterior como transmitido al interior de la célula, eran excesivos y no existía tecnología para una atenuación efectiva. Por estas y algunas otras dificultades técnicas, a las que se unió un precio del petróleo más barato durante muchos años, la idea fue abandonada o, mejor dicho, pospuesta. Ahora, un cuarto de siglo después, vuelve a apreciarse un aumento significativo en el precio del petróleo, que, a pesar del enfriamiento sufrido a raíz de la crisis, ha vuelto de nuevo a subir por encima de los 100 dólares el barril y continúa su ascenso, tal y como muestran las predicciones de la figura 23. Además, la presión mundial para la reducción de emisiones, incluidas las tasas por mayores consumos de CO2, hace más y más necesarias soluciones limpias desde el punto de vista medioambiental. La buena noticia es que, ahora, los avances tecnológicos en las diferentes disciplinas son tales que permitirán volver sobre el concepto del open rotor. Comparando las turbinas de gas avanzadas con el ciclo actual y lo que sería una con un open rotor (véase la figura 24), se puede observar que esta última supone una ventaja de entre un 5 y un 10% en el combustible necesario por operación, con un impacto menor en ruido. Nuevos ciclos como alternativa Ya a finales de los setenta y en los ochenta, tras la crisis del petróleo, se investigaron ciclos como el open rotor, que mejora sustancialmente la eficiencia propulsiva del 374 Figura 23. Previsión de la evolución del precio del petróleo Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo yectos como el TP400 D6, que propulsa al avión de transporte A400M, sitúa a la empresa en una situación privilegiada. Además, aparecen otras posibilidades, como la estructura estática trasera o las estructuras rotatorias que llevan las palas propulsoras o el compresor de entrada. Todas estas posibilidades no han sido aún desarrolladas suficientemente y para llevarlas a cabo se tienen que realizar los planes tecnológicos que las sitúen en un nivel de madurez adecuado. Esta será una labor de casi diez años de investigación, que afortunadamente ya ha comenzado, y que podría conducir a un cambio en la propulsión aeronáutica tan radical que cambiará la forma en la que se conoce hoy la aviación. Figura 24. Exigencias de consumo y ruido BIBLIOGRAFÍA No obstante, en el caso del open rotor aparecen dos retos que hay que superar: la instalación en el avión debido al tamaño de las palas y la menor velocidad de crucero. El primer caso puede suponer que haya que ir a una configuración de motores en cola con unos empenajes adecuados para garantizar la estabilidad y el control de la aeronave, reducir las vibraciones que se transmiten a la célula y, a la vez, apantallar en la medida de lo posible el ruido procedente de las palas. El segundo puede hacer que estos motores tengan una aplicación más clara en aviones de corto recorrido, en trayectos inferiores a las dos horas, donde una pequeña pérdida de velocidad tiene un impacto menor en el tiempo total de la operación, mientras que en los aviones de medio o largo recorrido ese impacto sería más significativo y, actualmente, tendría una mayor dificultad de aceptación. Para ITP, este nuevo concepto significa que aparecen oportunidades nuevas, como la turbina de potencia de muy alta velocidad, que gracias a la experiencia acumulada en pro- Annual Energy Outlook 2006, with Projections to 2030 (2006). Energy Information Administration, Office of Integrated Analysis and Forecasting, US Department of Energy. Washington, DC. Gándara, A. SENER la historia de su tiempo. Sener. Salamanca, 2006. Market Outlook 2009. Forecast 2009-2028. Rolls Royce. www.rolls-royce.com/Images/brochure_MarketOutlook 2009_tcm92-14291.pdf, (última consulta 20-01-2011). Outlook for commercial aircraft 1991-2010. Douglas Aircraft Company. Long Beach, CA. VV.AA. European Aeronautics: A Vision for 2020. Office for Official Publications of the European Communities. Luxemburgo, 2001. El desarrollo de la familia de aerogeneradores G10X La evolución de la tecnología eólica MAURO VILLANUEVA MONZÓN (Bilbao, 1960) Director de Desarrollo Tecnológico en la Corporación Tecnológica Gamesa Ingeniero Superior Industrial por la Universidad del País Vasco. Máster of Science en Tecnologías de Fabricación Avanzada del Cranfield Institute of Technology (Reino Unido) y Executive MBA (INSIDE, Universidad Comercial de Deusto). Es responsable de más de 50 proyectos por año con un presupuesto anual de unos 6 millones de euros. También es responsable de la Gestión del Patrimonio Tecnológico, formado por los proyectos “Fabrica de Patentes”, cuyo portafolio contiene más de 450 solicitudes, el de “Vigilancia Tecnológica y Protección”, el de “Inteligencia Tecnológica”, así como el de “Reflexión Estratégica Tecnológica”. Anteriormente fue Director de la Unidad Técnica de Madrid y Miembro del Comité de Dirección de Robotiker, centro tecnológico actualmente integrado en Tecnalia. Entre 1995 y 2000 fue el primer Director de la Federación Española de Centros Tecnológicos (FEDIT), agrupación de los 70 centros tecnológicos españoles. Entre su experiencia profesional anterior, destaca su trabajo durante 5 años en Sisteplant, S.A., de Corporación IBV (Iberdrola y BBVA), consultores en organización e ingeniería industrial, donde fue Socio-Director de la División de Ingeniería y miembro del Comité de Dirección. Previamente trabajó otros 5 años para el mencionado Robotiker como Director del Departamento de Comunicaciones Industriales. Ha sido responsable del grupo de trabajo de Financiación de la I+D y, además, miembro del comité directivo de la TPWind (Plataforma Europea de Tecnología Eólica). Es miembro del Órgano Gestor de REOLTEC (Red Científico Tecnológica del Sector Eólico Español), también es miembro del Patronato del CIC Energigune en nombre de Gamesa y fue experto nacional para el plan Español I+D 2003-2007. Es coordinador de los dos proyectos más destacados de la I+D eólica española aprobados por el programa Cénit, WINDLIDER y AZIMUT, con un total de 35 millones de euros en subvención a fondo perdido, así como del proyecto europeo del FP7 RELIAWIND. El desarrollo de la familia de aerogeneradores G10X Mauro Villanueva Monzón GAMESA eléctrica de Navarra), a través de SODENA (Sociedad de Desarrollo de Navarra). Historia Gamesa nació en 1976 con el objetivo de desarrollar nuevas tecnologías y aplicarlas a actividades emergentes: robótica, microelectrónica, medio ambiente o materiales compuestos. Su división Gamesa Aeronáutica estaba especializada en la ingeniería, fabricación y suministro de grandes conjuntos estructurales o partes completas de aeronaves para su posterior ensamblaje en aviones y helicópteros. Esta diversidad dio lugar a un nombre un tanto holístico (Grupo Auxiliar Metalúrgico Sociedad Anónima) y a un logotipo que pretendía representar esta diversidad de actividades mediante un octógono. La entrada de Gamesa en el sector eólico tuvo su génesis en la política energética adoptada por el gobierno de Navarra a comienzos de los años noventa. La herramienta ejecutora de esta política energética fue la empresa EHN (Energía Hidro- En octubre de 2004 se consideró que los objetivos de dicha política energética habían sido alcanzados, lo que motivó la salida de SODENA de EHN, y su venta a Acciona. Hasta entonces, la producción de electricidad por energías renovables en Navarra había registrado incrementos espectaculares, pasando de los 272.511 MWh en el año 1989 a los 2,15 millones de MWh alcanzados en 2003, momento en que la energía producida en Navarra mediante energías renovables suponía más del 60% de su consumo, existiendo cerca de mil aerogeneradores u 850 MW de potencia (equivalente a la potencia de una central nuclear). A la vista del importante número de aerogeneradores que era necesario instalar, se toma la decisión, posteriormente adoptada en casi todos los países o regiones en los que se acomete un despliegue eólico, de que ello debía revertir en el beneficio de Navarra, tanto en lo que tiene que ver con 379 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española la actividad industrial y económica, como en generación de empleo. Y este es el papel que estaba llamada a desempeñar Gamesa: en 1994 se creó Gamesa Eólica como empresa ensambladora de aerogeneradores, mientras que las actividades de promoción, construcción y explotación de parques eólicos comenzaron en 1995. Al año siguiente se puso en marcha el primer parque eólico construido por Gamesa. El 51% del capital de Gamesa Eólica estaba controlado por Gamesa y el 40% por su socio danés Vestas Wind Systems (a partir de ahora denominado Vestas), además de SODENA. Más adelante, en el origen de la Gamesa actual, participaron firmes decisiones de la Administración Pública en los ámbitos de la política energética y la financiación pública para conseguir crear un sector en el posteriormente recogería el testigo la iniciativa privada. El reto tecnológico de Gamesa Gamesa carecía de experiencia en este tipo de equipos, por lo que se inició la búsqueda de un socio tecnológico con probada experiencia. El resultado de este proceso de selección fue la alianza con Vestas, líder mundial en el sector, con la que se firma un TTA (Acuerdo de Transferencia Tecnológica). La actividad se inició con el modelo V47 (es decir, un aerogenerador fabricado por Vestas, con un diámetro de rotor de 47 m), si bien el número de unidades ensambladas fue simbólico. La primera máquina fabricada en grandes cantidades fue la G52 (“G” por Gamesa y “52” por el diámetro del rotor en metros), con una potencia nominal de 850 kW; un modelo pensado para vientos de velocidad elevada y bastante libres de turbulencias, propios de la orografía danesa y del norte de Europa. En resumidas cuentas, y parafraseando un vetusto 380 anuncio televisivo: “una máquina hecha por los de allí y para los de allí”. Lógicamente, la inadecuación de este diseño a la compleja orografía navarra comenzó a pasar factura, y el incipiente equipo de I+D de Gamesa Eólica, creado en 1999, trabajó febrilmente para solucionar los problemas que, por su especificidad, no necesariamente tenían todo el interés de la matriz tecnológica. A título de ejemplo: se acometieron una serie de desarrollos orientados a aumentar la resistencia a las cargas de la máquina, como un bastidor o chasis prácticamente nuevo. El bastidor es la gran pieza que se apoya en la base superior de la torre y que soporta todos los componentes críticos de la máquina: el eje de baja, acoplado al rotor y a sus correspondientes rodamientos; la multiplicadora; el eje de alta acoplado a su salida; el generador eléctrico, y la electrónica de potencia asociada para su control. Se abandonó el bastidor original de fundición por uno que incorporaba elementos mecanosoldados. Como derivación de estos trabajos, en el año 2003 se adoptó la decisión de invertir en una Unidad de Prueba de Bastidores, que permitió y sigue permitiendo alcanzar un profundo conocimiento del comportamiento de estos elementos, para así poder optimizar su diseño. Otro elemento en el que se trabajó fue la mejora del sistema de giro del bastidor sobre la base superior de la torre, denominado yaw. Aquí se reforzaron los motores eléctricos de giro, se incorporaron sistemas de frenado y se modificó el diseño de la corona, proclive a las roturas, con objeto de reducir los costes de mantenimiento. Estos trabajos se realizaron con una mínima supervisión del personal de I+D de Vestas, lo que permitió la progresiva emancipación tecnológica del incipiente departamento de I+D de Gamesa Eólica, hoy constituido en la Dirección General de Tecnología de Gamesa, en la que trabajan cerca de mil personas, con una capacidad de trabajo cercana a 1.600.000 h de ingeniería anuales. El desarrollo de la familia de aerogeneradores G10X Los daneses, al tener conocimiento de estos nuevos desarrollos (que no simples mejoras tecnológicas), los incorporaron en la gran mayoría de los casos a sus propios diseños. Debido a la existencia del citado acuerdo de transferencia tecnológica, Gamesa no procedió inicialmente a patentar estos primeros desarrollos; las primeras solicitudes de patentes se empezaron a depositar en el año 2001, si bien hasta 2003 no se inicia como tal la gestión del patrimonio tecnológico en Gamesa, que actualmente alcanza las 177 patentes solicitadas (invenciones), de las que 76 han sido concedidas. Su extensión en todos los países mercados de Gamesa da lugar a un total de 450 patentes, solicitadas o concedidas. Rotor Diámetro 58 m Área de barrido 2.642 m2 Velocidad de giro Variable 14,6 - 30,8 rpm, torres 55 y 65 m Variable 16,2 - 30,8 rpm, torre 44 m Sentido de giro Agujas del reloj (vista frontal) Peso (incl. Buje) Aprox. 12 t Peso (incl. Buje y Nacelle) Aprox. 35 t Palas Número de palas 3 Longitud 28,3 m Perfil NACA 63.XXX + FFA-W3 Material Fibra de vidrio preimpregnada de resina epoxy Peso pala completa 2.400 kg Torre tubular Altura Peso 2 secciones 44 m** 45 t 3 secciones 55 m** 62 t 3 secciones 65 m** 79 t 3 secciones 74 m** 94 t Tipo modular Diseño de la primera máquina Gamesa Otro hito significativo fue la detección de la necesidad de una máquina para vientos no tan elevados (lo que se denomina clase 2) Esto requiere un mayor diámetro de rotor, en este caso concreto de 58 m. Para ello se desarrolló una pala 100% Gamesa, con una longitud de 27 m, que inicialmente fue equipada en el mismo buje, bastidor y torre de la G52. Esto fue posible debido a que Gamesa había adoptado una decisión estratégica consistente en dotarse de capacidad tecnológica y fabril para la construcción de componentes eólicos. Este proceso se inició con la creación de Fiberblade para la fabricación de palas eólicas, y con la compra, para su incorporación al grupo Gamesa, de Echesa para las multiplicadoras, Cantarey para los generadores eléctricos, y finalmente Enertron para la electrónica de potencia. El modelo G58, exclusivo del portafolio de máquinas de Gamesa, se convierte en un gran éxito comercial, vendiéndose por miles de unidades en todo el mundo, y constituyendo actualmente uno de los productos más interesantes desde puntos de vista de rentabilidad de la inversión, fiabilidad y bajo coste de energía (véase la figura 1). * Disponible con certificación IEC IIB. ** En desarrollo Multiplicadora Tipo 1 etapa planetaria / 2 etapas de ejes paralelos Ratio 1:61,74 (50 Hz) 1:74,5 (60 Hz) Refrigeración Bomba de aceite con radiador de aceite Calentamiento aceite 1,5 kW Generador 850 KW Tipo Generador doblemente alimentado Potencia nominal 850 kW Tensión 690 V AC Frecuencia 50 Hz / 60 Hz Clase de protección IP 54 Número de palas 4 Velocidad de giro 1.000:1.950 rpm (50 Hz) 1.320:2.340 rpm (60 Hz) Intensidad nominal Estator 670 A @ 690 V Factor de potencia (estandar) 0,95 CAP - 0,95 IND a cargas parciales y 1 a potencia nominal* Factor de potencia (opcional) 0,95 CAP - 0,95 IND en todo el rango de potencias* * Factor de potencia en bombas de salida del generador en el lado de baja tensión antes de la entrada del transformador Figura 1. Características de la G58 381 Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española La creación de un cliente de referencia: Gamesa Energía de cualquier tipo de restricción de negocio para Gamesa Eólica. Otro gran acierto fue la creación de Gamesa Energía, inicialmente dedicada a la promoción y explotación de parques eólicos, es decir, a la venta de energía eólica al sistema eléctrico. La transferencia tecnológica de la máquina G80, si bien en teoría no debería haberse visto afectada por esta salida, ya que el TTA se mantenía vigente varios años después, en la práctica situó al personal de ingeniería de Gamesa Eólica ante el reto de industrializar esta nueva máquina prácticamente a partir de los planos de Vestas. Es decir, una situación muy parecida a la que los nuevos fabricantes asiáticos están enfrentando en estos últimos años. Esta estrategia aporta diversas ventajas: en primer lugar, permite conocer de cerca las necesidades de los clientes en lo tocante a la construcción, operación y mantenimiento. En segundo lugar, se dispone de un profundo bagaje sobre la operación de los equipos, lo que permite mejorar los procesos de diseño de los aerogeneradores desde esta óptica. En tercer lugar, esta capacidad interna de promoción, aporta un buffer, o colchón, para optimizar el balance entre la oferta de equipos y la demanda del resto de los clientes. Sin embargo, a finales de 2004 se concluyó que la inmovilización de capital en estos parques eólicos de Gamesa Energía restaba capacidad de maniobra al grupo y se procedió a su venta mediante concursos para optimizar su rentabilidad financiera, por lo que a partir de esta fecha su papel se circunscribe a la promoción y ulterior venta. A partir del diseño original de la máquina G80, Gamesa inició una andadura con objeto de satisfacer las necesidades de sus clientes, creando así los modelos G87, G90 y G97 (véanse la figura 2 y la tabla 1). Se instala el primer aeg G87 en Lubián (España) 2003 2002 Se instala el primer aeg Gamesa G80 en Agualial Vestas desarrolló una nueva máquina de 2 MW de potencia nominal y con un rotor de 80 m. Es decir, con unas palas de unos 37 m de longitud, un 40% mayor que la G58. La configuración era básicamente la misma que la de la familia G5X, por lo que se trataba de un ejercicio de upscaling. El acuerdo que Gamesa tenía con Vestas limitaba su venta de aerogeneradores a España, Latinoamérica y norte de África, si no era con autorización expresa de la firma danesa. En 2001, Gamesa compró a Vestas su participación del 40% en Gamesa Eólica por 287 millones de euros —con pingües plusvalías para Vestas—, pero logrando así zafarse del yugo 382 2004 Primer aeg Gamesa G80 60 Hz instalado en Koshizaki (Japón) La emancipación tecnológica de Gamesa Primer GW instalado Gamesa G8X 2005 Primer aeg Gamesa G90 instalado en Almendarache (España) 4 GW instalados Gamesa G8X 2006 2007 8 GW instalados Gamesa G8X 2008 2009 Se instala el parque eólico G8X más grande de EEUU (Cayuga Ridge) Apertura de nuevas instalaciones Gamesa G8X en EEUU 2010 Lanzamiento de la nueva plataforma Gamesa G9X Figura 2. Evolución de la familia G8X Tabla 1. Características de la familia G8X Medio ambiental/ opcionales 50 Hz 60 Hz 60, 67, 78, 100 √ √ √ √ 67, 78, 100 √ √ √ 2.000 kW √ 67, 78, 100 √ √ √ 2.000 kW √ 78, 90, √ √ √ Modelo IEC Potencia unitaria Conexión Altura a red de torres G80 IA 2.000 kW √ G87 IIA 2.000 kW G90 IIA/ IIIA G97 IIIA El desarrollo de la familia de aerogeneradores G10X Así, y utilizando como base la misma plataforma de tren de potencia y bastidor mecánico, se desarrollaron modelos para las clases 2 y 3 de vientos más bajos, y se produjeron torres de diversas alturas, llegando hasta los 100 m en acero estructural, así como tecnologías para adaptarlas a las diferentes condiciones ambientales de alta y baja temperatura. Finalmente, se adaptaron a los diversos mercados americanos, incorporando los códigos de red y las frecuencias de 60 Hz, y obteniendo las certificaciones necesarias para trabajar en aqu