Tecnología para competir

Transcripción

Tecnología para competir
Tecnología para competir
Desarrollos tecnológicos que han
impulsado a la empresa española
Tecnología para competir.
Desarrollos tecnológicos que han
impulsado a la empresa española
Tecnología para competir.
Desarrollos tecnológicos que han
impulsado a la empresa española
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Coordinador de la obra: Rafael Martín Moyano
© AENOR (Asociación Española de Normalización y Certificación), 2011
Todos los derechos reservados. Queda prohibida la reproducción total o parcial en cualquier soporte, sin la previa autorización escrita de AENOR.
Depósito Legal: M-23096-2011
Impreso en España - Printed in Spain
Edita: AENOR
Maqueta y diseño de cubierta: AENOR
Imprime: AGSM
Nota: AENOR no se hace responsable de las opiniones expresadas por los autores en esta obra.
Génova, 6. 28004 Madrid • Tel.: 902 102 201 • Fax: 913 103 695
[email protected] • www.aenor.es
Índice
Manuel López Cachero, Presidente de AENOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Ramón Naz Pajares, Director General de AENOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Tecnología y empresa: la teoría . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Tecnología y empresa: la práctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Rafael Martín Moyano
Los sistemas de alimentación de energía del Joint European Torus (JET) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
La Industria de la ciencia: ayudando a explorar las fronteras de lo posible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Francisco Javier Cáceres Núñez
Desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid . . . . . . . . . . . . . . . . . . . . . . . . 87
La evolución en el sector ferroviario metropolitano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
Fernando Gómez Sánchez
El desarrollo de la banda ancha en Telefónica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
La telefonía móvil o el triunfo de la normalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
Cayetano Lluch Mesquida
La cocina de inducción de Fagor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
La evolución del electrodoméstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
Antonio López Ruiz
8
Gestión tecnológica en el sector vitivinícola . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
Luis Carlos Moro González
Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional . . . . 259
Antonio Pérez Pérez
La construcción de obras civiles. La tecnología de las presas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
Futuro de la tecnología de las presas y balsas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
José Polimón López y José María Osorio Sánchez
Aplicación de la nanotecnología en construcción: creación de una empresa de base tecnológica . . . . . . . . . . . . . . . . 327
Aplicación de la nanotecnología en construcción: posible evolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339
Antonio Porro Gutiérrez
Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de
doble pasillo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355
José Ignacio Ulízar Álvarez
El desarrollo de la familia de aerogeneradores G10X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
La evolución de la tecnología eólica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395
Mauro Villanueva Monzón
Normalización y tecnología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408
Gonzalo Sotorrío González
9
Manuel López Cachero
Presidente de AENOR
En 2011 la Asociación Española de Normalización y Certificación (AENOR) cumple veinticinco años de existencia, dedicada a su trabajo a favor de la extensión de la cultura de la
calidad, principalmente a través del desarrollo de normas técnicas y de la certificación de la correcta aplicación tanto de
éstas como, en su caso, de especificaciones y otros documentos de similares características. Por ello, es coherente con
la trayectoria de AENOR promover una publicación como la
que aparece en estas páginas, en las que se ilustra el papel
primordial del desarrollo de tecnología propia en diez grandes sectores de actividad. Por otra parte, las buenas prácticas
en materia de tecnología siempre han sido un referente principal de la actividad de AENOR, sin perjuicio de que los campos
de acción de la normalización y la certificación hayan ido
extendiéndose al paso de las necesidades de las organizaciones, abarcando otros terrenos importantes para éstas.
En este período la práctica totalidad de los sectores productivos de nuestro país han podido mejorar su capacidad de
ser competitivos mediante una acción de la que AENOR
ha sido el impulsor, pero cuyo mérito es ante todo atribuible
a aquéllos. La razón principal del desarrollo de AENOR se
10
encuentra en la notable y fructífera unión de voluntades, que
se ve claramente reflejada en su base asociativa, donde está
representada la práctica totalidad de los sectores del tejido
productivo (tanto el industrial como el agrario o el de los
servicios) de nuestro país a través de asociaciones, empresas,
colegios profesionales, entidades educativas, centros de investigación, personas individuales o Administraciones Públicas,
con especial relevancia del Ministerio de Industria, Turismo
y Comercio.
En estos veinticinco años España ha logrado dotarse de una
infraestructura en el ámbito de la calidad (entendida en su
más amplio sentido, que incluye aspectos como la sostenibilidad, la innovación o la seguridad) que se halla a la altura
de la de los países más desarrollados. En normalización, el
catálogo de AENOR, compuesto por más de 29.000 normas
técnicas, es uno de los más completos del panorama internacional. En dichas normas prácticamente todos los sectores
tienen a su alcance las mejores prácticas en múltiples aspectos necesarios para su desarrollo. Además, los expertos
españoles han ganado una alta consideración en los foros
internacionales de normalización, tanto europeos como
mundiales, y existen ya iniciativas españolas que se toman
como ejemplo para el desarrollo de normas de aplicación
internacional en campos de vanguardia como I+D+i o Ecodiseño. Por otra parte, AENOR presta su ayuda a otros países
para estructurar un sistema eficaz de normalización, mediante
proyectos de cooperación que cuentan con el respaldo de entidades como la Unión Europea o el Banco Mundial.
En certificación, AENOR ha sido elemento principal para que
España sea el primer país de Europa en certificaciones de Sistemas de Gestión Ambiental y el segundo en certificación de
Sistemas de Gestión de la Calidad. Los casi sesenta mil certificados concedidos por AENOR suponen un claro testimonio
del compromiso con la labor bien hecha de las organizaciones
que los han obtenido. La certificación va evolucionando y
diversificándose junto a las necesidades de sus demandantes
y, así, unidas a la más difundida sobre calidad o medio ambiente, cada vez ganan más empuje las relacionadas con las
emisiones de gases de efecto invernadero, de Salud y Seguridad Laboral, Innovación, Accesibilidad y Seguridad Alimentaria o de la Información.
Estos primeros veinticinco años han demostrado que la actividad económica se ve favorecida por la existencia de una
entidad como AENOR, privada, independiente y sin fines lucrativos. El futuro pasa por la profundización en la ampliación
y adaptación constante del catálogo de servicios así como en
la internacionalización. Las nuevas vías que se recorran seguirán teniendo, como hasta ahora, el objetivo de aportar un
valor particular y apreciado por las organizaciones.
Manuel López Cachero
11
Ramón Naz Pajares
Director General de AENOR
En la conmemoración de su 25.º aniversario, AENOR ha querido impulsar un trabajo en el que se reconociese la valiosa
aportación de la tecnología. Para ello, se ha coordinado a
expertos de distintos sectores que, a través de la presente
publicación, han descrito su experiencia, así como formulado
previsiones.
Probablemente, una muestra clara del estado tecnológico de
un país sea su catálogo de normas. Otro factor que lo evidencia, conectado con el anterior, es la participación activa
en los entornos europeos e internacionales en los que hoy
día se elaboran las normas, entendidas estas como especificaciones voluntarias realizadas bajo el consenso de las partes
afectadas.
La transmisión de los conocimientos y avances de la tecnología encuentra en las normas su herramienta perfecta, por
su accesibilidad y procedimiento de elaboración. La definición que el primer presidente de AENOR hizo de la normalización como “socialización de la tecnología” refleja la implicación de estas actividades y su aportación al desarrollo
de los países.
12
Siguiendo el argumento que he expresado más arriba, el
catálogo de normas UNE del que ahora disponemos nos sitúa
en una posición destacada dentro de nuestro entorno próximo, el europeo, así como en la esfera internacional. El número de documentos se ha cuadruplicado a lo largo de los
veinticinco años de vida de AENOR, alcanzando las 29.000
normas UNE. Asimismo, cerca de mil expertos participan en
los foros de normalización europeos CEN-CENELEC e internacionales ISO-IEC.
Siendo las normas un importante vehículo de transmisión de
conocimientos y, en consecuencia, tecnologías, no debe olvidarse que, en nuestro caso, lo es también de un idioma
común que comparten más de cuatrocientos millones de
personas. Estas pueden apreciar cómo la colaboración entre
organizaciones de los dos lados del Atlántico permite disponer de las más significativas normas en su idioma, haciendo
en ocasiones que introduzcan términos técnicos nuevos que
recogen el uso habitual de determinadas expresiones.
Es una realidad que en las dos últimas décadas del siglo XX,
los términos calidad y tecnología conformaban la base de las
declaraciones de las más significativas personalidades generadoras de opinión. Pero el cambio de siglo ha dado lugar a
los conceptos basados en I+D+i, excelencia y otras, olvidando
a la calidad y la tecnología. Sería preocupante y un error que
ello refleje el hecho de que está todo conseguido en ambos
campos, ya que ni calidad ni tecnología alcanzan nunca su
meta y, sin ellas, los otros términos más actuales no tendrían
sentido.
Seguro que a todos los lectores se les ocurrirán más razones
y, posiblemente, más acertadas para vincular la tecnología
con la conmemoración del 25.º aniversario de AENOR. En mi
caso, la razón de estas líneas está en dejar constancia del
agradecimiento a los autores de los distintos capítulos de la
publicación por su excelente colaboración, así como a las
entidades que se lo han permitido. Esta muestra de la tecnología que nace de nuestros sectores y empresas intenta
poner de relieve lo que nos puede permitir el desarrollo
tecnológico, y animar a las múltiples iniciativas en marcha a
que vean en estos ejemplos logros alcanzables y con importantes resultados. Espero que esta publicación aporte un
reconocimiento a la tecnología desde la normalización representada por AENOR, con el deseo de que en el futuro, en la
conmemoración del cincuentenario de AENOR, los logros
alcanzados superen ampliamente la realidad actual.
Agradezco a los lectores su amabilidad en el empleo de su
tiempo en una lectura que espero sea de su agrado.
Ramón Naz Pajares
13
Tecnología y empresa: la teoría
Tecnología y empresa: la práctica
RAFAEL MARTÍN MOYANO
(Madrid, 1941)
Coordinador de la obra
Doctor Ingeniero de Minas.
Ha dedicado sus treinta y un años de vida profesional a la
investigación tecnológica. Los siete primeros como investigador
científico en el CENIM (Centro Nacional de Investigaciones Metalúrgicas) especializado en microscopía óptica.
En los once años que permaneció en el INI (Instituto Nacional
de Industria) fue Subdirector de Tecnología, Director del Programa
OGEIN (Organización y Gestión de la Investigación) y Director de
la Fundación Empresa Pública.
Dirigió, durante los catorce años de su existencia, OCIDE (Oficina de Coordinación de Investigación y Desarrollo Electrotécnico)
y los últimos años de OCICARBÓN.
Los últimos nueve años de su carrera, hasta su jubilación en 2006,
fue Gestor del Programa de Investigación CSN-UNESA y Asesor Técnico del Vicepresidente del CSN (Consejo de Seguridad Nuclear).
También ha sido vocal de las siguientes entidades: CAICYT,
CDTI, CIEMAT, IDEA, y el primer Presidente de ENISA (Empresa
Nacional de Innovación). Recientemente, ha dirigido el estudio
La Investigación Energética en España, para la Fundación para Estudios
sobre la Energía.
Tecnología y empresa: la teoría
Rafael Martín Moyano
“Si tu intención es describir la verdad, hazlo
con sencillez: la elegancia déjasela al sastre.”
(Albert Einstein, 1879-1955)
DEFINICIONES
Al iniciar un documento en el que se va a tratar de establecer: cómo han evolucionado diversas tecnologías y cómo se
prevé que vayan a hacerlo en un próximo futuro; cuál ha sido
la gestión que han realizado determinadas empresas para
obtener logros tecnológicos significativos; o por qué unas
empresas basan una parte importante de su estrategia en el
desarrollo tecnológico, mientras que otras prefieren recurrir
solo a la compra de la tecnología que precisan, parece obligado comenzar identificando qué se va a entender aquí por
tecnología y por innovación, para evitar en lo posible falsos
consensos y malentendidos a los que un léxico poco preciso
puede conducir.
Tal identificación es precisa en la caso de la tecnología por
tratarse de un concepto que, por no estar claramente establecido y asimilado en la sociedad española, se ha convertido
en herramienta de la publicidad, comercial y política, que lo
utilizan continua e inadecuadamente hasta vaciarlo de su contenido real. Es este un fenómeno habitual que afecta a otros
conceptos, que tienen un componente positivo y que no son
dominados por la sociedad (baste recordar lo que está sucediendo con la palabra “sostenibilidad”). El uso y abuso indebido de tales términos acaba recordando el refrán popular:
“dime de qué presumes y te diré de qué careces”. En efecto,
suele existir una cierta correlación entre el uso del vocablo
“tecnología” y una gestión deficiente u omisa del desarrollo
tecnológico.
Tecnología
El Diccionario de la lengua española, en su primera acepción,
define la tecnología como: “conjunto de teorías y de técnicas
17
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
que permiten el aprovechamiento práctico del conocimiento
científico”. Es una definición precisa, que contiene información valiosa sobre el carácter y el origen de la tecnología,
aunque deja algún vacío que se comenta más adelante.
Lo primero que pone de manifiesto la definición es la intangibilidad de la tecnología. Se trata de teorías y técnicas, es
decir, de conocimientos cuyo principal soporte son las personas, más allá de cuánto se haya avanzado en la confección
de programas de ordenador, diagramas de proceso, soportes
magnéticos y otros medios para plasmar el conocimiento de
los expertos. Su principal representación es el “saber hacer”,
el know how anglosajón, que concede posición de privilegio
en el mercado a quien dispone de él. Como bien intangible,
su apropiación y su gestión no son convencionales, y presentan algunas dificultades que es necesario resolver de forma
adecuada. Otra particularidad muy interesante de la intangibilidad es que se trata de un bien que puede ser poseído
simultáneamente por varios propietarios.
La segunda característica a resaltar es la utilidad inmediata
de la tecnología, ya que se trata de técnicas que permiten el
aprovechamiento práctico del conocimiento científico,
es decir, que están listas para su incorporación al proceso
productivo, diferenciándose así de aquellos procesos de investigación y desarrollo que no obtienen un producto acabado y
listo para su uso inmediato.
Esta función de utilidad es la que ha llevado a muchos economistas a identificar a la tecnología como el tercer factor
de la producción, o como el factor residual, ya que el capital
y el trabajo no son suficientes para explicar toda la complejidad de una empresa moderna. En cualquier caso, la tecnología forma parte indisoluble del concepto “empresa”, y quizás sea el principal elemento diferenciador de lo que se
conoce como “negocio”, ya que, compartiendo ambos conceptos el carácter lucrativo, se diferencian drásticamente en
el plazo y la extensión de la acción: el “negocio” busca obtener su premio a plazo inmediato, mientras que la “empresa” espera hacerlo en un plazo más dilatado y en un merca18
do más amplio, para lo que necesita recurrir a una gestión
tecnológica adecuada.
El análisis del componente tecnológico de la empresa se complica por el hecho de que la tecnología forma parte de los dos
factores clásicos de la producción: el capital y el trabajo. De
hecho, la tecnología está soportada, en su gran mayoría, por
los técnicos y trabajadores de las empresas y, por lo tanto,
está incorporada al factor trabajo. En pequeñas empresas
muy innovadoras, la tecnología puede “residir” en uno o dos
técnicos y su salida de la empresa la “descapitaliza” totalmente. Por otro lado, en empresas intensivas en capital, con
mucha frecuencia la tecnología principal reside en la maquinaria e instalaciones que utilizan, lo que les convierte en subsidiarias tecnológicas de quien se las ha suministrado.
Conviene, ahora, volver a la definición del término para analizar otro aspecto: el origen de la tecnología. El diccionario
aporta dos informaciones importantes: una, que existe una
cierta distancia entre la tecnología y su origen, ya que permite el aprovechamiento práctico del conocimiento; es
decir, que “alguien” tiene que obtener el conocimiento y
“alguien” tiene que desarrollar las teorías y técnicas que permitan su aprovechamiento, sin que exista necesidad de que
ambos sujetos coincidan. De hecho, se podría afirmar que la
mayoría de las tecnologías que se utilizan en las empresas
provienen de conocimientos desarrollados por terceros, mediante un proceso de transferencia, explícito o implícito,
entre unos y otros.
Si se admite que el conocimiento científico se adquiere a través de la investigación, lo anterior significa que existe una
relación causal entre investigación y tecnología a través de
la innovación (demostración, preseries, plantas semiindustriales, precomercialización, etc.), pero que esa relación no
exige necesariamente la identidad entre el generador del
conocimiento y el desarrollador de la tecnología.
La segunda información que aporta el diccionario es que la
tecnología debe partir del conocimiento científico, omitiendo,
Tecnología y empresa: la teoría
por tanto, cualquier otro tipo de conocimiento. Esta es una
restricción que parece innecesaria, ya que el conocimiento
empírico fue el principal origen de la tecnología, sobre todo
en la Revolución Industrial, cuando el conocimiento científico
seguía muy a la zaga al empírico. El “ojo de buen cubero”,
el hornero que decidía cuándo debía hacerse la colada, el ceramista que elegía personalmente las arcillas óptimas, el campesino que sabía cuándo iba a cambiar el tiempo y tantos
ejemplos de conocimientos empíricos, en ocasiones pasados
de padres a hijos, han sido luego sustituidos por conocimientos científicos cuando las observaciones personales se han correlacionado con magnitudes mensurables (temperaturas,
presiones, composición de gases, composiciones químicas,
etc.) y los procesos se han podido modelizar de forma fiable.
Sería una obviedad tachar de “academicista” al Diccionario de
la lengua española, pero sería muy sencillo ampliar la definición
incluyendo: “... del conocimiento científico o empírico”, con
lo que habría quedado cubierto todo el espectro de posibles
orígenes de la tecnología.
Por terminar con la definición del diccionario, en otra acepción, se identifica a la tecnología como: “conjunto de los instrumentos y procedimientos industriales de un determinado
sector o producto”. Esto introduce otra importante reflexión
para salir al paso del mal uso habitual del término. En efecto,
cuando se refiere a un determinado sector o producto, sin
especificar restricción alguna, quiere decir que la tecnología
no es exclusiva de sectores como la electrónica, la informática,
la comunicación o la biomedicina, sino que existen tecnologías
alimentarias, siderúrgicas, jugueteras, mineras, cerámicas, etc.
El uso indebido del término ha llevado a que, en ámbitos tan
conspicuos como la Bolsa, se hable de “las tecnológicas”
para referirse a un conjunto de empresas del mundo de la
electrónica y la comunicación. Esta costumbre, aireada y
extendida por la prensa, ha conseguido “contagiar” a un
colectivo mucho más amplio que el de los inversores, que poco
a poco termina identificando erróneamente la tecnología con
la electrónica, la informática y la comunicación (TIC).
En los casos que se incluyen en este libro existe, como es lógico, una importante representación de empresas que operan en sectores intensivos en tecnología, ya que en estos
sectores es obligado que la estrategia empresarial ponga énfasis en la misma, pero también se han incorporado ejemplos de empresas que operan en sectores no intensivos en
tecnología, en los que resulta interesante conocer por qué
unas empresas abordan el desarrollo tecnológico mientras
que otras no lo hacen, y qué consecuencias tienen una y
otra estrategia.
Innovación
“El que no aplica nuevos remedios debe esperar nuevos males;
porque el tiempo es el máximo innovador.”
(Francis Bacon, 1561-1626)
El segundo término a definir y comentar es el de innovación.
Este es un concepto más cercano a la sociedad, menos distorsionado por la publicidad y los medios, ya que se utiliza
de forma adecuada en multitud de campos de la actividad
humana: Innovar es, según el diccionario: “mudar o alterar
algo, introduciendo novedades”; por lo que la “innovación
tecnológica” no será otra cosa que mudar o alterar una
tecnología, introduciendo novedades en ella.
Según otra acepción del término, innovación también es:
“creación o modificación de un producto, y su introducción
en un mercado”, por lo que la innovación tecnológica, será
la creación o modificación de una tecnología y su introducción en un mercado.1
De nuevo aquí, como ocurría con la tecnología, quien define
la realidad del cambio es el mercado. Cualquier cambio o
1 La Norma UNE 166000:2006 define la innovación tecnológica
como: “actividad de incorporación, en el desarrollo de un nuevo
producto o proceso, de tecnologías básicas existentes y disponibles
en el mercado”.
19
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
modificación de una tecnología que no llegue al mercado,
no debería llamarse innovación. Todo cuanto esté en una estantería o en un ordenador, en tanto no se incorpore a un
mercado, no es una innovación tecnológica propiamente
dicha. En todo caso, utilizando la terminología agrícola, sería
una innovación tecnológica en agraz.
Entorno
Empresa
Cultura
ESQUEMA LÓGICO
En los apartados siguientes se van a enunciar y analizar los
roles que juega la tecnología en las distintas facetas de la
empresa. Se trata de una realidad compleja, como lo es el
“sistema” empresa, que se puede y debe contemplar desde
distintos ángulos; pero, al ser una realidad única, es inevitable que se produzcan ciertos solapamientos en los análisis
parciales.
Estrategia
Este es el esquema lógico que se ha seguido para desarrollar
el resto de los apartados; pero no se debe olvidar, como se
ha dicho, que se trata de una única realidad, por lo que el
análisis se podría abordar empezando por cualquiera de sus
elementos.
20
Gestión
Abastecimiento
Alquiler
En la figura 1 se ha esquematizado el hilo del razonamiento
aquí seguido:
• La empresa está en continua interacción con el mercado,
y en esa interacción la tecnología es una pieza calve. El binomio empresa-mercado está influenciado por el entorno,
que marca las tendencias y exige constantemente adaptaciones y cambios. Con todo ello, la empresa va creando su
propia cultura tecnológica y diseñando su estrategia al respecto. Al servicio de esa estrategia, y gracias a una gestión
adecuada, realiza su abastecimiento de tecnología optando, en cada caso, por alquilarla, comprarla o desarrollarla.
Por último, para cerrar el ciclo, la empresa puede incluir en
su estrategia, la transferencia de su tecnología a terceros.
Mercado
Compra
Desarrollo
Transferencia
Figura 1. Esquema tecnológico de la empresa
ENTORNO
En la formación de la cultura tecnológica de una empresa,
así como en su interacción con el mercado, tiene un peso relevante su entorno, ya que sus actividades y la propia formación del personal que la integra están necesariamente influenciados por ese entorno. En este libro se contemplan y
analizan las experiencias tecnológicas de empresas españolas
que, aun en el caso de las empresas más internacionalizadas,
se mueven dentro del entorno español y de la cultura tecnológica española, que es, sin duda, diferente de las culturas
tecnológicas de otros países. No es necesario recurrir a las
culturas tecnológicas estadounidense o japonesa para resaltar esas diferencias, ya que también hay marcadas diferencias
con países tan cercanos como Reino Unido, Francia o Italia.
Tecnología y empresa: la teoría
No es intención de este capítulo hacer un análisis histórico
de la investigación y el desarrollo tecnológico en España,
pero siendo uno de sus objetivos realizar determinados apuntes prospectivos sobre la evolución de algunas tecnologías y
analizar determinados éxitos de desarrollo y gestión de la
tecnología, conviene recordar lo dicho por Søren Kierkegaard
(1813-1855): “La vida ha de ser vivida mirando hacia delante, pero solo puede ser comprendida mirando hacia atrás”.
De ahí que a continuación se esbocen algunas pinceladas
sobre el pasado del país, que explican, en cierta medida, las
diferencias entre su cultura tecnológica y la de los países
antes mencionados.
La conocida polémica entre Unamuno y Ortega y Gasset, en
la que don Miguel proponía “que inventen ellos, ya que nosotros nos podemos aprovechar de sus inventos”, es representativa de dos formas antagónicas de ver el mundo, y aunque no son privativas de la sociedad española, tiene raíces
profundas en ella. El “que inventen ellos” tiene mucho que
ver con la hidalguía, la nobleza y la pureza de sangre, tan valorada por la forma de ser y de sentir, sobre todo castellana.
Hubo que esperar hasta 1783 para que Carlos III dictaminase
que el trabajo manual “no envilece, ni es óbice para conseguir la nobleza”, eliminando así un hecho discriminatorio
que contrastaba con las costumbres de los países anglosajones, en los que arraigó el calvinismo. Dos siglos antes, en
1558, Luis de Ortiz, Contador de Hacienda de Castilla, había
propuesto a Felipe II dos medidas:
• Prohibir la salida de mercancías sin labrar.
• Ensalzar los oficios mecánicos, hoy aniquilados y despreciados, dándoles honras y oficios, como se hace en
Flandes.2
2
En la Memoria que envió Luis Ortiz al rey decía cosas como: “Entendido está que de una arroba de lana, que a los extranjeros cuesta
quince reales, hacen obraje de tapicerías y otros paños y cosas labradas fuera de España de que vuelven de ello mismo a ella valor
Con tales precedentes culturales, no resulta extraño que
España se dividiera profundamente ante los grandes movimientos sociales, económicos y tecnológicos de los siglos
XVIII y XIX, como la Ilustración o la Revolución Industrial, incorporándose tarde y mal a ellos, para terminar encontrándose con notable desventaja al cerrarse los grandes conflictos bélicos del siglo XX, en los que España “participó”
con el suyo propio. Terminada la Segunda Guerra mundial,
el mundo occidental entra en un periodo de crecimiento
económico y desarrollo tecnológico industrial acelerados,
en el que participan tanto las naciones ganadoras como
las perdedoras, mientras que España, una vez más, queda
relativamente al margen de ese desarrollo o, cuando
menos, participa de él de forma secundaria, con un cierto
retraso temporal.
España abordó su desarrollo industrial en condiciones muy
difíciles, con importantes restricciones en el suministro de
muchas materias primas y también de tecnologías. En este
marco, recurrió a una cierta autarquía que incluía también
la investigación y el desarrollo tecnológico, lógicamente sesgados por las carencias y el aislamiento. Mientras tanto, los
países de su entorno realizaron su desarrollo con tecnologías
procedentes mayoritariamente de EEUU, complementadas
por una fuerte protección de los gobiernos que permitió a
sus empresas de los sectores básicos y de bienes de equipo
crecer y fortalecerse, hasta el punto de poder asimilar y sustituir las tecnologías originales.
Cuando ya en los años sesenta se liberalizó la economía y
se abrieron los mercados, España se lanzó con entusiasmo
a la compra de lo foráneo, rechazando frontalmente el modelo autárquico, sin analizar la oportunidad de evolucionar
desde la situación anterior, aprovechando lo que hubiera
de más de quince ducados... y en el hierro y acero, de lo que les
cuesta un ducado, hacen frenos, tenazuelas, martillos, escopetas,
espadas, dagas... de que sacan más de veinte ducados y a veces
más de cien”.
21
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
sido pertinente. Salvo en aquellas escasas ocasiones en las
que por razones estratégicas el Gobierno se reservó alguna
presencia en determinados sectores y empresas, el resto de
la economía experimentó un fuerte giro hacia la compra de
tecnología ajena que condujo a un modelo de dependencia,
con las limitaciones que ello conlleva.
Las posteriores transformaciones experimentadas por el
marco económico español y europeo: formación de las comunidades europeas, creación de la Unión Europea, globalización…, que sin duda brindan enormes posibilidades para
la penetración en muy diversos mercados, han encontrado
a una buena parte de las empresas españolas en esa segunda
fila tecnológica en la que les había situado la evolución anterior, sufriendo la competencia de aquellas empresas que
se desarrollaron tecnológicamente bajo la protección de sus
gobiernos y que ahora exigen que se respeten las reglas del
juego liberal, que tanto les favorecen.
Esta es una descripción simplista que no recoge toda la realidad, puesto que, afortunadamente, son abundantes los
ejemplos de empresas españolas que están sabiendo competir y salir a los mercados internacionales con sus propios
productos y tecnologías, y de ello queda constancia en este
libro; pero los datos agregados son coherentes con la descripción anterior: el Informe de Competitividad Global
2010-2011 publicado por el Foro Económico Mundial (FEM)
coloca a España en el lugar 42 de 139 países, retrocediendo
nueve puestos con respecto del Informe del año anterior;
al nivel de Puerto Rico o Barbados. El índice de competitividad lo componen un total de doce factores que influyen
sobre la misma, como son: infraestructuras, ambiente de
negocios, mercado laboral y de bienes, mercado financiero,
salud y educación primaria, innovación y tamaño absoluto
del mercado. Pues bien, donde España obtiene una puntuación muy baja es precisamente en innovación, lo que
lastra buena parte de las posibilidades que brindan otros
factores y está dificultando notablemente la salida de la crisis que ha afectado a todos los países de su entorno económico y social.
22
La cultura tecnológica de la sociedad española es causa y
efecto de estos precedentes. Un ejemplo no anecdótico de
esa cultura es la extensión del argumento publicitario: “La
tecnología alemana al servicio de...”, y lo inimaginable que
sería el uso del argumento: “Desarrollado con tecnología
propia”. Compárese esta situación con las posturas, por
ejemplo, de la sociedad francesa.
Hasta ahora, la Administración española, cualquiera que
haya sido su color político, no ha percibido de forma profunda esta situación: no ha asumido que España no tiene ventajas en energía ni en materias primas estratégicas, y que
hace años perdió el diferencial favorable de la mano de obra,
por lo que no le queda otra salida que la del desarrollo tecnológico, no como declaración formal, que eso sí lo ha hecho
en varias ocasiones, sino como un cambio radical de actitudes y cultura, mediante la creación de un marco que sea favorable a la “revolución tecnológica pendiente”.
MERCADO
“La prueba de una innovación no es su novedad,
ni su contenido científico, ni el ingenio de la idea,
sino su éxito en el mercado.”
(Peter Drucker, 1909-2005)
La innovación tecnológica es la llave del mercado. Esta es una
frase “axiomática” con la que pueden estar de acuerdo numerosos empresarios, pero que seguramente no asumen
otros, que están situados en el mercado sin haber dedicado a
la tecnología mayor atención que la que han dedicado a otros
insumos. Estos empresarios, cuando tuvieron necesidad de
ciertas tecnologías, acudieron al mercado correspondiente,
establecieron los acuerdos pertinentes, las consiguieron... y
pasaron a atender otros problemas de su empresa que consideraron más urgentes. Como esta es una actitud más frecuente de lo que parece, resulta necesario ahondar en el alcance
de la frase inicial y en las consecuencias que, en general, se
derivan de la actitud de ese segundo tipo de empresarios.
Tecnología y empresa: la teoría
La relación inequívoca entre la tecnología y el mercado la establecen los dos parámetros que caracterizan un producto
en el mercado: la calidad y el coste. En efecto, la calidad de
un producto la proporciona la tecnología de su diseño y especificación, que garantiza su función de utilidad o su atractivo para el cliente, y esto es así tanto para un frigorífico, un
automóvil, unos zapatos, una lata de fabada u otros productos destinados al consumo, como para productos industriales
como puedan ser una caldera de gas, un aerogenerador o
una centralita telefónica; en todos estos casos, la tecnología
sirve para diferenciar unos productos de otros, ya sea de
forma implícita o explícita.
En los casos de aquellos productos que no admiten diferenciación en el mercado (las commodities anglosajonas), como
es el caso, por ejemplo, de la electricidad, el trigo, la gasolina,
etc., ya que su calidad se limita a cumplir las especificaciones
que imponen el mercado o la legislación, la tecnología es la
que, por un lado, facilita el cumplimiento de esas especificaciones, mientras que por otro lado consigue una diferenciación en el coste del producto y, por lo tanto, una ventaja
comparativa en el mercado o en la cuenta de resultados.
En efecto, la tecnología del proceso es la que determina los
costes y, por lo tanto, resulta decisiva para poder acceder al
mercado con un precio competitivo.
El interés y la necesidad de alcanzar una cierta autonomía
tecnológica, en definitiva, la actitud y estrategia tecnológica
de una empresa, están condicionados por varios factores y
parámetros del sector en el que opera.
Intensidad tecnológica
Quizás el primer parámetro a analizar en la relación de la tecnología con el mercado sea la intensidad tecnológica del sector en el que opera la empresa, frente a las intensidades de
otros factores de la producción como el capital o el trabajo.
En cualquier caso, como se expuso en el apartado anterior,
tanto el capital como el trabajo también llevan la tecnología
incorporada de forma implícita, y es muy importante saber
gestionar tanto la tecnología incorporada a los bienes de
equipo, la maquinaria, las instalaciones, etc., como la soportada por el personal de la empresa, cualquiera que sea su
nivel y ocupación.
Es también importante tener una visión evolutiva de la intensidad tecnológica de un sector, ya que puede cambiar muy
significativamente con el tiempo. El ejemplo más evidente
de estos cambios son los desplazamientos de la mano de
obra al ser sustituida por la tecnología gracias a los procesos
de mecanización, automatización e informatización que han
transformado hasta la raíz muchos sectores, ocasionando
desde su origen el rechazo de los trabajadores y el nacimiento del ludismo. De hecho, buena parte de los Expedientes de
Regulación de Empleo (ERE) que se someten a la aprobación
de la Administración tienen su origen en la “desmaduración”
del sector, originada por la incorporación de nuevas tecnologías.
Posición en el mercado
No obstante lo dicho, cualquiera que sea la intensidad tecnológica de un sector, la actitud y estrategia tecnológica de
una empresa encuadrada en él están condicionadas por su
posición en el mercado, con respecto a sus clientes y a sus
competidores. Parece claro que, cuanto mayor sea el número
de clientes, tanto menos exigente será el mercado y, por
tanto, las exigencias tecnológicas que determinen la calidad
y el precio del producto. Un cliente único (monopsonio) o un
oligopolio de demanda siempre podrán ser más exigentes
que el consumidor final, al que se puede convencer por otros
medios, como la publicidad (aunque esta utilice como argumento la tecnología, cualquiera que sea la atención real que
la empresas le preste).
De forma similar, las exigencias que puede formular el cliente
a una empresa que está en situación de monopolio son claramente menores que cuando existe al menos un oligopolio
23
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
de oferta o cuando la empresa se mueve en un mercado totalmente abierto y competitivo.
La tabla 1 contiene una matriz en la que se refleja lo anterior,
reduciendo de forma esquemática todas las situaciones posibles a nueve. Como parece evidente, la casilla C acoge
aquellos productos en los que la exigencia tecnológica es
menor, dado que una empresa sin competencia (de hecho
o de derecho) ofrece sus productos a un consumidor que
tiene poca o ninguna capacidad para imponer criterios tecnológicos sobre calidad o precio. Por el contrario, la casilla
G acoge la situación más exigente, ya que un cliente único
puede imponer sus criterios y exigencias ante una oferta
abierta. La casilla E acoge una situación exigente, conocida
como oligopolio bilateral, que es muy típica de los productos
industriales.
Tabla 1. Posición en el mercado en función de la competencia y los clientes
Cliente único Oligopolio
(monopsonio) de demanda
24
Consumidor
Monopolio
de oferta
A
B
C
Oligopolio
de oferta
D
E
F
Competencia
abierta
G
H
I
mercado, prestando atención a todos los parámetros que
los configuraban. El primer estudio se realizó en el sector
químico, pero con posterioridad se extendió a maquinaria,
electrónica, construcción, etc., comprobando que las conclusiones del proyecto inicial eran claramente extrapolables
al resto de sectores.
En esas conclusiones, junto a las más obvias de asunción de
riesgo, capacidad de investigación, mantenimiento de esfuerzo, capacidad financiera, etc., destacan otras relativas al mercado que parecen ser las determinantes del éxito real de la
innovación. Se constató, por ejemplo, que:
• Gran parte de las innovaciones exitosas fueron resultado
de una estrecha colaboración entre las firmas innovadoras
y las usuarias de la innovación.
• Las innovaciones más exitosas ocurrieron en empresas que
desarrollaron una adecuada red interna de comunicaciones y una integración entre producción y mercado.
Como consecuencia de lo anterior se propusieron, como
condiciones necesarias para el éxito:
• Conseguir una identificación rápida e imaginativa del mercado potencial.
• Prestar especial atención al mercado potencial y realizar
esfuerzos para captar y ayudar a los usuarios.
Desarrollo del mercado
• Coordinar la I+D con la producción y la comercialización.
Las relaciones entre la innovación, la tecnología y el mercado
vienen siendo objeto de estudio a lo largo de los años. Quizás, uno de los esfuerzos más relevantes al respecto sea el
Proyecto Sappho, realizado en los años setenta por la Science
Policy Resarch Unit de la Universidad de Sussex, que ha tenido numerosas secuelas posteriores. El Proyecto Sappho es
un estudio empírico en el que se analizaron en profundidad
numerosos proyectos de investigación, con y sin éxito en el
• Mantener buenas comunicaciones con el mundo exterior
y con los clientes.
En definitiva, se concluyó que, para que existan productores
y usuarios de innovaciones como unidades formalmente independientes, se requiere un flujo continuo de información
entre ambos. En la medida en que los mercados se caractericen por cierto grado de organización (canales y códigos de
Tecnología y empresa: la teoría
información, lazos de cooperación, confianza mutua, etc.)
se puede hablar de interacción entre tales agentes.
El desarrollo del mercado (preparación de usuarios, asistencia
posventa, presencia cercana, exportación, etc.) se presenta,
pues, como una actividad de enorme trascendencia para que
una innovación tenga éxito y la tecnología desarrollada sea
utilizada por sus destinatarios naturales. Siempre, claro está,
que no se trate de un mercado cautivo.
UBICACIÓN DE LA TECNOLOGÍA
Por su parte, cuando el producto llega diferenciado al mercado, es el principal receptor y portador de la tecnología, y
esta es la responsable del diseño y fiabilidad del producto,
que permiten que su funcionalidad sea apreciada en el mercado al que se dirige.
CULTURA, ESTRATEGIA Y GESTIÓN
TECNOLÓGICA
“Si seguimos haciendo lo que estamos haciendo,
seguiremos consiguiendo lo que estamos consiguiendo.”
(Stephen Covey, 1932- )
Resulta sorprendente constatar que, con cierta frecuencia,
empresarios y técnicos con muchos años de experiencia identifican la tecnología con aspectos muy concretos de su
empresa e ignoran, u olvidan, otros igualmente importantes
para la gestión y el éxito de la misma.
En principio, los grandes receptores de la tecnología son el
proceso y el producto. El proceso es un gran receptor de la
tecnología de una empresa, ya que es la tecnología del proceso la que determina el coste de los productos y su diferencial con respecto al precio en el mercado, además de otros
parámetros tan importantes como la mano de obra necesaria, el consumo energético o el impacto medioambiental.
Los procesos están constituidos por un conjunto complejo
de elementos (know how, equipamiento, formación del
personal, organización, automatización, etc.), todos ellos
receptores de tecnología. De entre esos elementos merecen
destacarse los bienes de equipo, que en muchas ocasiones
son los que incorporan la mayor parte de la tecnología que
utiliza una empresa. Con frecuencia, las empresas de proceso colaboran con sus suministradores de bienes de equipo para especificar sus prestaciones, participando activamente en el diseño e innovación continua de tales equipos
(el sector de obras públicas es un buen ejemplo de ello) sin
que se identifique esta acción como parte de un desarrollo
tecnológico.
Una empresa es un sistema complejo que, actuando dentro
de un entorno que le influye de forma notable, trata de optimizar los medios y recursos de que dispone para alcanzar
unos ingresos que puedan satisfacer las expectativas de resultados económicos esperados en cada momento.
Cuando ese sistema complejo está en equilibrio, quiere decir
que se ha alcanzado y superado el umbral mínimo de ingresos requerido y que se están obteniendo los beneficios
esperados. Pero ¿qué ocurre cuando no se obtienen esos ingresos? ¿cuando semana tras semana, mes tras mes o incluso año tras año, los ingresos caen de forma continuada?
Cuando eso ocurre dentro de un mercado competitivo lo lógico es pensar que las caídas de las ventas se deben a problemas de calidad o precio de los productos con respecto a los
de la competencia.
Con frecuencia, cuando se produce una de estas situaciones que el empresario no había previsto, su primera percepción es la falta de liquidez, por lo que la reacción inmediata es actuar sobre los costes y la financiación, buscando
“soluciones financieras y laborales” que traten de paliar el
problema a corto plazo, esperando que el problema sea pasajero. Desgraciadamente, cuando detrás de la caída de las
ventas lo que hay son costes de producción y comercialización elevados, obsolescencia de los productos, desventajas
25
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
cualitativas con respecto a la competencia, etc., esas “soluciones financieras” no son tales, sino parches lenitivos
que, al no actuar sobre las causas profundas, que son de
carácter tecnológico, no solo no arreglan la situación, sino
que la empeoran, al consumir un tiempo que sigue siendo
aprovechado por la competencia para ahondar las diferencias establecidas.3
La empresa ha de mantener un continuo y difícil equilibrio
entre lo urgente a plazo inmediato y lo importante a medio
y largo plazo. Son muchos los directivos empresariales que
esgrimen como bandera el conocido dicho latino primum
vivere, deinde philosophare, aplicando lo de philosophare a la
investigación y el desarrollo tecnológico. Es bien cierto que
si el presente no es viable, nunca podrá haber futuro, pero
también lo es que la mayoría de los problemas pueden preverse con una planificación bien realizada, que anticipe los
efectos de los cambios del entorno, minimice sus consecuencias negativas y permita aprovechar las oportunidades que
brindan los cambios. De ahí la necesidad de buscar ese equilibrio entre el corto, el medio y el largo plazo, que obliga a
que una empresa no pueda considerarse nunca en “reposo”,
por brillante y tranquila que pueda parecer su situación en
un determinado momento, porque el tiempo y el entorno
están variando de forma permanente.
La investigación tecnológica, cuando no es un juego diletante, sino una actividad comprometida con la realidad de la
empresa, actúa en el campo de las causas y no en el de los
efectos, por lo que puede y debe ser el mejor y más sólido
apoyo para garantizar o, al menos, posibilitar su futuro.
Cultura tecnológica
Dos amigos pasean bordeando un lago. De pronto
ven que un hombre chapotea en el agua pidiendo
auxilio. Uno de los dos paseantes no se lo piensa: se
quita la chaqueta y los zapatos, se arroja al agua y
salva a quien estaba ahogándose. Nada más llegar a
la orilla, es ahora una mujer la que está en la misma
Cada empresa posee una cultura tecnológica integrada por
el conjunto de las actitudes que sus fundadores, dueños, directivos, técnicos, trabajadores y resto del personal, tienen
con respecto a la tecnología. Esa cultura se va creando a lo
largo de los años y tiene siempre como referencias, tanto positivas como negativas, las decisiones de carácter tecnológico
que se han ido tomando a través de la vida de la empresa.
Por supuesto, la cultura tecnológica no tiene nada que ver
con las manifestaciones formales que en un determinado
momento puedan hacer los directivos al formular un plan
concreto, al escribir la misión y la visión de la empresa o al
iniciar una campaña de publicidad. La cultura es algo que se
va labrando con el tiempo y que es difícil de cambiar, en un
sentido o en otro, en un plazo breve.
Es muy habitual que cuando una empresa ha entrado en ese tipo
de espiral destructiva, ha agotado las soluciones financieras, laborales, fiscales, etc., ha creado un problema social en su entorno y,
buscando las últimas salidas, se vende a terceros o sencillamente
se cierra, sus responsables terminen aduciendo “causas tecnológicas” que justifican su última decisión; ero no lo hicieron cuando el
problema mostró sus primeros síntomas.
Es indudable que los elementos más determinantes de la cultura tecnológica son los máximos responsables (propietarios
y altos directivos) pero también lo es, y así se ha podido comprobar en procesos de cambios de capital, que cuando el
personal de una empresa ha tenido una sólida cultura tecnológica positiva, ha sido capaz de modificar las actitudes
renuentes iniciales de los nuevos propietarios.
3
26
situación: sin tiempo para reponerse, vuelve a tirarse
al agua y retorna con la mujer. Pero ahora es un niño
el que pide auxilio: vuelta al agua y ya, exhausto,
gana la orilla salvando al niño. Cuando se oyen nuevas voces de auxilio, le grita al amigo: “¡No puedo
más! ¡Me voy a ahogar yo! ¡Haz algo!”. A lo que el
amigo contesta: “Ya lo hago: ¡estoy buscando a
quien los tira!”
Tecnología y empresa: la teoría
Resulta adecuado recordar que, salvo escasísimas ocasiones,
esto del desarrollo tecnológico no es algo que se pueda realizar eventualmente una vez y sirva para siempre. Cuando
una empresa decide realizar un desarrollo tecnológico, debe
saber que una vez terminado y puestos en explotación sus
resultados, debe empezar a trabajar en su sustitución o
mejora drástica: si la empresa no lo hace, otros lo harán y la
sustituirán en el mercado.
debe ser en el futuro, su estrategia tecnológica y, muy en
concreto, qué lugar quiere que ocupen sus productos en el
mercado con respecto a los de la competencia. Cuando una
empresa produce diversos productos, su estrategia tecnológica puede ser distinta en varios de ellos. Además, la pregunta sobre la posición tecnológica objetivo debe planteársela
el empresario cada vez que se enfrente a la necesidad de
introducir un nuevo producto en el mercado o una modificación importante en los procesos.
Estrategia tecnológica
En todos estos casos, los máximos responsables de la empresa deben ser conscientes de que se trata de una decisión
estratégica, al margen de lo habitual o cotidiana que les
pueda parecer, y deben atender, antes de tomarla, a todos
los parámetros que se han enumerado con anterioridad:
“Una empresa es como una bicicleta:
o te mueves o te caes.”
(John D. Wright, 1891-1969)
Establecido y justificado, en parte, que el entorno cultural
y económico en el que se mueve habitualmente la empresa
española no es el idóneo para el desarrollo tecnológico propio,
procede ahora focalizar la atención en la empresa, y más en
concreto en el empresario, que es quien, teniendo en cuenta
todas las amenazas y las oportunidades que le brinda su
entorno, decide la estrategia a seguir en todas las áreas de la
empresa, y en particular en la tecnológica.
Peter Drucker (1909-2005) decía que donde hay una empresa de éxito, alguien tomó alguna vez una decisión valiente,
y ello porque esa decisión debe tomarse desoyendo los múltiples mensajes conservadores y pesimistas que el entorno
hace llegar continuamente.
Es cierto que, en general, la estrategia en temas tecnológicos
es algo que se define formalmente en determinados momentos muy significativos de las empresas, como es, desde luego,
su fundación; pero también cuando se producen cambios
drásticos, como puede ser un cambio en la propiedad, la fusión con otras empresas, la apertura a mercados muy diferentes a los habituales, modificaciones importantes en el
entorno económico, social y tecnológico, etc. En todos estos
momentos la empresa puede y debe analizar cuál es, y cuál
• Intensidad tecnológica del sector, teniendo en cuenta el
continuo incremento que están experimentando todos los
sectores, en detrimento, sobre todo, de la intensidad en
mano de obra.
• Tecnologías claves: es decir, aquellas que pueden marcar
la diferencia con respecto a productos similares de la competencia. En general, habrá que analizar las tecnologías
de diseño, de producción, de materiales, de componentes,
de uso, etcétera.
• Situación de la competencia: si actúa en competencia
abierta, en oligopolio o en monopolio.
• Situación de los clientes: si dispone de un único cliente,
de un oligopolio de demanda, o si actúa sobre el consumidor.
• Dimensión de la empresa en relación con la de la competencia y con el tamaño del mercado al que se quiere
acceder.
• Situación y evolución del entorno económico y social, en
todo cuanto afecta más directamente al producto.
27
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Todos estos parámetros le son tan familiares a los responsables de la empresa que raramente los explicitan, lo cual
puede conducir a errores de apreciación, sobre todo los derivados de la continua evolución del entorno. Por ello conviene que, periódicamente, en general cada año, y siempre
que se deba tomar una decisión de carácter estratégico, los
responsables realicen el ejercicio de poner, negro sobre blanco, la situación y evolución de tales parámetros para proporcionar la necesaria perspectiva a sus decisiones.
Las distintas opciones de la innovación tecnológica dan lugar
a que las empresas opten por distintas estrategias tecnológicas: la de liderazgo en el mercado, que asume todos los
riesgos, persiguiendo el máximo beneficio; la de seguimiento
(me too), que puede rendir importantes beneficios según sea
el tamaño del mercado; la de asimilación, que retrasa notablemente la entrada en el mercado, y por lo tanto el beneficio; o la de generalización o extensión, solo aplicable a mercados locales, con escasos beneficios, a no ser que se trate
de mercados protegidos o cautivos.
Cuando Unamuno defendía que inventaran ellos, ya que
“nosotros nos podemos aprovechar de sus inventos”, ignoraba las graves consecuencias económicas y sociales que conlleva una estrategia tecnológica dependiente, que las crisis
económicas ponen de manifiesto de forma indubitable.
Gestión de la tecnología
Todo el conjunto de acciones que, explícita o implícitamente,
se han venido describiendo hasta aquí (análisis del entorno, caracterización y preparación del mercado, formación de la cultura
de la empresa, determinación de las estrategias, planificación
estratégica, etc.), junto a las que se describen en los apartados
siguientes (selección de la opción de abastecimiento, desarrollo, compra, asimilación y trasferencia de tecnología), integran
la gestión de la tecnología en una empresa. En este apartado
se han incluido dos aspectos concretos que afectan a esa gestión: especificidades del desarrollo y tamaño de la empresa.
28
Especificidades del desarrollo tecnológico
El desarrollo tecnológico propio tiene dos especificidades: la
incertidumbre de los resultados, que conlleva riesgos, y las
exigencias temporales. Ambas especificidades son, con frecuencia, los argumentos o los tópicos a los que recurren
los responsables de las empresas para justificar su actitud de
rechazo hacia esta actividad.
• La incertidumbre no es un concepto que esté vinculado
solo al desarrollo tecnológico, ya que son muchas las actividades empresariales que conllevan riesgos: tanto la política financiera como la estrategia comercial, la política de
personal o cualquier otra área de la actividad empresarial
llevan implícito un componente de riesgo que se puede
asumir o magnificar de acuerdo con la idiosincrasia y la
cultura de cada empresa. En el caso concreto del desarrollo tecnológico, resulta muy frecuente identificar posturas
en las que se sobredimensiona el riesgo, sobre todo cuando se dispone de alguna alternativa foránea que permite
acceder a la tecnología necesaria.
En esa sobrestimación del riesgo se suelen olvidar o minimizar tres hechos: el primero, que la oferta foránea se
agota y llega un momento en que no se encuentra quien
pueda suministrar la tecnología que necesita la empresa;
el segundo, complementario del anterior, que con mucha
frecuencia se sabe bien qué es lo que se pretende y cuál
es el objetivo a alcanzar, lo que reduce la incertidumbre;
y el tercer hecho que se olvida es que el mayor riesgo para
una empresa es el de no innovar o no hacerlo a tiempo.
• En cuanto al tiempo, es evidente que resulta ser más determinante para el desarrollo tecnológico que otros factores
como la disposición del personal adecuado o la de la financiación necesaria (que es, con mucho, el menos importante
y el más identificado como barrera).
El tiempo, que está vinculado a la evolución del entorno,
es el que exige de forma imperiosa la innovación; pero esta
Tecnología y empresa: la teoría
innovación no podrá satisfacerse con desarrollo tecnológico
propio si la empresa no dispone de herramientas para valorar y prever su evolución a corto, medio y largo plazo, es
decir, si no dispone de una planificación estratégica que
cumpla todos los requisitos formales de este proceso. De no
ser así, la evolución del entorno siempre sorprenderá a los
responsables de la empresa, que tendrán que tomar sus
decisiones sin saber quién “está tirando la gente al lago”.
Tamaño de la empresa
Es evidente que los equipos humanos pequeños tienen una
mayor capacidad para abordar innovaciones al carecer de la
inercia que, en general, lastra a los equipos y empresas de
mayor tamaño; de aquí que las empresas innovadoras de
gran tamaño suelan recurrir a formar equipos más reducidos,
dotados de una cierta autonomía. Pero de ello no puede deducirse, como se ha hecho en ocasiones, que la innovación
sea casi privativa de la empresa pequeña y mediana, llegando
a crear líneas de fomento a la investigación en las pymes y
marginando parcialmente a las grandes empresas.4 Pero es
más cierto que, salvo escasas excepciones, cada sector y cada
área de negocio requieren un tamaño mínimo de empresa,
por debajo del cual resultan ineficaces. Resulta impensable
la creación de una pyme para operar una siderurgia integral,
una refinería de petróleo o una fábrica de automóviles, y sin
embargo las empresas que operan en estos sectores deben
ser innovadoras y deben ser apoyadas en su desarrollo tecnológico; que, por otra parte, resulta trascendental para el
mantenimiento de las pequeñas y medianas empresas que
les suministran bienes y servicios.
En definitiva, cada empresa debe tener al tamaño que le
haga eficaz y debe buscar la forma más adecuada de abastecerse de tecnología, recurriendo al desarrollo propio cuando
sea necesario, gracias a la gestión tecnológica idónea.
4
En algunos momentos se tomó como un axioma de la gestión la
expresión small is beatiful.
ABASTECIMIENTO
Procede ahora retomar el esquema de la figura 1 para completar la revisión del complejo conjunto de actividades que configuran la gestión tecnológica de una empresa: se han analizado las relaciones entre el mercado y la empresa, así como
la influencia del entorno; se ha considerado la ubicación de
la tecnología en la empresa, así como su cultura y su estrategia tecnológica. En lo que sigue se va a analizar cómo se
abastece la empresa de las tecnologías que necesita y qué
opciones existen al respecto.
El abastecimiento de tecnología en una empresa es un proceso
continuo. Su origen puede ser tanto interno (formación continuada, incremento de la experiencia, proyectos de investigación, etc.) como externo (tecnología libre, incorporada o explícita, contratada), tal como se esquematiza en la figura 2.
Internas
Externas
Formación
Libre
Experiencia
Proyectos de I+D
Empresa
Incorporada
Explícita
Figura 2. Fuentes de abastecimiento de tecnología
Los proyectos de investigación, las compras de equipos e instalaciones importantes o los contratos tecnológicos representan soluciones de continuidad en el proceso de abastecimiento. Por supuesto, este proceso es muy distinto según el
momento histórico en el que esté la empresa: es muy diferente el abastecimiento en el momento de creación de la empresa, tras experimentar una crisis profunda o durante su
evolución normal.
29
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Atendiendo al soporte de la tecnología externa, que condiciona las vías y modos de su abastecimiento, cabe diferenciar,
como se ha indicado antes, entre tecnología libre, incorporada y explícita, en general, protegida.
• La tecnología libre es la más extendida y siempre supone
el mayor porcentaje de la utilizada en las empresas, aunque no se identifique como tal. Es de dominio público y
está soportada básicamente por los técnicos, operarios
y gestores de las empresas. Las personas captan estos
conocimientos de la documentación, la información técnica, congresos, exposiciones, contactos con expertos, etc.
Esta captación exige, fundamentalmente, tiempo para
identificar qué es importante y para incorporarla paulatinamente a la empresa.
• La tecnología incorporada, básicamente en los bienes de
equipo, ocupa un lugar muy importante en las empresas
de proceso. En muchas ocasiones la empresa está subordinada al funcionamiento de su equipamiento básico, proporcionado por terceros, de la que es usuaria inteligente,
pero sin tener ningún derecho sobre su tecnología.5 Curiosamente, en muchos sectores (por ejemplo, en minería,
generación de electricidad, obras públicas, etc.) las empresas colaboran expresamente con los diseñadores de los
bienes de equipo en las especificaciones que han de cumplir, así como en su adaptación a las circunstancias particulares en las que deben operar. Esta es una información
de carácter tecnológico de gran valor para el fabricante,
que este no solo no reconoce, sino que no descuenta en
su facturación contractual.
En España se creó un sector importante de empresas de
grandes bienes de equipo para atender a su desarrollo industrial en los años sesenta, basado en la ley de protección
de la fabricación nacional, que obligó a los diseñadores
5
En alguna ocasión, técnicos del sector eléctrico, al tratar este tema,
se han identificado con el taxista que adquiere el vehículo, lo maneja
y mantiene con pericia, pero desconoce la tecnología de su diseño.
30
extranjeros a ceder una parte de su tecnología a las empresas o filiales españolas y facultó a su personal para fabricar con la calidad debida. Sin embargo, el marco creado
no favoreció que estas empresas dieran el salto adelante y
accedieran a la capacidad de diseño, tal como ocurrió en
países como Francia, Alemania, Reino Unido o Italia, por
lo que, superada la etapa de expansión, las empresas
empezaron a ver reducidos sus mercados y poco a poco
fueron siendo absorbidas o, simplemente, desaparecieron.
El buen uso de la tecnología incorporada en los bienes de
equipo depende básicamente de la capacidad tecnológica
del comprador, que puede ser capaz de ir más allá de lo
que el fabricante haya supuesto inicialmente, o puede
limitarse a ser un usuario estricto de los equipos. En cualquier caso, la empresa que adquiere y utiliza los bienes de
equipo debe tener capacidad propia o contratada para
su buen uso, mantenimiento y reparación, dependiendo de
la urgencia y magnitud de las incidencias sufridas.
Una variante particular de la tecnología incorporada la
constituye la entrada en una empresa de una persona con
gran experiencia en el proceso o el producto de que se
trate. El “fichaje” de un experto suele tener gran impacto
en empresas pequeñas y medianas para adentrarse en
nuevos campos o mercados. Es un tema de gestión compleja, porque no resulta fácil que el experto comparta
sus conocimientos con el resto del personal y porque su
permanencia durante el tiempo necesario para su total
asimilación puede no ser sencilla.
A caballo entre estos dos tipos de tecnologías y de sus vías
de abastecimiento habituales, cabría mencionar otra opción, típica de las empresas de productos, que es el análisis
de los productos de la competencia, adquiridos por muy
diversos caminos. Se trata de una tecnología incorporada,
pero que está “a disposición” de quien tenga capacidad
para “destripar” inteligentemente el producto, identificar
sus componentes e imaginar cómo ha llegado a él la competencia para, a partir de ahí, introducir las innovaciones
Tecnología y empresa: la teoría
y cambios que su propia iniciativa le aconseje. Esto se
viene haciendo con productos químicos, farmacéuticos,
industriales e incluso bélicos.
• El tercer tipo de tecnología externa es la explícita, que en
general está protegida, ya sea por patente o por secreto, y
se transmite formalmente por vía contractual. Sin ser la más
numerosa, es la tecnología que ocupa un lugar paradigmático, ya que suele ser determinante para la satisfacción de
determinadas necesidades de la empresa y, desde luego,
es el argumento central ante la competencia y los clientes.
Esta tecnología tiene una enorme importancia cualitativa
y, según sean la cultura, la actitud y la estrategia tecnológica de la empresa receptora, esta puede quedar en una
situación de dependencia o superarla, parcial o totalmente, gracias a la asimilación, tal y como se trata más adelante. Por su propia naturaleza, en este tipo de tecnología
deben tenerse en cuenta la capacidad y la estrategia tecnológica no solo del receptor, sino también del cedente.
Ha quedado ya expuesto que la tecnología se mueve en el
terreno de las causas y, por esta razón, el abastecimiento y
la gestión de las tecnologías críticas para la empresa deben
considerarse como acciones estratégicas y sus decisiones
deben ser adoptadas, lógicamente, por quienes tienen tal
responsabilidad, es decir, la propiedad y la alta dirección.
Cualquier otra opción será errónea, y podrá conllevar consecuencias indeseables a medio y largo plazo.6
Si las decisiones sobre las tecnologías críticas, ya sea para su
desarrollo interno o para su adquisición en el exterior, corresponden al nivel estratégico de la empresa, al nivel táctico le
corresponde la planificación detallada del desarrollo o la compra y asegurar la correcta participación de todas las unidades
relacionadas; en especial: comercial, producción y personal.
Por último, al nivel administrativo le corresponde la ejecución
de las acciones planificadas; la participación del personal, adecuadamente motivado y creativo; la contratación de medios
ajenos, cuando sea necesario; y el control de los resultados.
De acuerdo con esto, el nivel estratégico de la empresa debe
decidir la opción a seguir para conseguir disponer de una
determinada tecnología, que en la figura 3 se ha denominado
“tecnología objetivo”.
Tecnología
objetivo
Sí
¿Es aceptable
la dependencia?
No
¿Es posible el
desarrollo propio?
Sí
No
Compra
Alquiler
Tecnología
objetivo
subordinada
Asimilación
Desarrollo
Medios propios
Medios propios
Tecnología
objetivo
compartida
Tecnología
objetivo
libre
Figura 3. Opciones de abastecimiento de tecnología
6
Resulta sencillo comprobar cuál es el lugar que ocupan la investigación y la tecnología en las grandes empresas multinacionales,
siempre en una unidad staff de la Gerencia o la Dirección General.
El árbol de decisiones esquematizado conduce a tres posibles
situaciones finales en las que la tecnología objetivo termina
31
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
estando en la empresa: subordinada a un cedente, compartida con él o libre de toda ligazón exterior.
Las decisiones críticas a tomar corresponden a las dos cuestiones siguientes:
una necesidad tecnológica y considera la posibilidad de recurrir a su compra en el mercado tecnológico. En ese momento se le plantean las siguientes cuestiones:
1.º ¿Está disponible en el mercado?
1.º ¿Es aceptable una situación de dependencia?
Si no existe, o si quien la posee no quiere transferirla, no
será posible comprarla o alquilarla. Esto es tanto más posible cuanto más avanzada esté la empresa y mejor lugar
ocupe en el mercado, ya que utilizará tecnologías que
estén cerca de la frontera del conocimiento. En el caso
de los procesos se puede dar la circunstancia de que no
exista, exactamente, la tecnología buscada, y que haya
que adaptarla a los parámetros propios (materias primas,
climatología, sociedad, etc.).7
A esta cuestión se puede contestar en función de circunstancias como el carácter estratégico del sector o del
producto (sanidad, defensa, etc.); el peso específico de
la tecnología sobre el proceso o sobre el producto, su
aplicación reiterada en diversas instalaciones o en varios
productos; el estado de evolución de la empresa, del sector y del entorno.
2.º ¿Es factible el desarrollo autónomo?
2.º ¿Es aceptable la dependencia?
A la que se puede contestar en función de la disponibilidad del tiempo suficiente, y la disponibilidad de medios,
propios o contratados, adecuados para el desarrollo.
Entre las consecuencias indeseables de la dependencia
que genera el alquiler de una tecnología de proceso importante destacan: las compras inducidas de materias
primas, las ventas obligadas a compradores especializados, la necesidad de adquirir determinados componentes
o equipos, etc. Pero también se pueden sufrir limitaciones de ventas por productos o geográficas, la obligación
de ceder innovaciones que el receptor introduzca, etc.8
Desarrollo tecnológico propio. Tecnología
libre
La decisión de optar por el desarrollo tecnológico propio, en
general, responde a la estrategia y cultura de la empresa,
sobre todo en ciertos casos: cuando tiene asumido que solo
así sus productos pueden competir con éxito, cuando quiere
obtener una cuota de mercado alta, cuando quiere mejorar
su proceso para disminuir costes o para cumplir determinadas exigencias del entorno al menor coste, etc. Podría decirse
que en estos casos existe una cierta volición por parte de la
empresa: ha decidido basar toda su estrategia, o una parte
de ella, en el desarrollo tecnológico propio.
Pero pueden existir otras razones, “obligadas”, para recurrir
a la investigación y el desarrollo propios, que son las implícitas en el esquema de la figura 3. La empresa ha identificado
32
Como se ha apuntado antes, la dependencia es, en principio, inadmisible (aunque luego se acepte) en sectores
estratégicos, como también resulta inaceptable cuando
se prevé que vaya a tener un elevado peso específico en
la empresa.
7
Con cierta frecuencia, empresas españolas han adquirido tecnologías que necesitaban un gran esfuerzo de adaptación; han hecho
este esfuerzo y luego han pagado al cedente como si lo hubiera
hecho él.
8
Hubo, incluso, un contrato entre una empresa estadounidense y
otra del área del Caribe que obligaba a ¡desmontar las instalaciones
a la conclusión de dicho contrato!
Tecnología y empresa: la teoría
Cualquiera que haya sido la razón por la que la empresa haya
recurrido al desarrollo de la tecnología que necesita, ha de
ser consciente de que ha optado por una vía que tiene
diversas exigencias. Con excesiva frecuencia se ha puesto
énfasis en la financiera, como si los costes de investigación
tuvieran que ser cubiertos necesariamente por una financiación específica y externa. Se trata de un error alimentado
también desde la Administración, que, hasta ahora, no ha
sabido crear un marco adecuado para el fomento del desarrollo tecnológico nacional.
Por el contrario, las principales exigencias —además de la del
plazo necesario, a la que se ha aludido antes— son de carácter cualitativo: en primer lugar, el apoyo decidido de la alta
dirección, que debe estar atenta a la evolución del proyecto
y no desfallecer ante algún fracaso parcial sin un examen
pormenorizado del mismo; en segundo lugar, y como consecuencia de lo anterior, la colaboración del resto de la
empresa, y en especial de las direcciones más afectadas, como
pueden ser producción y comercialización; en tercer lugar,
la disponibilidad del equipo humano capaz de llevar a cabo
el desarrollo, ya sea propio o contratado; en cuarto lugar, tal
como se ha comentado en el apartado 3, la interacción y preparación del mercado, ya que esta exigencia es la que mayor
repercusión tiene en el éxito comercial del desarrollo.
Por último, es preciso insistir en el carácter cíclico de la innovación, que obliga a la empresa que ha obtenido un éxito en
la innovación de un producto o un proceso a poner en marcha su maquinaria innovadora para prever la nueva generación que habrá de sustituirlos.
Tecnología alquilada
Las empresas utilizan un elevado número de tecnologías (el
mayor porcentaje de las que usan, con diferencia) de las que
no son propietarias, sino simples usuarias. Se trata de tecnologías incorporadas a bienes y servicios; casi se podría decir
que están implícitas en ellos, y que la empresa las adquiere
como un insumo más de los necesarios para su funcionamiento. Es evidente que estas tecnologías no se consideran
como tales ni se contemplan, en ningún momento, dentro
de la estrategia tecnológica.
Cuando, volviendo al esquema de la figura 3, se trata de tecnologías significativas para el proceso o el producto de la empresa, y cuando la respuesta que la empresa se ha dado a sí
misma es que la dependencia es aceptable, se puede recurrir
a su “compra”, aunque cuando no existe una apropiación
real de la tecnología, parece más adecuado decir que se recurre a su “alquiler”.
En general esta es una situación que afecta a los procesos
de producción y muy en especial a las empresas que producen commodities y productos o servicios estandarizados,
por lo que es una circunstancia que afecta a parcelas muy
importantes de la industria y la sociedad, ocupadas por las
empresas que fabrican o prestan productos o servicios básicos.
Además, deben recordarse la consecuencias indeseables del
alquiler, descritas en el apartado 7.1.
Compra con asimilación. Tecnología
compartida
En aquellos casos (véase la figura 3) en los que la empresa
entiende que no es aceptable una dependencia total, pero
no dispone del tiempo necesario o de la capacidad inicial
para el desarrollo autónomo, puede optar por la compra real
de la tecnología en una operación mixta, resultante de su
“alquiler” inicial, seguido por su asimilación gracias a la formación y la investigación propias, hasta alcanzar un dominio
similar al del cedente, por lo que el resultado se ha denominado “tecnología compartida”.
Existe una notable diferencia entre las dos posibilidades que
se abren en relación con la continuidad de las fases de la
operación: lo deseable es que la empresa decida, desde el
inicio de su negociación con el cedente de la tecnología, que
33
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
va a ser necesaria su total asimilación. En este caso, puede y
debe establecer la negociación de forma que favorezca, o al
menos no entorpezca, esa asimilación. Posteriormente
deberá elegir el momento para abordar la sustitución del
cedente, gracias a la investigación y la formación propias.
En el caso, más frecuente, de que la empresa no haya previsto la asimilación desde el principio, el uso de la tecnología
alquilada le permitirá alcanzar el grado de apropiación más
bajo: el de fabricación simple. Si esto no le parece suficiente
y quiere acceder a grados de apropiación superiores que le
permitan una fabricación de calidad o incluso la concepción
y el diseño, tendrá que recurrir a la asimilación, con o sin la
colaboración del cedente.
Es importante entender y asumir que el proceso de asimilación exige un esfuerzo de formación e I+D de un orden similar al del desarrollo autónomo, con la notable diferencia
de saber adónde se debe llegar, aunque no se sepa a ciencia
cierta cómo llegar allí. Se aborda el desarrollo tecnológico de
forma más segura, pero no mucho más barata, ni tal vez en
mucho menos tiempo.9
GESTIÓN DEL CONOCIMIENTO.
TRANSFERENCIA DE TECNOLOGÍA
“Dime y lo olvido, enséñame y lo recuerdo,
involúcrame y lo aprendo.”
logía puede impregnar al conjunto de la empresa, o quedar
restringida a una o varias personas o confinada en el bien de
equipo que la contiene.
Con excesiva frecuencia algunos conocimientos están en
posesión de una única persona que actúa de manera aislada; de forma que, cuando deja la empresa por traslado,
jubilación o fallecimiento, los conocimientos se pierden con
el consiguiente daño. La difusión interna de los conocimientos debe formar parte de la cultura tecnológica de la
empresa, a través de una comunicación fluida y de la integración de equipos humanos que soporten y enriquezcan
los conocimientos de partida, sobre todo si los equipos tienen una cierta multidisciplinariedad. El nivel táctico de la
empresa debe poner especial énfasis en esta actividad de
difusión, que forma parte muy importante de la gestión
del conocimiento.
Otra faceta importante, ya citada con anterioridad, de la gestión interna de la tecnología es la de asumir su carácter cíclico. Esta particularidad del desarrollo tecnológico es muy familiar para el personal más creativo, responsable de los
proyectos de investigación que, en general, no consideran
acabado ninguno de sus desarrollos; pero es más difícil de
aceptar por los responsables de la fabricación, que tienen
que adaptar los medios humanos y materiales para la obtención del nuevo producto o proceso; y para los responsables
del mercado, que han de hacer otro tanto con las redes propias y con los clientes.
(Benjamín Franklin, 1706-1790)
Cualquiera que sea la fuente y el origen de una tecnología, y
su naturaleza una vez dentro de la empresa, la nueva tecno9 Es conocida la práctica que siguieron varias empresas japonesas
en el periodo de su acelerado despegue tecnológico e industrial,
según la cual adquirían los derechos de licencia de una tecnología
protegida por patente, pero renunciaban a la transferencia de tecnología del know-how. Eran los equipos propios los que debían
desarrollar plenamente la tecnología.
34
Una última reflexión sobre este tema debe hacer referencia a la delicada gestión del personal dedicado a la investigación tecnológica dentro de la empresa. Parte importante de este personal debe tener un fuerte componente
creativo, por lo que debe estar motivado e integrado en
la empresa. Con este tipo de personal, la incentivación
económica no es la más importante, estando por encima
de ella el reconocimiento de su tarea y la interrelación con
el colectivo nacional e internacional con el que se identifica.
Tecnología y empresa: la teoría
El cierre del esquema tecnológico de la empresa (véase la figura 1) es, en su caso, la transferencia a terceros de la tecnología que posee y domina. La lógica habitual de una empresa
en su relación con terceros países es intentar, en primer
lugar, la exportación de sus productos. Cuando el tercer país
eleva sus exigencias de valor añadido, se puede recurrir a la
creación de una filial o una empresa mixta. Cuando esto no
es suficiente u oportuno, quizás sea necesario acceder a
ceder la tecnología, primero en alquiler y luego en cesión
real. Todo ello se entiende mejor si se analiza lo que ha
hecho y hace España, como tercer país, con respecto las empresas estadounidenses, alemanas, francesas, etc.
Este proceso tiene un enorme valor para la gestión y la cultura tecnológica de la empresa, ya que cuando se hace el
esfuerzo de enseñar a un tercero es cuando se consigue
ahondar en el conocimiento propio y se profundiza en la
tecnología propia. La aplicación de la experiencia propia a
otras circunstancias es una fuente de información y de formación extraordinariamente potente.
Tecnología y empresa: la práctica
Rafael Martín Moyano
Uno de los objetivos de este libro es promover y acrecentar
la actitud positiva hacia el desarrollo tecnológico en el tejido
industrial español, y es bien sabido que no hay mejor forma
de incitar a hacer algo que predicar con el ejemplo. En consecuencia, tras el anterior capítulo que, aunque basado en
múltiples experiencias, tiene un cierto carácter teórico y generalista, se ha considerado apropiado “predicar”, no con
uno, sino con diez ejemplos de gestión tecnológica acertada,
extraídos de sectores y circunstancias suficientemente distintos, para que quienes consulten este libro puedan identificarse con alguno de ellos.
El proceso para recopilar los diez ejemplos consistió, primeramente, en confeccionar un listado previo de sectores-empresas de los que se tuviera constancia que habían demostrado una actitud tecnológica positiva. Se recurrió a diferentes
fuentes, empezando por los datos disponibles en la propia
AENOR. El listado inicial era muy amplio por lo que hubo que
limitar el número de casos a incluir y así evitar repeticiones
dentro de un mismo sector.
Tras unos primeros contactos con los responsables de las empresas o sectores preseleccionados, en los que se puso de
manifiesto su clara predisposición a participar en el proyecto,
se eligieron las diez que han colaborado. Es posible que otros
muchos sectores y empresas, que podrían haber colaborado
aquí, lo hagan en eventuales secuelas de esta publicación.
Es importante y oportuno señalar que, partiendo de un primer contacto institucional con las empresas, el interés de los
gestores del libro se centró en identificar, en cada caso, un
experto que, contando con la anuencia y colaboración de la
empresa, fuera el responsable personal de los textos. Ha sido,
con estos expertos, con los que se ha mantenido un diálogo
abierto, creativo y fluido durante toda la gestión.
Como puede constatarse fácilmente, se trata de diez sectores con culturas e intensidades tecnológicas muy distintas:
desde sectores muy tradicionales, pero con gran capacidad
de innovación, como son los del vino o el de la obra civil,
a los de intensidad tecnológica media, como el transporte,
37
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
los electrodomésticos o la energía eólica, a los intensivos
en tecnología, como las telecomuncaciones, la aeronáutica o la industria de la ciencia, o a un sector emergente,
como es el de la nanotecnología.
A cada uno de ellos se le pidieron dos aportaciones:
• La descripción detallada de una experiencia concreta de
desarrollo o de gestión tecnológica, que haya tenido repercusión apreciable en el mercado, lo que se identificó como
“caso”.
• Su visión sobre la posible evolución de la tecnología en su
sector o en alguna línea concreta de él, lo que se identificó
como “prospectiva”.
DIEZ CASOS DE ÉXITO: “El desarrollo es posible”
Los expertos han aportado: seis casos en los que se describe
el desarrollo tecnológico de un producto; un caso de desarrollo de un servicio; dos casos de desarrollo de procesos;
y, por último, un caso de creación de una empresa para explotar una tecnología nueva (spin off).
En dos ocasiones (Fagor y JEMA) el caso no está contado directamente desde dentro de la empresa, sino desde su entorno inmediato (Ikerlan-IK4 y Novomerco, respectivamente)
y, en otra ocasión, la descripción se realiza con alcance sectorial (Spancold).
Las exposiciones de los casos, y más delante de las prospectivas, siguen el sencillo orden alfabético de autores, ya que
cualquier otro criterio conceptual de los inicialmente considerados (intensidad tecnológica, tipo de innovación, sector
industrial, etc.) no aportaba ventajas apreciables y, por el
contrario, podía inducir a conclusiones inoportunas.
Cada uno de los casos contiene, junto a valiosa información
técnica sobre la tecnología desarrollada o gestionada que es
38
descrita en términos accesibles a lectores ajenos al sector de
origen, otra información específica del libro referente a la
gestión tecnológica realizada en cada caso: razones estratégicas, cultura tecnológica, opción de abastecimiento, planificación de la acción, medios utilizados, explotación de resultados, etc. Es decir, todos los aspectos de la relación entre
la tecnología y la empresa, abordados en el capítulo anterior
(el denominado teórico), están aquí plasmados en ejemplos
coherentes para su análisis y consideración.
A modo de enlace entre el capítulo generalista y los casos
reales, se pueden esbozar algunas pinceladas sobre la gestión tecnológica realizada en cada uno de ellos:
• Las fuentes de alimentación del JET, de JEMA (Novomerco).
Ejemplo de cómo una pyme española puede aprovechar
una oportunidad potencial para realizar un desarrollo tecnológico propio, en un entorno internacional altamente
competitivo y exigente. La base debe buscarse en la cultura
tecnológica arraigada en JEMA desde su creación, que motiva a todo su personal. Ejemplo, también, de planificación
detallada, en parte exigida por el concurso internacional, y
de apoyo en medios ajenos para resolver temas puntuales.
• La catenaria rígida PAC MM-04 (Metro de Madrid).
Ejemplo de asimilación sustitutiva de tecnología ajena,
apoyándose en la investigación pública y abordado por
una empresa que, como Metro de Madrid, sufre la competencia de otros medios de transporte, y siente la necesidad de optimizar la calidad y el coste de su servicio. La
empresa posee una elevada cultura de desarrollo tecnológico y se apoya eficazmente en medios públicos y privados ajenos.
• El desarrollo de la banda ancha (Telefónica).
Esfuerzo tecnológico para desarrollar el servicio de la
banda ancha, basado en las tecnologías normalizadas
Tecnología y empresa: la práctica
internacionalmente, pero que exigió a Telefónica un
cambio profundo de cultura tecnológica, coincidente con
la liberalización del mercado y el consiguiente cambio de
rol de la empresa. Ejemplo de colaboración entre todos
los departamentos implicados y de desarrollo de distintas
herramientas tecnológicas necesarias.
• La cocina de inducción de Fagor (IKERLAN-IK4).
Desarrollo autóctono en pos de un objetivo tecnológico
estratégico, cuya consecución tuvo que superar sucesivos
fracasos o éxitos limitados antes de alcanzar el definitivo.
El logro fue posible gracias a la especial cultura tecnológica del Grupo Mondragón y a la motivación de su personal. Ejemplo de utilización de medios ajenos, muy vinculados a la propia empresa.
• La innovación tecnológica en el sector vitivinícola
(Matarromera).
Ejemplo de “desmaduración” de un sector tan tradicional
como el vitivinícola, gracias a la aplicación de sinergias
procedentes de sectores intensivos en tecnología. Además de la optimización del proceso de obtención y de alta
calidad en la elaboración del vino, Matarromera ha conseguido, gracias a la innovación tecnológica, una importante diversificación elaborando nuevos productos como:
vino sin alcohol, alimentos funcionales o cosméticos.
Es también ejemplo de la participación de todo el personal del grupo, y del aprovechamiento de los medios e instrumentos de apoyo a la innovación, tanto regionales
como nacionales y extranjeros (UE).
• La pértiga de abastecimiento en vuelo (EADS-CASA).
Desarrollo tecnológico autóctono en un marco internacional muy exigente, luchando contra un monopolio de
hecho. Ejemplo de esfuerzo de una empresa española integrada en un grupo multinacional, aprovechando la motivación del personal y la cultura innovadora propia y del
grupo. Ejemplo de planificación detallada del esfuerzo,
que permite diseñar y aprovechar alternativas, para resolver dificultades sobrevenidas.
• La tecnología de presas y balsas (SPANCOLD).
Este sector tiene la particularidad de que cada presa o
balsa es, en sí, un caso único, por lo que la gran mayoría de las innovaciones tecnológicas se realiza sobre
el terreno (in the job), aunque luego se acumulen y sedimenten en los técnicos y empresas que participan en
los siguientes proyectos. Las circunstancias naturales
de cada emplazamiento tienen un peso definitivo en
el diseño y construcción de una presa, por lo que la salida a otros países representa un nuevo reto en cada
ocasión.
• La creación de una empresa de nanotecnología
(Tecnalia).
Ejemplo muy particular de desarrollo y uso de una tecnología emergente, que está llamada a “desmadurar” muchos sectores, como el de la construcción, y ejemplo de
la creación de una empresa para posibilitar la explotación
de los resultados de la innovación. Es, sin duda, un caso
extremo de la gestión del conocimiento, ya que lo que se
consigue es crear un mercado que no existe.
• La turbina de baja presión (ITP).
Como en el caso de la pértiga de abastecimiento en
vuelo, nuevo desarrollo autóctono en un marco internacional muy competitivo y exigente. Ejemplo de cómo una
empresa española puede buscar un hueco en el mercado
cuando, por su dimensión, no puede optar a posiciones
de liderazgo mundial en la turbina de gas completa, consiguiéndolo en un subsistema de la misma. Ejemplo de
optimización de los medios y experiencias para conseguir
la integración en un suministro de primer nivel, dentro
de un sector intensivo en tecnología.
39
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
• El aerogenerador G10X (Gamesa).
Otro ejemplo, como el de la catenaria, de asimilación sustitutiva de la tecnología extranjera, en la que tuvo que
apoyarse inicialmente Gamesa, pero que no respondía
óptimamente a las condiciones del entorno natural español. El mercado de la energía eólica, pese a sus evidentes
avances, no es aún un mercado maduro, por lo que la
componente tecnológica sigue siendo definitiva en la
estrategia de desarrollo de las empresas. Ejemplo de desarrollo de una estrategia tecnológica en pos de un producto y de nuevas soluciones para el mercado.
Es obvio que estas pinceladas, que quizás habría que calificar
como “brochazos” dada su tosquedad, serán superadas por
cada lector, que sabrá encontrar en cada experiencia sus propios “enganches”, ejemplos, identificaciones y estímulos. Sin
pretender sustituir estas aproximaciones personales, el conjunto
de los diez casos pone de manifiesto los parámetros del éxito
tecnológico a los que se ha hecho referencia en el capítulo teórico. Así, por ejemplo, la voluntad y visión de los responsables;
la cultura tecnológica; la estrategia tecnológica; la planificación
y el seguimiento de los proyectos; la motivación del personal;
el uso inteligente de medios ajenos; la relación del mercado y
preparación del mismo; la superación de las circunstancias propias, etc., aparecen prácticamente en todos los ejemplos.
También es destacable que, en todos los casos, la empresa
ya está trabajando en la mejora e incluso sustitución de la
tecnología desarrollada, asumiendo la dinámica implícita de
la innovación, que en el capítulo teórico se ha ilustrado con la
frase de John D. Wright: “Una empresa es como una bicicleta: o te mueves o te caes”.
Por el contrario, parece también muy evidente que la financiación exterior no ha sido determinante en casi ninguno de
ellos, contrariamente a esa especie de “mito urbano” que
parece subordinar el desarrollo tecnológico propio a la disponibilidad de financiación, ajena y pública, abundante y barata, es decir, la perniciosa subvención.
40
Otro de los mensajes que se deduce del conjunto de experiencia es la alta (se podría afirmar que, altísima) rentabilidad
del desarrollo. No es sólo que sin las innovaciones narradas
las empresas podrían haber sido desplazadas por su competencia o que los desarrollos les están abriendo nuevos y
más amplios mercados, sino que los datos que aportan los
expertos demuestran un retorno de la inversión de enorme
atractivo.
En resumen, cabe presumir que este conjunto de ejemplos
puede servir como un referente válido para un gran número
de empresas y circunstancias aunque se trate de sectores
muy distintos. En cualquier caso, son diez ejemplos con los
que este libro trata de hacer llegar un sencillo mensaje a
quienes lo consulten:
El desarrollo y la gestión tecnológica son viables para
las empresas españolas. Además, cuando se realizan
de forma adecuada, son actividades de alta rentabilidad que hacen posible el presente y mejoran la posición futura de la empresa
PROSPECTIVA TECNOLÓGICA: “Parten nuevos
trenes”
Otro de los objetivos de esta publicación es el de asomarse
a la evolución previsible de las tecnologías y ponderar qué
oportunidad puede representar para la industria española.
Para materializarlo, se solicitó a los expertos una visión prospectiva de la tecnología del sector que conocen, o de alguna
línea concreta de él. Se trató, necesariamente, de una solicitud más abierta que la realizada para analizar los casos de
éxito tecnológico, brindando al experto la máxima libertad
para elegir tema y plazo para su visión.
Es obvio que se ha evitado, conscientemente, la realización
de un ejercicio clásico de prospección tecnológica, siguiendo,
por ejemplo, las pautas del método Delphi u otros similares.
Tecnología y empresa: la práctica
Con ello se ha buscado una contestación, quizás menos rigurosa, pero más espontánea y desinhibida de la que estos métodos suelen proporcionar. Cada experto ha recogido la información que ha encontrado accesible y la ha filtrado según su
conocimiento, con la seguridad de que no estaba poniendo
en cuestión su credibilidad, la de su empresa o la de su sector.
Se trataba, simplemente, de un ejercicio de proyección de la
evolución tecnológica hacia un próximo futuro.
Cáceres (Novomerco), que han descrito en sus casos desarrollos de una tecnología concreta, dedican sendos documentos a la evolución tecnológica del sector correspondiente, es decir, los electrodomésticos, partiendo de la
evolución tecnológica pasada; el sector ferroviario metropolitano; la energía eólica y; la industria de la ciencia, sector emergente de enorme potencial y contenido
sinérgico.
El resultado es necesariamente heterogéneo, como lo es el
análisis y descripción de los casos:
• Antonio Porro (Tecnalia) dedica un documento a la descripción de nanotecnolgía y su aplicación al sector de la
construcción. El carácter emergente de esta tecnología
confiere al conjunto de los dos documentos aportados un
alto carácter prospectivo.
• Antonio Pérez (EADS-CASA) y José Ignacio Ulízar (ITP)
han incluido en sus casos un último apartado dedicado a
la posible evolución del reabastecimiento en vuelo y de
la turbina de gas, respectivamente.
• Carlos Moro (Matarromera) hace otro tanto en el último
capítulo de su caso, pero, además, es de señalar que los
capítulos que dedica al vino sin alcohol, los alimentos
funcionales o los cosméticos, tienen una gran carga
prospectiva, ya que se trata de tecnologías que sólo han
recorrido, hasta ahora, sus primeros pasos.
• José Polimón y José María Osorio (SPANCOLD) dedican
un documento diferenciado a lo que consideran puede
ser la evolución de las presas y balsas, en función de
las demandas y exigencias de la sociedad en el próximo
futuro, ante los nuevos retos que constituyen el cambio
climático, el abastecimiento de energía y la atención de
las necesidades de agua en un gran número de zonas
en el mundo.
• Antonio López (IKERLAN-IK4), Fernando Gómez (Metro de
Madrid), Mauro Villanueva (Gamesa) y Francisco Javier
• Cayetano Lluch (Telefónica) se decidió por confeccionar
un documento sobre la evolución seguida por la telefonía
móvil desde su nacimiento hasta el momento actual,
avanzando su visión de lo que actualmente se prevé va a
configurar la cuarta generación.
De nuevo, como ocurría con los diez ejemplos de éxito tecnológico, el libro brinda, a quienes lo consulten, información
valiosa sobre la posible evolución de diversas tecnologías con
un mensaje sencillo, pero contundente:
Aunque España haya visto pasar numerosos trenes
del desarrollo tecnológico, la dinámica de este proceso es tan alta que, aún en épocas de cierta recesión
como la actual, continuamente se están poniendo
en marcha nuevos trenes (nuevas oportunidades), a
los que las empresas españolas pueden subirse, si los
abordan adecuadamente, siguiendo los ejemplos de
gestión que se han descrito en los casos de éxito.
Los sistemas de alimentación de energía del Joint European Torus (JET)
La industria de la ciencia: ayudando a explorar las fronteras de lo posible
FRANCISCO JAVIER CÁCERES NÚÑEZ
(San Sebastián, 1949)
Consultor senior en Novomerco Consulting, S.L.
Director General de la Asociación Española
de la Industria de la Ciencia (INEUSTAR)
Ingeniero Técnico en las especialidades de Mecánica y Electrónica,
e Ingeniero CAED (UK).
Ha desempeñado la mayor parte de su vida profesional en
puestos ejecutivos de dirección ligados a la innovación y al desarrollo tecnológico internacional.
Fue Director de I+D, durante más de diez años en IESA, empresa
española líder en el diseño y fabricación de contadores de agua y
gas, trabajó para General Electric Plastics en el área de Technical
Marketing, y ha sido Director General de la Asociación de Electrónica, Informática y Telecomunicaciones del País Vasco durante más
de diecisiete años.
Ha sido también Director General de la empresa de telecomunicaciones IKUSI-GS en México, y Director Corporativo de Innovación y Desarrollo Institucional del Grupo Ángel Iglesias S.A. (IKUSI).
Actualmente es Director General de la Asociación Española de la
Industria de la Ciencia (INEUSTAR) y consultor senior en Novomerco
Consulting, S.L.
Es conferenciante habitual sobre temas relacionados con la
innovación y el I+D empresarial, así como miembro de diferentes
comités institucionales y privados para el fomento del desarrollo
empresarial y la innovación. Es profesor invitado en diversos programas universitarios de postgrado y miembro de las ejecutivas
de asociaciones sectoriales del ámbito de la electrónica, las telecomunicaciones y la industria de la ciencia. Asimismo, es autor
de distintos estudios para instituciones españolas y de otros
países en el ámbito de la ciencia e industria, innovación y competitividad, y procesos de internacionalización.
Los sistemas de alimentación de energía
del Joint European Torus (JET)
Francisco Javier Cáceres Núñez
“Lo que motiva a los trabajadores del conocimiento
es lo mismo que motiva a los voluntarios, los retos.”
(Peter Druker)
JEMA (JESÚS MARÍA AGUIRRE, S.A.)
El impulso emprendedor
Toda nueva actividad es fruto de una chispa creadora que
en algún momento aparece en la mente de alguien. Los iniciadores pueden ser la curiosidad, la necesidad, el deseo de
mejorar, la solidaridad o la filantropía, entre otros. Si esa chispa
prende, se alimenta con ilusión y se le aplican los esfuerzos
necesarios, tiene muchas posibilidades de convertirse en lo
que su creador soñó. Por eso, si se quiere conocer bien una
empresa, es necesario acercarse en primer lugar a su impulso
creador: el empresario.
Jesús María Aguirre Echeverría (Zaldibia, Guipúzcoa, 1930)
es un ejemplo típico de empresario hecho a sí mismo; un
hombre que soñó e hizo realidad su sueño, al que dedicó
toda su vida profesional. Pero además, y esto es notable,
Jesús María Aguirre se convirtió en uno de esos personajes
cuya visión contribuye a modelar la sociedad en la que
viven y a la que contribuyen de muy diversas maneras. Sus
aportaciones no están solo en la creación intelectual, sino
que, hombre de acción pionera, se puso al frente de las
nuevas actividades, mostrando el camino y sabiendo ceder
a otros el testigo cuando la nueva actividad ya se había
asentado.
Jesús María Aguirre, creador y fundador de JEMA, fue fundador y primer presidente de la Asociación de Industrias Electrónicas del País Vasco (AIEPV, 1982) y cofundador, vicepresidente y presidente después (1987-1993) de la Asociación
de Empresarios de Guipúzcoa (ADEGI). Durante su presidencia de ADEGI, se crearon, entre otros el Instituto de Máquina
Herramienta de Elgoibar (IMH), ELKARGI (sociedad de garantía
recíproca), el Centro de Desarrollo Empresarial (CDE) y el Instituto Técnico de la Construcción, y se puso la semilla de otras
muchas instituciones que posteriormente se fueron haciendo
45
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
realidad y en las que el aliento creador y el impulso de Jesús
Maria Aguirre es claramente perceptible.
Los orígenes y la evolución
Corrían los primeros años cincuenta. España pugnaba por
salir de un difícil periodo social y económico tras años de aislamiento y autarquía. En 1953, aparecía la televisión en color
en EEUU, fallecía el astrónomo Edwin Hubble, se concedía
el Premio Nobel a James Watson y Francis Crick por sus trabajos sobre la molécula del ADN y comenzaban a aparecer
las primeras radios a transistores, el invento que traería la ola
inicial de la electrónica de consumo, que ya no dejaría de
crecer. En España apuntaba un cierto crecimiento económico
derivado de la progresiva salida del aislamiento internacional,
que ese mismo año fue subrayada por la firma del concordato con la Santa Sede y posteriormente con los acuerdos
de defensa con EEUU. El apetecible mercado de más de
treinta millones que suponía el país, pronto empezó a despertar el interés de los emprendedores locales y de otras latitudes. Aquellos, con mucha ilusión y pocos medios; estos,
con algunos medios más pero con un mayor desconocimiento del incipiente mercado.
Y es en ese año cuando Jesús María Aguirre, un dinámico
joven de 23 años, lleno de curiosidad y afanes creadores,
formado en la Escuela de Electrónica de los Salesianos en
Pamplona, con alguna experiencia profesional por cuenta
ajena (Radio Guipúzcoa, Zumárraga) y, posteriormente, por
cuenta propia (autónomo, San Sebastián) en el mundo de la
fabricación de aparatos de radio y de electrocardiógrafos,
decide montar un pequeño taller en la calle San Bartolomé de
San Sebastián.
El desarrollo de los primeros trabajos mencionados ya había
puesto en evidencia su capacidad para abordar nuevos retos,
asimilando los conocimientos más avanzados del momento
y aplicando soluciones creativas a partir de los mismos. El
taller se dedicó a montar reguladores eléctricos para grupos
46
electrógenos cuyos clientes eran los fabricantes cercanos de
esos equipos. Una alianza con la empresa INDAR (Beasain)
para desarrollar nuevos equipos reguladores automáticos de
tensión, dio lugar a la primera patente del modelo de su invención y le posicionó como la empresa líder en el mercado.
Pronto fue preciso realizar el primer traslado del pequeño taller
a instalaciones más amplias.
Sus primeros productos fueron los mencionados reguladores
de tensión para grupos electrógenos y para maquinaria de
papel, y sus mercados eran básicamente locales, aunque
sus límites comenzaron a ampliarse rápidamente por todo
el territorio nacional. El negocio no tardó en crecer, y con él
la reputación de la marca JEMA (acrónimo de Jesús María
Aguirre, con el que empezó a conocerse a la empresa) y la
necesidad, nuevamente, de disponer de instalaciones más
grandes. Así se produjo un nuevo traslado al Barrio de la
Herrera de San Sebastián, a un local que triplicaba al anterior
y donde JEMA continuó desarrollando productos innovadores
que daban soluciones nuevas a problemas ya existentes o que
aportaban soluciones electrónicas a nuevas necesidades.
Desde los inicios, el afán innovador y la visión de Jesús María
Aguirre lo empujaron hacia la frontera de lo conocido, que
en aquellos momentos estaba encarnada por los semiconductores; así se convirtió, a pesar de su escasa dimensión, en
una de las empresas pioneras en España en la utilización de
esos dispositivos.
En 1965 JEMA contaba ya con alrededor de 60 empleados
y fabricaba, entre otros productos, rectificadores de diodos
con placas de selenio, transformadores de hasta 70 kVA, variadores de velocidad para trefiladoras y una gran variedad
de accionamientos que la creciente industria cercana precisaba. JEMA se hizo experta en el dominio de los rectificadores tipo ignitrón, thyratrón, etc., que aplicaba a sus accionamientos con gran maestría.
Se crea en esa época el Departamento de I+D de JEMA, que
deja de ser una empresa de montadores muy capaces para
Los sistemas de alimentación de energía del Joint European Torus (JET)
orientarse hacia la empresa de ingeniería, integración y desarrollo de soluciones innovadoras que la caracterizará, desde
entonces, en los mercados.
En esos años, JEMA tenía ya por clientes a un gran número
de empresas y sectores industriales y de servicios, entre los
que se pueden citar:
• Siderurgia: controles electrónicos de hornos, de trenes de
laminación en frío, de líneas de corte, de decapado...
• Generadoras-distribuidoras de energía: sistemas de alimentación para centrales nucleares, UPS para control de
procesos...
• Infraestructuras: grandes paneles indicadores visuales...
• Textil; papel; soldadura...
A finales de los setenta, JEMA desarrolló una alianza con la
firma finlandesa Strömberg para los suministros de control a
la industria papelera. JEMA fabricó accionamientos multimotor
para líneas de papel, en los que se llegaban a controlar de 20
a 30 motores simultáneamente. Estos accionamientos presentaban un avance notable sobre el modelo tradicional de motor
único, ya que eliminaban la reducción por correas de transmisión y mejoraban la calidad del papel producido, proporcionando además mayores velocidades de producción.
En 1972 se produjo un hito importante. JEMA desarrolló y fabricó los prototipos de los sistemas eléctricos completos de
tracción y de control para un primer coche eléctrico, proyecto
que se acometió para la empresa SANTANA (constructor del
vehículo), siendo TUDOR el proveedor de las baterías. Poco después se abordó el desarrollo de un vehículo industrial eléctrico
para uso en aeropuertos en colaboración con AVIA, y también
un camión de recogida de basuras y un microbús de transporte.
Aquellos vehículos, que funcionaron perfectamente y de
los que se llegaron a construir una decena de unidades, no
pasaron a fabricación en serie por razones de coste y de dimensión de las baterías, pero dieron lugar a otros proyectos
igualmente interesantes por su carácter pionero, tales como
reguladores de intensidad de brillo para balizas de aeropuerto,
los primeros paneles de señalización visual para estadios, etc.
Es decir, la I+D de JEMA, consustancial con la empresa desde
los primeros impulsos de su fundador, se había consolidado
orgánicamente y ya no dejaría de ser una característica permanente de la misma.
Posteriormente, JEMA cerró otra alianza con la empresa
americana General Electric para aplicar en España sus semiconductores, convirtiéndose más tarde en representante para
Europa de la mencionada empresa en el ámbito de los accionamientos para la industria papelera.
Se inicia después la incorporación de los desarrollos de software industrial relacionados con los autómatas y PLC (controladores lógicos programables) que se utilizaban en las
soluciones ofertadas a los clientes.
A principios de los años ochenta, JEMA desarrolló equipos
para señalización ferroviaria y convertidores de telefonía para
Correos. A finales de esa década, comenzó a operar con
IGBT (transistores bipolares de puerta aislada) y GTO (tiristores interruptores de puerta); componentes electrónicos de
potencia que son, todavía hoy, esenciales en las fuentes de
alimentación.
Aunque JEMA, debido a su dimensión, nunca llegó a desarrollar componentes propios, puede decirse que fue siempre
un pionero en su aplicación (early adapter), basando su competitividad en el conocimiento de vanguardia de las tecnologías en desarrollo y figurando entre los primeros utilizadores prácticos de las mismas.
La creciente actividad de JEMA y la necesidad operativa de
separar las actividades nucleares del negocio —la concepción,
fabricación y comercialización de productos de electrónica
47
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
de potencia y de control de las de comercialización y servicio técnico de semiconductores— llevaron en 1985 a la
creación de una empresa filial, INELEC, que posteriormente
se independizaría del Grupo JEMA y seguiría su evolución
por separado. Esta empresa, ubicada en Madrid, cuenta ya
con más de 25 años de experiencia suministrando componentes de muy diverso tipo a la industria española de electrónica, y en ese tiempo ha contribuido a su desarrollo y
crecimiento.
En 1988, los profesionales de I+D de JEMA desarrollaron sus
primeros accionamientos multimotor en racks para la industria siderúrgica; la primera instalación se ubicó en la factoría
de Marcial Ucín en Azpeitia. Este diseño, por su novedad, supuso un punto de inflexión para la empresa y para el sector.
En 1989, el Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT), como enlace y contribuidor científico español al esfuerzo internacional por la consecución de una fuente energética futura barata y sostenible
(la energía de fusión), conocedor de las capacidades de
JEMA, le propuso su participación en el desarrollo y posterior
fabricación de la primera fuente de alimentación de estado
sólido de alta tensión (90 kV/30 A) con destino al reactor experimental TJ-I.
El antecedente de esta propuesta se encuentra en la fabricación en 1985 por parte de JEMA de sus primeros equipos
para laboratorios experimentales: más de 20 fuentes para el
LEP (el mayor acelerador de partículas de su época), construido en Ginebra por el CERN dentro de un túnel de 27 km
de circunferencia excavado a 100 m de profundidad bajo la
frontera francosuiza.
En esos momentos nace la relación de JEMA con la que posteriormente será conocida como la industria de la ciencia, relación que no ha dejado de desarrollarse, y que ha llevado a
la empresa a ser hoy uno de los líderes europeos en el diseño,
fabricación y suministro de fuentes especiales para Grandes
Instalaciones Científicas (GIC).
48
Las razones que llevaron a este primer antecedente en el
CERN tuvieron mucho que ver con estar en el sitio adecuado
en el momento preciso. Aunque ciertamente JEMA tenía capacidades intrínsecas que la hacían candidata a proveer esas
fuentes, el hecho de que España fuera contribuidor neto al
CERN sin un volumen correspondiente de retornos industriales, unido al trabajo de los representantes españoles en
apoyo de la participación de las empresas nacionales, fueron
argumentos que permitieron, al menos, pasar el primer corte
a una empresa española primeriza en esas lides. A partir de
ese momento, la capacidad de diseño y fabricación, así como
el conocimiento demostrado por los profesionales de JEMA
y una oferta atractiva y bien estructurada, posibilitaron que
la empresa ganara el concurso y se hiciera con el pedido.
En 1992, las Olimpiadas celebradas en Barcelona presentaron
a JEMA la oportunidad de desarrollar el proyecto más grande
de su historia hasta ese momento. Algunas pruebas olímpicas se realizaron muy avanzado el día, para permitir la retransmisión televisiva a otros continentes en horarios de gran
audiencia. Esto obligó a utilizar sistemas de iluminación muy
especiales, que garantizaban excelentes niveles de visión pero
que tenían, entre otros, el inconveniente de apagarse si el
suministro de energía se interrumpía más de 4 ms, y no volvían a recuperar las mismas características de iluminación
hasta pasados cerca de 20 minutos. Esta era una situación
inaceptable para las cadenas de televisión, retransmisoras de
los eventos y grandes patrocinadoras de los JJOO.
El reto fue asumido por JEMA, que ganó el concurso correspondiente y desarrolló un innovador sistema para SAI (Sistemas de Alimentación Ininterrumpida) que luego patentó y
que permitió garantizar que las posibles caídas de tensión
no serían en ningún caso superiores a los 2 ms. Las 27 sedes
olímpicas fueron equipadas con estos sistemas y el concurso
supuso para JEMA una cifra de facturación superior a los 480
millones de pesetas.
Pero en 1994 se superaría el récord anterior, esta vez ganando un concurso de 1.243 millones de pesetas para el diseño
Los sistemas de alimentación de energía del Joint European Torus (JET)
y fabricación de la fuente de alimentación para el Stellarator
(reactor experimental de fusión de tipo helicoide) del Laboratorio Nacional de Fusión (véase la figura 1). Este proyecto
consolidó a JEMA como proveedor de primer nivel en el ámbito de las muy especiales y exigentes fuentes de alimentación
para GIC, y en especial para los aceleradores de partículas
y las máquinas de fusión. El sistema de alta tensión (15 kV/
130 MW/35 kA cc) del Stellarator TJ-II fue un proyecto llave
en mano que comprendía desde el edificio hasta el alternador de 200 t de peso y las 7 fuentes que alimentan las bobinas. Este concurso, ganado por JEMA en competencia con
algunas de las más grandes multinacionales europeas, supuso un reto para sus infraestructuras de fabricación y sus instalaciones fabriles, dadas las dimensiones de los equipos.
Fuente: foto cedida por CIEMAT.
Figura 1. Modelo flexible helicoide de Stellarator TJ-II. CIEMAT
En julio de 1994 se constituyó el Grupo JEMA, presidido por
Jesús María Aguirre, contando con un capital social de 116
millones de pesetas y con sede en la factoría principal de Lasarte-Oria (Guipúzcoa). Las empresas INELEC (Madrid, 1982)
y UPELEC (Madrid), a la que posteriormente se unió JEMA
do Brazil, formaron parte de este grupo y de sus planes de
diversificación sectorial (INELEC, componentes; UPELEC,
ingeniería e instalaciones de electrónica de potencia) y geográfica (Brasil). La idea tras la creación del Grupo JEMA era
la de integrar las funciones comunes que se realizaban en
las distintas empresas con el fin de conseguir una mayor racionalización de actividades y la consecuente mayor eficacia.
En 1996 comenzó el despliegue de la telefonía móvil y JEMA,
siempre atenta a las necesidades del mercado, desarrolló su
serie de fuentes de alimentación FACT, el primer producto
seriado de su catálogo histórico, ya que llegó a fabricar más
de 2000 unidades con las que se instalaron las estaciones
base de telefonía en España. Posteriormente, la misma tecnología se utilizó para otras aplicaciones de operadores y
grandes suministradores internacionales de equipos de interconexión. Este producto proporcionó una gran estabilidad
a la empresa, llegando el mercado de telefonía a suponer
cerca del 65% de la facturación anual. El paso a la fabricación seriada supuso un cambio organizacional importante ya
que, para no perder la flexibilidad y rapidez de respuesta que
caracterizaban a JEMA, se optó por externalizar la mayor
parte de la fabricación de elementos, reservándose la empresa las labores de ensamblaje final y los ensayos y puesta
a punto. Esto requirió dotar a la empresa de más capacidades
logísticas de gestión, y permitió seguir concentrando los recursos y esfuerzos principales en el desarrollo tecnológico y
la ingeniería, principales diferenciales competitivos de JEMA.
Una alianza con Telefónica generó la oportunidad de desarrollar y fabricar otro producto en gran serie: los rectificadores para distribución en continua de potencias elevadas.
Se fabricaron más de 12.000 unidades de este producto, lo
que lo convirtió en el de mayor producción en serie realizado
por JEMA hasta esas fechas. Este hito supuso un reto organizacional para JEMA, que creó una división de fabricación
donde empezaron a aplicarse las modernas tecnologías de
procesos para productos seriados.
A principios del presente siglo (2000-2003) se inicia el NG1PS1,
un proyecto de gran ciencia en el JET (Joint European Torus)
y JEMA desarrolla y fabrica dos fuentes de alimentación de
1
New Power Supplies for the JET Neutral Beam Enhancement Project.
49
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
132 kV cc/130 A para alimentar los NBI (Neutral beam injectors) para el calentamiento del plasma del reactor experimental en Oxfordshire (Reino Unido). JEMA desarrolló también
(ya en 2009) las fuentes, de muy rápida respuesta a los cambios de situación del plasma y de muy alta energía, que alimentan las bobinas que generan esos campos electromagnéticos de confinamiento.
Estos desarrollos, realizados dentro del proyecto ERFA y
con un alto contenido de I+D, consolidaron aún más la posición de JEMA como líder tecnológico y suministrador
experimentado de equipos de energía bajo condiciones
muy críticas.
Entre 2001 y 2004, tras ganar el concurso internacional correspondiente, JEMA diseñó y suministró diez fuentes de alimentación especiales (± 30 V, ± 2.500 A cc de entrada/0-625 A ca
de salida; es decir baja tensión, alta intensidad) para las bobinas de control del Stellarator Wendelstein W-7x en el Instituto Max Planck en Greifswald (Alemania). Esta máquina,
todavía en construcción, será en los próximos años el reactor
de fusión con tecnología Stellarator más potente del mundo.
El principal reto tecnológico de estas fuentes era conseguir,
entre otras exigencias, una precisión mejor que 1 por mil en
corriente, con esas elevadas intensidades. El proyecto supuso
una facturación de más de 1,8 millones de euros.
Desde 2004 hasta 2010, JEMA ha venido desarrollando y suministrando equipos y sistemas de energía a grandes instalaciones científicas de primer nivel y ha realizado, entre otros
proyectos:
• Convertidores de potencia para la máquina SPS CERN
(Suiza).
• Interruptor de estado sólido de potencia para protección
del Gyrotron. CRPP (Suiza).
• Fuente de alimentación para interrupción en alta tensión
para el sistema ECRH. TJ-II CIEMAT (España).
50
• Estudio de ingeniería de sistemas eléctricos para el reactor
ITER (EEUU).
• Consultoría y asistencia en el diseño de la fuente de alimentación del acelerador de partículas ENSR. GSI (Alemania).
• Fuentes de alimentación en serie para el posicionamiento
del plasma en el JET. EFDA-JET (Reino Unido).
• Fuentes de alimentación de potencia de distinto tipo y características para el Deustches Electronens Synchrotron
alemán (DESY) (Alemania).
• Fuentes de potencia para los solenoides del acelerador en
el Rutherford Appleton Laboratory (RAL) (Reino Unido).
• Fuente de alta tensión (HVPS) para alimentar los NBI para
el proyecto MAST. UKAEA. Culham Science Centre (Reino
Unido).
• Interruptor cortocircuitador de estado sólido basado en
LTT y de conexión permanente para sistema de alimentación de acelerador en el Instituto para Investigación del
Plasma (IPR) Ghandinagar (India).
• Etcétera.
Todos ellos son proyectos que han implicado importantes
desarrollos de I+D, cálculo, simulación y experimentación.
El precio individual por proyecto se extiende desde los
pocos centenares de miles hasta los más de 12 millones de
euros; y su valor como tractores del conocimiento para
nuevas aplicaciones en los sectores de la ciencia y en otros
(industria de la alimentación, telecomunicaciones, energía,
etc.) es indudable.
Más recientemente, JEMA está desarrollando un modulador
de alta tensión para klystrones (tubos generadores de alta
frecuencia para aceleración de partículas). Se trata de una
colaboración entre ESS Bilbao y SNS (Tennessee, EEUU),
Los sistemas de alimentación de energía del Joint European Torus (JET)
donde será probado. El producto es una fuente que modula
una tensión de 140 kV/80 A con tiempos de conexión/
desconexión de 10 ms y anchos de pulso de 2 ms a frecuencia
de 50 Hz.
Asimismo, y dentro del proyecto ITUR (instalación para ensayo y optimización de fuentes de iones), se están desarrollando las fuentes de alimentación para el calentamiento del
plasma, extracción de partículas H+ y la fuente de alta tensión
(100 kV) que eleva la tensión del sistema para permitir la
extracción de dichas partículas.
• Sistemas avanzados de alimentación o de industria
de la ciencia, con diseño y fabricación de sistemas y fuentes de alimentación muy especiales para Grandes Instalaciones Científicas (GIC), tales como aceleradores de
partículas, laboratorios de fusión, etc.
• Sistemas para energías renovables, que desarrolla y
fabrica inversores para plantas fotovoltaicas, aerogeneradores, etc.
Orgánicamente, JEMA está estructurada en los departamentos que indica la figura 2.
Las instalaciones y la organización
JEMA cuenta desde 1974 con una sede central situada en
Lasarte-Oria. El edificio diseñado y construido, ya entonces,
con criterios altamente funcionales, cuenta con 5.800 m2 de
superficie.
En razón de sus propias necesidades de ensayo, la instalación
eléctrica de JEMA es poco habitual en una pyme: cuenta con
una acometida de 30 kV y dispone indistintamente de tensiones trifásicas de 50 Hz, a 200 V - 380 V - 440 V - 500 V.
La potencia instalada total es de 630 kVA, y dispone de una
doble toma para la realización de pruebas especiales en
media tensión y con potencias de hasta 22 MVA.
Desde 2005, JEMA tiene sus actividades divididas en tres divisiones de negocio:
• Sistemas de alimentación crítica, que dispone de amplias
y específicas capacidades de diseño, fabricación y suministro
de: variadores de velocidad en cc, rectificadores a tiristores,
inversores-convertidores, reguladores y controles, sistemas
de alimentación ininterrumpida, conmutadores de transferencia-bypass, generadores tacométricos, sistemas de
control digital, motores de cc, controladores de lógica estática y baterías, etc. También desarrolla equipos de control
digital basados en optoelectrónica.
Consejo de Administración
Dirección General
Ingeniería
Servicios
centrales
Financiero
Compras
I+D
Producción
Fabricación
Calidad
Pruebas
Comercial
Servicio
técnico
Red
comercial
Figura 2. Estructura orgánica de JEMA
El 16 de diciembre de 2009 se produjo la integración de
JEMA en el Grupo IRIZAR, uno de los líderes mundiales en el
diseño y fabricación de material de transporte por carretera,
que cuenta ya con siete plantas de fabricación de autocares
y dos plantas de fabricación de componentes, y que tiene
presencia en los mercados de los cinco continentes.
La integración responde a una estrategia de crecimiento diversificado del Grupo IRIZAR hacia sectores de anunciado
fuerte crecimiento (energías renovables, generación y distribución inteligentes, industria de la ciencia, otros sectores de
transporte…), así como hacia la integración de conocimientos
tecnológicos de alto nivel y posible aplicación futura. Por parte
de JEMA, la integración aumenta su dimensión y capacidades
comerciales y financieras, además de abrir posibilidades
51
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
importantes en otras áreas geográficas sobre el trampolín de
las implantaciones del Grupo IRIZAR y su bien construida
imagen de marca. La integración, planificada como de tipo
Gestión de Grupo, con el mantenimiento de las estrategias
tecnológicas y de fabricación que son adecuadas a cada sector, tiene un importante denominador común en la cultura
innovadora de las dos empresas que se integran y en su carácter de empresas globales. Además, existen características
complementarias derivadas de sus respectivos sectores que,
sin duda, aportarán valor a la integración: diseño y tecnología, producción a medida frente a seriada, etcétera.
Las características empresariales de JEMA
La propiedad y el capital
JEMA es el fruto de la visión, el afán emprendedor, el trabajo
y la ilusión de un empresario que dedicó a su proyecto la
mayor parte de su vida y sus afanes. El pequeño capital inicial
con el que se escrituró la razón social fue aportado al 100%
por Jesús María Aguirre, asumiendo también con ello todas
las responsabilidades inherentes.
Con el transcurrir de los años la empresa fue aumentando
su capital, siempre suscrito en mayoría por el propio Jesús
María Aguirre, hasta su conversión en sociedad anónima en
1975 (18 millones de pesetas de capital social). Las participaciones en el capital, minoritarias y distribuidas entre miembros cercanos de la familia, permitieron seguir manteniendo
el control absoluto de la sociedad.
Sin embargo, la aplicación de modernos sistemas de gestión
y liderazgo, que el propio fundador consideraba necesarios
dado el crecimiento y desarrollo de la empresa, y la necesidad de un relevo ordenado, llevaron al nombramiento de
un director general ajeno a la propiedad, y a una ordenación
de las actividades que preparase a la empresa para los retos
de las siguientes décadas, sin perder por ello las positivas
características que la definían hasta entonces.
52
En 2009, como resultado natural de ese proceso, y teniendo
en cuenta la naturaleza de los proyectos en los que JEMA
participa cada vez en mayor medida (exigencia de recursos
financieros importantes, proyectos de largo plazo, inversiones crecientes en I+D, etc.), se produce la ya citada integración de JEMA en el Grupo IRIZAR, S. Coop., empresa líder
internacional en el sector de material de transporte, con
fábricas en Brasil, China, México, Sudáfrica, Marruecos e
India, y exportadora global, con novedosos modelos de gestión
de gran éxito y con una cultura de innovación continua con
la que la JEMA coincide plenamente.
Existe el proyecto de que la empresa pase a denominarse
en el futuro JEMA ENERGY, S. A., siendo su capital 100%
del Grupo Irizar, pero manteniendo la estructura y niveles
de decisión ejecutivos que tantos éxitos le han proporcionado.
Culmina, así, la trayectoria emprendedora de Jesús María
Aguirre al frente de JEMA, en la que deja la impronta y la
cultura de la innovación, de la asunción del riesgo creador,
y el ejemplo de cómo el esfuerzo y la dedicación permiten
competir tecnológicamente en los mercados más exigentes.
La gestión y la cultura tecnológica
JEMA es una pyme tecnológica de origen familiar. Así nació
y así ha ido desarrollándose a lo largo de sus 57 años de existencia.
Esto implica conocidas ventajas y no menos conocidos inconvenientes. La rapidez en la toma de decisiones, la flexibilidad,
el empuje del empresario al timón, tienen su contrapunto en
la excesiva identificación entre líder y empresa, la dependencia principal de sus criterios y los problemas de sucesión,
cuando llega el momento.
Es justo decir que JEMA ha gozado y sufrido esas circunstancias, pero que el sentido común y la generosidad, tanto de
Los sistemas de alimentación de energía del Joint European Torus (JET)
su empresario y mayoritario accionista como de sus herederos y del equipo de profesionales del que supo rodearse, han
prevalecido y le han permitido sortear los obstáculos y peligros que el natural crecimiento y las diferentes situaciones
económicas o tecnológicas han ido presentando.
Durante más de cincuenta años, Jesús María Aguirre fue el
referente principal de la empresa, asumiendo los riesgos y
tomando decisiones no siempre fáciles. Hoy, cuando ya está
asentado el relevo en manos de un equipo profesional, la
empresa encara el futuro con una posición de liderazgo tecnológico y dentro de un grupo industrial que le aporta además, dimensión y capacidades extras.
Así pues, y a la vista de los resultados, se puede afirmar que
JEMA ha sabido nacer, crecer y consolidarse, tomando en
cada momento decisiones estratégicas que quizás no fueran
las mejores posibles, pero sí han sido lo suficientemente buenas como para tener detrás una historia de más de medio
siglo que le ha llevado a una excelente posición de mercado
y a un porvenir prometedor.
Si se intentara clasificar el estilo de dirección en JEMA, podría
decirse que, como en tantas otras empresas de sus características, ha ido evolucionando con el tiempo, desde un estilo
unipersonal con apoyos profesionales pero con todas las decisiones y responsabilidades focalizadas en la figura de un
presidente-propietario, a un estilo colegiado en el que las
responsabilidades, aun siendo del director general desde el
punto de vista ejecutivo, se comparten con un bien organizado equipo de dirección con niveles de decisión delegada
importantes y la tutela de un Consejo de Administración con
participación de consejeros independientes.
JEMA ha sido siempre una empresa caracterizada por su intensidad tecnológica. Su sector de actividad es el de la electrónica de control y de potencia. La cultura empresarial que
su fundador le imprimió en el aspecto tecnológico está caracterizada por una permanente alerta sobre las innovaciones
básicas en componentes y sistemas electrónicos de posible
aplicación que, al integrarse con otros de forma innovadora,
dan una solución eficaz y competitiva al cliente.
La asimilación temprana de esas nuevas tecnologías y componentes básicos ha facilitado su incorporación al acervo de
conocimiento de la empresa y ha colaborado, en muchos
casos, a su perfeccionamiento desde la experiencia de la aplicación concreta. De ahí la confianza que diversos fabricantes
de componentes electrónicos de primer nivel fueron depositando en JEMA; confianza que llegó a cristalizar en alianzas
técnico-comerciales que, a menudo, adquirían el carácter de
exclusividad sobre un amplio territorio.
Por otra parte, y desde el dominio de los componentes (los
“ladrillos” con los que se construye los edificios, a los que
pueden asimilarse los circuitos de control y proceso electrónicos), JEMA desarrolla su tecnología propia en las soluciones
completas (es decir, “la solución arquitectónica” en el símil
del edificio). Las innovaciones tecnológicas de JEMA han
residido por tanto en la habilidad para diseñar, proponer y
fabricar equipos de base electrónica que, en su conjunto,
aportan soluciones originales y eficaces a los problemas de los
clientes más exigentes. El dominio en la combinación de electrónica de potencia, de microelectrónica de control y del software asociado, está en la base del éxito de esas soluciones.
A lo largo de los años, JEMA ha ido transformando en capital
de conocimiento, a través de las correspondientes patentes,
algunos de sus desarrollos más novedosos. Sin embargo, tal y
como reconocen los propios responsables tecnológicos de la
empresa, su objetivo principal no ha sido la obtención de
derechos de propiedad industrial para su posterior comercialización, sino que esos derechos se han ido obteniendo como
resultado natural de sus actividades innovadoras y de I+D.
El I+D y la innovación forman parte sustancial de JEMA. La
empresa participa habitualmente en los programas que la
Administración Pública pone a disposición de las empresas
innovadoras para apoyo de dichas actividades (Intek, Profit,
Avanza...).
53
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Los mercados
En sus inicios, los mercados de JEMA eran los geográficamente más cercanos a la ubicación de la empresa. La existencia de un buen número de empresas metalúrgicas básicas
(fundición, laminaciones, acerías especiales, fabricación de
tubos, etc.), junto a otras actividades igualmente cercanas
como las papeleras, fueron determinantes en el crecimiento
y consolidación inicial de las actividades de JEMA.
El despliegue de las telecomunicaciones (TV primero y telefonía móvil después) diversificó esos mercados que
cubrían ya todo el territorio nacional. Comenzaron luego las
exportaciones de pequeña cuantía a los países del resto
de Europa, y apareció la incorporación de productos para
la industria de la ciencia (IdC), cuyos primeros mercados
fueron ya exteriores (Suiza). Esto potenció el segmento de
la IdC de JEMA para el mercado nacional en paralelo con
el exterior.
JEMA exporta actualmente sus productos a más de treinta
países, siendo todas sus exportaciones consideradas como
de alta tecnología.
A principios de 2000, JEMA inició acciones de posicionamiento internacional a través de la búsqueda de representantes, aliados locales o posibles implantaciones en distintos
países (India, México, etc.). Sin embargo, la naturaleza específica de la mayor parte de los productos y soluciones de
JEMA los dirige hacia mercados más sofisticados, y las iniciativas (salvo en Brasil) no llegaron a prosperar más allá de algunas alianzas puntuales. A pesar de ello, y con el objetivo
puesto en las fuentes de alimentación para telecomunicaciones y otras más comunes, JEMA fundó JEMA do Brazil, el primer intento de penetración por implantación en otro país,
después de haber estudiado las características y oportunidades del gran mercado sudamericano.
JEMA exporta actualmente más del 35% de su facturación,
siendo sus principales mercados exteriores Italia, Reino Unido,
54
Alemania, Francia, Chile, Argentina, Emiratos Árabes Unidos,
México, EEUU, Egipto y Argelia, entre otros.
JEMA y la sociedad
Jesús María Aguirre no es solamente un empresario de vocación y acción, sino que su afán de pionero, su vitalidad, su
visión y su afecto por la sociedad en la que vive le han llevado
a lo largo de su vida a impulsar y poner en marcha actividades e instituciones que, hoy, son referentes en la sociedad.
Fue impulsor y presidente de la asociación guipuzcoana de
empresarios, ADEGI, que contribuyó a fundar en 1977 y que
es hoy una de las organizaciones más activas y dinámicas de
su tipo. Estuvo también en el impulso inicial de Elkargi (1980)
y Etorpensión (1989) (entidades de garantía recíproca y EPSV,
respectivamente), organizaciones pioneras de referencia en
España y en otros países.
JEMA fue impulsora y cofundadora de la Asociación de Industrias Electrónicas del País Vasco (AIEPV), de la que Jesús
María Aguirre fue su primer presidente y que dio lugar al primer clúster de TIC en España, convirtiéndose años más tarde
en GAIA, una de las asociaciones profesionales de mayor relevancia nacional y con importantes programas en la UE, en
Latinoamérica y en el sudeste asiático.
Todas estas actividades permearon a lo largo del tiempo la
cultura empresarial de JEMA, por lo que la responsabilidad
social empresarial (RSE) no es un concepto nuevo para la empresa, que lo lleva grabado en su propio código genético.
EL PROYECTO JET EN JEMA
El reto
En el año 2000, JEMA tuvo la oportunidad de participar en
un proyecto singular y exigente: el diseño y la fabricación de
Los sistemas de alimentación de energía del Joint European Torus (JET)
los sistemas de alimentación, de alta tensión, para calentar
el plasma en el reactor europeo experimental de fusión JET2,
en el Reino Unido.
La generación de energía en reactores de fusión es la mayor
esperanza de consecución de energía barata y suficiente para
la humanidad que se conoce hoy día. Por comparación con
la energía obtenida por fisión (las centrales nucleares actuales, los submarinos y portaaviones impulsados por energía
nuclear, etc.), se parte de una materia prima ampliamente
disponible (agua), en vez de hacerlo a partir de isótopos fisionables (uranio, plutonio...); y no producirá prácticamente
residuos radioactivos. Sin embargo, los problemas prácticos
para controlar el proceso son de gran magnitud y suponen
hoy día el conjunto de retos científicos más importante de la
humanidad. El plasma (cuarto estado de la materia) alcanza
en el interior de la cámara de confinamiento temperaturas
del orden de 100 millones de grados Celsius (más altas que
la temperatura del Sol). Estas temperaturas son necesarias
para vencer las fuerzas de repulsión de los átomos y poder
producir la reacción de fusión. El plasma, que, como es evidente, no debe tocar las paredes del contenedor, se confina
mediante fuertes campos magnéticos que lo hacen levitar
dentro de una gran cámara de vacío.
prestaciones exigidas en rapidez de respuesta y precisión. Las
especificaciones iniciales de partida son las que se indican en
la figura 3. Destaca entre ellas el que se trataba de un sistema
de 20 MW cortocircuitable.
Especificaciones de partida para fuentes de alimentación para cargas PINI
para modo conexión en alta tensión JET
130 kV dc, 130 A, 20 MVA entrada, 17 MW salida
Máxima sobrecarga <1%
Rampa de elevación de tensión desde 150 a 500 μs
Tiempo de desconexión rápida de 17 a 4 μs
256 cortocircuitos a la salida durante 20 s
Transformadores compactos con aislamiento de 260 kV
Crowbars de estado sólido basadas en LTT’s
Planta de enfriamiento proporcionando agua desmineralizada
Totalmente montado y comprobado a potencia máxima en las
instalaciones del fabricante
Provisión de superficie de 400 m2 por fuente y de transporte en
camiones especiales (9)
Figura 3. Especificaciones generales de las fuentes de alimentación para JET
La creación de estos campos, así como su permanente control y otras operaciones del reactor, exigen cantidades de
energía importantísimas, disponibles en condiciones especiales sobre todo en el proceso inicial (ya que luego el propio
sistema produce toda la energía necesaria para el mantenimiento del proceso). Esas energías deben ser suministradas
y controladas de manera muy precisa por sistemas de alimentación muy especiales y de naturaleza crítica. Precisamente
el reto que JEMA tenía por delante.
Se trataba de diseñar un nuevo sistema de alimentación,
cuya solución tecnológica no existía en esa fecha, dadas las
2
JET (Joint European Torus). El más grande y potente de los reactores experimentales de fusión que funcionan en el mundo.
El equipo era importante, con un presupuesto notable (20
millones de euros en total), pero su mayor importancia para
el conjunto de la “máquina” radicaba en que los equipos
que debía alimentar eran mucho más caros y críticos. La más
mínima falta de precisión en el tiempo de parada podía llegar
a provocar un desastre.
JEMA concibió y desarrolló un sistema redundante basado
en LTT (Light triggered tiristors) capaz de desconectar, por
seguridad, en 1,2 μs. Esto supuso una auténtica novedad y,
desde entonces, los propios fabricantes de LTT, que habían
descubierto la nueva aplicación a partir del desarrollo de JEMA,
los mencionan como elementos para la fabricación de esos
especiales interruptores cortocircuitadores (crowbars).
55
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
El proyecto incluía la prueba previa de los equipos en casa
del fabricante en condiciones nominales de trabajo, lo que
suponía una dificultad añadida más, ya que probar al 100%
los sistemas en la fábrica de JEMA exigía disponer, a la entrada de fábrica, de la energía necesaria en condiciones absolutamente especiales. Estas dificultades se resolvieron gracias a
la colaboración de la empresa distribuidora IBERDROLA, que
facilitó los cambios necesarios y adaptó su red en la zona para
poder disponer de esas especiales condiciones y de la cantidad de energía puntual necesaria.
El proyecto y el cliente
• Proyecto: diseño y fabricación de los sistemas de alimentación, de alta tensión, para calentar el plasma en el reactor europeo experimental de fusión JET.
• Cliente: Laboratorio de Fusión Nuclear EFDA-JET. Culham,
Oxfordshire (Reino Unido).
• Financiación: Programa de la Comisión Europea para el
JET (“NBupgrade” para las dos primeras fuentes y EP2
para las cuatro segundas).
• Supervisión: EURATOM a través del CSU (Unidad de soporte cercano).
• Presupuesto inicial: abierto, en concurrencia competitiva.
• Garantías: vida útil de 10 años o 100 000 pulsos. Dos años
de garantía total (piezas y mano de obra), cumplimiento
de especificaciones al 100%. Normas BS e IEC.
• Exigencia de homologaciones previas: importante. Visita
previa a las instalaciones del ofertante por parte de una
comisión técnica de evaluación.
• Plazo de entrega: abierto, a presentar por los ofertantes
(aprox. 36 meses).
56
• Penalizaciones: por incumplimiento técnico: cancelación
del pedido. Por demoras: penalización de porcentaje del
contrato según tabla (0,3% por semana de retraso o porción, hasta un máximo del 5%).
• Convocatoria: por invitación, sobre lista corta.
La motivación
JEMA ya había tenido noticias de este proyecto tres años
antes, en 1997, momento en el que un concurso para su
suministro había quedado desierto, sin duda por sus dificultades técnicas. Un trabajo posterior sobre las especificaciones
lo presentó muy alineado con la estrategia de desarrollo de
nuevos sectores y nuevas tecnologías de JEMA.
El proyecto presentaba muchas incertidumbres técnicas: los
transformadores especiales, los aislamientos, los interruptores
(crowbars) de estado sólido, etc. Suponía un reto tecnológico
importante. Para JEMA, y para su equipo de I+D en especial,
era una fuerte motivación ya que les permitiría, en caso de
éxito de su oferta, desarrollar innovaciones que les posicionarían en el mercado como líderes en este tipo de equipos.
Además, JEMA podría conseguir el reconocimiento internacional, tan importante para una pyme tecnológica española
que debía competir continuamente con empresas de mayores dimensiones y capacidades comerciales.
Pero quizás la mayor motivación provenía de algo que ha caracterizado siempre a JEMA: la visión de futuro. Este proyecto
estaba destinado al Laboratorio Europeo de Fusión Nuclear
EFDA-JET, situado en Culham (Reino Unido). Esta instalación
tiene carácter de pionera dentro del gran esfuerzo internacional que se está haciendo para dominar la generación de
energía a través de la fusión nuclear y era, de algún modo,
precursora del gran proyecto de instalación científica, ITER,
cuya decisión de arranque se vislumbraba en el horizonte.
Para JEMA estaba claro que ser empresa desarrolladora y pro-
Los sistemas de alimentación de energía del Joint European Torus (JET)
veedora de las especiales fuentes de alimentación para calentamiento del plasma en el JET, la pondría en situación de ventaja cara a los grandes suministros del futuro proyecto ITER.
Por tanto, era también una apuesta de futuro, tomar posición
en un mercado de importante expectativa. Por todo ello, y
tras detallada consideración interna, se tomó la decisión (valiente según unos, arriesgada según otros) de lanzarse a tratar
de ganar el concurso internacional para ese suministro.
• Robotiker: realizó la simulación y los cálculos de distribución de los campos eléctricos utilizando sistemas de elementos finitos a partir de los datos suministrados por el
Departamento de I+D de JEMA y bajo la dirección de sus
equipos técnicos.
• Labein: realizó la simulación, los cálculos y los ensayos de
descargas, las pruebas tipo y los ensayos de serie de los
aislamientos en corriente alterna y en continua, de ondas
de choque y los ensayos de descargas parciales.
Situación del entorno
JEMA partía, en la dura competencia por este proyecto, de
una posición mixta. Por un lado, al ser una pyme, contaba
con la ventaja de la flexibilidad, a la que se unía el conocimiento de sus equipos de I+D y los años de experiencia en
desarrollos especiales. Por otro lado, era evidente que sus recursos eran justos; su dimensión de empresa pequeña y la
obligación de luchar contra el reconocimiento inherente a
grandes empresas europeas del sector tecnológico, sólidamente instaladas en los mercados internacionales frente a
las de países periféricos del sur del continente, era un punto
desfavorable que podía ser decisivo en cuanto surgiera la
menor dificultad.
La situación económica general y la de los mercados financieros en particular no eran malas, pero la pequeña dimensión de JEMA era un inconveniente para obtener la prefinanciación necesaria para abordar un proyecto de riesgo de esa
naturaleza y tamaño.
Uno de los principales problemas relacionados con la dimensión, la disponibilidad en un corto periodo de tiempo de personal de alta cualificación para trabajar en paralelo y conseguir cumplir plazos en desarrollos muy específicos, se resolvió
a través de nuevas contrataciones y de alianzas con tres centros tecnológicos:
• Inasmet: apoyó con un estudio de los materiales aislantes
para poder soportar 260 kV entre primario y secundario.
La otra faceta de la dimensión, el aspecto financiero, fue resuelto gracias a la evolución y buena trayectoria que JEMA ya
tenía en cuanto al cumplimiento de sus compromisos financieros. Por ello, y aunque no resultó fácil, se consiguió el apoyo
de la banca y se pudo disponer de los recursos previos que
permitían abordar el proyecto. Si se considera que la facturación anual de JEMA en esas fechas era de aproximadamente
10 millones de euros y que el proyecto JET suponía un encargo
valorado en unos 20 millones de euros en 6 años, se puede
apreciar la naturaleza del riesgo económico que se asumía.
La figura 4 muestra el análisis DAFO de situación ante el proyecto por parte de JEMA.
Accesibilidad
Rapidez de respuesta
Capacidad técnica
Equipo de trabajo comprometido
Alianzas tecnológicas y financieras
Experiencias similares
F
N.º insuficiente de profesionales
Limitaciones de la infraestructura
Falta de ciertos componentes
Escasez de capacidades de
subcontratación especializada
para pequeñas series
Alto coste de marketing para una
pyme
Volumen de negocio interesante
Posibilidad de ampliación
Referente tecnológico importante
Asimilación de nuevas tecnologías
Aplicaciones a otros mercados
Riesgo técnico notable. Topología
de 120 inversores conectados y
sincronizados
Riesgo financiero
Cláusulas estrictas de cancelación
y devolución
Eventual pérdida de imagen
Competencia con mayores
capacidades financieras
O
D
A
Figura 4. DAFO de situación ante al proyecto por parte de JEMA
57
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Otros aspectos estratégicos en la toma de
decisión
Además de los ya mencionados aspectos que hacían del proyecto una oportunidad del interés de JEMA, existían otros
aspectos de carácter no menos estratégico que conviene citar
y que tuvieron también su influencia en la decisión.
Por un lado aparecía contractualmente la posibilidad de fabricar 2 o 4 fuentes más que las inicialmente previstas, lo cual
incrementaba el valor de la operación y distribuía mejor los
elevados costes de I+D, los ensayos de tipo, los cambios e
inversiones en infraestructura, etc.
Por otro lado, el planteamiento tecnológico de JEMA para
dar solución al reto de calentamiento de los NBI implicaba
conseguir un sistema novedoso que debía alcanzar mayores
niveles de eficacia y podía tener otras aplicaciones en reactores diferentes de la propia UKAEA (United Kingdom Atomic
Energy Authority). Esta visión demostró ser acertada ya que,
por ejemplo, la fuente para el reactor MAST (Mega Amp
Spherical Tokamak)3 de 80 kV y 70 A, está ya basada en la
tecnología de las fuentes iniciales para NBI del JET.
Otro elemento que también tuvo su importancia fue la constatación de que un aspecto clave de los desarrollos eran los
transformadores y que las exigencias que se les demandaban
los colocaban en una clase diferente en sí misma. Esas nuevas características abrían también nuevos campos para aplicaciones colaterales que la empresa podía y debía aprovechar
posteriormente. Los transformadores del proyecto de fuentes
para el JET eran de alta potencia con altas tensiones pulsantes
y rápidas (esto exigió utilizar núcleos de silicio amorfo en vez
de ferritas; aislantes especialísimos basados en polímeros, etc.).
Una posible aplicación posterior se encontró en la industria
de procesado de alimentos para su esterilización.
3
El experimento de energía de fusión del Reino Unido, complementario de un experimento similar en Princeton (EEUU).
58
En resumen, dos de las principales razones para participar en
el proyecto JET estaban ligadas a la decisión estratégica a
largo plazo de la empresa de participar activamente en el
desarrollo del mayor proyecto de fusión del mundo (ITER),
consiguiendo de ese modo una referencia muy importante
y, por otro lado, desarrollar tecnologías de aplicación en
otros sectores de actividad.
Planificación y recursos
El proyecto se ganó brillantemente por parte de JEMA, tras
convencer a los distintos comités de evaluación de la bondad
de su solución tecnológica, que incorporaba mejores prestaciones, más seguridad y menor precio; y ahí empezó la verdadera prueba de fuego.
Se convirtió en el proyecto estrella de la empresa durante tres
años. Se le dedicaron los mejores recursos (humanos, técnicos
y económicos). Se contrataron especialistas en ingeniería electrónica de control y en electrónica de potencia que sumaran
sus esfuerzos a los equipos propios. Un grupo de 8 a 10 expertos altamente cualificados constituía el equipo permanente dedicado al proyecto. En momentos puntuales este equipo crecía
hasta los 20 profesionales, además de los servicios auxiliares
de gestión, logística, oficina técnica, etc., y los de las empresas
e instituciones aliadas.
Responsabilizarse de un proyecto de esta naturaleza solo es
posible con una planificación estricta y un proceso de control
que garantice el cumplimiento de hitos y el empleo de los
recursos implicados; a la vez, la planificación debía ser flexible
para permitir los cambios que todo desarrollo novedoso trae
siempre consigo. Los imponderables son consustanciales con
la innovación. JEMA aplicó sistemas de control de proyectos
basados en herramientas informáticas al uso, pero lo más
importante, según sus propios responsables, fue la metodología de trabajo en equipo y de comunicación permanente
mediante reuniones cortas y de gran eficacia entre todos los
implicados en el proyecto. De esa manera se construyó un
Los sistemas de alimentación de energía del Joint European Torus (JET)
sentido de pertenencia y una ilusión en la consecución del
objetivo que se expandió por toda la empresa, distribuyéndose la responsabilidad, los éxitos y también las eventuales
e inevitables contrariedades.
dos días por mes a trabajar con los expertos del cliente. Esta
planificación del trabajo en equipo permitió mantener unos
altos niveles de comunicación y dio al proyecto la necesaria
fluidez.
El proyecto se desarrolló en la división de Sistemas Avanzados de Alimentación, donde se ubican todos los proyectos
singulares relacionados con la IdC.
Aspectos críticos del proyecto. Planes de
contingencia
Se formó un equipo director del proyecto compuesto por
cinco personas con dedicación completa a las que, según la
fase del desarrollo, se sumaban temporalmente otros profesionales. Se nombró a un gestor de proyecto con reporte al
director industrial de la empresa. La Dirección General dedicó
también una atención especial permanente al proyecto, integrándose en el equipo gestor en periodos concretos.
Como elementos de planificación se utilizaron, como en el
resto de los proyectos de JEMA, las guías y proceso explicitados por el PMBOK® Guide. Se trata de una metodología internacionalmente aceptada y, por tanto, fácil de entender y
seguir por parte de terceros en sus controles. PMBOK® identifica cinco grupos de procesos (Inicio, Planificación, Ejecución,
Control y seguimiento, y Cierre) y nueve áreas de conocimiento (gestión integral del proyecto, gestión del alcance, gestión
de los tiempos y plazos, gestión del coste, gestión de la calidad, gestión de los recursos humanos, gestión de las comunicaciones, gestión del riesgo y gestión de los suministros).
El hecho de que PMBOK® haya sido reconocida como metodología por entidades como el IEEE (Institute of Electrical and
Electronics Engineers) le dotaba de una particular idoneidad
para proyectos como el que iba a desarrollar JEMA.
Además, se utilizaron herramientas software estándar de
gestión y control de proyectos tipo Office Project® y de integración con el ERP de la empresa.
Se establecieron reuniones específicas semanales internas
para seguimiento del proyecto, costes y plazos, y se dedicaron
Los aspectos más críticos del proyecto estaban relacionados
con la novedad de las soluciones tecnológicas que era necesario desarrollar y aplicar para obtener los resultados buscados. No había experiencias anteriores similares completas.
Se había intentado en Italia con válvulas como componentes principales, pero un incidente en un laboratorio (que incluyó la formación de una peligrosa nube de mercurio)
había cerrado esa vía de desarrollo y las especificaciones actuales eran concretas en cuanto a la utilización de componentes de estado sólido. Había muy pocas referencias sobre
la utilización de ese tipo de componentes para aplicaciones
parecidas.
En esa situación, con grandes incertidumbres abiertas y con
la más que posible necesidad de tener que adoptar soluciones alternativas en el transcurso del desarrollo del proyecto,
los compromisos de cumplimiento de plazos e hitos de entrega, con sus penalizaciones asociadas, cobraban una importancia crítica. JEMA planificó, dentro de lo posible, esquemas de trabajo en paralelo que permitieran seguir
avanzando en otros aspectos no condicionados por eventuales retrasos en algún aspecto concreto. Asimismo, se desarrollaron planes de contingencia para detectar de forma
temprana esas situaciones, identificando responsabilidades,
recursos extras de posible aplicación, y diseñando los planes
de control y alerta para que las eventuales incidencias pudieran ser resueltas de forma tan rápida como fuera posible y
no afectaran a la planificación de hitos comprometida con
el cliente. Se analizaron todos los riesgos técnicos previsibles,
ponderándolos en función de su repercusión para el conjunto del proyecto.
59
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Estos planes resultaron de gran eficacia ya que, a pesar de
las incidencias que se produjeron, JEMA pudo entregar la
fuente a tiempo para la realización de las campañas experimentales previstas en los planes iniciales del cliente.
La novedosa solución tecnológica presentada por JEMA
gustó al grupo de 25 examinadores previos y posteriormente
al grupo de 45 técnicos que durante tres días analizaron la
propuesta. Sin embargo, costó mucho convencerles de que
el riesgo merecía la pena, que el hecho de que fuera una solución no solo más novedosa, sino incluso más barata que la
presentada por la competencia, no constituía ningún riesgo
adicional, sino una ventaja añadida, etc. Por decirlo de algún
modo, fue preciso vencer el “miedo escénico”, el vértigo que
produjo en los equipos evaluadores internacionales la presencia de una pyme tecnológica española con una solución
innovadora a un proceso crítico de la mayor instalación experimental de fusión del mundo.
Sin embargo, las razones técnicas presentadas por los expertos de JEMA, la ilusión, seriedad y compromiso demostrados, la asunción por parte de la empresa de las estrictas
condiciones de suministro, del seguimiento exhaustivo del
desarrollo —sobre todo en las fases más críticas— y de las
condiciones de controles de pagos establecidas, convencieron finalmente a los adjudicadores y el concurso fue ganado por JEMA.
La planificación de las contingencias tuvo también un aspecto financiero importante. La disponibilidad del crédito en ese
momento era aceptable en términos generales, y eso fue un
factor favorable que en épocas más recientes hubiera representado un importante escollo adicional. JEMA consiguió el
apoyo de las entidades financieras sobre la base de su buen
historial como empresa cumplidora y sin fallos. No obstante,
hubo que diseñar un sistema de control y seguimiento que
permitiera a las entidades financieras colaboradoras tener un
conocimiento puntual y preciso de la situación de cumplimiento de hitos, pagos, presentación de certificados y aprobaciones, etc.
60
Un aspecto singular del proceso de desarrollo aceptado por
contrato era la imposibilidad de cambiar nada sustancial sobre
el plan de trabajo aprobado, al menos en las dos primeras
fuentes. Es decir, incluso potenciales mejoras que el desarrollo
del proyecto pudiera descubrir, debían presentarse, argumentarse y validarse; un proceso tan largo y complejo que prácticamente lo hacía incompatible con el cumplimiento de los plazos comprometidos. Por otra parte, esas sugerencias de mejora
podían presentar dudas y pérdida de credibilidad, tanto para
la empresa como para los equipos de evaluación que habían
aprobado en todos sus detalles el diseño y las alternativas iniciales. Esta rigidez del proyecto no fue un obstáculo importante
en su desarrollo, pero se anotaron las posibles mejoras para la
fabricación de las fuentes posteriores.
La planificación de la explotación posterior
Por su propia naturaleza, el proyecto de fuentes para el JET
no tenía una explotación posterior planificada, aunque para
la dirección de JEMA estaba claro que el proyecto era importante para desarrollar cartera de pedidos posterior, tanto en
ámbitos de ciencia como en otros sectores. Se intuía, además, que en el transcurso del proyecto surgirían interesantes
soluciones y desarrollos tecnológicos de aplicación futura.
Fue un gran proyecto cuyos retos se resolvieron a través de
soluciones modulares diversas (de posterior aplicación individual). Así, entre otros “módulos” singulares se pueden
mencionar:
• Los transformadores especiales de alta frecuencia con núcleos de silicio amorfo para reducir pérdidas y tamaño;
con posterior aplicación potencial en fuentes de alta tensión y alta frecuencia.
• El sistema de conexión de 120 inversores en paralelo con
decalaje preciso de 3º entre cada uno. Se desarrolló un
complejo algoritmo para limitar el rizado, algoritmo que
ya se está utilizando en otras aplicaciones.
Los sistemas de alimentación de energía del Joint European Torus (JET)
• El interruptor-cortocircuitador (crowbar) de estado sólido
(véase la figura 5).
• El almacenamiento de la energía en baja tensión para evitar que se transfiera a la carga. Esta solución ya se está
aplicando en otros diseños de fuentes y moduladores.
con el cliente e hizo presentaciones en el 25th Symposium
on Fusion Technology, SOFT2008 (Rostock, Alemania). El
prestigio progresivamente alcanzado introdujo a JEMA en
proyectos de diseño e ingeniería inicial para otras máquinas
de fusión.
Beneficios esperados: tecnológicos,
económicos y comerciales
Fuente: foto cedida por JEMA.
Figura 5. Interruptor-cortocircuitador (crowbar) de estado sólido
desarrollado por JEMA
El principal beneficio tecnológico que se esperaba del proyecto era conseguir demostrar que la innovadora solución
propuesta por JEMA, frente a las topologías más tradicionales utilizadas por la competencia, era la mejor para esta aplicación sobre NBI. Esto iba a suponer, como así fue, un punto
de inflexión en nuevos diseños y especificaciones, ya que,
por ejemplo ITER, solicita ya soluciones similares a la topología planteada por JEMA. Las fuentes fabricadas por JEMA
consiguieron aumentar el rendimiento de los NBI y batir el
récord de energía de fusión obtenida hasta entonces en la
máquina (el diseño general ITER se puede ver en la figura 6).
Canales de explotación
La industria de la ciencia tiene unos canales de explotación
que pueden calificarse de singulares, ya que los grandes proyectos que conforman el mercado son bien conocidos por
parte de la comunidad industrial activa como proveedores
de productos o servicios para los mismos. La participación en
proyectos concretos, la publicación de comunicaciones de
ciencia en los medios monográficos del sector, la colaboración continuada con los departamentos de las GIC ya establecidas, y hasta el boca a boca de las buenas experiencias
en los círculos interesados, conforman los canales de comercialización del sector.
En el uso de esos canales específicos, JEMA participó en la
publicación de tres artículos monográficos en colaboración
Fuente: foto cedida por ITER.
Figura 6. Diseño general del ITER, el mayor Tokamak del mundo
61
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Se vislumbraba también la posibilidad de dar un salto cualitativo
en la formación de los profesionales de JEMA, en la experiencia
de sus equipos humanos en el manejo y gestión de proyectos
de esta naturaleza para clientes del más alto nivel científico, etc.
Es importante destacar que todos los profesionales específicamente contratados por JEMA para este proyecto quedaron, a
su término, contratados indefinidamente por la empresa.
Todo ello situó a JEMA como la empresa europea con mayor
conocimiento y experiencia tecnológica en este tipo de diseños de fuentes, lo que supone actualmente un interesante
diferencial competitivo.
Es un hecho que las máquinas que obtienen mejores resultados tienen menos dificultades para obtener financiación posterior, y por ello el éxito del proyecto en el JET se tradujo inmediatamente en un impulso comercial para JEMA. Otros
centros de investigación y GIC empezaron a llamar a JEMA y
a contar con sus expertos para definir especificaciones o para
pedir ofertas concretas. Incluso grandes empresas de instrumentación empezaron a recurrir a JEMA para contar con su
colaboración en futuros proyectos y aplicaciones, tanto en el
sector de la IdC como en otros sectores colaterales.
Los recursos necesarios en el proyecto
Desde el punto de vista económico, el proyecto presentaba
una rentabilidad razonable siempre que se desarrollara dentro de los parámetros inicialmente planteados. A su consecución contribuyó el estricto control del desarrollo del proyecto y su seguimiento tanto técnico como económico.
Financieramente, el proyecto no solo supuso una mejora de
la posición de tesorería de la empresa, sino que el exitoso
proceso y cumplimiento de hitos financieros otorgó a JEMA
la calificación de cliente preferencial para las entidades financieras colaboradoras.
Aspecto importante de este posicionamiento fue la política de
comunicación que la empresa mantuvo durante el largo proceso
de desarrollo y fabricación, manteniendo a las entidades colaboradoras informadas de la situación, los avances conseguidos,
las principales incidencias, etc. Se llegaron a hacer demostraciones parciales para dichas entidades, lo que incrementó su
conocimiento y confianza en el desarrollo del proyecto. Asimismo se mantuvo una permanente comunicación con las instituciones españolas más interesadas en este tipo de proyectos y
en el desarrollo general de la IdC en España (principalmente
CDTI y CIEMAT). Esta permanente política de comunicación incrementó la favorable repercusión del proyecto para JEMA.
Comercialmente, el proyecto supuso un cambio importante
en la percepción de la imagen de JEMA a nivel internacional.
62
Además de los recursos humanos ya mencionados anteriormente, fue preciso adquirir nuevos equipos e instrumentación y adaptar instalaciones para conseguir desarrollar el proyecto. Entre otras:
• Se adquirió instrumentación de laboratorio de mayores
capacidades y precisiones: osciloscopios para mayor ancho
de banda (300-500 MHz), fuentes de ensayo de hasta 260
kV para comportamientos en alta tensión, cámara de
vacío, bombas de vacío y un largo etcétera de equipamiento diverso. Este capítulo supuso una inversión superior a los 300.000 euros.
• Las acometidas especiales, la adaptación del centro de transformación, el alquiler de nuevos pabellones para las extraordinarias dimensiones del proyecto y el importante consumo
energético, alcanzaron una cifra adicional semejante.
• Por otra parte, se realizaron subcontrataciones tanto en los
aspectos de desarrollo como en fabricación de partes específicas. Además de los ya citados centros tecnológicos,
se subcontrató a un buen número de pymes tecnológicas
tales como: Talleres Leorpe, Oasa Savoisienne, Ondoan,
Felas, Transformadores Trama, Eremu, etc. Estas subcontrataciones superaron la cifra de 700.000 euros, por lo que
el impacto positivo en el entorno fue evidente.
Los sistemas de alimentación de energía del Joint European Torus (JET)
• Los recursos financieros fueron los propios de la empresa,
más los conseguidos con apalancamiento bancario y garantía de la propia empresa y del proyecto. No se contó
con ninguna ayuda pública por proyectos de I+D, inversiones o similares.
señales muy rápidas (del orden de microsegundos). Otra tipología similar fue utilizada para el inversor.
Las tecnologías y los retos tecnológicos de
detalle
El software de aplicación fue de desarrollo propio, dentro de
las plataformas de los fabricantes de los diferentes componentes.
Se trataba de conseguir una tensión de 130 kV cc a 130 A
y con las exigentes características que ya se indicaron en la
figura 4.
La solución integral que dio la propuesta de JEMA queda expresada, de forma muy resumida, en la figura 7.
670 V ca/50Hz
700 V cc/12 pulsos
Entrada
36 kV ca/50Hz
Step-down
transformer
Rectificador
a tiristores
Se utilizó tecnología de PLC (controladores lógicos programables), más lentos, como respaldo y para gestionar los
permisos de operación de la fuente.
En conjunto se desarrollaron muchos pequeños circuitos basados en FPGA con algoritmos de diseño propio.
Otro aspecto de interés tecnológico en el desarrollo de la fuente fue el de la parametrización y visualización de las interfaces
hombre-máquina, los sistemas de diagnóstico de la fuente, los
registros de eventos, etc. Todo ello se resolvió con un sistema
similar a un SCADA con conexión ethernet donde, además de
la gestión, se visualizaba su estado (véase la figura 8).
Onda cuadrada
de 2,7 kHz ca
Buffer de
energía
Inversor
de IGBTs
700 V cc/0,8 F
Salida
130 kV cc/130 A
Rectificación
no controlada
(con diodos)
120 etapas en serie. 1,1 kV cada una
Transformador
de alta frecuencia
1:1
Figura 7. Esquema general de la solución tecnología de JEMA
para las fuentes del JET
Es importante destacar que el buffer de energía de gran capacidad (0,8 F) está en la zona de baja tensión.
En cuanto a la electrónica de control, se utilizaron para el
rectificador de entrada DSP (Digital Signal Processors) con
FPGA (Field Programable Gate Arrays) ya que se manejan
Fuente: foto cedida por JEMA.
Figura 8. Pantalla principal del interfaz del proyecto
63
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Se desarrollaron también aplicaciones de simulación especiales basadas en programas estándares para electrónica de
potencia como PSIM® (POWERSIM Inc.), y otros más generales, como MATHCAD® (PTC), SIMULINK® (Mathworks), etc.
Asimismo fue preciso disponer de emuladores de DSP para
depurar el software en sus distintas fases de desarrollo.
Algunos de los principales retos en la fabricación tenían mucho
que ver con las propias dimensiones. Las cubas que contenían
42 transformadores y 42 rectificadores de alta tensión tenían
una capacidad de 30.000 l de aceite dieléctrico cada una. Cualquier elemento que se rompiera o averiara una vez dentro de
la cuba planteaba una situación crítica desde el punto de vista
del retraso en plazos, ya que las labores de desencubado, reparación y nuevo encubado podían llevar muchas semanas.
Hay que tener en cuenta que el llenado de aceite caliente debe
hacerse en situación de vacío (no puede haber burbujas en la
cuba). Esta operación es muy trabajosa e implica la utilización
de bombas de transferencia, grúas especiales, etc. Para que las
propiedades dieléctricas fueran óptimas, no se admitía ninguna
impureza ni burbujas en el aceite.
Otro reto importante fue el desarrollo de un transformador
de hasta 142 kV trabajando a 2,7 kHz con un tamaño tan
compacto como fuera posible, garantizando además una
tensión de aislamiento de 260 kV.
También hubo que enfrentar y superar otros retos:
• Conseguir utilizar 120 inversores perfectamente sincronizados (con 3º de decalaje). Todos los disparos se realizaron
por fibra óptica para evitar retrasos, hacerlos inmunes a
los ruidos electromagnéticos, etc. (véase la figura 9).
• Desarrollar el sistema de control con algoritmos de altísima
complejidad. Fueron muchos lazos de control muy complicados, trabajando en paralelo.
• Minimizar el “rizado” a la salida por causa de capacidades
parásitas. Se consiguió a base de utilizar algoritmos de alta
complejidad como los indicados en el punto anterior.
Fuente: foto cedida por JEMA.
Figura 9. Módulos inversores. Fibra óptica, PLCs y sistema de refrigeración
64
Fuente: foto cedida por JEMA.
Figura 10. Camiones góndola descargando las fuentes en Culham
Los sistemas de alimentación de energía del Joint European Torus (JET)
• La propia logística de fabricación. Cada fuente ocupaba
cerca de 400 m2 y fueron transportadas desde Lasarte al
Reino Unido en nueve tráileres especiales tipo góndola
(véanse las figuras 10 y 11). El transporte debió realizarse por
rutas y carreteras especiales que permitieran el radio de
giro y la altura necesarios.
Fuente: foto cedida por JEMA.
Figura 11. Vista parcial del montaje de las fuentes desarrolladas
por JEMA para el JET
La normativa británica para la logística, la instalación, el ensamblado, etc., es también muy exigente, y hubo que contar
con ella para evitar retrasos y costes duplicados.
En ese horizonte competitivo, la situación de JEMA era la de
la empresa con menor dimensión. Sin embargo, JEMA se posicionaba en un nivel tecnológico medio-alto; económico,
medio; y de servicio, alto.
Otro aspecto siempre importante en cuanto a la posición
competitiva es la ubicación geográfica. El hecho de ser una
empresa situada en la periferia europea no ayuda cuando se
trata de proyectos en los que la colaboración entre los técnicos de la empresa fabricante y los técnicos y científicos del
cliente es un valor importante a tener en cuenta, que se
despliega en relaciones personales-profesionales que dan flexibilidad y hacen avanzar el proyecto. JEMA tuvo que vencer
el inconveniente de su situación periférica con un esfuerzo
adicional de comunicación y de viajes para generar esa atmósfera de colaboración diaria.
El mercado de las fuentes para GIC tiene una parte importante de su volumen en los diferentes proyectos de fusión
(ITER, JET, MAST y relacionados). Por tanto, lo que ocurra en
estos proyectos (retrasos, cancelaciones, cambios, etc.) tiene
una importancia crucial sobre el futuro de las industrias que
los desarrollan. En otras palabras, se trata de un mercado
muy dependiente de las experiencias previas.
La situación del mercado específico
Existe un número reducido de empresas de primer nivel en
Europa que pueden hacer este tipo de desarrollos y trabajos:
tres en Alemania, dos en Italia, una en Suiza, una en España...
y un número algo mayor de empresas con capacidades potenciales pero sin importantes experiencias reales.
El entorno competitivo para este proyecto se centraba, por
tanto, en no más de una decena de posibles competidores
europeos de primer nivel y otros potenciales que se atrevieran a dar el salto, junto con alguna posible empresa de países
no europeos. El hecho de que la convocatoria definitiva fuera
por invitación, significaba que un filtro previo ya iba a ser realizado por parte de los expertos del cliente y de la organización financiadora europea.
Por otra parte, y en cuanto a los aspectos de oportunidad temporal, se suelen conocer los proyectos en términos generales
pero no el momento de su puesta en marcha y de la correspondiente demanda de ofertas, ya que depende de decisiones
políticas relacionadas con la disponibilidad presupuestaria. Esto
representa una fuerte incertidumbre para la planificación.
En un entorno como el perfilado, la posición comercial de
JEMA antes del proyecto JET se podía estimar en un 10%
de la cuota del mercado europeo de fuentes para fusión.
A partir de su éxito en JET, JEMA consiguió estar presente
en aproximadamente el 70% de las mencionadas fuentes.
Aparte de lo expuesto, el mercado de las GIC se define como
de “best value for money”, donde la clave del éxito es un
65
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
mix bien balanceado de tecnología, precio y servicio. Sin embargo la realidad dice que la tecnología y la fiabilidad priman
sobre el precio: son condiciones sine qua non, y por ello se
producen convocatorias por invitación, abiertas solo para el
reducido número de empresas capaces de demostrar que tienen las capacidades y la experiencia necesarias para llevar el
proyecto a buen término.
por parte del personal del JET en Reino Unido, como por parte
de las empresas y organizaciones españolas que tuvieron un
papel importante en el desarrollo (subcontratistas, proveedores, infraestructuras, etc.) Sin embargo, y como era natural
en un proyecto innovador, complejo, de alta tecnología y de
tantos meses de duración, se produjeron situaciones no esperadas que fue preciso solventar mediante la aplicación de
los recursos previstos y con creatividad y capacidad de adaptación. Algunas de esas incidencias, fueron:
La financiación del proyecto
Este tipo de proyectos que se prolongan durante largos periodos de tiempo conllevan pagos por hitos que hacen que las
empresas puedan ir financiando sus gastos en medios, estructura y salarios. A pesar de ello, y dado el volumen económico
de los proyectos, las empresas deben prever importantes adelantos con recursos propios o garantizados, ya que el arranque
del proyecto, la certificación de los hitos y los correspondientes
trámites burocráticos que implican pueden significar retrasos
reales que no deben afectar al proceso de desarrollo.
La financiación que precisó JEMA para lanzar el proyecto de
las fuentes para el JET fue soportada con sus propios recursos
(30%) y con líneas de crédito aportadas por dos entidades
financieras españolas (70%), que se ilusionaron con el proyecto y compartieron la visión de JEMA, confiando en sus capacidades técnicas y en su gestión económica.
En el transcurso del proyecto no se produjeron incidencias de
tipo financiero dignas de mención, salvo los inevitables pequeños retrasos en la recepción de alguno de los pagos, situaciones
resueltas con la aplicación del plan de contingencias.
El desarrollo del proyecto
El desarrollo del proyecto se produjo de una manera bastante
fluida, con todos los sistemas de control y seguimiento funcionando tal como se había planteado. Los directivos de JEMA
destacan también la excelente colaboración prestada tanto
66
Principales incidencias
Se detectó que, una vez dentro de la cuba, se rompían algunos diodos (cada fuente lleva aproximadamente 7.000 diodos
y se rompían 4 o 5). El coste individual de los diodos es bajo,
pero el impacto de su rotura sobre el proyecto era muy grande. Un detallado análisis inicial de los picos de conmutación
de alta potencia permitió comprobar que, en algunos casos,
se llegaba al límite de la capacidad de los mencionados diodos.
Se realizaron pruebas, simulaciones y prototipos, lo que llevó
al desarrollo de un snubber (circuito amortiguador RC) que limitaba los picos de tensión pero aumentaba las pérdidas en
el sistema, calentaba el aceite, etc. Fue necesario resolver y eliminar esos impactos, estudiando los límites de trabajo, las potencias de pérdida y los coeficientes de seguridad. Finalmente
se consiguió resolver el problema dentro de las especificaciones deseadas. Hubo que incluir 240 snubbers por fuente en
el mismo espacio que había antes, lo que exigió labores de
montaje y desmontaje en condiciones de inmersión en aceite;
ese trabajó supuso varias semanas.
Los análisis efectuados llevaron a la conclusión de que los
componentes utilizados tenían una dispersión de características nominales superior a la esperada. El diseño no permitía
utilizar diodos de mayor tamaño por ser estos más lentos. El
factor de seguridad no era suficiente. Esta demora de varias
semanas tuvo a toda la organización pendiente del problema
y afectó al diseño, que tuvo que ser ligeramente modificado.
El gestor del proyecto en JEMA fue figura clave en la solución
Los sistemas de alimentación de energía del Joint European Torus (JET)
del problema, y gracias a su liderazgo y control de los recursos se pudo resolver satisfactoriamente la situación.
También se produjeron algunos incidentes menores por roturas
de stocks de aprovisionamiento, lo que obligó, en aplicación
del plan de contingencias, a cambios de aprovisionamiento logístico para poder entrar en plazos de hitos. El proyecto incluía
miles de componentes electrónicos, mecánicos, cableados, etc.;
desde cubas metálicas de varios m3 de capacidad y muchas toneladas de peso hasta condensadores de pocos pF.
Asimismo, se produjeron algunas incidencias derivadas de los
resultados de los ensayos obtenidos en los centros tecnológicos
sobre la compatibilidad de los aceites empleados con algunos
de los otros productos que iban inmersos en los mismos.
Los desarrollos de algoritmos supusieron más trabajo que el
inicialmente planificado. Resultaron más complejos y requirieron muchas técnicas combinadas de diseño. Este inconveniente se resolvió con una mayor dedicación de recursos
hasta encontrar las soluciones adecuadas. Se consiguió que
nunca se produjera un retraso por este motivo.
Seguimiento del desarrollo del proyecto
El esquema de la organización de
seguimiento del proyecto fue el que
se indica en la figura 12.
Cada subgrupo fue responsable integral de su parte del proyecto. Se
desarrollaban reuniones internas
por subgrupo, por proyecto general
y, en la fase final de pruebas y con
carácter diario, de todos los responsables de subgrupo, con el director
industrial y el gestor del proyecto.
Estas revisiones, centradas en lo
hecho y en lo que quedaba por
hacer, no tenían una duración de más de 20 minutos y mantenían la tensión y la focalización en el proyecto de todo el
equipo. En ellas era frecuente también la participación del
director de Compras.
Principales acciones correctoras
En este aspecto, y más allá de lo indicado en el capítulo de incidencias, no fue preciso introducir acciones correctoras de
gran porte. No fueron necesarios cambios de rumbo importantes ni se produjeron cambios de personal, salvo las incorporaciones de nuevos contratados cuando fueron necesarios.
Las especificaciones originales fueron la principal guía del
proyecto y no fue preciso ni se sufrió cambio importante
en las mismas, salvo las ligeras modificaciones de diseño
antes mencionadas, a consecuencia de alguna incidencia.
En todo caso esos cambios, aunque complejos en su puesta
en marcha, no afectaron a la filosofía de funcionamiento
ni a las características operativas de los equipos. El proyecto
fue, en términos generales y gracias al plan de contingencias y a la organización diseñada por JEMA, muy fluido en
su desarrollo, cumpliéndose las etapas de desarrollo del
mismo razonablemente bien.
Gestor del
proyecto
Cliente
Sub 1
Sistemas de
refrigeración
Sub 2
Sistemas
de control
Sub 6
Transformadores
de alta
frecuencia
Sub 3
Crowbar
Sub 7
Sistemas de
adquisición
de medidas
Dir. Industrial
Dir. Gerente
Sub 4
Inversores
Sub 8
Step-down
transformers
Sub 5
Rectificadores
Sub 9
Línea de
transmisión
Sub 10
Sistema de
puesta a tierra
Figura 12. Esquema de la organización del seguimiento del proyecto
67
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Los resultados obtenidos
Tabla 1. Resumen comparativo de las características entre fuentes
según el sistema de diseño
El resultado general del proyecto ha sido considerado muy
bueno, tanto por parte de JEMA como por parte del cliente.
Sistema estático de JEMA
Sistema convencional
Mayor vida útil.
Menor mantenimiento
Con válvulas (tetrodos)
Control
En baja tensión.
Fácil comprobación ajuste.
Fácil limpieza.
Menos instalaciones periféricas.
Fácil mantenimiento.
Sin residuos de limpieza
Control en alta tensión
Filtro DC
Sin filtro DC en alta tensión.
Con filtro en baja tensión.
Menor energía almacenada.
Mayor seguridad PINI.
Seguridad intrínseca
Con filtro DC
en alta tensión
Eficiencia
Óptima eficiencia.
Menores pérdidas e
innecesarias instalaciones
subsidiarias de enfriamiento.
Consumo más bajo
Baja eficiencia
Seguridad
Seguridad intrínseca.
En la eventualidad de fallo
no se producen sobrevoltajes
de salida que pudieran dañar
los PINIS. Diseño modular
Seguridad condicionada
por la operación
de los dispositivos
Se puede incrementar la tensión
Rigidez. Sin posibilidad
de crecimiento
Todo el control en el lado
de baja tensión
Difícil de mantener,
debido a que la regulación
se localiza en el lado
de alta tensión
Vida útil
Componentes de estado sólido.
Sin desgastes
Válvulas con vida
útil limitada
Disponibilidad
Almacenaje sencillo de repuestos
y plazos de entrega cortos.
Rápido ajuste y reposición en
el lado de baja tensión
Necesidad de
mantenimiento de un
stock mayor y plazos
de entrega dilatados
Estado sólido
En general
Se alcanzaron todos los objetivos funcionales y operativos
establecidos en las especificaciones del cliente. La apuesta
tuvo el éxito que se esperaba y los retos fueron superados
(véase la tabla 1).
Se consiguieron la facturación y el margen industrial esperados. La actividad industrial de la empresa se mantuvo e incrementó con el proyecto, y con ello se alcanzaron los objetivos del plan estratégico y de los planes de gestión anuales.
El impacto interno
El proyecto de fuentes para el JET supuso un hito importante en
lo que respecta a JEMA y a su personal empleado. Gracias a la
buena comunicación interna y a la buena transmisión de lo que
el proyecto significaba para la empresa y para su devenir futuro,
se consiguió un fuerte grado de involucración: el proyecto era
de todos. El nivel de ilusión fue muy alto. Los pequeños éxitos
se compartían y se felicitaba al responsable. Los contratiempos
se abordaban como de todos y se ponía el máximo esfuerzo en
su resolución. Hubo momentos en los que faltaban horas, y se
consiguió una atmósfera de trabajo en la que el horario se regía
por las necesidades del proyecto a juicio de cada uno. El sentido
de pertenencia a un equipo comprometido con un proyecto de
gran reto era perceptible. El orgullo por el trabajo bien hecho,
conseguido durante tres años de duro esfuerzo, fue también
algo palpable en el conjunto del personal de JEMA.
El proyecto contribuyó también a elevar de forma importante
el nivel de conocimiento y de experiencia de todos los profesionales y del conjunto de la empresa.
68
Posibilidad de
crecimiento
Mantenimiento
En resumen, el proyecto JET, con sus estrictas exigencias, fue
una fuerza catalizadora de recursos, esfuerzos e ilusiones
dentro de la organización de JEMA y demostró que, trabajando en equipo y compartiendo afanes, se consiguen mejores resultados y de forma más gratificante.
Los sistemas de alimentación de energía del Joint European Torus (JET)
El impacto externo
La referencia del proyecto JET ha sido, posteriormente, un
impulso comercial y de proyección pública muy destacable
para JEMA. Tanto en los aspectos tecnológicos como de
servicio, JEMA está hoy considerada entre las empresas líderes
de su sector a nivel internacional. Su prestigio es indudable;
es consultada en fases previas de ingeniería, y se cuenta con
ella en las listas cortas de todos los proyectos del sector. El proyecto ha contribuido a posicionar a JEMA en el nivel de los
proveedores de primer nivel de la industria de la ciencia en
España y en Europa.
El impacto sobre otras aplicaciones
El trabajo de I+D realizado en este proyecto permitió avanzar
en el desarrollo de un nuevo transformador de alta frecuencia, basado en tecnología aplicada y experimentada en el
proyecto JET. El proyecto MAST fue una de las primeras aplicaciones que se beneficiaron de ello.
Los algoritmos de control para la compensación del rizado,
el control del decalaje de los inversores, y otros algoritmos,
se están utilizando ya en distintas aplicaciones.
En sistemas para aceleración de iones, inyección de átomos
neutros, pasteurización, metalurgia, sistemas ferroviarios,
hornos de inducción, etc., se mejoran las condiciones de adquisición de energía de la red utilizando los algoritmos desarrollados por JEMA.
El potencial futuro de nuevos desarrollos
Aplicaciones inmediatas de algunas de las tecnologías desarrolladas por JEMA en el proyecto de fuentes para el JET
pueden verse en los SVC (Static Vortex Compensators) ferroviarios y en los hornos de inducción que, en general, son aplicaciones que desequilibran las redes eléctricas de las que se
alimentan. Los SVC, que también desarrolla JEMA, se basan
en el conocimiento asimilado durante el proyecto JET. También el hardware de control y la arquitectura de los mencionados SVC tienen su origen conceptual en los desarrollos de
dicho proyecto.
El impacto sobre la regulación, las normas y las
especificaciones
Es evidente y reconocido por todos los implicados que el proyecto JET elevó los niveles de exigencia interna de la empresa.
A pesar de que JEMA era ya una empresa ampliamente homologada y certificada con las normas de la serie ISO 9000, las técnicas y procedimientos de control, seguimiento y trazabilidad
que el proyecto precisó poner en marcha, facilitaron la consecución de la norma de gestión de la calidad ISO 9001:2008.
Asimismo, JEMA precisó trabajar con algunas de las más exigentes normativas internacionales para equipos individuales
(IEC) y de pruebas (BS), transporte, montaje e instalación.
En particular, la estricta normativa aplicada en el Reino Unido
para las instalaciones del tipo de las comprometidas en el
proyecto JET supuso una fructífera experiencia en cuanto a
la metodología ya que, aunque en los inicios resultó excesivamente burocrática, permitió la realización de trabajos singulares con gran seguridad y buena coordinación. En este
caso, cada tarea a realizar, cada instalación de un equipo en
Culham, requería disponer de un método propio documentado de cómo se iba a realizar dicha tarea. Cada proceso
incluía también una evaluación de riesgos, un análisis del terreno y de las operaciones logísticas, etc.
Todos los equipos, componentes, ensayos, datos de ubicación, etc., fueron codificados por JEMA a efectos de documentación, trazabilidad y seguimiento de sus garantías.
Por otra parte, las especificaciones técnicas de las fuentes
para el JET supusieron un avance sustancial sobre las habituales hasta entonces en los concursos internacionales. Se
69
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
exigía que la tensión soportada en diseño fuera el doble que
la de trabajo, y esta fue la primera ocasión en que se especificó de esta manera. Actualmente este requerimiento se ha
convertido en estándar. Otra novedad fue el establecimiento
de tiempos de bajada de 7 μs en fuentes de varios MW, y lo
mismo sucedió con una gran parte de las características que
definieron las fuentes del JET y que han creado ya un nuevo
estándar que se repite total o parcialmente en especificaciones para otros diseños posteriores.
JEMA logró establecer un nuevo nivel tecnológico que se convirtió en el estándar del sector. Las fuentes para esas específicas
aplicaciones de fusión ya nunca volvieron a ser como antes.
Además existían previsiones que garantizaban derechos compartidos (entre Comisión y suministrador) e incluso el derecho exclusivo para el suministrador en función del grado de
contribución de la Comisión al hecho patentable. En todo
caso, la Comisión siempre se reservaba el derecho a una licencia de uso para el caso de otro posible contrato similar
por parte de la misma.
En resumen puede decirse que el proyecto tuvo un impacto
beneficioso sobre la empresa, al elevar su ya alto grado de
exigencia interna de calidad, trazabilidad y seguimiento; y
que, desde una perspectiva del producto, supuso la creación
de un nuevo nivel de fuentes de alimentación más precisas,
más económicas y de menores dimensiones.
Es decir, la regulación de los derechos fue precisa desde el
mismo inicio del proyecto. Bajo ese contrato, los códigos
fuentes, planos, circuitería, etc., se traspasaron íntegramente
al cliente con el correspondiente acuerdo de confidencialidad, y JEMA conservó el derecho a utilizar en cualquier otra
aplicación todos los desarrollos realizados en el proyecto.
La propiedad industrial en el proyecto
RESUMEN Y CONCLUSIONES
Los derechos de propiedad intelectual relacionados con el
proyecto estuvieron precisa y ampliamente recogidos en
el contrato correspondiente entre la CE y la empresa, y responden a lo habitual en este tipo de contratos. En particular, los
principales aspectos se regularon de la siguiente forma:
El proyecto de los sistemas de alimentación de alta tensión,
desarrollado por JEMA para el Laboratorio de Fusión Nuclear
EFDA-JET en Culham (Oxfordshire, Reino Unido), es un caso
que ilustra perfectamente el éxito de una pyme tecnológica
española que participa, con esfuerzo singular, en uno de los
mercados más exigentes, el de la industria de la ciencia4. Como
factores claves del éxito alcanzado se pueden identificar los
siguientes:
La obtención de todos los derechos, licencias, permisos y autorizaciones por parte de terceros, necesarios para llevar a
buen término el proyecto y la fabricación de las fuentes, eran
responsabilidad de JEMA, quien debía mantener informada
a la Comisión Europea sobre cualquier incidencia de este tipo
que pudiera impedir la continuación de los trabajos.
La Comisión, en beneficio de la Comunidad Europea de la
Energía Atómica (EURATOM), tenía prioridad sobre las eventuales invenciones patentables producidas en la ejecución
70
del contrato, pudiendo la primera solicitar la patente correspondiente o transferir ese derecho a terceros. Existía la previsión de cesión de ese derecho al suministrador (JEMA), cubriendo este todos los gastos relacionados y cediendo
derechos permanentes de licencia a la Comisión.
• La cultura de innovación, característica de la empresa en
todas sus actividades. Cultura que se percibe en el comportamiento diario de cada departamento y cada profesional, en la importante dedicación a la I+D, en la continua
4
Véase el capítulo “La industria de la ciencia: ayudando a explorar
las fronteras de lo posible”.
Los sistemas de alimentación de energía del Joint European Torus (JET)
asimilación de nuevas tecnologías y componentes para su
aplicación práctica.
trabajar con equipos externos de distinta procedencia para
la consecución del objetivo común.
• El intenso estudio previo de alternativas y posibilidades
para evaluar lo mejor posible los más probables puntos de
incidencias y plantear posibles rutas de solución, sus costes
y sus plazos, así como el planteamiento de un estudio logístico inicial y sus costes.
• La gestión financiera, que permitió contar con los recursos internos y con los de apalancamiento exterior, gestionando bien los hitos y las certificaciones parciales, así
como los compromisos con los proveedores.
• La comunicación interna, cuyo reforzamiento consiguió
que todos los empleados sintieran el proyecto como un reto
personal y de conjunto, enfatizando el sentido de pertenencia
a un equipo ganador y el orgullo de formar parte del mismo.
• La comunicación externa con los equipos técnicos del
cliente y con los proveedores y subcontratistas. En el primer caso, facilitó la construcción de un alto nivel de confianza, así como el intercambio de ideas y el conocimiento
personal de los equipos. En el segundo caso, desarrolló
una fluida cadena de suministros y aseguró la colaboración permanente de los proveedores financieros.
• Las alianzas y colaboraciones con centros tecnológicos
y con otras empresas tecnológicas, que permitió no solo
complementar conocimientos específicos y enriquecer el
proyecto, sino también aumentar la capacidad de trabajo
en paralelo y de horas/hombre totales.
• La metodología de gestión del proyecto, tanto en el
proceso de desarrollo como en el control y seguimiento; y
la preparación del Plan de Contingencias para identificar y
prever las acciones posibles ante eventuales imponderables.
Estas metodologías están basadas en herramientas estandarizadas y en reuniones periódicas cortas y precisas.
• El equipo de profesionales bien formados en electrónica
de potencia y en regulación y control, que constituye el
mejor recurso de JEMA. Este equipo demostró durante
el proyecto su capacidad tecnológica, su compromiso con
los objetivos señalados y su capacidad de adaptación al
• El gran esfuerzo dedicado a la logística, tanto en nuevas
inversiones fijas y temporales, como en los aspectos de almacenes, aprovisionamiento, transporte, normativas, etc.
• Y por último, aunque no por ello menos importante, el
liderazgo ejercido como función, no solo de los máximos
responsables de la empresa y del proyecto, sino también
de todos y cada uno de los responsables de subgrupo
y de tarea. Liderazgo al estilo JEMA, con grandes dosis de
delegación y de corresponsabilidad, evitando las largas
cadenas de mando autorizador, con un esquema matricial
de funcionamiento en el que cada componente conocía
la tarea de su lateral y ayudaba en ella si se le precisaba.
La conjunción de estas claves, que no surgen por casualidad,
sino que son el resultado de muchos años de trabajo en equipo, definieron el suficiente grado de seguridad propia como
para permitir a JEMA tomar la decisión de enfrentarse en
concurso público a empresas internacionales todas ellas líderes y de dimensiones varios órdenes de magnitud superiores a la empresa.
Como en el caso de JEMA, cualquier pyme de carácter tecnológico puede aplicar la misma receta con los mismos o parecidos ingredientes. Aunque el éxito no puede garantizarse,
porque las situaciones no controlables del entorno también
juegan un cierto papel, sí se demuestra que las oportunidades están también al alcance de las pequeñas y medianas
empresas españolas. Y esto es así, incluso en los mercados
más complejos, alejados y exigentes, si se forma un equipo
profesional bien motivado y se gestiona con efectividad, controlando los riesgos con las herramientas adecuadas.
La industria de la ciencia: ayudando
a explorar las fronteras de lo posible
Francisco Javier Cáceres Núñez
“Hay una fuerza motriz más poderosa que el vapor,
la electricidad y la energía atómica: la voluntad.”
(Albert Einstein)
LOS ORÍGENES
Desde los albores de la humanidad, la evolución del hombre
y el creciente dominio de su entorno ha ido paralelo al desarrollo de los instrumentos que le han permitido interactuar
con el medio, potenciar sus propias capacidades naturales y
comparar los resultados. La famosa escena inicial de 2001:
Una odisea del espacio (Stanley Kubrik, 1968) ilustra bien la
importancia que para los primeros homínidos tuvo el manejo
de un simple instrumento manual que potenciaba su fuerza
y les daba una ventaja competitiva sobre la que sustentaron
su evolución en un entorno de recursos escasos y fuerte competencia por los mismos.
Desde entonces, el linaje humano, impulsado por su innata
curiosidad y su afán de mejorar y de encontrar la verdad, ha
dirigido su atención a lo desconocido, superando sus limitaciones físicas y las interpretaciones míticas iniciales. El cielo
y sus estrellas, los océanos, el propio cuerpo, la energía, la
tierra y sus componentes, los procesos de la vida, lo infinitamente grande y lo infinitamente pequeño, constituyen fronteras que el ser humano no deja de empujar, ampliando su
caudal de conocimientos.
El aprovechamiento práctico y la puesta en relación de esos
conocimientos está en la base del continuo progreso de la
humanidad. Es este un proceso evidente en lo que se conoce
como periodo histórico de nuestra especie y que, en los últimos lustros, presenta una aceleración exponencial.
Los instrumentos son la herramienta fundamental que permite a un ser que, físicamente, ha cambiado muy poco en
los últimos miles de años, realizar hazañas como “ver”
fauna de tamaño microscópico, volar como las aves, crear
híbridos, predecir el tiempo, navegar en la oscuridad, explorar el espacio exterior, indagar en la relación materiaenergía, incrementar la esperanza de vida, comunicarse a
73
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
miles de kilómetros, sobrevivir en entornos hostiles, y un
largo etcétera de conquistas que los elementos básicos de
su equipamiento biológico natural no le permitían.
Las pirámides asirias y mayas eran ya instrumentos que facilitaron el estudio del cielo y la predicción de eclipses. Todavía
hoy asombra la exactitud de alguno de los relojes solares en
piedra del Jantar Mantar en Jaipur, India (véase la figura 1) y
de otros observatorios erigidos muchos siglos atrás por antiguas civilizaciones.
El astrolabio, el compás y los primitivos telescopios artesanales son los instrumentos antecesores de los radares, el GPS
y los grandes radiotelescopios actuales.
Los cohetes, naves y satélites, que hoy día no representan noticia especial alguna, tienen sus inicios reales pocas décadas
atrás; y los programas de terraformación de otros planetas
son ya objeto de seria planificación por parte de la comunidad
científica. Pero nada de esto hubiera sido posible sin los instrumentos que los científicos e investigadores necesitaban utilizar para compensar sus ya mencionadas limitaciones físicas.
Inicialmente, los instrumentos eran fabricados por sus propios usuarios, en colaboración con un cercano círculo de asistentes artesanos (el taller), pero ya en el siglo XIX empezaron
a aparecer fabricantes especializados de equipos e instrumentos para los investigadores y científicos. Fue el verdadero
nacimiento de lo que hoy se entiende como industria de la
ciencia (IdC).
LA INDUSTRIA DE LA CIENCIA
Considerada como sector de actividad, se entiende como
industria de la ciencia al conjunto de empresas que conciben,
diseñan, fabrican o dan servicio a los equipos, instrumentos,
sistemas e instalaciones singulares de carácter científico necesarios para desarrollar las actividades investigadoras que
permiten avanzar en el conocimiento general.1
La creciente complejidad de sus tareas, que exige la aplicación de tecnologías muy diversas, siempre en los límites de
lo conocido y experimentado, y las especiales características
de su mercado, hacen de esta industria un sector caracterizado por:
• Un estado de permanente innovación. Cada proyecto
de investigación es nuevo por definición y precisa, muy
frecuentemente, de nuevos instrumentos más precisos
y potentes o de instalaciones no disponibles hasta ese
momento.
1
Figura 1. Reloj solar de piedra del complejo astronómico Jantar Mantar (Jaipur, India)
74
Esta definición no es una fórmula oficial y normalizada, pero responde a lo que comúnmente se entiende, en el sector afectado,
como industria de la ciencia.
La industria de la ciencia: ayudando a explorar las fronteras de lo posible
• Una mayor asunción del riesgo, asociada a la propia novedad.
• Largos plazos de desarrollo, lo que conlleva esquemas de
financiación singulares.
• Fabricaciones no seriadas, llegando incluso a ser singulares.
• Necesidad de profesionales altamente cualificados y en
continua formación.
• Colaboración permanente con los centros de investigación
y sus equipos de trabajo.
Es evidente que la IdC es un sector de actividad cuyas características lo alejan de las actividades intensivas en capital, de
carácter más especulativo, o de los modelos de negocio
basados en expectativas de impactos positivos en la cuenta
de resultados a corto plazo. La IdC requiere intensidad en
conocimiento y visión de medio y largo plazo.
Los proyectos llamados de “gran ciencia”, habitualmente ligados a grandes instalaciones, precisan de presupuestos y
esfuerzos de tal magnitud que, necesariamente, deben ser
abordados por alianzas internacionales con compromisos de
los propios Estados y participación de científicos e industrias
de muy diversos países. Ello hace que la industria de la ciencia sea, además, un sector globalizado en el que la internacionalización es una condición inherente.
LOS MERCADOS
La industria de la ciencia es un sector industrial “de nicho”,
cuyos mercados están constituidos por los productos y servicios precisados por las infraestructuras, los organismos y
los programas científicos, tanto de carácter nacional como
internacional. Se trata, en muchos casos, de actividades poco
conocidas para el gran público en su faceta industrial y por
ello, y por la dificultad de encajarlas en las clasificaciones
industriales al uso, no es frecuente que aparezcan singularizadas en estudios y estadísticas generales. Sin embargo, su
dimensión es más que notable y creciente.
Existen en Europa alrededor de 600 instalaciones científicas
de dimensión media-grande, de las cuales más de 240 tuvieron un coste de construcción del orden de cientos de millones de euros. Estas instalaciones ya existentes precisan continuas mejoras y adaptaciones (upgrades) que les permitan
desarrollar sus nuevos proyectos. Constituyen en sí mismas
un mercado muy importante.
Pero es que, además, y considerando solo Europa, está prevista la construcción de 44 nuevas Grandes Instalaciones
Científicas (GIC) durante la próxima década, con un presupuesto inicial superior a los 18.000 millones de euros2, y que
comportarán un coste operacional superior a los 2.200 millones de euros anuales.
ESFRI y ERIDWatch valoran en no menos de 8.000-9.000 millones de euros anuales el potencial de oportunidades de
compras de alta cualificación que ofrecerán las GIC, potencial
que estará al alcance de las empresas europeas. Las mismas
fuentes dicen también que esta cifra ha venido incrementándose en aproximadamente un 5,5% anual durante los últimos diez años.
Teniendo pues en cuenta la suma de los presupuestos de
desarrollo de nuevas GIC, y los presupuestos para adaptaciones y mejoras de las existentes, se puede estimar una
cifra de mercado potencial, solo en Europa, de aproximadamente 30.000 millones de euros para la década, con un
coste operacional anual de aproximadamente 3.600 millones de euros.
Pero es que, además, existe un segmento de la IdC considerado aparte, el espacial, en el que la inversión anual de
2
ESFRI, Plan de Infraestructuras (Roadmap of Infrastructures).
75
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
la European Space Agency (ESA) asciende a más de 1.400
millones de euros, y en el que la participación de la industria
como proveedora de vehículos y sus partes, instrumentos
de a bordo, simuladores, sistemas de navegación e instalaciones, es muy importante.
Todo lo anterior apunta claramente a la necesidad de disponer de un sistema científico-técnico fuerte, competitivo y
bien estructurado. Los distintos informes de COTEC inciden
año tras año, desde distintas perspectivas, en esta necesidad.
La relevancia del mercado de la IdC queda subrayada por el
hecho de que 33 países europeos disponen ya de su propio
plan de desarrollo de GIC, o lo tienen en periodo de preparación. Estos planes nacionales sirven para su contrastación
internacional, su posible fusión o acuerdo con terceros, o la
consecución de compromisos de participación en organizaciones de carácter multinacional.
Segmentación de los mercados de la IdC
Es evidente que el volumen de la IdC, aun siendo importante,
no es tan grande como el de ciertos sectores de gran consumo, como el del automóvil o el de los electrodomésticos,
pero debe tenerse en cuenta que la IdC aporta, además de
una actividad económica apreciable, otros valores muy importantes que tienen un enorme impacto en diversos sectores y en el entorno social.
Habitualmente, la IdC se divide en varios grupos o segmentos, en función de ciertos denominadores comunes relacionados con el objetivo científico de las instalaciones y con las
tecnologías aplicadas3. Estos son:
• Fusión.
• Ciencia de partículas.
• Energía y TIC.
• Espacio y aeronáutica.
• Astrofísica.
• Biología y ciencias de la vida.
Recientes estudios destacan al menos cuatro factores adicionales de impacto de la IdC a tener en cuenta:
• La creación y asimilación de tecnologías avanzadas que
son utilizables en otros sectores, a los que dota de mayor
competitividad.
• La necesidad de muy alta formación del colectivo de profesionales afectado por los desarrollos de la IdC, lo que
eleva de forma notable la formación científica y tecnológica de la sociedad en la que se ubica.
76
• Servicios de ingeniería e infraestructura para GIC.
Actualmente, los mayores mercados se encuentran en fusión
(proyecto ITER y relacionados), espacio y ciencia de partículas,
aunque se aprecia un incremento anual notable en biologíaciencias de la vida y en astrofísica (GTC, E-ELT…).
• El fortalecimiento de la imagen tecnológica del conjunto
del país.
Las empresas más activas en la IdC se sitúan en los países
desarrollados que disponen de grandes instalaciones científicas. No es casualidad que Francia, Alemania, Suiza, Reino
Unido y EEUU, países en los que se ubican la mayor parte de
las GIC, concentren también la mayor parte de empresas
de la IdC, tanto de primer nivel como en lo que respecta a
• El incremento de las relaciones y alianzas con empresas e
instituciones líderes de otros países, consiguiendo una importante fertilización cruzada de conocimientos.
3 En función de la perspectiva e interés, se barajan a veces distintos
sistemas de agrupamiento. La clasificación que se indica aquí tiene
una perspectiva de mercado.
La industria de la ciencia: ayudando a explorar las fronteras de lo posible
subcontratación. En España, el Gran Telescopio Canarias, el
Tokamak TJ-II de Madrid (CIEMAT) y la Fuente de Neutrones
por Espalación de Bilbao, son magníficos ejemplos de cómo
una gran instalación impulsa el tejido industrial de la IdC de
su país y le ayuda a posicionarse internacionalmente.
Europa dispone de la mayor concentración de actividades de
gran ciencia en física de partículas y en fusión. EEUU y Rusia
aportan también muy valiosas experiencias de investigación,
aunque con una IdC menos estructurada.
La posición de España en la IdC
Sin demérito de singularidades industriales y científicas que
se venían produciendo con anterioridad, los orígenes de la
IdC española como industria pueden establecerse en los años
en que España comienza a participar en las infraestructuras
científicas internacionales, principalmente europeas (CERN,
1961). Esas participaciones, en forma de contribución económica a un esfuerzo común, abrieron a los científicos españoles las puertas de los programas de trabajo de dichas
organizaciones e instalaciones, y también supusieron la posibilidad de obtención de retornos de esa contribución en
forma de contratos para la industria española. Asimismo,
existía la posibilidad de que dicha contribución lo fuera en
especie (equipos, servicios, etc.).
Desde entonces, la industria de la ciencia española ha ido
creciendo y especializándose en productos cada vez más tecnológicos y sofisticados, hasta alcanzar hoy una posición estimable en el conjunto de los países que disponen de una
IdC que pueda caracterizarse como tal.
En el mercado nacional, la IdC española actúa sobre los organismos y centros de investigación, sobre las unidades universitarias de investigación y sobre las oportunidades que
presenta el Plan Nacional de ICTS (Infraestructuras Científicas
y Tecnológicas Singulares). Asimismo, los programas científicos del Plan Nacional de I+D+i presentan también ciertas
oportunidades de adquisición de equipos o instalaciones que
la IdC debe proveer.
En el mercado internacional, la IdC española participa en la
mayor parte de los programas de adquisición de los organismos multinacionales, especialmente en aquellos en los que
existe contribución española, pero también, y cada vez en
mayor medida, en otros mercados y oportunidades abiertas,
tanto en Europa como en otros países y áreas geográficas.
La Administración Pública española ha realizado un notable y
constante esfuerzo para incentivar el nivel de retornos de la
IdC española y para conseguir que sea, al menos, comparable
con el de los recursos que se aportan. Para ello el Centro para
el Desarrollo Tecnológico Industrial (CDTI) informa y guía a las
empresas españolas sobre las oportunidades en GIC, y dispone
de un programa (APO) de ayuda a la presentación de ofertas
de alta calidad a las Grandes Instalaciones Científicas internacionales por parte de la IdC española. Ese mismo organismo,
adscrito al Ministerio de Ciencia e Innovación, participa como
asesor en el Comité de Infraestructuras de Investigación, en el
Comité Asesor EURATOM, en el área de fusión del Séptimo
Programa Marco y en los comités financieros e industriales de
las organizaciones en las que España participa, tales como
CERN, ESRF, ESO, ITER, FAIR, X-FEL, etc.
A pesar de ello, y de las oportunidades que los programas
de centros de investigación nacionales como CIEMAT, INTA,
etc. representan, la IdC española todavía no ha obtenido esa
paridad entre aportaciones y retornos, por lo que queda una
notable ventana de mercado potencial que interesa cubrir y
superar cuanto antes.
Conviene destacar que los grandes centros de investigación
públicos, además de participar en los programas de desarrollo científico internacional, tienen un importante papel de facilitadores para las empresas de la IdC española.
Empresas y centros públicos de investigación complementan sus respectivos programas de I+D mediante estrategias
77
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
propias. Las empresas de la IdC se orientan hacia el desarrollo tecnológico y la fabricación, mientras que en los centros públicos de investigación es mayor la incidencia en los
aspectos básico-teóricos.
España, con un desarrollo industrial que la sitúa en el quinto
lugar europeo, con indudables avances en sus inversiones en
I+D (aunque todavía quedan muchos objetivos por alcanzar)
y con una comunidad científica que participa en los proyectos
y programas internacionales más avanzados, aspira no solo a
obtener retornos superiores a los actuales —que deberían estar
en el entorno de los 3000 millones de euros (2010-2014)—,
sino también a desarrollar más su mercado propio, disponiendo de más y más variadas GIC en el territorio.
En los últimos años se va avanzando en el el objetivo de alcanzar esas aspiraciones, al menos parcialmente, ya que se
empieza a disponer de GIC del más alto nivel: Gran Telescopio Canarias (La Palma); Stellarator TJ-II (Madrid); Sincrotrón
de luz ALBA (Barcelona); Fuente de Neutrones por Espalación
(Bilbao). España también ha optado a la instalación de algunas otras GIC internacionales que no se han conseguido por
diversas razones, como el ITER (Cadarache, Francia), la Fuente
Europea de Espalación (Lund, Suecia) o el E-ELT (Atacama,
Chile). Pero esas candidaturas, y el trabajo desarrollado por
la Administración Pública, la comunidad científica y las empresas potencialmente afectadas, han servido para posicionar
mejor a la IdC española que se encuentra hoy, por capacidades y experiencia, en una situación mucho mejor que años
atrás.
Conviene también mencionar la creciente presencia española en el liderazgo de programas científicos internacionales
en los que la IdC local ha tenido una brillante participación.
Ejemplos típicos son los del sector espacial, en los que los
consorcios españoles han liderado, con gran éxito, proyectos
en el área de la observación satelital de la Tierra tales como
SMOS, y se preparan otras misiones (INGENIO, PAZ...) que
llevarán instrumentos y sistemas altamente especializados y
de factura española (medidores de gases de efecto inverna78
dero, dosímetros y espectrómetros de protones, medidores
de ángulo de incidencia de la radiación solar, etc.). La IdC
local participa también con éxito en el difícil mercado de la
instrumentación especial para reactores y aceleradores, como
lo muestra la reciente presentación del primer detector español de neutrones por centelleo con tecnología propietaria
(véase la figura 2).
Fuente: foto cedida por Scientifica Internacional, S.L.
Figura 2. Primer detector de neutrones por centelleo con tecnología propietaria.
Desarrollo de Scientifica Internacional, S.L.
La contribución española en forma de recursos económicos
a las GIC internacionales representa aproximadamente una
media del 8%4 de los presupuestos de dichas GIC, lo que nos
sitúa también en un quinto lugar entre los países europeos,
por contribución. Sin embargo, y como ya hemos comentado,
los retornos de la IdC española están todavía muy lejos de
esa misma proporción.
4
Varía entre el 1% y el 20%.
La industria de la ciencia: ayudando a explorar las fronteras de lo posible
EL FUTURO DE LA IDC
La continuación de las inversiones en GIC no parece estar
en cuestión. La futura competitividad de las naciones está
basada en el conocimiento y en su aplicación eficiente. Es
imposible imaginar una sociedad desarrollada y sostenible
sin un nivel científico apreciable. Para desarrollar y mantener
ese nivel, es necesario disponer no solo de los científicos
adecuados, sino también del entorno industrial capaz de
colaborar con ellos, diseñando, fabricando y manteniendo
los equipos e instalaciones necesarios para que puedan desarrollar su labor.
Por otra parte, los proyectos llamados de “Gran Ciencia” tienen plazos de desarrollo de muchos años, por lo que los presupuestos están comprometidos con mucha antelación, y
ello supone un cierto amortiguamiento de las oscilaciones
en la disposición de recursos financieros en los inevitables ciclos económicos.
Además, en proyectos multinacionales, la renuncia a la participación, por razones presupuestarias propias, por parte de
un país previamente comprometido supondría una mala nota
por su repercusión en el resto de asociados al proyecto, con
lo que esto conlleva de pérdida de reputación y fiabilidad
para próximas oportunidades.
Una eventual (y no esperable) disminución de inversiones de
carácter general en GIC pondría en peligro o retrasaría la
consecución de avances, lo que afectaría negativamente a
la solución de algunos de los problemas más acuciantes de la
humanidad (el cambio climático, la escasez energética, las
enfermedades congénitas y endémicas, la alimentación, la
conquista del espacio, etc.).
Por todo ello, y a pesar de las adversas circunstancias económicas generales que periódicamente pueden experimentarse,
las actividades científicas y, como consecuencia, los presupuestos dedicados a las inversiones en GIC, no deben sufrir
disminuciones importantes.
En su Séptimo Programa Marco (7PM), la Comisión Europea
aspira a invertir 3.961 millones de euros en infraestructuras
de investigación durante los años 2007 a 2013. En las dos
ediciones anteriores, las asignaciones para grandes instalaciones científicas fueron de 540 millones de euros en el 5PM,
y de 900 millones en el 6PM.
En España, la Estrategia Estatal de Innovación, presentada
por el Ministerio de Ciencia e Innovación al Congreso de los
Diputados el 1 de octubre de 2009, señala acertadamente a
la industria de la ciencia, junto con la modernización de la
Administración, la economía verde, y la economía de la salud
y asistencial, como los mercados innovadores que propiciarán
el cambio de modelo productivo; y prevé una actuación
sobre la economía de 100.000 millones de euros para los
cuatro sectores.
El Plan de Trabajo 2010 del Programa Nacional de Infraestructuras Científico-Tecnológicas destina también un importante presupuesto, cofinanciado con el FEDER (Fondo Europeo de Ayuda al Desarrollo), a: “Contribuir al desarrollo
regional a través de la puesta a disposición de la comunidad
científica y tecnológica de este país, del equipamiento científico-tecnológico necesario para el desarrollo de sus actividades de investigación”.
Y no debe olvidarse que otros grandes mercados geográficos para la IdC están también muy activos y en otra situación de ciclo económico. El mayor de estos mercados
es el de Estados Unidos, con un volumen total de potencial
de compra similar al del conjunto europeo y con alto grado
de accesibilidad, seguido por los de Japón, Rusia, Corea,
China, Brasil, India, etc., algunos emergentes y más cerrados, pero en los que una buena política de colaboración
con la IdC local en un escenario de alcance global puede
ser muy interesante para la IdC española. Algunos de esos
países emergentes, potencias industriales también, son a
la vez mercado y origen de competencia. Por ello la mencionada política de alianzas en beneficio común es, si cabe,
más conveniente.
79
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
No es exagerado por tanto decir que la IdC representa para
España una clara oportunidad de crecimiento industrial y de
avance en el conocimiento para los años venideros. Una
oportunidad que, además, tendrá una importante proyección
sobre actividades laterales también de alto valor añadido
(energías renovables, medio ambiente, salud, transporte,
etc.) y que aumentará el impacto positivo que, ya hoy, tiene
sobre la imagen del país como desarrollador y proveedor tecnológico (véase la figura 3).
LAS EMPRESAS DE LA IDC ESPAÑOLA
Las empresas que componen la IdC española suponen una
rica representación del sector industrial español más avanzado. Junto a grandes grupos tecnológicos industriales
(Indra, Empresarios Agrupados, Iberdrola, Idom, Sener...), capaces de acometer y liderar diseños integrales de grandes
sistemas, satélites o instalaciones, se puede encontrar también empresas altamente especializadas y líderes en nichos
de mercado específicos (JEMA, Telstar, Cadinox, AVS, Mier,
T. Leorpe, Antecsa, Duro Felguera, Asturfeito, DMP, Elytt
Energy, Fagor Automation, etc.), así como otras pequeñas
empresas de alto contenido tecnológico (Cryobest, Scientifica, Swisslan, Fractal, Serkide, Burdinola...). Merece la pena
mencionar que, aunque los nombres de algunas de las empresas mencionadas no lo sugieran, la IdC española está
compuesta en su práctica totalidad por empresas de origen
y capital español. Responden al espíritu empresarial inicial o
a los esfuerzos diversificadores de científicos, tecnólogos y
emprendedores locales con visión global.
En conjunto, la IdC española está compuesta por varios centenares de empresas con capacidades y experiencia probada,
que acceden con periodicidad desigual a los concursos internacionales para el desarrollo y fabricación de instrumentos,
equipos y sistemas para GIC.
Fuente: foto cedida por IDOM.
Figura 3. Diseño de ingeniería para el E-ELT
realizado por IDOM, S.A.
En esta apasionante tarea es clave la alianza y el trabajo conjunto entre Administración Pública, centros y grupos de investigación, y la industria de la ciencia.
80
Un reciente estudio realizado a solicitud de la Agencia Vasca
de Innovación Gipuzkoa Berritzen-Innobasque, establece tres
niveles de pertenencia a la IdC en función del posicionamiento y la actividad desarrollada:
• Empresas tractoras. Con participaciones habituales en los
procesos de diseño y adquisición. Están consideradas en
las listas cortas de los organismos multinacionales por
estar ampliamente homologadas y reconocidas. Disponen
de relaciones de trabajo bien establecidas. La IdC representa una parte sustancial de su actividad, y actúan como
motor de su entorno al liderar proyectos o programas
complejos.
La industria de la ciencia: ayudando a explorar las fronteras de lo posible
• Empresas especializadas. Con participación ocasional y
que disponen de conocimientos, tecnologías y procedimientos que les permiten acceder con éxito al mercado
de las GIC, lo que hacen de forma esporádica. Pueden ser
proveedores directos o indirectos. Las relaciones con las
GIC no son tan estrechas como en el caso de las tractoras.
Su conocimiento de los procesos de compra es justamente
el necesario para cada operación.
• Empresas con capacidades próximas. Tienen potencialidad
y deseos de formar parte de la IdC, pero solo lo hacen
muy esporádicamente y de la mano de terceros. Es un amplio grupo de empresas que, habitualmente, están activas
en otros sectores y contemplan la IdC como una oportunidad de diversificación con alto valor añadido.
La IdC española dispone de empresas en los tres niveles mencionados, aunque no en todas las especialidades de todo tipo
de proyectos. Así, se puede mencionar a Iberdrola como tractora con proyectos de integración e ingeniería para el ITER y
para el CERN; a IDOM, con proyectos también de ingeniería
integral para las estaciones astronómicas terrestres (grandes
telescopios); SENER, en proyectos relacionados con el espacio; INDRA… Entre las empresas especializadas se encuentra
también un interesante grupo que, partiendo de su área de
conocimiento específico (la mecanización de alta precisión,
la calderería para alto vacío, la radiofrecuencia, la automática
y la sensórica, la electrónica de potencia...) son capaces de
ofrecer soluciones más complejas añadiendo otros elementos
del proyecto, bien por desarrollo propio o, muy frecuentemente, a través de subcontratación cercana. Entre este grupo
de empresas se puede citar a JEMA, Asturfeito, A-V-S, Telstar,
Elyyt Energy, Fagor Automation, Scientifica… Por último, el
grupo de empresas con capacidades próximas es muy amplio, y abarca prácticamente a todas las empresas industriales
de primer nivel tecnológico de muy diferentes sectores,
desde la informática de aplicativos (simulación, sistemas inteligentes, SCADA avanzados...) a las grandes estructuras
que alojan los muy especiales instrumentos de observación
o ensayo. Este amplio grupo está actualmente compuesto
por unos pocos cientos de empresas de muy distinto tamaño,
pero cuyo número no deja de crecer y constituye, además,
el vivero de las futuras empresas especializadas y tractoras.
Entre las principales áreas tecnológicas en las que las empresas españolas sobresalen con especialistas de primer nivel se
encuentran la robótica y los sistemas automáticos de control;
la fabricación mecánica ultraprecisa; los equipos de radiofrecuencia; el vacío y la criogenia; el electromagnetismo; los
nuevos materiales; la instrumentación, sensores y detectores;
las fuentes especiales de energía; y los sistemas avanzados
de diagnóstico, simulación y proceso de datos.
En cuanto a la distribución geográfica de las empresas de la
IdC, y a pesar de que, como es natural, las habituales concentraciones del mapa industrial español también se reproducen en este caso, conviene señalar que existen capacidades y empresas de IdC repartidas por todo el territorio. Así,
junto al País Vasco, Madrid, Cataluña y Asturias como principales núcleos de concentración de IdC, hay también empresas con actividad en este sector en la Comunidad Valenciana,
Canarias, Aragón, Andalucía, Castilla-León, etc.
IMPACTO DE LAS GIC Y DE LA IDC EN LA
SOCIEDAD
Es interesante observar el impacto que una GIC tiene en su
entorno y en la creación de empresas de IdC próximas.
Normalmente la existencia de IdC previa en las cercanías,
tiene un valor estimable a la hora de seleccionar la ubicación
de una nueva GIC; pero está también muy comprobado que,
una vez instalada la gran instalación científica, esta produce
un efecto semilla de nuevas actividades o de refuerzo y empuje a las ya existentes. Esto, a medio plazo, tiene un enorme
potencial transformador en el entorno industrial y, como
5
El caso internacional más estudiado es el del impacto del CERN
(Conseil Européen pour la Recherche Nucléaire), creado en 1954,
sobre el entorno industrial y social francosuizo.
81
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
consecuencia, en el social. Es una razón más para dedicar
esfuerzos a la consecución de más GIC en el territorio nacional.
Ya se ha comentado la importancia que para la IdC tienen
las alianzas y las colaboraciones. En muchos casos la actividad industrial viene como consecuencia de participaciones
científicas en la concepción o en proyectos teóricos de los
llamados de “aguas arriba”. Por ello, la IdC española debe
mucho a los organismos públicos de investigación y a los
centros tecnológicos y de excelencia (CSIC, IEO, ISCIII, CIEMAT,
TECNALIA, INTA, IAC, CTA, IK4...) que en muchas ocasiones
sirven de tractores de las empresas de la IdC, abriéndoles
el camino a proyectos propios y a los internacionales, y posibilitando su entrada en procesos de homologación y participación en los que, posteriormente, ya quedan instaladas
para ocasiones futuras. Este proceso ha tenido una notable
importancia en la creación y el impulso de la IdC española,
que —de otra manera— hubiera tenido que recorrer un difícil
camino en solitario, en todo caso mucho más lento.
Un papel semejante es el que cumplen los departamentos
universitarios de algunas de las más prestigiosas universidades españolas, como la UPC, la UPV-EHU, la UNICAN, la
UAB, la UPM, etc.
Pero, finalmente, la IdC está constituida por empresas que,
de forma sostenible y económicamente eficiente, forman un
tejido industrial con una extendida cadena de valor (desde
el concepto hasta el servicio), que acompañan el esfuerzo
por el conocimiento que realizan los grupos de científicos y
el conjunto del país. La IdC aporta una importante actividad
económica, desarrolla y asimila las tecnologías más avanzadas y, a través de su actividad empresarial total, transfiere
esos conocimientos al resto de la sociedad, incrementando
así la competitividad de esta.
Una de las empresas más destacadas en la IdC española,
por su experiencia en algunos de los proyectos nacionales
e internacionales de grandes infraestructuras científicas de
82
mayor entidad, y por el liderazgo que ha conseguido en su
nicho de mercado en la IdC, es la empresa JEMA (Jesús María
Aguirre, S. A.), cuya experiencia en el desarrollo de la fuente
de calentamiento del plasma para el reactor de fusión JET,
en Reino Unido, se ha utilizado como ejemplo de un proceso
exitoso de una pyme tecnológica española en un mercado
de altísimas exigencias y en competencia con empresas
internacionales de mayor dimensión.
Ese proceso llevó a JEMA, desde una posición inicial de
empresa con capacidades tecnológicas en su sector pero sin
experiencia en el mundo de las GIC, a ser considerada hoy
como una empresa altamente especializada y líder en el sector de equipos para suministro de energía a las mencionadas
grandes instalaciones. Ese posicionamiento conllevó también
una interesante capacidad de subcontratación que repercute
muy positivamente en su entorno y en el resto de la IdC española. Todo ello la convierte en un referente y un estímulo
para otras muchas empresas que tienen altas capacidades
potenciales, pero no han dado aún un salto cualitativo como
el que en su día dio JEMA.
Referencias bibliográficas
• A Guide to the Project Management Body of Knowledge
(PMBOK Guide) Project Management Institute. 14 Campus
Boulevard Newtown Square, PA 19073-3299 USA. 4th.
Edition. 2008.
• Alonso del Val, Andoni; Prudencio Rey, Javier; González
Zorrilla, Raúl. Maestros de Empresa. Instituto de Marketing
del País Vasco. Derio, Vizcaya, 1997.
• Emparantza, R. et al. ITUR: a facility for testing and Optimizing Ion Sources.
• ERID WATCH. European Research Infrastructure Development Watch.
http://www.eridwatch.eu/
La industria de la ciencia: ayudando a explorar las fronteras de lo posible
• ESFRI Annual implementation report 2009. European Strategy Forum on Research Infrastructures.
http://ec.europa.eu/research/infrastructures/pdf/esfri
• ESFRI Annual report 2009. European Strategy Forum on
Research Infrastructures.
http://ec.europa.eu/research/infrastructures/pdf/esfri
• ESS Bilbao Initiative workshop. Multi-MW Spallation Neutron Sources: Current Challenges and future Prospects.
• Estrategia Estatal de Innovación E2I. Ministerio de Ciencia
e Innovación. España.
http://www.micinn.es
• Ganuza, D. et al. The Design and manufacture of the
Enhanced Radial Field Amplifier (ERFA) for the JET Project. 25th. Symposium on Fusion Technology. Rostock,
2008.
• Grandes Instalaciones Científicas (GICs). Oportunidad y
Reto para la industria guipuzcoana. Novomerco Consulting, S.L. para Gipuzkoa Berritzen-Innobasque. 2009.
Estudio evaluatorio.
• La Compra pública de Tecnología Innovadora en TIC. Libro
Blanco. Fundación COTEC para la Innovación Tecnológica. Madrid, 2008. Informes sobre el sistema español de innovación.
• Report on Roadmapping of Large Research Infrastructures.
OECD Global Science Forum. Diciembre 2008.
• The Industry of Science (La Industria Española de la Ciencia)
S1-S8. Technology Review (MIT). December 2010.
www.technologyreview.com
• Zabala Goñi, J.J. Talento, Tecnología y Tiempo. Los pilares
de un progreso consciente para elegir un futuro. Ed. Diaz
de Santos. Madrid, 2008.
El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid
La evolución en el sector ferroviario metropolitano
FERNANDO GÓMEZ SÁNCHEZ
(Madrid, 1952)
Responsable de la Oficina de Calidad e ITIL
Metro de Madrid
Titulado universitario especialidad química.
Inició su carrera en CIRSA como Jefe del laboratorio del control de calidad. Más tarde fue profesor del Ministerio de Educación
y Ciencia (actualmente en excedencia).
En 1977 se incorporó a Metro de Madrid donde ha desempeñado los puestos de Responsable del Laboratorio de Calidad,
Adjunto al Responsable de la Unidad de Logística, Jefe del Área
de Organización, Gerente de los Sistemas de Información; Responsable del proyecto Efecto 2000, Responsable de la Unidad
de Tecnologías de la Información y Responsable de la Oficina de
Calidad e ITIL, cargo que ostenta en la actualidad.
También ha sido profesor de organización industrial y control
de calidad en la Escuela de Mandos Intermedios y miembro de
la Junta Directiva de AUSAPE.
El desarrollo e implantación del perfil de
catenaria rígida PAC MM-04 de Metro de Madrid
Fernando Gómez Sánchez
ANTECEDENTES
Metro de Madrid se inauguró el 17 de octubre de 1919, con
una concesión de explotación para una red subterránea de
14 km en cuatro tramos. El objeto de su creación fue poner
en funcionamiento una vía de comunicación rápida entre diferentes puntos de Madrid, fundamentalmente entre barrios
populosos y las estaciones de ferrocarril existentes en la ciudad (véase la figura 1).
Figura 1. Inauguración
Dada la situación internacional, con Europa inmersa en la Primera Guerra Mundial, la ejecución de la obra (véase la figura 2)
resultó muy complicada, debido a la escasez de materiales y
de tecnología accesible. Por ejemplo, en el ámbito del material móvil no existía ninguna firma, nacional ni extranjera,
que pudiese suministrar los motores de tracción, por lo cual
hubo que adquirir motores de segunda mano del Metro de
Paris. Similar problemática se planteaba con diversas necesidades tecnológicas del momento: aparatos de manejo y control eléctrico, los bogies, etc.
Figura 2. Obras en la estación de la Línea 1
87
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
La imposibilidad de abastecerse de la tecnología necesaria
en el mercado nacional ha permanecido, en mayor o menor
medida, durante gran parte de la vida de Metro. No obstante, desde sus inicios Metro ha tratado de abastecerse de material nacional, siempre que eso fuese posible: así se puede
reseñar como ejemplo que, en 1932, ya se diversifica la adquisición de motores para el nuevo material móvil entre la
industria nacional y el mercado internacional.
Durante el periodo de la Guerra Civil y la posguerra, la escasez
de materiales obligó a utilizar diversos elementos heterogéneos para fines diversos, como el uso anecdótico de chapa de
bidones para la reforma del material móvil, alargándolo y logrando un incremento de su capacidad de hasta un 25%.
Más adelante, desde 1945, se adoptó como política la sustitución de los elementos de patentes extranjeras, reajustados
a las posibilidades existentes en la fabricación nacional, con
un esfuerzo de adaptación considerable por parte de los técnicos de la compañía.1
Más cercana en el tiempo es la utilización, desde mediados
de la década de 1990, de tuneladoras de frente cerrado, en
aquella época las más potentes del mundo (9,4 m de diámetro), lo que las convirtió en protagonistas fundamentales de
los sucesivos planes de ampliación. Este hecho marcó un hito
a nivel mundial, por la velocidad de su construcción (no solo
perforaban, sino que también colocaban las correspondientes dovelas, dejando el túnel ya terminado) y los bajos costes
obtenidos, frente a los demás modelos constructivos tradicionales. En el informe anual de 1999 del Banco Mundial se
mencionaban, como logro, los bajos niveles de coste obtenidos en Metro de Madrid, frente a los que se consideraban
entonces como posibles en el resto del mundo.
1 Algunas informaciones de los antecedentes, se han tomado de la
publicación: Metro de Madrid 1919-2009 Noventa años de historia.
Las labores de investigación, redacción y coordinación fueron realizadas por Aurora Moya Rodríguez. Publicación editada por Metro
de Madrid, S.A.
88
Y más recientemente aún, han sido múltiples los frentes
abiertos en materia de investigación e innovación:
• Los trenes de las series 7000 y 8000, diseñados en parte
por Metro, incorporan soluciones novedosas en cajas
y bastidores, bogies, motores y elementos diversos de
seguridad.
• La investigación y desarrollo de un gestor de emergencias,
que permite la simulación para evacuación de túneles y
estaciones.
• El diseño e implantación de un nuevo sistema de extinción
y telegestión de incendios.
• El diseño de un coche de metro realizado en materiales ligeros, para reducir el consumo eléctrico.
• La colaboración con otras empresas y universidades en el
proyecto TEBATREN 3, para realizar las comunicaciones
tren-tierra-tren por radio (Wi-Fi).
• El proyecto y construcción de un tren auscultador, un método innovador para la revisión de las líneas aéreas y terrestres. Proyectado íntegramente por ingenieros de Metro,
permite obtener información sobre las averías de forma rápida (15 minutos, frente a toda una noche de trabajo).
• La implantación de un nuevo sistema de monitorización
de instalaciones y telecomunicaciones (COMMIT), que permite la información y la resolución de averías en las instalaciones de forma remota.
• El desarrollo de un sistema de intercambio energético basado en la geotermia (estación de Pacífico), que permite
ahorrar un 75% de energía y reducir un 50% las emisiones de CO22, etc.
2
Premio a la Mejor Instalación Geotérmica de la Comunidad de
Madrid.
El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid
Estos son solo algunos ejemplos, que permiten conocer
cómo Metro, a lo largo de toda su existencia y debido a las
diferentes circunstancias de cada momento, ha estado en
continuos procesos de investigación e innovación propios, o
bien ha tratado de mejorar las características iniciales de los
elementos adquiridos por medio de la inclusión de mejoras
y reformas, ideadas y desarrolladas por sus ingenieros.
Estas iniciativas de investigación e innovación han permanecido vigentes hasta nuestro días, donde si cabe, han adquirido mayor vigor todavía.
A título de ejemplo, se puede indicar que, en el año 2008, el
número de proyectos de I+D+i ascendía a 43; algunos de ellos
a destacar son: ECOTrans (transporte ecológico), SEDUCE
(prevención de ataques terroristas), Depresys (sistema para
determinar el riesgo de descarrilamiento de trenes), Modurban
(Modular Urban Guided Rail System), etc.
Una parte importante de estos proyectos es realizada por
medio de colaboraciones con distintas empresas, organismos
públicos y universidades.
rígida estándar para todos
los tramos nuevos en túnel
(véase la figura 4). El resultado
fue tan positivo que, en la siguiente ampliación de la red,
de 1999 a 2003, se consolidó esa opción tecnológica y
se inauguraron más de 70
km electrificados con catenaria rígida, incluido el Metrosur. A partir de entonces,
y aprovechando el conocimiento adquirido en los dos
planes de ampliación citados, Metro de Madrid diseña, prueba, patenta, fabrica
Figura 4. Ejemplo de instalación
y comercializa con éxito su
de otro tipo de catenaria rígida
propio perfil de catenaria rígida, denominado PAC MM-04 (véase la figura 5). Actualmente
hay más de 200 km de vía sencilla de catenaria rígida instalada en la red de Metro de Madrid; de ellos, más 100 con el
perfil PAC MM-04.
SISTEMA DE ELECTRIFICACIÓN
Hasta el año 1996, los sistemas de electrificación existentes
en la red de Metro de Madrid eran, hilo tranviario en las líneas más antiguas, de gálibo estrecho (véase la figura 3), y catenaria convencional, a partir de la construcción del tramo
Cuatro Caminos-Pacífico de la Línea 6, en el año 1979. En
el Plan de Ampliación 1996-1999, se apostó por la catenaria
Figura 5. Ejemplo de instalación de catenaria rígida tipo PAC MM-04
Figura 3. Instalación de hilo tranviario en líneas antiguas de Metro de Madrid
El sistema de captación de corriente por catenaria rígida, también conocido como tercer carril aéreo, tiene como principales
89
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
ventajas su sencillez, robustez y facilidad de mantenimiento.
Además, presenta una ventaja adicional respecto a la catenaria convencional: su baja exigencia en cuanto a la altura
requerida para su montaje, lo que lo hace especialmente
apropiado para su utilización en túneles. Esta característica
ha favorecido su aplicación en metropolitanos, túneles y soterramientos ferroviarios.
Los primeros carriles aéreos se fabricaron con acero y eran
tan pesados que su instalación resultaba difícil. Además, presentaban problemas de corrosión perjudiciales para el transporte y la captación de corriente. Surgieron entonces dos alternativas:
• Usar una sección reducida de acero recubierta por bandas
de cobre (el acero aportaba la rigidez estructural y el cobre
mejoraba la captación).
• Fabricar un carril autoportante en cobre.
En el año 1961, el Metro de Tokio adoptó una nueva solución,
basándose en el aluminio. Este material es mucho más ligero
y económico que el cobre, y tiene una excelente capacidad
conductora, superior a la del acero. Con objeto de reducir la
elevada fricción del aluminio con el cobre del pantógrafo, colocaron con una grifa de tornillo uno o dos hilos de contacto.
En el año 1972 la empresa
francesa Delachaux depositó
la primera patente de catenaria rígida constituida por
un carril de aluminio al cual
se fijaba un hilo de cobre
mediante sujeción elástica
ejercida por el propio carril,
según se puede observar en
la figura 6.
Figura 6. Perfil Delachaux
90
A partir de 1984, la empresa
suiza Furrer+Frey adoptó este
Figura 7. Instalación de catenaria rígida con perfil tipo Furrer+Frey
en Metro de Madrid
sistema (véase la figura 7) y alcanzó el éxito instalándolo en líneas a 15 kV en corriente alterna. Suministrado por varios proveedores, este diseño es básicamente el que se instaló en
Metro de Madrid desde 1996 a 2003 en más de 80 km de
vía sencilla.
Entre las ventajas de un sistema de catenaria rígida con perfil
portante de aluminio frente a otras electrificaciones destacan
las siguientes:
• Facilidad de montaje: en una instalación de catenaria rígida ningún elemento tiene tensión mecánica, ya que el
hilo de contacto se inserta en el carril sin someterlo a tracción. Por este motivo es más fácil la instalación y el ajuste
de geometría del sistema. Además, por esta misma causa,
los componentes mecánicos están sometidos a menores
solicitaciones. Hay que destacar también que, al no llevar
cables de acompañamiento para aumentar la sección conductora, se utilizan muchas menos piezas y menos elementos. Comparando el montaje de este sistema frente
a uno de catenaria flexible, se constata que se requieren
medios auxiliares más simples y que los plazos de ejecución de las obras se reducen significativamente.
El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid
• Aumento del periodo de sustitución por desgaste, ya que
al no estar el hilo de contacto traccionado, no existe una
sección mínima por resistencia. Además, la consecuencia
de rebasar el desgaste máximo en una catenaria flexible
es una rotura de hilo con una afección a un cantón completo (hasta un kilómetro), y en una catenaria rígida la
peor alternativa es que el pantógrafo frote con el aluminio
y tenga que sustituirse la barra completa, pero no se suspende el servicio.
• Disminución de las exigencias de altura libre en el túnel:
esta característica resulta fundamental a la hora de abordar las grandes renovaciones en líneas antiguas con hilo
tranviario donde, por falta de altura, no es posible implantar sistemas que mejoren las prestaciones, como hilo tranviario compensado o catenaria convencional.
• Gran sección equivalente de cobre: a tener en cuenta especialmente en el caso del transporte metropolitano,
donde hay niveles de tensión de 600, 750 y 1.500 V en
corriente continua. La caída de tensión y las intensidades
que circulan hacen necesario, en sistemas de catenaria flexible, tender cables adicionales simplemente para aumentar la sección de transporte de la energía eléctrica al punto
de captación. La sección equivalente en cobre del perfil
de catenaria rígida tipo Furrer+Frey con un hilo de contacto de 150 mm2 es equivalente a la de una catenaria
convencional con tres feeders de acompañamiento de aluminio de 645 mm2, y superior a cualquier configuración
habitual de hilo tranviario.
• Alta fiabilidad: por la simplicidad del montaje y de las piezas que componen el sistema, por las bajas solicitaciones
mecánicas a las que se someten y por la práctica inexistencia de modos de fallo que supongan suspensiones de
servicio, la catenaria rígida aporta una alta fiabilidad a las
explotaciones metropolitanas.
Tabla 1. Comparación de costes
2007
2008
2009
Media no
conformidades/
pantóg. al año
323.231
115
141
143
411×10—6
Línea 9:
catenaria
convencional
206.135
85
75
10
275×10—6
Línea 8:
catenaria rígida
88.565
5
4
11
75×10—6
Línea y tipo
de catenaria
Pantóg.
por año
Línea 1:
principalmente
hilo tranviario
No conformidades
Los datos no recogen un factor fundamental para la instalación, como es el tiempo que lleva prestando servicio. Sin embargo, la diferencia de intervenciones deja patente que el
coste del mantenimiento de un sistema de catenaria rígida
es mucho más reducido que el de un sistema de catenaria
flexible.
Los dos inconvenientes más importantes son:
• Bajas velocidades de circulación: este punto se refiere
sobre todo a una instalación estándar con apoyos cada 10
o 12 m. A lo largo de este documento se describe cómo
la velocidad de circulación admisible está íntimamente relacionada con la distancia entre apoyos.
• Pequeña distancia entre soportes, lo que dificulta su instalación al aire libre, ya que serían necesarios muchos postes,
sobre todo frente a la catenaria convencional (12 m de
vano máximo en catenaria rígida frente a más de 50 m
en catenaria convencional). Además, la sección transversal
frente al aire que presenta un perfil de catenaria rígida
es más elevada, y podrían producirse efectos no deseados
en la captación de corriente ante vientos racheados, no
necesariamente de mucha velocidad.
• Bajo coste de mantenimiento: en la tabla 1 se muestran
datos de Metro de Madrid que sustentan esto:
91
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
PROYECTO DE DISEÑO DEL NUEVO SISTEMA
PANTÓGRAFO-CATENARIA RÍGIDA
Datos de partida
Dentro del plan de ampliación 1999-2003 se construyó la
Línea 8, que une la estación de Nuevos Ministerios con el
aeropuerto de Barajas (véase la figura 8). La velocidad máxima
prevista de circulación era de 110 km/h, la más alta hasta entonces en la red de Metro de Madrid, así que se decidió profundizar en el estudio del sistema de catenaria rígida, para
averiguar si la captación de corriente en esas condiciones
tenía una calidad adecuada. En colaboración con el CITEF
(Centro de Investigación en Tecnologías Ferroviarias, de la
Fundación para el Fomento de la Innovación Industrial de la
Universidad Politécnica de Madrid), se elaboró un estudio
para determinar el comportamiento dinámico del conjunto
catenaria rígida-pantógrafo, y se establecieron los parámetros de instalación para la Línea 8. Se redujo la distancia entre
soportes consecutivos. El conocimiento adquirido a través de
dicho trabajo permitió identificar varias líneas de mejora en
el diseño del perfil de catenaria rígida que se estaba instalando y optimizar así el comportamiento dinámico del conjunto catenaria-pantógrafo.
Premisas de partida
La metodología se puede resumir en los siguientes puntos
básicos, según se puede ver en la figura 9:
• Desarrollo de diversos modelos de simulación de la catenaria rígida mediante los programas de simulación ANSYS
y SIMPACK.
• Desarrollo de un modelo de pantógrafo con el programa
SIMPACK, seguido de la validación y ajuste del mismo.
• Desarrollo de un modelo conjunto catenaria-pantógrafo.
• Análisis de la influencia de los distintos parámetros que
caracterizan el sistema, fundamentalmente orientado
hacia la mejora del comportamiento dinámico global.
Figura 8. Estación de Nuevos Ministerios en la Línea 8
92
Para determinar el aspecto más importante a considerar, se
debe responder a preguntas como: ¿cuáles son los factores
que deberían considerarse?, ¿cómo se mide la calidad de una
catenaria?, ¿cómo se puede determinar su aptitud para unas
El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid
pérdidas de contacto, y las fuerzas de contacto demasiadas
altas, que provocan un aumento de la abrasión pantógrafohilo. Una componente dinámica alta puede originarse al paso
de los pantógrafos situados al final de una composición dotada de varios, excitando al sistema con oscilaciones intensas.
Debido a los grandes esfuerzos que provocan estas fuerzas
alternantes, pueden producirse daños por fatiga especialmente en los componentes de los soportes.
La normativa sobre la calidad de captación de corriente es:
Figura 9. Diagrama de flujo del estudio
condiciones determinadas de explotación? El parámetro más
importante para poner nota al sistema es la fuerza de contacto.
La calidad del proceso de captación de corriente puede estimarse atendiendo al valor estadístico correspondiente a ciertos parámetros inherentes a la interacción entre los sistemas
de pantógrafo y catenaria. Son los siguientes:
• La fuerza de contacto entre el pantógrafo y la catenaria.
• La posible aparición de despegues entre ambos elementos.
• La presencia de desgastes.
Lo más importante respecto a la fuerza de contacto, por encima de su valor, es su evolución temporal. Está constituida
esencialmente por una componente estática, suministrada por
un actuador mecánico o neumático; y otra dinámica, que depende de la velocidad de la marcha y del comportamiento vibratorio de la catenaria y del pantógrafo. Las pérdidas de contacto se originan cuando la fuerza de contacto es demasiado
baja y provocan una mala transmisión de la corriente eléctrica.
Los desgastes en el hilo de cobre están relacionados con dos
aspectos fundamentales: los arcos eléctricos producidos por
• UNE-EN 50318:2003 Aplicaciones ferroviarias. Sistemas
de captación de corriente. Validación de la simulación de
la interacción dinámica entre el pantógrafo y las líneas aéreas de contacto: en este documento se sintetizan los parámetros de entrada y salida para poder validar aquellos
métodos de simulación que traten con la interacción pantógrafo-catenaria. Presenta un caso tipo con catenaria
convencional, proporcionando los datos necesarios para
definir el modelo matemático de ambos sistemas, e indicando un rango de valores entre los que deben encontrarse los resultados. La norma servía para validar el simulador. No era de aplicación directa en este caso, pero
proporcionaba un valor importante: la rigidez del muelle
de contacto que se debería utilizar en modelos matemáticos de la interacción entre pantógrafo y catenaria convencional. Este valor, kc = 50.000 N/m, se adoptó para el
estudio de interacción catenaria rígida-pantógrafo.
• UNE-EN 50367:2006 Aplicaciones ferroviarias. Sistemas
de toma de corriente. Criterios técnicos para la interacción
entre el pantógrafo y la línea aérea (para tener acceso
libre): esta norma busca establecer los parámetros necesarios para posibilitar la interoperabilidad en toda Europa
en lo que se refiere a catenaria-pantógrafo. Proporciona
algunas definiciones y rangos de valores para los parámetros, medidos en el sistema real, que deben satisfacerse
para garantizar la interoperabilidad. Incluye una curva que
indica fuerza media de contacto para velocidad de circulación y tensión de suministro (véase la figura 10).
93
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
• Máximo estadístico de la fuerza de contacto, Fm + 3σ.
200
Corriente continua 1,5 kV
• Mínimo estadístico de la fuerza de contacto, Fm — 3σ.
160
Corriente
continua 3,0 kV
120
• Máximo real de la fuerza de contacto, Fmáx.
Fm
• Mínimo real de la fuerza de contacto, Fmín.
80
Corriente continua 3 kV
Corriente continua 1,5 kV
• Histograma de la fuerza de contacto.
Fm = 97 ×10—5 × V2 + 110
Fm = 228 ×10—5 × V2 + 90
40
• Número de despegues, ndespegues, (solo se suelen contabilizar las pérdidas de contacto de duración superior a 0,01 s).
0
0
40
80
120
160
200
240
280
Velocidad
Fuente: Norma UNE-EN 50367:2006
• Tiempo total de despegues, tdespegues.
• Porcentaje de tiempo acumulado de pérdida de contacto
(de cualquier duración).
Figura 10. Criterios técnicos para la interacción
entre pantógrafo y catenaria
Desarrollo y construcción del modelo
En esta norma también se dan valores para la desviación típica máxima de la fuerza de contacto, el porcentaje de despegues y la fuerza estática para sistemas de corriente continua a 1,5 kV, como era el caso de la Línea 8.
También existía la ficha de la UIC 794-1 Interacción entre
pantógrafo y catenaria para líneas férreas electrificadas de
corriente continua. Esta ficha incluye una tabla con recomendaciones de la fuerza de contacto media y del porcentaje de
despegues.
Del análisis de la normativa citada y de otras referencias europeas, se concluyó que el mejor método para evaluar la calidad de la captación es el análisis estadístico de la fuerza de
contacto. Suelen usarse como parámetros más significativos
los siguientes:
• Valor medio de la fuerza de contacto, Fm.
• Desviación típica de la fuerza de contacto, σ.
94
Para poder llevar a cabo en el programa SIMPACK el análisis
dinámico del sistema pantógrafo-catenaria, hay que introducir la catenaria como un cuerpo elástico.
El primer paso es calcular los valores geométricos y mecánicos. En este caso, la viga está formada por dos materiales de
características distintas: el aluminio del carril y el cobre del
hilo de contacto. Para simplificar la modelización en ANSYS
y SIMPACK, se decidió modelar el carril conductor y el hilo
como si fueran un único sólido, el denominado perfil equivalente. Partiendo de las secciones originales, se calculó la
posición del centroide de la sección transformada, sus momentos de inercia y su densidad equivalente. Los resultados
obtenidos se pueden observar en la tabla 2.
En un primer modelo, los soportes se caracterizaron como
empotramientos deslizantes en la dirección del carril, pero
tras el estudio detallado de la configuración física del aislador
de suspensión (véase la figura 11), se decidió modelarlos como
El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid
Tabla 2. Posición de los diferentes centroides considerados
Característica
Aluminio
Cobre
Perfil
equivalente
Área (mm2)
2.138
151,6
2.424
Momento de inercia
horizontal (mm4) respecto
al centroide equivalente
3.386.754
454.293
4.240.825
Momento de inercia
vertical (mm4) respecto
al centroide equivalente
1.127.066
Densidad (kg/m3)
2.700
k
k
h
D
1.755
1.130.365
Nodos de los extremos del soporte
8.960
Nodos compartidos entre el soporte y el carril
2.943
Nodos del carril conductor
Figura 12. Modelo de soporte
Cristal y Campo de las Naciones. Los resultados obtenidos
generaron cierta inquietud al ser muy distintos a los resultados teóricos calculados, así que se llevó a cabo un ensayo adicional.
h
k
k
F =10 kgf
Figura 13. Esquema mecánico del ensayo
para determinar la rigidez de los apoyos
Figura 11. Aislador de suspensión con catenaria PAC MM-04
apoyos con flexibilidad en el plano vertical. Además se utilizaron dos nodos compartidos entre soportes (véase el modelo
de soporte utilizado en la figura 12) y carril a la distancia de la
longitud de apoyo:
Para encontrar los valores reales de las constantes k de los
muelles del modelo se hicieron dos ensayos:
• Ensayo estático (véase la figura 13), sobre un tramo de catenaria rígida en la Línea 8 entre las estaciones de Mar de
• Ensayo de contribución del hilo de contacto a la sección
resistente de la catenaria (véase la figura 14).Se verificó que
la aportación del hilo de contacto a la sección resistente
es del 100%.
d2
d1
P1 = 11,00 kgf
P2 = 5,003 kgf
P3 = 5,007 kgf
Figura 14. Esquema del ensayo para determinar
la contribución del hilo de contacto a la sección resistente
95
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
En consecuencia, SIMPACK trata las deformaciones elásticas
como una combinación lineal de los desplazamientos modales,
para lo cual es necesario haber calculado previamente los
modos propios y las frecuencias naturales de vibración de la
catenaria (véanse la tabla 3 y la figura 15). Para obtener estos
datos, se usó el programa de cálculo por elementos finitos
ANSYS. Se modeló con elementos tipo viga de Euler-Bernoulli
el conjunto carril de aluminio-hilo de contacto. Al tratarse de
dos elementos con características mecánicas distintas, pero
que trabajan como un único cuerpo, previamente fue necesario calcular el perfil equivalente. El valor del amortiguamiento
se obtuvo de ensayos experimentales. Posteriormente las maTabla 3. Frecuencias naturales obtenidas para un tramo de 57 m
de catenaria rígida Furrer+Frey
Modos 1-10
Modos 11-20
Modos 21-30
Modos 31-40
1
3.4387
11
9.5019
21
16.839
31
29.123
2
3.8922
12
10.732
22
20.212
32
33.065
3
3.9027
13
10.760
23
21.053
33
33.068
4
3.9138
14
10.791
24
21.109
34
34.858
5
3.9520
15
10.896
25
21.168
35
34.046
6
4.1133
16
13.342
26
21.375
36
35.046
7
5.1648
17
13.862
27
24.972
37
35.390
8
6.1056
18
14.082
28
25.929
38
37.975
9
6.2542
19
14.832
29
26.644
39
40.016
10
7.7056
20
15.381
30
27.442
40
43.019
STEP
SUB
FREQ
DMX
=1
=1
= 3.439
= .109098
Z
X
Figura 15. Primer modo propio de vibración vertical (3.439 Hz)
96
trices de masa y rigidez obtenidas con ANSYS se transfirieron
a SIMPACK.
En las primeras simulaciones no se consideró el efecto del
amortiguamiento estructural, pero los resultados parecían
poco realistas, ya que todo sistema no amortiguado sometido a algún tipo de excitación sigue oscilando indefinidamente. Para determinar el valor real del coeficiente de amortiguamiento, se sometió el sistema a una carga súbita,
colocando dos acelerómetros en la zona central del vano y
en el punto medio entre el apoyo y el centro del vano, para
capturar así los dos primeros modos de vibración (véase la figura 16). El amortiguamiento obtenido fue residual; a simple
vista, la catenaria seguía vibrando apreciablemente un minuto después de la aplicación de la carga.
Figura 16. Validación y ajuste del modelo dinámico
de la catenaria rígda perfil Furrer+Frey
Anteriormente ya se habían obtenido, bien por cálculo, bien
por ensayos experimentales, los valores necesarios para introducir en SIMPACK la catenaria rígida (las matrices de masa
y rigidez y el coeficiente de amortiguamiento estructural).
El pantógrafo modelado fue el ADtranz AM37 EU5 (véase
la figura 17) utilizado actualmente en Metro de Madrid. Primero se hicieron modelos simples, solo con masas, muelles
El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid
Una vez ajustados el modelo de la catenaria y del pantógrafo, ya podía elaborarse el modelo de interacción, y simular y
analizar los resultados (véase la figura 19).
Figura 17. Modelo de pantógrafo ADTranz AM37 EU5
y amortiguadores, sin articulaciones ni juntas cinemáticas. El
modelo fue refinándose y también se realizaron ensayos para
determinar el amortiguamiento en las articulaciones del mecanismo de elevación y del amortiguamiento de la suspensión
del frotador, con objeto de poder ajustar el modelo con los
datos experimentales (véanse las figuras 18 y 19).
Figura 19. Algunas capturas de la simulación
del sistema conjunto catenaria-pantógrafo
Datos obtenidos y conclusiones
Algunos datos obtenidos se pueden ver en la tabla 4.
Tabla 4. Simulación de la evolución temporal de la fuerza de contacto
FURRER+FREY, 10 m, 110 km/h
Media (N)
Desviación típica (N)
Figura 18. Banco de ensayo para el pantógrafo
Frotador
delantero
Frotador
trasero
Total
52,2
49,8
102,0
6,3
5,4
10,9
Máximo estadístico (N)
71,0
65,9
134,6
Mínimo estadístico (N)
33,4
33,7
69,4
Máximo real (N)
79,5
74,9
152,0
Mínimo real (N)
36,0
35,0
73,5
N.º despegues
0,0
0,0
0,0
Tiempo total desp. (s)
0,0
0,0
0,0
Porcentaje desp. (%)
0,0
0,0
0,0
Tiempo CPU (s)
0,0
0,0
0,0
97
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Como parte del trabajo, se estudió cómo influían en la captación los siguientes parámetros:
• El momento de inercia geométrico de la sección transversal del carril conductor, IVER, calculado respecto al eje vertical que pasa por su centro geométrico.
• El momento de inercia geométrico de la sección transversal del carril conductor, IHOR, calculado respecto al eje horizontal que pasa por su centro geométrico.
Parámetro aumentado (+100%)
Influencia
Momento de inercia geométrico (Jzz)
Neutral
Momento de inercia geométrico (Jvv)
Mejora
Módulo de elasticidad
Mejora
Densidad del material
Empeora
Introduciendo la rigidez en los soportes
Neutral
• El módulo de elasticidad (E).
Ancho de los soportes
Neutral
• La densidad del material (ρ).
Amortiguamiento de la catenaria
Mejora
• La rigidez en los soportes (k).
Este estudio dejó patente la existencia de líneas de mejora
para un sistema de catenaria rígida. A la vista de estos resultados, Metro de Madrid decidió desarrollar un perfil de catenaria rígida optimizado, que mejorara el comportamiento
dinámico del conjunto catenaria-pantógrafo.
• El ancho de los soportes (D).
• El amortiguamiento de la catenaria (d).
Para cada uno de estos parámetros, se duplicó su valor manteniendo los demás constantes y se repitió la simulación. Un
caso especial fue el amortiguamiento de la catenaria, que no
se modificó directamente sobre el modelo en ANSYS sino introduciendo una relación de amortiguamiento mucho mayor
asociada a cada modo propio de la catenaria antes de pasarlo a SIMPACK. Para cada caso se obtuvo un valor medio de
la fuerza de contacto y una desviación típica. Se observó que
la fuerza media no variaba apenas, pero la desviación típica
sufría fuertes variaciones (véanse la figura 20 y la tabla 5).
100,0
Referencia
Momento de inercia (Jzz)
80,0
Momento de inercia (Jvv)
60,0
[N]
Módulo de elasticidad
Densidad del material
40,0
Introduciendo rigidez en
los soportes
Ancho de los soportes
20,0
0,0
Amortiguamiento de
la catenaria
Fm — 3σ
Figura 20. Comparación del mínimo estadístico al duplicar valores
98
Tabla 5. Conclusiones sobre los distintos parámetros estudiados
DESARROLLO DEL PERFIL DE CATENARIA
RÍGIDA PAC MM-04
Metro de Madrid se decidió por el desarrollo de un nuevo
perfil en el año 2002. Fue un proyecto conjunto entre dos
departamentos de la empresa: la Gerencia de Ingeniería de
Equipamientos y la Gerencia de Ingeniería de Material Móvil.
Es importante situar esta decisión en el contexto concreto de
los grandes planes de ampliación de la red. En los dos planes
anteriores, el de 1996-1999 y el de 1999-2003, se habían
instalado más de 80 km de catenaria rígida. Se había apostado por un tipo de tecnología que presentaba ventajas incuestionables para el transporte metropolitano, la catenaria
rígida, pero que todavía tenía recorrido para mejorar. Se conocía ya el alcance del Plan de Ampliación 2003-2007, 73 km
nuevos de red. El cambio previsto de tensión de tracción en la
Línea 7 a 1.500 Vcc, requería una reforma de la catenaria entre
las estaciones de Las Musas y Diego de León y la consolidación
El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid
del túnel, ampliación de andenes y cambio de tensión en
la Línea 3. Si el diseño concluía con éxito en el año 2007,
Metro de Madrid tendría el 25% de su red electrificada con
un perfil de catenaria rígida optimizado.
Se decidió contar nuevamente con la asistencia técnica del
CITEF para el desarrollo de un nuevo sistema de electrificación mediante catenaria rígida. El importe global de la colaboración con el CITEF fue de 96.200 euros (sin IVA), y el
plazo fue de 9 meses.
Del estudio del perfil que hasta entonces se estaba instalando, se obtuvieron las tres acciones que teóricamente podrían
mejorar la calidad de la captación:
aceptable reducir el área. Por estos motivos, se decidió mejorar el perfil aumentando el momento de inercia y manteniendo la masa lineal.
También se debían mantener otros dos aspectos importantes:
• El ala superior del perfil debería ser idéntica para que se
pudiera montar sobre los mismos aisladores.
• La pinza del aluminio sobre el hilo no debía variar, para
poder utilizar los mismos medios de montaje.
Tras la simulación con múltiples perfiles se eligió el actualmente denominado PAC MM-4 (véase la figura 21).
• Aumentar el módulo elástico (E): el aluminio ya es un material ligero y de coste asequible.
• Disminuir la distribución lineal de masa (m): esto se podría
hacer con un material más ligero o reduciendo la sección
transversal.
• Aumentar el momento de inercia horizontal (IHOR): se puede
conseguir aumentando la masa o aumentando la distancia
de la masa al centroide.
Además, hay que tener presente que la catenaria es una línea
de transporte de energía eléctrica. Si se reduce la sección
transversal, se reduce su conductividad, con el perjuicio que
esto supone. Si no hay sección suficiente, el calentamiento
crece y los desgastes de todos los componentes se aceleran.
Aumentar la masa mejora las características eléctricas y el
momento de inercia horizontal, pero no compensa, porque
aumentar la distribución lineal de masa es perjudicial.
En Metro de Madrid no se querían modificar las características de conductividad: la sección de aluminio y cobre de la
catenaria rígida hasta entonces instalada se consideraba
adecuada para las características de operación y, sobre todo
en líneas todavía con tracción a 600 Vcc, no se consideró
Figura 21. Perfil PAC MM-04
Los resultados obtenidos se pueden observar en la tabla 6.
Tabla 6. Comparación de valores geométricos
FURRER+FREY PAC MM-04
Área (mm2)
Momento inercia horizontal (mm4)
Momento inercia vertical
(mm4)
Δ
2.423
2.394
—1,2%
426X104
734X104
+75%
113X104
108X104
—4,2%
99
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Las simulaciones efectuadas fueron concluyentes: para un
montaje similar con soportes a 10 m era muy superior el perfil PAC MM-04, ya que se apreciaba (examinando las gráficas) y se confirmaba (el valor de la desviación típica de la
fuerza de contacto) que era casi la mitad en el caso del perfil
PAC MM-04.
Velocidad: 110 km/h
Soporte 10 m
Soporte 12 m
Soporte 14 m
La comparación de simulaciones con soportes a 10 m y velocidad 110 km/h se puede observar en la figura 22.
Distancia entre soportes: 10 m
Velocidad: 110 km/h
FURRER+FREY
10 m
PAC MM-04
12 m
PAC MM-04
14 m
Valor medio de F
102,01
103,41
103,41
Desviación típica de F
10,88
10,74
23,84
Máximo estadístico de F
134,64
135,63
175,06
Mínimo estadístico de F
69,37
71,18
32,01
Figura 23. Comparación de simulaciones con distintas distancias entre soportes
Distancia entre soportes: 10 m
Valor medio de F
FURRER+FREY
PAC MM-04
Comparación
102,01
102,21
+0,2%
—48%
Desviación típica de F
10,88
5,69
Máximo estadístico de F
134,64
119,28
—11%
Mínimo estadístico de F
69,37
85,14
+23%
Velocidad 110 km/h
Velocidad 140 km/h
Velocidad 150 km/h
Figura 22. Comparación de simulaciones con soportes
100
El comportamiento dinámico del perfil PAC MM-04 con soportes a 12 m era similar al de Furrer+Frey con soportes cada
10 m, ya que los valores de fuerza media y desviación típica
son prácticamente idénticos. En la figura 23 se incluye la imagen y la tabla de los resultados para distancia de 14 m entre
soportes, pero solo tienen interés desde un punto de vista
teórico, ya que el transporte de barras de dicha longitud
complicaría y encarecería significativamente la instalación del
sistema de catenaria rígida PAC MM-04.
Figura 24. Comparación de simulaciones con distancia entre soportes
de 10 m y distintas velocidades de circulación
Con soportes a 10 m, el perfil PAC MM-04 presenta la misma
calidad de captación para velocidades de aproximadamente
150 km/h que el perfil Furrer+Frey para 110 km/h, como se
puede observar en la figura 24.
La geometría fundamental del perfil ya se había encontrado.
El siguiente problema a solucionar fue diseñar las uniones
entre barras (véase la figura 25). Se eligió un sistema de bridas
interiores y exteriores cuya sección es la misma que el perfil
FURRER+FREY
110 km/h
PAC MM-04
140 km/h
PAC MM-04
150 km/h
Valor medio de F
102,01
101,06
101,17
Desviación típica de F
10,88
9,48
11,89
Máximo estadístico de F
134,64
129,50
136,83
Mínimo estadístico de F
69,37
72,63
65,52
El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid
transversal, ya que había que garantizar que la transmisión
de corriente en las uniones no recalentase el hilo de contacto.
Para evitar el error humano, se
optó por utilizar tornillos de aluminio de rotura de par controlado
(véase la figura 26): tienen dos cabezas, y cuando se alcanza el par de
apriete de diseño la más exterior
se rompe.
deformación plana. La metodología empleada para ello y algunos de los datos obtenidos se pueden observar en las figuras
27, 28 y 29.
Tensión equivalente de Von Mises
Perfil
N.º
Fuerza Fuerza
cargas unitaria total
FURRER&FREY
Tensión eq.
Tensión
(aplicación F)
eq.
(centro) Interior Exterior
4
750 N
3.000 N
1 mm
39 MPa
161 MPa
4
925 N
3.700 N
1 mm
54 MPa
172 MPa
8
472 N
3.376 N
1 mm
52 MPa
PAC MM-04
Figura 25. Unión de barras
91 MPa
89 MPa
Figura 28. Modelo de deformación tridimensional
También hubo que verificar
que la inserción del hilo de
Figura 26. Tornillos de aluminio
contacto en la garganta infediamétricos
rior del perfil no provocase
deformaciones permanentes. Para ello, se hicieron simulaciones estáticas en ANSYS, tanto tridimensionales como de
Modelo de
deformación plana
Desplaz.
Tensión equivalente de Von Mises
N.º
cargas
Fuerza
unitaria
Fuerza
total
Desplaz.
Tensión
equivalente
FURRER+FREY
2
2.200 N
4.400 N
1 mm
35 MPa
PAC MM-04
2
2.858 N
5.716 N
1 mm
54 MPa
Perfil
Modelo de
deformación espacial
Comportamiento
durante el proceso
de apertura
Sujeción
del hilo de
contacto
Figura 29. Modelo de deformación plana
Comportamiento elástico del perfil
Figura 27. Metodología empleada para comprobar la inserción del hilo de contacto
Una vez definida la geometría del perfil y la unión entre barras colaterales, se inició la fabricación de un prototipo y las
pruebas correspondientes en las mismas condiciones en
las que luego se instalaría. Para la validación del diseño, en las
condiciones de trabajo de explotación reales se sustituyó un
cantón de la catenaria rígida que se había instalado hasta
entonces por el nuevo perfil.
101
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Ya en fase de diseño se contactó con una empresa nacional
líder en la extrusión de aluminio y se contó con su asesoramiento para elegir un perfil “extrusionable” adecuado a las
necesidades. Se fabricó la matriz, y las dos primeras barras
fueron analizadas para comprobar: geometría, resistencia,
composición, estructura metalográfica, etc, en el Laboratorio
de Recepción de Materiales de la Gerencia de Almacenes de
Metro de Madrid, según se puede observar en las figuras 30,
31 y 32.
Figura 32. Ensayo de rotura
Validada la extrusión, se fabricó el cantón completo con las
bridas de unión interiores y exteriores correspondientes
(véase la figura 33).
Figura 30. Ensayos de resistencia al material
Figura 33. Proceso de extrusión de la catenaria PAC MM-04
Figura 31. Ensayo metalográfico
102
El coste de la fabricación y ajuste de matrices y útiles de punzonado y la extrusión y el mecanizado de los 500 m fue, para
Metro de Madrid, de 14.740 euros (sin IVA).
El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid
PRUEBAS REALES DE CATENARIA PAC MM-04
Entre varios departamentos implicados de Metro de Madrid
se eligió, como mejor opción para la prueba, la Línea 7 entre
las estaciones de Lacoma y Pitis (véase la figura 34). Esta ubicación presentaba las siguientes ventajas:
barras y se tendió el hilo de contacto. Durante una noche,
usando los pernos más largos, se elevó la catenaria original
y se reguló la de perfil nuevo. Posteriormente, se retiró la catenaria de perfil tipo Furrer+Frey.
• La Línea 7 era la única
donde los soportes estaban situados cada 12 m,
lo que permitiría confirmar, no solo la instalación, sino las características estáticas y dinámicas
que se habían obtenido
en las simulaciones.
• La interestación seleccionada tiene horario restringido, con lo que se
disponía de más tiempo
de trabajo para la sustitución de la catenaria.
Figura 34. Zona de pruebas
en la línea 7
• En el caso de que se presentasen problemas durante el
montaje, al ser una interestación final de línea, con un número reducido de viajeros, se podría prestar servicio por
vía única.
Se contrató una empresa instaladora, la misma que había
implantado la catenaria original en la Línea 7 (véase la figura 35),
por un precio de 35.000 euros. El trabajo debía realizarse reabriendo el servicio todas las mañanas, de forma que el perfil
nuevo debía montarse en paralelo con el existente, en una
posición que evitase que fuera golpeado por los pantógrafos.
Debido a que el perfil diseñado por Metro de Madrid era
cuatro centímetros más alto, la primera tarea a acometer fue
sustituir los pernos del aislador de suspensión por otros más
largos para ganar altura. Después, sobre el mismo soporte,
se instalaron nuevos aisladores de campana, se colocaron las
Figura 35. Montaje de prototipo de catenaria:
seccionamiento de perfil Furrer+Frey y perfil PAC MM-04 en paralelo
Una vez concluida la instalación, en febrero del año 2004,
se procedió a la elaboración del preceptivo informe de validación. Para ello, se instrumentó un pantógrafo y se midió
la evolución temporal de la fuerza de contacto en ese cantón. Además, se montó una cámara sobre la caja de un tren,
con objeto de poder grabar el contacto catenaria rígida-pantógrafo. El resultado fue realmente satisfactorio y, a partir
de dicho momento, se especificó este perfil en todos los proyectos del Plan de Ampliación 2003-2007 y en aquellas otras
obras de Metro de Madrid donde la mejor solución de electrificación fuera la catenaria rígida.
Aunque los resultados de simulación confirmaban que el
apriete del carril de aluminio sobre el hilo de contacto era
suficiente, se hizo una termografía (véase la figura 36), con
el carril tipo Furrer&Frey y con el diseñado por Metro, para
103
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Figura 36. Banco de ensayo para termografía
verificar experimentalmente que la presión fuese la misma y
que por tanto no se producirían calentamientos excesivos.
Se inyectaron intensidades de 500, 700 y 1.000 A en los extremos de cada perfil durante más de dos horas. Se concluyó
que no había diferencias de temperatura entre ellos y que
ninguno presentaba calentamientos problemáticos en la
zona de contacto entre el cobre y el aluminio. La evolución
de la temperatura se consideró admisible y generada por los
niveles de corriente eléctrica inyectada, como se puede observar en la figura 37.
Figura 37. Evolución de las temperaturas
Adicionalmente, se observó el comportamiento del conjunto
por medio de cámaras instaladas en la parte superior de un
tren y cerca del conjunto pantógrafo-catenaria, tal como
puede observarse en la figura 38.
En paralelo, se diseñó un nuevo aislador de sección, denominado ASCOM-05 (véase la figura 39), para ser instalado con
el perfil PAC MM-04. El aislador de sección es un elemento
que se intercala en la catenaria para interrumpir la continuidad eléctrica de la misma sin interrumpir el contacto mecánico catenaria-pantógrafo. Además de hacerlo apto para la
nueva geometría, se utilizó la amplia experiencia de Metro
de Madrid para optimizar el diseño y se contó de nuevo con
la colaboración del CITEF.
104
Figura 38. Validación: cámara para ver el contacto catenaria rígida-pantógrafo
El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid
Madrid. La distancia entre soportes especificada es siempre
de 12 m, ya que la velocidad máxima de circulación en la red
es de 110 km/h y, según los estudios y experiencia en dichas
condiciones, la calidad de la captación es satisfactoria.
La implantación en la red de Metro de Madrid del perfil PAC
MM-04 supone ahorro de costes y un beneficio, por dos motivos:
• Aumento de la distancia entre soportes: al pasar la distancia entre apoyos consecutivos de 10 a 12 vanos, es preciso
un 17% menos de soportes para obtener la misma calidad
de la instalación.
Figura 39. Aislador de sección ASCOM-05
Los costes externos del desarrollo se pueden observar en la
tabla 7.
Tabla 7. Resumen de costes externos del desarrollo del perfil PAC MM-04s
Asistencia técnica desarrollo del nuevo sistema
de catenaria rígida
96.200 euros
Fabricación de 500 metros de perfil y accesorios
14.740 euros
Instalación del cantón prototipo en Línea 7
35.000 euros
TOTAL (sin IVA)
146.940 euros
Además de las contrataciones exteriores, fueron muchas las
personas de distintos departamentos de Metro de Madrid
que colaboraron con gran intensidad en el desarrollo.
IMPLANTACIÓN DE CATENARIA RÍGIDA
PAC MM-04
Desde la exitosa finalización del proyecto de este nuevo perfil,
la nueva catenaria se ha instalado masivamente en Metro de
• El perfil PAC MM-04, así como sus bridas de unión, tornillos y aisladores de sección, los comercializa directamente Metro de Madrid. En el caso de que la obra de catenaria rígida se considere inversión de Metro para mejora
o ampliación de la propia red, se pone el material a disposición del instalador, ahorrándose los coeficientes de
paso, ya que en la situación anterior el contratista adquiría la catenaria y después Metro de Madrid se la abonaba
ya instalada.
A efectos económicos, si se considerase un kilómetro de catenaria rígida en instalación estándar en túnel, el ahorro
medio por reducción del número de soportes es de 11.521
euros/km. Esta cifra es una media, ya que la misma es difícil
de cuantificar exactamente debido a que cada contrato, y
por tanto cada tramo instalado, se adjudicó en distintas condiciones.
El ahorro por kilómetro de catenaria rígida PAC MM-04 debido a la gestión directa del material por parte de Metro de
Madrid asciende a un valor medio de 4.350 euros/km. Dicho
valor debe considerarse como una cifra aproximada, ya que
aunque los costes de transformación sean razonablemente
estacionarios, el aluminio es una materia prima cotizada en
la bolsa de Londres, donde se negocia en dólares y lógicamente ambos parámetros oscilan en el tiempo.
105
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Es importante señalar que una obra de electrificación no incluye
solamente lo que afecta a la catenaria, sino también a otros
equipos auxiliares y accesorios, entre los que cabe destacar el
cable de feeder positivo y negativo para alimentar la línea aérea
propiamente dicha, y los seccionadores de puenteo. Si no se
considerasen dichos elementos, el ahorro por la instalación de
menos soportes alcanza un 12,5% de media sobre el global
del proyecto. Si se consideran estos elementos, dicho porcentaje se minoraría hasta el 4%, aproximadamente.
A la vista de los resultados satisfactorios obtenidos con la catenaria rígida, y en especial con el diseño propio PAC MM04, en el año 2008 se decidió sustituir la catenaria convencional existente en la Línea 6, por catenaria rígida perfil
Metro (véase la figura 41). Esta obra concluyó en el verano de
2009. Durante la ejecución de la misma se utilizó en tren auscultador, diseñado por Metro de Madrid, para la obtención
de datos y comprobación del tendido de línea aérea, según
se puede observar en la figura 42.
Teniendo en cuenta exclusivamente el ahorro producido por
la instalación de menos soportes, con solo 13 km de vía sencilla se cubrieron los costes del desarrollo.
Las primeras líneas de Metro de Madrid que dispusieron del
perfil PACMM-04 fueron la Línea 3 (Legazpi-Moncloa, véase
la figura 40) y la Línea 7 (Las Musas-Pitis), coincidiendo con la
consolidación del túnel en la Línea 3 y el cambio de la tensión
de tracción a 1.500 Vcc en ambas líneas. Después, a lo largo
de 2007, se inauguraron todos los tramos nuevos del Plan de
Ampliación 2003-2007, destacando el Metro Norte, con más
de 12 km de túnel; y el Metro Este, con casi 11 km.
Figura 41. Catenaria rígida PAC MM-04 en la Línea 6 del Metro de Madrid (2009)
Figura 40. Perfil PAC MM-04 en la prolongación de
la Línea 3 a Villaverde del Metro de Madrid (2007)
106
Figura 42. Tren auscultador de Metro de Madrid
entrando a medir la calidad de la catenaria en la Línea 6
El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid
El Plan de Ampliación 2007-2011 también contemplaba la
electrificación de los tramos nuevos con catenaria rígida. Ya
se pusieron en explotación la prolongación de la Línea 11 a
La Fortuna, y en los próximos meses se inaugurarán la prolongación de la Línea 9 a Mirasierra y la correspondiente a
la Línea 2 a Las Rosas. A día de hoy, el perfil PAC MM-04
está en el 33% de la red de Metro de Madrid. La evolución
de los tendidos de los diversos modelos de catenaria rígida
en Metro de Madrid se puede observar en las figuras 43 y 44.
BENEFICIOS OBTENIDOS EN
EL MANTENIMIENTO
A lo largo del año 2009 se realizaron importantes acciones
de mejora y renovación sobre las instalaciones. Se ha estudiado en concreto el comportamiento obtenido de la
Línea 6.
El escenario sufrió los siguientes cambios:
• Antes de la reforma:
— Catenaria convencional con dos hilos de contacto de
107 mm2 y sustentador de cobre de 153 mm2.
— Interruptores/seccionadores telemandados Ferraz, con
red Modbus.
• Después de la reforma:
— Catenaria rígida con perfil METRO y un hilo de contacto
elíptico de 150 mm2.
— Interruptores/seccionadores telemandados AEG, con
anillo de fibra óptica y direccionamiento IP.
Figura 43. Catenaria rígida PAC MM-04 instalada en 2010
Para poder establecer comparaciones, se escogió el plazo
octubre 2008-octubre 2010. Las principales actuaciones tuvieron lugar entre los meses de junio de 2009 y septiembre
de 2009.
La repercusión sobre el servicio depende del tipo de fallo; por
este motivo se realizó una comparación técnica, en paralelo
con el indicador operativo más extendido en Metro de Madrid:
el Índice de Perturbación IP (tiempo en segundos que, por
término medio, se retrasa a todos los clientes que utilizan el
servicio habitualmente).
Figura 44. Instalación de catenaria rígida PAC MM-04 en el enlace
de la Línea 11 con el Depósito 10 Cuatro Vientos (marzo 2010)
Se valoraron las incidencias totales sobre equipos relevantes
de electrificación. La evolución de las incidencias fue la que
se indica en la tabla 8.
107
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Tabla 8. Evolución de las incidencias
Año 2009
Tabla 9. Ratios económicos de la catenaria rígida
Tipo de catenaria
Año 2010
(extrapolado
a fin de año)
Reducción
2009 a 2010
Seccionadores
14
8,4*
—40%
Travo vía general
19
7,2*
—62%
Aisladores sección
3
3*
0%
Concepto
considerado
Ciclos de revisión
de mantenimiento
preventivo
(cada/meses)
N.º actuaciones
mantenimiento
no preventivo
(km/año)
Convencional
Rígida
Línea
1y6
Jor.
hom./km
Coste
(euros)
Resto
líneas
Jor.
hom./km
Coste
Rígida
Jor.
hom./km
Coste
(euros)
1
9
2.403,00
2
4,5
1.201,50
6
1,50
1.602,00
3,38
13,52
3.609,84
2,37
9,48
2.531,16
0,41
1,64
109,47
*Nota: los datos de 2010 se han extrapolado hasta final de año.
La evolución del IP en el periodo estudiado se puede observar
en la figura 45.
Km de vía sencilla
mantenido/agente
9,82
Coste repuestos
consumibles/km/año
(euros)
159
Cambios de
hilo/km/año
3,04
Total
22,52
15,78
159
109
70,38
109
2,13
6.171,84
13,98
122
0,31
3.841,66
3,14
1.711,47
Nota: como catenaria convencional se han incluido todas las tipologías existentes que no sean rígidas.
Es importante reseñar que en los sistemas tradicionales se
conoce su evolución en el tiempo. Una línea envejecida supone un incremento en los costes de mantenimiento. Esta
proyección a futuro con la catenaria rígida no es conocida
todavía.
Conclusiones
Figura 45. Evolución del índice de perturbación
En consecuencia, de los datos obtenidos se dedujo una mejora sobre el índice de perturbación al viajero interanual
(tramo temporal de todo el día) del 66% (sobre media de IP
antes/después de la reforma). Asimismo, los ratios de mantenimiento sobre los equipos más significativos también mejoraron manifiestamente.
En lo concerniente a las repercusiones económicas obtenidas, estas se pueden concretar según la tabla 9 de ratios
económicos.
108
Desde el punto de vista del mantenimiento de las instalaciones, los sistemas de catenaria rígida, en condiciones similares
de explotación (con el conocimiento histórico del que se dispone hasta la fecha), resultan ventajosos frente a los sistemas
de electrificación tradicionales, fundamentalmente por:
• La relación: “recursos humanos por km de red catenaria
rígida/recursos humanos por km de red en sistemas tradicionales”, disminuye a 1/3.
• Las incidencias con afección al servicio son significativamente menores, tanto en número como en gravedad.
El desarrollo e implantación del perfil de catenaria rígida PAC MM-04 de Metro de Madrid
• Los costes de mantenimiento por km, también se reducen
sensiblemente.
• El sistema de catenaria rígida se manifiesta como más rentable cuanto más intensiva sea la utilización de la línea,
con un coste directo medio de mantenimiento de 0,01
euros/c-km (euros/coches-kilómetro).
PATENTE DE LA CATENARIA RÍGIDA
PAC MM-04
IMPLANTACIÓN EN OTROS SUBURBANOS
El perfil de catenaria rígida PAC MM-04 también ha sido instalado con éxito en una longitud de 15 km de la Línea 1 del
Metro de Santo Domingo (República Dominicana) en enero
del año 2009 (véase la figura 47).
La Línea 2 de dicho suburbano, actualmente en construcción,
que contará con una longitud de 20 km, también dispondrá
de este tipo de catenaria rígida en la línea aérea de contacto.
Metro de Madrid tiene patentada la catenaria rígida PAC
MM-04 (véase la figura 46), con objeto de rentabilizar la misma
por medio de su instalación en otros ferrocarriles suburbanos
y, lógicamente, ostentar el derecho de propiedad y uso.
Figura 47. Catenaria rígida PAC MM-04 en la
Línea 1 del Metro de Santo Domingo (República Dominicana)
FUTURO DE LA CATENARIA RÍGIDA PAC MM-04
Figura 46. Patente de la catenaria rígida PAC MM-04
Como consecuencia de la experiencia adquirida desde el año
2002, Metro de Madrid ha podido detectar nuevos apartados susceptibles de incorporar mejoras, tanto en el sistema
de catenaria rígida PAC MM-04, como en otros elementos
asociados. Así, el producto está sometido a ciclos de mejora
continua, rediseño, cálculo y estudio. Actualmente, se encuentra en fase de diseño un nuevo carro de tendido, herramienta necesaria para la inserción del hilo de contacto en la
ranura del carril conductor. Asimismo, se está trabajando en
un nuevo diseño de perfil de catenaria rígida de altura reducida, con vistas a su instalación en túneles antiguos, con secciones muy comprometidas.
La evolución en el sector ferroviario metropolitano
Fernando Gómez Sánchez
RETOS DEL FUTURO
Como es sabido, la función de los metropolitanos es poner
a disposición de los ciudadanos una alternativa de transporte
masivo, rápido, fijo, seguro y económico, que permita abastecer las necesidades de movilidad de los mismos, en todas
sus variantes: laboral, educativa y lúdica.
Para Metro de Madrid, todo ello se concreta en su misión:
“Ser la opción de movilidad socialmente más rentable y
cercana a las expectativas de los clientes”.
De esta forma, desde Metro de Madrid se trata de viabilizar
la evolución y el progreso de las grandes urbes que, como
Madrid, necesitan y demandan un transporte de estas características para sustentar su progreso y solventar sus necesidades de movilidad.
Partiendo de esta premisa, se debe considerar que la evolución demográfica, cada vez en mayor medida, lleva parejo
un proceso de concentración de una parte mayoritaria de la
población total en las grandes ciudades.
La importante aparición de concentraciones poblacionales
en ciudades mayores de tres millones de habitantes es muy
importante en el presente, con previsiones de acelerarse en
el futuro de una manera muy significativa.
Así pues, cumplir la misión que los ferrocarriles metropolitanos tienen asignada implica la solución de varios retos:
• Las ciudades cuentan cada vez con mayor extensión, fruto
de su expansión demográfica y de las actuaciones urbanísticas.
• Una parte importante de los ciudadanos tienen sus residencias en las coronas metropolitanas y, consecuentemente, sus
necesidades de desplazamiento son de mayor recorrido.
• Las tendencias en la sociedad moderna indican que sus
necesidades de desplazamiento son cada vez de mayor
111
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
frecuencia y con una significativa evolución positiva en el
tiempo.
• El número de ciudadanos bajo este modelo cada vez será
mayor.
Como consecuencia de todo ello, las redes de los ferrocarriles
metropolitanos deberán abarcar una extensión geográfica
cada vez mayor y dar solución a estas necesidades, si bien es
cierto que las políticas urbanísticas tratarán de paliar estas
situaciones por medio de actuaciones que mitiguen el número de desplazamientos, o que disminuyan la distancia
media a recorrer.
Independientemente de todo ello, estas políticas territoriales
solo podrán tener, en principio, efectos paliativos, y es de suponer que los retos mencionados evolucionarán en el sentido
indicado anteriormente. De tal forma que los costes de las
soluciones de transporte previstas serán cada vez mayores y,
en consecuencia, el importe económico a asignar por parte
de las ciudades al sistema de transporte metropolitano subirá
sustancialmente.
Otro reto que exige solución es la reducción del tiempo
medio de los trayectos a realizar, recogido incluso en el Libro
Blanco de la CEE, que propone comenzar iniciativas en este
sentido, como la incentivación del uso de los cada vez más
eficientes transportes públicos, por la incidencia que tiene
en el ciclo de crecimiento económico de la sociedad.
En el futuro, se considera plausible la existencia de megaciudades con distribuciones policéntricas y con necesidades de
movilidad, tanto para recorridos urbanos de dimensiones
moderadas como para distancias superiores, que exigirán la
existencia de líneas de alta capacidad de transporte preparadas para dar solución a necesidades de movilidad en trayectos superiores a los 100 km.
Será preciso tener en cuenta que la movilidad, como tal, no
es una actividad productiva que genere beneficios para la
112
sociedad en sí misma. Independientemente de que, además,
se deben considerar otros factores de carácter social o medioambiental.
En este escenario, los metropolitanos seguirán siendo en el
futuro una alternativa de transporte esencial e imprescindible
para solventar los problemas de movilidad de las grandes
urbes, en colaboración y debidamente intercohesionados con
otras modalidades de transporte complementarias, dando
lugar a eficientes sistemas de transporte multimodales.
Es probable que las instalaciones de ferrocarriles metropolitanos
que se conocen actualmente no sean capaces de resolver la
problemática del transporte previsto de una forma razonablemente eficiente, ya que existen problemáticas que, bajo dicho
modelo, dificultan la solución adecuada de las necesidades
planteadas. Entre otras se pueden enunciar las siguientes:
• Cuando aumenta la longitud de las líneas, la velocidad comercial tiende a bajar; como consecuencia de ello, los
tiempos de viaje se incrementan.
• Las tecnologías de señalización ferroviaria y de trenes de
última generación son incapaces, en la actualidad, de mejorar la velocidad comercial necesaria en el futuro, incluso
en el caso de líneas de metropolitano automáticas.
• La distancia media recorrida por los ciudadanos, y consecuentemente el tiempo del viaje, siguen aumentando
como consecuencia de la expansión de las ciudades, tanto
en las áreas urbanas como en las metropolitanas.
Por otro lado, se deben tener en cuenta otros aspectos,
como la evolución de la demanda, que apunta a cambios en
las preferencias de la ciudadanía, por uno u otro modo de
transporte.
En la Comunidad de Madrid, y a título de ejemplo, si se
parte de una situación basada en datos del año 2009 (véase
la figura 1), se puede constatar que la cuota de mercado que
La evolución en el sector ferroviario metropolitano
ostenta Metro de Madrid es mayoritaria frente a otros
modos de transporte.
• Mejoras importantes en la calidad del servicio.
• Incremento sustancial de la capacidad de transporte.
12,5%
• Optimización del tiempo del viaje (acorde a las nuevas necesidades).
13,6%
52,4%
21,6%
• Mejora de la accesibilidad.
• Incremento de la eficiencia energética.
Fuente: Memoria del CTM 2008.
• Refuerzo de la gestión medioambiental.
Figura 1. Cuotas del mercado del transporte en la CAM
• Mejora de la percepción del tiempo de viaje.
Pero además, dicha cuota de mercado se va consolidando y
ampliando año a año respecto a otros modos de transporte,
tal y como se desprende de los datos de la figura 2.
Todo ello, asumiendo como objetivo primordial la aportación
de valor a sus grupos de interés (clientes, sociedad, administraciones tutelares, empleados y proveedores).
12,5%
13,6%
52,4%
21,6%
TENDENCIAS
2008
2009 3T
2007
2006
2005
2004
2003
2002
2001
2000
1999
1998
1997
1996
1995
Es precisa, pues, la búsqueda, en primer lugar, de soluciones
alternativas que mejoren la velocidad media de los desplazamientos, incrementando suficientemente la velocidad comercial, sin olvidar otros aspectos también importantes.
Figura 2. Evolución de la cuota de mercado de Metro
Esta evolución en Metro de Madrid es representativa de la
del sector, y es preciso tenerla en cuenta para poder gestionarla adecuadamente, ya que incide directamente en las proyecciones de necesidades del futuro.
En consecuencia, y de manera general, los grandes retos existentes en el futuro para los ferrocarriles metropolitanos se
pueden concretar en las siguientes líneas maestras:
La búsqueda de estas alternativas debe adicionalmente contemplar soluciones a las expectativas en cada momento,
tanto para los usuarios de las redes de metro convencional,
como para los usuarios con necesidades de desplazamiento
de alta distancia.
Estas necesidades conducen a situaciones contrapuestas,
puesto que para el primer caso se necesitan instalaciones con
una gran capilaridad, que permita un alto grado de accesibilidad a la misma. Pero este planteamiento conlleva plantear instalaciones con distancias de interestación pequeñas
(≈600 m), además de la ubicación de estaciones con una dispersión geográfica inferior a un kilométrico. Lógicamente,
113
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
este planteamiento penaliza la velocidad comercial, debido
a un número elevado de paradas.
El incremento sustancial de los tiempos consumidos en el
transporte afectará negativamente a la calidad de vida de los
habitantes de las futuras megaciudades y podrá limitar la
competitividad de las mismas, poniendo en riesgo su viabilidad. De esta manera, el reto de reducir el tiempo empleado
en el trasporte en las grandes ciudades se tornará un aspecto
clave para garantizar la supervivencia de estas.
El reto a resolver consiste en la búsqueda de una solución
balanceada y de compromiso para que, por un lado, se concrete en un incremento de la velocidad comercial precisa
(que genere una reducción de los tiempos de viaje, como
factor determinante para asegurar la calidad de vida de los
ciudadanos) y, por otro lado, exista una red metropolitana
con alta capilaridad, que permita garantizar adecuadamente
la cobertura del transporte demandado. No se trata de un
reto exclusivamente tecnológico, ya que se deben considerar
además aspectos de gestión que complementen las mejoras
tecnológicas a implantar.
Pero todas las proyecciones, tecnológicas o no, que se deban
poner en escena para dar solución a los retos del futuro,
deben plantearse ineludiblemente también desde una óptica
de rentabilidad económica, social y ambiental, esto es,
rentabilidad en el triple balance.
La importancia económica de estos conceptos debe ser adecuadamente valorada. Sirva como ejemplo el capítulo de coste
energético eléctrico, uno de los más importantes en el sector
del transporte ferroviario de viajeros. Así, se puede comentar
que Metro de Madrid ocupó, en el año 2008, el tercer lugar de
consumo eléctrico, tal y como se puede observar en la figura 3:
• Empresa líder en telefonía
1.543 Gwh
• Empresa líder en hipermercados
1.122 Gwh
• Metro de Madrid
114
772 Gwh
Metro de Madrid
consume un 5%
de la energía eléctrica
consumida en la ciudad,
y un 2,5% de la
de la Comunidad
5%
2,5%
Figura 3. Consumo eléctrico de Metro
Para gestionar adecuadamente las necesidades energéticas
de las empresas de transporte, será importante contar con
un plan de eficiencia energética, que gestione (como más relevantes) los siguientes aspectos:
• Mejorar la eficiencia en costes y uso de los recursos energéticos.
• Contribuir a la conservación del medio ambiente y a la
lucha contra el cambio climático.
• Gestionar la imagen (proveedor de transporte sostenible).
• Gestionar soluciones innovadoras (gestión y tecnología).
• Establecer pautas de concienciación (cultura de eficiencia
energética).
La evolución en el sector ferroviario metropolitano
Pero será preciso plantearse que el concepto de rentabilidad
que se debe tener en cuenta no debe circunscribirse exclusivamente a temas económicos, que, aunque importantes,
no deberían ser los únicos a considerar.
Así, cuando se hable de rentabilidad, las empresas deberán
incluir además otras visiones. De tal forma que se atienda a
un triple enfoque:
• Económico.
• Medioambiental.
• Social.
Cada uno de estos aspectos lleva incluidos factores que lo
complementan y lo conforman. Por ello, en cada uno de
estos enfoques deberán valorarse aspectos como:
• Visión económica:
• Visión social:
— Tiempo del viaje.
— Reducción de la congestión.
— Accidentabilidad.
— Servicios añadidos.
— Accesibilidad.
Respecto a este último apartado (visión social), es preciso reflexionar sobre ciertos aspectos intangibles, pero cada vez
más importantes para el ciudadano. Aspectos que tendrán
que ser atendidos y que, de alguna forma, consolidan otros
muchos. En concreto, deben considerarse cuestiones relativas
a imagen y reputación.
A título de ejemplo, en la actualidad una comparativa del
sector de transporte de viajeros, compara a Metro de Madrid
con otras empresas del sector de transporte de viajeros,
cuyos resultados se puede observar en la figura 4:
— Reducción de costes.
— I+D+i.
— Retorno de la inversión.
— Inversión y recursos necesarios.
— Servicios exteriores.
• Visión medioambiental:
— Uso del suelo.
— Gestión de residuos.
— Consumo optimo de recursos.
Fuente: Tracking MERCO. Octubre 2010
— Cambio climático.
Figura 4. Imagen y reputación en el transporte
— Emisión de ruido.
— Contaminación local.
Las empresas del sector de transporte, cada vez más, deberán gestionar adecuadamente su valoración reputacional,
115
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
que, aunque intangible desde el punto de vista estrictamente del negocio, cobrará cada vez mayor importancia para
sus grupos de interés. Esta gestión permitirá, en el futuro,
la generación de soluciones a los retos planteados por la sociedad, desde una óptica de sostenibilidad del negocio y del
entorno.
Innovación
Un capítulo importante para encontrar soluciones a las problemáticas que será preciso resolver en el futuro, es la óptima gestión de las capacidades innovadoras existentes en las empresas.
Para ello, será preciso el establecimiento de las vías adecuadas
para su debido descubrimiento y encauzamiento empresarial,
según indican diversos organismos (véase la figura 5).
“El éxito empresarial depende de saber emplear
eficazmente los conocimientos, las actitudes y el
potencial innovador de las personas como recurso
clave para mantener una ventaja competitiva.”
(Consejo de Investigación Económica y Social)
Para gestionar adecuadamente la innovación, se deberá potenciar el uso de modelos de Innovación Tecnológica y de
Gestión (véase la figura 6) basados en la mejora continua y
sistemática de los procesos de innovación, ya que, por medio
de su uso, se descubren, se sistematizan y se canalizan las
oportunidades existentes.
Las empresas deberán ser conscientes de que es preciso
canalizar y facilitar la transición de las ideas de una forma
ordenada y eficaz, para ello se deberán crear organismos
que faciliten dichas actividades. Metro de Madrid ya cuenta con un Comité de Innovación, a través del cual está mejorando sustancialmente los procesos claves de innovación,
se podrá:
• Vigilar e identificar las oportunidades.
• Seleccionar y gestionar las mejores ideas.
• Seleccionar y gestionar los proyectos innovadores.
• Comercializar y poner en valor dichas ideas y proyectos.
• Otorgar reconocimiento y gestionar las recompensas.
“Innovar es la capacidad de lograr
el futuro deseado”
Mapa de procesos de gestión de la innovación
El 71% de las ideas innovadoras llegan a las organizaciones
por parte de sus propios trabajadores, el 21% de casualidades
y el restante 8% de programas de innovación
Xavier Sala-i-Martín, Cat. Economía Univ. Columbia
Figura 5. Necesidad de innovación
116
Conocer
expectativas y
satisfacciones de
clientes y GI
Vigilar e
identificar
oportunidades
Control
documentación
Control
registros
Definir la
actuación
estratégica
Seleccionar
y gestionar
ideas
Gestión de NC,
AC y AP
Establecimiento
de planes
y objetivos
Seleccionar y
gestionar proyectos
consorciados
de I+D+i
Seleccionar y
gestionar proyectos
internos de I+D+i
Auditoría
interna
Gestión de
proveedores
Seguimiento y
revistión del SG
por la dirección
Comercializar
y poner
en valor
Formación
Figura 6. Mapa de gestión de la innovación
Compras y
contrataciones
Clientes y otros
grupos de interés
OPERATIVA
SOPORTE
Clientes y otros
grupos de interés
ESTRATEGIA
John Kao, Harvard Business School
La evolución en el sector ferroviario metropolitano
Oportunidades tecnológicas
Para solventar algunas de las problemáticas planteadas, existen diversas líneas de actuación. En Metro de Madrid se tienen definidos, o en distinto grado de estudio, distintos planteamientos. A continuación se describen algunos de ellos.
METRODUO (patente de Metro de Madrid)
Este planteamiento está basado en las posibilidades que ofrecen los medios actuales de excavación. Estos métodos permiten construir infraestructuras de las dimensiones adecuadas para albergar dos líneas superpuestas de vía doble (véase
la figura 7), una convencional y otra exprés. Esta última contaría exclusivamente con paradas en estaciones de correspondencia con otras líneas de la red de metro o con otras
modalidades de transporte.
Esta alternativa incrementa sustancialmente la capacidad de
transporte con unos costes contenidos. Además, minimiza
la pérdida de movilidad por incidencias en la prestación de
servicio y permite dar solución razonable a las necesidades
de los clientes, tanto si sus necesidades habituales se corresponden con trayectos cortos, medios o de largo recorrido.
En el estudio realizado, la configuración elegida es la de distancia de 700 metros entre estaciones locales y de 2.800 metros entre estaciones exprés. Según este estudio, que analiza
el proyecto desde el punto de vista del triple balance (económico, social y ambiental), los retornos de MetroDuo para una
línea de 50,4 km arrojan como resultado una mayor inversión
de una línea de MetroDuo de esta longitud respecto de una
convencional, estimada en unos 1.600 millones de euros, que
puede recuperarse en un plazo de 2,5 años. A partir de ese
momento, MetroDuo proporciona un retorno anual a la sociedad de unos 680 millones de euros. Desde el punto de vista
de la sostenibilidad ambiental, la explotación de una línea de
MetroDuo respecto de una línea convencional supone dejar
de emitir 13.000 toneladas de CO2, cantidad equivalente a la
capacidad de absorción de 332.000 árboles.
Energías alternativas
La utilización de energías alternativas que permitan mejorar
los costes, así como minimizar la huella de carbono y preservar el medio ambiente es otra oportunidad que se debe de
fomentar en el futuro.
Estas energías deberán cumplir con ciertos requisitos, a
saber: ser renovables, baratas, eficientes, no contaminantes
y en cierta medida disminuir la dependencia de terceros países. En este segmento se pueden considerar las instalaciones
eólicas, solares, geotérmicas, etc.
Figura 7. Esquema de MetroDuo
Una energía alternativa que Metro de Madrid ya tiene en explotación en la estación de Pacifico, es la basada en la geotermia (véase la figura 8).
117
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
inteligentes de optimización del tráfico, regulación de velocidad y de señalización entre otras múltiples alternativas.
Algunas aplicaciones son:
• Localización de trenes en línea. Es el tradicional Control
de Tráfico Centralizado (CTC), que permite ubicar a los
trenes dentro de una línea y que, en combinación con
otros elementos como la detección de personas en andenes o el número de viajeros que acceden a determinadas
estaciones en determinados momentos, pueden dar información y permitir alinear de forma continua la oferta
a la demanda.
Figura 8. Aprovechamiento geotérmico
Se define geotermia como la energía almacenada, en forma
de calor, por debajo de la superficie de la tierra. Este calor
se puede extraer mediante la utilización de bombas de calor
geotérmicas y puede ser utilizado para mejorar el confort en
las estaciones.
TIC
En un plano más general, la mayor utilización de las Tecnologías de la Información y las Comunicaciones (TIC) debe facilitar la optimización de los sistemas existentes y la implantación de nuevas soluciones innovadoras para resolver parte
de estos problemas planteados.
118
• Localización de elementos en almacenes: reducción de los
tiempos de localización y entrega.
• Localización de personas: mejora de la eficiencia en la resolución de incidencias.
• Recepción de órdenes de trabajo en tiempo real y optimización de las órdenes de trabajo (sistema GEMA).
• Monitorización del funcionamiento de elementos desde
un punto distante para evaluarlo de forma remota y anticipar la actuación y medios más adecuados.
• Monitorización de alarmas, sugiriendo una organización
priorizada de resolución. Por ejemplo, priorizando según
el impacto en el negocio.
La rápida evolución de las TIC permite ser optimistas respecto
a su futuro potencial de utilización masiva en sistemas ferroviarios; y para, con base en las mismas, lograr la resolución
de ciertas problemáticas del sector, tanto en el presente
como en el futuro.
• Monitorización de aforos mediante soportes como el
sistema de Circuito Cerrado de Televisión (CCTV), que
permiten tomar decisiones en tiempo real sobre actuaciones en, por ejemplo, estaciones. Adicionalmente, monitorización de eventos para su posterior análisis.
Así, la utilización conjunta de sistemas informáticos avanzados con sensores y comunicaciones inalámbricas, permitirá un intercambio avanzado de datos entre tren y sistemas
• Teleactuación remota sobre equipos: permite evitar en algunos casos el despliegue de medios y actuar de forma
casi inmediata ante incidencias.
La evolución en el sector ferroviario metropolitano
• Automatización de avisos; por ejemplo, sobre la necesidad
de adquisición de repuestos cuando se produce una rotura
de stock.
• Automatización de ciertas tareas, como puede ser la
puesta en marcha de escaleras mecánicas (METROVISIÓN), consiguiendo que la logística de puesta en marcha previa a la apertura del servicio se haga de manera
muy eficiente.
de la línea, incluyendo actuaciones relacionadas con la
jardinería, el mobiliario, la peatonalización o el carril bici,
que hacen del metro ligero un elemento de transformación urbana.
Igualmente, el incremento de materiales mayoritariamente
reciclables en su construcción permitirá mejorar los costes de
producción y disminuir en gran medida los residuos al final
de su vida útil. De la minimización en la gestión de dichos
residuos se deriva un impacto sustancial, por un lado en la
huella de carbono, y por otro en el medio ambiente.
Trenes más ligeros
El estudio de las posibilidades de los nuevos materiales y
su uso para la construcción de trenes más ligeros, permitirá
mejorar el consumo derivado del movimiento de los trenes
y, consecuentemente, optimizar los costes de explotación.
Metro de Madrid ya tiene diseñado un coche basado en
este paradigma. Algunos datos básicos sobre las consistencias, alcances y estado del proyecto, se pueden observar
en la figura 9.
El metro ligero combina las características del suburbano
con las del tranvía clásico. El menor impacto ambiental que
produce en comparación con el coche lo convierten en uno
de los modos de transporte más respetuosos con el medio
ambiente. Un metro ligero consume 360 kwh frente a los
5.500 kwh necesarios para transportar en coche a la misma
cantidad de viajeros.
Respecto del metro pesado, el consumo energético por
coche/km del metro ligero es 2,5 veces menor (obtenido de
datos de explotación de ML1 e informe de gestión propios,
no de otras concesiones), y el impacto ambiental del proceso
de construcción de la infraestructura es también lógicamente
menor.
Adicionalmente, el metro ligero permite la reducción del nivel
de ruido y vibraciones respecto de otros modos de transporte, reduciendo también el efecto barrera.
Otras mejoras ambientales se derivan del hecho de que la
mayoría de los proyectos de metro ligero se acompañan
de una renovación urbana en las inmediaciones del trazado
Figura 9. Datos sobre el diseño de un coche en materiales plásticos
Metro de Madrid seguirá trabajando, hoy y en el futuro, para
dar un servicio de calidad y cercano a las expectativas de sus
clientes, sobre la base de la innovación tecnológica, que permita reorientar el valor de su activo intangible más importante, las personas que trabajan en la compañía, hacia una
atención e información cada día más avanzada, reforzando
su compromiso con la sociedad.
119
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Adenda: Colaboraciones
• Mostrar experiencias desarrolladas en empresas similares.
Se entiende por empresas colaboradoras a aquellas empresas
suministradoras de soluciones o implantadoras de sistemas.
Su participación es importante, y en muchos casos, necesaria
para implantar soluciones de mercado que, mediante el trabajo conjunto de estas y de personal de Metro de Madrid,
puedan ser adaptadas a nuestras circunstancias y requerimientos particulares.
• Participar en la detección de necesidades o aspectos de
mejora.
La participación de empresas podría contener las siguientes
funciones:
• Dar soporte y optimizar las soluciones implantadas
• Mostrar y dar a conocer soluciones de mercado.
120
• Participar en la resolución de necesidades o aspectos de
mejora.
• Aportar un conocimiento experto en ciertas materias.
• Mostrar nuevas opciones para la gestión de diferentes aspectos empresariales.
El desarrollo de la banda ancha en Telefónica
La telefonía móvil o el triunfo de la normalización
CAYETANO LLUCH MESQUIDA
(Ciutadella de Menorca, 1950)
Consultor
Vicedecano del COIT (Colegio Oficial de
Ingenieros de Telecomunicación)
Ingeniero de Telecomunicaciones.
Tras ejercer durante seis años como ingeniero y jefe de diseño
de equipos de comunicaciones móviles y rurales vía radio en GTE
Electrónica, se incorporó a Telefónica donde ha desarrollado prácticamente toda su vida profesional.
Dentro del grupo de Telefónica ha trabajado como ingeniero
experto en especificación, diseño y prueba de sistemas rurales vía
radio y sistemas móviles, en el Centro de Investigación y Estudios
(CIE); Ingeniero experto en especificación, diseño y prueba de sistemas móviles, participando en la definición del sistema TMA900
y en el despliegue de la red TMA450, dentro de la Dirección de
Normativa Técnica; Ingeniero experto en planificación, construcción y optimización de la red TMA900, en la Dirección de Comunicaciones Móviles.
En Telefónica Sistemas ha sido Director de Radio, participando
en la planificación y despliegue de las redes de comunicaciones
móviles para los JJOO de Barcelona 92.
En Telefónica Servicios/Telefónica Móviles fue Director de
Radio; Director de Planificación y Construcción de Red; Director
de División de Ingeniería y Desarrollo; Director General de Red;
y Director General de Tecnologías, Plataformas y Servicios, con
responsabilidad en el despliegue de distintas redes y la selección
de las tecnologías a utilizar.
Por último, en Telefónica España, fue Director General de Tecnología y desarrollo de Servicios responsable del desarrollo de
Servicios fijos, móviles y convergentes para residencial, negocios
y grandes empresas.
El desarrollo de la banda ancha en Telefónica
Cayetano Lluch Mesquida
INTRODUCCIÓN
El sector de las telecomunicaciones en España ingresó durante el año 20091 41.765 millones de euros anuales y representa el 4,0% del PIB, con una inversión de 4.276 millones
de euros. Estos ingresos proceden de los servicios minoristas
(a los usuarios finales), entre los que destacan: telefonía fija
(6.485 millones de euros), telefonía móvil (14.453 millones de
euros), Internet (3.932 millones de euros), servicios audiovisuales (4.540 millones de euros) y comunicaciones de empresa
(1.518 millones de euros).
a 1 Mbps). El acceso en banda ancha a Internet se presta
principalmente sobre dos tipos de redes: de comunicaciones
fijas y de comunicaciones móviles. A su vez, las redes de comunicaciones fijas más relevantes para el acceso a Internet
se distinguen por el medio físico de acceso al usuario, siendo
los dos más comunes: la línea telefónica o par de cobre de
las redes telefónicas (2009: 13,6 millones de accesos en
servicio; 7,7 millones en el servicio de banda ancha), y el
cable coaxial y/o par de cobre de las redes de cable (2009:
2,7 millones de accesos en servicio; 1,9 millones en el servicio
de banda ancha).
Estos servicios se prestan por medio de redes de telecomunicaciones. En concreto, el servicio de acceso a Internet se
ha venido prestando en dos modalidades: una en desuso,
banda estrecha (velocidad de bajada, red a usuario, hasta 64
kbps); y la otra en banda ancha (velocidad de bajada superior
Cada tipo de red de acceso a Internet se identifica por una
familia de tecnologías que se aplica a cada uno de los medios
físicos indicados: cobre, coaxial o fibra. Para las líneas telefónicas de cobre la tecnología normalizada por la UIT (Unión
Internacional de Telecomunicaciones) es la xDSL (Digital
1
Informe anual de la Comisión del Mercado de las Telecomunicaciones sobre el año 2009.
125
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Subscriber Line), para el coaxial es la DOCSIS (Data Over
Cable Service Interface Specification) y para la fibra la GPON
(Gigabit-capable Passive Optical Network).
70%
Acceso a Internet
Usan Internet en los últimos 14 días
60%
Han comprado alguna vez
50%
A continuación se describe la historia del desarrollo del ADSL
y de Imagenio en Telefónica, mostrando aspectos tecnológicos, comerciales y operativos. Tanto en un caso como en el
otro, se trata de ejemplos de gestión y desarrollo de tecnología que han tenido una repercusión económica importante,
pero que además, como se verá, han contribuido a la transformación de Telefónica.
DEL LABORATORIO A LA RED
Desde mediados de la década de los noventa, Internet
irrumpe con fuerza en España, que se había conectado por
primera vez en 1985. Empiezan a sonar empresas como
Netscape, Yahoo, Amazon, eBay, etc., que van perfilando
poco a poco la Sociedad de la Información y que van provocando un rápido y sostenido crecimiento de los usuarios
que utilizan Internet. Sin embargo (véase la figura 1), en el año
2000, solo un 12,4% de la población española era usuaria
de Internet, el 16% de las empresas tenían página web, y
existía una demanda creciente tanto a nivel de empresas
126
40%
30%
20%
10%
l
ga
rtu
Po
pa
ña
da
Es
an
lia
Irl
Ita
cia
ia
an
Fr
o
an
em
o
in
Re
Al
Un
id
nd
a
a
Ho
la
eg
ia
ru
ec
No
Su
ro
pa
0%
Eu
El desarrollo de la tecnología ADSL (Asimetric Digital Subscriber Line), de la familia xDSL, y su implantación en la red
de acceso a Internet para proporcionar servicios de banda
ancha, principalmente servicios de vídeo, ha sido y es sin
duda un caso de éxito de la tecnología e ingeniería de las
telecomunicaciones en los últimos años en todos los países del
mundo; por supuesto, también en España, de la mano, en
especial, de Telefónica. Además, no es únicamente una tecnología de acceso a Internet, sino que, sobre la misma línea,
se está utilizando para el servicio de distribución de televisión
y acceso a contenidos de vídeo bajo demanda que, en el caso
de Telefónica se denomina Imagenio. El servicio Imagenio ha
sido desarrollado en su inicio íntegramente por TID (Telefónica Investigación y Desarrollo).
Fuente: Pro Active Internacional.
Figura 1. Uso de Internet en Europa (1999)
como de particulares. España estaba todavía muy lejos de los
principales países europeos; aunque se preveían unas buenas
perspectivas económicas para los próximos años, era necesario un fuerte impulso al acceso a las redes de información
para situarse en línea con los países más adelantados.
En España, hasta el año 1995 en que se inició el despegue
comercial de Internet, prácticamente solo las universidades,
a través de la RedIRIS, y algunos centros de I+D tenían conexión a Internet. Es en ese año 1995 cuando se comienzan a
comercializar las conexiones permanentes a Internet por
parte de los operadores de datos existentes en aquel entonces, como Telefónica Transmisión de Datos (TTD); también
es el año en que se inicia el Servicio de acceso a la información, más conocido por su nombre comercial InfoVía, que
permitía a los usuarios finales conectarse a Internet a través
de la red telefónica mediante un número único con tarifa
metropolitana (055) que permitía un coste independiente de
la distancia. A finales de 1997 InfoVía sumaba más de un millón de usuarios.
El único intento de digitalizar mayoritariamente las líneas
de abonado fue a partir de 1985 con la RDSI (Red Digital de
El desarrollo de la banda ancha en Telefónica
Servicios Integrados), cuyo acceso básico constaba de 2 canales B de 64 kbps y 1 canal D de 16 kbps (total 144 kbps).
Permitía conectarse a Internet a 64 kbps, muy poco mas que
un módem; pero dejaba libre el teléfono, que tenía su propio
canal.
Sin embargo, ya a finales de los años ochenta el crecimiento
de las telecomunicaciones estaba liderado por el tráfico de
datos y otras comunicaciones no de voz, como el vídeo. Estas
comunicaciones, que reflejaban la futura demanda de los
usuarios y que incluían estaciones de trabajo multimedia
(voz, texto, gráficos, imágenes), transmisión de datos (interconexión de LAN, CAD/CAM, enlaces entre servidores), autoedición, imágenes médicas, recuperación de vídeo y de documentos (por ejemplo, para mantenimiento, comercio,
compras en casa, educación e investigación), facsímil en
color, videoconferencia y videotelefonía, HIFI y vídeo o HDTV
digitales, se convirtieron en la primera fuerza conductora
para la introducción de los servicios de banda ancha. Por ello,
el Consejo de las Comunidades Europeas aprobó en 1987 el
programa RACE (Investigación y Desarrollo en Tecnologías
Avanzadas de Comunicaciones en Europa), uno de cuyos objetivos era contribuir a la introducción de los servicios de Comunicaciones Integradas de Banda Ancha (CIBA) en Europa
a partir de 1995. En España, TID participó desde su inicio en
el programa RACE y en 1991 puso en marcha el proyecto
RECIBA (Red Experimental CIBA) que se apoyaba en la tecnología RDSI (Red Digital de Servicios Integrados) en su versión de banda ancha, cuando ya se veía que la RDSI básica
se quedaba muy corta para transmitir vídeo; ello dio lugar a
la tecnología ATM (Asynchronous Transfer Mode) adoptada
por la UIT en 1988 y utilizada para conmutación de paquetes
de transmisión de datos de gran ancho de banda y de propósito general desde velocidades muy pequeñas (inferiores
a 64 kbps), hasta velocidades muy altas (155 Mbps y superiores), haciendo posible el uso de cualquier velocidad sobre
un medio determinado, con el límite único de la capacidad
máxima aceptada por dicho medio. Luego, la Dirección General de Telecomunicaciones promovió la puesta en marcha
del PlanBA (Plan de Banda Ancha) entre 1992 y 1995, con
un presupuesto de 5.500 millones de pesetas. Obviamente,
nadie pensaba en extender la banda ancha a la línea de
cobre del, entonces, abonado.
En aquellos momentos, la opción tecnológica elegida para
el acceso de banda ancha era la construcción de redes híbridas HFC (Fibra+Coaxial). Sin embargo, el despliegue de esta
infraestructura era muy costoso y estaba muy poco desarrollado; en 1999 solo el 10% de los hogares estaban pasados,
que no conectados, por cable.
Telefónica se posicionó inicialmente en este tipo de redes y
desplegó la parte de las redes de fibra óptica, continuando
el Plan Fotón iniciado en 1994 y con el que se instalaron unos
20.000 km de cables de fibra en las ciudades de más de
50.000 habitantes, llevando a cada manzana de casas dos
fibras de media. Pero no se llegó a tender nada significativo
de las redes de coaxial; solo unos pocos barrios en Madrid y
Barcelona.
Realmente, el ADSL se inventó para facilitar el servicio de
vídeo bajo demanda, pero en aquellos tiempos en Telefónica
se probaban también otras soluciones distintas, como las de
NEC y Broadband Technologies (luego adquirida por Bosch)
de vídeo conmutado sobre cobre, en 1995. Además, y simultáneamente, se ponía en marcha una nueva plataforma
por satélite, Vía Digital. En resumen, eran unos momentos
en que había que tomar la decisión de realizar un despliegue
de una nueva red de cable HFC para ofrecer servicios de difusión de televisión y acceso a Internet, pero al mismo tiempo se contaba con una plataforma por satélite para la difusión de televisión y con otra tecnología, ADSL, que,
utilizando el cobre existente, permitiría ofrecer Internet y
contenidos de vídeo. Por ello, Telefónica se convenció de la
necesidad de cambiar la estrategia de desarrollo de la banda
ancha en España. ¿Para qué precipitar esfuerzos con la fibra
óptica y cable coaxial cuando con el cableado convencional
se puede llegar al mismo lugar, pero sin necesidad de inmensas inversiones?, se preguntó antes de volcarse de lleno
en el ADSL.
127
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Estas tecnologías xDSL, desarrolladas por los laboratorios Bell
en 1988, parten del aprovechamiento del par de cobre en
una banda de frecuencias mucho mayor que la de 3,1 kHz
(de 0,3 a 3,4 kHz) utilizada por los módems telefónicos, y
mayor que la utilizada por la RDSI (hasta 80 kHz), aun cuando
la atenuación de la señal es mucho mayor (véase la figura 2).
En este sentido, situaban el espectro de la señal de datos por
encima del espectro de la banda vocal, 3,4 kHz, llegando
hasta unos 4 MHz, de manera que con un simple filtro se
separaban ambos servicios: el telefónico y el de datos. A su vez,
se establecían dos canales de datos: uno ascendente, de usuario a red, y otro descendente, de red a usuario.
Dentro de la familia de tecnologías xDSL, la de mayor difusión es sin duda la ADSL, pero hay otras muchas: HDSL (High
bit rate Digital Subscriber Line), que fue la primera en desarrollarse, a principios de los noventa, porque facilita un acceso primario simétrico de 2 Mbps utilizando dos pares; SDSL
(Symetric Digital Subscriber Line), basada en HDSL pero utilizando un solo par; IDSL (ISDN Digital Subscriber Line) para
su uso en una línea RDSI, con velocidad simétrica de 128
kbps; y VDSL (Very high bit-rate Digital Subscriber Line), también asimétrica pero de alta velocidad.
La tecnología ADSL aportaba una serie de ventajas, la mayor
parte de las cuales parecen hoy características básicas y exigibles a cualquier método de conexión a Internet:
• Reutilizaba eficazmente la planta existente de pares de
cobre, no siendo preciso acometer masivas actuaciones
en la red de acceso para obtener una gran cobertura.
Figura 2. Composición de la señal ADSL DMT (UIT G.992.1)
Los primeros estándares ADSL permiten velocidades de bajada (red a usuario) de 6,8 Mbps para distancias de, por
ejemplo, 1 km de la central; pero una siguiente generación
ADSL2+ permite velocidades de 16 Mbps para esa misma
distancia, pudiendo llegar hasta 20 Mbps para ubicaciones
muy cercanas a la central. Más recientemente, la nueva tecnología VDSL2 permite incrementar la velocidad en bucles
cortos (hasta 1,3 km aproximadamente ofrece mayores
prestaciones que las tecnologías previas), pudiendo ofrecer
hasta 50 Mbps en bucles muy cortos (100 m). El éxito comercial del ADSL refleja también el avance de la tecnología
electrónica, como el de los procesadores digitales de señal
(DSP) y una mayor integración de funciones en los circuitos
integrados (VLSI). Así, a finales de la década de 1990 se
produjo una de esas afortunadas coincidencias de necesidad social y tecnología habilitante (DSL, Línea de Abonado
Digital) que en los años siguientes dio lugar al boom de la
banda ancha.
128
• Permitía la coexistencia del servicio telefónico y el acceso
a Internet, liberando así al teléfono del secuestro temporal
de la línea al que lo sometía el ordenador en las sesiones
de conexión a Internet por módem vocal.
• Se evitaba que el creciente tráfico IP atravesara la estructura de la red telefónica, permitiendo a esta última dimensionarse para aquello para lo que había sido concebida,
es decir, el tráfico vocal.
• Se ofrecía un servicio por primera vez concebido para ser
facturado con independencia de la intensidad o duración
de su uso. Los términos “tarifa plana” y always on (siempre conectado), usualmente asociados, hacían referencia
a esta dualidad funcional y económica que posibilitaba a
cualquier usuario la conexión permanente a Internet.
• Para facilitar su adaptación a Internet, el caudal era asimétrico; de ahí la A, de manera que se reserva una anchura mayor al enlace descendente que al ascendente,
según corresponde al modelo de tráfico de Internet, en el
El desarrollo de la banda ancha en Telefónica
cual lo normal es que se descarguen datos, más que subirlos.
Desde entonces, la evolución tecnológica y de los estándares
sobre el ADSL ha sido continua, permitiendo una mejora sustancial de las prestaciones, a cambio de una cierta complejidad añadida en el despliegue para garantizar la compatibilidad de diversas versiones funcionando sobre pares de cobre
adyacentes.
Para la separación de las señales transmitidas en baja frecuencia
(voz) de las de alta frecuencia (datos/vídeo) se necesitan filtros
(uno paso bajo y otro paso alto), agrupados en un dispositivo
denominado splitter o separador. En una primera etapa, las
instalaciones requerían la utilización en la entrada del par de
cobre en el domicilio u oficina de este splitter, que independizaba las redes interiores de voz y datos (véase la figura 3). Esto
suponía en la práctica la necesidad de reservar la red interior
preexistente para uso exclusivo telefónico, y tender un nuevo
par desde el filtro hasta el lugar de ubicación del módem y del
ordenador. Pero pronto surgió la innovación del filtrado distribuido, es decir, microfiltros directamente insertables por el propio cliente en las rosetas donde existían teléfonos. Nacía así en
2003 el concepto del ADSL “autoinstalable”, que abarataba
mucho el coste de instalación, al evitar que un técnico se desplazara al domicilio del cliente.
Figura 3. Esquema de conexión de ADSL
Tras unas discusiones con el regulador de las telecomunicaciones (CMT), Telefónica consiguió paralizar su despliegue
de cable y sustituirlo por el ADSL, una tecnología cuyas inversiones eran bastante menores. Una vez que Telefónica
consiguió convencer del principio de neutralidad tecnológica
(no importa la tecnología, sino el servicio que se presta) para
el servicio de banda ancha, a cambio de exigentes compromisos en el desarrollo de la banda ancha a través de su ADSL,
la compañía dejó de abrir zanjas en las calles, al menos por
unos años. En su momento esta decisión provocó una cierta
polémica, ya que Telefónica dejaba de invertir 400.000 millones de pesetas en cable, si bien las trasladaba a la tecnología
ADSL; pero realmente el lento despliegue del cable habría
provocado un inevitable retraso del servicio de acceso a Internet
en España y una falta de alineamiento con Europa, que
también desplegaba la tecnología ADSL.
DE LOS INICIOS A LA MASIFICACIÓN DE
LA BANDA ANCHA
Las primeras pruebas de campo se hicieron en 1999 en
Madrid con equipo de central DSLAM (Digital Subscriber Line
Access Multiplexer) de Alcatel y nodos ATM de Cisco, que
son los que luego formaron parte del despliegue inicial. Sin
embargo, la implantación del servicio de acceso a Internet
mediante tecnología ADSL sufrió numerosos problemas y
retrasos en 1999, lo que se tradujo en un número insignificante de abonados a este tipo de servicio. Desde marzo
de 1999, en que se publicó la Orden de 26 de marzo de
1999 por la que se establecen las condiciones para la provisión del acceso indirecto al bucle de abonado de la red
pública telefónica fija, sobre implantación de la tecnología
ADSL, hasta el 31 de diciembre de 1999, el número de abonados a estos servicios no llegó a 700, cuando la primera
fase de implantación de este servicio preveía que estuviera
disponible una cobertura de 4,5 millones de líneas para
aquel año. En cambio, en el año 2000, el servicio de acceso
ADSL ya facturó un 20% del total de los ingresos por acceso a Internet.
129
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Desde el primer momento, Telefónica reconoció la importancia
de impulsar el acceso a las redes de la información mediante
la banda ancha, de manera que las necesidades de la sociedad
marcaron sus prioridades. Para conseguirlo, fue necesario un
gran esfuerzo en la evolución de la red a la tecnología ADSL:
adaptación de los bucles de cobre para la transmisión ADSL
(pupinización, calibre, red de dispersión, etc.), así como la readaptación de ciertos servicios como el Hilo Musical, alarmas,
Ibermic, RDSI, etc., que ocupaban el espectro del ADSL; el
equipamiento en los puntos de acceso de las centrales; la
construcción de una red específica para la concentración (con
tecnología ATM) y transporte (con tecnología IP y DWDM) del
nuevo tráfico de acceso a Internet, nuevos servicios y contenidos de banda ancha, etc., convirtiéndose en el principal impulsor de la banda ancha a través de esta tecnología.
Hacia el primer millón de clientes
El primer plan técnico de ADSL se elaboró en marzo de 1999
y en él se contemplaban las demarcaciones del despliegue
para los años 1999 y 2000.
130
La comunicación entre el módem/router del abonado y la
red IP de acceso a Internet se realizaba primero sobre conexiones ATM, configurando la red GigADSL, que se dividía
en dos: la red ADSL formada por el conjunto de DSLAM
(concentradores de tráfico ADSL para distintos usuarios) y
el conjunto de parejas ATU-C y ATU-R; y la red ATM pura,
con enlaces de comunicaciones locales o remotos, y los
nodos de conmutación encargados de establecer la conexión entre la red de acceso ADSL y la red IP. Desde el punto
de vista de la arquitectura de protocolos, se transportaban
Canales Virtuales (CV) ATM sobre ADSL. De esta forma, el
usuario disponía de una conexión ATM permanentemente
activa.
Pero el soporte tradicional de IP sobre ATM daba lugar a serias limitaciones, como la falta de eficiencia en la conversión
de protocolos y el elevado tiempo requerido para instalar,
configurar y gestionar los equipos DSLAM y ATM convencionales de gran tamaño y escasa escalabilidad. Por ello, pronto
se optó por basar los DSLAM en IP, y la red de agregación
en tecnología Ethernet en vez de ATM.
La arquitectura de red (véase la figura 4) estaba constituida por
los equipos DSLAM que se conectaban a la red ATM mediante conexiones a 34 Mbps eléctricas y 155 Mbps ópticas y
eléctricas; y desde la red ATM se pasaba a la red IP (RIMA,
Red IP Multiservicio Avanzada), que proporcionaba el acceso
a Internet y era utilizada también para facilitar servicios
de interconexión de LAN, VPN, etc. Entre medias, los BRAS
(Broadband Remote Access Server), que agregaban el tráfico
regional de los usuarios.
La red RIMA, que desplazó a la primera red IP (la red Nuria
de Telefónica Data) migrando a los usuarios de terra.es a telefonica.net, pasó a ser el núcleo de las comunicaciones multimedia de Telefónica. Es una red IP multiservicio que integra
voz, datos y vídeo sobre una misma infraestructura, a la vez
que incorpora elementos de routing de alta conmutación
para integrar todos los perfiles de tráfico IP y multimedia,
que permiten llevar tráfico multimedia correspondiente a diversas calidades de servicio; en ella se utiliza el protocolo
MPLS (MultiProtocol Label Switching).
Figura 4. Arquitectura de acceso a Internet con ADSL
El primer módem ADSL que se instaló en España en 1999
fue suministrado por Amper para el servicio residencial de
Terra. Se trataba de un módem con tecnología ADSL2 con
un puerto Ethernet que empleaba un chipset de Conexant.
Como en muchas ocasiones a lo largo de los últimos años,
los avances tecnológicos han estado ligados al desarrollo de
circuitos integrados específicos que agrupan en un solo
El desarrollo de la banda ancha en Telefónica
chipset la base de la tecnología. En este sentido, Alcatel desarrolló inicialmente su propio chipset y luego pasó a utilizar
el de GlobeSpan.
En cuanto a diferentes tipos de equipo y fabricantes que han
intervenido en el desarrollo de la tecnología ADSL, es oportuno
citar los Multiplexores ADSL de central (DSLAM) de AlcatelLucent y Huawei; los módems ADSL de usuario de Alcatel,
Amper-Xavi, Comtrend, Huawei, Zyxel, etc.; los microfiltros
ADSL de Alcatel, Montseny- Balast, etc.; los conmutadores
ATM de Cisco, los equipos MetroEthernet de Riverstone (inicialmente) y luego Alcatel y Huawei; y los routers IP de Cisco y
Juniper.
Así, después de haber invertido 2.000 millones de euros en el
periodo 2000-2003, a finales de 2002 España comenzaba a
ser un país de banda ancha, con más de un millón de clientes.
Pero, para ello, hubo que cambiar también algunas cosas,
como el acceso al servicio minorista.
La Orden de 26 de marzo de 1999 por la que se establecen
las condiciones para la provisión del acceso indirecto al bucle
de abonado de la red pública telefónica fija, establecía las condiciones para la provisión del acceso indirecto al bucle de abonado de la red pública telefónica fija, en concreto la obligación
de que los operadores dominantes de dichas redes dispusieran, mediante el despliegue de tecnologías ADSL, de una oferta de acceso al bucle de abonado de su red en modalidad
de flujo binario de alta velocidad, que se denominó servicio
GigADSL, poniéndola a disposición de operadores de red y
proveedores de servicios de transmisión de datos con respeto
al principio de neutralidad en relación con las condiciones económicas, operativas y comerciales. El servicio GigADSL arrancó
el 15 de septiembre de 1999. Además, la orden había establecido el concepto de demarcación como el ámbito geográfico que disponía de un único punto de acceso indirecto al
bucle donde se concentraban los flujos de información procedentes de las centrales locales ubicadas en dicho ámbito y
que incorporaban tecnología ADSL. En el servicio GigADSL se
ofrecían diferentes modos de conexión al punto de entrega
de demarcación para los operadores de red autorizados, que
iban desde los 2 Mbps hasta los 155 Mpbs.
Pero a diferencia de otros países, y hasta la Resolución de
2001, la oferta a usuarios finales de servicios basados en
ADSL en España procedía totalmente de operadores distintos
de Telefónica, como Auna, Wanadoo, etc., que empleaban
la citada oferta mayorista de acceso indirecto al bucle de
abonado. En este contexto, el grupo Telefónica estaba presente en el mercado minorista a través de dos empresas del
grupo, concretamente de Terra para el mercado residencial
y de Telefónica Data en el segmento de empresas, que ofrecían sus servicios a los usuarios finales en régimen de precios
libres, en competencia con las ofertas planteadas por el resto
de operadores.
Enseguida surgió la necesidad de dotar de accesos simétricos
a las empresas, ya que cuando alojan páginas web es necesario aumentar la velocidad de subida, de bajada para los
clientes que acceden a estas páginas. Así, además de utilizar
SHDSL (Symmetric High bit rate Digital Subscriber Line), se
desarrollaron accesos simétricos con ADSL de 1 y 3 Mbps.
Fue la Resolución de 31 de julio de 2001, del Secretario de
Estado de Telecomunicaciones y para la Sociedad de la Información, relativa a la prestación del servicio "ADSL minorista" por parte de "Telefónica de España, S. A. U.”, la que
permitió la prestación del servicio ADSL minorista por parte
de Telefónica de España, que veía disminuir los ingresos brutos del negocio tradicional, y la que propició el desarrollo explosivo de esta tecnología, creciendo de unos 400.000 clientes en agosto de 2001, momento en que Telefónica de
España se convirtió en un ISP (proveedor de servicio de acceso a Internet), a un millón de clientes a finales de 2002.
Todas estas circunstancias hicieron de Telefónica el operador
de referencia de banda ancha en España y el primero a nivel
europeo (véase la figura 5). Además, el decrecimiento que se
estaba produciendo en los ingresos brutos del negocio tradicional, que en 2002 fue de 240 millones de euros, fue
131
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
España
Cuota de mercado de accesos BA
N.º de accesos en miles y porcentaje por operador
281
734
878
50
52
30
20
18
33
28
30
30
sep-01
ene-02
may-02
sep-02
Telefónica
de España
34
Terra +
Telefónica Data
33
Otros operadores
(incluido cable)
529
42
el eje principal para la transformación de Telefónica, fidelizando a los clientes en un entorno complejo del mercado de
voz, convirtiéndose en el motor de crecimiento frente a servicios tradicionales, y orientándose al cliente mediante la
oferta de nuevos productos y servicios.
Europa
Penetración de ADSL en Europa
Conexiones ADSL en hogares con Internet
(% hogares en 2003)
Hacia los 10 millones de líneas de banda ancha
0%
5%
10%
15%
20%
25%
Figura 5. Cuota de mercado de ADSL en España y Europa
compensado por el crecimiento de ingresos de la banda
ancha, que en 2002 fue de 237 millones de euros.
Para validar la red de acceso (pares de cobre) para servicios
de banda ancha se desarrolló en TID la herramienta Scraba
(Sistema de caracterización de la red de acceso para el transporte de señales de banda ancha), que facilitó el proceso de
“precalificación” masiva de los pares de cobre, proporcionando información detallada sobre su potencial para ofrecer
servicios en banda ancha. La operación, que se hacía desde
un único extremo, reducía enormemente el coste del proceso
y proporcionaba datos suficientes sobre la capacidad de servicio del par de cobre, incluso teniendo en cuenta el tramo
de acometida desde la caja terminal hasta el domicilio del
cliente, teniendo en cuenta también el efecto de ramas laterales, así como la presencia de otras señales que pudieran
interferir. Para la clasificación de unidades básicas de la red
de acceso (por ejemplo, cables de 25 pares), se calculaba la
atenuación a 160 kHz (incluidas ramas laterales) de todos los
pares de cobre de dicha unidad básica.
A finales de 2002, España comenzaba a ser un país de banda
ancha, con una cobertura del 90% de hogares, con un millón de clientes y con un 16% de los internautas utilizando
la banda ancha. Definitivamente, la banda estrecha había
quedado atrás. Además, la banda ancha se configuró como
132
En el aspecto tecnológico, cabe indicar que la UIT fue especificando variantes mejoradas del ADSL original, que suponían un incremento tanto de la velocidad binaria como de la
longitud máxima del bucle: ADSL2+ (G.992.5), que permite
hasta 24 Mbps de bajada y 1,2 Mbps de subida a distancias
muy cortas, y posteriormente VDSL2.
Otro hito tecnológico importante fue la especificación por el
IEEE (Institute of Electrical and Electronics Engineers), a finales
de los noventa, de una conexión de radio de corto alcance
conocida como wi-fi (wireless fidelity), que Intel incluyó en
los chips de los ordenadores portátiles y que utiliza bandas
de uso común, sin necesidad de licencia para los usuarios.
Para la mayoría de los usuarios, y desde el año 2004, ADSL
y wi-fi han constituido una simbiosis perfecta. Además de la
facilidad de instalación y configuración, el wifi permitió la
movilidad de los ordenadores portátiles dentro y fuera del
hogar. Parte de la popularidad de la banda ancha se ha debido, sin duda, al wi-fi doméstico o de la oficina, conseguido
sin coste incremental con el alta del ADSL al estar incorporado en el módem-router ADSL. Telefónica fue pionera en la
incorporación de wi-fi en los routers ADSL.
En 2004 se alcanza una cobertura del 95% de las líneas telefónicas y más de 2,1 millones de líneas ADSL en servicio.
La banda ancha en España alcanza los 2,5 millones de líneas
con un mapa multitecnología (cable HFC y línea ADL) y multioperador. Tres son los modos de entrada utilizados por los
operadores para acceder a la banda ancha: la utilización de
red propia, como Telefónica de España o los operadores
de cable; el acceso indirecto, con operadores que utilizan la
El desarrollo de la banda ancha en Telefónica
red de Telefónica para llegar al cliente; y el alquiler del bucle
de abonado.
TRANSFORMACIÓN DE TELEFÓNICA: NUEVA
CULTURA OPERATIVA Y TECNOLÓGICA
En esos momentos, Telefónica centró el avance de la banda
ancha en dos ejes fundamentales:
Es muy importante destacar la transformación operativa que
se produce en Telefónica, internamente y en todos los ámbitos, a raíz del crecimiento y consolidación del negocio de
ADSL. Había que cambiar los modos de hacer de miles de personas que dominaban la operativa de planta interna y externa
de la red telefónica, pero que tenían que migrar a una operativa completamente distinta, en la que la calidad ya no estaba
en la red, en casa, sino también en las líneas y equipos del
cliente. Así, se pasó de una organización muy vertical, compartimentada y estanca, a una organización más horizontal
con una filosofía de servicio extremo a extremo y metodología
por proyectos (cuadros de mando, indicadores de calidad,
etc.), con personal muy motivado, precisamente por la recuperación de un negocio nuevo que parecía destinado a llevarse
desde una empresa independiente, como pasaba con el móvil
y Telefónica Móviles, con los datos y Telefónica Data, etc.
1. Extensión del servicio. La extensión del servicio de ADSL
ha requerido un esfuerzo en inversión acumulada de
3.671 millones de euros hasta 2010, principalmente en
la instalación de equipos de central DSLAM (DSL Access
Multiplexer), instalaciones y equipamiento de cliente, redes
de agregación ATM y Ethernet, red IP así como el equipamiento de transmisión asociado, sistemas, centros de
gestión y operación, desarrollo de servicios, etc.
2. Comercializar nuevos productos y servicios. Ampliando su
oferta de banda ancha, creando alternativas para todos
los clientes y convirtiéndola en un producto de consumo.
Se produce un aumento progresivo de las velocidades de acceso del ADSL (véase la figura 6), aun cuando no es posible comercializarlo en toda la cobertura debido a la excesiva longitud de algunos bucles, que hoy permite alcanzar la velocidad
de 10 Mbps. Ello ha provocado un desarrollo enorme de los
equipos para redes IP, incorporando fabricantes no habituales
entonces para los equipos de operador, como Cisco.
En marzo de 2010 el número de líneas de acceso a Internet
de banda ancha ha superado la
cifra de 10 millones, según
los datos reflejados
por la CMT.
Figura 6. Aumento progresivo de la velocidad de acceso
Primera etapa del servicio ADSL
El objetivo de esta primera etapa era atender a unos clientes
desconocidos para Telefónica, hasta poder ofrecer servicios
minoristas a finales de 2001. Estos clientes disponían del
servicio GigADSL, soportado en una Red de Conmutación
de Paquetes ATM, y que era un servicio regulado destinado en
exclusiva a Operadores y Proveedores de Servicios de Acceso
a Internet (ISP).
Desde el inicio del servicio GigADSL en 1999, en Telefónica
tuvieron lugar desde el punto de vista operativo varios acontecimientos importantes en el desarrollo de la banda ancha:
• En 1999 se creó CNESGA (Centro Nacional de Explotación
del Servicio GigADSL) en el Centro Nacional de Supervisión
y Operación (CNSO) de Madrid-Aravaca, inaugurado en
1997, como el primer centro de banda ancha en España,
con 50 personas y con responsabilidad global sobre la
133
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
explotación de la red y sobre la provisión y atención posventa de averías de clientes. La supervisión, operación y mantenimiento se centralizó en CNESGA y se realizaba a través
de los gestores de red propietarios de Alcatel y CISCO. También se realizaba la actividad de soporte a los instaladores
que encontraban dificultades en el alta del servicio.
• En febrero de 2001 comienzan los cursos de formación al
personal del CNESGA para iniciar el piloto de vídeo sobre
ADSL en Alicante que será el embrión de Imagenio. También en 2001 comenzó la descentralización de actividad
del CNESGA hacia los CSD (Centros de Supervisión y Diagnosis) de operaciones.
• En septiembre de 2001, Telefónica obtuvo la licencia de
minorista y por tanto podía ofrecer el servicio ADSL extremo a extremo a sus clientes. El 28 de diciembre de 2001
se lanza el kit ADSL USB, servicio perteneciente a la gama
Línea ADSL de Telefónica, diseñado de forma que el cliente disponía en un kit de todos los elementos necesarios
para obtener la conexión ADSL, instalándolos y configurándolos él mismo sin intervención de un instalador.
Las primeras activaciones de conexiones ADSL se realizaban
manualmente y de forma secuencial en cada una de las dos
plataformas de gestión que componían el servicio GigADSL:
AWS para los DSLAM de Alcatel y Strataview en los BPX de
Cisco. Completar unas decenas de conexiones al día era todo
un éxito. Las capacidades de los nodos DSLAM eran de 4 líneas ADSL por cada tarjeta. La mejora del proceso de activación se produjo cuando TID desarrolló e implantó una mejora que consistía en automatizar la activación de conexiones
GigADSL en los diferentes elementos de red.
Los trabajos en central se correspondían con la eliminación
del puente entre el repartidor horizontal y el vertical, cableando un nuevo puente del repartidor horizontal a la regleta
ADSL y de esta al repartidor vertical. En cuanto a la instalación en domicilio del cliente, no existía el kit ADSL y por tanto
siempre se precisaba un instalador para el alta del ADSL.
134
Otra peculiaridad importante era que no existían terminales
ADSL externos de banda ancha por lo que era necesario instalar una placa interna y, para ello, era necesario abrir el ordenador del cliente, con los problemas que esto conllevaba
en seguridad, pérdidas de garantías, etc. Las averías y reclamaciones debidas a la manipulación en el propio ordenador
del cliente eran frecuentes. En este escenario, se hizo necesario obtener la conformidad del cliente en el alta del servicio.
El CNESGA, como único centro que centralizaba la actividad de
operación y mantenimiento de la banda ancha en operaciones, era la organización que recibía, previo filtrado del CAA-SI
(Centro de Atención de Averías), los avisos de avería de los
clientes, que en función de la incidencia solucionaba el CNESGA
o, si se precisaba apoyo exterior, se distribuía a las empresas
colaboradoras para coordinar la visita domiciliaria.
La evolución de averías ADSL y GigADSL fue: 2001 cerró con
35.408 averías de ADSL y 8.105 de GigADSL; 2002 cerró
con 52.220 averías ADSL y 12.328 de GigADSL.
En cuanto al modelo de atención al cliente, al finalizar 2001
existían diferentes organizaciones y niveles de atención: CAT
(Centro de Atención Técnica), CNESGA y Help Desk. Las reclamaciones de cliente fueron: al cierre de 2001 se registraron 1.661 y al cierre de 2002 se registraron 2.823.
El salto cualitativo como servicio masivo
Con el objetivo de ser eficientes en provisión y mantenimiento, y excelentes en calidad percibida, se inició la siguiente
etapa de crecimiento con la comercialización de servicios minoristas en 2001.
En enero de 2001 se inicia el Programa Estratégico de Cambio
(PEC): 1 Millón ADSL ready net, que recogía la necesidad
de completar, como primera fase, 360.000 clientes a final de
2001. En él se definieron una serie de parámetros de seguimiento, sobre los que se realizó un control específico sema-
El desarrollo de la banda ancha en Telefónica
nal. Se revisaban diferentes datos sobre el nivel de cobertura
y las medidas de calidad y se trataban también otra serie de
indicadores, sobre el despliegue de acceso, red de transporte
IP, calidad y materiales y equipos de cliente. Posteriormente,
en abril de 2001, pasó a denominarse PEC Verne Ready Net,
y años más tarde, arrancó el denominado PEC Imagenio.
Desde el punto de vista de la ingeniería de estas nuevas
redes, es conveniente resaltar algunas de las herramientas y
procesos aplicados al proceso de construcción de las mismas.
Para el inventario de la red se utilizó el sistema DITRA ya que
este disponía de interfaz con la aplicación de provisión de
circuitos (ATLAS) y eso facilitaba la implantación. La provisión
de cliente en el ADSL nació ya dentro del sistema SIGA (Sistema Integrado de Gestión ADSL), que también incorporó
posteriormente la configuración de red.
En la red todo cambiaba, los equipos eran nuevos, los
DSLAM en el acceso pasaban a ser las “nuevas centrales de
la conmutación tradicional”, y aguas arriba en la red aparecían nuevas redes: GigADSL Uno IP y después la nueva Red
IP: RIMA. Ello suponía nuevas tecnologías, protocolos, interfaces, fabricantes, etc.
Lógicamente, estos cambios requerían poner en marcha todo
lo asociado al proceso de operación y explotación de una red.
En concreto, fue necesario determinar y definir el catálogo, ubicación, dimensionado y adquisición de los repuestos de todos
los nuevos equipos que constituían estas redes. Inicialmente el
dimensionado se basó en la tasa de fallos MTFB facilitada por
los fabricantes, que posteriormente hubo que ajustar sobre la
base de la experiencia de los primeros meses. Igualmente fue
necesario establecer los contratos de soporte con todo el conjunto de fabricantes, bastantes de los cuales eran nuevos.
En paralelo, también fue necesario engranar los procesos de
atención al cliente con los procesos de la red. Se creó el Centro
de Asistencia Técnica ADSL (CAT ADSL) el cual recibía las llamadas y avisos de avería de los clientes; estos se resolvían en
su mayoría en esta primera línea y, en caso de ser necesario,
se escalaban a los grupos operativos de mantenimiento. Simultáneamente se organizó el proceso que se activaba en
caso de incidencias masivas en la red: en estos casos, se activaba automáticamente el concepto de “incidencia masiva”
que hacía que en la primera línea del CAT tuvieran conocimiento de la misma de manera que se informara de forma automática mediante locución (IVR) a los clientes que llamaban
refiriendo una avería en su servicio de ADSL.
Muchos fueron los problemas en los equipos y en la red en
el comienzo del servicio, en 1999. Problemas consecuencia
de la inmadurez de las tecnologías o de las redes en sí mismas. Telefónica hizo buenos los diseños y desarrollos de
todos los fabricantes elegidos para la red. Así, la integración
del equipo seleccionado de Cisco para la función de BRAS
requirió un plan especial de acción como consecuencia de
las múltiples incidencias y carencias de que este equipo adolecía. Lo mismo ocurrió con los problemas de infancia en las
tarjetas de los DSLAM, averías que provocaban el funcionamiento incorrecto una vez se activaba el servicio al cliente,
lo que obligó una vez más a Telefónica a poner el máximo
esfuerzo y compromiso con los clientes, obligando en el proceso de instalación a realizar una sincronización línea a línea
previa a la provisión de los clientes que garantizase el éxito
del funcionamiento cuando el cliente era dado de alta.
Además de todos los aspectos comentados, hubo muchos
otros que hicieron realidad la banda ancha con los requisitos
de calidad necesarios; por citar algunos:
• Inventario técnico con el nivel de detalle que permitiera
actuar en la red de la forma más ágil y eficiente posible;
a la vez, conseguir asociarlo al servicio que presta cada
equipo, de manera que fuera factible conocer el servicio
afectado en caso de incidencia.
• Proactividad. Partiendo de todas las alarmas y eventos que
continuamente generan los equipos de la red, era posible
anticiparse a gran parte de las incidencias si estas se correlacionaban e interpretaban correctamente.
135
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
• Mantenimiento rutinario. Se definieron y procedimentaron
todas aquellas tareas preventivas de mantenimiento rutinario que evitaban la posterior generación de incidencias
o averías en la red.
• Control hardware y software de la planta. El dinamismo de
la banda ancha obligaba a una rápida evolución de los equipos, su hardware, las versiones de este y, sobre todo, sus
versiones software. Por todo ello se implantó un estricto
control hardware y software de todos los elementos de la
red, para lo cual se decidió que las evoluciones software de
los equipos se desplegaban desde los grupos de operación
y mantenimiento. A su vez, las evoluciones hardware se controlaban por los mismos grupos, independientemente de
que se realizaran por el fabricante o por un integrador.
• Estricto control de la seguridad y backups de los equipos,
de manera que siempre fuera factible retornar a un punto
previo y seguro donde el funcionamiento de los equipos
estuviera garantizado.
En palabras de Carlos Calvo, director general de Operaciones
en esa época, las cinco claves principales de la transformación operativa de Telefónica fueron las siguientes:
• Enfoque de la organización hacia la gestión de la expectativa y la calidad percibida por el cliente.
• Desplazamiento de las fronteras de actuación de operaciones con el cliente final.
• Nuevo modelo contractual con las empresas colaboradoras, que incentivase la mejora de la satisfacción del
cliente.
• Mejora continua de la eficiencia y la productividad de los
recursos de operaciones, tanto propios como ajenos.
• El mantenimiento como negocio capaz de generar ingresos y fidelizar a los clientes.
136
En resumen, en operaciones se consiguió evolucionar del
mundo del negocio tradicional a la banda ancha y ello fue
gracias a la implicación, profesionalidad y apuesta decidida
por la calidad, innovando en procesos y sistemas que permitieran conseguir la eficiencia necesaria para poder integrar
todas las nuevas actividades en los recursos disponibles.
EL SERVICIO IMAGENIO
Los nuevos hábitos del estilo de vida digital propiciaban a
principios de este siglo que la industria del entretenimiento
y los medios de comunicación fueran un sector económico
pujante, que representó solo en España y durante 2002 una
cifra superior a 17.000 millones de euros. De ellos, la televisión convencional representaba un 12%; y la televisión de
pago un 11%, pero con un crecimiento anual medio del
25% en los cuatro años anteriores. La televisión de pago se
inauguró en España en 1990 con Canal+, utilizando medios
terrestres de difusión codificada por radio, al que siguieron
diversas plataformas de televisión vía satélite.
O sea, en paralelo al desarrollo de la banda ancha en España,
ha habido una importante aceptación desde mediados de
los noventa de las diferentes plataformas de distribución de
TV digital y de los servicios de difusión de audio y vídeo, que
eran, junto con los servicios de alquiler de películas para DVD
o vídeo VHS, el principal medio de entretenimiento doméstico a finales de los noventa y en la primera década de 2000.
En este sentido, el desarrollo de Imagenio, que ofrece servicios de difusión de televisión y vídeo bajo demanda a través
de ADSL constituye, por un lado, la evolución natural del negocio de Telefónica, con el objeto de darle mayor valor a la
banda ancha, y un paso muy importante para una compañía
prestataria de servicios de voz que busca convertirse en un
operador multiservicio que cubra todas las necesidades del
usuario en servicios de telecomunicaciones. Pero la entrada
en el negocio de la TV es también la respuesta de Telefónica
a la irrupción en el mercado de los operadores de cable que
El desarrollo de la banda ancha en Telefónica
ofertan, además de servicios de telefonía y de banda ancha,
el servicio de TV, intensificándose la competencia. En aquel
momento, el servicio de vídeo bajo demanda, VoD, de Imagenio, solo disponible sobre la tecnología ADSL, permitía a
Telefónica no solo convertirse en un operador multiservicio,
sino además, diferenciar su oferta de la de los operadores de
cable. Aunque actualmente los operadores de cable pueden
ofrecer VoD tras haber evolucionado sus redes, sigue siendo
un servicio diferenciado de la oferta de Imagenio frente a
oferta de la TV por satélite.
videoconsola de juegos. En aquellas fechas, un millón de hogares disponían de los cuatro servicios avanzados (telefonía
fija, móvil, TV de pago e Internet), mientras que otros tres
millones disponían de al menos tres, y solo uno de cada tres
hogares disponía de solo uno (véase la figura 7). La oportunidad era clara.
El desarrollo y diseño de la arquitectura de red de Imagenio
se especificó en Telefónica y se desarrolló e implementó inicialmente por TID.
Imagenio, una idea con ingenio
Pero la solución de Imagenio, que empezó siendo la marca
de los servicios audiovisuales de Telefónica Cable, no es solo
una alternativa a otras plataformas de distribución de televisión, sino que también se complementa con el uso de Internet, ya que las infraestructuras de acceso son comunes (línea
ADSL). De hecho, como se ha indicado antes, a principios de
2004 los accesos de banda ancha ya superaban a los de
banda estrecha. O sea, las familias que contratasen Imagenio
podían acceder a sus servicios desde su televisor y al mismo
tiempo compartir el acceso a Internet con el o los ordenadores que tuvieran en su red doméstica con acceso ADSL.
Además, el hecho de que el PC fuese un equipo relativamente caro, que se quedaba rápidamente obsoleto y que requería ciertos conocimientos, limitaba el desarrollo de servicios
basados en el acceso a Internet, cosa que no ocurre con un
televisor. Así, la televisión por Internet y la visualización por
PC apenas se ha desarrollado todavía hoy en día.
Figura 7. Equipamiento de los hogares españoles
Finalmente, la tabla 1 contiene una comparación de la tecnología utilizada en Imagenio, esto es, la distribución de señales
de vídeo sobre IP y ADSL, con otras tecnologías presentes en
el sector y con las que compite, resultando un buen compromiso de los factores de servicios, interactividad, facilidad de
despliegue y madurez tecnológica.
Desarrollo de Imagenio
Además, los hogares españoles estaban cada vez mejor equipados para el ocio digital, ya que en 2003 un 28% de los
hogares disponía de un reproductor DVD y un 24% de una
Se pueden distinguir dos factores claves desde el punto de vista
tecnológico que permitieron el desarrollo de Imagenio: por un
137
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Tabla 1. Comparativa de tecnologías de distribución de vídeo
Servicios
Interactividad
Facilidad
de despliegue
Madurez
tecnológica
Puntos fuertes
Puntos débiles
Teléfono
Vídeo sobre
ADSL IMAGENIO
Internet de banda
ancha
Muy alta
Alta
Alta
Orientación al
vídeo bajo
demanda
Alta
Muy orientado
a servicios de
televisión.
Gran ancho
de banda
Alta
Muy extendido
y maduro.
Fácil despliegue
Baja
interactividad.
No permite vídeo
bajo demanda
Baja
interactividad.
Número limitado
de canales
Televisión
No permite TV de
alta definición
Vídeo bajo demanda
Teléfono (IP y
analógico)
Redes de cable
Internet de
banda ancha
Alta
Baja
Televisión
Vídeo bajo demanda
(limitado)
Satélite
TDT
Televisión
Televisión
Muy baja
Alta
Muy baja
Muy alta
Media
Muy sencillo
de desplegar
Muy alta
Media
Baja
Carácter
bidireccional
Escaso ancho
de banda
Muy alta
Baja
Media
Gran ancho
de banda.
Mucha flexibilidad
Grandes costes
de despliegue
Alta
Alta
Baja
Facilidad
de despliegue
Inmadurez
tecnológica
Televisión
LMDS,
distribución
por radio
Acceso a Internet
Vídeo bajo
demanda (limitado)
Teléfono (IP y
analógico)
FTTH/VDSL
Fibra y cobre
Internet de banda
ancha
Televisión
Vídeo bajo
demanda (limitado)
Teléfono
PLC, distribución
por línea eléctrica
Internet de
banda ancha
Televisión
Vídeo bajo demanda
138
El desarrollo de la banda ancha en Telefónica
lado, el desarrollo de las nuevas redes, y por otro, las nuevas
plataformas de televisión. Así, el desarrollo de las nuevas redes,
como las de banda ancha ADSL, al tiempo que permiten distribuir en modo difusión los contenidos más demandados, también permiten que se pueda ofrecer un canal de retorno rápido
y eficaz que hace posible la ejecución de aplicaciones interactivas, y además proporcionan un canal de bajada que permite
la descarga de aplicaciones y contenidos personalizados a cada
cliente.
En cuanto a las nuevas plataformas de televisión o de vídeo
sobre banda ancha que han creado servicios multimedia y
de TV dirigidos al entorno residencial, cabe destacar la plataforma pionera de Kingston Interactive TV, en Reino Unido.
Sin embargo, el producto de referencia para muchos operadores de banda ancha era Fastweb, en Italia.
Otro aspecto importante a tener en cuenta en el desarrollo
de una plataforma de TV es la estandarización. Como iniciativas competidoras de estandarización de la televisión digital
cabe señalar la europea DVB (Digital Video Broadcasting) y la
americana ATSC (Advanced Television Systems Committee).
El estándar europeo DVB nació en 1992 y utiliza el sistema
de codificación de vídeo MPEG2.
Los servicios de Imagenio que había que desarrollar eran fundamentalmente tres:
• Difusión de canales de TV y audio.
• Contenidos bajo demanda (principalmente películas y
series).
• Acceso a Internet desde el televisor.
A pesar de no existir en su momento estándares específicos,
se utilizaron técnicas ya existentes en redes IP. Así, la difusión
de canales utiliza la técnica de IP multicast, que permite la
comunicación desde un origen a varios destinos. Cada canal
de TV es transmitido en una cierta dirección IP multicast y,
para sintonizar un canal, un descodificador debe suscribirse
al grupo multicast correspondiente. Para ello envía un paquete IGMP hasta el router de acceso, que hace entonces
llegar los paquetes correspondientes a través de la subred
por la que recibió la solicitud.
El servicio de vídeo bajo demanda, que es verdaderamente el
motivo que justifica Imagenio, permite visualizar contenidos
audiovisuales controlando su reproducción (pausa, avance,
rebobinado, etc.) como si de un DVD se tratase. A diferencia
de los canales de TV que son difundidos por toda la plataforma, estos contenidos son emitidos desde un servidor de
vídeo, teniendo como destino únicamente el descodificador
que cursó la demanda. Las redes ADSL están especialmente
bien adaptadas a este servicio, ya que cada cliente tiene un
canal dedicado. Para este servicio se utiliza el protocolo estándar de redes IP RTSP (Real Time Streaming Protocol).
El desarrollo del acceso a Internet planteó el problema de garantizar la interoperabilidad de las aplicaciones proporcionadas por los distintos servidores accesibles desde Imagenio,
pensados para acceder desde PC, cuando se accede con un
televisor. Las soluciones empleadas se basan en la aplicación
de los protocolos HTTP y HTML con un navegador web.
También era necesario tener en cuenta que el monitor de televisión tiene mucha menos resolución que una pantalla de
ordenador, además de que las pantallas de tubo curvan las
imágenes por los bordes. Otro efecto problemático al mostrar las imágenes en el televisor es el efecto de flicker, o parpadeo que se produce al utilizar colores muy intensos y con
mucho contraste entre ellos, o cuando se utilizan líneas de
texto muy juntas. Pero quizás el factor más importante fuera
la distancia entre el cliente y el terminal, que condiciona
enormemente el tamaño de los elementos, especialmente la
elección de las fuentes y tamaños de texto, que deben ser
legibles sin esfuerzo a una distancia de unos dos metros.
La aportación más importante de Telefónica al desarrollo de
la tecnología IPTV fue la arquitectura de red de Imagenio
139
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
(véase la figura 8), pues había que integrar muchos elementos
de red nuevos, cabecera de TV, centro de servicios locales y
centrales en redes también nuevas, Ethernet, IP, etc. Además,
destaca la incorporación de DSLAM-IP, que lleva el protocolo
IP directamente sobre ADSL, con las ventajas de aumento de
eficacia, velocidades más rápidas y gestión mejorada.
plataforma IPTV de Imagenio. Por todo ello, decidió industrializar el software específico de Imagenio. Será AlcatelLucent la que finalmente apueste por esta tecnología, dándole el nombre de MyView TV y desarrollando en España un
Centro de I+D mundial en IPTV. Con ello, Telefónica no se
liberaba propiamente de las inversiones, ya que el software
representa un máximo de un 10% de la inversión anual, pero
sí compartía riesgos en el desarrollo de la experiencia de
cliente, que es un elemento clave de diferenciación y de generación de ingresos.
En aquellos momentos, el mercado de IPTV europeo era pequeño, pero España destacaba, junto a Francia e Italia, con
unas 200.000 líneas, mientras que otros países como Alemania y Gran Bretaña apenas estaban desarrollando este
mercado. En 2006, el crecimiento de la TV de pago fue del
10%, siendo la contribución de Imagenio del 43% de la ganancia neta total del mercado, y pasando a tener casi
400.000 líneas.
Después de la aprobación de la “Línea Imagenio” por la Secretaría de Estado de Telecomunicaciones y para la Sociedad
de la información, en 2003 se lanza Imagenio, una solución
que permite ofrecer contenidos y servicios de valor añadido
de vídeo en los hogares ofreciendo televisión sobre tecnología ADSL. El primer piloto comercial se desplegó en junio de
2004 en Alicante y la red inicial era totalmente independiente de la utilizada para el servicio ADSL.
Por ello, era clave seguir desarrollando aplicaciones y facilidades. Un paso importante fue la adopción y migración a un
nuevo estándar de codificación de vídeo, el MPEG-4, que disminuía la necesidad de ancho de banda de 4 Mbps a 2,5
Mbps, lo que permitía aumentar la cobertura de bucles válidos para Imagenio en torno a un 7%, o 310.000 líneas adicionales, y facilitar la ampliación de canales de TV de 120 a
200. Sin embargo, esta migración no estuvo exenta de problemas, y obligó a cambiar la cabecera de canales de TV y a
retirar modelos de descodificadores que no permitían esta
migración. También hubo que proteger las líneas contra
el ruido impulsivo, al que se habían vuelto más sensibles,
implantando medidas de corrección de errores, INP 2 y 4,
entre DSLAM y descodificador cliente.
En 2005 se identificó la necesidad de lanzar servicios de IPTV
en otros mercados de Telefónica. También la necesidad de
ir más rápido, lo que requería un aumento significativo
de inversiones en desarrollo que Telefónica no quiso realizar
en solitario. Además, detectó interés en la industria por la
Siguieron nuevas facilidades como el Past-tv que permitía
grabar en red determinados programas, generalmente informativos diarios, y ponerlos a disposición de los usuarios para
verlos mas tarde. También la utilización de descodificadores
grabadores, DVR, con funcionalidad semejante a un DVD
Figura 8. Arquitectura de Imagenio
Despliegue y evolución de Imagenio
140
El desarrollo de la banda ancha en Telefónica
grabador, aunque era necesario tener suficiente ancho de
banda en la línea para poder ver un canal y grabar otro.
Sin embargo, el desarrollo de Imagenio en toda su potencialidad, como DVR, que necesita dos canales; TV de alta definición, que necesita unos 14 Mbps; y varios descodificadores
en un hogar, siempre se ha visto limitado por el ancho de
banda del bucle con tecnología ADSL, siendo necesaria la
tecnología VDSL o de fibra hasta el hogar, FTTH.
También es necesario reconocer que muchos servicios desarrollados en Imagenio, como el acceso a Internet, mensajería, videoconferencia, juegos, recarga de móviles, etc., no
han tenido apenas éxito. Incluso un elemento tan necesario
como la autoinstalación no ha podido llevarse a cabo por no
disponer, como en el caso del Wi-Fi y el acceso a Internet,
de sistemas de distribución de banda ancha dentro de los
hogares.
Por otra parte, cabe destacar el esfuerzo realizado para disponer de todos los contenidos de interés para el cliente (contenidos de las majors: Warner, Paramount, Walt Disney, etc.,
y de los principales productores independientes nacionales y
europeos) en la oferta de Imagenio. A modo de ejemplo
paradigmático del impacto de los contenidos en la rentabilidad, la incorporación de GOL TV a la oferta supuso unos
20 puntos porcentuales adicionales de ganancia neta durante unos meses. Sin embargo, el gasto en contenidos representa el 80% de los gastos de explotación.
En cuanto a los aspectos económicos del desarrollo y explotación del servicio Imagenio, puede decirse que hasta principios de 2010 el resultado bruto de explotación no ha resultado
positivo, con unos 800.000 clientes. En realidad se preveía que
resultase positivo cuando el número de clientes estuviera en
torno al millón, lo que debería haber ocurrido en 2008 si no
se hubiera producido la crisis actual. En la primera etapa
de desarrollo, hasta su industrialización por Alcatel-Lucent en
2005, trabajaron unas 40 personas con una inversión de unos
50 millones de euros. Ya en la fase de comercialización, los
ingresos y gastos están en torno a los 150 millones de euros,
ahora equilibrados, con un ingreso de unos 20 euros por cliente y mes. La inversión acumulada en el periodo de mayor crecimiento, 2005 a 2008, ha sido de 550 millones de euros; y
la inversión por alta de cliente está en torno a 250 euros.
Como se ha indicado, el futuro de la tecnología IPTV pasa
por cambiar del portador de cobre a la fibra. Con la tecnología de acceso FTTH ya se están dando servicios Imagenio,
bajo el nombre de Trío Futura, que incluyen la TV en alta definición (HDTV) y la posibilidad de disponer de varios descodificadores en una casa. Además, la calidad de imagen, incluso para la TV estándar, es mejor, codificándola a 6 Mbps
en lugar de 2,3 Mbps. El futuro pasa también por distribuir
e integrar los contenidos en las tres pantallas (TV, PC y
móvil), incluyendo en la red plataformas de distribución de
contenidos CDN (Content Delivery Network).
Finalmente, es de reseñar que Telefónica está aplicando en
diversos países modelos híbridos como el DTH de recepción
por satélite e interactividad por ADSL, o como el OTT (Over
The Top) de MoviStar Videoclub, que utiliza Internet para ver
películas y que supone un paso más hacia la televisión del
futuro: la televisión conectada.
LA NUEVA BANDA ANCHA
Hoy en día, el desarrollo de la tecnología permite el despliegue de redes de nueva generación, de mayor velocidad y capacidad, que van a satisfacer la necesidad de mayor ancho
de banda y movilidad. La figura 9 muestra las velocidades habituales de banda ancha para los servicios que se podrán utilizar desde las redes fijas; como queda reflejado, en un hogar
se podrá requerir una velocidad no menor de 50 Mbps en
sentido descendente y 20 Mbps en sentido ascendente. Por
otra parte, en un reciente estudio mundial, elaborado por
Saïd Business School y Oxford University a petición de Cisco,
sobre la calidad de la banda ancha, se indica que la capacidad consumida en un hogar básico es de 20 GB (gigabytes)
141
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
al mes, y su velocidad de banda ancha 6 Mbps, mientras que
en un hogar avanzado estas cifras pasan a 500 GB y 28
Mbps respectivamente.2
movilidad y un elevado ancho de banda, por lo que es necesario unir la banda ancha fija y la móvil en la nueva banda
ancha, dando entrada a nuevas tecnologías que la habilitan
(véase la figura 10).
A pesar de que ya en 2002 se hablaba de la fibra hasta el
hogar, no fue hasta 2006 cuando se inició el proyecto Red 50
para progresar hacia un mayor ancho de banda en las redes
fijas, el cual que perseguía incrementar en un orden de magnitud la capacidad de transporte de información de la que son
capaces los bucles de cobre. Para ello se debía acercar la fibra
óptica a los clientes, bien hasta un punto intermedio entre su
domicilio y la central telefónica, con soluciones de “Fibra hasta
el Nodo o Edificio (FTTN o FTTB en terminología internacional),
bien directamente hasta el propio hogar (FTTH). Era lo que en
determinados foros se denominaba Accesos de Nueva Generación (NGA). Era también una respuesta a las redes de cable,
que cuentan con un despliegue de fibra hasta nodos que se
encuentran a unos 500 m de los hogares.
Figura 9. Ancho de banda de las redes fijas
Pero los clientes no demandan solo servicios de banda ancha
fija, sino acceso multidispositivo y desde cualquier lugar, a
todo tipo de contenidos y servicios, lo que obliga a cambiar
continuamente el modo en el que se les proporciona conectividad. Los usuarios piden servicios caracterizados por la
2 Broadband Quality Score III. A global study of broadband quality.
Cisco. Octubre 2010. http://sociedadinformacion.fundacion.telefonica.com/seccion=1189&idioma=es_ES&id=2010102116170001&
activo=1.do
142
La denominación Red 50 procedía de una reflexión sobre
cuánta banda ancha se necesitaba en aquellos momentos y
de cara al futuro. Así, uno de los servicios que iba a ser más
intensivo en recursos de ancho de banda era la televisión de
alta definición. Aun utilizando la nueva tecnología de compresión MPEG4, se estimaba que un canal precisaría no menos
de 10 Mbps. A su vez, una necesidad ya constatada era la de
poder incluir la transmisión de más de un canal de televisión
en la oferta de Imagenio lo que, en calidad de televisión estándar, y también con MPEG4, supondrían otros 7 Mbps para
dos canales. A esto habría que sumar un acceso a Internet potenciado en ancho de banda, necesario también para nuevas
aplicaciones y servicios aún por llegar, como la telegestión domótica del hogar, los videojuegos, la videoconferencia, etc.
Por ello, si se consideraba un mix simultáneo de servicios, por
ejemplo un canal de TV de alta definición + 2 canales estándar
+ un acceso a Internet de unos 8 Mbps, se estaba definiendo
una necesidad mínima de unos 25 Mbps para cada hogar.
Pero el diseño de red que se estaba planteando era tal que 25
Mbps era la velocidad mínima garantizada, pues en función
El desarrollo de la banda ancha en Telefónica
Red fija
Velocidad máxima de conexión ofrecida
Red móvil
Ancho de banda ofrecido de bajada
Cobre
Fibra
1.000
100
50-100
20
10
6
1
1
0,512
0,257
0,128
0,056
0,033
0,028
0,0144
0,0096
0,1
0,01
+
0,001
0,0012
0,0003
0,384
Mbit/
0,040
Mbit/
FTTH
VDSL
0,0024
>14
Mbit/
ADSL2+
0,0086
Mbit/
HSPA+
LTE
HSDPA/
HSUPA
GPRS
GPRS
GSM
ADSL
0,0001
1982 1985 1988 1992 1996 2000 2002 2004 2006 2010 2012 2014
Figura 10. Tecnologías para la nueva banda ancha
de la ubicación del cliente (la distancia hasta el nodo remoto
en el caso de FTTN) se podía llegar también en muchos casos
a 30/35 Mbps.
VDSL2 es una nueva tecnología de la familia xDSL que permite incrementar considerablemente el ancho de banda que
el par de cobre es capaz de transmitir, pero a distancias más
pequeñas, de centenares de metros (veáse la figura 11). Esto
lo consigue haciendo uso de una mayor cantidad de espectro
de frecuencias en el cobre. Sin embargo, los despliegues de
VDSL2 tienen algunos inconvenientes:
• Interferencias. Las señales procedentes de central para algunos servicios (como ADSL o ADSL2+) y las señales
VDSL2 en el armario interfieren entre sí, teniendo que realizarse actuaciones para minimizar estas interferencias.
• Desagregación del bucle. Es necesario desestimar, por imposibilidad física, la coubicación de distintos operadores
en este tipo de armarios. A cambio, se les debe ofrecer la
posibilidad de igualar los servicios que Telefónica puede
ofertar, mediante una oferta de “bitstream”.
• Problemas constructivos. Como la gestión de permisos,
son armarios en calle que requieren obra civil, alimentación, y además una operación y mantenimiento que penaliza notablemente los costes de explotación frente a la
fibra hasta el hogar.
143
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
desplegaron otros 294 armarios, hasta llegar a la cifra de 900
armarios de Red 50, dando una cobertura a unos 70.000 bucles. En Barcelona no llegaron a instalarse armarios ya que
la tipología constructiva allí era diferente a la de Madrid, al
haber mucha red de fibra desplegada a través de azoteas, lo
que suponía que no se disponía de una ubicación adecuada
para este tipo de armarios.
Figura 11. Tecnología VDSL2
En cuanto al propio despliegue de VDSL2, en el año 2006 se
focalizó el esfuerzo en las áreas urbanas y metropolitanas de
Madrid y Barcelona, con una solución de red FTTB, de acortamiento de bucle, consistente en instalar un armario con
equipamiento de Huawei VDSL2, y en interceptar los cables
de pares de cliente, realizando un conformado de señal, para
no degradar la señal ADSL que venía de central, tanto para
clientes propios como para clientes de la competencia. Estos
armarios se instalaron o bien en RIT (cuarto de telecomunicaciones de un edificio de nueva construcción) o bien en los
garajes de los edificios a los que iban a dar servicio, previa autorización por parte del presidente/administrador del edificio.
Una novedad a destacar en las primeras instalaciones era la
utilización de un repartidor automático que permitía activar
de forma remota la banda ancha y proporcionar directamente desde el armario servicios sobre VDSL2 sin necesidad de
tener que desplazar un instalador al armario.
En el año 2006 se desplegaron 606 armarios con estas características, exclusivamente en Madrid; y en el año 2007 se
144
En definitiva, como solución de red, FTTB ha sido una solución transitoria y, por la dificultad de hacer un despliegue
masivo con esta solución, en 2007 se decidió balancear el
despliegue hacia la solución FTTH. Aun así, en el año 2007
se decidió instalar VDSL2 en todas las centrales abiertas al
servicio Imagenio en ciudades de más de 20.000 habitantes.
En concreto fueron algo más de 800 centrales. A raíz de este
despliegue, se tomó también una decisión importante: a partir de entonces, todas las tarjetas que se despliegan son tarjetas multinorma, es decir, capaces de dar tanto servicios
ADSL2+ como servicios VDSL2.
Las nuevas redes de acceso fijo de banda ancha se basan en
Fibra Óptica hasta el Hogar (FTTH, véase la figura 12). La fibra
óptica presenta importantes ventajas respecto a la tecnología
xDSL actual:
• Utiliza la canalización existente, desplegándose de forma
superpuesta a la red de cobre sin afectar a los servicios actuales.
• Cada fibra que sale de la central da servicio hoy hasta 64
clientes, pero pueden ser más o menos en función de la
necesidad individual de ancho de banda.
• Permite ampliar el ancho de banda de manera “casi ilimitada”, e incrementa de forma significativa el alcance de
central a cliente.
• La transmisión de luz sobre la fibra, basada en el estándar GPON permite inicialmente hasta 1.000 Mpbs por
cliente.
El desarrollo de la banda ancha en Telefónica
En 2009 no hubo despliegue masivo de FTTH, pero sí hubo
un hito muy relevante: este año se empezaron a atender las
primeras nuevas urbanizaciones solo con el portador de fibra,
no desplegándose ya cobre en las mismas. Todos los servicios, tanto de voz como de banda ancha, se empezaron a
dar directamente por fibra.
En 2010 se han optimizado despliegues previamente realizados, allí donde faltaba por construirse alguna parte de la
red, para maximizar el mayor número de bucles en cobertura. De esta forma, hoy existe un acumulado de unos 420.000
bucles cubiertos con FTTH, de los que aproximadamente
15.000 son en zona nueva, cuyo único portador es la fibra.
Telefónica lanza el Trío Futura a finales de 2009: un servicio
que alterna FTTH y VDSL2, con velocidades garantizadas de
hasta 30 Mbps.
Figura 12. Banda ancha por fibra óptica
Una vez finalizado el piloto precomercial, y todavía dentro
del año 2007, se arrancó el primer plan masivo de despliegue
FTTH para atender aproximadamente 300.000 bucles. Este
plan incluía el despliegue en las provincias de Madrid, Barcelona, Vizcaya, Guipúzcoa, Álava, Zaragoza, Valladolid, Sevilla, Málaga, Murcia, Valencia, Las Palmas y Tenerife. El cierre de 2007 se finalizó con unos 180.000 bucles atendidos
ya con FTTH, y la red de alimentación (fibras desde central
hasta la cercanía de las viviendas) necesaria para cubrir los
300.000 bucles.
En 2008 se continuó con un despliegue masivo de fibra, si
bien el alcance se fue reduciendo a lo largo del año, no se
abrieron nuevas provincias dentro del despliegue de ese año,
y el ejercicio se cerró con una cobertura aproximada de
350.000 bucles con FTTH.
Algo que también parece claro de cara al futuro es la convergencia de las redes fijas y móviles, cuya arquitectura evolucionará según los estándares definidos por TISPAN y 3GPP,
concretamente hacia una arquitectura IMS en la capa de
control, con una capa de transporte IP y diferentes tecnologías y medios de acceso. La capa de transporte IP estará
construida sobre un núcleo IP de alta capacidad, disponibilidad y seguridad, con tratamiento específico y diferenciado
de los tráficos en función de su volumen y QoS (Quality of
Service). Telefónica lleva ya unos años en esta convergencia,
definiendo y construyendo una red multiacceso (fijo con cualquier medio y móvil) y multiservicio.
También parece probable que siga habiendo una separación
clara entre el servicio de difusión de TV por medios radioeléctricos, la actual TDT, y los servicios de telecomunicación
por medios físicos (cable, cobre y fibra) y radioeléctricos. Sin
embargo, se espera una convergencia en algún momento
del tiempo, sobre la base de la tecnología HbbTV (Hybrid
broadcast-broadband system TV).
145
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
PREJUBILACIÓN DEL ADSL
Como se ha visto, a mitad de la década de 1990 se quiso
desarrollar la televisión por cable, a pesar de lo cual esta
sigue difundiéndose mayoritariamente por el aire; eso sí, con
el formato digital de la TDT. En cambio, se ha desarrollado
una nueva tecnología, ADSL, que ha propiciado el despegue
y universalización de la banda ancha en España.
Lisboa y como puede apreciarse en la evolución de la banda
ancha en este tiempo (véase la figura 13); y gracias no solo a
Telefónica, sino a todos los operadores que ha contribuido
a ello.
Pero aun habiendo logrado muchísimo, España, y en general
Europa, no se encuentran en el lugar que le corresponde en
el contexto mundial (véase la figura 14, extraída del estudio de
Cisco mencionado en el apartado “La nueva banda ancha).
Decía el Consejo Europeo de Lisboa en el año 2000, refiriéndose a los objetivos estratégicos para la próxima década:
“Una sociedad de la información para todos. Las empresas y los ciudadanos deben tener acceso a una infraestructura de comunicaciones de la mejor calidad, barata,
y a un amplio abanico de servicios. Todo ciudadano debe
poseer los conocimientos necesarios para vivir y trabajar
en la nueva sociedad de la información. Las distintas formas de acceso deben evitar la exclusión en relación con
la información.”
No cabe duda de que la tecnología ADSL ha sido la catapulta
que ha permitido el desarrollo de la sociedad de la información en estos diez últimos años, como pedía la Agenda de
Fuente: Broadband Quality Score III. A global study broadband quality. October 2010.
Saïd Business School, Oxford University para Cysco System. 2010.
Figura 14. Líderes mundiales en banda ancha
Figura 13. Evolución de la banda ancha
146
Debido a ello, España ha promovido intensamente el desarrollo de la banda ancha, y en general de las TIC, en el periodo
de presidencia española durante el primer semestre de 2010,
aprobando en la reunión informal de ministros de la UE celebrada en Granada los días 18 y 19 de abril de 2010, la “Declaración de Granada para una Agenda Digital Europea”. Más
recientemente, en agosto de 2010, se ha promulgado por la
Comisión, el Parlamento y el Consejo Europeo, la “Agenda
El desarrollo de la banda ancha en Telefónica
digital para Europa”, que establece los siguientes objetivos
en relación con la banda ancha:
• Para 2013, cobertura universal de banda ancha básica. La
velocidad en España será actualizable, empezando con un
mínimo de 1 Mbps. Se estima que la inversión puede alcanzar hasta los 11.000 millones de euros en toda Europa
para llegar a universalizar esta velocidad; a España le podría corresponder alrededor de 1.000 millones de euros.
Afortunadamente, estas velocidades son asumibles por la
tecnología móvil, concretamente HSPA y LTE, por lo que
no cabría esperar mayores problemas.
• Para 2020, cobertura universal de banda ancha rápida a
30 Mbps, con al menos la mitad de los hogares conectados a 100 Mbps. Probablemente en el acceso móvil, debido al factor de forma de las pantallas, se considera que
una velocidad de pico de 10 Mbps sería suficiente para los
dispositivos portátiles y terminales móviles.
Para este objetivo de 2020, aunque existen tecnologías que
permiten todavía aumentar la velocidad de banda ancha de
las líneas de pares de cobre, por ejemplo optimizando las
técnicas actuales DSM (Vectored), Cu_PON, etc., es más que
probable que el par de cobre, ahora en periodo de prejubilación, diga adiós definitivamente después de más de 100
años de servicio y evolución tecnológica.
La fibra es sin duda el futuro, teniendo como habilitadores
de la velocidad de despliegue tanto las inversiones disponibles de las operadoras como la tracción de los nuevos servicios demandados por los clientes; respecto al alcance, en
zonas densas irá marcado por la competencia de las operadoras, y en las zonas dispersas y rurales serán las administraciones las que tengan la mayor responsabilidad en la promoción de despliegues.
Finalmente, cabe recordar aquí la afirmación de Enrique
Carrascal, director general de Red durante el desarrollo de
la banda ancha, de que la tecnología ADSL ha permitido la
transformación de Telefónica en una empresa moderna y dinámica, y más abierta a los cambios tecnológicos que se producen continuamente.
GESTIÓN Y DESARROLLO DE LA TECNOLOGÍA
A lo largo del relato del desarrollo de la banda ancha en Telefónica se ha podido también intuir la transformación del
modelo de gestión de la tecnología de la principal compañía
del sector de las telecomunicaciones en España.
Telefónica es una compañía de servicios de telecomunicación
y, como tal, su principal objetivo es ofrecerlos a sus clientes.
Estos servicios se apoyan en unas redes de telecomunicaciones que son la “fábrica” de los servicios básicos. Así, fabrica
minutos de voz para la telefonía fija y móvil; y accesos de
banda ancha fijos, como el facilitado por el ADSL, y móviles.
A estos servicios básicos se les suman otros muchos denominados de valor añadido, suplementarios o especiales, de
los que se aquí se ha visto como ejemplo uno de los más sofisticados, el servicio Imagenio.
A su vez, las redes se construyen sobre la base de elementos
de red, que son los equipos y terminales interconectados mediante líneas, cables, fibra óptica y/o espectro, cuando se
trata de radiocomunicaciones; y que se apoyan en unas infraestructuras: edificios y casetas, canalizaciones, torres, etc.
Al menos hasta hoy, la misión de Telefónica es la de construir
estas redes para soportar los servicios de los clientes, por lo
que también son misiones principales suyas la ingeniería o
diseño y la explotación de las mismas.
La tecnología, como aplicación práctica de los avances científicos, reside básicamente en los elementos o equipos que
componen las redes, en los terminales y en determinados elementos de infraestructura. Hubo un periodo, en la década de
1970 y principios de la siguiente, en que Telefónica era la locomotora de la tecnología y de la industria de telecomunicaciones en España. En el Informe Anual de 1983 se podía leer:
147
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
“La Compañía Telefónica no agota su contribución a la
sociedad y a su progreso con la prestación de los servicios
telefónicos, móviles y telemáticos, todos ellos en continuo
proceso de modernización, sino que también contribuye
como motor de un grupo de empresas, algunas de tecnología punta y de ámbito comercial muy especializado, y al
desarrollo de la industria nacional mediante la creación de
puestos de trabajo y fomento de las exportaciones.”
Así, fue precursora en la investigación y desarrollo de las
redes de datos con la red Iberpac, basada en el equipo Tesis,
primicia mundial de los conmutadores de paquetes en 1974.
Pero también en el desarrollo del servicio Videotex, inaugurado durante los mundiales de fútbol de 1982. Y con su participación en el desarrollo de la central semielectrónica Metaconta con Standard Eléctrica (luego Alcatel), y varias series
de teléfonos con Citesa (Heraldo, Góndola, Teide, etc.) y de
teléfonos públicos con Amper. Incluso se especificaban desarrollos en radio, como equipos para los sistemas rurales
MAR con Telettra o los repetidores para flotas con GTE. Pero
no era realmente excepcional: lo hacían todas las compañías
telefónicas del mundo, los denominados PTT, que acudían a
estandarizar al menos los interfaces para que las redes y terminales fueran interoperables. Iberpac, por ejemplo, se basaba en el conjunto de protocolos de comunicaciones X.25,
estandarizados en 1970 por el CCITT (hoy ITU-T). A finales
de 1986 Telefónica comenzó a reconsiderar la estrategia de
liderar el sector industrial, apostando por la diversificación
de suministros, y reduciendo con ello su dependencia de su
grupo industrial, con la pretensión de ganar autonomía, y de
esta forma abrir su mercado a un número mayor de empresas del sector.
Dos décadas después, a finales de los noventa, época en
que se sitúa la historia del ADSL y también de la globalización, casi nadie duda de que las empresas deben dedicar
sus recursos a las actividades más nucleares de su negocio,
que empiezan por todas aquellas relacionadas con el cliente.
Así, se diría que una mano invisible ha ido transformando a los
responsables, de un papel exclusivo de ingenieros y tecnó148
logos al de hombres de negocios dotados de la visión de negocio que proporciona la tecnología. También cabe destacar
que los propios avances tecnológicos impiden abarcar desarrollos tecnológicos propios en todos los campos; piénsese
que solamente en los terminales de clientes, el desarrollo de
la microelectrónica ha concentrado la tecnología en unas
pocas compañías. Finalmente, se debe resaltar la importancia
actual de la tecnología, no solo en los equipos, sino en las
redes y los servicios que dichas redes soportan; y la importancia cada vez mayor de decidir cuáles son las tecnológicas
que se deben adoptar y cuáles no, porque no aportan elementos diferenciales, ni para el cliente en primer lugar, ni
para los costes/capacidades en segundo.
Así pues, vemos que Telefónica ha cambiado la gestión de
la tecnología de manera que, en el caso que nos ocupa, sus
departamentos de Tecnología y de I+D (TID) estaban al tanto
de la tecnología de redes xDSL mucho antes de su comercialización, participando en la estandarización por la UIT de
todas las versiones habidas, y realizando en sus laboratorios
pruebas extremo a extremo en un entorno multisuministrador; pero además, siguiendo los avances tecnológicos que
se producen continuamente; en el campo de un mayor aprovechamiento del par de cobre, por ejemplo, se está al tanto
de la tecnología Phantom DSL, para aumentar la velocidad
hasta 500 Mbps en distancias de hasta 500 m.
Incluso antes de que estas tecnologías se implementen y comercialicen en equipos y terminales, comienza la selección de
fabricantes y la certificación de modelos con pruebas de laboratorio y de campo, a las que siguen nuevas selecciones de
fabricantes y certificaciones de nuevos modelos de manera
continua. Así, por ejemplo, se ha visto que los primeros
DSLAM eran de Alcatel y los últimos son también de Huawei.
Como también ha quedado indicado, el diseño de las arquitecturas de las redes, así como su planificación, construcción
y explotación, se realizan internamente, lo que obedece al
deseo de implementar rápidamente, o incluso de desarrollar,
los servicios que se soportan en las redes, como es el caso
El desarrollo de la banda ancha en Telefónica
de Imagenio, y con objeto de fomentar su evolución con
nuevos equipos, nuevos protocolos, interfaces, codificadores,
etc.; un buen ejemplo es el paso de MPEG-2 a MPEG-4 en
Imagenio.
También cabe destacar la visión de negocio en la actuación
de los departamentos de Tecnología y de I+D, proponiendo
alianzas con fabricantes, participando en organizaciones de
estandarización, midiendo su eficacia en términos económicos de inversión y costes de red, consiguiendo significativas
mejoras de calidad, y obteniendo una importante consideración internacional.
Debe hacerse una importante distinción entre los dos casos
reseñados: si bien ambos obedecen a decisiones de la alta
dirección, provienen de dos estrategias diferentes. En el desarrollo del ADSL, es la propia evolución de la tecnología la
que obliga a mejorar o desarrollar las redes, muchas veces
partiendo de los propios departamentos técnicos que las desarrollan. Mientras que el caso de Imagenio obedece a una
estrategia de mercado, voluntaria, que proviene de necesidades detectadas por los departamentos comerciales.
Finalmente, es digna de mención la importante actividad de
Telefónica I+D, que se orienta a la creación de servicios, la
gestión de las redes, los servicios y los negocios, con especial
atención a la innovación tecnológica de carácter estratégico
o a productos inexistentes en el mercado. Actúa como motor
de la innovación en Telefónica, desarrolla nuevos servicios
anticipatorios e identifica las opciones tecnológicas emergentes. Dispone de una red de Centros de Excelencia con
sedes en España, Brasil y México.
En este sentido se ha incluido el desarrollo por TID de Imagenio como desarrollo propio de un servicio inexistente en
su momento, que en estos momentos está dando sus frutos
con cerca de un millón de clientes y un margen bruto ya
equilibrado.
Para terminar, un último dato: Telefónica dedica en España
alrededor de 1.250 millones de euros al año a innovación
tecnológica y más de 300 millones a investigación y desarrollo; cuenta con centros en Barcelona, Granada, Huesca,
Madrid y Valladolid; y es la primera empresa española por
ese concepto.
La telefonía móvil o el triunfo de la normalización
Cayetano Lluch Mesquida
INTRODUCCIÓN
El servicio móvil ha penetrado en todas las capas de nuestra
sociedad, y no es exagerado decir que permite hacer cosas
que hasta hace simplemente una o dos décadas parecían, o
bien destinadas a un lejano futuro, o reservadas a los usuarios
conectados a una red fija. Semejante estado de cosas no es
fruto de la casualidad ni ha surgido de repente; por el contrario, es el resultado de una evolución tecnológica y regulatoria que, partiendo de unos orígenes modestos, ha desembocado en las redes y servicios que se disfrutan actualmente,
y que desde luego no va quedarse ahí, sino que está destinado a experimentar cambios técnicos importantes y a mejorar
sustancialmente sus prestaciones.
Ese camino es precisamente el objeto del presente capítulo.
En él se hará un breve repaso al proceso que ha conducido
hasta lo que son hoy las redes y servicios móviles, intentando
aventurar también cómo será el futuro que tienen por delante. Un proceso este que, más allá de los aspectos puramente
tecnológicos, comprende también los relativos a la gestión
del espectro radioeléctrico; porque, no hay que olvidarlo,
estos son sistemas de radiocomunicaciones. Es decir, que utilizan las ondas de radio para cubrir una parte del trayecto que
media entre los dos extremos a conectar. La gestión del espectro (también vale decir de las frecuencias o de las bandas
de frecuencia a utilizar por las redes de radio) es algo que básicamente afecta a la manera en que los gobiernos y otras
instituciones supranacionales, con las que estos tengan tratados o compromisos vinculantes, deciden regular el acceso
a las frecuencias y las condiciones de uso de sus derechos de
utilización.
No obstante, antes de entrar en el objeto en sí del capítulo,
es preciso hacer una consideración preliminar sobre el significado del servicio móvil. Se habla coloquialmente de las
“redes móviles”, pero lo cierto es que las redes que soportan el servicio móvil no se mueven; antes bien, los que se
mueven son los usuarios o clientes de las mismas. Una aparente perogrullada que no conviene perder de vista, ya que
151
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
la movilidad de los usuarios es la que imprime carácter y singularidad a este tipo de sistemas. Entre otras razones, porque establece la necesidad de articular soluciones técnicas
que permitan mantener activa y disponible una conexión a
pesar de que al menos uno de los extremos se desplace geográficamente; y porque exige que los sistemas sean capaces de alertar a un usuario móvil cuando hay una llamada
dirigida a él, lo que en la práctica supone disponer de algún
tipo de mecanismo de localización del mismo.
Tales requisitos desembocan en la necesidad de que alguien
disponga de toda una infraestructura de red y del permiso
para utilizar ciertas frecuencias de radio con carácter exclusivo (bajo licencia). Vienen estas consideraciones al hilo de
evitar una posible confusión con lo que en la literatura se denominan con frecuencia “sistemas inalámbricos o wireless”,
que suele designar a aquellos que no están sujetos al requisito de la movilidad: bien porque conectan puntos que están
fijos en el espacio (por ejemplo, los FWA o Fixed Wireless
Access, para dar servicio de telecomunicaciones vía radio a
domicilios en zonas aisladas o de difícil cableado) o porque se
limitan a dar una extensión de radio a un punto de red fija
(como sería el caso de un router wi-fi ligado a una conexión
ADSL, por ejemplo). Es fácil ver que los modelos de negocio
de un sistema móvil, asociado a fuertes inversiones en infraestructura especializada, serán muy diferentes de los de los
sistemas inalámbricos.
DE LA TECNOLOGÍA ANALÓGICA A LA DIGITAL.
EL SISTEMA GSM
Los comienzos del servicio móvil pueden situarse en torno al
año 1976, cuando, de la mano de Telefónica y restringido a
Barcelona y Madrid, se comenzó a prestar el denominado servicio TAV (Teléfono Automático en Vehículos), en la banda
de 160 MHz. Fue un comienzo casi testimonial, con utilización restringida a altos cargos de la Administración. Posteriormente, en 1982 y coincidiendo con el Mundial de fútbol,
se lanzó el servicio TMA-450 (Telefonía Móvil Automática, en
152
la banda de 450 MHz), basado en el estándar NMT; y en
1990 se puso en marcha el servicio TMA-900 (en la banda
de 900 MHz), basado en el estándar TACS (Total Access
Communication System), con el nombre comercial de Moviline. Este servicio estuvo activo hasta 2004, si bien a partir
de 1995, en que apareció el GSM (Groupe Spécial Mobile)
se encontró en franca desventaja tecnológica.
La información transmitida (vocal) consistía en una señal eléctrica analógica. El usuario y los servicios tipo estaban restringidos a usuarios de alto poder adquisitivo, capaces de pagar
unos cientos de miles de pesetas de la época por unos terminales transportables —que no portátiles— en su mayoría.
Quizá el mejor ejemplo del contraste con la situación actual
lo aporte la imagen de Michael Douglas interpretando el personaje de Gordon Gekko en la segunda parte de la película
Wall Street, cuando recoge sus pertenencias al abandonar la
cárcel en 2010; entre ellas, un voluminoso artefacto del año
1987, imposible de alojar en los bolsillos de la chaqueta e incluso algo grande para llevarlo en muchos portafolios, que
el policía le entrega diciendo: “… y un teléfono móvil”, con
evidente sorna. En cuanto al servicio, baste decir que por
aquel entonces servicio móvil era equivalente a telefonía
móvil. Esto es, a servicio puramente vocal.
De esta época provienen sin embargo algunos de los conceptos bases para los potentes sistemas que vinieron en fases
posteriores. Por ejemplo, el concepto celular, que hace que
se hable de “redes celulares” o del “celular” para referirse
al terminal móvil. Gracias a él los ingenieros pueden establecer un primer diseño teórico de la cobertura radio, a base de
teselas hexagonales con las que recubrir el plano (y no por
capricho: es la figura geométrica que maximiza la relación
área/perímetro), que se corresponden con una o varias células, según se dividan o no en varios sectores iguales. Las células contiguas utilizan diferentes canales para evitar interferencias. Por supuesto que, al no ser los canales infinitos, es
preciso repetirlos en algún momento; ello hace que para cubrir
el plano sea necesario repetir un patrón de reparto de canales diferentes entre un racimo de células (cluster). Cuanto
La telefonía móvil o el triunfo de la normalización
mayor sea el repertorio de canales de este patrón, mayor será
el número de células con diferentes canales y mayor la distancia entre células en los que se repiten, lo que implica
menor cantidad de interferencia que cada célula recibe de
las otras que tienen sus mismos canales, aunque al coste
de utilizar más frecuencias. En definitiva, con este concepto
los ingenieros de radio disponen de una herramienta que, a
partir del dato de la relación señal útil/interferencia que
admite la tecnología a desplegar, permite deducir el patrón
de despliegue de los canales.
Otro concepto clave aparecido en esta etapa es el del traspaso (handover o hand-off), técnica que hace referencia al
procedimiento para transferir la conexión abierta entre una
estación base y un terminal móvil que se está alejando de
ella, hasta otra estación hacia cuya cobertura se acerca el
móvil en su desplazamiento. Asimismo, el interés de los países escandinavos por permitir a sus usuarios acceder al servicio en todos ellos hizo que se desarrollara la solución a la
cuestión de la itinerancia (roaming) de terminales móviles
fuera de su red de abono, que permite disfrutar del servicio
en redes visitadas.
Génesis del GSM
Naturalmente, el estado del arte no permaneció inalterado
durante todo este periodo, especialmente en lo relativo a la
electrónica y la capacidad de procesamiento de los dispositivos, de manera que a lo largo de la década de 1980 se hizo
técnica y económicamente viable la digitalización de la información, seña de identidad de los sistemas móviles de segunda generación (2G). También se hizo posible recurrir a
nuevas técnicas de acceso múltiple. Estas técnicas son las
que proporcionan la manera de conseguir la existencia simultánea de varias comunicaciones en una misma célula,
sin perjudicarse unas a otras. En la primera generación esto
se hacía por medio del acceso múltiple por división en frecuencia (FDMA, Frequency Division Multiple Access), conforme al cual cada transmisión se hace en una frecuencia
diferente. Posteriormente, en recepción, son los filtros los
que se encargan de seleccionar la frecuencia correspondiente a la conexión específica, eliminando las señales de las
transmisiones ajenas. Este método es sencillo pero poco eficiente; las frecuencias han de separarse por una banda de
guarda para que los filtros puedan discriminarlas, lo que implica una cierta pérdida de espectro; sin contar con que, al
ser las frecuencias un bien escaso y costoso, no resulta una
técnica escalable cuando los sistemas crecen. Una alternativa
que se hizo accesible para la siguiente generación fue el acceso múltiple por división en tiempo (TDMA, Time Division
Multiple Access).
TDMA se basa en el establecimiento de un turno de palabra
rotatorio, en el que se definen varias ventanas de tiempo
(time slots). Cada ventana es una transmisión, de manera
que, cuando llega su momento, es cuando puede tener lugar
esa y solo esa transmisión; de esta forma se asegura que ninguna transmisión interfiera con las demás, ya que ninguna
puede coincidir en el tiempo con las otras. Ahora, lo que hay
que hacer en recepción es abrir la escucha solo durante la
ventana correspondiente. Por otro lado, si cada una de las
transmisiones requiere una velocidad de transmisión de
V kbps y existen n ventanas dentro del turno, esto supone que
la velocidad dentro de cada turno habrá de ser de n ×V kbps,
dado que cada transmisión solo utiliza 1/n de todo el tiempo
total. Esta técnica es la que se seleccionó como base del sistema móvil de la siguiente generación en Europa: el GSM.
GSM es el acrónimo de Groupe Spécial Mobile, constituido
en 1982 en el seno de la CEPT (Conferencia Europea de Administraciones Postales y de Telecomunicaciones) para especificar el que sería el sistema sobre el que se asentaría el
servicio móvil en Europa. Su gestación comenzó en un
mundo donde los servicios de telecomunicación todavía se
prestaban por medio de organismos administrativos o de
empresas estatales, designadas comúnmente por las siglas
PTT (Post, Telegraph and Telephone), muy sugerente del entorno estatalizado y monopolístico de la época, que paulatinamente dio paso a otro muy diferente, donde las opera153
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
doras entraron en una dinámica de privatización más o
menos rápida, y los servicios (entre ellos el móvil) en otra de
prestación en competencia. Un claro ejemplo de ello es que
la responsabilidad de la especificación terminó pasando en
1989, de la CEPT a manos del ETSI (European Telecommunications Standardisation Institute), una entidad regida, no
ya exclusivamente por las administraciones, sino por todos
los actores del sector de las telecomunicaciones europeas
(fabricantes, operadores, administraciones) sin más privilegios que los que confiere la cuota de socio. Telefónica en
concreto fue miembro fundador del ETSI, en el que participa
activamente, y en el que posee el máximo posible de poder
de voto para un miembro, ya que satisface la cuota máxima
de afiliación. Estos orígenes de la norma, enraizados en un
entorno donde los operadores se encontraban en una posición de monopolio o de virtual oligopolio, motivaron que
el proceso de normalización estuviese dirigido en gran medida por los operadores, que, merced a esas condiciones,
disponían de amplios recursos técnicos y económicos para
dicha actividad.
Uno de los objetivos del GSM era acabar con la situación de
fragmentación de sistemas existente en la 1G, donde, solo
en Europa, llegó a haber hasta nueve diferentes, todos incompatibles entre sí. El desarrollo de la norma tuvo lugar en
varias etapas. La fase I concluyó en 1990 con la especificación de los servicios de voz, mientras que la II se concluyó en
1994 e incluyó los servicios de datos y SMS (Short Message
Service). En 1995 se inició la denominada fase II+, en la que
se incluyeron mejoras como el GPRS y EDGE, de las que se
hablará más adelante.
El GSM constituyó un salto disruptivo en el servicio móvil. En
primer lugar, por su innovación tecnológica, de la que cabe
destacar sobre todo la digitalización. Esta posibilidad quedó
al alcance de los ingenieros gracias al avance del estado del
arte, en especial por las mejoras en la capacidad de procesamiento. Un avance que permite ventajas sustanciales, derivadas del hecho de que ahora la señal a transmitir se compone de niveles digitales discretos, apta para ser procesada
154
de diferentes maneras. Por ejemplo, para incorporar técnicas de detección y corrección de errores, que suponen una
mayor robustez del sistema frente a ruidos, interferencias
y desvanecimientos, lo que al final redunda en menores
clusters que los sistemas analógicos, y por tanto en una
mayor eficiencia en el uso de las frecuencias. Además, la
digitalización consigue que la señal a transmitir ocupe
menos ancho de banda, por cuanto hace posible su posterior procesamiento para eliminar redundancias, lo que
abunda en la cuestión de la eficiencia espectral. Y finalmente, también permite procesar la señal para encriptarla, o lo
que es lo mismo, protegerla frente a accesos no autorizados. Algo de lo que se carecía en la 1G, donde era fácil
demodular la señal ajena; de hecho, muchos fabricantes regalaban con los terminales un conjunto de pegatinas para
poner en el coche, en las que se contenían textos del tipo:
recuerde que su conversación puede ser escuchada. En
definitiva, con el GSM se gana en eficiencia y seguridad.
Sin embargo, los cambios aportados por el GSM no se quedan únicamente en el plano tecnológico, sino que afectan
a la forma de entender el servicio móvil, en una manera que
tiene mucho que ver con la forma en que se desplegó. Esta,
en su fase inicial, tuvo lugar en la banda de 900 MHz, que
fue la atribuida al servicio de radiotelefonía digital en Europa.
Sin embargo la Comisión Europea fue un paso más allá y
exigió, mediante una Directiva (87/372/CEE, de 25 de junio
de 1987), que en la Comunidad Europea dicho servicio se
satisficiera por medio de la tecnología GSM. El resultado fue
que paulatinamente la zona UE (Unión Europea) se vio salpicada de redes GSM. Redes que establecieron acuerdos de
itinerancia entre ellas, de suerte que sus abonados se encontraron en disposición de acceder al servicio no solo cuando se
encontraban en el país de su red de abono, sino también
cuando viajaban a otros en los que hubiera redes con acuerdos de este tipo. De hecho, los principales operadores del
momento (13 de 15 países) firmaron en 1987 el denominado
“acuerdo de colaboración” o MoU (Memorandum of Understanding) GSM, para proporcionar un marco en el que gestionar
y facilitar los acuerdos de itinerancia, así como para enviar
La telefonía móvil o el triunfo de la normalización
una señal clara a la industria manufacturera de equipos
(tanto de terminales como de red) sobre el compromiso de
estas empresas para desplegar la tecnología. Posteriormente, en 1995, el MoU GSM se convirtió en la Asociación GSM
(GSM-A). De esta manera la oferta del servicio pasó de la
mayoritariamente nacional de la primera generación (salvo
en casos regionales como el de los países escandinavos), a
una más y más multinacional. Y todo ello sobre una misma
norma, en contraposición al puzle de sistemas de la primera
generación.
Telefonía móvil (millones de líneas)
60
50
40
30
20
10
El resultado de un escenario como el descrito fue un círculo
virtuoso, en el que la amplitud del mercado permitió unas
economías de escala cada vez mayores, con el consiguiente
abaratamiento paulatino de los terminales y de las tarifas, lo
que a su vez estimuló una mayor demanda y un mayor mercado. Abonarse a una red GSM suponía de hecho mucho
más que disfrutar del servicio móvil en un país determinado:
implicaba unirse a un club con cobertura cada vez mayor, en
un conjunto de países cada vez más amplio. Un círculo cuyo
radio se fue extendiendo, de manera que EEUU también se
sumó a los despliegues GSM. Ejemplo de ello son los más de
4.500 millones de terminales y más de 800 operadores móviles en 219 países del mundo que existen hoy en día. Asia,
en cambio, permaneció separada con su propia norma. La figura 1 muestra el efecto del GSM en el número de clientes
de telefonía móvil en España1, que registra un incremento
notable a partir de 1999.
Una de las conclusiones que el sector extrajo del caso del
GSM fue la de la posibilidad y las ventajas de cierta colaboración entre competidores, en unos términos en los que no
se vulnere el libre mercado, pero al mismo tiempo se facilite
el éxito comercial del servicio. Por un lado, colaborando en
definir, mantener y enriquecer una norma común, que permita economías de escala a los fabricantes, especialmente a
los de terminales móviles, sujetos siempre a la pesadilla de
1
0
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
Fuente: CMT.
Figura 1. Número de clientes de telefonía móvil automática en España
producir equipos obligados a soportar una multiplicidad de
sistemas; una economía de escala que también beneficia a
los operadores, que tienen en la norma un facilitador para
la extensión de un mismo servicio a lo largo de la geografía
internacional, por cuanto es mucho más fácil conseguirlo
cuando las redes que se despliegan responden a una norma
común. Estas ventajas exceden con mucho los costes de elaboración y mantenimiento de la norma (que, aparte de los
viajes y reuniones, para los fabricantes son comunes al caso
de un desarrollo propietario, como las pruebas en laboratorio, estudios previos, elaboración de documentación, etc.) o
el hipotético ahorro que para los operadores podría representar la adopción de sistemas propietarios, desarrollados
por uno o varios fabricantes, sin tener que aportar esfuerzo
por su parte pero siempre expuestos a una implantación restringida o un eventual fracaso frente a otros sistemas propietarios. Y por otro lado, existen también ventajas en colaborar
para alcanzar acuerdos de itinerancia (roaming) mediante los
cuales ofrecer a los abonados un plus de acceso al servicio en
un grupo francamente amplio de países.
CMT. Informe anual 2009.
155
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Aportaciones principales del GSM
Una cuestión que merece ser mencionada es que el GSM
sienta las bases de la arquitectura sobre la que se apoyará la
siguiente generación, si bien, como se verá en el punto siguiente, será en las postrimerías de la tercera generación
cuando se introduzcan cambios fundamentales. En esta arquitectura GSM, ilustrada en la figura 2, la red se compone de tres
grandes bloques:
• Los terminales móviles.
• La Red de Acceso Radio o RAN (Radio Access Network).
• El núcleo de red o CN (Core Network).
La misión de la RAN es servir de interfaz entre los terminales
móviles y el núcleo de red, mientras que este último encamina la información recibida/enviada desde/hacia la RAN
hacia/desde otras redes (por ejemplo, la red telefónica, Internet
u otras redes celulares) u otras partes de la RAN.
Figura 2. Arquitectura del sistema GSM
156
La Red de acceso radio incluye las denominadas estaciones
de base o BTS (Base Transceiver Station), que dialogan con
los terminales móviles pero no se conectan directamente al
núcleo de red, sino que lo hacen por la mediación de los
denominados controladores de estaciones de base, que
en la norma GSM reciben el nombre de BSC (Base Station
Controller). Estos equipos tienen el doble papel de controlar
y de gestionar diferentes procesos ligados al conjunto de
BTS bajo su cargo (por ejemplo, el traspaso entre células
que dependan exclusivamente de su grupo de estaciones
de base), así como de concentrar/repartir el tráfico dirigido
a/proveniente del núcleo de red.
Dentro del núcleo de red existen dos dominios: de circuitos
y de paquetes. El dominio de circuitos se compone de centrales de conmutación de circuitos con funciones específicas
de los sistemas móviles, denominadas MSC (Mobile Switching Centre), mientras que el de paquetes lo integran nodos
de conmutación de paquetes denominados GSN (GPRS
Service Node). Como fácilmente puede intuirse, la voz discurre por el domino de circuitos y los datos por el de paquetes. Adicionalmente, el núcleo incluye una serie de bases de
datos que el sistema requiere para funcionar (por ejemplo,
un registro de los usuarios abonados a la red que se encuentran bajo cobertura de la misma u otro de los de redes ajenas
que están temporalmente en situación de itinerancia), así
como diversas plataformas de servicios, si bien se va imponiendo la tendencia a que las mismas se sitúen fuera de la
red móvil.
Al hilo de esta arquitectura, y aunque aparecerá más tarde
(en la época de la 3G), es interesante señalar el concepto de
OMV u Operador Móvil Virtual. Se trata de un operador que
no dispone de red de acceso radio, pero sí de toda la infraestructura restante, o al menos de parte de ella, de manera que
alquila a un operador con infraestructura aquella de la que
carece. En España el regulador abrió esta posibilidad mediante la orden CTE/601/2002 de la Secretaría de Estado de Telecomunicaciones, si bien no fue hasta 2006 cuando aparecieron las primeras ofertas comerciales basadas en OMV. En la
La telefonía móvil o el triunfo de la normalización
figura 2 puede apreciarse que un OMV no dispondría de ninguno
de los elementos de la RAN y tampoco los del núcleo de red,
al menos, no todos (por ejemplo, sólo dispondría de las bases
de datos, pero no de los nodos, o carecería de ambos).
Finalmente, hay una seña de identidad del GSM de la que
resulta obligado dejar constancia: la personalización de los
terminales. Desde el principio esta fue una opción elegida en
la norma, que consiste en el hecho de que se separa el terminal, el equipo en sí, del usuario, de suerte que no es sino
a través de la inserción en aquel del denominado módulo
SIM (Subscriber Identity Module), como el usuario personaliza el terminal como suyo. Esta es una posibilidad que no se
encuentra en sistemas de la misma generación, como por
ejemplo el IS-95 estadounidense, y que da más flexibilidad
al servicio, al no ligarlo con el terminal.
Evolución del GSM: GPRS y EDGE
Superada la fase inicial de despliegue de redes e implantación del servicio en cada vez más capas de la sociedad, operadores y fabricantes se dedicaron a una labor de constante
mejora y enriquecimiento de la norma, aprovechando el
nuevo entorno que brindaba el ETSI. Una norma abierta y
libre, por el que nadie había de pagar para su utilización e
implementación, ni tampoco por su acceso, limitado solamente por la capacidad de acarrear y almacenar la gran cantidad de papel asociada al mismo (todavía no existían ni la
Internet ni las versiones en red). En este sentido, es preciso
señalar que lo que hizo el ETSI fue, por un lado, tratar de
adecuar la norma a las exigencias de la sociedad y de los
usuarios, que, una vez accedieron al servicio GSM, fueron
demandando más calidad, capacidad (sobre todo en datos)
y cobertura, y menores tarifas, así como que el servicio vocal
se fuera pareciendo lo más posible al de la telefonía fija (con
los mismos servicios suplementarios, de red inteligente, etc.).
Y, por otro lado, ir mejorándolo para lograr una operación
más eficiente y escalable a medida que su éxito iba creciendo. Sin embargo, una idea debe de quedar clara: el germen,
el nacimiento del GSM, no reside en una demanda de la sociedad, sino en una iniciativa del sector, que, conocedor de
las nuevas posibilidades tecnológicas (digitalización, procesamiento, miniaturización…) apuesta por desarrollar y ofrecer a la sociedad un nuevo sistema. Es lo que se puede resumir en la frase atribuida a Henry Ford: “Si hubiese
preguntado a la gente por lo que quería, me habrían contestado que caballos más rápidos”.
La lista de elementos que fueron engrosando la norma es
demasiado prolija para enumerarla aquí, amén de que la
aceptación de que gozó cada uno de ellos fue desigual. Por
ello, solo se incluirán un par de ejemplos relevantes. En cualquier caso, antes de hacerlo merece la pena recalcar la dinámica de progreso de la norma GSM: se parte de una versión
inicial y luego se van generando versiones con adiciones y
mejoras (sistemas que en la prensa se suelen designar como
los “decimales” de la generación, por ejemplo, la 2.5 G),
hasta un punto en que la norma ya no da más de sí y es preciso pasar a uno nuevo. Esta dinámica es la que de hecho va
a seguirse en la siguiente generación, como se verá más adelante, y la que previsiblemente se seguirá en las futuras.
• GRPS. A la hora de seleccionar algunas de las mejoras más
significativas del GSM, probablemente la que debe figurar
en primer lugar es el GPRS (General Packet Radio Service).
Su inclusión respondió al intento de enmendar una carencia de las versiones primeras del GSM: su orientación a la
voz. Esta circunstancia se tradujo en una escasa capacidad
para la transmisión de datos (el servicio inicial de datos
contemplaba tan solo una velocidad de 9,6 kbps) y, lo que
es peor, soportada mediante el modo circuito de transmisión. Un modo en el que, como su nombre indica, cuando
se abre una conexión se establece un circuito entre emisor
y receptor en tanto que ambos extremos decidan mantener viva la conexión, de suerte que la tarificación se hace
por el tiempo que el circuito está reservado.
Dadas las condiciones técnicas de aquel entonces (la voz
sobre paquetes no era posible), esto era casi obligado para
157
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
la voz al objeto de conseguir la inmediatez de transmisión
que requiere dicho servicio; pero en el caso de los datos
era una forma muy onerosa de funcionar: el usuario pagaba por todo el tiempo que el circuito estaba disponible,
normalmente bastante superior al tiempo durante el que
lo utilizaba (piénsese por ejemplo en alguien que se conecta para bajarse el correo, lo lee, escribe varios correos
y luego los envía), y a su vez el operador se veía imposibilitado de aprovechar esos recursos durante los intervalos
de inactividad. Para resolver este problema se especificó
el modo paquete (GPRS), gracias al cual se hizo posible
utilizar los recursos solo cuando eran necesarios, liberándolos para otras transmisiones cuando no eran requeridos.
Con ello también se accedió a un nuevo esquema tarifario, basado en los volúmenes de información transmitidos
en lugar del tiempo de establecimiento de la conexión, ya
que ahora no había un circuito (recursos cautivos) ligado
a la misma.
LOS DATOS Y LA GLOBALIZACIÓN: LA TERCERA
GENERACIÓN (3G)
Una conclusión que es fácil extraer de la historia del GSM
descrita en el punto anterior, es que se trata de un sistema
pensado originariamente para el servicio de voz, que posteriormente evolucionó hacia una mayor prestación de servicios
de datos (modo paquete, mayores velocidades…). Una estrategia que le permitió responder durante un tiempo a la
demanda creciente de servicios de datos en movilidad, pero
que venía limitada por el propio diseño del sistema; de forma
que, tarde o temprano, se haría necesario el salto hacia una
nueva generación de redes, dotadas “de serie” con servicios
de transmisión de datos suficientemente potentes. Esta fue
básicamente la motivación de la siguiente generación de sistemas móviles, la tercera (3G).
Génesis de la 3G: IMT-2000 y espectro asociado
• EDGE. Otra de las características iniciales del GSM que se
reveló como una carencia, el tope de velocidad de datos,
también fue objeto de varios cambios en la norma. Uno
de ellos el denominado EDGE (Enhanced Data rates for
GSM Evolution), que supuso el paso de métodos de modulación binarios, donde los niveles discretos de la señal
digital moduladora son dos (1 y 0), a otros multinivel o de
varios niveles (siempre una potencia de 2, de manera que
con 2 n niveles la velocidad se multiplica por n con respecto
a un régimen binario, puesto que con cada nivel es posible
designar n bits). Con ello se consiguió elevar las velocidades del sistema, aunque solo para canales radio con calidad suficiente, puesto que un inconveniente de las modulaciones multinivel para casi todos los métodos de
modulación (y este era el caso del usado en el GSM) es
que, a mayor número de niveles, mayor vulnerabilidad al
ruido (el rango de variación de la señal digital se fragmenta en más escalones, más cercanos entre ellos, y por tanto
sujetos a errores en la recepción con menor cantidad de
ruido que en el caso binario).
158
La gestación de la 3G presentó varios rasgos netamente diferenciales. Uno de ellos, la definición de sus líneas maestras
con carácter global dentro de un organismo de rango mundial. En efecto, si se repasa el punto anterior, se concluye
que el GSM fue una iniciativa regional (europea), diseñada
primero en la CEPT y luego en el ETSI, de manera que sus capacidades y principales rasgos definitorios fueron establecidos en el seno de estas organizaciones regionales. Otros sistemas parejos en otras partes del mundo (EEUU, Asia…) se
definieron mediante procesos parecidos, dentro de sus respectivas organizaciones territoriales. En el caso de la 3G, se
decidió dar un salto e intentar definir el marco general de
esta nueva generación en un organismo como la UIT (Unión
Internacional de Telecomunicaciones), un organismo de las
Naciones Unidas especializado en las telecomunicaciones.
Dicho marco tomó la forma de un conjunto de Recomendaciones e Informes. En ellos se contendrían cuestiones como
los requisitos mínimos, las bandas de frecuencia candidatas
para su despliegue, estudios de compatibilidad con otros
La telefonía móvil o el triunfo de la normalización
sistemas en dichas bandas, cantidad de espectro necesario, etc.
Al concepto así definido se le dio el nombre de IMT-2000
(International Mobile Telecommunications). La cifra 2000 tenía
el doble significado de designar la primera banda de frecuencias en la cual se desplegarían estos sistemas (2.000 MHz)
y el año en el que debían estar disponibles las Recomendaciones e Informes correspondientes. Nótese que IMT-2000
no se corresponde con un conjunto de especificaciones ni
con una tecnología determinada, sino con un marco general en el que pueden entrar y encajar varias tecnologías,
especificadas ya por sus correspondientes organizaciones
regionales de normalización.
Pero, más allá de esta diferencia, se introdujo otra de no
menor calado en la 3G: la selección de las tecnologías aptas
para cumplir con el marco IMT-2000 también en un entorno
consensuado y global, de nuevo el de la UIT. Así, se estableció un procedimiento para presentar candidaturas de tecnologías radio (entendiendo que, luego, alrededor de ellas se
especificaría la red completa), al que seguiría otro de evaluación de las mismas (pero no por la UIT, sino individualmente
por aquellos de sus miembros que deseasen hacerlo, bien en
solitario, bien en grupo con otros); posteriormente, todos los
resultados de la evaluación se sometieron a análisis en la UIT,
de forma que, tras una fase de consenso, se terminó seleccionando un grupo de cinco tecnologías basadas en redes
terrestres. Una de ellas, el UMTS (Universal Mobile Terrestrial
System). En realidad son más tecnologías, puesto que el IMT2000 comprende de hecho dos grupos: el de redes terrestres
y por satélite, si bien este capítulo se centra solo en las primeras. En teoría, el proceso está abierto a incorporaciones
en cualquier momento, y así ha ocurrido por ejemplo con el
grupo del satélite. Sin embargo, en el caso de las redes terrestres el repertorio de tecnologías ha permanecido muy estable hasta 2007, momento en que se añadió Wimax móvil
(802.16e) como sexta tecnología IMT-2000. El conjunto de
interfaces radio admitidas como parte de IMT-2000 se recoge en la Recomendación M.1457 de la UIT. Como se verá
más adelante, en el punto sobre la génesis del UMTS, cada
una de estas tecnologías fue propuesta y especificada por
un consorcio de organizaciones de normalización o de cooperación industrial.
En suma, las líneas anteriores muestran una manera de hacer
las cosas sensiblemente diferentes de la 2G, donde aparece
un grado de colaboración internacional que no existía anteriormente. Bien porque hay un convencimiento de sus ventajas tras las experiencia del GSM, bien porque, no habiéndolo, existe en cambio un temor a verse fuera de un nuevo
caso de éxito como el del GSM.
Otro aspecto interesante de la 3G es el hecho de que se
apoyó en bandas de frecuencias que la UIT intentó atribuir
al servicio móvil con rango mundial. La primera banda, acordada en la Conferencia Mundial de Radio del año 1992, fue
la de 2.100 MHz y en este sentido el éxito fue parcial, por
cuanto en EEUU la banda ya estaba ocupada en gran medida. Posteriormente, en la Conferencia Mundial del año 2000,
se atribuirá la banda de 2.600 MHz como ampliación del sistema. Nótese la antelación en la atribución de las bandas
(elaborar las normas y liberar las bandas de otros servicios
lleva su tiempo), que son adjudicadas a servicios, no a tecnologías. Sobre este punto merece la pena comentar que
de la 2G a la 3G ha variado mucho la forma de gestionar el
espectro radio. De un marco rígido, muy reglamentado y
denominado en la literatura como de reglamentación y control
(command and control), se ha ido pasando a otro flexible,
definido por tres ejes:
• Neutralidad tecnológica: enfocado a que, una vez decidido qué servicio se atribuye a una banda, no se impongan
restricciones a las tecnologías con las que soportar dicho
servicio; dicho de otra manera, algo totalmente opuesto
a lo que hizo la Comisión Europea con la Directiva GSM:
lejos de imponer tal o cual tecnología, ahora lo “políticamente correcto” es no establecer restricciones a ese
respecto. Un ejemplo de ello lo constituye el denominado
refarming (reorganización) de la banda de 900 MHz. Inicialmente esta banda se ligó en Europa —tal y como se
mencionó en el apartado de la 2G— a la tecnología GSM,
159
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
por medio de una Directiva. Sin embargo, recientemente
esta Directiva ha sido modificada (Directiva 2009/114/CEE)
para abrir el uso de esta misma banda a cualquier tecnología para la que se hayan establecido unos criterios técnicos de coexistencia con el GSM (el UMTS cumple, por
cierto, este requisito).
• Neutralidad de servicios: un paso más allá. Ahora se trata
de dejar abierta la cuestión de para qué utilizar una
banda de frecuencias (esto es, a qué servicio atribuirla).
Un ejemplo de ello es el denominado dividendo digital,
que no es sino la cantidad de espectro que sobra tras digitalizar el servicio de televisión (recuérdese que, tal y
como se vio en el caso de la 2G, la digitalización supone
la ventaja de una menor ocupación espectral), una porción del cual se ha abierto en Europa para el servicio
móvil, además del de radiodifusión.
• Mercado secundario: consiste en un marco en el que los
agentes con derechos sobre las bandas pueden comerciar
entre ellos, abriendo la puerta a que el mercado encauce
el uso del espectro hacia la máxima eficiencia. Ello no implica que el regulador sea ajeno a este mecanismo; antes
bien, ha de intervenir para garantizar el respeto a ciertas
reglas del juego como son la transparencia (a través de un
registro público de las transacciones habidas), la evitación
de maniobras de acaparamiento (esto es, acumular derechos sin utilizarlos, a la espera de revalorizaciones, lo que
va contra la idea del uso eficiente del espectro) y la equidad (evitando, por ejemplo que, quien haya accedido a
los derechos en condiciones especialmente favorables, por
razones históricas, no consiga beneficios por la venta de
los mismos inasequibles a los demás).
La idea detrás de toda esta flexibilidad en la gestión del espectro es la de permitir que sea el mercado quien decida la
forma en que se utiliza (con qué tecnología, para qué servicio), como agente capaz de maximizar la eficiencia en su uso.
El concepto europeo que pretende incorporar estos principios de gestión flexible del espectro se designa por las siglas
160
WAPECS (Wireless Access Policy for Electronic Communications Services), que hace referencia a una política para
los sistemas de acceso radio, que en la práctica incorpora los
principios antes mencionados.
Sobre el asunto de la coexistencia con otros sistemas, es preciso llamar la atención sobre las ventajas que supone para
una tecnología ser catalogada como IMT-2000, ya que ello
supone que se analizan y establecen los requisitos de coexistencia entre tecnologías IMT-2000 y con otras vecinas en frecuencia. Algo que no es baladí, y que supone que estas tecnologías llevan incorporados “de serie” dichos requisitos.
Recuérdese que, por ejemplo, la modificada Directiva GSM,
antes citada, abre el uso de la banda de 900 MHz a otras
tecnologías diferentes de GSM, pero a condición de que posean unos requisitos de coexistencia con él. Por tanto, ser
miembro del club IMT-2000 aporta interesantes ventajas
también desde el punto de vista de acceso al espectro.
Especificación del UMTS
Como se ha dicho, no es a la UIT a quien compete especificar
cada una de las tecnologías IMT-2000. Puede pensarse que
esto es algo que han de realizar los organismos regionales
de normalización. Sin embargo, esto no es del todo cierto
debido al carácter global del proceso de normalización de la
3G. En efecto, ocurre que algunas tecnologías IMT-2000 son
el resultado de una integración de varias propuestas provenientes de diferentes lugares del mundo; es el caso del
UMTS, que al final devino en una fusión de propuestas de
Asia y Europa, con colaboraciones de organismos de otras
zonas, como EEUU.
Ello hizo que la responsabilidad de su especificación inicial y
su posterior evolución quedase en manos de un consorcio
multinacional de organismos de estandarización, denominado
3GPP (3rd Generation Partnership Project o Proyecto conjunto
para la tercera generación), del que formaba parte el ETSI y
a través del cual Telefónica participó en dicha especificación,
La telefonía móvil o el triunfo de la normalización
como parte de su apuesta por UMTS como tecnología IMT2000 a desplegar en sus redes. Es, pues, tarea de este proyecto conjunto la elaboración de las especificaciones detalladas del UMTS (también las del GSM, que adoptaron el
nombre de GERAN: GPRS EDGE Radio Access Network). Y
como matiz adicional cabe señalar que, a su vez, son las
organizaciones miembros del 3GPP las que formalmente
publican las normas del UMTS, trasponiendo las especificaciones a su ámbito regional (por ejemplo, el ETSI al europeo)
y eventualmente particularizándolas para alguna peculiaridad (como puede ser la interconexión con una red concreta
de su región).
El 3GPP no es, en cualquier caso, el único proyecto conjunto
de especificación nacido al calor de IMT-2000; ya existe otro
con el poco original nombre de 3GPP2, enfocado a otra tecnología de la familia, en este caso la CDMA-2000 (Code Division Multiple Access). Por cierto, al hilo de este último nombre, es conveniente decir que, en lo que a UMTS se refiere,
la tercera generación supuso el abandono del TDMA y la
adopción de una nueva técnica de acceso múltiple: CDMA,
adoptada también por otros sistemas IMT-2000, como es el
caso del antes mencionado CDMA-2000.
En resumidas cuentas, en la técnica CDMA lo que se hace es
multiplicar la señal digital en banda base por una de velocidad sensiblemente mayor, con lo que se consigue una señal
digital moduladora de bastante más ancho de banda que la
de la de banda base, cuya velocidad, lo mismo que la de la
secuencia multiplicadora, no se expresa en bps (bits por segundo) sino en cps (chips por segundo).
Dado que la señal modulada de radiofrecuencia (RF) que se
transmite al aire posee un ancho de banda similar en orden
de magnitud al de la señal moduladora, lo que se consigue
es que dicho ancho de banda sea mucho mayor que el que
se obtendría modulando directamente con la banda base,
lo que le confiere interesantes propiedades de inmunidad a
los desvanecimientos multitrayecto típicos del canal radio,
amén de otras ventajas que no es posible describir aquí en
detalle. Cada transmisión se multiplica por una secuencia
diferente de la de las otras con las que comparte el espacio
radioeléctrico. En recepción se obtiene, tras la demodulación, una suma de señales digitales correspondientes a todas
las transmisiones existentes simultáneamente en el aire, dentro de una misma frecuencia. Esta suma se multiplica por la
secuencia de la transmisión correspondiente y, merced a las
propiedades de las secuencias, en el caso de la transmisión
afectada por dicha secuencia se recupera la señal en banda
base, mientras que para las restantes se da lugar a una señal
muy similar al ruido. Por tanto, en CDMA las otras comunicaciones que comparten las frecuencias con la de interés
aportan una cierta cantidad de ruido (o lo que es lo mismo,
es una técnica de acceso que no ofrece ortogonalidad perfecta, a diferencia de FDMA o TDMA).
Es interesante también mencionar que, a diferencia del GSM,
la normalización de UMTS fue un proceso dirigido en su
mayor parte por los fabricantes de equipos de red, y no por
los operadores. Las razones de ello hay que buscarlas en el
cambio de papel que el nuevo escenario de total competencia trajo para los operadores, sometidos a una fuerte presión
para el ajuste de los costes en el despliegue y mantenimiento
de sus redes, así como para potenciar la comercialización de
sus servicios, todo ello en detrimento del protagonismo de
la normalización, a la que no podían dedicar ya tanta atención ni recursos como en la época del GSM. En su lugar, los
fabricantes, con el incentivo de introducir en la norma sus
patentes y desarrollos, retomaron el testigo del liderazgo.
Una consecuencia de esta situación ha sido la preponderancia que las cuestiones y las disputas ligadas a los derechos
de patente y propiedad intelectual han venido cobrando a
partir de la norma UMTS.
LA BANDA ANCHA MÓVIL:
PRESENTE Y FUTURO
El presente de la BAM (Banda Ancha Móvil) pasa, en Europa,
por el despliegue de UMTS y su evolución. Actualmente se
161
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
puede decir que en la mayor parte de Europa la tecnología
UMTS ha alcanzado una fase de madurez, y que las dudas y el
escepticismo sobre su aceptación se han superado. La figura 3
proporciona una idea del momento en el que se encuentra
el mercado de los servicios fijos y móviles en el mundo 2. Se
aprecia un hito relevante de la telefonía móvil cuando, alrededor del año 2002, superó en penetración a la telefonía fija.
Y se observa también cómo en 2008 se produjo el mismo
efecto en el caso de las líneas de banda ancha.
ancha dan fe asimismo las conclusiones del Informe 2 de la
Comisión sobre la banda ancha y el crecimiento digital establecida por la UIT y la UNESCO, donde se citan estimaciones
del Banco Mundial 3 sobre el impacto en el PIB de una mejora
del 10% en la cobertura de diversos servicios de telecomunicaciones. La figura 4 recoge estas conclusiones gráficamente.
En ella puede apreciarse que la banda ancha es, por encima
del servicio fijo, móvil e Internet, la que consigue un mayor
impacto (del orden de 1,38 puntos del PIB para los países
desarrollados).
Porcentaje de incremento del PIB
por un incremento del 10%
en la cobertura de diversos servicios
1,5
Economías con altos ingresos
Economías con medios y bajos ingresos
1,0
0,5
0,0
Fijo
Móvil
Internet
Banda ancha
Fuente: Report 2. Broadband: A Platform for Progress.
International Telecommunication Union (ITU). 2010.
Fuente: Global ICT developments, 2000-2010. ICT Statistics.
International Telecommunication Union (ITU). 2010.
Figura 3. Evolución del mercado TIC en el mundo
La pendiente de crecimiento de la telefonía móvil sugiere la
proximidad con una fase de madurez, con crecimientos más
moderados; en cambio, la de la banda ancha está en sus comienzos, camino seguramente de una pendiente mucho más
pronunciada. De la importancia de los servicios de banda
2
Base de datos de indicadores de la UIT, http://www.itu.int/ITU-D/
ict/statistics/index.html.
3
Banco Mundial, citado en el Report 2 de la Broadband Comission
de la UIT, http://broadbandcommission.org/outcomes.html.
162
Figura 4. Impacto en el PIB de un incremento del 10% en la cobertura
de diversos servicios de telecomunicaciones
Como consecuencia de lo expuesto anteriormente, la agenda
de los operadores no tiene ya como punto prioritario el despliegue y consolidación de la tecnología, pero sí otras cuestiones de gran calado, como pueda ser la consecución de un
modelo de crecimiento que permita acompasar el aumento
del tráfico con el de los ingresos. Algo que se producía de
forma natural en el caso de la voz (ya que se tarificaba por
tiempo de conversación), pero no en el de los datos, donde
la influencia del modelo seguido por las redes fijas, basado
en tarifas planas, suscita el riesgo de exigir inversiones cada
vez mayores en infraestructura de red sin contrapartidas
equivalentes en los ingresos. O sea, se ha producido ya un
desacoplamiento entre el tráfico y los ingresos, como se
La telefonía móvil o el triunfo de la normalización
Tráfico
Desacoplo tráfico/ingresos
Dominio voz
Ingresos
Dominio datos
tiempo
Figura 5. Desacoplamiento tráfico-ingresos
muestra en la figura 5 4. Sin pretender entrar en consideraciones
con respecto a los modelos tarifarios, lo cierto es que desde
el punto de vista del despliegue de red, y como parte de la
solución a este problema, se plantea el reto de conseguir estrategias y mecanismos de incremento de capacidad y velocidad con los mínimos costes incrementales.
En cualquier caso, hay que tener presente que el crecimiento
del tráfico no va a venir condicionado solamente por las tarifas. Así, aparecen en la ecuación factores como:
• La evolución de los terminales.
• Los ecosistemas de aplicaciones desarrollados por terceros.
• El aumento en el uso de terminales con altas capacidades
multimedia y, en general, de aplicaciones demandantes
de servicios de datos (smartphones, por ejemplo).
• Las comunicaciones máquina-máquina (M2M).
• Las conexiones con redes de sensores (o su incorporación
al teléfono móvil).
• La prestación de servicios móviles, no ya en la pantalla de
los terminales móviles, sino también en la de TV o en la
del ordenador.
4 Del libro LTE: Nuevas tendencias en comunicaciones móviles, de
Ramón Agustí y otros.
Y todo ello sin olvidar una tendencia que ya se apunta actualmente, como es la de los servicios y contenidos en “la
nube”, conforme a la cual se avanzaría hacia un nuevo paradigma donde los usuarios no almacenarían ni contenidos
ni aplicaciones ni ficheros en sus terminales u ordenadores,
sino que dispondrían de ellos en ubicaciones remotas y accesibles a través de conexiones, móviles o fijas, mediante las
que podrían recuperar el contenido o disfrutar de los servicios asociados a ellos. Semejante modelo habría de descansar, además de sobre ciertas garantías de confidencialidad y
seguridad, sobre conexiones de velocidad y calidad suficientes, lo que incide directamente en la necesidad de soportar
un mayor tráfico con velocidades suficientemente altas como
para olvidarse del almacenamiento local.
Otros desafíos pendientes son, por supuesto, la eficiencia
energética y el impacto ambiental; en este último caso, no
solo por motivos estéticos, sino también de impacto social,
por cuanto la percepción del ciudadano sobre la inocuidad
o perjuicio de las emisiones radioeléctricas de estas redes está
—se quiera o no— ligada a dicho impacto visual (a mayor impacto, peor percepción). La cuestión es especialmente importante si se tiene en cuenta que la cobertura para el servicio
de datos va a requerir de una importante densificación de
las redes móviles.
Algunas contribuciones a la solución de estos retos vienen
de la mano de la evolución de la norma UMTS y del salto a
la siguiente generación. En especial en cuanto a las mejoras
en la velocidad y a la introducción de nuevas arquitecturas
que permitan el soporte de los servicios de datos de una manera más escalable y eficiente. En este sentido cabe preguntarse si estas mejoras son una respuesta a una demanda o
son fruto de otras motivaciones. Lo cierto es que puede decirse que la industria (sobre todo los fabricantes) intenta ir
por delante de la demanda y anticiparse, diseñando sistemas
para una previsible mayor demanda (a veces con excesiva anticipación, como demuestra la fase inicial del UMTS). En el
apartado siguiente se hará una semblanza de las mejoras
más destacables.
163
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Evolución a corto plazo de la banda ancha
móvil en Europa
Retomando por el momento la cuestión del presente de la
BAM y su evolución, se puede decir que actualmente la mayoría de las redes europeas se encuentran en un estado de aprovechamiento de la norma UMTS, basado en canales de 5 MHz,
como forma de crecer en capacidad y velocidad de manera
económicamente escalable. De las primeras fases se ha pasado
a la paulatina introducción de un primer paquete de mejoras
englobado bajo las siglas HSPA (High Speed Packet Access),
que incluye diversas mejoras tendentes a proporcionar mayores
velocidades; entre ellas, el uso de modulaciones multinivel (en
línea con lo que en su momento se hizo en GSM con el EDGE),
que en este caso llegan incluso a 16 niveles, lo que supone
multiplicar la velocidad por cuatro con respecto a modulaciones
binarias (si bien con el matiz de que semejantes aumentos
solo se consiguen para enlaces radio de buena calidad, esto
es, para radios de cobertura bastante cercanos a la célula o,
lo que es lo mismo, para porcentajes bajos de la superficie
de las células). HSPA puede desglosarse en mejoras para el
enlace descendente, agrupadas bajo las siglas HSDPA (High
Speed Downlink Packet Access) y para el ascendente, que en
este caso se engloban en las siglas HSUPA (High Speed
Uplink Packet Access).
Más allá en el horizonte se encuentra otro paquete de mejoras denominado HSPA+, que promete nuevos incrementos
de velocidad y reducción de latencias, llegando hasta modulaciones QAM de 64 niveles y el uso opcional de técnicas
MIMO (comentadas más extensamente en el apartado “Génesis de la 4G y LTE como antesala de la misma”, al hablar
de la evolución a largo plazo de UMTS). HSPA+ puede considerarse como el conjunto de soluciones técnicas que permiten sacar el máximo partido a la norma UMTS conforme
a la técnica de acceso CDMA. Esta circunstancia, sin embargo, no es sinónima del hecho de que más allá de UMTS
HSPA+ haya forzosamente que dar el salto a la cuarta generación (4G). En efecto, lo que ha hecho el 3GPP para ir más
allá del UMTS es precisar lo que ellos definen como la evo164
lución a largo plazo del UMTS (LTE o Long Term Evolution),
que no es otra cosa que identificar una nueva interfaz radio,
basada en una nueva tecnología de acceso. Se abandona por
tanto el CDMA y se pasa a otra solución, en este caso la denominada OFDMA (Orthogonal Frequency Division Access),
que es la que utilizan también sistemas como Wimax móvil
(802.16e).
OFDMA es una suerte de segunda juventud del viejo FDMA,
basado en situar cada transmisión en una frecuencia diferente. Solo que ahora lo que se hace es repartir la señal en
banda base entre un conjunto de subportadoras. Así, si por
ejemplo se desea transmitir una señal digital de 100 Mbps,
y se dispone de 100 subportadoras, cada una de ellas se
modularía con una señal de 1 Mbps. La ventaja con FDMA
consiste en que ya no es necesario separar en exceso las
subportadoras debido a que, merced a que sus frecuencias
son múltiplos enteros de una misma frecuencia, se consigue
que los espectros de todas ellas se puedan situar muy cerca,
de tal manera que los máximos de cada una coinciden con
los nulos de los de las demás. Esta imbricación ortogonal
de los espectros, sin que se interfieran los unos con los
otros, es lo que se esconde detrás de la “O” de OFDMA, y
es una de sus señas de identidad. De acuerdo con esta manera de organizar las transmisiones, a cada usuario en un
momento determinado se le puede asignar un conjunto de
subportadoras durante un lapso de tiempo dado, lo que en
la jerga de la norma se denomina como chunk (pedazo);
por tanto, ahora el sistema goza de dos parámetros para
organizar las transmisiones: las subportadoras y las ventanas de tiempo.
Génesis de la 4G y LTE como antesala de la
misma
LTE es por tanto una nueva interfaz radio, un nuevo sistema
que, sin embargo, no cabe calificar como de 4G, sino de 3G.
De hecho, la UIT lo considera una evolución de la interfaz
UMTS de IMT-2000. Los cambios que supone LTE van más
La telefonía móvil o el triunfo de la normalización
allá del simple incremento de velocidad, ya de por sí importante. De entrada, es una norma capaz de manejar canales
sensiblemente mayores o menores que los del UMTS (5 MHz),
ya que está pensada tanto para despliegues en zonas donde
solo se disponga de retazos de bandas, como para otras
donde exista la posibilidad de canales de hasta 20 MHz.
Las mayores velocidades se consiguen, obviamente, con
estos últimos canales de 20 MHz. Además recurre a las técnicas conocidas como MIMO (Multiple Input Multiple Output),
basadas en el establecimiento de varios canales simultáneos
mediante varias antenas de emisión y recepción (de ahí el
nombre de MIMO). La condición necesaria para sacar partido
a esta técnica es la no correlación de las señales de cada una
de las antenas, lo que puede exigir cierta separación espacial,
algo especialmente problemático en ciertos tipos de terminales móviles de tamaño reducido. Por otro lado, la necesidad de más antenas en las estaciones de base puede suponer, además de un mayor coste de despliegue, un cierto
rechazo social a los emplazamientos, dado el carácter tan
negativo que las antenas tienen sobre la percepción de los
efectos de las emisiones radioeléctricas por una gran parte
de la población. De todas las técnicas aportadas por LTE,
MIMO es seguramente la más gravosa desde el punto de
vista económico, por cuanto obliga a incrementar el número
de elementos radiantes en los emplazamientos y los terminales.
Aunque LTE se inscribe en el mismo proceso de normalización
que el del UMTS, es interesante resaltar que los operadores
han adoptado un papel más activo y vigilante, a través de organizaciones regidas exclusivamente por ellos, como es el
caso del consorcio NGMN (Next Generation Mobile Networks), destinado a definir los requisitos que los operadores
consideran mínimos en las redes móviles de la próxima generación, y a influir en los procesos de normalización con el fin
de conseguirlos. Otra iniciativa también importante es la denominada LSTI (LTE SAE Trial Initiative), destinada a coordinar
las pruebas y ensayos con la tecnología LTE, para así evitar
mensajes confusos sobre el grado de madurez, disponibilidad
y capacidades de la tecnología, enviando una señal clara a la
industria sobre los progresos habidos en su desarrollo.
Asimismo, LTE supone el triunfo de lo que en GSM fue un
añadido posterior: el dominio de paquetes. Y ello es así porque la arquitectura LTE supone el siguiente gran salto cualitativo en la arquitectura de los sistemas móviles de la familia
3GPP, donde desaparecen algunos elementos que hasta
ahora venían siendo habituales: en concreto los controladores de estaciones de base y el dominio de circuitos. Con LTE
toda la información, incluida la vocal, adopta la forma de paquetes de datos y es tratada como tal dentro de un solo dominio, el de paquetes, que constituye el núcleo de red conforme a una nueva arquitectura denominada EPC (Enhanced
Packet Core) o en ocasiones también SAE (System Architecture Evolution).
Las estaciones de base, que en UMTS tienen el nombre de
“nodos B” y en LTE de “e-nodos B” (la “e” es de enhanced)
se conectan, por el protocolo IP, entre sí y a una nube conformada por dos tipos de entidades funcionales (que no tienen, por tanto, que corresponder a plataformas físicas):
• Entidades de gestión de la movilidad o MME (Mobility Management Entity): son nodos de conmutación de paquetes
con capacidades de control e inteligencia relacionada con
los procesos ligados de las redes móviles (derivados de la
movilidad).
• Nodos de anclaje (anchor): constituyen un punto de unión
en las conexiones con otras redes, como puedan ser las de
versiones anteriores del UMTS o de interfaces no 3GPP,
como Wimax móvil, por ejemplo (en realidad, la norma distingue entre unidades de anclaje con redes 3GPP, confiables
porque utilizan los mismos procedimientos de seguridad, y
unidades de anclaje con redes ajenas al estándar 3GPP).
Esta nueva arquitectura simplifica el diseño y se acerca
mucho a la de las redes fijas de paquetes, en lo que sin duda
constituye un intento por adaptarse a los nuevos escenarios
165
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
de servicio que se avecinan, fuertemente volcados hacia la
transmisión de datos. La figura 6 la resume gráficamente.
quienes los pierdan fuera de las opciones a desplegar masivamente la 3G (y en su día la 4G), dado que son las frecuencias por debajo de 1 GHz las que, por su mejor radio de cobertura, posibilitan objetivos de despliegue a porcentajes
elevados de población y de geografía.
¿Es LTE el final de esta historia, al menos por el momento?
Ciertamente no. Y es que se puede dar cuenta ya de los primeros pasos hacia la 4G, que seguirá un esquema muy parecido al de la 3G:
• Definición del marco general en la UIT, que ahora toma
el nombre de IMT-ADVANCED.
• Selección en ella de las tecnologías parte del mismo.
• Especificación posterior en los organismos de normalización.
Figura 6. Arquitectura EPC del LTE
En general, y en España en particular, las redes LTE se desplegarán con canales de 15 o 20 MHz, casi con toda seguridad primero en la banda de 2600 MHz (la de extensión de
IMT-2000), y más adelante en la de 1800 MHz (en su día la
de extensión de GSM). Con el tiempo también lo harán en
las bandas más bajas (800 y 900 MHz), si bien no con canales
de 20 MHz. Sobre este último punto es interesante resaltar
que, en lo que a oferta de nuevas bandas se refiere, se tiende
hacia frecuencias cada vez mayores, por ser donde hay posibilidades de oferta. Piénsese si no en la secuencia temporal
desde la banda de 900 MHz: 1.800 (ampliación de GSM),
2.100 (despliegue inicial de UMTS), 2.600 (ampliación de
UMTS con LTE) y 3500 MHz (LTE-A). Los casos del refarming
de la banda de 900 MHz y del dividendo digital en 800 MHz
son excepcionales, y no es previsible que surjan oportunidades como estas, por debajo de 1 GHz, a corto y medio plazo.
Son, en definitiva, dos trenes que, de no cogerse, dejarán a
166
La decisión sobre este esquema vino precedida de vivas discusiones en el seno de la UIT, con dos posturas enfrentadas:
la de los que pretendían de la UIT un mero papel testimonial,
a cargo simplemente del trámite de poner el sello IMT-A en
las propuestas que la industria le presentase; y la de los que
pretendían continuar en la línea de IMT-2000. Los primeros
alegaban que el marco de la 3G era demasiado resistente al
cambio, y que en cierto modo hurtaba propuestas innovadoras, mientras que los segundos hacían énfasis en las economías de escala y en el peligro de una excesiva atomización
de las tecnologías. Finalmente, y como propuesta de consenso, se retuvo el esquema 3G, si bien haciéndolo más abierto
a futuras incorporaciones.
Los objetivos globales de esta nueva generación se reflejan
gráficamente en el conocido como “diagrama de la camioneta” (van diagram), mostrado en la figura 7 5. Puede observarse
en ella los ambiciosos objetivos para IMT-A, que están en torno
a los 100 Mbps (para toda la célula) en pleno movimiento (con
usuarios moviéndose hasta a 250 km/h), y 1 Gbps en situaciones estáticas. La figura ilustra también (es uno de sus méritos)
5
Elaborada a partir del documento IMT-ADV/1-E de la UIT.
La telefonía móvil o el triunfo de la normalización
la diferencia con las prestaciones esperables
de las evoluciones de los diferentes sistemas
IMT-2000, como LTE.
En cualquier caso, lo cierto es que, tras la
fase de convocatoria, análisis y selección,
son solamente dos las tecnologías terrestres seleccionadas: LTE-ADVANCED y WIRELESSMAN-ADVANCED (MAN es el acrónimo de Metropolitan Area Network). La
primera es una evolución de LTE (también
conocida como la versión 10 de la norma
UMTS) bajo tutela del 3GPP, y la segunda
una evolución de Wimax móvil, designada
también como 802.16m, elaborada por el
Fuente: reelaboración a partir de la figura de la ITU.
IEEE (Institute of Electrical and Electronics
Figura 7. Diagrama de la camioneta sobre objetivos globales de IMT-A
Engineers). Si se compara con los comienzos
de la 3G, cuando fueron cinco las tecnologías terrestres, se aprecia que pese a todo ha primado el
al lanzamiento comercial. Todo ello podría muy bien situar
pragmatismo de intentar reducir las opciones y apostar por
la aparición de los primeros sistemas comerciales 4G en el
tecnologías con cierto recorrido previo. El tiempo dirá si a
año 2015 como pronto. En este sentido es preciso decir que
estas dos se le añadirá alguna más o si al final quedará una
el espectro ya está listo, puesto que en la Conferencia Munsola. Lo cierto es que, hoy por hoy, la superioridad en desdial de Radio de 2007, la UIT identificó la banda de 3.500
pliegues del UMTS+LTE es abrumadora frente a la de Wimax
MHz para este tipo de servicios (sin contar con que, merced
móvil, si se tienen en cuenta los datos que ofrece la GSM-A
al principio de neutralidad tecnológica, será posible en su
en su página web (www.gsacom.com), que cifran las susmomento migrar las tecnologías existentes en otras bandas
cripciones mundiales de GSM+UMTS en el 89,7% del total,
del servicio móvil hacia IMT-A).
con cerca de 4,45 millardos de abonados en todo el mundo,
ostentando los sistemas UMTS cerca del 75% del mercado
A modo de resumen final, la tabla 1 muestra las diferentes cade 3G en el mundo, de los que cerca del 99% han introdupacidades ofrecidas por el GSM, UMTS y LTE conforme a
cido ya el paquete de mejoras HSPA.
una evaluación realizada por el 3GPP y Telefónica O2, incluida en el documento del UMTS FORUM “Recognising the
LTE-A es, por tanto, la última criatura derivada de la línea
promise of Mobile Broadband”. Se incluyen también los obevolutiva iniciada en su día por el GSM. Es el punto donde
jetivos previstos para IMT-ADVANCED, y LTE-A, todavía por
se tiene que finalizar esta historia, puesto que más allá no es
confirmar. Asimismo, otras interesantes novedades que se
posible vislumbrar lo que deparará el sector. El calendario espretenda que incluya LTE-A son los canales de… ¡100 MHz!,
tablecido por la UIT fija 2011 como el año objetivo para la
la radio cognitiva (la posibilidad de utilizar dispositivos que
disponibilidad de las Recomendaciones e Informes IMT-ADsean capaces de detectar bandas de frecuencia inactivas y
VANCED. A partir de aquí habría que desarrollar las especiutilizarlas, abandonándolas en cuanto adviertan que los
ficaciones, desarrollar los equipos, hacer pruebas y proceder
usuarios con prioridad desean usarlas) o el uso de unidades
167
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Tabla 1. Valores significativos de las principales tecnologías 2G-3G y 4G
Tecnología
2G
3G
GSM/GPRS
EDGE (MC-9)
Ancho de banda
de la portadora
Velocidad de pico Velocidad de pico
en el enlace (UL)
en el enlace (DL)
ascendente
descendente
Latencia
Espectro
(MHz)
Eficiencia
espectral de
pico (bit/s/Hz)
200 kHz
58 kbit/s
118 kbit/s
114 kbit/s
236 kbit/s
500 ms
300 ms
900/1.800
0,17
0,33 EDGE
W-CDMA
5 MHz
384 kbit/s
384 kbit/s
(2 Mbit/s)
250 ms
900/1.800
2.100/2.600
0,51
HSPA
5 MHz
5,7 Mbit/s
14 Mbit/s
70 ms
800/900
2.100/2.600
2,88
HSPA+
(16QAM)
(64QAM+Dual)
5 MHz
11,5 Mbit/s
28 Mbit/s
(42 Mbit/s)
30 ms
800/900
2.100/2.600
12,5
LTE (Rel. 8)
(2x2 MIMO)
Variable
20 MHz
75 Mbit/s
a 20 MHz
150 Mbit/s
a 20 MHz
10 ms
800/900/1.800
2.100/2.600
16,32
WiMax
802. 11e
10 MHz
70 Mbits/s
70 Mbit/s
134 Mbit/s
50 ms
2.600/3.500
3,7
LTE - Advanced
Variable
100 MHz
>500 Mbit/s
1 Gbit/s
<5 ms
IMT
DL > 30
UL > 15
IMT - Advanced
Variable
100 MHz
270 Mbit/s
675 Mbit/s
600 Mbit/s
1,5 Gbit/s
<10 ms
IMT
DL > 30
UL > 6,75
4G
Fuente: 3GPP/O2.
repetidoras, pensadas para expandir la cobertura en pequeños radios.
Aunque posiblemente es algo que se deduce implícitamente
de todo lo anterior, es interesante señalar la confluencia de
diferentes tecnologías en los sistemas móviles.
Las tecnologías electrónicas (miniaturización, visualización,
semiconductores…), muy ligadas a los terminales móviles, y
las de procesamiento, que entran también en los elementos
de red, permitiendo plataformas más potentes y el uso de
168
nuevos métodos y soluciones inicialmente planteados a nivel
teórico (digitalización, conmutación de paquetes, acceso
múltiple TDMA, CDMA…).
Las tecnologías de red, como pueda ser el modo paquete, y
más específicamente el mundo IP, que las redes móviles han
ido abrazando poco a poco hasta integrarlo y asumirlo en su
arquitectura de futuro, de suerte que, junto con las mejoras
de procesamiento, se hace posible finalmente soportar mediante paquetes incluso los servicios con fuertes requisitos
de interactividad e inmediatez como la voz.
La telefonía móvil o el triunfo de la normalización
Las tecnologías de transmisión, que, como la fibra óptica hoy
día, permiten conectar las estaciones de base con las velocidades y capacidades requeridas por las mayores capacidades
de las interfaces radio.
Las tecnologías radio, mediante las cuales es posible conseguir un aprovechamiento más eficiente del espectro (mayor
eficiencia espectral) así como mayores velocidades y capacidades.
Quizá, de todas estas tecnologías, las que atañen a los terminales móviles sean aquellas que pasan más desapercibidas
en este tipo de trabajos, posiblemente porque se tiende a
hacer más énfasis en la infraestructura de red. Pero lo cierto
es que los terminales son uno de los componentes de la cadena que han experimentado una transformación que, en
muchos aspectos, podría calificarse de espectacular. No solo
en el ámbito del tamaño, donde el grado de miniaturización
es ciertamente notable, sino también en el del procesamiento, de suerte que la potencia de los procesadores converge
cada vez más con la de los ordenadores y las consolas de videojuegos, haciendo que sea difícil trazar ya la frontera entre
ciertos terminales y los ordenadores.
En general, puede decirse que los terminales han ido evolucionando conforme lo han hecho las redes, creciendo en potencia y capacidad de almacenamiento, pero al mismo tiempo
aprovechando este crecimiento para alojar otras funciones
que enriquecen su utilidad. Existe, no obstante, una asignatura pendiente: la vida de la batería, como bien saben actualmente los usuarios de servicios móviles de datos a través de
terminales. Y es que, en cuanto se hace un uso más o menos
intensivo de aquellos, la carga de la batería no supera típicamente las 24 horas. En este sentido, la verdad es que no ha
habido mejoras sustanciales desde la aparición, en los años
90, de las baterías de ión-litio, ni parece razonable esperar
otras de ese calado en el futuro más inmediato.
Por último, y como cierre de este capítulo, quizá lo más pertinente sea terminar con una reflexión en torno a la cuestión
de qué es lo que aporta la 4G y su antesala, el LTE. En realidad, si se examina el camino seguido en la normalización no
hay más remedio que concluir que se ha adoptado un enfoque opuesto al de la 3G: lo que debía ser una evolución (LTE)
del UMTS, es en realidad un salto disruptivo, y lo que debía
ser un salto de este tipo (LTE-A), es en realidad una evolución
de LTE. Por ello, parece razonable hacerse la pregunta ya
desde la irrupción de LTE.
A este respecto, se puede concluir que, en el caso de la 4G,
se intenta ofrecer unas velocidades y capacidades que permitan un nuevo nivel de servicios que el “tuneado” del
UMTS ya no permite, como son los basados en contenidos
multimedia, vídeo, alta definición, realidad aumentada o en
3D, telepresencia, juegos interactivos o contenidos remotos
en la nube. A título de ejemplo, el Informe 2 de la Comisión
UIT-UNESCO sobre la banda ancha estima que, en el ámbito
de la sanidad, se necesitan velocidades de 16 Mbps para soportar servicios avanzados con el fin de apoyar la toma de
decisiones clínicas; de 70 Mbps o velocidades superiores
para consultas clínicas de emergencia por telepresencia; gestión interactiva de imágenes cerebrales en 3D; etc. En su
mayoría, todos estos servicios todavía están por aparecer;
los potenciales usuarios no los demandan porque en muchos casos no tienen a su disposición las herramientas tecnológicas, y por tanto ni se los imaginan como posibles. Pero
eso no evita el hecho de que, en una mayoría de casos, sean
la evolución natural de los servicios actualmente disponibles,
lo que hace razonable esperar que puedan tener una respuesta favorable.
LA IMPORTANCIA DE LA TECNOLOGÍA
NORMALIZADA
A lo largo de esta descripción sobre la evolución de la telefonía móvil se ha podido vislumbrar la importancia de las
normas en ella. Así, del repertorio de sistemas incompatibles
que era la primera generación, se pasó al estándar GSM, que
devino a su vez en los estándares de tercera generación. Un
169
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
hecho que sin duda mueve a la reflexión acerca del papel de
los estándares en el mundo de la empresa, de la tecnología
y de la innovación, en particular en el sector de las telecomunicaciones, que es justamente la intención de este último
apartado. En este sentido, se puede constatar que estos proporcionan múltiples beneficios:
• La adopción de normas en una empresa tiene un efecto
positivo en los negocios, ayudando a mejorar los procesos.
• La normalización es una actividad de cooperación voluntaria entre industria, consumidores, autoridades públicas
y otras partes interesadas en el desarrollo de especificaciones técnicas. La industria utiliza normas para satisfacer
las necesidades del mercado con mayores garantías de
éxito para ella y para los consumidores, así como para asegurar la aceptación de sus soluciones innovadoras y para
facilitar la interoperabilidad. Es interesante señalar que
norma no es sinónimo de abierto, ya que en ocasiones el
conocimiento detallado de ciertas normas y el acceso a
ellas se restringe a determinadas empresas o socios del
grupo promotor del mismo. A ese respecto, mientras la
industria utiliza cualquier estándar, las autoridades públicas prefieren, o incluso se obligan a utilizar, aquellos que
proceden de procesos de elaboración abiertos, transparentes e inclusivos. Además, la referencia a normas y su
uso por las autoridades públicas promueve la competitividad de la industria en beneficio de los consumidores.
• Las empresas más involucradas en la elaboración de normas alcanzan mayores beneficios a corto y largo plazo en
términos de costes y capacidad competitiva que las que
no participan. Además, cuando un órgano legislativo requiere una determinada reglamentación técnica, generalmente acude a las normas. Si una compañía ha sido activa
en la elaboración de normas, puede adoptarlas antes de
que se conviertan en ley, evitando los costes que implicaría
una implementación posterior.
• Las normas son hoy una parte importante del proceso
de transferencia internacional de tecnología, que facilita
el progreso de las naciones y se entiende como esencial
para la competitividad, de suerte que los resultados de
I+D consiguen su máximo valor económico cuando son
transferidos a la propia economía global. Así, en el Reino
Unido se ha calculado que un 13% del crecimiento de
la productividad desde después de la guerra puede ser
atribuido a esta diseminación de la tecnología y del conocimiento.
Por otro lado, y a pesar de su importancia, la actividad de
elaborar normas no está exenta de problemas y limitaciones:
• Diversos estudios realizados sobre el impacto económico
de la normalización sitúan su contribución al PIB en torno al
25% (un resumen de los resultados de estos estudios puede
170
consultarse en la tabla 7 del documento The economic
impact of standardisation: Technological change, standards growth in France. Hakima Miotti. AFNOR. 2009).
• Las normas evitan la dependencia de un único suministrador, porque su disponibilidad abre el mercado. El resultado es una mayor oferta y un aumento de competencia entre suministradores. También se obtiene una
mayor calidad y fiabilidad de los suministradores que las
utilizan. Las normas son también utilizados por las empresas para ejercer presiones hacia la cadena de valor de
suministro.
• Las normas encauzan la innovación y, por tanto, reducen
el riesgo de I+D y sus costes. La ausencia de normas, aunque paradójicamente pueda presentarse como que no restringe la innovación y permite más opciones en el mercado, tiene también ciertos riesgos importantes, como el de
convertirla en propietaria o el de que el consumidor tenga
mayores probabilidades de apostar por una opción perdedora, al presentársele por regla general un conjunto de
opciones mayor que en el caso normalizado, las cuales
compiten por sobrevivir dentro de un mercado más fragmentado. No es menos cierto que las normas son una vía
La telefonía móvil o el triunfo de la normalización
importante para promover la traslación de los resultados
de investigación a aplicaciones prácticas.
• Puede parecer que los organismos de normalización son lentos, demasiado formales y afectados de una excesiva inercia.
Esta es posiblemente la crítica vista desde fuera más que la
realizada, y la que señala un problema siempre latente en
la normalización: el riesgo de evolucionar hacia un “pensamiento único”, dominado por unos pocos, que excluya las
contribuciones innovadoras de otros actores menos significativos y caiga en una cierta rutina y autocomplacencia.
• Realmente no es así en el campo de las TIC, donde la elaboración de las normas evoluciona con bastante rapidez si
tenemos en cuenta la velocidad con que las innovaciones
tecnológicas en este ámbito se suceden. Hay que pensar que
un organismo de normalización ha de ser transparente y
estar abierto a las opiniones constructivas que le vengan de
otras partes interesadas. No obstante, en el campo de las
tecnologías que sustentan al servicio móvil, se están tomando medidas para evitar prácticas que limiten la evolución de
las tecnologías y el dinamismo para introducir cambios que
la rigidez y la lentitud puedan agravar al extenderse estos
atributos al mundo de la asignación de las frecuencias,
donde también pueden arraigar prácticas que limiten las tecnologías y el dinamismo para introducir cambios. Algo que,
como se ha visto en los apartados anteriores, se está tratando de evitar con un marco de gestión flexible del espectro.
• Las empresas utilizan las normas para expandir su mercado potencial; sin embargo, también se exponen a una
mayor competencia. Al mismo tiempo, la elaboración de
dichas normas implica una cierta cooperación con los
competidores que, si no se toman medidas, puede degenerar en una estructura monopolística.
• Quizás el mayor problema actual en la elaboración de normas consista en el tratamiento de los derechos de propiedad intelectual. El retorno económico para una determinada investigación tecnológica proviene de las patentes
esenciales para el sistema desarrollado, que se deberían
declarar y comunicar antes de ser incluidas en una determinada norma. Su inclusión debiera suponer la aceptación
de la cesión de las mismas en términos razonables y no
discriminatorios (FRAND) a los fabricantes que van a desarrollar implementaciones de la misma.
Finalmente, resulta indicado señalar la importancia de las
normas TIC en la Unión Europea, cuya especificidad deriva
de la necesidad de interoperabilidad. Las TIC en Europa constituyen el mayor soporte a la competitividad y representan
uno de los sectores industriales claves en el siglo XXI. En 2007,
la industria TIC europea movió 670.000 millones de euros y
representó el 5% del empleo en Europa. En este contexto,
la normalización desempeña un importante papel, especialmente por el carácter transversal de las TIC, presentes en
todos los sectores de la economía.
La cocina de inducción de Fagor
La evolución del electrodoméstico
ANTONIO LÓPEZ RUIZ
(Baeza, Jaén, 1961)
Trabaja en IKERLAN-IK4
y actualmente es Dinamizador del Observatorio Estratégico
del Clúster de Electrodomésticos de Euskadi (ACEDE)
Ingeniero en Electrónica por Mondragón Unibertsitatea.
Ha desarrollado toda su carrera profesional dentro de la Corporación Mondragón. En 1986 ingresó en IKERLAN-IK4 (Centro
de Investigaciones Tecnológicas) en calidad de socio. Durante
cuatro años fue colaborador científico, ejerciendo como Jefe de
Proyectos de Transferencia para empresas como Fagor Electrodomésticos, Copreci, Fagor Electrónica, Mondragón Sistemas, Azkoyen
y Telvent.
En el año 2000 pasó a ser Jefe de Proyectos de desarrollo de
nuevos productos para Fagor Electrodomésticos y, en calidad
de tal, ha sido miembro de los equipos de desarrollo de la Red
Domótica Fagor y de las aplicaciones Ambient Intelligence para
Fagor Electrodomésticos.
En la actualidad es Dinamizador del Observatorio Estratégico
del Clúster de Electrodomésticos de Euskadi (ACEDE), programa
auspiciado por el Gobierno Vasco.
La cocina de inducción de Fagor
Antonio López Ruiz
INTRODUCCIÓN
Se tiende a pensar que, para las empresas, la exigencia de
innovar es consecuencia de estos tiempos convulsos. Puede
creerse que la feroz competencia por sobrevivir es propia de
esta era, que solo ahora las compañías han empezado a sentirse particularmente exigidas para conseguir un hueco en el
mercado y para mantenerlo.
los antes múltiples fabricantes en pocas y grandes corporaciones.
En lo que a calidad y diferenciación se refiere, ya en la década de 1970 FED definió la innovación como la línea estratégica a partir de la cual conseguir un objetivo principal: ser referente en su mercado, no limitarse a sobrevivir. Pues bien,
esta es la historia de cómo se fraguó el más importante de
los logros de FED en lo que a innovación se refiere. Un relato
que simplemente narra los hechos, pero que quisiera dejar
constancia del entusiasmo y de la visión de cuantos participaron en esta aventura.
Nada más lejos de la realidad. No ha habido tiempo en el
que el mercado no haya impuesto sus inapelables leyes de
competencia: ser el mejor en calidad, innovación, servicio,
imagen, distribución y coste. Leyes que son aún más implacables en aquellos sectores que, como el del producto doméstico, deben aunar calidad, diferenciación y precio.
UNA TECNOLOGÍA DE INTERÉS
En este contexto ha tenido y tiene que pelear Fagor Electrodomésticos (FED a partir de ahora) en un mercado caracterizado por la innovación continua, por la extrema importancia del precio y, en los últimos años, por la concentración de
El calentamiento por inducción se ha utilizado desde los años
treinta en procesos industriales, más concretamente metalúrgicos, en hornos de fundición, en aplicaciones de calentamiento de vigas previos a la extrusión y la forja, en temples
175
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
superficiales de profundidad extremadamente baja, en revenido y en soldadura, debido a las dos características fundamentales de esta tecnología: localización de gran cantidad
de energía en volúmenes pequeños y sencillez en el control
de su intensidad.
La inducción se basa en el hecho de que determinados
materiales, al ser sometidos a campos electromagnéticos,
absorben parte de esta energía transformándola en calor.
Estos materiales son normalmente metálicos y deben presentar
alguna de las siguientes propiedades:
• Buena conductividad eléctrica, que posibilite la circulación
interna de las llamadas corrientes inducidas o de Foucault
(también conocidas como “eddy currents”).
• Ferromagnetismo, gracias al cual se produce el fenómeno
de la denominada histéresis magnética.
Ambos fenómenos permiten la transformación de la energía
del campo electromagnético en calor generado internamente
en el material. La corriente circulante se mueve en contra de
la resistividad del material y genera calor. El campo electromagnético necesario es creado mediante una fuente de corriente de media/alta frecuencia constituida por componentes electrónicos y un sistema inductor.
El principio eléctrico es sencillo: una bobina inductora, que
obra como primario de un transformador, es recorrida por
una corriente alterna. Junto a esta bobina, la pieza metálica
a calentar obra como un secundario en cortocircuito, en la
cual se induce una corriente de Foucault que crea un flujo
opuesto al flujo del primario. Las corrientes inducidas se concentran en la superficie de la pieza, decreciendo su intensidad de la periferia hacia el centro (efecto pelicular o skin,
descubierto por Kelvin). Estas corrientes, por efecto Joule,
generan un calor proporcional a su intensidad o, lo que es lo
mismo, a la del campo magnético inducido. La figura 1 esquematiza este concepto.
De esto se deduce que los elementos básicos de un sistema
de calentamiento por inducción son el generador de corriente
alterna, la bobina inductora, el sistema de control y el material
que se pretenda calentar o tratar.
Figura 1. Concepto básico de la cocina de inducción
176
La cocina de inducción de Fagor
Las aplicaciones industriales antes reseñadas ponían de manifiesto las ventajas de este tipo de calentamiento:
• Ausencia de contacto físico.
• Generación del calentamiento en el lugar requerido: el calor
inducido se puede dirigir con facilidad; se puede calentar un
área reducida sin que afecte a las áreas que la circundan.
• Bajas perdidas en transferencia calórica; rendimiento superior al 80%.
• Rapidez y precisión; el calor se genera directa e instantáneamente dentro de la pieza.
• Proceso limpio, no crea polución ni produce emisiones dañinas, gases de escape, humo, fuertes ruidos o contaminación térmica.
Por todo esto, no es de extrañar que los fabricantes de electrodomésticos tuviesen la convicción de que esta tecnología
sería aplicable al desarrollo de cocinas domésticas. Entre
estos fabricantes, FED fue uno de los pioneros.
Figura 2. Vapotrón
deparó un sistema desproporcionadamente grande y con un
alto consumo, ambas cosas motivadas, fundamentalmente,
por las características de los vapotrones.
En 1975 aparecen los tríodos de Philips (véase la figura 3), concretamente de 1 kW, con los que MU desarrolla un oscilador
resonante con un condensador de aceite, con el propósito
INMADUREZ Y COMPLEJIDAD
Desde principios de los setenta, el departamento técnico de
FED tuvo el convencimiento de que tras la inducción “hay
un producto”. Se conocían exhaustivamente las propiedades
y características de esta tecnología, gracias a los diversos
puntos de proceso industrial en los que, en varias de sus
plantas productivas, se aplicaba.
En 1973 la Universidad de Mondragón (MU a partir de ahora)
por iniciativa de una empresa de la zona, diseñó un generador
de inducción para soldadura de tubos. Para ello, empleó vapotrones como elementos interruptores con los que controlar
qué porcentaje de la onda de corriente alterna llegaba a la bobina. Los vapotrones (véase la figura 2) eran tiratrones de alta
potencia conseguidos a partir de válvulas de tres electrodos a
las que se había añadido gas a baja presión. Este desarrollo
Figura 3. Triodo de los setenta y su diagrama
177
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
de seguir investigando con esta tecnología. El conjunto formado por la bobina, el transformador y el tríodo ocupaba
un armario eléctrico convencional. Nuevamente el tamaño y
el consumo como grandes limitaciones.
FED tiene noticias de estos trabajos de MU y contacta con su
departamento de desarrollo con el fin de formar un equipo
mixto con el que experimentar en la aplicación de la inducción
a la cocción doméstica. Se emplean los primeros tiristores
(véase la figura 4) en el desarrollo de los osciladores (el tiristor
es un dispositivo rectificador unidireccional con tres terminales, ánodo, cátodo y puerta; si se aplica una corriente en la
puerta hacia el cátodo, el tiristor conduce siempre que el
ánodo tenga mayor potencial que el cátodo; deja de conducir
cuando esta diferencia de potencial se invierte, tras un determinado tiempo llamado de cola o corte, que resulta crítico).
Fuente: Vishay (anteriorment International Rectifier®).
Figura 4. Tritor de rosca y su esquema
A mediados de los setenta los tiristores ofrecían unos tiempos
de cola de varios milisegundos, tiempo excesivo que era la causa
de que se produjeran cortocircuitos en las fases de conmutación
(recuérdese que el semiciclo de la onda de baja tensión es de
10 ms, por lo que tiempos de corte de varios milisegundos
invalidaban a estos primeros semiconductores de potencia).
En 1976 RCA presentó un tiristor asimétrico muy rápido en
el que, al invertirse la corriente, el tiempo de cola era
de pocos microsegundos. La expectación que este anuncio
178
generó en FED fue tanta que investigadores y directivos de
la compañía y de MU acudieron ese mismo año a la Feria
de Componentes de París a hablar con RCA, de quien consiguieron el compromiso de enviarles las notas de aplicación
del nuevo semiconductor.
Conviene recordar que no existían ni Internet ni el e-mail, y
que conseguir los “data sheet” y las notas de aplicación de
cualquier componente electrónico nuevo era una tarea ardua
y dilatada en el tiempo.
Por entonces, la empresa francesa que años más tarde sería
Thomson Electromenager también estaba trabajando en esta
misma línea. MU tuvo conocimiento de esto gracias a un antiguo alumno que colaboraba en aquel tiempo con el equipo
investigador francés, con el que se contactó y acordó una
reunión en Marsella, en los laboratorios de Sescosem, a finales de ese año.
El equipo francés defendía que era posible desarrollar interruptores automáticos electrónicos con un tiempo de corte de
microsegundos, con lo que se podría, por primera vez en la historia, proteger un semiconductor (hasta entonces los semiconductores se quemaban antes que el fusible). Utilizaban transistores como elementos de corte, por lo que el debate se entabló
acerca de la conveniencia de sustituir estos por los nuevos tiristores de RCA. Con los transistores se podían desarrollar onduladores con cierta robustez pero de muy baja potencia.
Meses más tarde se recibieron las primeras muestras del
nuevo tiristor de RCA. Hasta entonces RCA no las había suministrado, presuntamente por no estar el componente
suficientemente testado cuando se presentó en París. Así, en
1978, y como consecuencia de estas acciones, FED contrata
a MU para desarrollar lo que sería el primer prototipo de
placa de cocción por inducción, utilizando los nuevos tiristores de tiempo de cola de microsegundos.
Se construyeron dos prototipos de metacrilato de un foco,
con la idea de comparar sus virtudes y defectos. Uno de ellos
La cocina de inducción de Fagor
con el tiristor de rosca de RCA siguiendo las pautas de este fabricante, y el otro a partir de las indicaciones de Sescosem, con
un transistor TO3. Las bobinas para ambos prototipos fueron
diseñadas y fabricadas artesanalmente por parte de FED al no
disponerse de ellas comercialmente. Cada una de ellas se construyó bobinando 20 espiras en forma plana con un mazo de
8 hilos de 0,6 mm de diámetro, con lo que se obtenían bobinas
de 19 cm de diámetro exterior y 3 cm de interior.
El máximo esfuerzo se aplicó al desarrollo del prototipo basado en el tiristor RCA, pues solo de este podría surgir un
producto comercializable por parte de FED. Los esquemas
que a continuación se adjuntan (véase la figura 5) son los originales que formaron parte del informe que, al final del proyecto, presentó MU a FED. Este desarrollo se protegió con la
primera patente presentada por FED a este respecto, denominada “Sistema de cocción por semiconductores para el calentamiento por inducción de utensilios de cocina”.
Figura 6. Inversor, filtros y bloque de alimentación (1978)
y del material que se pretenda calentar. Cuando IL llega a
cero, el tiristor TH1 se corta y la corriente cambia de sentido,
circulando por el diodo D1. TH1 necesita un tiempo (Z) para
recuperar su capacidad de bloqueo, alrededor de 5 μs, a partir del cual puede aplicarse un impulso a la puerta de TH2
para que sea este el que conduzca (véase la figura 7).
Figura 5. Diagrama de bloques básico del primer desarrollo FED MU
Se desarrolló un circuito de potencia o generador de alta frecuencia (véase la figura 6) que, esencialmente, era un inversor
serie compuesto por dos tiristores asimétricos (ASCR) y un
circuito resonante LC. Antecedía a este circuito un rectificador en puente monofásico y un filtro, en el que C3 filtraba
a 50 Hz y L3 con C4 hacían de choque y filtro para minimizar
el paso a la red de las perturbaciones de alta frecuencia.
Teóricamente el diseño era impecable: si se ceba el tiristor
TH1, el condensador C3 se descarga a través de la bobina
L3, por la que circula una corriente senoidal cuya frecuencia
corresponde a la resonancia del circuito (L4 con C5 y C6), y
cuya intensidad depende del factor de calidad Q de la bobina
Figura 7. Corrientes del sistema
179
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Mientras el circuito sea capaz de cebar alternativamente y en
el momento adecuado a los dos tiristores, respetando sus respectivos tiempos de corte, circulará por la bobina de inducción
una corriente alterna cuya frecuencia dependerá del circuito
resonante y del retardo Z, parámetro mediante cuya manipulación desde el control se puede regular la potencia suministrada al elemento que debe calentarse. Este módulo de control
(véase la figura 8) lee la consigna de potencia dada por el usuario
(potenciómetro de seis posiciones) y actúa sobre Z.
Como habían previsto los técnicos, surgieron dos problemas
que impedían que este diseño pudiera preindustrializarse.
• Se producían frecuentes cortocircuitos debido a la escasa
calidad que por entonces tenían los semiconductores de
potencia. Los tiristores, al calentarse por funcionamiento,
variaban considerablemente y sin seguir un patrón el
tiempo de corte, produciéndose continuos cortocircuitos
cuando se cebaba, por ejemplo, TH2 y aún estaba conduciendo, por esta anomalía, TH1.
• Las perturbaciones electromagnéticas que producían la
alimentación y el corte de la bobina de calentamiento (L3
en la figura 6) eran de tal magnitud que:
a. Afectaban al control de la placa hasta el punto de generar malos funcionamientos.
b. Inducían en la red eléctrica unas interferencias muy por
encima de lo que permitía la norma entonces vigente
al respecto (CENELEC EN 50006).
Este segundo problema era, en aquellos momentos, de difícil
solución, especialmente en lo concerniente al cumplimiento
de la norma EN 50006. Pero lo realmente problemático resultó
ser el mal funcionamiento de los tiristores cuando se calentaban. Esto, sencillamente, era irresoluble hasta que no mejorase
la tecnología de fabricación de estos semiconductores.
Aun así, se construyeron seis prototipos de dos focos (véase
la figura 9), constando cada uno de ellos de dos circuitos como
los mostrados en las figuras 6 y 7, y con ellos se acudió a la Feria
HogarHotel de Barcelona de 1980, en la que se presentaron
como una novedad a nivel europeo.
Figura 8. Control/driver de inducción (1978)
180
FED era consciente de la imposibilidad de industrializar este
desarrollo, pero decidió mostrarlo en dicha feria con el fin de
analizar la respuesta del sector profesional. Las demostraciones
se hacían con sumo cuidado, intentando no sobrepasar el
tiempo de funcionamiento a partir del cual se calentaban los
La cocina de inducción de Fagor
Figura 9. Detalles de la placa de dos fuegos presentada en HogarHotel (1980)
tiristores y se cortocircuitaba el ondulador serie. A pesar de
estas prevenciones, los prototipos que formaban el panel
de demostración tenían que ser reparados prácticamente a
diario.
Durante la feria, estas embrionarias placas de inducción fueron presentadas al Secretario General Técnico del Ministerio
de Industria (Eduardo Punset). La demostración que contempló consistió en poner un billete de 5.000 pesetas entre el
cristal de la placa y el recipiente, en el que se puso agua a
hervir. El agua hervía y el billete, ante el asombro general,
salía indemne del experimento.
Durante el evento quedaron patentes la mejoras que, para
cocinar, reportaba esta tecnología, especialmente la rapidez
y la sencillez a la hora de limpiarla, lo que hizo que la inducción de FED se convirtiese en la estrella de la feria.
Este resultado, vivido como un “experimento comercial” por
parte de FED, llevó a la compañía a redoblar esfuerzos para
181
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
resolver los dos problemas tecnológicos que se le planteaban. Desafortunadamente, el primero de ellos siguió siendo
irresoluble a lo largo de los dos años que se prolongó el proyecto (hasta 1982) por lo que este se abandonó a la espera
de que mejorase la tecnología por la que se obtenían semiconductores de potencia.
La empresa perdió interés, pero lo conservó el departamento
de I+D, donde de forma latente se siguió llevando a cabo
una tarea de prospección acerca de estos semiconductores
y de posibles productos de cocción por inducción que pudieran aparecer en el mercado.
DESARROLLO DE LOS PRIMEROS
PRODUCTOS Y TECNOLOGÍA MADURA
En 1987 se retomó el tema con un nuevo proyecto, gracias
a los resultados obtenidos en la prospección previa, en la cual
se habían localizado unas pequeñas placas de un foco, de
baja potencia, japonesas, comercializadas como hervidores
de arroz, que empleaban un ondulador resonante paralelo
monosemiconductor homopolar.
El nuevo proyecto consistió en analizar estos aparatos con la
esperanza de que en ellos estuviera la solución al principal
problema que lastró el desarrollo de los primeros prototipos.
Desafortunadamente, no fue así. En la figura 10 se reproduce
parte del informe original referente a este análisis.
Estos productos empleaban transistores como semiconductores de potencia. Por entonces, el transistor soportaba como
máximo una tensión inversa de unos 500 voltios. Esto era suficiente en Japón ya que la red eléctrica allí era y es de 110 V.
Si se rectifican y acoplan a un circuito oscilante, como máximo se genera el doble de tensión continua (teoría de los
circuitos oscilantes), así que con un transistor de 500 V de
inversa se podían diseñar pequeñas inducciones de entre 600
y 700 watios, suficiente para la aplicación que se les daba, y
que en Japón era muy apreciada, como cocedores de arroz.
182
Figura 10. Configuración básica de un inversor homopolar y su esquema funcional
Como el comportamiento térmico de estos transistores sí era
aceptable, era entendible que en ese país se estuvieran comercializando los tres equipos estudiados. Sin embargo, por necesidades de potencia y por los 220 V imperantes en Europa, esta
solución no era aplicable a los desarrollos de FED.
Mientras tanto, aparecieron en el mercado GTO mejorados
(Gate Turn-off Thyristor: se enciende por un solo pulso de
corriente positiva en la terminal puerta o gate, al igual que
el tiristor normal, pero en cambio puede ser apagado aplicando un pulso de corriente negativa en la misma puerta;
esto supuso una enorme innovación en el mundo de los semiconductores de potencia) comercializados por Philips (véase
la figura 11).
La cocina de inducción de Fagor
Figura 11. Evolución del GTO
Como consecuencia de esto, en 1988 FED y MU inician un
nuevo proyecto cuyo objetivo es el desarrollo de un prototipo
de cocina de inducción monopolar con GTO, en vez de con
transistores, toda vez que estos no soportarían la tensión inversa generada por la tensión de red europea.
IGBT de 50 A y 600 V, componentes que suponen una auténtica revolución en la historia de los semiconductores en
general y en la de los de potencia en particular. Un IGBT (Isolated Gate Bipolar Transistor) generalmente se emplea como
interruptor controlado en circuitos de electrónica de potencia. Combina las características de las señales de puerta de
los transistores de efecto campo con la capacidad de alta corriente y bajo voltaje de saturación del transistor bipolar, esto
es, una puerta aislada FET para la entrada de control y un
transistor bipolar como interruptor, en un solo dispositivo. El
circuito de excitación del IGBT es el del MOSFET, mientras
que las características de conducción son las del BJT (véase
la figura 12), lo que depara el primer semiconductor para potencias medias realmente controlable gracias a sus particularidades de conducción, similares a las del transistor bipolar:
capacidad de control, escasa deriva térmica y alta tensión inversa; justo lo que se estaba esperando.
Se obtuvo un prototipo con un resonante paralelo homopolar, mucho más robusto que los diseños de finales de los setenta y principios de los ochenta, pero con el que solo se obtuvieron 1.000 W de potencia útil, insuficiente para ser
comercializado en Europa. Ante esto, se paralizó el proyecto
y se reactivó el trabajo de prospección.
En 1990 se consiguió una muestra de una cocina de inducción trifásica de una empresa alemana. Trabajaba con 540
V de bus, gracias a lo cual se necesitaban bajas corrientes
para conseguir potencias importantes. Utilizaba como principio de funcionamiento el ondistor (resonante serie bipolar)
y empleaba GTO. Constaba de dos focos, uno de 1.700 W
y otro de 1.200 W. Un solo ondulador alimentaba a los dos
focos, lo que reducía considerablemente el coste. La potencia
se controlaba mediante una inductancia saturable (principio
similar al del amplificador magnético). FED se dio cuenta de
que era posible: un ondulador, dos focos, suficiente potencia
en ambos; esto es, la antesala de un nuevo producto.
En el año 1991, coincidiendo con el anuncio de Philips de que
deja de producir GTO, IR (International Rectifier ®) presenta los
Fuente: Escuela Superior de Ingenieros de la Universidad de Sevilla.
Figura 12. Estructura del IGBT
183
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
La tecnología “tiristor” había sido un enemigo en cuantos
desarrollos se habían llevado a cabo hasta entonces. Las derivas térmicas del tiempo de cola; la vulnerabilidad de los terminales “gate” ante cualquier ruido eléctrico o perturbación
electromagnética, que devenía continuamente en la conducción de ambos tiristores; y el consiguiente cortocircuito, habían impedido que se alcanzasen los niveles de fiabilidad
necesarios para industrializar lo desarrollado. Los IGBT llegaron
para resolver estos problemas.
FED, con estos nuevos componentes, desarrolló el primer
prototipo preindustrializable de placa de inducción, la cual,
antes de iniciarse el proceso de industrialización, fue presentada a diversos estamentos de la empresa francesa Thomson
Electromenager, con quien unos años antes FED había constituido una empresa de apoyo mutuo llamada TEMFA (curiosamente, años más tarde, en 2006, cuando Thomson Electromenager había pasado a ser Elco Brandt, esta fue
adquirida por FED, constituyéndose lo que hoy es FAGOR
GROUP).
A FED le interesaba la opinión de Thomson, toda vez que
esta compañía también estaba desarrollando su propia placa
de inducción y que las buenas relaciones entre ambas empresas permitían y favorecían que se compartiera información reservada como era esta. Thomson no suscribió el diseño planteado por FED, alegando que los IGBT eran unos
componentes demasiado nuevos que no habían tenido tiempo de demostrar su fiabilidad.
En cualquier caso, FED decidió culminar el desarrollo en
curso, entre otras cosas al sentirse acuciada porque Balay en
España y Orega (Grupo Thomson) en Francia acababan de
presentar sendos prototipos de placa de inducción. Se obtuvo el primer prototipo fiable, robusto y, por lo que a funcionalidad se refiere, industrializable, compuesto por dos focos
de 1.400 W cada uno, suministrados por un ondulador de
2.800 W, empleando los IGBT de IR, a diferencia de Orega
que utilizó transistores de potencia. Se consiguió un importante ahorro de coste al basar el driver de control de los IGBT
184
en el circuito IR2110, lo que permitió prescindir de los complejísimos drivers empleados hasta entonces. Lo más sofisticado de este desarrollo se protegió con la patente “Detector
de cazuela para encimera de inducción”, finalmente concedida en 1995.
El departamento de Márketing de FED impuso que estas nuevas placas debían instalarse sobre encimera y, preferiblemente, con un horno debajo. Conviene recordar que en los primeros noventa era muy habitual en las casas el montaje de
los hornos bajo la encimera de la cocina, a ras de suelo.
El prototipo obtenido no permitía esto, por dos razones. La
primera, su excesivo tamaño. La segunda y más importante,
porque las pérdidas de calor de un horno, cercanas a los 420
W, terminaban por impedir el correcto control de los IGBT,
por lo que se producían cortocircuitos. Por lo tanto, y ante
el imperativo de Márketing, este modelo no se comercializó.
Para resolver esto, se siguió trabajando hasta obtener un prototipo de dos cuerpos. Por un lado, en un módulo se concentraban los onduladores con los IGBT y el control/driver. Por otro,
en otro módulo, las bobinas de inducción, el cristal de la placa
y la interfaz de usuario (véanse las figuras 13, 14 y 15). Ambos módulos se unían a través de una manguera especial antiperturbaciones. La idea era ubicar, en los hogares, el módulo del
ondulador detrás del horno, entre la pared y el suelo, lo que
lo protegería de las altas temperaturas que aquel generaba.
Esto resolvía el problema, pero originaba otro de precio, al
ser extremadamente caro el cable que unía ambos bloques.
El modelo empezó a comercializarse a un precio desorbitado
para la época, lo que hizo que el interés del mercado fuese
mayor que las ventas.
Con el propósito de mejorar esta situación, en 1992 se creó
un equipo formado por FED, MU e IKERLAN-IK4. Su objetivo
fundamental: rediseñar el producto de manera que todos los
componentes estuvieran integrados en un único módulo
cuyas dimensiones y comportamiento térmico fueran compatibles con su ubicación sobre un horno. Además, debían
La cocina de inducción de Fagor
Figura 13. Prototipo original del módulo ondulador y cable
Figura 14. Componentes del modulo ondulador-control
Figura 15. Bobina del módulo encimera
reducirse los costes. IKERLAN-IK4 aportaba a este equipo su
conocimiento tecnológico y su experiencia en el desarrollo de
nuevos productos, llegando hasta la fase de industrialización.
zaron y reubicaron los componentes, se analizó cada soldadura, se cuestionó cada cable, etc. En definitiva, se entendió
como vital la mejora de cada elemento de la placa.
Se mejoró la refrigeración, aunque no lo suficiente como
parar soportar las fugas térmicas de los hornos. Se minimi-
Disminuyeron las perturbaciones electromagnéticas que generaban los bloques de potencia, gracias a un trabajo más
185
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
cercano al empirismo que al análisis científico, a base de colocar diversas ferritas en diferentes sitios, guiándose los técnicos por el procedimiento de prueba y error. Las bobinas inductoras seguían fabricándose manualmente en FED.
En conjunto se redujo sensiblemente el coste pero, aun así,
seguía siendo un producto muy caro. En cualquier caso, en
1994 comenzó su comercialización: una placa con dos focos
de inducción y dos vitrocerámicos clásicos de infrarrojos (pensando en el gran parque de utensilios de aluminio y barro
que aún había en los hogares). Los dos focos infrarrojos se
colocaban detrás, para dificultar que se pudieran quemar los
niños. Esta fue una excelente decisión de márketing que contribuyó al aumento de las ventas. Este modelo se denominó
internamente “2.ª Generación”, y se instalaba en la encimera
cuando no había un horno debajo. Cuando sí lo había, se
montaba el modelo de dos módulos.
Llegados a este punto, en 1994, FED considera que la tecnología está madura y que la compañía tiene un conocimiento
amplio sobre la misma y sobre el proceso productivo relacionado con la aplicación de cocción doméstica. También, por primera vez en lo referente a este producto, se consigue la total
adhesión al proyecto del departamento de Márketing que,
hasta esta fecha, se había mostrado un tanto frío y escéptico.
Escepticismo perfectamente comprensible, pues los análisis comerciales realizados evidenciaban las dificultades que, en un
principio, se tendrían para mostrar al usuario las ventajas de la
inducción y para justificar el importante sobreprecio. Había que
explicar muy bien, con el producto apagado en la tienda, cuáles
eran estas ventajas, ya que en ese estado resultaban “invisibles” para el usuario, quien básicamente veía una placa en apariencia normal, pero tres o cuatro veces más cara que una vitrocerámica radiante. Habrían de necesitarse años, y entonces
esto ya se intuía, para que se generase en el mercado el suficiente conocimiento de la inducción, tarea a la que contribuyó
una imagen tan sorprendente como la mostrada en la figura 16.
Otro problema o freno de compra venía dado por la necesidad de utilizar recipientes ferríticos. FED arriesgó y resolvió
186
Figura 16. Ejemplo de cómo no se pega la comida en la placa
este problema regalando una batería de cocina de su propio
catálogo con cada inducción. El éxito de esta iniciativa terminó de cohesionar toda la estructura de la compañía en el
empeño común de convertir la cocina de inducción en un
producto de alta gama exitoso.
ECLOSIÓN Y ÉXITO
Llegó un momento en el que nadie dudaba en FED de que,
una vez se ajustasen los costes, la placa de inducción sería
un rotundo éxito comercial. Se ha llegado a definir como
el producto perfecto para una determinada aplicación.
Aúna las ventajas del gas (inmediatez, velocidad, baja inercia) y de las vitrocerámicas (seguridad, interfaz de usuario
y estética), aportando la más apreciada de las características
para una cocina doméstica: la facilidad de limpieza (el cristal
permanece frío; no se pega aquello que caiga sobre él;
basta pasar una bayeta para eliminar cualquier residuo
(véase la figura 16).
La cocina de inducción de Fagor
Para ratificar este convencimiento, FED presentó el nuevo producto por todo el país, por el método de convocar grupos de
consumidores que respondieran a distintos perfiles de entre
los proclives a adquirir un electrodoméstico de estas características. El resultado de este proceso fue más que alentador.
En 1999, cuando las ventas anuales de la 2.ª Generación alcanzaron las 10.000 unidades (85% en España), comenzó un
nuevo proyecto con el recurrente fin de disminuir tamaños y
costes y de mejorar la resistencia al calor. Se alcanzaron todos
los objetivos, llegándose a lo que se denominó “3.ª Generación”, la cual no llegó a comercializarse. En vez de eso, se inició el desarrollo de la “4.ª Generación”, que debía caracterizarse por la disposición de todos los componentes sobre un
único circuito impreso (fuente de alimentación, inversores,
control), mejorando así el comportamiento térmico, la generación de EMC y el coste. Cada módulo constaba de dos focos
con 2,8 kW por generador, y permitía distintos diámetros en
estos, introduciendo el concepto “paellero” (la simultaneidad
de dos focos para cubrir recipientes de mayor superficie).
cantidades. Su comercialización comenzó en 2004, con unas
ventas de 150.000 unidades al año, con un 20% de exportación. Así, FED se erige en el líder absoluto de este sector en
España, disponiendo entonces del 45% del mercado, y con la
única competencia de BSH. La figura 17 ubica temporalmente y
muestra el grado de éxito de cada una de las generaciones de
cocinas de inducción desarrolladas por FED.
En 2006 FED adquiere la empresa Elco Brandt (Francia), líder
mundial en inducción, con una producción de 200.000 inductores al año. Desde entonces, el desarrollo de los nuevos
productos y la producción de estos se han centralizado en
las plantas de Orleans.
Actualmente, Europa es el principal mercado para este producto, con unas ventas anuales superiores al millón y medio de
placas y con un valor de mercado cercano a los ochocientos
millones de euros. Francia supone el 33% de este mercado,
mientras que España representa el 12%. En estos países, respectivamente, FED abarca el 33,90 y el 26,30% de las ventas.
Esta generación comenzó a comercializarse en 2002, logrando unas ventas de 50.000 unidades anuales (80% en España).
A pesar de seguir siendo un
electrodoméstico caro, había alcanzado el estatus de producto
de masas.
En 2003 comienza el desarrollo
de la 5.ª Generación, manteniendo la filosofía de la anterior (todo
integrado, reducción de tamaño,
componentes y coste) y buscando un aumento de potencia. Se
llega hasta los 3,6 kW por ondulador, a repartir entre dos focos,
y se reduce el coste, entre otras
razones por el aumento de las
Figura 17. Desarrollo temporal y grados de éxito
187
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
En Alemania y los Países Bajos la penetración es paulatina,
con un crecimiento consistente que deparará próximamente
importantes ventas. Grecia y los países del este comienzan a
interesarse por el producto. Gran Bretaña, Irlanda e Italia,
siendo como son países gasistas, no serán a medio plazo
consumidores significativos de cocinas de inducción.
Fuera de Europa, China y Japón, sin ser aún mercados consolidados (a excepción de algunos productos como los hervidores de arroz) son los más dinámicos en este sentido y,
obviamente, los más atractivos para los fabricantes, más allá
de las dificultades administrativas y culturales a las que deben
enfrentarse las empresas no nativas.
Estados Unidos, Canadá, Australia, Nueva Zelanda y los países asiáticos suficientemente desarrollados, donde la presencia de la inducción es todavía escasa, representan las nuevas oportunidades de expansión.
EVOLUCIÓN FUTURA
FED dispone de un grupo de investigación de 25 ingenieros
centrado exclusivamente en el desarrollo de nuevos productos de inducción.
Este grupo se complementa con un equipo de “Inteligencia
Competitiva y Vigilancia” compuesto por el departamento
de Patentes de FED y por el Observatorio Estratégico del
Clúster de Electrodomésticos de Euskadi, auspiciado este último por el Gobierno Vasco.
Recientemente, este equipo ha llevado a cabo un trabajo de
prospección acerca de la evolución de esta tecnología, indagando para ello en bases de datos de artículos científicos, en
diversas oficinas de patentes y en los contenidos de congresos y ferias, del cual se ha concluido que:
• Sigue siendo una tecnología con recorrido. Esto es, los
principales fabricantes siguen investigando sobre esta tec188
nología con el fin de obtener placas de inducción más versátiles, de mayor potencia, más seguras, más eficientes,
de más fácil manejo, más atractivas y, en última instancia,
más baratas.
• No se vislumbra, a corto y medio plazo, una tecnología
que mejore a la inducción y acabe por trivializarla (como
la inducción está paulatinamente haciendo con los sistemas vitrocerámicos).
Desde este convencimiento, FED trabaja en el desarrollo de
nuevas placas de inducción que se caractericen por:
• Transmitirle al usuario la sensación de que la placa está
activada a una determinada potencia, para lo cual cada
foco incorporará una guía de luz. Esto responde al único
reproche que ha recibido este producto: que es una potencia invisible.
• Mejorar la interfaz de usuario, por lo que se están añadiendo visualizadores LCD. Esto no ha sido posible hasta
ahora debido a la incapacidad, ya solventada, del cristal
vitrocerámico para dejar pasar otro color que no fuera el
rojo.
• Ofrecer una mayor potencia. Ya se han conseguido focos
de hasta 4,6 kW aplicables a cocinas industriales (restaurantes, comedores de empresa, etc.).
• Ser más robustas, especialmente ante el calor. En este sentido, se ha marcado como objetivo que soporten la cercanía de un horno, incluso de un pirolítico.
• Ser más baratas, básicamente por la continua racionalización de los sistemas productivos y logísticos.
• Funcionar con otro tipo de recipientes, especialmente los
de aluminio. Para conseguir esto debe aumentarse considerablemente la frecuencia, lo que de momento encarece
bastante el producto final.
La cocina de inducción de Fagor
La evolución principal, a corto plazo, es la placa de inducción
de superficie total. Esto es, una placa en la que toda su superficie pueda generar calor, de forma que cualquier recipiente que se ponga sobre ella, independientemente de su
forma y de dónde se ubique, sea detectado y se induzca
calor exclusivamente sobre la superficie de contacto. FED
acaba de presentar un producto de este tipo, bajo la marca
DeDietrich y denominado PIANO, con una evolución tecnológica sustancial: la placa consta de 72 minibobinas, cada
una de ellas gobernada por un IGBT.
La evolución del electrodoméstico
Antonio López Ruiz
INTRODUCCIÓN: CAMBIOS SOCIALES Y
CULTURALES
El mundo occidental actual resulta inconcebible sin electrodomésticos. Están tan asociados a la vida cotidiana que se
tiende a creer que han acompañado al hombre desde la
noche de los tiempos, como el vestido, el fuego o aquello
que en cada época se haya conocido como hogar.
En realidad su origen es mucho más reciente. Incluso para detectar una necesidad hace falta haber alcanzado cierto nivel de
progreso. Y eso, cierto nivel de progreso, necesitaron las sociedades europea y norteamericana para llegar a la conclusión
de que el hogar era un generador de trabajo, de tareas engorrosas, rutinarias y poco gratificantes que sería conveniente
erradicar o, al menos, suavizar. A esta percepción contribuyó
el advenimiento de la clase media, especialmente tras la Segunda Guerra Mundial, y su conversión en clase dominante.
A mediados del siglo XX, quienes componían esa clase media
tenían aspiraciones sociales, inquietudes culturales y necesi-
dades de clase con las que no casaban bien las tareas cotidianas en el hogar. Por otra parte, gozaban de cierta solvencia económica, pero no de la suficiente como para disponer
de servicio doméstico, lo que llevó a la más lógica de las consecuencias: el desarrollo, la comercialización y el éxito de
masas de los electrodomésticos. Un éxito que permitió que
no solo la clase media los disfrutase, sino que empezaran a
ser asequibles para la clase trabajadora propia de las sociedades industriales.
Si bien hay que entender que el auténtico beneficiario de
esta aparición fue la sociedad en su conjunto, en realidad
fueron las mujeres las que, gracias a la masiva difusión de
estos aparatos, alcanzaron un nuevo rol social. Hasta los
años cincuenta del siglo pasado, incluso en occidente, el
papel de la mujer había estado absolutamente supeditado
al del hombre, confinada a las tareas domésticas, y totalmente apartada del mercado de trabajo. La llegada de los
electrodomésticos ayuda a que esto cambie: la mujer dispone de más tiempo para sí misma que, entre otras cosas, dedica a tomar conciencia de su papel en la sociedad. Se libera
191
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
de tareas, y con ello empieza a hacerlo de su antiguo y subordinado rol. Por primera vez le sobra tiempo; tiempo que
empieza a dedicar al trabajo fuera de su hogar. Adquiere
independencia económica; contribuye al incremento de las
rentas familiares, consolidando así el concepto de clase
media; y ayuda en la construcción de la sociedad de la que
es parte. El resto es historia.
Más allá de que se convenga en que el nacimiento de los
electrodomésticos como tales se da entre las décadas de
1940 y 1950, se tiene constancia de que ya desde finales del
siglo XIX, y siempre por iniciativa individual de unos pocos
pioneros, se empezaron a desarrollar diversos ingenios con
la pretensión de realizar lo que hemos denominado tareas
domésticas engorrosas. Ingenios que pueden considerarse
como los embriones de los sofisticados aparatos de los que
actualmente disfrutamos.
Desde el siglo XIX, pasando por mediados del XX y hasta llegar
a nuestros días, los electrodomésticos han tenido el lógico proceso de evolución, motivado por las exigencias del mercado y
conseguido gracias a los avances tecnológicos en áreas como
la mecánica, la electrónica y los materiales, además de por la
racionalización y la mejora de los procesos productivos.
Así, el objeto de este documento es describir los hitos tecnológicos más significativos que han jalonado dicho proceso
de evolución, tanto los que han tenido repercusión en el conjunto de aparatos como aquellos que han favorecido el desarrollo y la mejora de un electrodoméstico en concreto (cocina, frigorífico, lavadora, lavavajillas, etc.), y asomarse a lo
que puede ser la evolución de la tecnología en las principales
líneas de electrodomésticos.
AVANCES DE APLICACIÓN GENERAL
Respecto a los avances tecnológicos que han propiciado mejoras en los electrodomésticos, se da un caso curioso: después
del gran salto dado desde finales del siglo XIX hasta mediados
192
del XX, gracias a la electrificación de Europa y EEUU y al empleo de motores de corriente alterna, estos aparatos no cambian prácticamente, más que de forma cosmética, hasta la
consolidación de la aplicación de la electrónica en el desarrollo
de sus controles y programadores. Sin embargo, desde el comienzo de este siglo las aportaciones tecnológicas a este sector están apareciendo a una velocidad vertiginosa, y a este
mismo ritmo seguirán surgiendo en los próximos años.
Desde los primeros artefactos rudimentarios que pretendían
lavar la ropa o los utensilios de cocina a partir de un ingenio
mecánico construido con madera y accionado mediante fuerza animal, hasta la eclosión y el éxito comercial generalizado
dado en los comienzos de la segunda mitad del siglo XX, los
primeros hitos realmente remarcables son:
• La electrificación generalizada de Europa y EEUU.
• El empleo de motores de corriente alterna en accionamientos de diversa índole.
• El uso del acero en la fabricación de las carcasas y chasis
de estos aparatos.
• La racionalización y modernización de los procesos productivos.
A partir de estos hitos se consolida la producción y comercialización masivas de los electrodomésticos, los cuales no
sufren grandes cambios conceptuales favorecidos por la tecnología hasta la inclusión de la electrónica en sus sistemas
de control. Por esto, se entiende que la irrupción del transistor es un hito tecnológico importante en lo que a la generalidad de los electrodomésticos se refiere.
Por último, si algún aspecto es inherente a cualquier electrodoméstico este es la interfaz de usuario, entendida como el
mecanismo que permite la relación entre la persona y la máquina. De todos estos aspectos tratan los siguientes subapartados.
La evolución del electrodoméstico
Electrificación generalizada
Es bien conocida la historia de la electricidad, desde las primeras apreciaciones de Tales de Mileto en el 600 a.C. hasta
la invención de la lámpara incandescente por parte de Edison
en 1879, pasando por las aportaciones de Gilbert, Coulomb,
Galvani, von Guericke, Franklin, Volta, Ohm, Ampere, Joule,
Oersted y Faraday, todas ellas producidas en el siglo XIX.
El descubrimiento de la lámpara incandescente y la aplicación
de esta al alumbrado, primero público y posteriormente doméstico, aceleró el proceso de construcción de centrales eléctricas y, como consecuencia de ello, de electrificación de, al
menos, las ciudades más importantes de Europa y EEUU. En
1880 entró en funcionamiento en Londres la primera central
eléctrica destinada al sostenimiento del incipiente alumbrado
público, y en 1882 se hizo lo propio en EEUU.
Al ser centrales de corriente continua (DC) las pérdidas eran
notables y las áreas que podían abarcarse poco extensas.
Esto se resolvió gracias a los trabajos de la empresa Westinghouse, que depararon la corriente alterna (AC). Tras la conocida controversia entre Edison y General Electric, que apoyaban la DC, y Westinghouse, que abogaba por la AC,
triunfó esta última, toda vez que resolvía gran parte de los
problemas existentes con las primeras centrales (conmutaciones peligrosas, altas pérdidas, baja potencia, etc.).
La AC se estandarizó, surgió el concepto de estación central
y, con él, el de subestaciones, de manera que a finales de la
década de 1930 las zonas urbanas de Europa y EEUU estaban electrificadas casi al 100%.
Esto fue posible gracias a los trabajos de Werner von Siemens
quien, en 1867, había desarrollado en Alemania el primer
dispositivo capaz de generar industrialmente corrientes eléctricas (alternas) a partir de trabajo mecánico. Estos aparatos,
denominados dínamos, permitieron la construcción de usinas
eléctricas a partir de las cuales se generalizó el uso de la electricidad como fuente de luz y potencia domiciliaria.
Sin este proceso de electrificación generalizada no hubieran
existido los electrodomésticos, ni tantas otras cosas, como
hoy en día los conocemos.
Motores AC
Las primeras compañías eléctricas (principios del siglo XX) se
autodenominaban compañías de iluminación, por ser esta
prácticamente la única utilidad que se le daba a la nueva
energía. Esto suponía que se concentraba casi todo el consumo en las horas de oscuridad, manteniendo al sistema de
centrales casi ocioso durante el día, lo que frenaba la expansión de esta energía.
Vino a poner remedio a esto el motor eléctrico y, más concretamente, el motor AC que, al ser masivamente empleado
en líneas productivas y en infinidad de aparatos, facilitó que
el consumo diurno de electricidad fuese lo suficientemente
importante como para dar el último y definitivo impulso a la
electrificación de Occidente.
El descubrimiento de este tipo de motores se debe fundamentalmente a Faraday, quien en 1821, después de que el químico
danés Oersted descubriera el electromagnetismo, construyó
dos aparatos para producir lo que él llamó rotación electromagnética, que no eran otra cosa que los primeros motores eléctricos. Diez años más tarde, en 1831, descubrió la inducción
electromagnética mediante una serie de experimentos que aún
hoy son la base de la moderna tecnología electromagnética.
La primigenia fuera bruta, animal o humana, que era necesaria
para la realización de tantas tareas, empezó a ser paulatinamente sustituida por el empleo de motores AC, sobre todo en
tareas que requerían la traslación lineal o rotatoria de algún
elemento, como es el caso de ciertos electrodomésticos.
Sin la invención de estos motores tampoco existirían los electrodomésticos, ni muchos otros aparatos que hoy resultan
imprescindibles.
193
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Empleo del acero
Acero es el nombre que se da al hierro que contiene una cantidad determinada de carbono (hasta el 3,5%). Es inoxidable
cuando, además, contiene otros componentes como manganeso, fósforo, níquel y otros. El llamado inoxidable ferrítico
tiene un mínimo del 10% de cromo. Sus cualidades de dureza,
resistencia y ductilidad lo predestinaban a ser el material con
el que se construirían masivamente los electrodomésticos.
Esto terminó siendo posible gracias a las mejoras en los procesos productivos de este material, desde el horno de solera
abierta de 1864, el empleo de hornos eléctricos a partir de
1902 y el proceso del oxígeno básico de 1948, hasta la fundición continua de 1950, precursora de los más modernos y
actuales altos hornos.
Henry Ford logró reducir sus costes de producción gracias a
una rigurosa organización del trabajo industrial. Su herramienta
principal fue la cadena de montaje, que reemplazaba el desplazamiento del obrero en busca de las piezas por el desplazamiento de estas hasta el puesto fijo del obrero. La disminución
del coste del producto se hizo a costa de la transformación del
trabajo industrial en una sencilla tarea repetitiva.
Tanto el taylorismo como el fordismo fueron ampliamente
aceptados hasta los años ochenta, momento en el que empiezan a ser cuestionados por la deshumanización del trabajador que conllevan y, en su lugar, aparece el toyotismo, importante innovación en lo que a metodología productiva se
refiere, que preconiza el trabajo de montaje en equipos
donde se dé relevancia a la figura del operario.
Descubrimiento del transistor
Procesos productivos
Ningún producto hubiese alcanzado en el siglo XX el grado de
producto de masas si en dicho siglo no se hubiesen mejorado
enormemente los procesos que permitieron la reducción de
los costes de producción, especialmente en lo concerniente a
la mano de obra y, en consecuencia, al precio de mercado.
A esto contribuyeron, además de los lógicos avances en motorización y automatización, dos importantes teorías cuya influencia, aun relacionada con el trabajo industrial, va más
allá de la propia actividad productiva, teniendo incluso connotaciones sociales. Estas son el taylorismo y el fordismo.
Frederick W. Taylor, en su obra de 1912 Principles of Scientific Management defiende la "organización científica del
trabajo", con la que se disminuía la incidencia de la mano
de obra en el coste de las manufacturas industriales. La reducción de las tareas a movimientos lo más sencillos posibles
se usó para disminuir las destrezas necesarias para el trabajo,
transferidas a máquinas, reduciendo en consecuencia los salarios y aumentando la inversión de capital.
194
Los estudios teóricos de Julius Lilienfeld sentaron las bases de
la comprensión del comportamiento eléctrico de los materiales
semiconductores. En 1939 Walter Schottky describió el efecto
de las uniones PN de semiconductores deliberadamente impurificadas, terminando de sentar las bases teóricas para la invención del transistor. En 1948, tras veinte años de investigaciones,
John Bardeen, Walter House Brattain y William Shockley construyeron el primer prototipo operativo de transistor en los
laboratorios de la empresa Bell. El dispositivo reemplazó pronto
al tríodo, hasta entonces usado para modular y amplificar corrientes eléctricas, debido a su pequeño tamaño y consumo y
al bajo coste de su fabricación en masa. El transistor y otros
componentes derivados de él, como los fototransistores, revolucionaron la electrónica, miniaturizándola y haciéndola portátil, es decir, utilizable en cualquier producto.
Control de los aparatos e interfaz de usuario
Todo aparato electrodoméstico debe relacionarse con sus
usuarios. Este axioma es lo que han tenido en común todos
La evolución del electrodoméstico
los aparatos electrodomésticos independientemente de su
naturaleza (lavadoras, frigoríficos, etc.) y de la época de la
que hayan formado parte.
En el intervalo de algo más de cien años que va desde las primitivas interfaces (cuesta llamarlas así) de principios del siglo
XX hasta los sofisticados sistemas actuales constituidos por
visualizadores de diversas tecnologías y pantallas y teclados
touch, la tecnología ha condicionado los modos de relación
hombre-máquina. Siempre, en todos los casos, la interfaz de
usuario ha sido un apéndice del sistema de control (o programador) del aparato.
Los electrodomésticos del primer tercio del siglo pasado carecían casi totalmente de mecanismos de regulación de su
actividad, por lo que el usuario se limitaba a encenderlos y a
apagarlos mediante medios puramente mecánicos (habitualmente un solo interruptor).
Entre los años treinta y finales de los setenta predominan los
electrodomésticos con control o programador electromecánico, a los cuales el usuario accedía a través de una rueda de
varias posiciones con la que podía seleccionar diversos programas funcionales en un mismo aparato (aún se comercializan lavadoras y lavavajillas con este sistema).
La eclosión de los semiconductores en la década de 1970 apenas tuvo incidencia en el electrodoméstico hasta que los precios de los microcontroladores no se normalizaron. Durante
los ochenta aparecen electrodomésticos, normalmente de
gama alta, con control o programador electrónico desarrollado
alrededor de un microcontrolador de 8 bits. Gracias a la capacidad de los microcontroladores de leer y activar puertas digitales se desarrollaron nuevos sistemas de interfaz basados
en teclas (con las que el usuario ordena) y visualización luminosa, habitualmente diodos led y pequeños visualizadores de
siete segmentos (con los que el aparato notifica su estado).
La siguiente evolución apenas ha afectado al control, ya que
este ha seguido basándose en el empleo de microcontrola-
dores. Sin embargo, sí es importante en lo que a la interfaz
se refiere. A comienzos del presente siglo se dispone, a precios asequibles, al menos para la gama alta, de sofisticadas
pantallas de visualización, habitualmente de 7 pulgadas, desarrolladas con tecnología LCD, plasma o LED, la mayoría de
ellas touch (capacitivas) con las que se implementan interfaces de usuario gráficas con iconos.
Previsión de futuro
Los controladores serán exclusivamente electrónicos, basados
en microprocesadores específicos para aplicaciones embedded.
Se emplearán aparatos comerciales de uso cotidiano (tablet PC,
SmartPhone, iPad) como medios de interfaz de usuario.
EL COCINADO ELÉCTRICO: COCINAS Y HORNOS
El principio de funcionamiento de estos equipos es el efecto
Joule. Se hace circular una corriente eléctrica por un conductor con una fuerte resistividad térmica con el fin de que este
adquiera una alta temperatura.
En el caso de las cocinas, la transmisión térmica al alimento
se ha hecho básicamente por conducción, esto es, por el
contacto físico de la resistencia con el utensilio de cocina que
se pretendía calentar. En los hornos de resistencia, esta transmisión hacia el alimento se realizaba por convección.
Esto ha sido exclusivamente así, en lo que a cocinas se refiere, desde finales del siglo XIX hasta la aparición de la cocina
de inducción. Algo similar se puede decir de los hornos, con
la excepción de los microondas.
Tecnología para la generación de calor
En 1892, una década después de que Edison diera a conocer
la lámpara incandescente, los británicos R. E. Crompton y
195
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
J. H. Dowsing patentaron la primera estufa eléctrica por efecto Joule para uso doméstico. Luego, esta técnica se aplicó a
los fogones mediante resistencias enrolladas helicoidalmente
en una base de material cerámico y, más adelante, mediante
resistencias blindadas o embutidas en una placa metálica.
Cocinas
En 1912 General Electric comenzó la producción de su modelo de cocina independiente R-1 (véase la figura 1).
No se darán cambios importantes, ni tecnológicos ni funcionales, hasta finales de los setenta, cuando aparecen las placas vitrocerámicas. En estas también se genera un importante foco de calor por efecto Joule en una bobina, pero en vez
de estar en contacto directo con el recipiente, entre este y el
foco se coloca un cristal especial que se caracteriza por su
bajísimo coeficiente de dilatación, por soportar altas temperaturas y por ser prácticamente transparente a la radiación
infrarroja (el calor llega al alimento por conducción y radiación). Durante los años ochenta surge una segunda generación de vitrocerámicas con la sustitución de las bobinas por
lámparas halógenas (filamento de wolframio dentro de una
cobertura de cristal de cuarzo con gas halógeno en su interior) haciendo que la transmisión del calor sea fundamentalmente radiactiva.
Estas placas, en ambas versiones, supusieron para el usuario
una mejora cualitativa importante: calentaban más rápido;
disminuía el calor residual; y solo se calentaba la zona de la
placa en contacto con la fuente de calor, lo que, unido al
hecho de que el cristal vitrocerámico es una superficie plana,
facilitaba la limpieza.
Figura 1. Cocina independiente R-1 (1912)
Los primeros fogones eléctricos echaban a perder casi todas
las comidas preparadas sobre ellos. Estaban equipados con
termostatos muy rudimentarios, y la temperatura solo podía
regularse aproximadamente, lo que hacía que los alimentos
quedaran crudos o carbonizados, sin término medio.
El siguiente salto cualitativo se dio en la década de 1940 gracias al empleo de los termopares en la implementación de
termostatos, lo que aumentaba la fiabilidad de estas cocinas.
Esto, unido a la electrificación generalizada en Europa y EEUU,
permitió la expansión del producto.
196
El siguiente salto tecnológico vino dado por la aplicación de
la inducción electromagnética como fuente generadora de
calor. Esta tecnología, después de décadas de frustrados intentos debidos a la escasa calidad de los primeros semiconductores de potencia, alcanzó el estatus de producto de
masas en los noventa a partir de la aparición de los IGBT y
gracias a las ventajas que aportaba respecto a las cocinas
previas, básicamente en lo referente a inmediatez, rendimiento y limpieza (toda la placa permanece prácticamente
fría).
Hornos
En los hornos eléctricos el principio de generación de calor
por efecto Joule se ha mantenido a lo largo de los últimos
setenta años. Las mejoras que ha aportado la tecnología se
La evolución del electrodoméstico
han centrado en el proceso productivo y constructivo con el
fin de aumentar el aislamiento, mejorando así la eficiencia y
el consumo.
Los dos hitos funcionales más significativos fueron la aparición en los años ochenta de hornos combinados de efecto
Joule y microondas y la inclusión en estos aparatos de la pirólisis (consolidada a finales de la década de 1990) para facilitar la limpieza.
En los años cincuenta se consiguió la refrigeración del magnetrón por aire, lo que favoreció su expansión. Durante esa
década se popularizó en EEUU la comida precocinada, para
la que este tipo de horno resultó ser el complemento perfecto. Los modos de cocinado cambiaron debido a la comodidad y al ahorro de tiempo y de energía que el uso de estos
hornos reportaba.
Previsión de futuro
En lo referente al control, en estos aparatos se ha conseguido
un elevadísimo grado de automatización gracias a la microelectrónica y al software, pilares de los sistemas embebidos
con los que se implementan los programadores de los hornos
de alta gama. Estos incorporan una lista de recetas en su control, recetas que se visualizan en el display que obra como interfaz de usuario. La duración de una fase, el modo de funcionamiento y la temperatura son parámetros incorporados
a la receta en cuestión, que el usuario no necesita introducir.
Microondas
El horno de microondas tiene su origen en la casualidad. En
1946 el doctor Percy Spencer, ingeniero de la Raytheon Corporation, realizaba un proyecto de investigación ligado al estudio del radar. Mientras probaba un nuevo tubo de vacío
(magnetrón) descubrió que, curiosamente, unos dulces que
guardaba en la bolsa del almuerzo se habían derretido. Intrigado, y ante la perspectiva de que los dulces hubieran sido
afectados por la radiación generada en su experimento, acercó al tubo unos granos de maíz que, confirmando sus sospechas, se convirtieron en palomitas. A finales de ese mismo
año la Raytheon Company solicitó una patente para emplear
las microondas en el cocimiento de los alimentos.
En 1947 salió al mercado el primer horno comercial de microondas, de 1,60 m de altura y 80 kg de peso. El magnetrón
se enfriaba con agua, de modo que era necesario instalar
una tubería especial.
Placas de cocina
En generación de calor no se vislumbra ninguna tecnología
que pueda suplantar, y ni siquiera mejorar, a la inducción.
En un futuro próximo, las mejoras tecnológicas girarán en
torno a esta tecnología, y en las siguientes direcciones:
• Funcionalidad: aumento del número de bobinas con el fin
de obtener la placa de superficie total (en cualquier punto
de la placa puede generarse calor, de manera que independientemente de la forma de la base del recipiente, de
su tamaño y de dónde se ubique, se inducirá calor en este).
• Sostenibilidad: mediante algoritmia se desarrollarán programas de control que mejoren el rendimiento y reduzcan
el consumo.
Hornos
La innovación más importante a corto plazo será el horneado
en vacío. El modo de generar calor seguirá siendo el mismo,
pero se generará el vacío en el interior del horno como paso
previo a la cocción del alimento. Esto variará drásticamente
las tablas de temperatura y de tiempos y, fundamentalmente, dará al usuario una herramienta con la que acceder a las
técnicas de cocina más sofisticadas.
Innovaciones de menor rango vendrán por la combinación
del cocinado al vapor con la generación tradicional de calor,
197
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
con el fin de preservar los sabores y las propiedades nutricionales de los alimentos que así se cocinen.
técnicas para producir hielo artificial. El ingeniero alemán
Carl von Linde patentó en 1876 el proceso de licuar el gas,
básico en la tecnología de la refrigeración.
Microondas
Ya en el siglo XX, en 1918 Nathaniel Wales desarrolló el modelo Kelvinator, introduciendo el compresor y un rudimentario sistema de control. Y en 1923 General Motors presentó
la primera unidad compacta. Hasta este momento, la nevera
estaba en la cocina, mientras que el extremo mecánico (el
motor, el compresor y el condensador) se instalaba separadamente, por lo general en el sótano. Los gabinetes de acero
y porcelana comenzaron a salir al mercado a mediados de
los años veinte.
Difícilmente, incluso a largo plazo, las microondas serán sustituidas por otra tecnología para las aplicaciones de calentamiento y descongelación a las que ahora se dedican. Es y
será una tecnología con una enorme vigencia.
Las mejoras que se prevén por aplicación de la tecnología son:
• Funcionales: inclusión de medición de temperatura en el
horno y en el alimento para mejorar el resultado y aumentar la automatización.
• Funcionales y de sostenibilidad: mejorar los magnetrones
y el diseño físico de estos hornos para obtener un reparto
más eficiente de las microondas y aumentar la superficie
útil de aplicación de estas.
EL FRIGORÍFICO
Desde muy antiguo el hombre ha tenido la necesidad de
mantener frescos sus alimentos y, de la misma forma, ha sabido que el frío le ayudaría a conseguirlo.
En 1784 William Cullen construyó una máquina para enfriar,
utilizando dietil éter como líquido refrigerante y una máquina
de vacío. De esta manera consiguió producir hielo de manera
mecánica por primera vez en la historia. En 1800 Michael Faraday licuó amoníaco para provocar enfriamiento. Este sistema
suponía la compresión de un gas hasta convertirlo en un líquido que absorbía el calor. Al hacerlo, volvía a convertirse en gas.
En 1860, el francés Ferdinand Carré produjo hielo artificialmente mediante un aparato que funcionaba con gas de
amoníaco. A partir de aquel momento, se desarrollaron las
198
En 1931, el químico Thomas Midgley preparó por primera
vez el diclorodiflurometano, que consiste en una molécula
formada por un átomo de carbono al que se han unido dos
átomos de cloro y otros dos de flúor. Esta sustancia era ideal
para la refrigeración y supuso el primer paso para la utilización de CFC (clorofluorocarbonos) en los frigoríficos. El líquido resultante se registró como freón, y ha sido empleado
hasta nuestros días.
En 1971 Bosch desarrolló el primer aparato que se descongelaba automáticamente. En los años ochenta surge la preocupación por el medio ambiente cuando los científicos
Mario Molina y Sherwood Rowland descubren que los clorofluorocarbonos, como el freón, se acumulan en la atmósfera y dañan la capa de ozono. El Protocolo de Montreal de
1987, internacionalmente aceptado, marcó las pautas para
la desaparición de los CFC y su sustitución por otros refrigerantes menos dañinos para el ambiente. En 1994 dejan de
fabricarse CFC y en 1999 dejan de emplearse en los frigoríficos, siendo sustituidos por hidrofluorocarbonos y bromofluorocarbonos.
Los fabricantes de electrodomésticos de frío fueron los primeros en asumir el etiquetado energético en 1995.
Actualmente, los frigoríficos de última generación:
La evolución del electrodoméstico
• Cumplen escrupulosamente con los preceptos de la sostenibilidad: se ha alcanzado la clasificación A++ con un
consumo un 45% menor que un frigorífico de clase A.
• Disponen de circuitos de frío independientes y compresores de velocidad variable junto con sensores que detectan
la carga del frigorífico y adaptan la temperatura y la humedad de cada compartimento a las necesidades de los
alimentos que cada uno contiene.
• Son controlados por programadores electrónicos que ofrecen modos de funcionamiento ecológico, para vacaciones,
programas de enfriamiento y congelación rápidos, funciones de bloqueo para evitar manipulaciones no deseadas
(niños) y gestión de alarmas de temperatura.
• Incorporan en los circuitos de refrigeración filtros de aire
de carbono activo para absorber los compuestos volátiles
provenientes de los alimentos, evitando así la mezcla de
olores y sabores. También se añaden iones de plata en las
paredes de la cuba interior para neutralizar el crecimiento
de bacterias.
ganismos y de las proteínas, y de romper las membranas celulares. Su efecto dependerá de la frecuencia, de la duración
de los pulsos, de la longitud de onda y de la distancia al producto a tratar.
• Enfriamiento ultrarrápido con microondas.
• Higiene y protección antibacterias: se están desarrollando
nanopartículas y biopartículas con las que crear recubrimientos para las superficies internas de los frigoríficos con
el fin de eliminar las bacterias.
• Sostenibilidad por la mejora del aislamiento: empleo de
aerogeles para este propósito (material coloidal de estructura amorfa y gran porosidad; excelente aislante térmico,
acústico y eléctrico).
• Frío distribuido: desaparece el frigorífico como elemento
monolítico y, en su lugar, se tienen distintos recintos, esparcidos por la vivienda, con distintas temperaturas de
consigna en función de lo que deban conservar (verduras,
lácteos, carnes, vinos, etc.). La generación de frío, en este
caso, se hará mediante isobutano y ciclopentano.
Previsión de futuro
Estas seis apuestas de futuro están en fase experimental.
El frigorífico futuro será consecuencia de la aplicación a la
generación de frío y a la conservación de alimentos de tecnologías como: magnetismo, microondas, luz pulsada, nanoy biotecnología, y materiales aerosoles:
Por otra parte, existe una línea de trabajo en torno a la tecnología de autoidentificación por radiofrecuencia o, lo que
es lo mismo, Radio Frequency Identification Devices (RFID),
la cual se basa en unas etiquetas electrónicas o tags que se
componen de un chip y una pequeña antena. Estas etiquetas
se pueden incorporar a cualquier producto y hacen posible
su identificación a cierta distancia y su control a lo largo de
toda la cadena de producción y distribución, desde el fabricante hasta el comprador. La idea es que estas etiquetas acabarán sustituyendo a las actuales de código de barras, gracias
a lo cual se podrán desarrollar frigoríficos con lectores RFID
incorporados, de manera que se pueda informar al usuario
de las existencias, de los riesgos de caducidad y de la conveniencia de realizar la compra conforme se consuma lo almacenado en el frigorífico.
• Frío magnético: hasta ahora, el funcionamiento de un frigorífico se ha basado en la compresión de gases y la evaporación de líquidos; es decir, en los cambios térmicos generados en los cambios de estado. Por el contrario, el
nuevo frío magnético se logrará mediante sólidos magnéticos a los que, en vez de ciclos de compresión-expansión,
se apliquen ciclos de imantación-desimantación.
• Conservación de alimentos por pulsos de luz: la luz posee
componentes UV capaces de alterar el ADN de los microor-
199
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
LA LAVADORA
Las primeras lavadoras (siglo XVIII) consistían básicamente en
una cuba de madera con patas y una tapa. Se introducían la
ropa, el agua y el jabón dentro de la cuba, y se accionaba
manualmente un mecanismo que hacía girar unas paletas
que removían la ropa dentro del agua jabonosa, consiguiéndose el lavado. Prácticamente lo mismo que hacen ahora las
más sofisticadas lavadoras, con las lógicas salvedades que en
este apartado se detallan.
En 1930, Miele introduce la primera lavadora fabricada totalmente en metal. A mediados de los años treinta una filial de
la Bendix Corporation empezó a trabajar en una de las mejoras
más significativas en la fabricación de lavadoras: una máquina
diseñada por John Chamberlain que lavaba, enjuagaba y exprimía la ropa en una sola operación. En 1938, Nineteen
Hundred (Whirpool) crea la primera lavadora con agitación
motorizada.
Esas primeras lavadoras eran impulsadas a mano, con el uso
de ruedas, bombas manuales y fuerza animal. Existían diversos sistemas para golpear la ropa contra las paredes de la
tina. El problema de todas ellas era que, aunque aligerasen
un poco la tarea, seguían requiriendo de atención constante
y trabajo muscular. Hacía falta una fuente de energía que realizase el trabajo: a principios del siglo XX se consigue esto al
incluirse motores de gasolina en los aparatos.
En 1908 se presentó por primera vez una lavadora eléctrica
en el mercado. Se trataba de la lavadora Thor (véase la figura 2)
fabricada por Hurley Machine Company de Chicago. Era una
máquina cilíndrica, con una tina galvanizada y un motor eléctrico. Su patente se registró el 9 de agosto de 1910. Además
de su elevado precio, las primeras lavadoras eléctricas tenían
otro inconveniente: el motor, la cinta de transmisión y los
engranajes estaban fuera de la estructura de la lavadora y
no se encontraban bien protegidos bajo la máquina. El tambor y la tapa perdían agua con facilidad, por lo que la mayor
parte de estas lavadoras acababan mojando el motor y los
cables, lo que podía dar lugar a cortocircuitos, incendios y
descargas eléctricas.
En 1919, la empresa Maytag fabricó la primera lavadora
de aluminio (véase la figura 3) y, dos años después, introdujo
un sistema para impulsar el agua a través de la ropa mediante un agitador, en vez de arrastrar la ropa a través del
agua. Este sistema es el que comúnmente se utiliza hoy en
día.
200
Figura 2. Patente de la lavadora Thor (1908)
La evolución del electrodoméstico
hasta hoy en día) gracias a los cuales se acuñó el concepto
“lavadora automática”.
Tres avances funcionales de mediados del siglo XX son:
• El centrifugado. La idea básica era hacer que el tambor de
la lavadora fuera doble: el exterior es un tambor normal,
con entrada y salida de agua, y el interior tiene pequeños
agujeros por los que puede pasar el agua pero no la ropa.
Mientras el tambor gira de manera razonablemente lenta,
el agua y la ropa están mezclados, pero si se hace girar el
tambor muy rápido, el agua se escapa por los agujeros y
la ropa se seca hasta cierto punto (tanto más cuanto
mayor sea la velocidad de giro, por supuesto). Las primeras máquinas centrifugadoras no lograban velocidades
muy grandes, pero según fueron avanzando los motores
eléctricos se fue consiguiendo un mayor secado.
Sin embargo, el centrifugado trajo consigo un problema.
La velocidad de giro y las vibraciones asociadas a él hacían
que las lavadoras se movieran sin control a ritmo de centrifugado. La solución, entonces igual que ahora, fue
burda pero sencilla: lograr el mayor peso posible. Antiguamente se ponían piezas de hierro forjado dentro de la lavadora; hoy se hace con soluciones más baratas como,
por ejemplo, el cemento.
Fuente: Whirlpool Coorp.
Figura 3. Lavadora Maytag (1918)
Las lavadoras eléctricas de las décadas de 1920 y 1930 tenían
una ventaja fundamental sobre las manuales: no hacía falta
estar presente durante el tiempo del lavado. Sin embargo, al
principio sí se requería, además de calentar el agua antes de
iniciar el lavado, controlar la colada de vez en cuando y cambiar la velocidad de giro manualmente, ya que no había programación alguna. Esto cambió en los cincuenta cuando se
desarrollaron programadores electromecánicos (vigentes
• La inclusión de todo el sistema eléctrico y mecánico dentro
de un chasis. Esto hacía más seguros estos aparatos, siempre que el chasis estuviera bien aislado eléctricamente.
• El uso de agua corriente de las casas para llenar la lavadora. Antes de que casi todas las casas tuvieran tomas de
agua y de desagüe, llenar y vaciar el aparato era, por razones obvias, una tarea especialmente engorrosa. Hoy día
suele haber grifos específicos para este electrodoméstico.
En 1960 Miele lanza la primera lavadora de ciclo “lavado delicado” y control por termostato y, en 1962, presenta la primera lavadora automática con un solo mando de control.
201
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Un simple giro del mando era suficiente para elegir el programa adecuado. El programador automático regulaba por
sí solo 11 programas.
A finales de los setenta se desarrollan las lavadoras modernas, con un programador electrónico que controla el tiempo
de giro, el sentido del motor y la velocidad, permitiendo un
abanico de combinaciones en cuanto al tipo de lavado, temperatura del agua, etc.
Actualmente se están comercializando equipos que se automatizan al máximo, son capaces de detectar los tipos de tejido, el nivel de carga o la suciedad de las prendas, ajustando
los consumos energéticos, de agua y de detergente en función de estas variables. Se han añadido depósitos adicionales
de detergente que permiten la dosificación automática durante varios ciclos de lavado. Se puede combinar la dosificación de detergente con la del suavizante, evitándose así la
infra- o sobredosificación de detergente.
Los años ochenta fueron la década de los grandes avances
tecnológicos: se crean lavadoras más seguras (sistema
AquaStop de Bosch en 1985), versátiles (adaptadas a detergentes líquidos y en polvo), ecológicas (ahorran detergente
y consumen menos agua) y funcionales (lavadoras totalmente electrónicas), con indicadores de tiempo restante. En
1989, Miele introduce la primera lavadora que incorpora un
dispensador automático de detergente líquido y de descalcificador.
Las lavadoras, por medio de la optimización y el rediseño de
los motores, llegan a obtener marcas de consumo energético
inferior en un 30% al fijado para conseguir la clasificación A
de eficiencia energética. Por medio de la dosificación exacta
del detergente se consiguen ahorros de 7.000 litros de agua
al año. Hay equipos que incluyen sensores ópticos en el tubo
de recirculación para analizar la turbidez del agua y decidir respecto a la intensidad y el número de aclarados, buscando un
resultado óptimo de lavado con un consumo mínimo de agua.
En la década de 1990 llegaron algunos de los grandes avances tecnológicos relacionados con la microelectrónica. Sistemas de control difuso, sensores de agua y de turbiedad gracias a los cuales se optimizaba el lavado y con él los
consumos de agua y de energía. Las lavadoras comienzan a
incluir microcontroladores y microprocesadores extremadamente potentes, e incluso algunas marcas incluyeron técnicas
de programación basadas en "lógica difusa" en sus programadores. Y antes de llegar al final de esta década, en 1998,
llegaron al mercado las primeras lavadoras de 6 kg, fundamentalmente de la mano de Fagor Electrodomésticos, empresa que fue pionera en ofrecer este aumento de carga.
En el aspecto de la reducción de ruidos y vibraciones, se han
conseguido valores por debajo de 49 dB en el lavado y de
69 dB en el centrifugado, aplicando nuevos paneles antivibración y sistemas de compensación basados en sensores
que detectan y compensan la existencia de cargas descentradas dentro del tambor de lavado.
A partir de los años noventa las mejoras han tendido a centrarse en disminuir el consumo energético, de detergente y
de agua, sin que estas disminuciones afecten a la eficacia del
lavado. El problema es que resulta complejo alcanzar el equilibrio: cuanto más caliente está el agua y más cantidad de
agua se utiliza, más intenso es el lavado, pero menos eficiente energéticamente es la lavadora.
202
Se ha llegado a modelos de lavadoras de tamaño estándar
con 8 kg de capacidad de carga que, además de permitir
lavar una mayor cantidad de ropa en cada ciclo, facilitan el
planchado posterior de esta, ya que, al contar con un tambor
de lavado de mayor volumen, se limita la generación de arrugas en las prendas durante el lavado.
Previsión de futuro
Las lavadoras que depare el futuro serán consecuencia de los
resultados que lleguen a obtenerse en las siguientes líneas
de investigación tecnológica:
La evolución del electrodoméstico
• Sensorización: transductores electroquímicos basados en
redes de microelectrodos y redes (arrays) de sensores con
los que detectar la suciedad de la ropa, la turbidez del
agua, el pH de esta, etc.
• Desarrollo de textiles multifuncionales:
— Nuevas fibras de carácter “bio”, ecológicas y no derivadas del petróleo.
— Tratamientos especiales de carácter enzimático.
• Higienización (técnicas de detección de microorganismos):
— Métodos catalíticos de higienización basados en la aplicación de un compuesto oxidante (H2O2, O2 en fase gas)
junto a catalizadores de diferente naturaleza en medio
acuoso para reducir la temperatura de los procesos oxidativos e incrementar la generación de radicales altamente oxidantes, principalmente radicales hidroxilo.
— Métodos enzimáticos de higienización: la aplicación de
peróxido de hidrógeno será utilizada para la higienización de biofilmes en diferentes sustratos o en función
de los microorganismos formadores de los filmes.
— Métodos electroquímicos de higienización.
— Métodos de higienización basados en gases oxidantes.
— Métodos de higienización basados en plasmas.
• Métodos de higienización basados en gases oxidantes: la
mayoría de estudios hacen referencia al ozono. Actualmente se están investigando métodos para oxidar microcontaminantes aplicables a procesos de decoloración de
aguas residuales y de textiles, eliminación de metales, esterilización de instrumentación médica o de alimentos e
higienización de aire, entre otras. Un estudio reciente ha
combinado las tecnologías de ozonización, ultrasonidos y
electrólisis de plata en sistemas de lavado y desinfección.
• Métodos alternativos de lavado para ahorro de agua: disolución de agua con ozono en una cámara de contacto;
tratamiento mediante luz UV; fluidos supercríticos (CO2);
tratamiento con microburbujas; método basado en fotocatálisis; métodos alternativos de lavado basados en plasmas; compuestos de clorofenildiguanidina; cloruro de cetilpiridinio; derivados de la octenidina; dióxido de cloro;
N- clorosulfamatos; persulfatos.
• Autolimpieza (self cleaning): las nanotecnologías juegan
un papel cada vez más importante en el dominio textil.
Las nanopartículas contribuirán a la obtención de tejidos
“self cleaning”. Son tejidos que utilizan el principio de las
hojas de loto. Sobre el tejido se aplican nanopartículas de
menos de 100 nanómetros. Las partículas de suciedad no
contactarán con la superficie del tejido, sino que se posarán sobre las nanopartículas de la superficie. Así, al aplicar agua sobre la prenda, la suciedad será arrastrada sin
necesidad de detergente. Algunos de los tratamientos
mediante los cuales se pueden conseguir este tipo de acabados son los siguientes:
— Fotocatálisis: consiste en recubrir el tejido con una capa
de 20 nm de dióxido de titanio (TiO2) o de óxido de zinc
(ZnO). Cuando la luz llega a la capa de TiO2 se produce
la fotocatálisis y, mediante una reacción, los compuestos orgánicos (suciedad o bacterias) se convierten en
dióxido de carbono o en agua.
— Microondas.
— Recubrimiento con nanotubos de carbono o nanopartículas de plata.
— Tratamiento con óxido metálico coloidal: el tejido se
impregna de una solución de óxido metálico coloidal y
se trata con calor.
LOS LAVAVAJILLAS
Orígenes
El origen del lavavajillas se suele ubicar en la década de 1880,
en Shelbylle (Illinois). Curiosamente, lo que motivó la invención
203
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
no fue en primera instancia ahorrar trabajo, sino evitar destrozos. Josephine Cochrane (1839-1913) se encontraba más
que harta de que el personal encargado de la limpieza de su
delicada vajilla china deteriorara constantemente las piezas.
Necesitaba imperiosamente un aparato que ahorrara en lo
posible el trasiego manual de la vajilla. Tras realizar las correspondientes medidas, ordenó la elaboración de compartimentos individuales de tela metálica para platos de diversos
tamaños y para diferentes piezas de cristalería. Estos compartimentos se ajustaban en torno a la circunferencia de una
rueda montada en una gran caldera de cobre. Un motor accionaba esta rueda, haciendo que saliera agua caliente jabonosa del fondo de una caldera y que cayera sobre la vajilla.
El diseño del ingenio (véase la figura 4) era un tanto rudimentario, pero bastante efectivo; tanto como para patentarlo
el 28 de diciembre de 1886. El número de registro fue el
355.139. El invento recibió un impulso considerable al ser
galardonado con el primer premio de la Exposición Mundial
de Chicago de 1893. En dicho certamen se destacó que era
“la mejor construcción mecánica, por su adaptación a una
determinada línea de trabajo”.
En 1920 se comercializaron lavavajillas mecánicos dotados
de un motor eléctrico, pero. su uso no se extendió a los hogares, quedando reservado al sector de la restauración y la
hostelería o a las mansiones de lujo. El mercado doméstico
permaneció adormecido durante décadas.
Poco a poco se fueron produciendo mejoras técnicas que
dieron cierto impulso al aparato. Algunos de los hitos más
importantes se produjeron en el periodo de entreguerras.
Los modelos instalados con fontanería permanente aparecieron en la década de 1920. En 1929, los alemanes empezaron a interesarse por este tipo de aparatos. En ese año,
Miele fabricó el primer lavavajillas eléctrico de Europa. El
agua, en el lavado, es proyectada sobre la vajilla sucia por
una rueda de paletas accionada eléctricamente.
En 1937 William Howard Livens inventó un pequeño lavavajillas adecuado para las cocinas domésticas. Contaba con muchas de las características de un aparato lavavajillas moderno,
como una puerta de entrada para la carga, una rejilla de
alambre para mantener la vajilla y un pulverizador giratorio.
Los elementos eléctricos de secado, una función innovadora
desarrollada por Bosch, se añadieron en 1940.
El antecedente del actual electrodoméstico hay que situarlo
después de la Segunda Guerra Mundial. Progresivamente,
los aparatos totalmente automáticos fueron sustituyendo a
las máquinas de lavar platos que requerían una atención manual. En 1960, la fábrica de Miele en Bielefeld lanzó el primer
lavavajillas totalmente automático (véase la figura 5) con carga
frontal y brazos aspersores giratorios.
Figura 4. Máquina de lavar platos patentada por J. Cochrane (1886)
204
En los años setenta el aparato contenía ya entre sus funciones varios programas, como el del chorro aspersor y el regulador de la potencia de pulverización del agua. Se funde la
cuba con la carcasa, formando una unidad compacta, lo que
La evolución del electrodoméstico
del interior del equipo es conducido al depósito que contiene
las zeolitas, donde se le extrae la humedad y se devuelve seco
y caliente de nuevo al interior del lavavajillas para ayudar al
secado. De igual modo, incorporan sensores para determinar
la turbiedad del agua de lavado y decidir si hay que hacer
una renovación de la misma o se puede seguir utilizando,
buscado un buen resultado en la limpieza y una reducción
del consumo de agua.
Previsión de futuro
El sector del lavavajillas no es tan dinámico como el resto en
lo que a innovación se refiere. De hecho, las dos líneas de
trabajo más importantes en el futuro no son de carácter tecnológico. Estas son:
Figura 5. Primer lavavajillas automático (1960)
proporciona una mayor estabilidad a la máquina y una mayor
amortiguación de los ruidos.
A principios de los ochenta se introdujo la microelectrónica,
que contribuyó a mejorar la automatización de los programas de lavado y la interfaz de usuario. En 1988, Miele lanza
el primer lavavajillas que lava en tres niveles, y un año más
tarde el primer lavavajillas que incorpora un dispensador automático de detergente líquido y descalcificador.
En la actualidad, prácticamente el 95% de los equipos que
se comercializan son de eficiencia energética clase A. Hay
modelos que integran depósitos con zeolitas. En estos equipos se consiguen consumos energéticos un 20% inferiores
a los propios de la clasificación A. Las zeolitas son aluminosilicatos porosos que tienen la capacidad de absorber y almacenar humedad y desprender calor. En la fase de lavado
el aire frío del interior del equipo es enviado al depósito de
zeolitas, donde se calienta con una resistencia eléctrica. Este
aire caliente pasa al interior del lavavajillas para alcanzar la
temperatura de lavado. En la fase de secado, el aire húmedo
• Diferentes cavidades: se pretende diseñar un equipo que
contenga, dentro de las dimensiones habituales, al menos
dos cavidades de uso independiente para ubicar en cada una
de ellas un tipo de menaje concreto (por ejemplo, cubertería
en una y vajilla en la otra) con el fin de optimizar el lavado
y reducir el consumo de agua y de detergente.
• Toma de agua caliente: mejora constructiva por la cual el
lavavajillas podría recibir agua caliente generada por la caldera de agua caliente sanitaria. Esto reduciría considerablemente el consumo eléctrico, toda vez que el calentamiento del agua es la fase que más consume dentro de
un proceso de lavado.
NUEVOS NEGOCIOS Y TECNOLOGÍAS
ASOCIADAS
En este apartado se describen las nuevas áreas de negocio
en las que se está adentrando el sector del electrodoméstico,
entre las que destacan la comercialización de servicios (pago
por uso, diagnóstico médico, telemantenimiento, redes sociales, etc.).
205
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
El desarrollo tecnológico de las últimas décadas está produciendo cambios significativos en la estructura económica y
social. La información se ha convertido en el eje promotor
de estos cambios. La expansión de redes informáticas ha
hecho posible la universalización de los intercambios y las relaciones, al poner en comunicación a amplios sectores de ciudadanos residentes en espacios geográficos muy distantes
entre sí.
El sector de los electrodomésticos también ha sido afectado
por los avances en las TIC que marcarán el devenir de este
sector en los próximos años, mediante la generalización de
la domótica, de la telemedicina y de la comercialización de
nuevos servicios relacionados con las comunicaciones: redes
sociales, telemantenimiento, asesoramiento, etc.
El resto de tecnologías también influirán en el desarrollo del
sector en los próximos años, pero en una medida menos significativa. Se seguirá trabajando en la mejora de los productos convencionales, buscando una mayor eficiencia energética y un menor consumo de agua. De acuerdo a las nuevas
normativas y requerimientos del ecodiseño, se fabricarán
electrodomésticos evitando el uso de metales pesados y refrigerantes con halógenos, y en muchas de las piezas de
estos aparatos se sustituirá el metal por vidrio o plástico.
Telemedicina
Uno de los mayores retos sanitarios de la Unión Europea
viene dado por el progresivo envejecimiento de su población.
Se calcula que en el año 2025 la población de personas mayores se va a doblar porcentualmente con respecto a la actual. En España, la población mayor de 65 años ha crecido
más rápidamente en el último siglo que el resto de grupos
de población. Hoy, alrededor de 6,5 millones de españoles
tiene más de 65 años (INE, Instituto Nacional de Estadística).
Esta evolución demográfica tendrá importantes repercusiones en la estructura económica y social. Se prevé un aumento
206
considerable del número de personas mayores que vivan
solas, de las cuales un amplio porcentaje sufrirá síndromes y
trastornos que producen dependencia y que, por lo tanto,
requieren de apoyos y cuidados.
En España, en torno al 15% de los pacientes genera el 65%
del gasto sanitario. Pero además, estas personas, que suelen
ser mayores de 65 años, no padecen solo una enfermedad,
sino varias a la vez, y generalmente crónicas. Así, de todos
los diabéticos, solo el 8% sufre únicamente esta enfermedad. Lo habitual es que además padezcan hipertensión, obesidad, hipercolesterolemia, etc. Se estima que en 2020 más
del 60% de las patologías serán crónicas
Ante esta perspectiva, la telemedicina surge como una necesidad y como un nuevo negocio: un nuevo modelo de
práctica y organización de la atención sanitaria, vinculado a
la utilización de las TIC, que permitirá distribuir recursos y
competencias profesionales y poner en comunicación a los
pacientes con los servicios de salud mientras aquellos permanecen en sus domicilios. En los diferentes ámbitos y escenarios en los que se desarrolla la sanidad, la telemedicina
está generando importantes expectativas de superación de
las actuales limitaciones e ineficiencias de los sistemas sanitarios y, probablemente, va a ser un componente esencial de
los modelos sanitarios del próximo futuro.
Para determinados grupos de población, portadores de enfermedades crónicas, ancianos o personas en situación de
dependencia, para los que el punto de asistencia más razonable puede ser el propio domicilio, los procedimientos de
telemedicina ofrecen la posibilidad de acercar los recursos
sanitarios al propio entorno del usuario y mantener un contacto constante.
Algunos médicos ya usan las redes sociales para comunicarse
con sus enfermos. La implantación generalizada de estas podría evitar visitas innecesarias, optimizando el tiempo de
atención y disminuyendo la burocracia a la hora de pasar
consulta y atender a los pacientes.
La evolución del electrodoméstico
Esta nueva manera de ver la atención sanitaria ha abierto las
puertas a nuevos negocios para los fabricantes de electrodomésticos: será necesario desarrollar nuevos productos y servicios, ambos para ser utilizados en los hogares; esto es, allí
donde estas empresas saben llegar.
En el mercado existen algunas iniciativas empresariales relacionadas con la teleasistencia, en las que la empresa realiza
labores de seguimiento telefónico periódico y personalizado
a través de un sistema instalado en el domicilio asociado a
la línea telefónica. También Fagor Electrodomésticos, en colaboración con la Sociedad Española de Diabéticos, va a comercializar un servicio de estas características.
En cuanto a teleasistencia móvil, ya existe algún desarrollo
que ejerce cierto seguimiento de la persona tanto dentro
como fuera del domicilio. Este sistema ofrece un control de
la movilidad, un sistema de localización y un sensor de movimiento, inactividad y caídas (teleasistencia Móvil Alares®Ghost®).
Se han creado servicios completos en telemedicina, como
pueden ser:
• Plataforma de telemedicina: se encarga de la implantación
y desarrollo personalizado de soluciones de telemedicina.
• Sistemas de teleasistencia: sistemas de monitorización
para la evaluación y el seguimiento sanitario a distancia.
Sistema que permite la comunicación entre un centro médico y un centro con pacientes potenciales: colegios, residencias, centros de día, etc. Instala en los hogares los siguientes equipos médicos:
— Estetoscopio electrónico, para escuchar los latidos del
corazón y los sonidos respiratorios.
— Video-otoscopio/laringoscopio, para obtener imágenes
de garganta y oído.
— Cámara fija para obtener imágenes de piel.
Mediante una videoconferencia se presta asistencia médica
remota e inmediata ante incidencias médicas leves, además
de realizarse el seguimiento continuo de un paciente. Durante la videoconferencia se utilizan los aparatos médicos
mencionados, gracias a los cuales el médico realizará un
diagnóstico más efectivo.
Paralelamente a la creación de empresas de sistemas de teleasistencia o telemedicina se deben desarrollar productos
para la monitorización de magnitudes fisiológicas (signos vitales) en un entorno doméstico que den servicio a estos sistemas. La optimización y mejora de estos productos permitirá
la evolución de la telemedicina y del telediagnóstico. Esto
abre un gran ámbito de negocio en el que muchas empresas
fabricantes de electrodomésticos están dispuestas a entrar a
medio plazo.
Actualmente ya existen varias empresas fabricantes de este
tipo de aparatos utilizables en el ámbito doméstico:
• La empresa CORSCIENCE cuenta entre sus productos de
aplicación doméstica con electrocardiógrafo, tensiómetro,
pulsioxímetro, glucómetro, báscula y espirómetro. El conjunto de artefactos del que disponen le permite monitorizar multitud de patologías, sobre todo las típicas enfermedades crónicas que afectan a la población occidental.
Los dispositivos están diseñados para que su uso por
parte del paciente sea sencillo, de manera que, en la mayoría de los casos, el usuario solo tenga que pulsar un
botón. La transmisión de los datos registrados se realiza
mediante Bluetooth sin que se requiera ninguna intervención por parte del usuario. La recepción de estos datos
puede darse en cualquier aparato provisto de Bluetooth.
Se han desarrollado aplicaciones para teléfono móvil y
para PC.
• Nonin Medical dispone de oxímetros, pulsioxímetros, oxímetros cerebrales, monitores de respiración y monitores de
presión sanguínea no invasiva (PSNI-NIBP). También cuenta
con un software y accesorios confiables y portátiles.
207
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
El reto pasa por desarrollar un único equipo (electrodoméstico de salud: torre de salud) capaz de sensorizar en el hogar
los signos vitales básicos a partir de los cuales puede llevarse
a cabo el seguimiento de un buen número de dolencias crónicas. Estos signos serían el peso, la temperatura, el ritmo
cardiaco, la tensión arterial, la oxigenación de la sangre, la
conductividad de la piel y el ECG (electrocardiograma).
considerarse el primer electrodoméstico específico de
salud. La llegada de este equipo a los hogares favorecerá
la comercialización de los servicios con los que conseguir
la teleasistencia sanitaria.
Con esta premisa está trabajando la empresa española
RGB Medical, cuyo propósito es desarrollar una torre de
salud de aplicación doméstica (véase la figura 6) que podría
El término “domótica” compendia el conjunto de soluciones
que mediante el uso de las técnicas y tecnologías disponibles
(electricidad, electrónica, informática, robótica y comunicaciones) logra una mejor utilización, gestión y control de ciertos aspectos relacionados con la vivienda (confort, seguridad,
ahorro de energía, comunicaciones, informática, entretenimiento, etc.).
Domótica
La domótica aporta a la vivienda tradicional la posibilidad
de controlar y gestionar de forma eficiente los sistemas existentes y los equipos ya instalados (sistemas de alarma, TV,
teléfono, agua, cocina, refrigerador, etc.) mediante un sistema de gestión técnica inteligente a partir de una red de
comunicaciones que interconecte a todos los aparatos implicados.
Las principales funciones que hasta ahora han caracterido a
la domótica son:
• Automatización y control de los dispositivos: abrir, cerrar,
apagar, encender, regular dispositivos y actividades domésticas.
• Gestión energética: conexión de dispositivos de calefacción
y aire acondicionado según criterios de ahorro y confort.
• Seguridad: vigilancia automática de personas, bienes, e
incidencias y averías.
Fuente: RGB Medical Devices, S.A.
Figura 6. Boceto de una torre de salud doméstica
208
• Comunicaciones: transmisión de voz y datos, incluyendo
textos, imágenes y sonidos (multimedia) a través de redes
locales (LAN) que comparten acceso a Internet.
La evolución del electrodoméstico
• Mantenimiento: capacidad de incorporar el telemantenimiento de los equipos.
El panorama mundial del uso de sistemas domóticos en
las viviendas es el siguiente: en países como Suiza, Alemania, Italia, Francia, Reino Unido, Canadá y Estados Unidos
se pueden encontrar los porcentajes más altos de utilización de este tipo de sistemas. En comparación con los
demás miembros de la Unión Europea, se podría decir que
España está entre los que cuentan con una menor implantación.
En el sector del electrodoméstico, la domótica propone, por
un lado, la interconexión de los electrodomésticos mediante
buses domésticos cuyo medio físico sea la red doméstica de
baja tensión, el par trenzado, un medio wireless como Bluetooth o ZigBee o una combinación de estos; y, por otro, el
acceso desde Internet a la red resultante.
Estas redes de electrodomésticos para la vivienda, ya existentes aunque poco extendidas, permiten la comunicación remota y en doble sentido entre el usuario y cada aparato,
desde cualquier lugar del mundo con acceso a la red. Las
prestaciones que esto ofrece van desde la seguridad hasta la
descarga de programas de control y recetas, pasando por la
gestión eficiente de la energía.
La posibilidad de acceder desde un teléfono móvil, PDA u ordenador de cualquier tipo al sistema de control domótico del
hogar potencia estas prestaciones.
La evolución en las TIC está permitiendo que estas prestaciones aumenten y se sosfistiquen, entrando en el negocio de los
servicios. Así, grandes empresas, entre ellas Fagor Electrodomésticos, están desarrollando servicios facturables aplicables
al hogar, como pay per use, “telemantenimiento”, “actualización remota del software de los electrodomésticos”, “servicios de asesoramiento técnico y dietético on line”, “redes
sociales de amantes de la gastronomía”, “simulaciones de
ahorro de energía”, etc., que necesitan de la existencia de una
red de electrodomésticos interconectados para ser realmente
eficientes.
REFERENCIAS BIBLIOGRÁFICAS
• ACEDE “Prospección salud: Empresas comercializadoras
de equipos de monitorización de magnitudes fisiológicas de
ámbito doméstico”.
• ALARES, expertos en asistencia familiar “La Teleasistencia
Móvil Alares®. Movilidad, Comunicación. Localización y
Asistencia Personal las 24 Horas” http://fundacionalares.es
• ARTICA TELEMEDICINA, S.L. http://www.articatelemedicina.com/
• Barber, William (coord.) Mecanització de la casa: una història de l'electrodomèstic. Col·lecció Alfaro Hofmann/
Andrés Alfaro Hofmann. Generalitat Valenciana. 1995.
• Campo, J.J.; García-Etxabe, R.; Gómez, L. Materiales plásticos: Una alternativa en los electrodomésticos de línea
blanca. Matellanes. GAIKER Centro Tecnológico. Plast´21
Noviembre 1994.
• Catálogo de exposición: Centre Cultural La Beneficència.
Valencia, mayo/agosto 1995. Textos en valenciano, español
e inglés.
• Colección Alfaro Hofmann [Dossier técnico].
• Godella: Colección Alfaro Hofmann, 2003.
• Godella: Colección Alfaro Hofmann, 2008.
• Historia del Electrodoméstico: Grandes Hitos de una
Nueva Era: http://www.activahogar.com/05historiaelec.
php?seccion=05mundo
• http://iesbujar.educa.aragon.es/informacion/tecno/premiados/segundo/morales.pdf
• http://www.balay.es/
209
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
• http://www.educar.org/inventos/lavadorasysecadorasderopa.asp
• Mecanització de la casa: una història de l'electrodomèstic
[Dossier de prensa]
• http://www.lg.com/es/electrodomesticos/index.jsp
• Miele 1899-1974.
• http://www.profesorenlinea.cl/mediosocial/refrigerador1.htm
• Origen de las Cosas Cotidianas de casa. http://www.tinet.cat/
~vne/CC01.htm
• http://www.smeg.es/
• Panati, Charles. Las cosas nuestras de cada día. Ediciones B.
1987.
• http://www.teleasistencia.com
• http://bioingenieria.es/Teleasistencia/Teleasistencia.htm#
PRESENTACION
• Inventos ingeniosos — La Nevera. http://eltamiz.com/
2007/08/28/inventos-ingeniosos-la-nevera/
• Inventos ingeniosos — La lavadora. http://eltamiz.com/
2010/06/02/inventos-ingeniosos-la-lavadora/
• ITELEMEDICINA. http://www.itelemedicina.com/index.asp
?p=inicial.asp
• “La web 2.0 acerca a médicos y pacientes”. El Mundo.
2010-09-27
210
• SABIA BIOINGENIERÍA ARAGONESA S.L. http://bioingenieria.es
• TELEASISTENCIA. http://www.teleasistencia.com
• “Telemedicina contra las listas de espera”. El País. 200910-19
• www.aeg-electrolux.es
• www.bosch-home.es
• www.miele.es
• www.fagor.com
Gestión tecnológica en el sector vitivinícola
LUIS CARLOS MORO GONZÁLEZ
(Valladolid, 1953)
Presidente del Grupo Matarromera
Carlos Moro es Ingeniero Técnico Superior Agrónomo (ETSIA.
Madrid), Diplomado en Economía de la Empresa (Universidad
Politécnica de Madrid), Doctorado en Enología y Viticultura (Universidad Politécnica de Madrid), Diplomado en Economía de la
Pyme (Universidad Complutense de Madrid) y Máster en Sistemas
de Información y de las Comunicaciones.
Comenzó como Ingeniero Agrónomo del Ministerio de Agricultura, en la Dirección General de Industrias Agrarias y también
como Adjunto al Secretario General de la Federación Española
de Industrias de la Alimentación y Bebidas (FIAB). Trabajó como
Experto Agroindustrial de la FAO (ONU).
Pasó al Ministerio de Industria y Energía donde fue Responsable de las áreas de Tecnología y de Industria Aeronáutica,
miembro del Comité Intergubernamental Nacional de Airbus,
Secretario General de la Asociación Técnica de Constructores de
Material Aeronáutico. Además, participó en los comités de evaluación del PYTMA, PATI y PROFIT.
En 1997, cuando deja el sector público, se dedica plenamente
a Bodega Matarromera, que había fundado en 1988, origen del
actual Grupo Matarromera del que es Presidente y en el que ha
diseñado los vinos “Matarromera”, “Melior”, “Emina”, “Valdelosfrailes”, “Vermilion”, “Matarromera Prestigio”, “Rento” y “Terravid”.
Recientemente ha creado “EMINAZero”, el primer vino sin alcohol
y sin calorías.
Además, pertenece a los cuerpos superiores de Administradores
Civiles del Estado (1983) y Sistemas y Tecnologías de la Información.
Ha obtenido numerosos premios y reconocimientos tales como el
Cecale de Oro al mejor empresario. Pertenece a la directiva del Patronato de Cartif, al pleno de la Cámara de Comercio e Industria de
Valladolid, a la Junta Directiva de la Cámara Hispano-Alemana.
Además, es socio de Bodega Protos, de la Industria Azucarera Acor,
y es Fundador y Presidente de VITARTIS (Asociación de Biotecnología de Castilla y León), de la Asociación REDUCE CO2 y de la Asociación de Aceites del Duero.
Gestión tecnológica
en el sector vitivinícola
Luis Carlos Moro González
INTRODUCCION
Génesis del Grupo Matarromera
Los orígenes de las viñas del Grupo Matarromera, en Valbuena
de Duero, se remontan a los monjes cistercienses del siglo XII,
que aportaron sus variedades y las adaptaron a la región. En
aquella época, cada monje tenía su ración diaria de vino, que
era de una emina. Desde aquellas épocas, la familia Moro ha
venido cultivando sus vides y elaborando su vino.
Siguiendo con esta tradición viticultora y bodeguera de sus
antepasados, Carlos Moro decide en 1988 renovar el viñedo
y proyecta la construcción de una bodega de nueva planta
que, con moderna tecnología, mantenga las formas de elaboración tradicional e incorpore todos los elementos de calidad en materiales y control de procesos que ofrece el
mundo actual, dando lugar al nacimiento de Matarromera.
La bodega (véase la figura 1) se crea con el objeto de hacer
vinos de excelencia propios de la tierra y la zona, el corazón
Figura 1. Bodega Matarromera
215
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
de la Denominación de Origen de Ribera del Duero, pretendiendo ser también un referente como empresa moderna y
global, y colaborar en el desarrollo económico, social y cultural de la región.
En busca de la excelencia, Matarromera ha abordado, como
parece más cercano y obvio, toda el área enológica, que incluye diversas facetas como la vitivinícola, la de construcción
industrial, la logística, la planificación estratégica, etc.; pero
también ha abordado otras áreas de carácter horizontal
como la informática, la estadística o los sistemas de información y de comunicaciones, que han reforzado la fortaleza de
la empresa, consiguiendo, por ejemplo, controlar la trazabilidad de sus productos.
Además, en busca de esa modernidad y globalidad, Matarromera se ha introducido, gracias a su actitud y aptitud investigadora, en otras áreas relacionadas con su actividad vitivinícola, pero en modo alguno convencionales. Es el caso, por
ejemplo, del vino desalcoholizado, la extracción de los polifenoles de la uva, la obtención de alimentos funcionales o la
obtención de cosméticos dermatológicos de alta gama.
directamente de la uva y de la viña, solo hay dos referencias
con autenticidad y trazabilidad del origen: una compañía
francesa y Matarromera (ESDOR).1
En el ámbito de la sostenibilidad y la protección del medio
ambiente, Bodega Matarromera, ha tomado por bandera
y por referencia la asunción de los conceptos de funcionamiento y desarrollo de la empresa con aplicaciones novedosas y exclusivas, como la recuperación de todo tipo de residuos orgánicos para uso energético. Y, por supuesto, el
aprovechamiento de todos los fluidos y del agua de proceso,
así como de aguas pluviales.
Todo ello conforma el amplio mundo de innovación y desarrollo tecnológico en el que participan activamente todas
las secciones y empresas del Grupo Matarromera, compuesto
por siete bodegas (Matarromera, Emina, Valdelosfrailes,
Rento, Cyan, Emina Rueda y Emina Oxto), la Destilería del
Duero y el restaurante La Espadaña, así como las 815 ha de
diversos cultivos con predominio de la uva y el olivo.
La cultura tecnológica
En paralelo con la actividad vitivinícola, también se debe citar
el desarrollo moderno del cultivo del olivo en Castilla y León
y su procesamiento moderno para obtener aceite de oliva
virgen extra de la máxima calidad y, a su vez, la extracción
de los polifenoles de este fruto.
Cuando se habla de desarrollo informático o de trazabilidad,
se puede considerar que se trata de conceptos “comunes”,
pero la eficiencia, el enfoque y la utilidad son realizaciones
específicas de cada empresa y básicas para su competitividad.
Por ello, se debe lograr en ellas el nivel más alto posible para
conseguir la homologación a nivel mundial.
Desde su origen, la cultura de Matarromera está impregnada de la idiosincrasia, experiencia y trayectoria profesional de su fundador, quien había trabajado durante un buen
número de años en sectores punteros en investigación y
tecnología como los de informática, sistemas de información, telecomunicaciones, nuevos materiales o aeronáutica
y espacio.
Esta experiencia en otros ámbitos y sectores de la actividad
industrial, tan ajenos a la realidad de un sector por demás
1
En el caso de la obtención y el uso de los polifenoles, los precursores fueron doctores estadounidenses, si bien con la colaboración de investigadores de otros mucho países. Con respecto a los cosméticos basados en polifenoles obtenidos
216
La web www.springwise.com proclama “lo esperanzador que resulta que una compañía se expanda de manera que refleje la sostenibilidad y las buenas sinergias, como lo ha hecho la empresa bodeguera Matarromera, utilizando viñedos 100% de la Ribera del Duero
y un proceso patentado con la molécula eminol, también patentada”.
Gestión tecnológica en el sector vitivinícola
clásico como el vitivinícola, ha permitido a Matarromera
identificar y aplicar numerosas sinergias o similitudes conceptuales que están permitiendo la “desmaduración” y diversificación de su actividad.
Otro componente importante de la cultura de innovación
procedió del conocimiento de los modelos y prácticas en la
gestión de los proyectos de investigación europeos, españoles y regionales. Estos conocimientos implican la familiarización con los sistemas de funcionamiento y los apoyos para
la realización de proyectos de investigación que las distintas
administraciones y organismos públicos están poniendo a
disposición de las empresas, las universidades y los centros
tecnológicos y de investigación, para desarrollar y ampliar
sus capacidades.
Estas actitudes tecnológicas iniciales se reforzaron con una
captación de personal orientada a conseguir la participación
de algunos de los mejores ingenieros, enólogos y empresarios del mercado, lo que ha permitido a la empresa contar
con todas las raíces tradicionales y culturales del sector y con
toda la fuerza del conocimiento del “estado del arte” del
presente.
La motivación hacia la excelencia pasa por la búsqueda constante de la mejora, y para ello es indispensable la investigación permanente. En Matarromera existe una cierta fuerza
interior que la encamina hacia la búsqueda de esa calidad en
todo cuanto aborda. Debe tenerse en cuenta que los competidores en vinos de calidad forman el más amplio elenco
de bodegueros de todo el mundo.
El grupo de investigadores, técnicos, enólogos y demás profesionales de alto nivel, conforman el componente más valioso del Grupo Matarromera. Durante años se ha realizado
una labor de selección y formación del personal científico y
técnico, incorporando a diversos doctores e investigadores,
o a personas que han conseguido sus doctorados trabajando
dentro del Grupo.
Un mundo tan competitivo como el del vino de máxima calidad fomenta la sana competencia y la beneficiosa inclinación a “ir más allá”, a buscar el “vino perfecto”, que seguramente no se pueda conseguir nunca, como sucede con
tantos otros sueños de la humanidad.
Implantación de la función de investigación
La motivación del Grupo
Las bases de la motivación ya están sentadas en los principios
comentados en el apartado anterior: origen de los responsables, formación científica y técnica, experiencia en la realización de investigación o en el fomento y promoción de la
misma.
Pero, sobre todo, habría que citar el fuerte deseo de convertir
una empresa con una base y concepto tradicionales, en una
empresa puntera, líder y presente a nivel mundial. El deseo
de ser capaces, desde un pueblo de las tierras castellanas, de
generar conocimiento y valor, similares a los generados en
cualquier otra parte de ese mundo que se presenta como
más moderno a los ojos del ciudadano español.
Es obvio que los fines estratégicos señalados (exclusividad,
calidad, eficiencia empresarial y excelencia) solo se pueden
alcanzar por medio de una cualificación investigadora al más
alto nivel y en competencia mundial.
Como palanca de impulso al mercado y de referencia del
soporte investigador, solo lo realmente novedoso y de altura consigue las preferencias de los medios científicos,
de los medios de comunicación social, y de las personas y
los consumidores o usuarios en particular. Lo vacuo o lo
inconsistente no tardan en caer, y no reflejará la solidez,
seriedad y fortaleza de una organización. Matarromera ha
buscado las políticas a medio y largo plazo y la estabilidad,
permanencia y perdurabilidad para sus esfuerzos innovadores.
217
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Tras unos primeros años reservados a ingentes acciones en
inversión, construcción, replantación de viñedo y creación de
las bases para el desarrollo de la empresa, a partir de finales
de 1992, Matarromera comienza a realizar todas las acciones
operativas y de materialización física de los proyectos de inversión.
La obtención de un importante premio2 convirtió a la empresa en noticia de cabecera nacional, de referencia internacional, y de amplia extensión y significado. Fue un nuevo impulso a la rutilante Ribera del Duero y a los vinos españoles
en el mundo.
En el año 2000, una vez acumulado un equipo humano mínimo necesario para dedicar tiempo y trabajo eficaz a las
labores de investigación, se pudo participar en un Proyecto
Europeo Craft (Wine Panel Taste), que convirtió a Matarromera
en el líder de un consorcio en el que participaban los centros
enológicos de La Rioja y de Castilla y León, la Universidad de
Valladolid y 16 empresas más, ocho de ellas bodegas pertenecientes a cuatro países distintos.
Así se pudo conocer el entorno tecnológico de centros de
enología punteros, universidades y, sobre todo, empresas. El
proyecto fue exitoso, con la consecución de un prototipo patentable, y propició la formación del equipo tecnológico y
enológico de Matarromera, además de aportar, la experiencia en la dirección de proyectos y la relación con las autoridades responsables de los distintos organismos y de la Unión
Europea.
El año 2004, con el impulso de CARTIF y los apoyos de la
Agencia de Desarrollo Económico de Castilla y León y del
CDTI (Ministerio de Industria y Energía), se produjo un salto
cualitativo y cuantitativo sustancial: se abordaron los pro2 Una Gran Medalla de Oro, en uno de los concursos oficiales de
la OIV (Organización Internacional de la Viña y el vino), premio
que no había conseguido ningún vino tinto español en los diez años
anteriores.
218
yectos de desarrollo de sistemas automáticos de control,
de trazabilidad y de desarrollo de nuevas técnicas para la
extracción de moléculas polifenólicas antioxidantes. Esto
dio lugar a la creación en Matarromera del Departamento
de Investigación y Desarrollo, con personalidad e identificación propias, y con un equipo todavía pequeño, pero
bien conjuntado.
La envergadura de los proyectos y la aún reducida dimensión
de la empresa llevaron a tomar una decisión trascendental
para su futuro desarrollo y para la aplicación de la investigación a todos los ámbitos de la empresa y, lo que es más importante, a todos los intersticios entre esos ámbitos. La decisión fue involucrar a todos los técnicos, enólogos y
departamentos en los proyectos de investigación. Se pidió el
compromiso de una parte del tiempo de cada uno de ellos
en los proyectos, que no eran solo del departamento de
I+D+i, sino de toda la empresa. En consecuencia, cada enólogo, bodeguero o técnico debía participar en las tareas
requeridas en el marco de unos proyectos importantes, serios,
bien concebidos, totalmente auditados, y contratados por
organismos y unidades de la Administración y de los centros
tecnológicos.
Esta decisión histórica y esta actitud, no solo han permitido
desarrollar los proyectos, sino que han hecho que todo el
mundo —o todos los que tenían relación con la materia- aportase su valor, su experiencia y su conocimiento práctico. Además, el contacto y la interrelación con los miembros de las
universidades, de los centros tecnológicos y de las auditorías
técnicas realizadas para la Administración Pública o la Unión
Europea, han elevado el saber y el hacer técnico diario de las
personas, y su nivel científico.
Esto ha permitido estar en el estado del arte, tanto a la organización como a los miembros que la componen, y poder
incorporarla a las normas ISO (International Standard Organization), a los procedimientos, o posteriormente, a la norma
UNE 166002 de I+D+i, siendo la única bodega de Europa
que hasta la fecha dispone de ella.
Gestión tecnológica en el sector vitivinícola
Medios utilizados
Una apuesta de la envergadura que se describe en este trabajo no se podría haber hecho únicamente con los medios
propios de la organización. Desde el primer momento se
planificó contar con cuantos organismos, instituciones, empresas o personas tuvieran mayor experiencia en los campos
de investigación a desarrollar. Para ello se ha contado de
forma prioritaria con diferentes institutos tecnológicos, centros de investigación, universidades y empresas de probada
experiencia tecnológica; y, para las instalaciones físicas, con
los suministradores óptimos de maquinaria, equipos, laboratorios o todo tipo de ingredientes, componentes o consumibles.
Cabe destacar los proyectos realizados con el apoyo del Centro Tecnológico Cartif, así como del CETECE, las Universidades de Valladolid, León, Salamanca y Burgos, ITACyL, Estación enológica de Castilla y León y Estación enológica de
Haro, en La Rioja, el CSIC, AINIA, Imbiotec y otras universidades y centros tecnológicos españoles, a los que habría que
añadir algún otro europeo.
También deben ser mencionados los estudios clínicos desarrollados en la Facultad de Medicina de la Universidad de
Valladolid y los estudios clínicos en humanos llevados a cabo
con Quantum en la Universidad de Álava y en el Hospital Clínico de Madrid.
Otro punto importante es la creación de Abrobiotech, S. L.,
empresa dedicada a la biotecnología y su investigación, que
ha tomado el relevo de múltiples proyectos de investigación
especializándose en la extracción de polifenoles y en su selección, refinamiento y conservación.
A nivel interno, se ha instalado un laboratorio central de investigación ubicado en el Centro EMINA y se ha dotado de
laboratorios descentralizados a todas las bodegas principales
del grupo, así como a la planta de deconstrucción molecular,
pionera en el mundo.
Utilización y repercusión de los resultados
obtenidos
Una de las circunstancias de las que Matarromera y su departamento de I+D se sienten más satisfechos es la de que
todas las investigaciones que se han realizado han tenido
una gran utilidad, no solo para la empresa, sino para todo el
sector de aplicación; e incluso en el caso de ingredientes,
como el eminol, para todo tipo de empresas alimentarias y
farmacéuticas.
Además de ello, la gran mayoría de las investigaciones están
llevando a conseguir productos y procesos comercializables,
que aportan al mercado un valor diferencial. Es el caso de:
• Los vinos de alta calidad o de mejores características organolépticas, o con menores contenidos de moléculas
no deseadas.
• Los nuevos productos (moléculas o conjunto de moléculas)
como el eminol, muy valiosos como antioxidantes, antifúngicos, o de interés para prevenir o mejorar afecciones,
como hipocolesterolemia, ateromas, etc.
• El sistema de deconstrucción molecular del vino, conocido
por algunos autores como desalcoholización, que ha dado
lugar a la modificación de la normativa vinícola comunitaria, pero sobre todo a la autorización de la práctica enológica por la Unión Europea.
El resultado concreto del sistema ha sido la consecución
de vinos sin alcohol, vinos sin alcohol y sin calorías o bebidas refrescantes sobre la base de vino desalcoholizado.
• Nuevas fórmulas complejas y funcionales para conseguir
la línea de cosméticos, de probada excelencia y eficacia,
que acaba de aparecer a finales del año 2010.
El ámbito de las investigaciones es absolutamente general
y global, con repercusiones a nivel mundial; y no solo en el
219
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
ámbito de investigación, sino en el de los propios productos
y su comercialización.
La incidencia en el entorno está siendo vital: la creación de
empleo y el desarrollo económico, social y científico en la
zona, han resultado fundamentales para anclar población
cualificada y con perspectivas de futuro.
De vital importancia ha sido la creación, para cada desarrollo,
de empresas específicas dentro del ámbito interno del
Grupo: Bodega Emina (sin) se especializa en la producción
de vinos bajos en alcohol o sin alcohol; la empresa Abrobiotech, en el desarrollo de I+D y biotecnología para las otras
empresa del grupo o para terceros.
Las inversiones realizadas y el equipo formado, con multitud
de becarios, de doctorandos o personas en prácticas incorporadas a una sólida base estructurada, permiten augurar
un futuro prometedor, y la continuidad en las líneas de investigación y en la profundización y extensión de las mismas.
Pero aún queda todo por hacer, solo se han dado los primeros pasos; hay una infinita cantidad de actividades de progreso, que pueden aportar a la sociedad nuevos productos
que mejoren la salud, la calidad de vida, la nutrición o, simplemente, la satisfacción de sus ciudadanos.
lidad de sus vinos le ha proporcionado. Todo ello con gran
austeridad y ahorro de medios superfluos, pero sin escatimar
los necesarios para contar con las personas e instituciones
necesarias en cada tema y sector.
En los apartados siguientes se desgrana cada una de las cuatro
líneas que se apuntan en los párrafos anteriores, los elementos
peculiares del desarrollo de cada una de ellas y los detalles más
interesantes de lo que se ha venido experimentando.
Hay que remarcar que todas las líneas de trabajo han tenido
una importancia enorme sobre la reducción de costes en los
proyectos horizontales y en los de sostenibilidad y en el aprovechamiento de las energías alternativas y de la biomasa.
Sobre el mercado, las proyecciones de cada una de las líneas
y empresas son muy esperanzadoras, pero ahora habrá que
aplicar otras cualificaciones y otras técnicas empresariales para
llevarlas a todos los rincones del mundo con eficacia y con rentabilidad. También en eso la empresa está implicada y comprometida, para que se pueda seguir alimentando ese deseo
de desarrollo de investigación y, en definitiva, de futuro.
VINOS
Posicionamiento del sector
Corolario de la introducción
Este es el resumen de la actividad de la empresa en el campo
de la investigación, pero esta se desarrolla a través de líneas
específicas y de aéreas concretas de departamento o empresa, y cada una de ellas tiene una notable relevancia y supone
una importante inversión. El conjunto de la inversión desde
2004 hasta 2010, en proyectos aprobados oficialmente, ha
sido de 27,4 millones de euros, que no es pequeño esfuerzo
para una empresa o pequeño grupo.
Matarromera está situada en pleno corazón de la Ribera del
Duero. La Denominación de Origen Ribera del Duero es una
de las más prestigiosas regiones vitivinícolas en España3.
Constituida por municipios de las provincias de Burgos, Valladolid, Soria y Segovia, su ubicación resulta el marco perfecto para la elaboración de unos tintos donde predomina
la variedad tempranillo o tinta del país, la uva idónea para el
clima continental de la zona. Los contrastes climáticos son
3
Matarromera no ha hecho otra cosa que aplicar los recursos
propios y la reinversión de los buenos resultados que la ca220
Prueba de ello es que el crítico estadounidense Robert Parker destacó 176 vinos en su última selección, pertenecientes a 38 bodegas
de las casi 250 que conforman la Ribera del Duero.
Gestión tecnológica en el sector vitivinícola
protagonistas durante todo el año: los veranos suelen ser
muy calurosos, con extremadas diferencias térmicas diurnas
y nocturnas; y los inviernos, muy fríos y largos. Esto influye
a lo largo del ciclo vegetativo de las viñas, desempeñando
un papel fundamental en el desarrollo de la planta y la maduración de la uva.
La satisfactoria experiencia en la creación y desarrollo de Bodega Matarromera fue un aval importante para que el grupo
vinícola se introdujera en la zona de Cigales, creando la
Bodega Valdelosfrailes (véase la figura 2) con el mismo objetivo
de producir unos vinos reconocidos internacionalmente por
su calidad y personalidad. Esta fue creada en 1999 y supuso
acometer un ambicioso plan de inversiones para dimensionar
adecuadamente la bodega, y para contar con el viñedo propio necesario para la oportuna elaboración.
Posteriormente, Bodega Matarromera, S. L. continuó su expansión empresarial con la compra de una destilería y un restaurante, y con la construcción de otras bodegas (véanse las
figuras 3 y 4).
Figura 3. Destilerías del Duero y restaurante La Espadaña. Año 2003
Emina-Medina se ha convertido en el emblema de Matarromera dentro de la zona con mayor y mejor potencial para la
Figura 2. Bodega Valdelosfrailes
Figura 4. Bodega Emina (D. O. Ribera del Duero). Año 2005
221
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
elaboración de vinos blancos de toda España. Una bodega
en la que se ponen de manifiesto la apuesta por la I+D+i y
los vinos blancos de calidad (véase la figura 5).
Figura 6. Bodega Emina Oxto (D. O. Ribera del Duero)
Figura 5. Bodega Emina-Medina (D. O. Rueda). Año 2007
La zona de producción amparada por la D. O. Rueda se encuentra en la comunidad autónoma de Castilla y León, y está
integrada por 72 municipios. Es una de las pocas zonas vinícolas europeas especializadas en la elaboración de vino blanco y en la protección y desarrollo de su variedad autóctona,
la verdejo. El carácter Rueda está definido por tres elementos: la uva verdejo, autóctona de la zona, el clima continental
y los suelos cascajosos. Gracias a la destilería y a los mostos
obtenidos en Bodega Emina durante la añada 2005, Bodega
Matarromera, S. L. recupera en la zona baja del Duero los
vinos fortificados, surgiendo así una nueva empresa: Emina
Oxto (véase la figura 6).
Merced al trabajo realizado estos últimos años, Bodega Matarromera, S. L. se ha convertido en una de las empresas vitivinícolas con mayor proyección en el panorama nacional e
internacional.
Además de la línea de elaboración y comercialización de vinos,
orujos y destilados de calidad, la empresa realiza otras activi222
dades focalizadas en el enoturismo. Los vectores de impulsión
de esta actividad son el Centro de Interpretación Vitivinícola
de Emina y el restaurante La Espadaña de San Bernardo.
Tecnologías existentes y aplicación
España se encuentra en un momento crucial en el sector vitivinícola. La enorme competencia mundial en el segmento
correspondiente al vino obliga a conseguir un producto diferenciado, de alta calidad, que combine la tradición vitivinícola con oportunas investigaciones. Conseguir esta diferenciación pasa por realizar una adecuada innovación
tecnológica en todos los aspectos relacionados con los procesos de elaboración de los vinos. Dicha innovación, en sus
aspectos científico-tecnológicos, puede concretarse en los siguientes puntos:
• Mejora de las técnicas agronómicas.
• Mejora de las técnicas enológicas y control de las fermentaciones.
Gestión tecnológica en el sector vitivinícola
• Diseño de un conjunto de procesos dotados con las más
modernas tecnologías que permitan mejorar y asegurar
las mejores características de los productos.
• Mejoras inherentes al proceso de etiquetado para realizar
un correcto loteado y codificación del producto.
• Reducción máxima del impacto medioambiental de los
procesos y diseño de un sistema que permita un menor
consumo de agua, el aprovechamiento de residuos vitivinícolas y la utilización de energías alternativas.
• Integración del proyecto de I+D+i; es decir, conseguir que
esté acorde con el nivel tecnológico del resto de los procesos.
La implantación de un sistema de gestión de la trazabilidad
en Bodega Matarromera S. L. ha permitido controlar el proceso industrial y gestionar de una manera eficaz el viñedo.
Con el sistema diseñado se consigue un control de la calidad
desde la cepa hasta la copa, incrementando el valor añadido
de los productos (vinos, aguardientes y licores). Para este fin
ha sido necesario disponer de una herramienta informática
desde la cual se trabaje y sobre la que se diseñen y programen nuevas aplicaciones que permitan anotar y registrar
toda la información que surge en cada proceso; posteriormente permitirá extraer datos para diferentes fines (búsquedas específicas en proyectos de investigación, consultas de
trazabilidad, estudios enológicos, etc.); además, se ha buscado que dicha herramienta aglutine todos los datos relevantes para la empresa (facturación, contactos de clientes,
proveedores, compras, ventas, etc.). En este caso se ha implantado una gestión de recursos empresariales (ERP) basada
en Microsoft Dynamics Navision con un software específico
diseñado para el control específico de bodegas: Vinotec.
Sin embargo, el compromiso de Bodega Matarromera respecto a la trazabilidad de sus productos pretende llegar a un
nivel superior, consiguiendo controlar la trazabilidad palé por
palé, caja a caja y botella a botella. Es decir, un sistema de
trazabilidad total en el que controlar cada botella como si de
un lote único se tratara. Minimizar lotes implica que los análisis de incidentes siempre se acoten a un menor número de
unidades. Este nuevo sistema permite actuar de una forma
más rápida y sencilla ante cualquier incidente o reclamación
de un consumidor, acotando de una forma más directa y
controlada el origen del problema, minimizando así los posibles errores del proceso productivo y en concreto del envasado del producto final, punto crítico de dicho proceso.
Se ha avanzado también en el seguimiento de los procesos
de producción y elaboración de los vinos, y ahora todos los
datos están almacenados de manera segura en un servidor
cuyos datos son accesibles desde cualquier punto de la empresa, teniendo el control de todos los procesos de producción: entrada de uva, remontados, prensados, trasiegos…
Esto permite la trazabilidad en los procesos de producción y
de embotellado, tarea obligatoria desde el 1 de enero de
2005, según la normativa europea de trazabilidad.
Además de tales logros, esta tecnología permite realizar numerosas gestiones de forma automática, a distancia y en
cualquier momento: se llega a más clientes y se atienden más
peticiones en menos tiempo.
Como prueba de su compromiso tecnológico en el campo de
la enología, el Grupo Matarromera ha adquirido recientemente un novedoso y costoso equipo desarrollado en Francia del
que apenas existen unas pocas unidades en España. Este equipo emplea tecnología de visión artificial para medir el color y
volumen de las bayas, y los integra con una serie de parámetros analíticos para ofrecer una información muy valiosa desde
el punto de vista de la viticultura y la enología. Así, por ejemplo, permite conocer los cambios en la composición aromática
de la baya (perfil terpénico/perfil tiólico), pudiendo ajustar el
momento de vendimia para obtener vinos con aromas más
herbáceos (terpénicos) o más afrutados (tiólicos), según convenga. Además, con este equipo es posible seguir la evolución
de las maduraciones sacarimétrica y fenólica, lo que permite
determinar el momento óptimo de madurez de la uva para
223
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
decidir en qué momento se debe vendimiar. La información
ofrecida por este equipo sitúa al Grupo Matarromera en una
posición ventajosa, pues permite vendimiar las uvas en su momento óptimo de madurez y con una composición aromática
idónea para elaborar los mejores vinos.
Una vez que la uva llega a la bodega, un factor muy importante en la obtención de la calidad de los vinos es la temperatura en todo el proceso de elaboración. En cada momento
necesita una temperatura adecuada, sobre todo durante las
fermentaciones. La gestión de control de fermentación
(frío/calor) se le ha encomendado a un sistema gobernado
por una pantalla táctil, con visualización de sinópticos y control digital.
Durante la fermentación y maceración, además de controlar
la temperatura se deben realizar remontados para una mejor
extracción de la materia colorante y la consiguiente obtención de vinos de mayor calidad. La extracción es la principal
función de los remontados, debido a que la materia colorante se encuentra en la piel de la uva, llamada hollejo. Durante
la maceración y fermentación se forma una pasta de hollejos
en la superficie del depósito, denominada sombrero. El remontado se realiza extrayendo con una bomba el mosto/vino
de la parte inferior y elevándola por una tubería hasta la boca
superior, donde se distribuye de manera automática por la
superficie del sombrero; de esta manera se produce el contacto entre el mosto/vino y los hollejos, dando lugar a la extracción de materia colorante.
En las maceraciones se busca estabilizar el color del vino
tinto, para lo cual se favorece la unión tanino-antociano y se
emplean técnicas de copigmentación utilizando taninos que
proceden de la pepita de la uva.
Para alcanzar la máxima calidad de sus vinos, Bodega Matarromera produce tintos de crianza, reserva y gran reserva.
Estos vinos se consiguen mediante el paso del vino por la barrica de roble. En la barrica, además de la microxigenación
se produce una migración de compuestos aromáticos de la
madera al vino. Para obtener vinos con personalidad propia
se seleccionan barricas y tostados de la madera que integren,
armonicen y complementen las cualidades naturales de los
vinos.
La microxigenación es un proceso en el cual el vino absorbe
pequeñas cantidades de oxígeno, que debe ser aportado de
forma muy lenta y controlada. Esta técnica se utiliza en la elaboración del vino para mejorar ciertas cualidades, como la disminución del carácter vegetal y la desaparición del gusto a reducido. La microxigenación también preserva el color, el
aroma y el equilibrio de los vinos, sobre todo entre fermentación alcohólica y maloláctica. En las barricas de madera, la microxigenación se produce debido a que la madera deja pasar
pequeñas cantidades de oxígeno. Pero, gracias a la tecnología,
Matarromera es capaz de realizar microxigenaciones durante
el proceso de elaboración, mejorando la calidad de sus vinos.
I+D+i
En función del tipo de uva, se aplica un programa de remontado diseñado a medida (con o sin difusor, con más o menos
aporte de oxígeno, remontados de descarbonatación, délestages, etc.). La aplicación de oxígeno a la fermentación permite fijar el color y controlar las poblaciones de levaduras. La
microxigenación se realiza de manera precisa, controlando
tanto el tiempo como el caudal de oxígeno que se aplica, y
sustituye en parte a los tradicionales remontados con carro
que, además de no controlar el oxígeno que se añadía, producían una pérdida irrecuperable de aromas.
224
La actividad investigadora del Grupo Matarromera comenzó
en el año 2002 con la participación en el proyecto europeo
Wine Panel Test, cuya finalidad fue el diseño de un panel de
cata electrónico, equipado con sensores capaces de identificar y cuantificar las características organolépticas del vino de
manera análoga a un catador experimentado.
El departamento de I+D+i, creado en 2004, tiene como misión impulsar la mejora continua de procesos, implantando
Gestión tecnológica en el sector vitivinícola
nuevas tecnologías y desarrollando los sistemas de gestión
que rodean al mundo enológico, como son la trazabilidad,
la gestión de recursos empresariales (ERP) y la propia gestión
de la I+D+i. A continuación se realiza una somera descripción
de algunos de los proyectos de mejora acometidos por este
departamento.
Uno de los objetivos principales del Jardín de variedades del
Centro es mantener y adaptar en la región una gran variedad
de especies que van desde la tinta del país, tempranillo, tinta
de Toro, rufete, Juan García, mencía, verdejo, etc., hasta la pinot
noir, chardonay, viognier, Gewürtzraminer, petit verdot, etc.
La conservación y la experimentación con estas variedades
de vid permiten conocer la capacidad de adaptación de estos
cultivos como consecuencia del cambio climático.
Eminatraza
Desarrollo de un sistema de optimización y control de la producción vitivinícola (parcela y bodegas) y aumento del valor
añadido del producto final, mediante la utilización de las más
modernas tecnologías en comunicaciones y nuevos algoritmos de proceso.
Los principales avances tecnológicos que se han conseguido
desarrollar mediante este proyecto de investigación están relacionados con el empleo de técnicas innovadoras en la fase
de embotellado y etiquetado de vino del proceso productivo,
así como la integración y automatización completa de todos
los equipos, la monitorización de los autómatas (desde el ordenador central de la bodega) y la captación de datos en
tiempo real.
Embotellado
Diseño y desarrollo de la automatización y control on-line del
embotellado, almacenamiento y etiquetado de vinos acogidos a la D. O. Ribera del Duero con ahorro energético mediante el empleo de energías alternativas.
Jardín de variedades
En el año 2007, comenzó en el Centro de Interpretación Vitivinícola Emina un estudio sobre el comportamiento de las
variedades autóctonas y de otras nuevas de interés enológico
en la región ante el cambio climático.
Estudio del efecto de procesos agronómicos,
procesos enológicos y microorganismos,
en la presencia de sustancias nocivas en
el vino: histaminas
Una de las motivaciones del departamento de I+D+i en relación con los vinos surge porque las nuevas generaciones
de consumidores demandan vinos de grandes cualidades organolépticas, pero al mismo tiempo desean productos con
excelentes garantías saludables, es decir, que no contenga
sustancias nocivas ni produzcan reacciones alérgicas.
En el vino están presentes compuestos beneficiosos para la
salud como los polifenoles, con demostrados efectos antioxidantes y cardioprotectores. No obstante, en determinadas
condiciones pueden aparecer en el vino otros compuestos
que pueden afectar negativamente a la salud de los consumidores, como las histaminas. Las histaminas son compuestos químicos que pertenecen al grupo de las aminas biógenas que, a elevadas concentraciones, pueden producir en
algunas personas hipersensibilidades alimentarias similares a
reacciones alérgicas u ocasionar dolores de cabeza.
Además de en el vino, las histaminas se pueden encontrar
en niveles considerables en distintos alimentos como queso,
chocolate, pescado y otros. De hecho, las concentraciones
de estos compuestos en el vino son muy inferiores a las del
resto de alimentos, y normalmente no están presentes en
cantidades tales que puedan afectar a la salud de los consumidores. Sin embargo, la consideración que tiene el vino
225
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
como alimento saludable hace que los controles sobre los niveles de estos compuestos sean más estrictos.
La presencia de histaminas en los vinos está determinada por
factores agronómicos y enológicos, por lo que unas buenas
prácticas en el campo y en la bodega permiten mantener
estas sustancias a niveles inocuos. Por regla general, su contenido aumenta en gran medida al finalizar la fermentación
maloláctica, por lo que el contenido en histaminas es habitualmente mucho menor en los vinos blancos y rosados que
en los tintos.
La vigilancia de los niveles de histaminas en vinos viene aumentando en los últimos años en varios países, que han impuesto mayores controles a su importación. Así por ejemplo,
el Gobierno suizo recomienda que los niveles de los vinos que
entran en su país estén por debajo de 10 mg/l. Otros estados
europeos, como Países Bajos, Dinamarca y los países escandinavos, comienzan a ser más restrictivos con estas sustancias.
En este aspecto, el Grupo Matarromera desarrolla, entre
otros, este proyecto de investigación con el objetivo de garantizar al consumidor que sus vinos, además de sus excelentes cualidades organolépticas, son completamente inocuos para la salud. El objetivo es potenciar en el vino la
presencia de compuestos beneficiosos y a la vez reducir
la cantidad de aquellos compuestos que pueden afectar a la
salud de los consumidores y causar problemas a la hora de
exportar los productos.
Desarrollo de métodos vitícolas y enológicos
frente al cambio climático. Aplicación de
técnicas que mejoren la eficiencia de los
procesos resultantes: CENIT Deméter
El cambio climático global es un hecho científico contrastado;
en concreto, en el viñedo español se observan cambios en el
proceso de maduración de la uva, produciéndose un desfase
entre la madurez en el contenido de azúcares y la madurez
226
de los aromas y los polifenoles. En consecuencia, para conseguir aromas y polifenoles maduros se deberán fermentar
mostos con elevada concentración de azúcar, obteniendo
vinos excesivamente alcohólicos y de baja acidez. Este tipo
de vinos resultan pesados y más vulnerables a fenómenos de
oxidación. Con vendimias más tempranas se obtendrán vinos
más frescos y ligeros, pero más verdes y de menor complejidad aromática. Surge la preocupación de cómo el cambio
climático va alterar la composición de la baya, posiblemente
modificando las concentraciones de compuestos beneficiosos
y nocivos. Además, existe la preocupación por la viticultura,
ya que se modificarán sustancialmente los periodos de cultivo
de la vid y su adaptación a la climatología externa.
El Consorcio CENIT Deméter está integrado por 26 empresas
españolas vinculadas al sector vitivinícola, de las cuales dos
tercios son bodegas y el tercio restante corresponde a empresas auxiliares.
Gracias a este proyecto, que supondrá una inversión global
de casi 27 millones de euros durante cuatro años, se llevarán
a cabo diversas investigaciones con 31
grupos de investigación pertenecientes
a 17 centros públicos de investigación y
a cinco centros tecnológicos, entre los
que destacan el Consejo Superior de Investigaciones Científicas, la ETS de Ingenieros Agrónomos de Madrid o la Universidad de Salamanca, entre otros.
Grupo Matarromera, que invierte 2,8
millones de euros en el Proyecto CENIT
Deméter hasta 2011, trabaja con dos
variedades de gran calidad: es la única
bodega del grupo de empresas integradas en el proyecto que estudia la variedad verdejo —típica de la zona de Rueda—
(véase la figura 7) y también estudia la
variedad tempranillo de la Ribera del
Figura 7. Emina Verdejo
Duero (véase la figura 8).
Gestión tecnológica en el sector vitivinícola
parte de la vid. Las temperaturas cada vez son más elevadas y las precipitaciones menores, por lo que la vid sufre
estrés hídrico. En este proyecto se observan los cambios
de expresión génica con el proceso de maduración de la
uva (síntesis de azúcares, aromas y polifenoles). Mediante
técnicas desarrolladas por el CSIC se puede identificar qué
genes de la vid se ponen de manifiesto cuando la planta
está estresada, de forma que se podrán seleccionar variedades o clones donde estos genes tengan un menor peso
específico.
• Estudio de técnicas vitícolas de adaptación del viñedo a
las nuevas condiciones derivadas del cambio climático: se
intenta combatir este cambio mediante nuevas estrategias
agronómicas.
Figura 8. Uva variedad tempranillo
El objetivo general es realizar una investigación de carácter
estratégico y multidisciplinar en el campo de la vitivinicultura
a nivel nacional, que permita la generación de conocimientos
científico-técnicos para un mejor posicionamiento futuro del
sector bodeguero y de la industria auxiliar del vino frente al
cambio climático.
Entre las líneas de investigación que se llevan a cabo se desarrollan:
• Estudios de biología molecular: hay múltiples estudios que
consisten en identificar y conocer los genes que forman
• Estudio de estrategias de adaptación de levaduras y estudio de estrategias de adaptación de bacterias a la
nueva composición de mostos y vinos. La levadura es el
microorganismo encargado de realizar la fermentación
alcohólica: transforma los azúcares en alcohol y CO 2;
las bacterias son las encargadas de realizar la fermentación maloláctica: transforman el ácido málico en ácido
láctico y CO 2 (en menor cantidad que las levaduras).
Estas líneas de estudio incorporan tecnologías avanzadas en la gestión enológica como estrategia de adaptación al cambio climático; en concreto, a graduaciones
alcohólicas elevadas. Las graduaciones alcohólicas elevadas, o el pH muy ácido si se vendimia antes de tiempo
para conseguir graduaciones alcohólicas moderadas, dificultan las fermentaciones, sobre todo la fermentación
maloláctica.
• Estudio de análisis de aromas y polifenoles. Esta rama
está relacionada con el resto de estudios anteriores. Los
análisis de aroma y polifenoles son importantes para
comparar los cambios genéticos, debido a que el estrés
al que está sometida la planta con el cambio climático
cambia la expresión génica y por tanto la síntesis de aromas y polifenoles.
227
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
• Con el estudio de viticultura y enología se pretende obtener mayor contenido aromático y polifenólico sin alcanzar
grandes graduaciones alcohólicas, consiguiendo así vinos
de calidad.
• Existe también un apartado en el que se estudian los vinos
espumosos (cava, champán, etc.) y donde se están realizando series de ensayos con la intención de conseguir la
adaptación integral al cambio climático del sector del espumoso, motivado por algunas inquietudes distintas al
sector de los vinos, como las relacionadas con la espuma:
capacidad espumante de un vino, tamaño de la burbuja,
durabilidad, persistencia, etc.
• El estudio del medio ambiente busca estrategias que permitan reducir el impacto medioambiental del sector vitivinícola. Se abordan proyectos como la reutilización de
aguas residuales y el análisis del ciclo de vida del sector
del corcho.
Se trata de un proyecto de investigación sin precedentes, que
pretende conseguir que la viticultura y la enología españolas
accedan a una posición de liderazgo en un contexto global
y cambiante.
Productos
Solamente en el sector del vino, el Grupo Matarromera tiene:
• Más de 30 referencias de las cuatro Denominaciones de
Origen (Ribera del Duero, Rueda, Cigales y Toro) en las
que está presente con sus siete bodegas.
• Seis variedades de vino: tintos, rosados, blancos, semidulces, espumosos y oportos.
• Seis tipos de vino: robles, crianzas, reservas, grandes reservas y vinos de pago.
228
VINO SIN ALCOHOL
Posicionamiento del sector
En los últimos años, numerosos estudios han demostrado
que el consumo moderado de vino aporta beneficios para
la salud, principalmente debido a sus propiedades antioxidantes y a sus efectos en la prevención de enfermedades
cardiovasculares.
En 1990 los doctores Curtis Ellison y Serge Renaud revelaron,
en un programa de televisión de la BBC, un estudio realizado
con datos de varios países que hacía referencia a una aparente discordancia entre el consumo de grandes cantidades de
bases grasas y la baja incidencia de enfermedades cardiovasculares entre los franceses. Era la primera vez en la que se llamaba la atención sobre la denominada “paradoja francesa”.
En Francia, el consumo de grasa saturada —aquella que favorece el depósito de colesterol en las arterias— es similar al
de otros países industrializados como Estados Unidos o Reino
Unido, y también son similares los niveles de colesterol plasmático. Sin embargo, la tasa de mortalidad cardiovascular es
notablemente más baja en Francia que en otros países analizados. La explicación de esta diferencia se ha buscado en
la dieta propia y característica de los franceses, conocida
como dieta mediterránea, que incluye abundante pan, verdura, fruta, queso, aceite de oliva y vino, así como poca mantequilla. Particularmente, se atribuye un papel clave al consumo de vino, que en los franceses es de entre 270 y 400 ml
por día.
En relación con la cantidad, una curva clásica, designada
como curva en J (véase la figura 9), muestra cómo la mortalidad es mayor tanto entre quienes se abstienen de consumir
vino como entre quienes lo hacen en exceso. Así, la moderación es clave.
Efectivamente, en Francia y otros países del área mediterránea (España, Portugal, Italia, Grecia y Yugoslavia) el vino es
Gestión tecnológica en el sector vitivinícola
• Evitan que las plaquetas de la sangre se aglutinen formando coágulos.
Riesgo relativo de mortalidad
2,5
2,0
• Disminuyen las inflamaciones.
1,5
1,0
0,5
0
0
1-6
3
7-1
-27
14
-41
28
-69
42
9
>6
Tragos semanales
Los taninos son parte de los polifenoles que se encuentran
en la piel de la uva, y se reconocen por el sabor secante en
la boca. No todos los tipos de uva tienen la misma cantidad
de taninos: el que posee mayor concentración es el cabernet
sauvignon, seguido de syrah, malbec, merlot y pinot noir.
El contenido de taninos produce mayor cantidad de colesterol bueno, o HDL, y sirve de cardioprotector debido a su
alta densidad.
Figura 9. Curva en J que muestra el riesgo de mortalidad
consumido con las comidas y en situaciones en las que beber
es una forma de interacción, no el objetivo de la actividad.
El uso del vino está integrado en los comportamientos habituales de estos pueblos, que lo consumen en las comidas y
en ocasiones de celebración social. En general, en estos países hay menos problemas de abuso de alcohol. La cultura
mediterránea es una cultura basada en la moderación, que
recibe en su salud los beneficios de su dieta.
Por lo tanto, queda demostrado que el vino tinto consumido
moderadamente es saludable y ofrece diversos beneficios
para el sistema cardiocirculatorio.
Por otra parte, el contenido en polifenoles y vitaminas combate el envejecimiento y ayuda a tener una piel más sana y
tersa. Asimismo, disminuye el nivel de insulina en sangre, aumenta los niveles de estrógeno y mejora la circulación de la
sangre en el cerebro.
El vino tinto tiene flavonoides y antocianidinas, y estos serían
los factores que le aportan poder antioxidante. Los flavonoides presentan características muy útiles:
• Hacen más inofensivo el colesterol LDL (malo) impidiendo
su oxidación.
Pero ¿por qué privar de las ventajas del vino a aquellos sectores de la población que no pueden beber alcohol? En el
mundo existen más personas que no beben alcohol que las
que sí lo hacen. Motivos como la edad (niños y ancianos), el
estado de salud (personas con dolencias hepáticas, hipertensión) o los religiosos (mundo musulmán); las mujeres embarazadas; o las personas que, por ideología, han decidido no
ingerir alcohol. Además, la preocupación creciente por parte
de los consumidores por el cuidado de la salud ha conllevado
un aumento del consumo de productos saludables y está reduciendo significativamente el de alcohol.
Ahora, es posible obtener vinos sin alcohol o con un contenido
reducido del mismo, con la ventaja añadida de conservar el
sabor y las propiedades beneficiosas de los vinos tradicionales.
Además de carecer de alcohol, los vinos desalcoholizados tampoco contienen grasa, y suponen menos de la mitad de calorías que el vino tradicional. Esto se traduce en una ingesta de
entre 19 y 36 calorías por una consumición de 30 cl, en comparación con las 100 calorías de promedio que supondría en
los vinos con alcohol o las entre 100 y 130 calorías que supone
beber una lata de refresco. Personas a dieta, conductores, embarazadas o cualquiera que tenga alguna restricción con el
alcohol, pueden disfrutar del vino desalcoholizado como una
compañía excelente en comidas, eventos profesionales y celebraciones sociales.
229
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
La reducción o eliminación del contenido alcohólico de los
vinos no solo está teniendo un profundo impacto sobre el
consumidor en relación con la percepción del sabor de un
vino, sino que también puede establecer una amplia gama
de oportunidades para la creación de nuevas líneas de vinos
con un bajo o nulo contenido de alcohol. La posibilidad de
elaborar un refresco de sabor intenso y con baja graduación
alcohólica que permita su disfrute es la semilla de una novedosa visión que está permitiendo a Bodega Matarromera
adentrarse en un mercado nuevo e innovador.
de la Viña y el vino) tiene prohibidos los OGM (Organismos
Genéticamente Modificados) en el vino, por lo que de momento no se pueden emplear.
Tecnológicamente solo existen en la actualidad dos técnicas
que permitan la desalcoholización parcial de vinos, una es la
ósmosis inversa y la segunda es la evaporación a vacío y baja
temperatura.
Ósmosis inversa
Tecnologías existentes y aplicación
Existen distintas alternativas para conseguir vinos de baja graduación alcohólica, como una vendimia prematura o una
selección de levaduras con un menor rendimiento de transformación de azúcar en etanol. Para reducir el alcohol en vinos
ya elaborados, los procedimientos fundamentales de desalcoholización pueden clasificarse en:
• Procesos térmicos (evaporación y destilación en columna).
La ósmosis inversa fue desarrollada en los años cincuenta para
el ejército estadounidense. Su primer propósito fue la purificación de agua, aunque además tuvo aplicaciones médicas.
Es esencialmente un proceso de filtración, pero con necesidades mayores de presión: la técnica requiere alrededor de
70 atmósferas. El sistema que se sigue para disminuir la graduación alcohólica de un vino es el mostrado en la figura 10.
El vino (1) es recirculado bajo presión a través de una membrana de ósmosis inversa (4) que solo permite el paso de los
componentes más pequeños, principalmente agua y etanol,
• Procedimientos de membrana (ósmosis inversa y diálisis).
• Crioconcentración.
• Extracción con fluidos.
• Absorción sobre superficies porosas.4
También se está estudiando la posibilidad de alcanzar una
reducción del alcohol mediante bacterias modificadas genéticamente, pero en Europa la OIV (Organización Internacional
4 Pérez, R.; Salvador, M.ª D.; Melero, R.; Nadal, M.ª I. y Gasque, F.:
“Desalcoholización de vino mediante destilación en columna. Ensayos previos”. Revista de Agroquímica y Tecnología de Alimentos,
n.º 29 (1). 1989. pp.: 124-130.
230
Figura 10. Equipo de osmosis inversa
Gestión tecnológica en el sector vitivinícola
a los que se denomina permeado (6). Por el contrario, el
color, el sabor y ácidos como el tartárico y el málico permanecen retenidos en la membrana (5). Las partículas no retenidas en la membrana (6), junto con el etanol y el agua
(permeado), se introducen en una columna de destilación
continua (7), donde se separan en alcohol destilado (11) y
un residuo de agua pura (9). La corriente de agua pura se
mezcla posteriormente con las partículas retenidas en la
membrana, reduciéndose por tanto el alcohol en el vino
tratado.
Columna de Conos Rotatorios (CCR)
Bodega Matarromera está centrando sus investigaciones en
el diseño de una bebida refrescante, obtenida a partir de sus
típicos caldos pero con bajo contenido alcohólico, gracias a
la aplicación de técnicas instrumentales como la destilación
(a vacío y baja temperatura, para evitar posibles daños térmicos) mediante una columna de conos rotatorios.
Desarrollada en Australia, la columna de conos rotatorios
(CCR) es el método más rápido, eficaz y rentable existente
para capturar y conservar los componentes volátiles de sabor
de todo tipo de sustancias liquidas o slurries (líquidos con sólidos en suspensión) a alta velocidad y bajas temperaturas.
La técnica CCR surgió a principios de la década de 1990, y
produjo un impacto radical sobre toda una generación de
enólogos y sobre la manera en que estos abordaban el concepto de "manejo de sabor" en vinos de calidad Premium.
Dicho avance fue posible gracias a este método infalible de
ajuste de alcohol que no altera las características de sabor
naturales de un vino.
El objetivo principal de esta tecnología es lograr la separación
del alcohol pero sin eliminar, ni tampoco añadir, otros componentes. La ausencia de componentes externos al vino se
consigue gracias a que el vapor empleado para la extracción
de los componentes volátiles procede del mismo vino.
Los beneficios de la tecnología CCR podrían ser resumidos
en los siguientes puntos:
• Es un proceso sin problemas desde el punto de vista sanitario, ya que se usa acero inoxidable en el equipamiento,
fácilmente limpiable.
• No se requieren membranas o recambios similares.
• No hay pérdida de aromas.
• Es un proceso continuo.
• El proceso es relativamente barato.
El principio de la desalcoholización se basa en la evaporación
de los componentes más volátiles del vino (compuestos aromáticos, alcohol), que son recuperados por condensación. El
proceso se realiza en condiciones de vacío para favorecer una
extracción eficaz, en la que se reduzca el tiempo de operación y se evite la degradación de los componentes que integran el vino. Al trabajar en vacío, la temperatura de ebullición
se reduce considerablemente. En el interior de la columna la
temperatura es baja (25-32 °C), lo que supone una reducción
de las temperaturas de ebullición de los compuestos, permitiendo un proceso menos agresivo para el vino y, por consiguiente, también una disminución en las necesidades energéticas de calentamiento.
Además, el uso de fuerzas mecánicas suaves (el líquido cae
sobre un cono invertido que gira a altas revoluciones) permite una separación rápida, eficiente y rentable de los compuestos volátiles de aroma/sabor a través de una delgada película de líquido.
Con un cierto detalle, el sistema CCR consiste en una columna
de extracción gas-líquido donde se produce una transferencia
de masas entre ambas fases, permitiendo la separación de
componentes en función de su punto de ebullición. El sistema
consta de un cilindro vertical de acero inoxidable en el cual un
gas recolector inerte captura, en vacío, una corriente de vapor
231
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
de los componentes volátiles de líquidos o de una suspensión.
El vino es introducido por la parte superior de la columna, y
por gravedad recorre en sentido descendente el interior de la
misma, pasando por un sistema de conos rotatorios y fijos que
permiten crear una serie de películas muy finas y muy turbulentas. En sentido contrario (ascendente), una corriente de
vapor obtenido a partir del mismo vino extrae sus compuestos
volátiles, que son recuperados por la parte superior de la CCR,
y condensados a través de un sistema de condensadores y enfriadores. El vino desalcoholizado sale de la columna por la
parte inferior y es enfriado antes de su almacenamiento en
depósitos de acero inoxidable.
Para la aplicación de esta técnica, Bodega Matarromera ha
tenido que realizar una modificación sustancial en la tecnología, que permite reincorporar una parte del vino procesado
en forma de vapor, el cual se utiliza para extraer los componentes volátiles del vino.
El proceso consta de dos etapas:
1. Inicialmente se produce una desaromatización del vino,
de manera que los compuestos aromáticos (más volátiles)
se mantienen separados en un depósito refrigerado; el
vino desaromatizado se lleva a otro depósito refrigerado.
2. En la segunda etapa del proceso, el vino desaromatizado
es desalcoholizado, obteniéndose de nuevo dos fracciones: etanol de aproximadamente 60°, y vino desaromatizado y desalcoholizado.
Una vez culminada la desalcoholización, la fracción aromática es reintegrada al vino desalcoholizado, conservando así
todas las cualidades organolépticas del vino original.
232
I+D+i de Bodega Matarromera en el área de la desalcoholización de vinos.
Desarrollo de un sistema de evaporación
a vacío a través de columnas de conos rotatorios
para eliminar el etanol de los vinos de forma
parcial (Fase I. Periodo: 2006-07)
El objetivo principal de la investigación se basa en reducir el
grado alcohólico en vinos que presentan defectos por exceso
de alcohol, graduaciones alcohólicas por encima del 14%
vol. Supone la reducción del alcohol del vino en 0,5-2,0°,
consiguiéndose graduaciones alcohólicas dentro del límite
de 12-14% vol. De esta forma se consigue minimizar los siguientes efectos:
• Sensación de “calor” asociada al alto nivel de alcohol que
oculta el sabor del vino y que cada vez con mayor frecuencia es rechazada por los consumidores.
• Sobrextracción de las uvas debido al alto nivel de alcohol.
• Fermentación paralizada y otra serie de consecuencias negativas.
La innovación principal de este proyecto consiste en que permite minimizar la causticidad y el efecto ardiente que aporta
el etanol, así como ajustar sus niveles en un vino con precisión, pero consiguiendo mantener intactas el resto de cualidades organolépticas del vino.
I+D+i
Estudio, diseño, puesta a punto y optimización
de una planta piloto para la desalcoholización
parcial o total de vinos de alta calidad Diseño de
vinos bajos en alcohol (Fase II. Periodo: 2007-10).
Financiación: ADE
En los siguientes apartados se ofrece una breve descripción
de los proyectos llevados a cabo por el Departamento de
La finalidad de este proyecto es el diseño y obtención de
“vinos de diseño”, es decir, vinos cuyo grado alcohólico se ha
Gestión tecnológica en el sector vitivinícola
reducido hasta niveles mínimos (2-3 °alc.) o medios (5-8 °alc.),
pero que mantienen intactas todas sus cualidades organolépticas. En este contexto, los objetivos particulares de este
proyecto son:
• Evaluar la evolución de los parámetros físico-químicos que
caracterizan al vino.
• Estudio organoléptico del comportamiento de los vinos
sometidos a masivas reducciones de alcohol. Se trata de
una reducción del 12-11% del volumen completo del
vino, lo que supondrá una concentración del resto de
componentes (acidez, compuestos polifenólicos, etc.), pérdida de estructura, etc.
• Ensayos de incorporación de aditivos alimentarios que permitan reemplazar la estructura y volumen en boca que se
pierden al retirar el etanol.
La tecnología puesta a punto permite ajustar con precisión
el nivel de alcohol del vino para lograr la armonía y el equilibrio (equilibrio óptimo) con el resto de los componentes del
vino. La percepción del sabor del vino por parte del consumidor se ve profundamente afectada por sus otros componentes (incluido el alcohol) y por el "manejo" que hace el vinicultor del equilibrio entre dichos componentes. Incluso
diferencias bastante pequeñas en niveles de alcohol pueden
Grado alcohólico del vino
Efecto creciente del “calor” alcohólico;
opaca percepción del sabor.
(Impuestos pueden aumentarse también)
%
V/V
16
15
14
ÁREA DE EQUILIBRIO ÓPTIMO
PARA LA MAYORÍA DE LOS VINOS
13
12
11
El vino empieza a perder “estructura”;
posible necesidad de ajustar acidez, etc.
10
9
afectar en gran medida el aroma y el sabor percibidos del
vino. La figura 11 muestra el equilibrio óptimo entre el grado
alcohólico de un vino y la apreciación por parte del consumidor de sus características organolépticas. Otros de los objetivos de este proyecto son la eliminación de olores desagradables o la posibilidad de la elaboración de vinos durante
todo el año y la reducción de sulfuroso.
Investigación de técnicas de desalcoholización
de vinos y su aplicación para el diseño de vinos de
baja graduación alcohólica (Periodo: 2008-11).
Financiación: CDTI
A diferencia de los estudios previos realizados por Bodega
Matarromera, la base científica-técnica de este proyecto consiste en la puesta en marcha de un novedoso sistema que
permita la eliminación de un porcentaje importante de alcohol en los vinos (superior a 5 °alc.) con el fin de obtener una
bebida refrescante con una graduación alcohólica comprendida entre 0,5 y 9 °alc.
Investigación, diseño y optimización de un
proceso para la elaboración de una novedosa
bebida refrescante derivada del vino
(Periodo: 2010-12). Financiación: FEOGA
Mediante este proyecto se pretende obtener un producto refrescante sin alcohol y sin calorías. El proceso de elaboración
de dicho producto consta de varias y complejas fases a partir
del vino natural. En primer lugar, el proceso de elaboración
comienza en el viñedo, mediante diferentes tratamientos vitivinícolas gracias a los cuales se obtiene una uva con un bajo
grado alcohólico probable. Posteriormente, esta uva es sometida a una vinificación experimental que permite obtener
un vino de elevada aromaticidad y un bajo grado.
8
Figura 11. Grado alcohólico de un vino
Toda la investigación llevada a cabo en el ámbito de la desalcoholización de vinos ha permitido el diseño de la mayor
233
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
planta de desalcoholización de vinos (planta de deconstrucción molecular, en su nombre técnico) de Europa, así como
la adaptación de la tecnología empleada a los requerimientos
impuestos. De hecho, completando los medios e instalaciones de I+D que existen en el grupo empresarial, ya se dispone en el centro Vitivinícola Emina de Valbuena de Duero
(Valladolid) de dicha planta desalcoholizadora para la reducción parcial y total del grado alcohólico en vinos, reutilizando
el etanol residual en la planta de extracción de polifenoles.
Esta planta incorpora una tecnología pionera, inédita y avanzada para la deconstrucción molecular y desalcoholización
de vinos, y multiplica el ritmo de elaboración de productos
desalcoholizados derivados del vino, alcanzando una operatividad de 4 millones de litros al año, lo que convierte al
Grupo Matarromera en líder en la elaboración de dichos productos y le permite atender la fuerte demanda de los mercados exteriores.
Productos
La posibilidad de ofrecer un producto con todas las características del vino pero sin alcohol o con una baja graduación
alcohólica a partir de diferentes métodos, va a permitir ofrecer un novedoso producto a un gran colectivo de la sociedad
que por motivos de empleo, salud, religión, etc., no pueden
consumir alcohol.
Actualmente la Ley de la Viña y del Vino no contempla una
denominación específica para las bebidas con una graduación
por debajo de 9 ºalc. Según el reglamento de la Ley, para que
una bebida pueda llamarse vino tiene que tener más de 9 ºalc,
excepto en algunos casos especiales, como los enverados, el
chacolí y los vinos verdes, que pueden tener 8-8,5 ºalc. Una
vez más las leyes van por detrás de la rápida evolución del
mercado.
Atender a la demanda de productos de bajas calorías y evitar el rechazo que está sufriendo el consumo del vino por el
234
endurecimiento de la ley de tráfico son algunos de los argumentos que, en opinión de las bodegas, justifican el lanzamiento al mercado de estos nuevos productos.
En virtud de lo anterior y fruto de sus investigaciones, Bodega
Matarromera saca al mercado los siguientes productos:
• WIN: un vino de baja graduación, con 9,5 °alc. Presentado
en tres variedades: tinto, rosado y blanco, y destinado a
un público joven (véase la figura 12).
• EminaSIN: una bebida obtenida con vino desalcoholizado,
con menos del 0,5% de alcohol. Elaborado en las instalaciones de la compañía en San Bernardo (Valladolid), el
producto se configura como una novedad mundial, dado
su casi nulo contenido alcohólico5 (véase la figura 13).
• EminaZero: un refresco ligeramente carbonatado elaborado con vino desalcoholizado y edulcorante, sin alcohol
(0,0%) y sin calorías. Es la primera bebida del mundo a
base de vino desalcoholizado con 0,0% de volumen de
alcohol y 0 calorías, por lo que EminaZero elimina los posibles inconvenientes del vino y mantiene todas sus ventajas (véase la figura 14).6
• EminaZero espumoso: elaborado a partir de uvas verdejo
y chardonnay de la zona de Rueda por el método tradicional para vinos espumosos, se ha procedido a la desalcoholización de sus componentes a través del sistema de
conos rotatorios, y a la posterior reconstrucción organoléptica. Es el primer “champán” 0,0% del mercado (véase la
figura 15).
5 Ha sido galardonado por la revista Castilla y León Económica y ForoBurgos como producto más innovador del año 2009.
6
Ha conseguido el Premio INNOVAL, otorgado en la Feria Alimentaria de Barcelona del año 2010, como el producto más innovador
en la categoría de “vinos y espirituosos”. El premio se concede a la
concepción, desarrollo y lanzamiento del producto más innovador
de los dos últimos años.
Gestión tecnológica en el sector vitivinícola
Figura 12. Tinto, rosado y blanco WIN
Figura 13. Tinto, rosado y blanco EminaSIN
Figura 14. Tinto, rosado y blanco EminaZero
Figura 15. EminaZero espumoso
235
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
INGREDIENTES DE ALIMENTOS
FUNCIONALES
Los expertos recomiendan seguir una dieta sana, variada y
equilibrada como la mejor manera de prevenir ciertas enfermedades, asegurando una buena salud.
Posicionamiento en el sector
Con la creación de una nueva entidad de carácter biotecnológico —Abro Biotec—, el Grupo Matarromera apuesta por la
innovación ampliando su campo de actuación a la obtención
de productos que, si bien siguen estando relacionados con
la industria agroalimentaria, su aplicación y consumo alcanza
al sector farmaceútico, nutricional y cosmético. En concreto,
la obtención de un principio activo de origen natural a partir
de la uva abrirá las puertas del Grupo Matarromera al mercado de los extractos naturales que son la materia prima de
los nuevos productos de carácter funcional (alimentos funcionales) que demandan los consumidores.
La biotecnología es, actualmente, uno de los sectores más
dinámicos, considerado como el principal motor de cambio
tecnológico y acelerador del crecimiento, y es una herramienta de ayuda al desarrollo que ofrece muchas expectativas socioeconómicas.
Dependiendo del sector en el que se aplica, la biotecnología
se ha dividido en varios tipos: roja, blanca, verde, azul y gris.
Dentro de esta clasificación, es la biotecnología verde la que
produce mejoras de la competitividad en los sectores agrícola, ganadero y forestal, incrementando la productividad y resistencia de las especies y variedades, tanto vegetales como
animales.
Alimentación funcional
En los últimos años ha aumentado considerablemente el interés por conocer la relación entre la dieta y la salud. Se ha
demostrado que muchos alimentos tradicionales como las
frutas, las verduras, el pescado y la leche contienen componentes que resultan beneficiosos para nuestro organismo.
236
La falta de tiempo para cocinar, el aumento del consumo de
alimentos ricos en grasas y el ritmo de vida actual producen
una serie de desequilibrios y desajustes alimentarios cuya consecuencia es la aparición de enfermedades. De esta situación
surgen los “alimentos funcionales” que pueden compensar
esos desequilibrios alimentarios y garantizan las ingestas de
nutrientes recomendadas por los especialistas en nutrición.
Un alimento puede considerarse funcional cuando se demuestra
adecuadamente que, además de sus efectos nutritivos, afecta
beneficiosamente a una o más funciones del organismo de
forma que mejora el estado de salud o bienestar o reduce el
riesgo de enfermedad. Estos alimentos ejercen además un papel
preventivo, ya que reducen los factores de riesgo que provocan
la aparición de enfermedades. Se pueden elaborar mediante:
• Eliminación de un componente conocido que causa un
efecto no beneficioso cuando se consume (por ejemplo,
proteína alergénica: celiacos).
• Aumento de la concentración de un componente presente
de forma natural en un alimento hasta un nivel en el que
se produzca el efecto deseado.
• Adición de un compone no presente en la mayoría de los
alimentos pero para el cual se ha descrito un efecto beneficioso (por ejemplo, oligosacáridos prebióticos).
• Reemplazamiento de un componente, usualmente un macronutriente (por ejemplo, grasas) cuya ingesta es normalmente alta y puede tener un efecto nocivo, por otro componente con un efecto beneficioso para el organismo.
• Aumento de la biodisponibilidad o la estabilidad de un
componente que produzca un efecto beneficioso o que
reduzca el riesgo de padecer una enfermedad.
Gestión tecnológica en el sector vitivinícola
Debido al creciente interés por este tipo de productos, las investigaciones se han centrado en la búsqueda y diseño de
ingredientes de origen vínico y de alimentos enriquecidos
con estos ingredientes, así como en el estudio de los mecanismos de acción de los mismos, con el fin de obtener una
respuesta positiva sobre la salud. Teniendo en cuenta las propiedades beneficiosas que tiene para la salud el consumo
moderado de sustancias antioxidantes, uno de los objetivos
principales es la búsqueda de un proceso para el aprovechamiento de los extractos ricos en sustancias antioxidantes procedentes de la uva (flavonoles, taninos, antocianos, ácido fenólicos y estilbenos), así como la búsqueda de un vehículo
apropiado y alternativo para la aplicación de estos antioxidantes naturales al organismo humano.
calidad de algunos productos, sobre todo los de alto contenido en grasas y lípidos, y mantener así su valor nutritivo.
Estos antioxidantes, principalmente de naturaleza fenólica,
son la mayoría sintéticos, como terbutil-hidroxitolueno (BHT),
terbutil-hidroxianisol (BHA), galato de propilo (PG), galato de
dodecilo (DG) y terbutil-hidroquinona terciaria (TBHQ).
Mayor interés para la investigación de Abro Biotec tienen los
antioxidantes naturales, componentes de los alimentos de
origen vegetal, principalmente polifenoles o compuestos fenólicos, que están de forma natural en los productos iniciales
o que se forman como consecuencia de su procesado. Los
flavonoides y los ácidos fenólicos son los que reciben mayor
atención como agentes potenciales antioxidantes, debido
fundamentalmente a su amplia presencia en un alto número
de alimentos de gran consumo.
Antioxidantes de origen natural: polifenoles
En la actualidad se ha incrementado el interés por la búsqueda de antioxidantes, generalmente constituidos por mezclas
de compuestos con una elevada diversidad molecular y funcionalidad biológica.
Una de las familias de compuestos más interesantes desde
el punto de vista biotecnológico son los antioxidantes de origen natural. Estas sustancias se extraen de productos naturales, por lo que pueden encuadrarse dentro de las herramientas que utiliza la biotecnología verde. Por otro lado, su
aplicabilidad en mezclas de alimentos y su demostrada funcionalidad les permiten entrar dentro de las actividades englobadas en la biotecnología roja (o sanitaria), mejorando y
aportando beneficios a la salud humana.
Se han de considerar dos aspectos de los antioxidantes: por
un lado están las sustancias que, añadidas a los alimentos,
son capaces de preservarlos retardando su deterioro, ranciedad o decoloración, debido a la oxidación; y por otro, los
compuestos originalmente presentes en los alimentos y que
tienen efectos beneficiosos para la salud. La industria de los
alimentos usa antioxidantes para prevenir el deterioro de la
Los antioxidantes pueden actuar por medio de diferentes
mecanismos:
• Deteniendo la reacción en cadena de oxidación de las
grasas.
• Eliminando el oxígeno atrapado o disuelto en el producto,
o el presente en el espacio que queda sin llenar en los envases, el denominado espacio de cabeza.
• Eliminando las trazas de ciertos metales, como el cobre o
el hierro, que facilitan la oxidación.
La actividad antioxidante de los polifenoles se debe a su facilidad para reducir la producción de radicales libres, bien por
inhibición de las enzimas que intervienen, bien por quelación
con los metales de transición responsables de la generación
de los radicales libres. Además, los flavonoides, por su bajo
potencial re-dox, son capaces de reducir las especies de oxigeno reactivo (ROS), altamente oxidadas. En general los
compuestos polifenólicos son multifuncionales como antioxidantes, y actúan según los mecanismos mencionados. Los
polifenoles de tipo flavonoideo, como flavonoles, flavonas,
237
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
isoflavonas, antocianos, flavanonas, catequinas y proantocianidinas, son los antioxidantes más potentes presentes en
los alimentos vegetales.
El estrés oxidativo y la peroxidación lipídica son los causantes
de un gran número de enfermedades crónicas que incluyen
cáncer, enfermedades cardiovasculares, cataratas y demencia. Algunos estudios han demostrado que el consumo de
frutas y hortalizas puede reducir la incidencia y mortalidad
de estas enfermedades y, hasta donde se conoce, este efecto
protector está determinado por la presencia de agentes antioxidantes en estos alimentos, principalmente polifenoles.
En los últimos años, diversos trabajos realizados sobre los
efectos in vivo de estos compuestos han probado que una
pequeña fracción de los polifenoles ingeridos en la dieta se
absorben en su forma inicial, aglicona o glicósido, mientras
que la mayor parte se degradan a diferentes metabolitos.
Tanto los compuestos absorbidos como los metabolitos a
que dan lugar muestran capacidad antioxidante in vivo, lo
que indica la existencia de una especie de reacciones en
cascada en las que intervienen los antioxidantes de forma
diferente.
Los compuestos fenólicos se encuentran en una gran variedad de plantas comestibles, frutas, hortalizas, bebidas como
té, café, cerveza y vino tinto, en el aceite de oliva, en cereales
y en algunas semillas como las de leguminosas. El té, y en
menor proporción el vino tinto, contienen apreciables cantidades de procianidinas y de catequinas.
El aporte de polifenoles en la dieta puede estar entre 50 y
800 mg/día, dependiendo del consumo de productos que
los contienen. Cuando el consumo es de unos 800 mg/día,
lo que puede lograrse con una dieta rica en frutas y hortalizas, se alcanza un nivel importante de antioxidantes.
Por otro lado, las industrias alimentarias intentan evitar la oxidación de los alimentos mediante diferentes técnicas, como
el envasado al vacío o en recipientes opacos, pero también
238
utilizando antioxidantes. La mayoría de los productos grasos
tienen sus propios antioxidantes naturales, aunque muchas
veces estos se pierden durante el procesado (en el refinado de
los aceites, por ejemplo), pérdida que debe ser compensada.
Las grasas vegetales son en general más ricas en sustancias
antioxidantes que las animales. También otros ingredientes,
como ciertas especias (por ejemplo, el romero), pueden aportar antioxidantes a los alimentos elaborados con ellos.
La tendencia a aumentar la insaturación de las grasas de la
dieta como una forma de prevención de las enfermedades
coronarias hace más necesario el uso de antioxidantes, ya
que las grasas insaturadas son mucho más sensibles a los
fenómenos de oxidación.
Polifenoles de origen vínico
Desde la antigüedad se conocen los beneficios saludables de
los compuestos polifenólicos presentes en la uva y posteriormente en el vino. La base de estos beneficios se debe a un
amplio conjunto de sustancias de origen natural que se caracterizan por poseer anillos aromáticos con sustituyentes hidroxilos, en su mayoría potentes antioxidantes por su estructura
química (donador de H+ o electrones). Debido a este comportamiento de carácter antioxidante, estos compuestos tienen
tendencia a oxidarse más rápidamente que otros compuestos
que estén a su alrededor. Por ejemplo, en diversos estudios
epidemiológicos se ha asociado la ingesta diaria de flavonoides
con una reducción del riesgo de enfermedades cardiovasculares y cáncer, y se han descrito también otros efectos potencialmente beneficiosos de este tipo de compuestos, por ejemplo en el sistema nervioso central.
Sobre la base de estas premisas, parece lógico el gran interés
en la recuperación y reutilización de los subproductos del proceso de vinificación y destilación: los orujos de uva para el enriquecimiento de productos alimenticios o para su uso como
suplemento nutricional. De esta forma, además de contribuir
a la conservación del medio ambiente (disminuyendo el
Gestión tecnológica en el sector vitivinícola
porcentaje de residuos industriales), se obtiene un nuevo producto con alto valor añadido.
Posibilidad de aprovechamiento de los compuestos
polifenólicos presentes enlos orujos tras el proceso
de elaboración de vino y destilación de los orujos
En la uva, los compuestos polifenólicos se encuentran en un
10% en el jugo; un 30% en la piel, especialmente en las células
epidérmicas; y el 60% restante en las pepitas (véase la figura 16).
Los tipos y concentraciones de los polifenoles presentes en
el vino dependen principalmente de la variedad y grado de
maduración de la uva empleada, de las condiciones climáticas y de las técnicas utilizadas durante la vinificación. Una
parte de estos compuestos polifenólicos son cedidos al vino
durante el proceso de elaboración. La extracción de estos
compuestos se realiza macerando los hollejos de las uvas tintas con el mosto-vino en fermentación. En consecuencia, el
vino adquiere un intenso color, así como una potente estructura y carnosidad en boca.
Sin embargo, durante la fermentación alcohólica no existe
una transferencia total de dichos compuestos al vino. En general, se puede indicar que la capacidad de extracción de los
compuestos polifenólicos de la uva —durante la maceración
de la uva con el mosto y en el proceso fermentativo— es del
50-60%, siendo la concentración total de estos compuestos
polifenólicos en el vino de 1,80 al 4,06 gr/l equivalentes en
ácido gálico. El 40% restante se encuentra retenido en el
orujo. Por lo tanto, después de la vinificación, y como subproducto del vino, se obtienen unos orujos que todavía mantienen un amplio contenido polifenólico con un interesante
valor terapéutico que merece la pena que sea extraído con
posterioridad a dicho proceso productivo.
Además del importante contenido de compuestos polifenólicos
presentes en los orujos tras el proceso de vinificación y destilación, hay que destacar que los orujos están constituidos por un
12-14% de proteína, 17-35% de fibra cruda, 5-9% de grasa
y 5-9% de minerales. Debido a este importante contenido en
fibra presente en los orujos, diversos estudios realizados en los
últimos años han demostrado que el orujo de uva puede ser
utilizado como fuente de fibra dietética para consumo humano.
En esta idea, el objetivo principal de la investigación se ha centrado, por una parte, en optimizar la extracción de este porcentaje residual de compuestos polifenólicos de los orujos tras
el proceso de vinificación y destilación, y en estabilizar dichos
extractos; y, por otra parte, en adicionar estos extractos —ricos
en antioxidantes y fibra— a diversas matrices alimentarias para
evaluar su efecto en diferentes propiedades de dichas matrices, consiguiendo alargar la vida útil de los alimentos.
Normativa y legislación
El Reglamento europeo sobre declaraciones nutricionales y
propiedades saludables de los alimentos (Reglamento CE n.º
1924/2006) y sus modificaciones posteriores (Reglamentos
CE n.º 109/2008 y n.º 353/2008) establecen las reglas que
deben seguirse por parte de la industria alimentaria para
poder afirmar que un alimento contiene determinadas propiedades saludables, lo que se conoce como “alegación”.
Figura 16. Distribución de los compuestos polifenólicos
Es una normativa de obligada aplicación en cada Estado
miembro, en la cual tiene un papel destacado la Autoridad
239
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Europea de Seguridad Alimentaria (EFSA). La Agencia Española de Seguridad Alimentaria y Nutrición (AESAN), en colaboración con las comunidades autónomas, participa con la
EFSA en la evaluación de las bases de alegaciones, particularmente las que se planteen desde la industria alimentaria
española.
Los pasos necesarios para extraer los compuestos bioactivos
de los residuos de procesado de la uva son:
Uno de los aspectos más relevantes que presenta la norma
es que: “las declaraciones nutricionales y de propiedades saludables deberán basarse y fundamentarse en datos científicos generalmente aceptados” (art. 6), de tal forma que un
explotador de empresa alimentaria que efectúe este tipo de
declaraciones deberá justificar debidamente el uso de las mismas. Incluso las autoridades competentes pueden solicitar
aquellos datos pertinentes que demuestren el cumplimiento
de la normativa (art. 6.3).
• Purificación de los extractos.
En consonancia con esta normativa, Grupo Matarromera,
además de las mejoras tecnológicas de los alimentos, está
trabajando en demostrar las evidencias científicas sobre los
efectos beneficiosos de los polifenoles sobre la salud.
La investigación de extractos ricos en compuestos fenólicos
supondría el primer paso para la obtención de alimentos funcionales de gran aplicación. En general, para que los polifenoles puedan ejercer sus efectos positivos a nivel sistémico,
deben primeramente ser absorbidos por el organismo. En
concreto, el fin de estas investigaciones, tras un estudio farmacocinético de la absorción de polifenoles en un grupo de
individuos sanos, es confirmar que el consumo de extractos
ricos en compuestos fenólicos dará lugar a un aumento significativo de la concentración plasmática de polifenoles respecto a compuestos con menos polifenoles.
Tecnologías existentes y aplicación
Actualmente, existen diferentes técnicas disponibles para la
extracción y purificación de compuestos bioactivos a partir
de residuos del procesado de la uva.
240
• Pretratamiento de los residuos.
• Extracción de los residuos del procesado de la uva, secos
y homogeneizados.
• Secado de los extractos purificados.
El proceso de extracción consiste en la separación de una o
más especies de una matriz, sólida o líquida, basada en la diferente solubilidad relativa de dicha sustancia o sustancias
en un determinado disolvente con respecto a la del resto de
los componentes de la matriz. Algunas de las técnicas empleadas son las siguientes:
a) Extracción con disolventes:
• Extracción convencional sólido-líquido.
• Extracción asistida con ultrasonidos.
• Extracción asistida con microondas (MAE).
• Extracción con disolventes acelerada (ASE).
b) Extracción con fluidos/CO2 supercríticos (SFE) SC-CO2.
I+D
Dos de los proyectos de I+D más relevantes desarrollados por
Grupo Matarromera se han centrado en el desarrollo de dos
de estas técnicas de extracción: extracción convencional sólido-líquido (Proyecto EXPOL) y extracción con fluidos supercríticos (Proyecto EXTRANAT). Directamente derivados de
estas investigaciones han surgido nuevos proyectos de I+D
centrados en el desarrollo de ingredientes para alimentos
funcionales (Proyecto Pan de vino y Proyecto SENIFOOD).
Gestión tecnológica en el sector vitivinícola
Proyecto EXPOL: “Desarrollo de un proceso
de aprovechamiento de antioxidantes,
polifenoles y otros productos naturales
de alto valor a partir de orujo de uva con
D. O. Ribera de Duero (2007-09)” con un
presupuesto total de 1.708.461 euros
La técnica que desarrolla este proyecto implica el contacto
de la matriz sólida de la planta con un disolvente líquido. La
selección del disolvente estará determinada por las características químicas y físicas de las sustancias objetivo. En concreto, la estabilidad térmica y la polaridad de las sustancias
a extraer tienen una importancia especial. La temperatura
del disolvente se debe seleccionar en función de la materia
prima y de la resistencia térmica de los compuestos a extraer.
Previamente a este proceso, la alimentación suele tratarse mecánicamente para facilitar la transferencia de las sustancias objetivo de la matriz al disolvente. Este proceso, que se utiliza para
extraer aceites, no es adecuado para extraer sustancias termolábiles. Algunos disolventes orgánicos que se pueden utilizar
como agente extractor son tóxicos y pueden dejar restos en el
producto final. El etanol se puede utilizar para sustituir algunos
disolventes orgánicos tóxicos o peligrosos. Además, la extracción con disolventes orgánicos requiere una etapa final de purificación, como por ejemplo, filtración o centrifugación.
La extracción asistida con ultrasonidos o microondas es parecida a la extracción convencional, pero empleando estas
ondas para aumentar los rendimientos del proceso, reducir
el consumo de disolvente o reducir el tiempo de proceso.
nitaria 88/344/CEE y posteriores modificaciones, como son
el etanol y el agua con pH modificado. Previo al proceso de
extracción, los orujos procedentes de la vinificación se reciben en fresco y son destilados en los alambiques por arrastre
de vapor o calentamiento directo para extraer los aromas y
el alcohol.
Proyecto EXTRANAT: “Highly selective and
environmentally friendly fruit extraction using
supercritical fluids technology” (2006-07)
con un presupuesto total de 98.897 euros
El estado supercrítico es alcanzado llevando un fluido a unas
condiciones de temperatura y de presión por encima de su
punto crítico. Los fluidos supercríticos presentan algunas características propias de gases y algunas propias de líquidos
que los hacen especialmente adecuados para los procesos
de extracción.
Para la realización de microextracciones de compuestos polifenólicos de uva tinta y blanca se emplea una microplanta
que permite la recuperación de sustancias de alto valor añadido encerradas en matrices vegetales (frutas y hortalizas).
El diseño de esta planta es fruto de una investigación llevada
a cabo en cooperación en un proyecto europeo (EXTRANAT)
con otras entidades internacionales pertenecientes a diferentes sectores.
La extracción de polifenoles en los términos en los que se está
efectuando, es un proceso novedoso y sujeto a la patente n.º
200700641, por lo que no se encuentran referencias descritas
de procesos similares extractivos. Los equipos han sido diseñados para alcanzar los objetivos de extracción establecidos.
Proyecto PAN DE VINO: “Investigación para
la obtención de nuevos productos de
panificación y repostería enriquecidos
en polifenoles vínicos. Análisis de los beneficios
potenciales de su consumo sobre la salud
humana” (2007-09) con un presupuesto
de 788.878,58 euros
La técnica de extracción sólido-líquido en continuo empleada, utiliza disolventes no restringidos por la Directiva Comu-
El proyecto está centrado en la incorporación al pan de
molde de los beneficios que aportan los polifenoles presentes
241
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
en la piel de la uva. El pan enriquecido con polifenoles de
uva es un pan de molde, envasado y de larga duración, que
ha sido desarrollado con un proceso productivo controlado
en el que se adiciona un extracto rico en compuestos polifenólicos de uva tinta con elevada capacidad antioxidante, obtenido de los hollejos y semillas de uvas tintas.
La cantidad de polifenoles adicionada al pan es tal que 100 g
de pan equivaldrían al contenido polifenólico de dos copas de
vino tinto, que es la dosis saludable recomendada por la Organización Mundial de la Salud.
En este proyecto trabajan conjuntamente el Grupo Matarromera y el Centro Tecnológico de Cereales (CETECE) de Palencia. Grupo Matarromera se encarga de la extracción de
polifenoles a partir de orujos de uva, la caracterización de los
polifenoles vínicos extraídos y la posterior adaptación de
los métodos analíticos para la determinación de polifenoles
en los productos de panificación y repostería. Además, lleva
a cabo el estudio de beneficios del extracto de polifenoles
sobre la salud. Por su parte, el CETECE desarrolla estos productos de panificación y repostería enriquecidos en polifenoles vínicos.
Al tratarse de un alimento de consumo diario recomendado,
el pan constituye un vehículo muy apropiado para poder incorporar ingredientes con características beneficiosas para
prevenir enfermedades o para mejorar la salud, tanto en grupos de población con necesidades nutricionales especiales
(embarazadas, ancianos, niños), como en las situaciones de
estados carenciales y en los colectivos de riesgo en determinadas enfermedades (osteoporosis, trastornos cardiovasculares, trastornos de la función intestinal, diabetes, obesidad,
etc.). A estas cualidades se suman las antioxidantes de los
polifenoles, que permitirán que este pan de vino tenga una
vida útil más larga que el pan tradicional, ya que se conserva
cinco o seis días más.
242
Proyecto SENIFOOD: “Investigación industrial de
dietas y alimentos con características específicas
para las personas mayores” con un presupuesto
de 1.815.656 euros
Grupo Matarromera es el primer grupo bodeguero que se
centra en la investigación industrial de dietas y alimentos
con características específicas para las personas mayores mediante la intervención nutricional preventiva. Para ello es necesario, además del establecimiento de dietas equilibradas
y variadas, la inclusión en las mismas de los alimentos que
mejor se adecuen a las necesidades de este segmento de la
población y cuyo consumo frecuente prevenga o mitigue
determinadas patologías o cambios fisiológicos derivados
del envejecimiento (hipertensión arterial, artritis, riesgo coronario, etc.). Hay que tener en cuenta que los beneficiarios
no serán personas que padezcan patologías, sino aquellas
con niveles de riesgos altos, pero no lo suficiente como para
ser medicadas.
Para ello, Bodega Matarromera está centrando sus investigaciones en la búsqueda y diseño de ingredientes de origen
vínico y de alimentos enriquecidos con estos ingredientes,
así como en el estudio de los mecanismos de acción de los
mismos, con el fin de obtener una respuesta positiva sobre
algunas de las patologías y cambios fisiológicos que se presentan de forma más frecuente en las personas mayores.
Senifood es un proyecto subvencionado por el CDTI y coordina distintas empresas que invertirán más de 24 millones de
euros durante un periodo de algo más de tres años.
El consorcio del proyecto Senifood cuenta principalmente
con empresas productoras de ingredientes (Naturex, Bioibérica, Biópolis, Nutrafur) y empresas alimentarias (Campofrío,
Central Lechera Asturiana, CustomDrinks, Ordesa, Tutti
Pasta). Bodega Matarromera se enmarca dentro de ambos
sectores, ya que investigará tanto en la aplicación y mejora
del eminol, extracto polifenólico con elevada capacidad antioxidante, como en el enriquecimiento de sus propios vinos
Gestión tecnológica en el sector vitivinícola
y bebidas derivadas para adaptarlos al sector de la población
objeto de estudio, especialmente con el objetivo de disminuir
el colesterol y de reducir la tensión arterial.
y no enzimáticos) para hacer frente a las agresiones ambientales. Sin embargo, ante un exceso de estímulos, los mecanismos endógenos resultan insuficientes para combatir los
efectos nocivos, apareciendo entonces los problemas dérmicos y, entre ellos, el envejecimiento cutáneo.
Productos
Los alimentos funcionales comercializados son los siguientes:
• Extracto líquido con polifenoles y otros compuestos procedentes de la uva. Eminol®.
• Extracto sólido con polifenoles y otros compuestos procedentes de la uva.
• Extracto de uva sólido concentrado obtenido a partir de
Eminol®. Fibra antioxidante de origen vínico (mantiene el
10-12% de polifenoles originales).
Estos extractos son susceptibles de ser consumidos directamente en forma de cápsulas o bien incorporados como ingrediente en una matriz alimentaria.
EL EFECTO ANTIOXIDANTE DE LA UVA AL
CUIDADO DE LA PIEL: COSMÉTICOS ESDOR
Posicionamiento del sector
En la actualidad se vive el auge de una corriente cosmética
que centra su eficacia en las propiedades antienvejecimiento
de determinados extractos naturales, que se usan como ingrediente estrella en el diseño de productos cosméticos de
alta gama. Entre ellos se encuentran extractos de aloe vera,
baba de caracol o incluso veneno de serpiente; pero es con
el extracto procedente de la piel de la uva con el que se ha
conseguido la mayor eficacia antioxidante.
Desde el punto de vista fisiológico, la piel posee de manera
natural mecanismos de defensa antioxidantes (enzimáticos
El envejecimiento es un proceso muy complejo que trae consigo
cambios moleculares que se manifiestan a nivel celular, histológico y anatómico, siendo el envejecimiento cutáneo una de
sus manifestaciones más evidentes. Biológicamente se puede
decir que durante este proceso se produce una disminución del
número de células, de fibras de colágeno y de elastina, e importantes alteraciones en la matriz extracelular. Esto provoca la
merma del grosor de la piel y de su capacidad de renovación y
reparación, especialmente motivada por la menor producción
de factores de crecimiento y acúmulo de radicales libres.
Además, la mala circulación trae consigo una disminución
del aporte nutritivo y de las secreciones glandulares (ecrinas,
apocrinas y sebáceas), y retención de líquidos: la piel se deshidrata y tiende a la descamación, se hace más laxa y pierda
tersura; se forman arrugas y aparece la flacidez, el descolgamiento y la atrofia tisular, principalmente del tejido graso
subcutáneo, muscular y óseo.
En los últimos años se ha descrito la existencia de modificaciones bioquímicas que explican los cambios que se producen en la piel durante el proceso de envejecimiento, siendo
el más importante el que parece afectar al metabolismo del
colágeno, proteína que es un componente esencial de la matriz intracelular que constituye la epidermis. Existen gran cantidad de estudios que indican que durante el proceso de envejecimiento se produce un desequilibrio entre los mecanismos
de síntesis y los de degradación del colágeno, en el que predomina esta última; ello produciría las alteraciones típicas de
una piel envejecida.
Por otro lado, estudios realizados en el campo de la etiología
del fotoenvejecimiento han demostrado que este está provocado, al menos en parte, por las especies reactivas de oxígeno
243
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
(ROS), más conocidas como radicales libres. Las ROS se generan no solo cuando la piel es expuesta a agresiones como
la luz ultravioleta, sino también en el proceso natural de envejecimiento. Así pues, si la relación prooxidantes/antioxidantes es favorable a los primeros, aparece el llamado estrés oxidativo, que parece ser la causa extrínseca más importante del
envejecimiento cutáneo.
Es evidente que el primer paso para conseguir una piel sana y
protegida frente a estas agresiones externas será, además de
una alimentación adecuada, el empleo de productos cosméticos que garanticen esa protección y que la hagan duradera.
De todas estas respuestas cosméticas fruto de la investigación médica y dermofarmacéutica, los polifenoles de uva, en
concreto de uva tinta, constituyen actualmente la más atractiva de las incorporaciones por las posibilidades que ofrecen
estos compuestos al ser responsables de importantes beneficios sobre el organismo, como la captación de radicales libres, el retraso del envejecimiento celular y cutáneo, y la estimulación de la producción de colágeno, elastina y ácido
hialurónico en la piel.
En concreto, y centrando la atención en las investigaciones
científicas publicadas sobre los compuestos polifenólicos procedentes de uva, las propiedades fisiológicas atribuidas a este
tipo de sustancias se podrían resumir de la siguiente manera:
• Actividad anticancerígena atribuida a los polifenoles,
como por ejemplo el resveratrol y las antocianidinas.
• Propiedades antiteratogénicas, como ocurre en el caso de
los flavonoides que contribuyen también en la coagulabilidad de las plaquetas.
• Actividad antiinflamatoria de las antocianinas.
• Actividad antibacteriana y antivírica atribuida a los compuestos fenólicos, propiedad muy útil y de aplicación en
la industria farmacéutica y cosmética.
244
• Actividad antioxidante y antielastasa en la mayor parte
de las sustancias mencionadas. Estas propiedades permiten la reducción de los efectos de los radicales libres
sobre la salud, dado que estos tenderán a unirse con los
polifenoles, lo que evita su acción directa sobre el organismo. Estas propiedades antirradicales refuerzan los
efectos antiinflamatorios y la capacidad antiproteasa del
organismo.
• Actividad clarificante por polimerización y unión con proteínas, caso dado con los taninos, antocianinas, etc., que
resulta útil en la industria agroalimentaria.
En todos los casos, la actividad de los distintos compuestos
activos extraídos de la uva dependerá no solo del tipo de
compuesto, sino también de la concentración de las muestras empleadas, teniendo en cuenta que una dosis inadecuada de los compuestos podría tener un efecto negativo sobre
la salud.
No es de extrañar, por tanto, que, habiéndose investigado
en las propiedades saludables del vino y de la uva, las líneas
cosméticas tengan cada vez más presente la incorporación
de extractos derivados de ambos en nuevos productos relacionados con el rejuvenecimiento y la lucha contra los efectos
del sol en la piel.
De hecho, diferentes casas de cosméticos han diseñado tratamientos eficaces contra el envejecimiento incluyendo en
su formulación derivados polifenólicos de uva tinta o blanca. No obstante, estos productos incluyen extractos comerciales que pueden haberse obtenido directamente de vino
sometido a un proceso de desalcoholización o a partir de
la uva por métodos extractivos comunes. A diferencia de
estos productos comerciales, Emina Cosméticos, S. L. diseña y desarrolla cosméticos que incluyen en su formulación
extractos de uva tinta con una concentración de polifenoles
muy superior a otros comerciales. Este hecho es consecuencia, por un lado de la calidad y las especiales características
de la uva tinta que se cultiva en la zona de Ribera del Duero
Gestión tecnológica en el sector vitivinícola
y que derivan en un elevado contenido de polifenoles en la
uva madura, y por otro del proceso extractivo patentado.
Pero, sin duda, el aspecto diferenciador más importante es
que Grupo Matarromera tiene un conocimiento del origen
de su producto, ya que posee un control de trazabilidad absoluto. Esto es así porque conjuga las actividades de viticultura, elaboración de vinos y extracción de principios activos,
obteniendo un producto de uva 100%.
El mercado español de cosmética y perfumería se sitúa en
el quinto puesto del ranking de países de la Unión Europea
de los 27, lo que constituye un 12% de todo lo que se
vende en nuestro entorno. Analizando el contexto mundial,
Europa supone el primer mercado, seguido de Estados Unidos y Japón, lo que refuerza aún más la posición de España.
Un dato favorable que contribuye a la buena salud del mercado en España es que este es uno de los países de mayor
consumo per cápita de Europa; de hecho, ostenta el cuarto
lugar de la lista de los Estados europeos, incluidos Noruega
y Suiza, y el segundo si solo se tiene en cuenta la Europa
de los 27.
Con respecto al decrecimiento del sector en 2008, en España
ha sido mayor que en otros Estados porque han coincidido
en el tiempo dos circunstancias distintas: que el mercado español de la cosmética alcanzó su madurez el año anterior y
la crisis económica. En cambio, esta coyuntura no se dio en
países como Alemania, Francia o Reino Unido, cuyos mercados llegaron a esa madurez a finales de los años noventa,
por lo que en 2008 tan solo tuvo que hacer frente a los efectos de la recesión.
El sector de la cosmética y la perfumería en España movió el
pasado año un volumen de negocio de 4.864 millones de
euros de facturación y 7.782 millones en cifras de consumo,
según datos facilitados por Stanpa.
Aunque en los últimos diez años este mercado ha destacado
por un crecimiento sostenido, en torno al 5, 6 y 7 %, el pasado ejercicio lo cerró con cifras negativas de un 1,5%.
La buena noticia que se puede extraer de esta coyuntura económica desfavorable es que de los seis canales reconocidos
por Stanpa —gran consumo, selectividad (cosméticos de alta
gama), farmacia, peluquería, venta directa y estética profesional (salones de belleza)—, la farmacia no solo no decreció
en 2008, sino que creció por encima del gran consumo, que
representa la mitad del sector. Así, los datos de la patronal
muestran que el aumento de 2008 con respecto a 2007 fue
de un 1,85% frente al 0,52% registrado en gran consumo.
En este canal, los productos que más porción del mercado
se llevan son los de higiene bucodental y los de dermofarmacia, concretamente los destinados a la fotoprotección. Un
dato interesante es que los cosméticos para el cuidado de la
piel generan unos 1.300 millones de euros anualmente, de
los cuales unos 250 millones se facturan en farmacia.
El canal farmacia ha experimentado una gran eclosión en los
últimos años. Según los datos de mercado, entre 2002 y
2008 este canal ha visto cómo han aumentado sus referencias, concretamente en lo que se refiere a productos destinados al cuidado de la piel: la farmacia ha pasado de tener
cinco mil referencias a treinta mil. Desde Stanpa también se
subraya el amplio catálogo de productos cosméticos que
tiene la farmacia en general, pues solo en 2008 se registraron en Sanidad 250.000 referencias.
Tecnologías existentes y aplicación
Dado el importante papel que juega la piel como primera
barrera de defensa natural frente las infecciones, su cuidado y conservación ha dejado de ser una cuestión meramente estética para convertirse en la actualidad en una necesidad real que preocupa a médicos, dermatólogos y
ciudadanos. En este sentido, el sector cosmético-farmacéutico está focalizando sus esfuerzos en la realización de trabajos de investigación y en el desarrollo de productos que
permitan dar una respuesta cosmética al estrés oxidativo y
paliar los daños directos y colaterales sobre el organismo
derivados del mismo.
245
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Estas respuestas cosméticas se basan en el empleo de principios activos cuyo origen es muy variado. A continuación se
citan algunos ejemplos.
• Vitaminas antioxidantes: son principalmente las vitaminas
C y E. Se ha escrito mucho sobre su papel como antioxidantes biológicos, pero existe controversia respecto a su
uso y estabilidad galénica.
• Activos obtenidos a partir de bacterias: son lisados obtenidos biotecnológicamente.
• Moléculas endógenas: citocinas extraídas de la leche que
actúan como inmunomoduladores.
• Enzimas: superóxido dismutasa, catalasa y glutatión reductasa.
• Extractos vegetales: este es el grupo más fecundo, y del
que forman parte los extractos ricos en flavonoides (polifenoles) como antioxidantes.
proporcionar una piel más estirada, pero en modo alguno
garantiza una piel sana con una presencia más saludable. Por
esta razón, lo primordial es acondicionar la piel incluso antes
de abordar cualquier problema puntual mediante tratamiento quirúrgico o recurriendo a los tratamientos no ablativos
de regeneración de la piel sin cirugía.
Desde un punto de vista tecnológico, los procesos que se
aplican para la obtención de los extractos ricos en polifenoles
son tecnologías no difundidas y con un marcado carácter
innovador encerrado en ellas, por lo que también dotan a
los productos de un importante valor añadido y de un alto
impacto en el sector cosmético y farmacéutico.
I+D+i
Emina Cosméticos ha aprovechado el conocimiento y el
saber hacer de Bodega Matarromera en el campo de la
extracción de polifenoles para, a partir de ahí, trabajar en
el desarrollo de formulaciones cosméticas capaces de vehiculizar estos principios activos.
• Pseudodipéptidos y silanoles.
Como puede observarse, a la lista de ingredientes con actividad cosmética propuestos en los últimos años se han sumado sustancias antioxidantes o antirradicalarias más específicas para luchar contra el fotoenvejecimiento (fenómeno
mejor estudiado del envejecimiento extrínseco) y contra otras
agresiones a las que el organismo se ve sometido en exceso,
como la polución. Basándose en los estudios científicos realizados en esta área, se acepta desde hace un tiempo que la
aplicación tópica de antioxidantes es efectiva para el tratamiento de los síntomas del envejecimiento de la piel. En este
sentido, Emina Cosméticos, S. L. intenta desarrollar productos innovadores con la función de prevenir problemas dermatológicos, desarrollando cosméticos con ingredientes específicos en las formulaciones fruto de la investigación
biotecnológica. Por otro lado, cualquier tratamiento dermoestético que implique cirugía, por ejemplo un lifting, puede
246
Así pues, en 2007 el Departamento de I+D+i de Emina Cosméticos, S. L. inicia su actividad realizando la revisión bibliográfica legislativa, documental y científico-técnica para el desarrollo de una nueva línea de cosméticos. A partir de entonces
comienza a participar en diversos proyectos de investigación
relacionados con la extracción de polifenoles de uva tinta, su
actividad fisiológica y su aplicación en diferentes sectores.
Por otro lado, Emina Cosméticos cuenta con recursos humanos
gracias al Plan Nacional de Investigación Científica, Desarrollo
e Innovación Tecnológica del MICINN para llevar a cabo el proyecto: “Estudio biotecnológico, diseño y optimización de compuestos antioxidantes naturales procedentes de subproductos
obtenidos en el proceso de elaboración de vinos de calidad
como complemento nutricional en humanos, cosmético y farmacológico”, así como el “Estudio, diseño y desarrollo de compuestos antioxidantes naturales procedentes de orujos de uva
Gestión tecnológica en el sector vitivinícola
tinta para su aplicación en el sector de los complementos nutricionales, cosmético y farmacológico", financiado por la
Agencia de Inversiones y Servicios de la Junta de Castilla y León.
Este es el último proyecto en el que ha entrado Emina Cosméticos como entidad colaboradora, prestando apoyo desde el
punto de vista técnico para llevar a cabo tareas de índole investigadora, administrativas y de gestión.
Tras adquirir experiencia en el campo de la investigación
científica y el desarrollo tecnológico de la mano de otras empresas y organismos de investigación, a finales de 2007
Emina Cosméticos comienza un proyecto como líder del
mismo. Este proyecto es financiado por la Agencia de Inversiones y Servicios de la Junta de Castilla y León a través de la
Línea 4, y lleva por título “Desarrollo biotecnológico y diseño
de una gama de productos cosméticos enriquecidos con antioxidantes procedentes de uva”.
De este modo, Emina Cosméticos, S. L. ha puesto en marcha
una estrategia apoyada en la investigación y el desarrollo que
pretende derivar en un futuro factor de diferenciación tecnológica, posicionándose en el segmento de los productos
funcionales y enriquecidos. Esa misma estrategia apunta el
establecimiento de la marca, identificándola como una empresa vinculada al bienestar, la salud y la calidad.
a disposición de los clientes formulaciones cosméticas con
un elevado efecto antioxidante que cuidan la piel.
Los productos ESDOR son cosméticos funcionales de alta
gama elaborados con una base de polifenoles extraídos, bajo
un proceso productivo único patentado por Grupo Matarromera, de uvas Vitis vinifera de la variedad tempranillo procedentes de los más adecuados viñedos en la zona de la Ribera del Duero.
De forma general, ESDOR ayuda a frenar el efecto del paso
del tiempo en la piel; a proteger la elastina y las fibras de colágeno, retrasando la aparición de arrugas; a aumentar la vitalidad celular, la resistencia y la flexibilidad de la piel para
evitar la aparición de cuperosis; además de proteger la piel
de agresiones externas provocadas por el humo, el sol, el
viento y la contaminación.
Los productos que comercializa actualmente Emina Cosméticos pueden verse en la figura 17 y se enumeran a continuación:
• Crema hidratante antioxidante ESDOR con polifenoles de
uva tinta.
• Contorno de ojos antioxidante ESDOR con polifenoles
de uva tinta.
Esta estrategia pretende hacer realidad la comercialización
de productos, todos ellos concebidos para cubrir necesidades
de los consumidores, apostando por el desarrollo y gestión
de proyectos dentro del sector de la cosmética, los extractos
naturales y los productos funcionales. Por todo ello, Emina
Cosméticos tiene su actividad centrada principalmente en la
investigación y diseño de formulaciones cosméticas de uso
tópico y oral.
• Crema nutritiva antioxidante ESDOR con polifenoles de
uva tinta.
Productos
Dentro de la investigación y el desarrollo de nuevas formulaciones cosméticas, se realizan investigaciones científico-clínicas
para asegurar la eficacia del producto final, así como para garantizar la inocuidad de la formulación global.
Emina Cosméticos ha desarrollado una línea cosmética de
alta gama —ESDOR— que nace con el único objetivo de poner
• Leche limpiadora antioxidante ESDOR con polifenoles
de uva tinta.
• Tónico antioxidante ESDOR con polifenoles de uva tinta.
• Body Milk antioxidante ESDOR con polifenoles de uva tinta.
247
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Energía solar
• Solar fotovoltaica: de forma general, Matarromera potencia el uso de energías renovables con la implantación de
cinco plantas de energía solar fotovoltaica, sumando una
potencia instalada para uso industrial y dotacional de 447
kW y una producción anual agregada de 715.000 kWh,
lo que la convierte en autosuficiente desde un punto de
vista energético.
La bodega Emina, situada en Valbuena de Duero (D. O. Ribera del Duero), cuenta con tres plantas de energía solar
fotovoltaica, con una capacidad conjunta de 247 kW y un
total de 1660 paneles fotovoltaicos. La más potente, de
100 kW y una producción anual de 160.000 kWh, está
oculta a la vista, ya que se creó sobre la cubierta de la nave.
Las otras dos plantas se sitúan en la bodega Valdelosfrailes
(Cubillas de Santa Marta, D. O. Cigales) y en Emina Rueda
(Medina del Campo, D. O. Rueda). Ambas tienen una potencia de 100 kW cada una y están constituidas por 630
paneles (véase la figura 18).
Figura 17. Gama de productos ESDOR
OTRAS ACTIVIDADES TECNOLÓGICAS
Medio ambiente y sostenibilidad
El Grupo Matarromera adopta un gran compromiso por la sostenibilidad y la eficiencia energética. En las siete bodegas del
Grupo se dispone de tecnología avanzada en materia energética con el objetivo de aprovechar los recursos naturales para
producir energía y generar un menor impacto ambiental.
Los principales puntos en los que el Grupo Matarromera basa
su desarrollo sostenible son los siguientes:
248
Figura 18. Placas fotovoltáicas de la bodega EMINA
Gestión tecnológica en el sector vitivinícola
• Solar térmica: asimismo, se dispone de sistemas de calentamiento de agua para su uso sanitario e industrial, de
cara al autoabastecimiento del proceso productivo, mediante dos plantas de energía solar fototérmica: 23 colectores en Bodega Valdelosfrailes y 30 colectores en Bodega
Matarromera.
Biomasa: sistema de producción energética a
partir de subproductos vitícolas
Debido al proceso productivo vitícola, en toda bodega se generan subproductos que son destruidos o llevados a un vertedero sin ningún tipo de aprovechamiento previo.
La gestión y la eliminación de estos subproductos suponen
el empleo de gran cantidad de recursos humanos, materiales
e infraestructuras, además de las pérdidas, ineficiencias energéticas y contaminación ambiental que se derivan de dicha
eliminación por combustión. Para solventar estos problemas
y obtener energía verde, Grupo Matarromera aprovecha
estos subproductos a través de una caldera de biomasa que
gestiona 143 toneladas al año, con una producción energética de 623.200 kWh/año, empleados para:
• Climatización y calefacción de las instalaciones.
• Agua sanitaria para baños, lavabos y duchas en bodega y
CIVE.
• Uso de agua caliente industrial en:
— Elaboración: lavado de depósitos, barricas, maquinaria
de vendimia.
de un litro de gasolina. El consumo de biomasa de Matarromera equivaldría, por tanto, a la utilización de 48.000 l de
gasolina.
El empleo por Matarromera de la biomasa ahorra de forma
anual a la atmósfera 400 t de emisiones de CO2, ayudando
por tanto a reducir el efecto invernadero. Los sistemas de generación de energía por biomasa dan lugar a "balance neutro” de emisiones de CO2.7
EDAR propia y aprovechamiento de aguas
pluviales y residuales para riego
La utilización de la EDAR (Estación Depuradora de Aguas Residuales) permite que se trate la totalidad de las aguas residuales producidas en los distintos centros de producción del
grupo, devolviendo el agua al ecosistema en perfectas condiciones para su reutilización.
Las bodegas tienen un sistema de acopio y aprovechamiento
de aguas pluviales recogidas en toda la superficie de la parcela, canalizadas mediante la red de pluviales hacia el pozo
de sondeo y las balsas de la EDAR. Con este método, el
agua de lluvia se aprovecha y no se pierde por evaporación,
y se minora así la extracción de agua del acuífero, evitando
esquilmarlo. El porcentaje de ahorro de agua estimado es
del 50%.
Asimismo, se cuenta con un sistema de riego de alta eficiencia y ahorro mediante goteros autocompensantes de caudal
controlado.
7
— Embotellado: lavado higiénico de botellas.
En este caso, la energía se obtiene bajo sistema de cogeneración (producción conjunta de energía térmica y eléctrica).
El uso de 3 kg de biomasa equivale a la potencia calorífica
Este proyecto ha recibido el galardón a la Mejor Acción Ecoinnovadora en el ámbito de la biomasa sólida, otorgado por el Centro
Tecnológico CARTIF, la Fundación Biodiversidad y el Fondo Social
Europeo a través del Programa Empleaverde 2007-2013, que reconoce la labor de Matarromera en los procesos de aprovechamiento
de residuos agronómicos, forestales y enológicos para la obtención
de energía mediante biomasa.
249
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Gracias a estas buenas prácticas, se consigue un ahorro anual
que se cifra en 0,05 l de agua por botella de vino producida;
esto significa que, con una capacidad productiva anual de
1,2 millones de botellas, el ahorro estimado es de 60 m3
(60.000 l) al año, únicamente en el proceso productivo.
variedades de uva blanca y tinta. Este jardín permite realizar
investigaciones de I+D+i sobre adaptación a las condiciones
climáticas de la zona, sensibilidad a enfermedades y plagas,
microvinificaciones para determinar potencialidad enológica
o ensayos de manejo del cultivo mediante sistemas ecológicos; todo ello por medio de prácticas integradas y respetuosas con el medio ambiente.
Edificios ecoeficientes: el CIVE como ejemplo de
ecosostenibilidad
Agricultura ecológica: olivo/viñedo
El Grupo Matarromera mejora la eficiencia energética de sus
instalaciones mediante edificios diseñados con iluminación
natural y un óptimo aislamiento y orientación.
La sede central del Grupo Matarromera y el Centro de Interpretación Vitinivinícola de Emina (CIVE) son un ejemplo de
edificación ecosostenible: un 90% de su demanda energética está cubierta por energías renovables, un 60% de los espacios del edificio tienen luz natural, utiliza un 70% de materiales reciclados, un sistema de climatización con
posibilidad real de empleo de energía solar térmica mediante
absorción térmica, emplea como combustibles gas licuado
del petróleo y biomasa, y tiene un sistema de refrigeración
pasiva con orientación norte en zonas con menores requerimientos térmicos o lumínicos.
Además, el CIVE se integra en el entorno rural mediante el
empleo de materiales de construcción autóctonos, manteniendo la armonía paisajística y con un bajo nivel de edificabilidad de la parcela. En el CIVE se emplean materias primas
de proximidad, lo que repercute en mejores eficiencias energéticas al minimizar el concepto del transporte: empleo de
sarmientos de viñedos cercanos, aprovechamiento de barricas de la propia zona de crianza, aprovechamiento de orujos
de uvas resultantes del proceso enológico en la destilería
aneja, etc.
El CIVE cuenta con un Jardín de variedades de vid único y
referente a nivel vitícola y enológico, que alberga más de
60 variedades tanto nacionales como foráneas, incluyendo
250
Como prueba del compromiso del Grupo Matarromera con
el medio ambiente, gran parte de sus más de 300 hectáreas
de viñedos y más de 70 ha de plantaciones de olivo siguen
métodos de producción de agricultura ecológica. Próximamente se prevé que todos sus vinos de la D. O. Toro procedan
de la agricultura ecológica.
Aplicativo huella de carbono
La huella de carbono en el sector vitivinícola es un indicativo
del impacto de la elaboración de cada vino en el medio ambiente. Grupo Matarromera se ha convertido en la primera
empresa española en conocer el cálculo de la huella de carbono en uno de sus productos, Emina Verdejo; o lo que es
lo mismo, en saber el impacto real que tiene la producción
de uno de sus vinos sobre la atmósfera y sobre el medio ambiente.
La huella de carbono es el conjunto de gases de efecto invernadero (GEI) asociados a las distintas fases del ciclo de vida
del producto, medidos en unidades de dióxido de carbono
(CO2) equivalente. La Asociación Española de Normalización
y Certificación (AENOR) ha certificado el balance de CO2
desde el viñedo del que proceden las uvas con las que Matarromera elabora su Emina Verdejo, pasando por el proceso
de producción y elaboración del vino, el transporte, la distribución, el consumo y el reciclaje de las diferentes partes del
producto.
Gestión tecnológica en el sector vitivinícola
Tras analizar todos estos procesos, AENOR ha certificado que
Grupo Matarromera emite 829 g de CO2 equivalente por la
producción de cada botella de Emina Verdejo. El objetivo de
este dato es cuantificar de una manera acreditada el CO2
emitido a la atmósfera y establecer los procedimientos para
reducir y compensar esas emisiones en las futuras añadas.
• Necesidad de diferenciación de la competencia.
• Compromiso de sostenibilidad y reducción de emisiones
y costes.
Normativa y certificación
Tras el cálculo de la huella de carbono obtenido para la referencia Emina Verdejo, Matarromera ha obtenido la misma
certificación en otras referencias vinícolas: Emina 12 meses,
con una emisión de 1,4 kg de CO2 por cada botella; y Matarromera Crianza, con 1,1 kg. La siguiente referencia que
Matarromera quiere medir es Eminasin Tinto.
Asimismo, Matarromera investiga desde su Departamento
de I+D+i la huella de agua en el proceso de producción de
una botella de vino, así como la huella ecológica general para
contabilizar los recursos utilizados desde un punto de vista
amplio a nivel ecológico.
La huella de agua es el indicador de huella hídrica usada directa o indirectamente en el proceso para producir bienes o
servicios. Por ejemplo, está comúnmente aceptado que la
huella hídrica para producir un vaso de cerveza es de 75 l de
agua, para una copa de vino 120 l, para una taza de café
140 l, y 2.400 l para una hamburguesa. La medida considera
el agua consumida o contaminada, tanto en el proceso de
producción del producto mismo como en la cadena de abastecimiento, para obtener su materia prima.
La empresa posee actualmente certificaciones según diversas
normas:
• Sistema de Gestión de I+D+i certificado según UNE 166002.
• Sistema de Gestión de la Calidad certificado según UNEEN ISO 9001:2000 por AENOR y por Iqnet.
• Certificado AENOR Medio Ambiente: CO2 calculado (huella de carbono) para los productos Emina verdejo (primer
vino a nivel nacional), Emina 12 meses y Matarromera
Crianza.
• Legislación ambiental cada vez más exigente.
Cabe señalar que el sistema de gestión de I+D+i con certificado UNE 166002 ha permitido al grupo empresarial gestionar de manera organizada todas las actividades de I+D+i a
través de los diversos procedimientos y documentación correspondiente: previsión tecnológica, vigilancia tecnológica,
creatividad, análisis externo e interno, análisis DAFO, transferencia tecnológica, seguimiento y medición de resultados
del producto IDI, protección y explotación de resultados y,
en general, la gestión de proyectos. Gracias a este sistema
de gestión se han podido aprovechar mejor las capacidades
internas, estudiar las condiciones externas y gestionar la
I+D+i, desarrollando proyectos que han dado como fruto un
importante know-how, propiedad intelectual e industrial.
Estos, unidos al gran esfuerzo inversor en materia de I+D+i,
han posicionado al Grupo Matarromera como ejemplo de
gestión de la I+D empresarial.
• Exigencia de ecoetiquetado por algunas cadenas de distribución e importadores.
Dentro de las colaboraciones con AENOR, es de destacar
que esta asociación realiza el proceso de certificación como
Hay un creciente interés en el sector debido a:
• Aceptación social: creciente interés de los consumidores por
adquirir productos respetuosos con el medio ambiente que
no contribuyan a la emisión de gases de efecto invernadero.
251
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
proyecto de I+D de muchos de los proyectos que desarrolla
el Grupo Matarromera. El proceso de certificación concluye
con la obtención de un informe técnico del experto y de un
certificado que posibilitan la emisión por parte del MICINN
del correspondiente informe motivado. Este informe motivado es vinculante a efectos de deducciones fiscales por I+D
en el impuesto de sociedades. Dichas deducciones fiscales
facilitan al grupo empresarial mantener sus elevadas inversiones en I+D+i.
Propiedad industrial
Como consecuencia de la actividad investigadora del Grupo
durante los últimos años destacan los siguientes patentes en
el sector del vino:
• Patente del catador electrónico fruto del proyecto europeo
Wine Panel Test.
• Patente para la obtención de una patente PCT para:
“Procedimiento para la obtención de vino desalcoholizado, vino desalcoholizado obtenido y bebidas que lo
comprenden” (PCT/ES2010/070497).
Dentro de la actividad investigadora en el campo de los polifenoles, durante los últimos años destacan los siguientes resultados de propiedad industrial:
• Aplicación de los polifenoles líquidos y sólidos a productos
de panificación y repostería (pan de vino) (PCT/EP2009/
070434).
• Solicitud de patente de Producto Lácteo al aroma de vino
enriquecido con polifenoles.
• El método empleado para la obtención de los ingredientes
incorporados en los diferentes productos de la gama
ESDOR es el descrito en la patente ES2319032, propiedad
de Bodega Matarromera.
252
• Emina Cosméticos se encuentra en pleno proceso de solicitud de una nueva patente con número de solicitud
PCT/ES2010/070689 y que lleva por título “Extracto polifenólico de uva y producto cosmético que lo comprende”.
EVOLUCIÓN DE LA TECNOLOGÍA EN
DIFERENTES ÁREAS ALIMENTARIAS
La ciencia y el desarrollo de las tecnologías aplicadas al diseño de los alimentos del futuro alcanzan límites insospechados. Puede parecer ciencia ficción, pero las tendencias en investigación están demostrando que en un futuro no muy
lejano la alimentación será más saludable gracias a la investigación. Si se puede llegar a conocer las enfermedades o dolencias a las que somos más propensos a lo largo de nuestra
vida, se podría hacer de la alimentación una baza para prevenir enfermedades y mejorar la salud.
Al hablar de las tendencias de futuro en el sector de la alimentación es inevitable abordar conceptos como los alimentos funcionales y transgénicos, la nutrigenómica, y las nanotecnologías aplicadas a la producción y comercialización de
alimentos. Gracias a las nuevas técnicas experimentales se
ha producido un importante avance en el conocimiento
sobre el potencial de los alimentos para conservar o mejorar
la salud. Las posibilidades de usar alimentos de acuerdo con
su composición genética, o de modificarlos para obtener solo
ciertos nutrientes, o de que en nuestro organismo se liberen
solo ciertos principios activos, son hoy una realidad. Sin embargo, es importante resaltar que, frente a los gigantescos
avances en tecnología alimentaria y al interesante y prometedor panorama que se ofrece en términos de alimentación,
salud, calidad y expectativa de vida con los llamados nuevos
alimentos y tecnologías, está la abrumadora realidad del
hambre y la desnutrición en el mundo.
El mayor reto al que se enfrenta la humanidad es que en
2050 se prevé un incremento de la población mundial del
40%, llegando a casi los 9.000 millones de habitantes. La
Gestión tecnológica en el sector vitivinícola
Organización de Naciones Unidas para la Agricultura y la Alimentación (FAO) estima que dentro de 40 años se deberá
producir un 70% más de alimentos.
Para ayudar a solucionar este problema se debe recurrir ineludiblemente a la ciencia. Una de las posibles vías es la ingeniería genética. Los OMG son plantas y animales a los
que se les ha modificado su diseño genético para mostrar
características que no tienen por sí mismos. Simplificando
mucho, se trata de copiar el gen de una especie que tiene
la característica que se está buscando, como, por ejemplo,
la resistencia a las sequías, y transponerlo en el mapa genético de otra especie para que desarrolle esa misma capacidad. Insertando ciertos genes en plantas se han conseguido cultivos resistentes a malas hierbas, a herbicidas,
a plagas de insectos, cultivos con mayores rendimientos
por hectárea, resistencia a sequía o cambios fenotípicos
que incluyen la maduración retardada. El caso del arroz dorado (golden rice) merece especial mención. Para la producción de este alimento básico, se insertan los genes que
llevan a la síntesis y acumulación de vitamina A en el arroz,
lo que permitiría mejorar la calidad de vida de los millones
de personas cuya alimentación está basada en él y que año
tras año mueren por deficiencia de dicha vitamina, sobre
todo en Asia y África.
El segundo pilar que modula la investigación agroalimentaria se sustenta en el considerable aumento durante los
últimos años del interés por conocer la relación entre la
dieta y la salud. Se ha demostrado que muchos alimentos
tradicionales, como las frutas, las verduras, el pescado y la
leche, contienen componentes que resultan beneficiosos
para nuestro organismo. Los expertos recomiendan seguir
una dieta sana, variada y equilibrada como la mejor manera de prevenir ciertas enfermedades y asegurar una buena
salud. Pero la falta de tiempo para cocinar, el aumento del
consumo de alimentos ricos en grasas y el ritmo de vida
actual producen una serie de desequilibrios y desajustes
alimentarios cuya consecuencia es la aparición de enfermedades.
Como resultado de esta situación, surgen los alimentos
funcionales, que pueden compensar esos desequilibrios alimentarios y garantizan las ingestas de nutrientes recomendadas por los especialistas en nutrición. Aunque los alimentos funcionales son reconocidos mundialmente, es
necesario definir adecuadamente sus alegaciones nutricionales y normar sobre las mismas para evitar confusiones
en el público y establecer claramente de qué se trata y qué
beneficios pueden obtenerse al usar estos alimentos. Para
ello, la Unión Europea ha legislado el tipo y alcance de las
alegaciones nutricionales que pueden publicitarse con cada
alimento (Reglamento CE n.º 1924/2006), siendo necesario
presentar varias evidencias científicas que demuestren las
funcionalidades que se aleguen; esto supone una protección del consumidor europeo, por cuanto impide publicitar
efectos que no han sido científicamente demostrados, lo
que permitirá un aumento de la confianza del consumidor
en el uso de este tipo de alimentos.
Entre las herramientas innovadoras que permiten investigar
en la tecnología de los alimentos está la nutrigenómica, una
ciencia que busca dotar de una explicación molecular al modo
en que los productos químicos ingeridos por la dieta pueden
modificar el estado normal de salud, alterando la estructura
de la información genética. Se describen dos vertientes: la nutrigenómica, que estudia el efecto de ciertos nutrientes sobre
la regulación de la expresión genética; y la nutrigenética, que
analiza la respuesta de la estructura genética particular del
individuo a ciertos nutrientes.
Cada vez está más claro que los nutrientes interaccionan directamente con los genes, y todo parece indicar que ciertos
alimentos son capaces de poner en marcha regiones del
ADN con acción protectora frente a algunas enfermedades,
mientras que otros provocan el efecto contrario. Es decir,
que estos hallazgos no tienen una aplicación universal, porque existen individuos con variantes genéticas en las que la
mencionada relación entre nutrientes y genes no funciona.
Por ejemplo, se sabe que el té verde es saludable por sus
efectos antioxidantes, pero es posible que haya personas
253
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
con configuraciones de su ADN que hagan que no se beneficien de dichas propiedades. Existen genes que se relacionan directamente con el riesgo de contraer enfermedades
(cardiopatías, cáncer, osteoporosis y diabetes, por ejemplo),
y se sabe que la expresión de esos genes puede ser modificada por la nutrición. Todos llevamos alguna versión de esos
genes, de modo que es perfectamente posible investigar
cuáles son las versiones de genes que tenemos y basar la
dieta en esa información.
en la manipulación de la materia a escalas namométricas. La
inclusión de nanopartículas permitirá controlar la composición de suelos, la calidad y cantidad del agua empleada, la
productividad de las cosechas o el uso y cantidad de pesticidas a utilizar, mediante la incorporación de pequeñas partículas directamente a la planta. En cuanto al alimento, por
medio de esta nueva tecnología pueden hacerse modificaciones en su composición, controlar su maduración, estimar
su vida útil, etc.
Otra de las tendencias en la investigación agroalimentaria se
centra en la consecución de alimentos orgánicos, biológicos
o ecológicos. Son alimentos que se publicitan como aquellos
“que cuidan tanto la salud de los consumidores como el
equilibrio del medio ambiente en que se producen”. El éxito
de estos productos se basa en que se consideran más saludables y más seguros (al ser producidos de forma más “natural”), por lo que los consumidores están dispuestos a pagar
más por ellos, ya que se sienten más conscientes de sus beneficios no solo para quien los consume, sino también para
la protección del medio ambiente y para el bienestar de los
animales. Su principal atractivo consiste en la baja o inexistente carga de pesticidas usados en su producción, aun
cuando este factor se ha vuelto más difícil de controlar a medida que su demanda ha aumentado.
En el área de la industrialización es posible diseñar envases inteligentes que produzcan cambios de color si se rompe la cadena de frío, si el alimento se somete a un exceso de radiación
solar o si el producto está a punto de caducar. Otros ejemplos
son la microencapsulación de los aromas que se aportan a una
goma de mascar, que se van abriendo de manera gradual para
dar una mayor prolongación de su sabor, o la microencapsulación de determinados principios activos que se liberan en
zonas determinadas del organismo (estómago, intestino grueso, etc.), favoreciendo la absorción en el lugar más adecuado
con objeto de que su efecto sea el mayor posible.
Otras tecnologías emergentes que van a tener impacto en
un futuro son las llamadas nanotecnologías, que consisten
254
A modo de conclusión, se puede resumir que en el desarrollo
de los alimentos del futuro está influyendo de manera decisiva la investigación en técnicas biotecnológicas que trabajan
con el conocimiento de los genes, así como la aplicación de
productos que mejoran o complementan las cualidades de las
materias primas de las que parten.
Sistema de reabastecimiento de combustible en vuelo:
desarrollo e innovación en un entorno transnacional
ANTONIO PÉREZ PÉREZ
(Villarrobledo, Albacete, 1949)
Ex Director de Ingeniería y Calidad de EADS-CASA
Ingeniero Aeronáutico por la ETSIA (Universidad Politécnica
de Madrid), Máster en Métodos Cuantitativos de Gestión (EOI) y
Licenciado en Ciencias Empresariales (ICADE).
Tras sus inicios en el Departamento de Estudios de la EOI (Escuela de Organización Industrial) y después en Chrysler España
como Ingeniero del Departamento de Ingeniería de Fabricación,
en 1975 se incorpora a CASA (Construcciones Aeronáuticas, S.A.)
donde ha desarrollado su carrera profesional hasta su reciente
jubilación, ocupando diversos puestos como el de Ingeniero de
Cálculo de Estructuras en los proyectos CASA C212 y C101, Jefe
de Cálculo Estructural de los proyectos Airbus, Jefe del Departamento de Análisis de Estructuras, Subdirector Ejecutivo de Diseño
de Avión y Director de Proyectos y Sistemas (Ingeniería).
Después de la integración de CASA en EADS (European Aeronautic Defence and Space Company) en el año 2000, continuó
como Director de Ingeniería de la División de Aviones de Transporte Militar (EADS-CASA) y, en los últimos tres años, Director de
Calidad y miembro del Comité de Dirección.
En estos treinta y cinco años como profesional del campo aeroespacial ha participado, desde sus diferentes responsabilidades
en los proyectos CASA C212, C101, CN235, CASA3000 y C295; Airbus
A300, A310, A320, A330, A340, A380 y A400M; Eurofighter EF2000;
McDonnell Douglas MD11 y MD12; Saab2000; Dornier Do728;
Falcon F7X y P3 Orion.
Asimismo, ha sido miembro del Technology Management
Group de Airbus, de los Comités de Directores Técnicos de Airbus
y Eurofighter, del Technical Executive Committee de EADS, del
High Level Group para el desarrollo de los acuerdos de integración de CASA en EADS, del Quality Council de EADS y del Quality
Board de Airbus; líder del Joint Structural Team del EF2000;
representante de ATECMA en la ASD Operation Commission;
miembro del IAQG (International Aerospace Quality Group)
Council y Strategic Working Group y del EAQG (European) Executive Committee, y presidente del CBMC (Certification Body Management Committee) del Esquema de Certificación Aeroespacial
Español.
Sistema de reabastecimiento de combustible en vuelo:
desarrollo e innovación en un entorno transnacional
Antonio Pérez Pérez
LA INDUSTRIA AEROESPACIAL
En todos los países donde la industria aeroespacial ha alcanzado un desarrollo significativo, esta es considerada como
un sector estratégico desde diversos puntos de vista: militar,
por el grado de independencia que puede dar en la política
de defensa y seguridad; tecnológico, por el desarrollo de tecnología punta, integradora de muy diversos campos técnicos
y con un importante efecto de arrastre sobre otros sectores
industriales; económico, por el elevado valor añadido de sus
productos y el alto porcentaje de exportación de los mismos;
y social, por su contribución a la creación de empleo altamente cualificado.
En Europa, según datos de la AeroSpace and Defence Industries Association of Europe (ASD. Fact and Figures. 2009), las
ventas de la industria aeroespacial en 2009 alcanzaron un
valor de 109.000 millones de euros (5.700 millones en España), dando empleo a medio millón de personas (en España,
37.000 empleos directos).
Pero si se ha de señalar un rasgo claramente distintivo de la
industria aeroespacial, este sería su carácter decididamente
tecnológico y multidisciplinar, que abarca campos tan variados como la aerodinámica, la mecánica de vuelo, la ciencia
de los materiales, las estructuras y una diversidad de sistemas
—aviónica, navegación, eléctrico, hidráulico, etc.—, con todo
su extraordinario bagaje de conocimientos técnicos y científicos. Desarrollo tecnológico e innovación, aplicados a la mejora continua y al diseño de nuevos productos y procesos,
van, por consiguiente, inseparablemente unidos a esta industria y, junto al objetivo común de toda I+D de conseguir
un aumento de las prestaciones de los productos y la optimización de la relación eficacia-coste, persiguen otro que,
sin ser exclusivo de ella, la condiciona de manera singular: la
seguridad, objetivo primordial al que queda supeditado todo
avance tecnológico en la industria aeronáutica.
Es un sector que duplica con creces el nivel de gasto en I+D
que la OCDE define como de alta intensidad tecnológica,
realizando un esfuerzo en I+D que en términos económicos
259
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
representa más del 12% de las ventas del sector en Europa.
En España, 800 millones de euros en 2009, un 14% de la
facturación.
El carácter estratégico del sector, su relación con la defensa
y la seguridad, pero sobre todo los largos ciclos de desarrollo
y las cuantiosas inversiones que requiere cada proyecto, justifican las ayudas institucionales sostenidas que todos los gobiernos dedican a esta industria. Sirvan como ejemplo en el
campo aeronáutico los costes de desarrollo de algunos programas de Airbus: A380, más de 12.000 millones de euros;
A400M, por encima de 6.000 millones; y el nuevo proyecto
A350, que tiene prevista una inversión de 10.000 millones
de euros. Es por ello también por lo que, contrariamente a
otros sectores tecnológicos de alta innovación, como puede
ser el de la electrónica y comunicación de consumo, los mayores ingresos en la industria aeronáutica no provienen de
los nuevos productos, sino que se basan principalmente
en los que llevan ya algún tiempo en el mercado o provienen
de las modificaciones de mejora, siendo este el caso del
A320 en el segmento de aviones comerciales de Airbus y los
CN235 y C295 en los aviones de transporte militar de la antigua CASA, hoy Airbus Military.
Aviones de misión
Todos los aspectos hasta ahora descritos de la industria aeroespacial se dan especialmente en el segmento de los aviones de misión, al que pertenece el caso de desarrollo tecnológico que se expone en este capítulo, pero además hay que
añadir otros que le son específicos. Estos tienen que ver fundamentalmente con dos características del mercado al que
van dirigidos: en primer lugar, el cliente, ya que son casi exclusivamente los gobiernos, ya sean los departamentos de
Defensa u otras agencias gubernamentales, los que adquieren estos productos bajo especificación de sus necesidades
operativas; y, en segundo lugar, los extremadamente largos
periodos de tiempo que transcurren entre proyectos, que
se miden en decenios, lo que da lugar a una dependencia
260
directa de los presupuestos estatales, tanto para la venta de
estos aviones como para las ayudas al desarrollo tecnológico
necesario para mantener el capital de conocimiento de las
empresas y los avances técnicos en cada nuevo proyecto.
Un avión de misión puede definirse de manera sencilla como
una plataforma —el avión— donde se integran una serie de sistemas y sensores que proporcionan la adquisición, procesamiento, transmisión y análisis de datos, el control y la capacidad para realizar la misión para la que han sido diseñados,
sea esta de vigilancia, patrulla marítima, zonas económicas
exclusivas, aduanera, protección medioambiental, vertidos
marítimos, lucha contraincendios, inteligencia, alerta temprana, guerra electrónica o reabastecimiento en vuelo. Es en este
campo, el de los aviones de reabastecimiento de combustible
en vuelo, donde se inscribe el proyecto de desarrollo tecnológico realizado por EADS-CASA que se describe con detalle
más adelante: el desarrollo de un sistema de pértiga telescópica de reabastecimiento de combustible en vuelo, conocido
por sus siglas en inglés ARBS (Advanced Aerial Refuelling
Boom System).
Como ejemplo de aviones de misión desarrollados en España,
en la figura 1 puede verse un avión CN235 de patrulla marítima
fabricado por EADS-CASA para el servicio de Guardacostas
de EEUU, y en la figura 2 un avión cisterna Airbus A330 desarrollado por EADS-CASA para la Fuerza Aérea de Australia.1
LA EMPRESA Y SU ENTORNO
El sector aeroespacial ha sufrido un largo proceso de concentración de empresas en todo el mundo, que alcanzó su máxima intensidad en la segunda mitad del siglo XX, pasando de
60 empresas fabricantes de aviones a principios de los años
cincuenta, en Europa y EEUU, a 11 al final del siglo, en un
proceso que ha transcurrido paralelo a la drástica reducción
1
Todas las figuras han sido cedidas por EADS-CASA
Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional
Figura 1. CN235 de patrulla marítima fabricado por EADS-CASA
para el servicio de Guardacostas de EEUU
de programas de desarrollo de nuevos aviones (véanse las figuras 3 y 4). En su tramo final, el gobierno de EEUU lanza en
1994 el llamado proceso de reorganización de las industrias
aeronáuticas y de defensa, que culmina tres años después
con el surgimiento de tres nuevos gigantes: Boeing, Lockheed
Martin y Raytheon. Northrop-Grumman quedará como cuarto
actor tras su fallida fusión con Lockheed.
Como un claro exponente del carácter estratégico y de Estado
de esta industria, todas las fusiones y absorciones de empresas
se hicieron a nivel nacional, posiblemente sin excepción, hasta
que al comienzo del presente siglo tuvo lugar la
EEUU Europa
consolidación industrial
1950
21
39
del sector más importante
1960
20
35
en Europa, por primera
1970
19
22
vez transnacional, con la
1980
19
17
creación de EADS (Euro1990
18
14
pean Aeronautic Defence
1995
10
12
and Space Company) me1999
5
6
diante la fusión de Aèrospatiale-Matra de Francia,
Daimler Chrysler Aerospa- Figura 3. Evolución del n.º de fabricantes de
ce (DASA) de Alemania y aviones en la segunda mitad del siglo XX
Figura 2. A330 MRTT desarrollado por EADS-CASA
para la Fuerza Aérea de Australia
35
Entrada en producción EEUU
30
Entrada en producción Europa
25
20
15
10
5
0
1945
1950
1955
1960
1965
1970
1975
1980
1985
1990
1995
Figura 4. Evolución del n.º de nuevos programas de aviones militares
en la segunda mitad del siglo XX
261
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Construcciones Aeronáuticas, S.A. (CASA) de España; es
decir, prácticamente toda la industria aeroespacial de esos
tres países, dando lugar a una empresa de más de 90.000
empleados con una cifra de negocios agregada en 1999 de
22.500 millones de euros.
La incorporación de CASA a EADS representó un reto de
enorme magnitud, ya que significaba adaptarse a un marco
supranacional en la gestión y toma de decisiones. Para ello
cambió su estructura legal y organizativa, adaptándola a la
estructura de gestión por divisiones del grupo; lo que dio
lugar a la constitución de EADS-CASA y Airbus España, bajo
el punto de vista legal; y a la reorganización por divisiones
de todos sus recursos, bajo el punto de vista de gestión.
Se dibujaba así un cuadro empresarial en el que aparecían
nuevas amenazas y oportunidades. Entre las primeras cabe
destacar la competencia interna entre los distintos componentes de EADS, con sus redundancias e ineludibles corrientes nacionales, y la pequeña dimensión en términos relativos
de CASA frente a sus nuevos socios —CASA representaba
apenas el 6% de las ventas y el 8% de la plantilla de la nueva
compañía—; y entre las segundas, fundamentalmente, las que
ofrecía el Plan Industrial acordado por la SEPI durante las negociaciones de integración de CASA en el grupo. De acuerdo
con este plan, en la nueva compañía se asignaba a CASA el
liderazgo de los aviones de transporte militar, que luego adquiriría el rango de División: una de las cinco en las que se
estructura EADS y que, entre otros programas, será responsable de los derivados militares de Airbus.
La firma de un contrato de Airbus con el Gobierno alemán
el 15 de diciembre de 2000 para convertir sus cuatro A310
de transporte en aviones de reabastecimiento en vuelo
(MRTT, Multi Role Tanker Transport), ofreció la primera oportunidad de poner en práctica las nuevas responsabilidades
asignadas a esta División de Aviones de Transporte Militar
(MTAD, en sus siglas en inglés). Aunque el programa continuó inicialmente bajo dirección de Airbus Deutschland, se
asignó a MTAD el diseño, la fabricación, montaje y certifica262
ción del sistema de reabastecimiento, lo que incluía el propio
subsistema de reabastecimiento de combustible, las modificaciones estructurales y de los sistemas del avión, y los subsistemas de operación y control. Hay que destacar que este
contrato interno de MTAD con Airbus se obtuvo reemplazando, por ser más competitivos, a la empresa estadounidense Raytheon, que contaba con la ventaja de un acuerdo
previo para realizar tal trabajo.
Este programa permitiría adquirir una experiencia vital, bajo
el punto de vista de un negocio que daba sus primeros
pasos, por tratarse del desarrollo de un sistema extraordinariamente complejo y de la conversión del avión que lo integraba, dándole una funcionalidad completamente nueva.
Pero el acceso al mayor mercado del mundo en este tipo de
aviones, el de EEUU, exigía el desarrollo de un sistema diferente, aún más avanzado y complejo, y para el cual habría
que partir de cero, ya que la flota de aviones a repostar utilizaba un sistema conceptualmente distinto. Se planteaba,
por consiguiente, la necesidad de lanzar un proyecto de desarrollo tecnológico de gran envergadura, que requeriría una
inversión de decenas de millones de euros y, en consecuencia, la aprobación por el propio Comité Ejecutivo de EADS.
Sistemas de reabastecimiento
Se hace ya necesario aquí describir los dos conceptos de sistema de reabastecimiento en vuelo que existen, obligados
por el tipo de aeronave receptora o, mejor dicho, por el tipo
de sistema de recepción del combustible que posea.
• Sistema de reabastecimiento en vuelo de manguera y
cesta (hose and drogue): básicamente consiste en sendas
góndolas (pods) instaladas bajo las alas del avión nodriza,
que alojan las mangueras y cestas que se despliegan en
la operación de reabastecimiento para conectarse al receptor, provisto este de una pértiga (probe) o lanza en la
proa del avión que se inserta en la cesta para recibir el
combustible. Mediante este sistema, es el piloto del avión
Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional
receptor quien maniobra para conectarse a las cestas previamente desplegadas por el avión cisterna (véanse las figuras 5 y 6).
del fuselaje, generalmente hacia la proa. Con este sistema
es el operador del boom quien extiende y vuela la pértiga
desde el avión cisterna para conectarla con el avión receptor
una vez alineado con el anterior (véanse las figuras 7 y 8).
• Sistema de reabastecimiento en vuelo de pértiga o tubo telescópico rígido (Boom System): instalado en la parte posterior del avión cisterna, se despliega insertándose en el receptáculo del avión a repostar, situado en la parte superior
Figura 7. Sistema boom desarrollado por EADS-CASA
Figura 5. A330 MRTT repostando a dos F18
mediante el sistema de manguera y cesta
Figura 6. Sistema de manguera y cesta visto desde el avión receptor
Figura 8. A330 MRTT repostando un F16 mediante el sistema boom
263
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
OPORTUNIDAD Y DECISIÓN
Como se ha señalado en el apartado anterior, el mayor mercado de aviones cisterna se encuentra en EEUU, que dispone
de una flota de más de 550 aviones, en su gran mayoría (419)
del modelo KC-135 derivado del avión comercial Boeing 707;
estos aviones empezaron a entrar en servicio en 1956, entregándose a las Fuerzas Aéreas el último de ellos en 1964 y,
aunque han sido sometidos a diversos programas de modernización, incluido el cambio de motores, su envejecimiento y
problemas de operación, que mantiene de forma continua
en tierra al 20% de la flota, hicieron prioritaria su sustitución
ya desde principios de este siglo.
En las fechas en que se preparó este plan de reemplazamiento de los viejos aviones, Boeing era la única empresa que disponía de un sistema de reabastecimiento en vuelo del tipo
pértiga telescópica antes descrito, imprescindible para los
aviones de la Fuerza Aérea estadounidense (USAF), semejante al que montaban los cisterna a ser sustituidos. Se encontraba, por tanto, en una situación de monopolio extraordinariamente perjudicial para su gran competidor Airbus, no
solo por lo que este contrato representaba en sí mismo, sino
por la posición dominante en el mercado y por el margen comercial excepcional que su situación de monopolio podría
proporcionarle —como los hechos posteriores vinieron a demostrar—, que le hubieran permitido hacer una política de
precios más agresiva en el campo de los aviones civiles.
Es en este contexto, crítico para el negocio de los dos gigantes de la aeronáutica, en el que se dan los primeros pasos
hacia el que más tarde se convertiría en uno de los proyectos
de desarrollo tecnológico más ambiciosos de la industria aeronáutica española, resultado de la acción persuasiva del entonces máximo responsable en EADS-CASA de los aviones
de patrulla marítima y derivados militares de Airbus (Rafael
Acedo) y la apuesta personal del también entonces presidente de EADS-CASA y máximo responsable de la División de
Aviones de Transporte Militar (Alberto Fernández) por entrar
en el mercado estadounidense de aviones cisterna.
264
Se realiza así en la primera mitad de 2001, con la colaboración de CESA, filial de EADS-CASA, un primer estudio de
factibilidad sobre el desarrollo de un sistema de pértiga telescópica de reabastecimiento que sirvió de base para decidir, en noviembre de ese mismo año, iniciar los trabajos
de desarrollo del mismo, decisión que habría de ser sometida después a la aprobación del Comité Ejecutivo de
EADS. Es casi un año más tarde, en septiembre de 2002,
con Francisco Fernández Sainz ya al frente de EADS-CASA,
cuando el Comité Ejecutivo aprueba el proyecto y una financiación de 60 millones de euros para el mismo. Un factor contributivo para esta decisión fue el requerimiento
que la Fuerza Aérea de EEUU hizo a EADS en febrero de
ese año para que presentara una oferta al programa de
sustitución de aviones cisterna que transcurría desde el año
anterior. El hecho de que, como se describe más adelante,
esta petición se hiciera en el contexto de turbulencia política desencadenada en el Congreso estadounidense por el
programa de leasing en curso, lo que restaba credibilidad
a la misma —se dio un plazo de quince días para presentar
la propuesta y, una vez presentada, se desestimó en menos
de un mes—, no impidió que se hiciera patente la imposibilidad de concurrir al mercado de EEUU sin disponer de
un sistema propio de reabastecimiento en vuelo de nueva
tecnología.
Como ya se ha mencionado, los acontecimientos que se relatan en el párrafo anterior se desarrollan en mitad del primer
intento de la USAF por dotarse de modernos aviones cisterna, que se verá frustrado por una serie de vicisitudes que merece la pena comentar.
El plan inicial era dar un contrato a Boeing mediante la fórmula de fuente única de suministro, por el leasing de 100
aviones KC-767 que irían reemplazando paulatinamente a
136 KC-135. Boeing obtuvo el contrato por 23 100 millones
de dólares en medio de las protestas, encabezadas por el senador McCain, de quienes consideraban el leasing una mala
fórmula para el contribuyente. Por este motivo, el contrato,
por la misma cuantía, se convirtió en noviembre de 2003 en
Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional
la compra de 80 aviones del mismo modelo y el leasing de
20 más. En diciembre del mismo año el contrato fue suspendido por el Pentágono al iniciarse una investigación por corrupción que afectaba a dos directivos de Boeing, uno de
ellos la anterior adjunta al subsecretario de la Fuerza Aérea
responsable de Compras hasta enero de 2003; ambos fueron
posteriormente condenados a penas de cárcel y el contrato
fue formalmente cancelado en enero de 2006.
(all-electrical boom) y se compone de los siguientes subsistemas principales:
• El mástil o estructura de tipo aeronáutico, semimonocasco,
articulado, que constituye la propia pértiga telescópica
rígida; de 11,6 m de longitud retraído, y 18,2 m extendido (véase la figura 9).
Todas estas lamentables circunstancias, sin embargo, dieron a
EADS-CASA un tiempo precioso para el proyecto de desarrollo
tecnológico emprendido años atrás, de tal manera que este
se encontraba ya en sus fases finales de experimentación en
vuelo el 30 de enero de 2007, fecha en la que el Departamento de Defensa de EEUU publicó su Petición de Oferta en
un nuevo programa de adquisición de aviones de reabastecimiento llamado KC-X.
PROYECTO TECNOLÓGICO: PÉRTIGA TELESCÓPICA DE REABASTECIMIENTO EN VUELO
En el año 2002, a propuesta de la División de Aviones de
Transporte Militar, el Comité Ejecutivo de EADS había aprobado el lanzamiento de un proyecto de desarrollo tecnológico de un sistema de reabastecimiento en vuelo válido para
repostar aviones receptores provistos de un sistema del tipo
receptáculo, que permitiera competir en el mercado de aviones cisterna con aviones derivados de los modelos comerciales de Airbus y, en particular, con el A330.
El sistema tendría que desarrollarse partiendo de cero y debería tener unas prestaciones superiores a las de su competidor, lo que significaba un mayor flujo de combustible durante la transferencia y que la propia operación de repostaje,
sin cambiar en lo fundamental, pudiera realizarse de una
forma más sencilla y segura.
Conocido por sus siglas en inglés, ARBS, advanced Aerial Refuelling Boom System, el sistema es completamente eléctrico
Figura 9. Modelo CATIA 3D
• Las superficies aerodinámicas móviles que permiten
“volar” el boom mediante un sistema de mandos eléctricos (fly-by-wire).
• El sistema de extensión-retracción de la viga telescópica.
• El sistema de suelta e izado del boom desde/hasta su posición de estiba en el fuselaje.
• El sistema de visión con cámaras de vídeo digitales de alta
definición y visión estereoscópica sintética mediante espejo dicroico.
• La consola de control remoto del operador del boom, ubicada en la cabina de pilotos, que incluye un sistema de
visión sintética, los controles de todos los sistemas y los
265
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
sticks de control del movimiento del boom (stick de vuelo
y stick de extensión-retracción) (véase la figura 10).
• Una mayor facilidad de operación por la óptima interfaz
hombre-máquina debida al sistema de visión 3D de alta
definición, por la fácil coordinación de los pilotos con el
operador al ubicarse en la cabina de pilotaje y por el sistema activo de mandos de vuelo del boom.
• La mejora en la seguridad de la operación que proporcionan el sistema de alivio de cargas y el desenganche automático cuando se superan los límites, la fiabilidad de los
mandos eléctricos de vuelo cuyas leyes de control contemplan cualquier caso de fallo y la redundancia de las computadoras de control de todo el sistema.
Figura 10. Consola del operador del boom
• El sistema automático de alivio de cargas, que mide las
fuerzas de acoplamiento en la unión con el receptor y alimenta las leyes de control del boom para reducirlas cuando alcanzan ciertos límites.
• La unidad de control del boom u ordenadores de control
de la operación del boom.
DESARROLLO DEL PROYECTO, FINANCIACIÓN
Y RECURSOS
El sistema desarrollado tiene unas prestaciones que superan las de la competencia en varias características importantes
El proyecto se organizó inicialmente mediante un esquema
convencional con un ingeniero jefe al que se proporcionaron
recursos de las distintas áreas técnicas, en gran medida las
mismas que son necesarias para el desarrollo de un avión, es
decir, aerodinámica, dinámica y mandos de vuelo, estructuras y sistemas, siendo en esta área donde el proyecto presentaba mayor dificultad por la necesidad de desarrollar e incorporar nuevas tecnologías no disponibles “en la casa”, al
no ser propias del diseño de un avión. Para estas últimas se
eligió una combinación de ingenieros propios con experiencia en materias afines y de proveedores que, en principio,
contaban con el know-how requerido al contar con productos similares a esos subsistemas.
• La velocidad de transferencia de combustible, con un flujo
de 1.200 galones americanos por minuto (4.542 l/min),
con potencial de crecimiento a 1.500 (5.680 l/min), frente
a los 900 (3.400 l/min) del competidor.
Los problemas encontrados en una primera fase del proyecto para el desarrollo de esos equipos llevaron a reorientar y remodelar la organización, creando un grupo multidisciplinar mucho más integrado y bajo la autoridad directa
• El sistema de combustible para la transferencia desde el
avión nodriza al receptor.
• Las PDL (Pilot Director Lights), sistema de luces en el fuselaje posterior, que guían al piloto del avión receptor para
situarse en la posición adecuada para la operación.
266
Por otra parte, el diseño conceptual del sistema y las tecnologías utilizadas suponen un potencial de desarrollo futuro
hacia un sistema de acoplamiento y reabastecimiento automático de nueva generación.
Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional
del jefe del proyecto y, poco tiempo después, a poner en
marcha un plan B para desarrollar internamente esos equipos de riesgo, al menos en su configuración de prototipos.
El tiempo vino a demostrar el acierto de esta decisión, ya
que en la solución final fueron estos desarrollos B internos
los que tuvieron éxito, abandonando la vía de suministro
externo para ellos.
El equipo de trabajo dedicado al proyecto fue relativamente
pequeño si se compara con los estándares del mundo aeronáutico, ya que siempre estuvo por debajo de las 75 personas, incluidos ingenieros, técnicos, operarios y pilotos, para
la realización de todas las actividades, desde el diseño a los
ensayos en vuelo y la conversión del propio avión demostrador. Un equipo extraordinariamente motivado y comprometido con el proyecto, de gran talento, que fue viendo crecer
sus conocimientos y experiencia a medida que se alcanzaban
nuevos hitos.
Figura 11. Modelo aerodinámico de avión y boom
Aerodinámica y leyes de control
Tras los estudios de factibilidad iniciales, se abordó el diseño
preliminar del boom, y en primer lugar su diseño aerodinámico, mediante el uso extensivo de herramientas CFD (Computational Fluido Dynamics) y la realización de varias campañas de ensayos en túnel aerodinámico. Hay que resaltar los
importantes retos que hubo que afrontar en este terreno al
tener que operar el boom desde bajas velocidades hasta régimen transónico con elevados ángulos de ataque, la fuerte
interacción entre la deformación estructural y la aerodinámica, y la gran exactitud de datos requerida para el diseño de
las leyes de control del boom, elemento de primordial importancia para el éxito de la operación de acoplamiento con
el avión receptor (véanse las figuras 11 y 12 con los modelos y
análisis CFD de avión con boom instalado y de la estela del
boom, respectivamente).
El diseño de las leyes de control del boom, exigido por un
sistema de mandos completamente digital, representaba
Figura 12. Análisis CFD de la estela del boom
un auténtico reto para los ingenieros de mecánica de vuelo,
estabilidad y control, ya que las características específicas del
sistema lo hacían en cierta medida más complejo que el sistema de mandos de vuelo de un avión “convencional”, al
tener que hacer compatibles los requerimientos contradictorios que se plantean en las diversas fases de operación: despliegue/izado, vuelo libre y vuelo acoplado al receptor, y la
267
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
exigencia de un comportamiento dinámico que garantizara
una gran precisión en el seguimiento del receptáculo hasta
la inserción, evitando, por una parte, el riesgo de acoplamiento aeroelástico asociado a una estructura altamente
flexible y, por otra, el riesgo de rotura y de daños al avión receptor durante el tiempo de repostaje. Este último requisito
se resolvió mediante el diseño de un sistema automático de
alivio de cargas que desengancha el avión nodriza del receptor cuando las cargas que aparecen debido a su desplazamiento relativo sobrepasan un cierto valor admisible.
En definitiva, el diseño acertado de las leyes de control y unas
óptimas cualidades de vuelo establecen una diferencia significativa con la competencia, ya que se traducen en un tiempo inferior para realizar los contactos, una mayor eficiencia
de la misión y un menor tiempo de entrenamiento.
Subsistemas
Durante esta fase de diseño aerodinámico y estructural se
pusieron en marcha las distintas actividades para el desarrollo
de los diversos subsistemas del boom:
• Sistema computacional y de control, conocido por sus siglas
en inglés como BCCS (Boom Control and Computing
System), de arquitectura de control y monitorización redundante, que gestiona los distintos modos de operación del
boom, implementa las leyes de control de vuelo, controla
las PDL, y controla y monitoriza el sistema de actuación de
las superficies de mando, el sistema de extensión/retracción
y el sistema de izado; además, proporciona el sistema de
detección de fallos y reconfigura el sistema aislando los mismos. Consta de dos ordenadores o unidades de control que
utilizan códigos en lenguaje Ada95 y C, con un canal de
control y un canal de monitorización cada uno, basados en
equipos COTS (Commercial on the shelf).
• Sistema de extensión/retracción: el sistema de actuación
que controla el movimiento telescópico del boom es uno
268
de los sistemas de actuación eléctrica de mayor potencia
instalados en un avión. Controla continuamente la viga
telescópica en un rango de velocidades que va de 0 a 3
m/s, una velocidad espectacular si tenemos en cuenta que
la viga-tubo llena de combustible pesa más de 500 kg
y la elevada presión del combustible que se opone a la retracción. Cada motor es capaz de una operación continua
de 2,5 kW, con un pico de 12 kW en la retracción de
emergencia.
• Sistema de izado: es un sistema similar al de extensión/retracción en cuanto a sus componentes: fuente de potencia, controladora, motor eléctrico y reductora, si bien hubo
de afrontar los problemas mecánicos asociados al despliegue y rebobinado del cable que sujeta el boom.
• Sistema de control de vuelo: son dos superficies aerodinámicas o “aletas” en V, con un sistema electromecánico
de accionamiento, que producen el movimiento de cabeceo y balanceo del boom.
• Sticks: uno que gobierna el vuelo del boom (stick de
vuelo), y que también manda la transferencia de combustible, las comunicaciones y la desconexión, entre otras funciones; y otro stick para el mando telescópico del boom.
• Sistema de visión: sistema de videocámaras que permiten
al operador ver el boom desde la cabina de piloto, donde
se encuentra situada la consola de operación. La percepción de profundidad necesaria se proporciona mediante
una imagen 3D generada a bordo por un sistema dicroico. Tres cámaras más dan la situación panorámica de
180º y otras dos con capacidad de basculación y zoom
permiten una visión detallada del receptáculo y son capaces de reemplazar la imagen 3D en caso de fallo del
sistema principal.
• Un sistema de iluminación de infrarrojos de última tecnología láser permite la operación nocturna de reabastecimiento (véase la figura 13).
Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional
Figura 13. Imágenes diurna y nocturna obtenidas por el sistema de visión
La gran dimensión del proyecto a realizar y la especialización
requerida en los diversos campos tecnológicos de los subsistemas descritos anteriormente, llevó en un primer momento
a una amplia subcontratación tanto a empresas nacionales
como extranjeras; así, los sistemas de extensión/retracción y
de izado por un lado, y los sticks por otro, se contrataron a
empresas estadounidenses con gran experiencia en el sector
aeronáutico; los ordenadores de control y los servoactuadores
de las superficies de mando, a empresas europeas; el software de la unidad de control, a una empresa india; y los sistemas
de visión y de iluminación, así como el diseño de la estructura
del boom, a empresas españolas, igualmente con gran experiencia en el sector.
sivo hasta el año 2004, impulsado de forma irreversible por
la firma del primer contrato de aviones cisterna que incorporaban este sistema de reabastecimiento en vuelo: la venta de
cinco aviones A330 MRTT a la Fuerza Aérea de Australia. Es
a partir de entonces cuando se pondrán de manifiesto las dificultades para lograr en el plazo requerido y con las prestaciones especificadas tanto los sistemas de extensión/retracción
e izado, como los sticks, por lo que en 2006 hubo que adoptar un plan alternativo para realizar el desarrollo de estos sistemas internamente en EADS-CASA, con el refuerzo de unos
pocos ingenieros contratados y el soporte de empresas locales, ambos con experiencia en esos campos. Lo que resultó
en la fabricación de nuevas controladoras y reductoras para
los primeros y de nuevos sticks en el segundo caso, prototipos
que fueron los que finalmente se seleccionaron como definitivos frente a los contratados en principio. Por su parte, el sistema de visión inicialmente desarrollado también sufrió un
cambio radical, siendo sustituido por uno de desarrollo interno con cámaras digitales, pantallas de alta definición, imagen
estereoscópica e iluminación infrarroja por láser, que integraba los equipos y componentes de distintos proveedores en
un sistema de nueva generación desarrollado en EADS-CASA,
finalmente incorporado en los aviones A330 MRTT.
A la fase de diseño y fabricación de las primeras unidades
prototipo, y en gran medida solapándose con ella, siguió la
fase de ensayos en tierra. Para ello se hizo un uso extensivo
de bancos de ensayo, en primer lugar, y después del propio
avión de ensayos, un A310 de segunda mano adquirido y
modificado a tal efecto, en el que se instaló el sistema de reabastecimiento y la consola del operador para ser utilizado
como plataforma de ensayos en vuelo.
Desarrollos alternativos y ensayos en tierra
y en vuelo
En esta fase se utilizaron las siguientes instalaciones y bancos
de prueba:
Aunque en los dos primeros años se hicieron numerosos trabajos en todas las actividades y sistemas descritos más arriba
en lo que se podría denominar una fase de estudio, definición y prediseño, el proyecto no tuvo un lanzamiento inten-
• Simulador de ingeniería. En el que puede simularse el
vuelo del boom desde la consola del operador. Aquí se
realiza el desarrollo y evaluación de las leyes de control de
vuelo utilizando los modelos aerodinámicos del avión y del
269
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
boom y el stick real, y la evaluación del sistema de visión,
incluidas cámaras, sistema estereoscópico y superposición
de imágenes (véase la figura 14).
Figura 14. Simulador de ingeniería
• Banco de software. En el que se desarrolla y prueba el
software con unidades de control reales y conexiones y
señales de entrada y salida también reales, utilizando un
sistema de estimulación que simula los sistemas y sensores
con los que interacciona.
• Banco de integración de los sistemas de extensión/retracción e izado. En el que se prueban los equipos desarrollados internamente, y los sistemas integrados y la funcionalidad del sistema de actuación.
• Banco de integración del sistema completo a escala real.
Con el propio boom y la mayoría de los sistemas reales y
modelos aerodinámicos de vuelo, lo que permite operar
el boom simulando un vuelo real, en el que pueden ensayarse contactos con el receptáculo y transferencia de combustible, y realizar todo tipo de ensayos de desarrollo y calificación del sistema completo en tierra antes de las
pruebas en avión (véase la figura 15).
La última fase de los ensayos en tierra se realiza en el propio
avión-demostrador tecnológico. Ensayos de vibraciones sobre
el avión para determinar sus modos propios de vibración en
las diferentes configuraciones de vuelo, con y sin combustible, con el boom desplegado y estibado. Ensayos de despliegue del boom y transferencia de combustible en tierra, para
lo cual se ha construido un foso equipado a tal fin.
270
Figura 15. Banco de ensayos del boom a escala real
La fase final del desarrollo es la de ensayos en vuelo, para la
cual se utiliza el avión-demostrador ya mencionado, totalmente instrumentado con acelerómetros, captadores de presión,
extensímetros y todo tipo de sensores y equipos de medida
para los distintos sistemas. La transmisión de datos a la estación de tierra se realiza por telemetría, lo que permite el
seguimiento y control del vuelo en tiempo real.
Los ensayos en vuelo se dividieron en varias fases que se extendieron desde el 16 de marzo de 2006, día en que tuvo
lugar el primer vuelo del demostrador con el boom estibado,
hasta el 30 de julio de 2008, en que se terminaron todos los
ensayos una vez completados los contactos y transferencia
de combustible en distintas configuraciones de vuelo y con
todos los tipos de aviones receptores seleccionados, entre
otros F-16, F-18 y AWACS.
En la primera fase de ensayos en vuelo se efectuó la apertura de la envolvente de vuelo del avión con el boom instalado, probando las cualidades de vuelo y el comportamiento aeroelástico del avión y del propio boom con unas
leyes de control de vuelo simplificadas. Los datos obtenidos
permitieron definir con mayor exactitud los modelos aero-
Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional
dinámicos, estructurales, y de actuadores y sensores, lo que
permitió mejorar la aerodinámica y optimizar las leyes de
control en vuelo libre del boom. La segunda fase se utilizó
para el desarrollo y evaluación de las leyes de control de
vuelo del boom, tanto en vuelo libre como acoplado con el
avión receptor, realizando contactos en seco y en húmedo,
es decir, sin y con transferencia de combustible, para determinar las características operativas y las prestaciones del
sistema en las diferentes configuraciones de operación y en
toda la envolvente de vuelo.
Financiación
El proyecto contó con una financiación inicial de 60 millones
de euros de la empresa matriz EADS, reembolsables con la
venta de un número determinado de aviones, que posteriormente se complementó con fondos propios de EADS-CASA
por un importe similar, si bien estos fueron ya empleados
parcialmente en la integración del sistema en un nuevo
avión, el A330. Hubo también una financiación institucional
por parte de la Comunidad Autónoma de Madrid en forma
de subvención durante los años 2003 a 2008 por un valor
cercano a los dos millones de euros.
PRODUCTO Y MERCADO
El sistema de reabastecimiento de combustible en vuelo
(ARBS en sus siglas en inglés, advanced Aerial Refuelling
Boom System) desarrollado por EADS-CASA, se ofrece al mercado en dos plataformas Airbus, el A310 y el A330, combinado con el sistema de reabastecimiento de manguera y cesta
(hose and drogue) con la denominación A310 MRTT y A330
MRTT (Multi Role Tanker Transport); de esta forma se cubren
todas las necesidades de las fuerzas aéreas en aviones de ala
fija (por otra parte, y aunque se sale del ámbito de esta narración, el campo de los helicópteros queda cubierto con los
modelos CN235, C295 y, en el futuro, con el A400M, con
sistemas de manguera y cesta).
Figura 16. A330 MRTT de EADS-CASA
para la Fuerza Aérea de Australia repostando un F16
El producto principal solicitado por el mercado es el A330
MRTT (véase la figura 16), que se ha constituido desde el momento de su desarrollo, con sus 111 toneladas de capacidad
de combustible sin necesidad de tanques auxiliares, en el
avión de reabastecimiento estratégico para las fuerzas aéreas. El avión se presenta en varias configuraciones que resultan de la combinación de los sistemas mencionados de reabastecimiento, es decir, ARBS instalado en la parte posterior
inferior del fuselaje, manguera y cesta bajo las alas y, al igual
que el ARBS, en el fuselaje posterior. El avión cisterna se obtiene a partir de un “avión verde”, es decir, según sale de la
línea de montaje final del modelo civil antes de instalarse los
sistemas de pasajeros, al que una vez en las instalaciones de
EADS-CASA en Getafe (Madrid) se le integran los distintos
sistemas de reabastecimiento y la consola de operación remota de los mismos; se le modifican los sistemas necesarios
271
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
del avión básico: el sistema de mandos de vuelo, el sistema
de combustible, la aviónica, el sistema eléctrico, etc.; y adicionalmente se le incorporan algunos sistemas propiamente
militares como son los de comunicaciones, transmisión segura de datos, data link, identificación amigo-enemigo, y sistemas defensivos y de guerra electrónica.
El mercado está constituido por las fuerzas aéreas del lado
de la demanda y, en cuanto a la oferta, se da una situación
de duopolio, con EADS y Boeing como únicos fabricantes. El
modelo A330 MRTT ha ganado todos los concursos a los que
se ha presentado, en los que competía con el Boeing 767,
obteniendo los siguientes contratos:
• Australia: 5 A330 MRTT para la RAAF.
• Reino Unido: 14 A330 MRTT del programa FSTA (Future
Strategic Tanker Aircraft) de la RAF, mediante la modalidad de Iniciativa Financiera Privada, es decir un contrato
de servicios por 27 años a través de la sociedad AirTanker
participada por EADS.
• Emiratos Árabes Unidos: 3 A330 MRTT.
• Arabia Saudí: 6 A330 MRTT.
En total, 28 aviones que en sus diversos contratos de venta
y servicios suman una cifra de negocio de más de 18.000 millones de euros.
Mención aparte merece el programa KC-X del Departamento
de Defensa de EEUU. Tras los antecedentes relatados en el
apartado 3, en enero de 2007 se publicó la petición de oferta
para adquirir 179 aviones cisterna en sustitución de los viejos
KC-135 aún en servicio. Se trataba de un programa de entre
35.000 y 40.000 millones de dólares por el que competían
Boeing y EADS asociada con Northrop-Grumman. Este programa, en realidad, representaba tan solo un tercio de la
flota de aviones a reemplazar, lo que quería decir que podría
ser la primera parte de una serie de contratos potenciales por
272
un importe global de más de 120.000 millones de dólares
que, de acuerdo con un informe del Congreso de los EEUU
de 2009, se desarrollaría a lo largo de 40 años.
En febrero de 2008, las Fuerzas Aéreas de EEUU anunciaron
la selección de EADS como ganadora del contrato; sin embargo, ante una reclamación de Boeing, la GAO (Gubernamental
Accountability Office) emitió un informe en junio de ese año
en el que admitía el recurso de Boeing por sobrecumplimiento
de la especificación, lo que llevó finalmente a la anulación del
concurso en septiembre por el Secretario de Defensa.
Un nuevo episodio, cargado de connotaciones políticas, inició su curso en septiembre de 2009 con una nueva petición
de oferta y los mismos competidores —si bien EADS acudió
esta vez sola, sin su socio anterior Northrop Grumman— cuyo
desenlace se espera para principios de 2011.
REALIDAD Y FUTURO
El diseño, desarrollo, experimentación y, finalmente, la certificación de un sistema de reabastecimiento en vuelo totalmente nuevo, ha representado para EADS, y sobre todo para
su filial española, EADS-CASA, un salto cualitativo que tiene
su expresión en el impacto producido en terrenos diversos.
En primer lugar, EADS se ha convertido en la empresa líder
mundial en la tecnología de aviones de reabastecimiento en
vuelo, al desarrollar un producto cuyas características técnicas
y operativas, así como su fiabilidad, se encuentran claramente
por encima de los productos de sus competidores, lo que le
da unas ventajas competitivas puestas de manifiesto en todos
los contratos adjudicados en los últimos años.
El desarrollo de un producto técnicamente tan complejo ha
requerido la adquisición de nuevos conocimientos y experiencia en materias tan diversas como la mecánica de vuelo, la aerodinámica, la aeroelasticidad, la electrónica de control, los
sistemas ópticos de visión, los mandos de vuelo, etc., con un
Sistema de reabastecimiento de combustible en vuelo: desarrollo e innovación en un entorno transnacional
notable desarrollo del capital humano, tanto del personal ya
existente al comienzo del proyecto como de las importantes incorporaciones que se produjeron a lo largo del mismo. Y un
activo en propiedad intelectual que se ha traducido en más de
treinta patentes registradas, en todos los campos técnicos
investigados. Así, sirvan como ejemplo, en el de la mecánica, la
rótula de unión del boom al fuselaje, el sistema de recogida del
cable telescópico y el sistema de desconexión; en aerodinámica
y dinámica de vuelo, diversos dispositivos aerodinámicos especiales y las propias leyes de control de vuelo; en los sistemas, el
sistema de visión, los iluminadores infrarrojos y el stick de vuelo;
y en simulación, el sistema de entrenamiento en vuelo.
Pero este activo tecnológico no se ha limitado a EADS-CASA,
sino que se ha propiciado también en una docena de empresas españolas que han intervenido en la mayor parte del
proceso de desarrollo y en la fabricación en serie, y en algunos casos en empresas nuevas en el sector a las que se ha
contratado la industrialización de los prototipos desarrollados
en EADS-CASA.
También ha supuesto un impacto en el modelo de negocio,
ya que el desarrollo del boom ha permitido a su vez el pleno
desarrollo de una línea nueva de negocio, la de aviones de
reabastecimiento en vuelo o aviones cisterna con capacidad
para repostar a cualquier tipo de receptor, que da empleo a
más de 2.000 personas en España y que ha alcanzado ya un
volumen de facturación de 700 millones de euros al año,
equivalente a un tercio de las ventas de la división. Porcentaje
que se mantendrá estable en los próximos años y cuya proyección a más largo plazo está en gran medida condicionada
por el resultado final del contrato con la Fuerza Aérea de los
EEUU en el programa KC-X.
Como conclusión, el proyecto de desarrollo tecnológico emprendido por EADS-CASA en los primeros años del siglo XXI
para desarrollar un sistema de reabastecimiento de combustible en vuelo de nueva generación, le ha permitido acceder
con pleno éxito a un mercado donde anteriormente no tenía
presencia, convirtiéndose en líder mundial del mismo y en la
referencia tecnológica para sus competidores. Representa,
por lo tanto, un hito empresarial de extraordinaria importancia, que ha dotado a la compañía de un capital tecnológico
y humano fundamental para la apertura de una línea de negocio que ya es una realidad y la más sólida base para afrontar retos futuros.
La construcción de obras civiles. La tecnología de las presas
El futuro de la tecnología de las presas y balsas
JOSÉ POLIMÓN LÓPEZ
(Madrid, 1940)
Presidente de SPANCOLD
(Comité Nacional Español
de Grandes Presas)
Presidente de AUSIGETI
(Asociación Nacional de
Auscultación y Sistemas de Gestión
Técnica de Infraestructuras)
Doctor Ingeniero de Caminos, Canales y Puertos.
Inició su trayectoria profesional en 1964 en Hidroeléctrica Española
(hoy Iberdrola), trabajando en los proyectos y la supervisión de obra de
presas y centrales hidroeléctricas. En 1970 pasó a INTECSA como Jefe de
Proyecto de Planes de viabilidad de riegos, estudios de potencial hidroeléctrico y proyectos de presas y centrales en España, y en otros países
como Brasil, Ecuador y República Dominicana. Como Jefe de la División
de Energía dirigió proyectos de centrales eléctricas (hidráulicas, térmicas
y nucleares), así como de oleoductos, gasoductos y estaciones de compresión de gas. En este periodo se realizaron también los estudios de potencial aprovechable con minicentrales en España. Como Subdirector
responsable del Área de Agua, Energía y Medio Ambiente, y posteriormente como Director de Desarrollo, fue responsable de los proyectos y
direcciones de obra de estos sectores.
En 1994 pasó a GEOCISA donde, primero como Director Técnico y
luego como Director General, se ocupó del impulso tecnológico en esta
empresa especializada que cuenta con áreas de actuación pioneras, a nivel
internacional, relacionadas con la innovación en la construcción, la restauración de monumentos y la protección ambiental de suelos entre otras.
Desde 2002 a 2009, como Director Técnico de Dragados, ha sido responsable del apoyo técnico a los distintos proyectos que la empresa acomete en todo el mundo, así como de la innovación y del sistema de gestión del conocimiento, que permite la identificación, difusión y aplicación
de las nuevas tecnologías desarrolladas en las obras. Estas innovaciones
permiten aumentar la seguridad de las personas y del medio ambiente,
al tiempo que se optimizan los plazos y los costes, con el objetivo de ser
competitivos en el mercado internacional.
JOSE MARÍA
OSORIO SÁNCHEZ
(Málaga, 1940)
Consultor independiente
Vocal colaborador de SPANCOLD
Doctor Ingeniero de Caminos, Canales y Puertos.
Comenzó el ejercicio profesional en 1963 en obras en Dragados
(Túnel de Guadarrama, Riegos del Órbigo, y otras obras en León, Valladolid y Bilbao).
En 1968 fue designado Director Regional en Sudamérica, Responsable de obras de administraciones estatales (viales, hidroeléctricas, petroquímicas; fondos del Banco Mundial y del Banco Interamericano de Desarrollo; créditos españoles con exportaciones de equipos), y en 1981,
Director para Oriente Medio y África, responsable, igualmente, de obras
de administraciones estatales (edificación, regadíos, termoeléctricas;
créditos españoles con exportaciones de equipos).
En 1987 se incorporó a Polarsol, S.A., empresa inmobiliaria, como
Director General.
En 1996 fue nombrado Director de Relaciones Institucionales del
Grupo Dragados y más tarde Director de Calidad del mismo.
En 2004 pasó a ejercer libremente su profesión. Es vocal colaborador
de SPANCOLD (Comité Nacional Español de Grandes Presas).
Ha sido también Consejero del Colegio de Ingenieros de Caminos,
Canales y Puertos, y Vocal Tesorero del Comité Ejecutivo de la Cámara
de Comercio e Industria de Madrid.
La construcción de obras civiles.
La tecnología de las presas
José Polimón López
José María Osorio Sánchez
INTRODUCCIÓN
Evolución de la construcción de obras civiles
en España
La evolución de las tecnologías en la construcción de obras
civiles desde los años sesenta del pasado siglo ha sido espectacular, como lo demuestra el paso del sector desde una situación de precariedad casi absoluta de medios y materiales
que obligaba a resolver los problemas con el ingenio y el esfuerzo de los profesionales implicados, lo que hizo que la innovación fuera imprescindible, hasta el momento, solo una
década después, en que las empresas españolas salen al mercado internacional y compiten con otras de gran tradición
exportadora.
Esta evolución se ha producido en todos los campos de la ingeniería civil, pero si se ordena por el tipo de obras que las
empresas españolas han desarrollado en el extranjero, lo que
da una idea de aquellas que ya disponen de un nivel alto de
tecnologías propias, el orden cronológico sería: presas, cen-
trales hidroeléctricas, planes de regadío, túneles, trasvases
de agua, autopistas, puertos, puentes y planes de saneamiento de ciudades. A todas ellas se han sumado ahora: las
líneas de ferrocarril de alta velocidad, la desalación de agua
de mar, las energías renovables (eólica, solar e hidráulica),
los canales de navegación, los grandes viaductos y las infraestructuras urbanas (metro, circunvalaciones subterráneas e
intercambiadores de transporte).
Dada la gran variedad de los tipos de obras mencionadas,
más otras que sería preciso añadir, parece procedente analizar la evolución de las diversas tecnologías implicadas, más
desde la perspectiva de uno de los casos y considerando el
sector correspondiente en su conjunto, mejor que el caso de
una empresa. Con ello, se dispondrá de un ejemplo aplicable
a los demás casos y que abarca a constructoras, ingenierías,
consultores, empresas especializadas, fabricantes de maquinaria y suministradores de materiales y servicios. Sin olvidar
que el desarrollo conseguido es deudor del apoyo decidido
de la Administración pública, que ha sido el cliente profesional que ha permitido afrontar los nuevos y sucesivos retos,
277
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
al tiempo que se ha preocupado de atender la demanda de
infraestructuras que el país necesita para mejorar la competitividad de España y que ha aprovechado, de forma ejemplar, las oportunidades de financiación de los fondos estructurales de la Unión Europea.
Por ello, al seleccionar un tipo de obras civiles como ejemplo
parece lógico tomar el caso de las presas ya que, además del
hecho ya mencionado de haber sido el primero en acometer
la exportación de tecnología, tanto en construcción como en
proyecto, ha tenido un índice muy elevado de crecimiento
para poder atender las necesidades de agua y energía en un
país que, sin las presas, dispondría apenas de un 10% del
agua necesaria, y que realizó su despegue económico gracias
a la energía hidroeléctrica, componente autóctono y renovable del actual mix energético que evita, además, la emisión
de gases de efecto invernadero.
Como elemento complementario de las presas que está teniendo un gran desarrollo hay que contar también con las
balsas, que facilitan la disponibilidad de agua embalsada
en la proximidad de las zonas de producción de alimentos o
de consumo urbano o industrial.
Por otra parte, el caso de las presas y las balsas es también
muy adecuado para exponer los nuevos retos a los que,
como sociedad, debemos hacer frente, entre los que se debe
mencionar el cambio climático, el almacenamiento de energía, la conservación del patrimonio construido y la exportación de tecnología.
Estructura tecnológica del sector
La construcción de obras civiles es una de las mayores industrias españolas y cuenta con un buen número de empresas
punteras en un mercado globalizado y muy competitivo.
Como es bien sabido, esto solo es posible con unas tecnologías bien desarrolladas y con una constante innovación
para su mejora y adaptación a circunstancias diversas y a las
278
duras condiciones que se encuentran en la localización de
las obras, en el clima y en la necesaria reducción de los plazos
para llegar cuanto antes a la fase de explotación.
La tecnología de presas, al igual que en el resto del sector de
la construcción de obras civiles, tiene su origen en los diferentes agentes del proceso global, que están estructurados
en los niveles que se describen sucintamente a continuación:
• La Administración central del Estado, que cumple varias
funciones esenciales: la de análisis de las demandas de
agua, la planificación hidrológica para definir las soluciones
a adoptar, la aprobación de las Declaraciones de Impacto
Ambiental (DIA), la promoción de las obras necesarias, la
elaboración de las normas de aplicación, la concesión de
aguas a particulares, la vigilancia de las presas durante
todas las fases de su vida útil y, finalmente, la de cliente
de los demás agentes. En todos estos aspectos actúa como
impulsora y aplicadora de las numerosas tecnologías implicadas, con la colaboración del resto del sector.
• Las comunidades autónomas, que pueden ser también
promotoras de las obras para atender demandas de sus
poblaciones y que además vigilan el cumplimiento de los
aspectos de su competencia, en especial los relacionados
con la seguridad de las personas y con el cuidado del medio
ambiente.
• Los concesionarios, como son las empresas eléctricas o de
abastecimiento o los regantes, que, una vez conseguida
la concesión de caudales de agua, actúan como promotores de las obras necesarias y como clientes de otros
agentes. En algunos casos cuentan con importantes equipos técnicos que desarrollan directamente una parte importante de las labores de ingeniería en todas las fases.
• Las empresas de ingeniería y los consultores, que desarrollan los estudios básicos (hidrología, geología, geotecnia,
ambientales, aplicación de modelos matemáticos para
los elementos hidráulicos o para los cálculos estructurales,
La construcción de obras civiles. La tecnología de las presas
simulación de explotación del embalse, etc.), el análisis de
alternativas y su comparación, los anteproyectos, los proyectos para licitación y construcción y la asistencia técnica
a la dirección de las obras.
• Las constructoras, que estudian la obra definida por los
anteriores, proponen soluciones sobre la base de los procesos de construcción que estiman más adecuados, aportan la tecnología propia de dichos procesos, la maquinaria
necesaria y el personal experto para llevar a cabo la construcción.
• Las empresas especializadas, que disponen de equipos de
expertos y especialistas en tecnologías específicas: realización de sondeos y de ensayos en el emplazamiento de
la obra, laboratorios de ensayo de materiales de campo y
de construcción, tratamientos de mejora del terreno, inyecciones de impermeabilización, auscultación durante la
obra y en explotación para vigilar el comportamiento con
respecto a lo previsto en proyecto, modelos matemáticos
de operación de la presa y de sus elementos, etc.
• Los centros de investigación, como el CEDEX del Ministerio de Fomento con sus laboratorios especializados en geotecnia, estructuras, materiales y modelos hidráulicos a
escala reducida; o el Instituto Eduardo Torroja del Consejo
Superior de investigaciones Científicas (CSIC), que abarca
varias especialidades de homologación de materiales y
compuestos, así como ensayos de estructuras. A estos
centros de titularidad pública hay que añadir laboratorios
privados tanto en ensayos hidráulicos como en la caracterización de materiales de construcción.
• Las universidades, que a través de distintos departamentos
colaboran de forma muy activa en las propuestas de innovación hechas por otros agentes y en aspectos relacionados con el medio ambiente, la geología, la hidrología,
la geotecnia y en todos aquellos en que se necesita dedicar tiempo de investigación y desarrollo de nuevos productos o procesos.
• Los fabricantes de maquinaria de obra, que con su propia
experiencia y la que recogen de los constructores, van
adaptando las máquinas a las condiciones cada vez más
exigentes en cuanto a seguridad de las personas, cuidado
del entorno y optimización de los costes.
• Los fabricantes de equipos hidromecánicos, como compuertas, válvulas, cuadros de control, etc., que aportan su
tecnología de evacuación y aireación de caudales de agua
o de producción de energía, como turbinas, alternadores,
transformadores, etc.
• Los suministradores de materiales: cemento, áridos, cenizas volantes, productos asfálticos o láminas impermeables.
• Las asociaciones profesionales, y muy especialmente el
Comité Nacional Español de Grandes Presas (SPANCOLD),
que produce y difunde guías técnicas y recomendaciones
elaboradas por sus comités técnicos y por sus correspondientes comités internacionales de la Comisión Internacional de Grandes Presas (ICOLD), en los que la participación española es activa e importante. La tabla 1 muestra la
lista de estos comités, los cuales cubren todos los aspectos
tecnológicos de las presas y las balsas.
A esto hay que añadir, a nivel internacional, el estímulo para
la innovación que supone enfrentarse con condiciones locales de todo tipo, a las cuales hay que adaptar la realización
de las obras en otro país. Esto constituye la prueba de fuego
del estado de la tecnología, ya que solamente si se tiene un
alto nivel tecnológico es posible exportar a otros países, en
los que además los costes de personal pueden ser menores.
El gran número de tecnologías necesarias para la construcción y explotación de las presas y las balsas va naciendo normalmente de la colaboración y experiencia de varios de estos
agentes, con el objetivo de conseguir que estas instalaciones
sean seguras, que tengan el menor impacto ambiental posible y que cumplan con sus fines al menor coste.
279
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Tabla 1. Comités técnicos españoles e internacionales
Comité SPANCOLD
Comité ICOLD
Actividades del ingeniero en
planificación de recursos hidráulicos
Engineering activities in the planning
process for wáter resources projects
Aspectos sísmicos
Seismic aspects of dam design
Auscultación de presas
Dam surveillance
Avenidas
Dams and floods
Balsas
Small dams
Cálculo de presas
Computational aspects of analysis
and design of dams
Presas de estériles
Taillings dams and waste lagoons
Explotación, mantenimiento
y rehabilitación
Operation, maintenance and
rehabilitation of dams
Hidráulica
Hydraulics for dams
Hormigón para presas
Concrete dams
Información al público y educación
Public awareness and education
Materiales para presas de
materiales sueltos
Materials for fill dams
Medio ambiente
Environment
Papel de las presas en el desarrollo
y la gestión de cuencas
Role of dams in the development
and management of river basins
Presas y energía hidroeléctrica
Dams for hydroelectric energy
Presas subterráneas
Groundwater dams
Presas y cambio climático
Global climate change
Presas y transferencias de agua
Dams and wáter transfers
Puesta fuera de servicio de presas
Dam decommissioning
Reducción de costes en la
construcción de presas
Costs savings in dam construction
Registro mundial de presas
Register of dams and documentation
Sedimentación de embalses
Sedimentation of reservoirs
Seguridad
Dam safety
Fuente: SPANCOLD.
280
PASADO Y PRESENTE DE LAS PRESAS Y
LAS BALSAS
El agua embalsada
El agua embalsada es una riqueza renovable que se hace
posible gracias a las presas. El uso que luego se da al agua
es variado, desde las aplicaciones primarias como el abastecimiento a poblaciones e industrias, el riego, la producción
de energía, o el mantenimiento del caudal ecológico o de
los canales de navegación, hasta la creación de paisaje o
microclima, pesca o cultivo de peces, recreo, modificación
de cauces, extinción de incendios y otros secundarios. Las
presas constituyen, por otra parte, el mecanismo de defensa, la contención y laminación de las avenidas que arruinarían otras riquezas y la misma vida de las personas. Sirven,
además, como elemento esencial de trasvase allí donde la
fertilidad de las tierras no está acompañada de caudales
suficientes.
Para centrar la importancia del valor del que se está tratando, basten estos datos. El agua que se suelta de los embalses genera el 6% de PIB español. Las pérdidas por inundación que se pueden evitar son incalculables. Las necesidades
se cifran en un mínimo de 1.000 m3 por habitante y año
para todos los usos; sin presas, solo se dispondría de la
cuarta parte.
En sentido estricto se llama presa a la barrera que cierra el
paso al agua corriente por los cauces fluviales, creando de
esa forma un vaso de reserva de llenado principalmente natural, al que se denomina embalse. En su curso alto, la pendiente del río es fuerte y sus aguas bajan rápidas, por lo que
el vaso resultante de un cierre sería relativamente pequeño.
En la zona media y baja de los ríos, en cambio, una presa
puede dar lugar a un extenso y voluminoso embalse. Presa
y embalse son consustanciales, surgiendo las necesidades de
gestión de la creación del complejo, y de las acciones combinadas de la conservación de la presa y de la explotación
del embalse (véanse las figuras 1, 2 y 3).
La construcción de obras civiles. La tecnología de las presas
Fuente: Archivo SPANCOLD.
Fuente: foto cedida por ROP.
Figura 1. Presa José Torán (Sevilla)
Figura 3. Presa de Charco Redondo (Cádiz)
En España hay unas 1.300 grandes presas1, o presas importantes, que se corresponden con un número ligeramente
menor de embalses. En la tercera parte de ellos se concentra
la casi totalidad de los 56.000 millones de m3 de capacidad
conjunta. En relación con el número de habitantes, España
tiene una densidad de presas entre las más altas del mundo,
aunque, debido a la irregularidad hidrológica, su posición en
relación con el volumen de embalse es bastante baja (véanse
las figuras 4 y 5).
De las líneas fluviales a las áreas de demanda hay gran trecho, lo que propicia la aparición espontánea de almacenamientos o embalses menores, de llenado artificial en casi
su totalidad, construidos sencillamente donde se ha podido,
a veces en hoyas naturales y otras en las cumbres de los
1
Fuente: foto cedida por Iberdrola.
Figura 2. Presa Jose M.ª Oriol (Cáceres)
Se denominan grandes presas a las que tienen más de 15 m de
altura o a las que crean un embalse con una capacidad mayor
de 100.000 m3. También tienen esta consideración las presas cuyas
características les hagan ser importantes para la seguridad.
281
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Fuente: Berga Casafont, L. Manifiesto sobre la energía eléctrica 2011. Conferencia
inaugural de la jornada sobre el futuro del sistema eléctrico español. Madrid, 2011.
Figura 4. Países con mayor número de presas
Fuente: Berga Casafont, L. Manifiesto sobre la energía eléctrica 2011. Conferencia
inaugural de la jornada sobre el futuro del sistema eléctrico español. Madrid, 2011.
Figura 5. Países con mayor capacidad de embalse
montículos. A estos módulos se les llama balsas2, aunque
también son presas en sentido amplio. Su inventario en
España es difícil, por lo que su número entre 60.000 y 70.000
responde a la estimación actual, seguramente superada por
la realidad; se desconoce su capacidad integrada y no se
recaban datos sobre su explotación (véase la figura 6).
La realización de un inventario de los ingenios para retener,
derivar o remansar las aguas es una ardua tarea que tropieza
con los inconvenientes de la clasificación y de la variedad.
Hay azudes que solo sirven para derivar el agua, como también hay otros para tranquilizar la turbulencia en las cimentaciones de los puentes. Hay retenciones singulares como las
ataguías, los diques de contención del mar (los de Nueva
Orleans, por ejemplo), las presas de sólidos mojados, las de
residuos urbanos o las de contraembalse.
2
Se entiende por balsa toda estructura artificial destinada al almacenamiento de agua, situada fuera de un cauce y delimitada total
o parcialmente por un dique de cierre.
282
Fuente: Archivo SPANCOLD.
Figura 6. Balsas de riego
La construcción de obras civiles. La tecnología de las presas
Se comprende que se está manejando así un recurso natural,
como es el agua de lluvia y nieve, con sus propias leyes de
precipitación y drenaje, las cuales se deben acoplar a las necesidades de la población, que tiene las suyas. Este recurso
natural cae de las nubes, se retiene sólido en las alturas en
algunos lugares, se esponja en los suelos, se desacelera
en las vegetaciones de las laderas, se mete por venas subterráneas y corre por los ríos. Mientras está en tierra, en España
se evapora en la asombrosa cantidad de sus dos terceras
partes, quedando el resto a nuestra disposición.
A los efectos de este escrito, se concentrará la atención en
los casos de las presas importantes por su altura, su longitud,
su volumen de agua embalsada o su singularidad técnica; y
en las balsas, que merecen un interés especial por su número, disposición y administración.
Construcción de presas y balsas
Las presas están formadas con material sólido, suelto o cementado, y como tales se han construido desde la antigüedad (todavía está en servicio la presa romana de Proserpina
en la cuenca del Guadiana, de 21,6 m de altura y casi medio
kilómetro de longitud). Ya en la Edad Moderna se han levantado en España importantes muestras de estas obras hidráulicas, como la presa de Tibi sobre un afluente del río Júcar,
construida en 1594, que mantendría por dos siglos su récord
de 46 m de altura.
La utilización del hormigón de cemento portland desde finales
del siglo XIX y la evolución de las grandes máquinas de movimiento de tierras han elevado las técnicas de construcción para
que respondieran a los avances en el cálculo y el dimensionamiento. En España, los planes hidrológicos de los años veinte
del siglo pasado, seguidos desde entonces por las sucesivas administraciones públicas, han propiciado la construcción de presas con suficiente y actualizada tecnología, distinguiéndose la
etapa de 1960 hasta fin de siglo como la de más acelerada
construcción y explotación de sistemas hidráulicos, lo que ha
dado lugar a resolver los importantes retos encontrados, en
muchos casos con una gran precariedad de recursos.
Estos muros pueden ser de considerable altura y de un volumen solo manejable con medios muy potentes. En el último tercio del siglo pasado se han elevado en España presas de hormigón que superan los 200 m desde el cimiento
hasta la coronación, con el precedente de que ya en los
años veinte se habían alcanzado los 100 m. No menor reto
ha sido el de la construcción de presas de gran masa de
este material en el menor tiempo posible, por encima del
millón de m3 a razón de más de 50.000 m3 al mes; técnicas
en las que la ingeniería española ha estado siempre en vanguardia.
Por otra parte, las tierras, convenientemente seleccionadas, tratadas, zonificadas y compactadas, han sido material de masa
de estos grandes diques, de ejecución rentable gracias a le eficiencia de las máquinas y a las técnicas de utilización en que la
ingeniería española ha estado siempre al nivel de las mejores.
Observando el detalle de estas estructuras se encuentran elementos esenciales de su composición, necesarios para su estabilidad y para las funciones que desempeñan. Son estos principalmente los aliviaderos, las tomas de agua y los desagües
de fondo, a los que se añaden los caminos de coronación y
pie, las galerías de inspección, las casetas de control y otros.
Particulares de las balsas son los dispositivos de llenado.
Como cierre de esta breve descripción, merece la pena retener la idea de que una presa es un binomio formado por una
masa nueva y un terreno viejo, al que hay que preparar para
confiar en su capacidad portante y en su impermeabilidad,
y al que hay que aproximarse con las formas adecuadas.
Técnica
La tecnología de presas ha ido evolucionando con los tiempos y con las circunstancias, tanto en las formas estructurales
283
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
como en sus masas componentes y en la práctica de la construcción. Se han diseñado muchos modelos geométricos y
modos de resistencia de los muros, arcos y bóvedas de hormigón, así como gran variedad de dosificaciones y cementos
a partir del clásico pórtland. También se ha vertido investigación y desarrollo en los ingenios de colocación, moldeo,
compactación y curado de la masa. En movimientos de tierras se han aprovechado al máximo los estudios y avances
en geotecnia y las posibilidades de la maquinaria. La ingeniería de presas ha estado siempre muy viva, muy comunicada en los medios profesionales internacionales y muy aceptada por el mundo del agua. Lo mismo debe decirse de la
explotación de los embalses.
En cuanto a las balsas, la tecnología ha permitido mayores
alturas de cierres; el desarrollo del plástico, llamado el quinto
material primario y que ha tenido un continuo y rápido progreso desde hace muchas décadas, como principal elemento
de impermeabilización ha sido definitivo en la instalación de
estos vasos.
han sido en general encargados a empresas o grupos de
personas asociadas que han reunido múltiples disciplinas.
La construcción ha sido contratada con empresas constructoras, con la colaboración de especialistas en la variedad que se haya necesitado. El mantenimiento recae alternativamente en las organizaciones propias del ente
responsable o en empresas especializadas en conservación
y reparación.
Las balsas son, en general, propiedades privadas de personas
o comunidades, con organizaciones reguladas y tutela de las
administraciones públicas. El hecho de que tengan un volumen de embalse moderado y que estén formadas con pequeños diques es una consideración relativa, pues en particular cada una representa una reserva vital para sus
propietarios, que en algunos casos puede comportar un riesgo de daños, cuando menos de la ruina de la propia balsa y
de su sistema anejo.
TECNOLOGÍA
El estado actual de la técnica es de búsqueda de innovaciones para atender, con la mayor economía de medios, un plan
de construcción de presas más lento en comparación con décadas anteriores. Para todo el tejido técnico español se presentan otras oportunidades de gestión, como las de mejoras
de sistemas, las de conservación de las presas, las de exportación de la tecnología o las de perfeccionamiento de la vigilancia y el control de estas estructuras.
Administración
Las presas y los embalses pertenecen a las administraciones públicas o corresponden a concesiones de agua a empresas suministradoras de servicios (abastecimiento, regadío, energía, etc.). A estos entes ha correspondido la
planificación, proyecto, construcción, mantenimiento y explotación de los elementos de contención y almacenaje de
las aguas. Los proyectos, así como sus estudios previos,
284
Complejidad del planteamiento
Las presas, como otras obras civiles, son singulares en el
sentido de que cada presa es única, ya que su tipología y
todas sus características han de establecerse en función
del río en que se sitúa y de los condicionantes que impone
el terreno en que se cimenta y el entorno que la rodea. A
partir de este principio, se trata de aprovechar los procesos tecnológicos más adecuados para cada caso, de forma
que las distintas actividades se puedan realizar utilizando
métodos contrastados que se van complementando siempre con innovaciones que se constituyen en nuevos procesos.
Dicho lo anterior, el proceso de vida de una presa es similar
al de cualquier otro proyecto de ingeniería civil: análisis de
las demandas que hay que atender, planificación, diseño,
construcción, conservación, explotación y puesta fuera de
La construcción de obras civiles. La tecnología de las presas
servicio3. Al depender de las demandas existentes o previstas,
la presa es parte de una planificación de orden superior, lo
que requiere que aquellas estén organizadas por cuencas
hidrográficas y por usos previstos. Tan importante es el estudio de la pluviometría o los aforos de caudales del río como
el proyecto de un goteo en un huerto o el cálculo del riesgo
de una población del valle. Para todo hay que disponer de la
mejor técnica, y evitar el desequilibrio de una refinada presa
estable y funcional cuyos antecedentes fueron planteados a
la ligera. Para las inevitables variaciones del futuro hay que
fortalecerse en el mejor presente. A tal fin, las administraciones y los particulares cuentan con muy buenas herramientas
de toma y registro de datos, así como con el concurso de firmas especialistas.
Se evidencia así que la multiplicidad de responsabilidades
presenta una circunstancia en la que se hace complicado impulsar la tecnología del complejo hidráulico.
Proceso tecnológico
Las prospecciones geológicas y geotécnicas son fundamentales para el diseño de una presa. La evolución en las técnicas
de prospección ha sido muy bien aprovechada por la ingeniería española. Se practica la cartografía geológica por fotografía aérea, las catas superficiales y los sondeos a grandes
profundidades, acompañados por todas las exploraciones
pertinentes, como toma de muestras, acciones mecánicas,
inyección de fluidos, inspección óptica, propagación de sonido, pulsación nuclear, así como ensayos de los materiales
extraídos. La ciencia geotécnica ha avanzado con mucha firmeza en los últimos cuarenta años, al igual que lo han hecho
3
La vida útil de una presa puede ser muy larga, de cientos de años,
siempre que se conserve adecuadamente tanto la obra civil como
las instalaciones hidromecánicas (compuertas, válvulas, etc.). Su
puesta fuera de servicio normalmente obedece a que la demanda
que atendía ha dejado de existir o a que se dispone de otra alternativa para dar ese servicio.
los medios físicos de penetración y análisis de terrenos y los
de multiplicación informática de transmisión y proceso de
datos. Este estado de la tecnología favorece tanto el proceso
de diseño como el de control de comportamiento de la
presa.
Toda la ciencia aplicada en el cálculo de presas, desde la fase
de elección del tipo, está apoyada por programas informáticos y modelos matemáticos de alta potencia, de forma que
los estudios de sensibilidades a los cambios de variable se
producen con rapidez a la vez que con poco consumo de recursos. Esto ha sido revolucionario a partir de los años ochenta del pasado siglo. Por ejemplo, la determinación de las
áreas que se iban a inundar aguas arriba de una hipotética
presa en momentos de riada era trabajo de semanas de una
o varias personas en los años sesenta, teniendo que repetirse
tantas veces como el proyectista propusiera cambiar la cota
del vertedero. Hoy se pueden hacer varios tanteos en el término de horas. Por otra parte, la consulta de las publicaciones sobre cualquier tema de interés es inmediata, e incluso
la conferencia directa.
Los proyectistas siempre han ampliado su conocimiento gracias al diálogo con los constructores y con los fabricantes de
materiales y equipos, lo que cada vez se facilita más con la
tecnología disponible.
Durante la construcción, las presas se encuentran en una
delicada etapa inicial en la que se reanudan las prospecciones geotécnicas de comprobación y se toman decisiones
muy importantes sobre el tratamiento del terreno. La confianza en la estabilidad debe fraguarse en poco tiempo, el
que permite la campaña, ya que la construcción de una
presa es la más estacional de las obras, hasta el punto de
que un retraso de un mes puede significar la pérdida de
un año entero. Los constructores han mejorado la planificación y el control de este proceso gracias a las tecnologías
de detección, inspección rápida e interpretación casi instantánea.
285
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
El hormigón en masa
En la etapa de construcción, las presas son escenarios de
avances tecnológicos en todas las actuaciones, principalmente
en la puesta en obra de sus volúmenes. Nada hay más importante que la planificación y la ejecución bajo control de cada
uno de los metros cúbicos que componen el dique, con el
aseguramiento de que la confección del bloque o de la tongada, como elemento indivisible de la masa, cumple con
todas las especificaciones de proceso para lograr una perfecta
unión con los que le circundan o le preceden, una validez en
sí mismo como elemento resistente e impermeable, y un comportamiento en espera que no estropee ninguna de sus propiedades. Tal es el caso, por ejemplo de la colocación de hormigón, operación que se repite en dados de varias centenas
de m3, ininterrumpida y precisa en su ejecución.
El fraguado es exotérmico; el calentamiento durante el
mismo puede arruinar el compuesto, lo que obliga a evitarlo.
Los consumos de cemento son tan continuos que el polvo
caliente que llega a los silos no puede enfriarse en el escaso
tiempo que por prescripción allí permanece, lo que agrava
el fenómeno inconveniente. Las soluciones han surgido con
la práctica, y se han consolidado con la observación y las técnicas de mejora. Se han inventado ciclones de enfriamiento
del cemento o de las arenas y gravas, se han interpuesto fábricas de hielo en escamas para incorporarlas en el amasado,
se han distribuido serpentines (tubos por los que circula agua
fría durante las horas de reacción química) o se han empleado aditivos atenuantes. Como se ve, el proceso tecnológico
está integrado en el proceso de ejecución, a veces para desechar lo que ya se está ejecutando por una vez, hasta que
surge, volviendo al ejemplo, la solución de salir del hormigón
clásico creando unas nuevas fórmulas para que se produzcan
menos calorías. El problema se va arreglando a medida que
la tecnología se desarrolla.
Hace veinticinco años se construyó en Oregón la primera
presa de hormigón compactado con rodillo. En pocas palabras, se puede decir que la forma tradicional de hacer que
286
la pasta y las gravas se conviertan en un sólido homogéneo
y sin huecos o segregaciones consiste en sumergir en ella
unos vibradores prendidos del arco frontal de un tractor que
danza sobre sus orugas o sus ruedas. En cambio, tratar el
material fresco como si fuera tierra y compactarlo por extensas capas con rodillos vibradores como los usados en los rellenos de obras viales constituyó un salto tecnológico de
alcance, aplicable a una amplia gama tipológica de presas.
Apenas dos años después, ya se construía en España la primera presa con esta innovación, lo que da idea de la rápida
asimilación de tecnología de que puede hacer gala la industria española constructora. Pero hay algo más que añadir, y
es que, en esta y en otras primeras obras, los procesos de
compactación se han trabajado poco a poco hasta darles la
robustez y la eficiencia que ahora tienen. Este modelo de integración del proceso de innovación en el propio proceso
constructivo es característico de las presas, con participación
de proyectistas, constructores, empresas especializadas y fabricantes de maquinaria (véase la figura 7).
Fuente: foto cedida por Dragados.
Figura 7. Presa de Beni Haroun (Argelia)
La construcción de obras civiles. La tecnología de las presas
El material suelto
Las presas de materiales sueltos, más llanamente llamadas
de tierras o de escollera, responden a unos conceptos muy
primitivos a la vez que de complicada realización. Nada más
natural que construir un dique aportando tierras a la angostura de un río hasta una determinada altura, confiando en
que la masa resultante resista el empuje del agua y sea impermeable. Pero para que un montón de material suelto no
se desplace en el sentido de dicho empuje hay que contar
con sus esenciales propiedades de cohesión y rozamiento,
asociada la primera a los finísimos componentes plásticos de
la arcilla y consecuente el segundo con la estructura granular,
y ligados ambos a la humedad que se guarde en el interior
del cuerpo. Se pueden recordar aquí las construcciones infantiles de playa: con arena seca no se hacen castillos; con
mojadura en exceso el fluido es intratable. En cuanto a la impermeabilidad, también se ofrece la arcilla como el componente natural único que la asegura, con la precisa humedad
controlada; de no ser así, de no poderse mejorar, o de no
disponer de materia plástica cohesiva en absoluto, como
sería el caso de un dique de escollera, la impermeabilidad
de la presa se consigue con una pantalla de hormigón o de
aglomerado asfáltico extendida sobre el paramento que va
a estar en contacto con el agua embalsada.
Como característica negativa, y por tanto de extremado cuidado, debe señalarse la vulnerabilidad de la masa de tierras
a las vías de agua en su superficie, en su contorno e incluso
en su interior.
Es lógico que los materiales integrantes de la presa se repartan las funciones, que a unos corresponda la impermeabilidad y que a otros se confíe la resistencia; simplificando la
cuestión, se trata de que el paquete se distribuya en zonas
constituidas cada una por el material más adecuado.
En pocos renglones se ha esbozado el problema de concepción del dique de materiales sueltos. Solo falta decir que hay
que buscar en las cercanías un considerable volumen de tierra
aprovechable y trabajable. Es evidente que no hay proyecto
sin estudio de masas, ni zonificación preestablecida sin el conocimiento de lo que pueda extraerse de la zona, ni definición
completa sin saber si se pueden asegurar las propiedades
esenciales. La construcción de una presa de tierras es un proceso que realimenta al de proyecto, del que se espera una
aproximación muy estudiada. Se dice en las Guías técnicas de
presas que la primera actividad antes de iniciar una de tierras
es comprobar que las fuentes de suministro de los materiales
previstas en el proyecto, u otras alternativas, son aptas tanto
en calidad como en cantidad para llevar a buen fin la presa
proyectada. Si se consideran estas líneas en sentido contrario,
se ve que no habría solución ante un resultado negativo de
esta comprobación. Es decir, el proyecto es, en esencia, la
búsqueda de componentes aptos para formar un cuerpo estable e impermeable en un entorno del lugar en el que se
prevé cerrar el valle.
Con esos componentes se hará lo que se pueda, y se podrá
hacer lo que permita el conocimiento profundo de ese entorno y de las propiedades de las tierras que alberga. Por fortuna, los valles están hechos de detritos de rocas rotas y
descompuestas que ruedan y se estacionan por las laderas,
y que luego el río reforma y recoloca valle abajo. A veces, las
rocas se descomponen en su propio lugar, sin que nada
las molture ni las transporte. La naturaleza, pues, ofrece la
fabricación primaria de estos materiales, los cuales se encuentran en tamaños ordenados, formas de grano, humedad
y plasticidad, listos para ser extraídos con delicadeza, darles
los tratamientos de mejora que necesiten y colocarlos cuidadosamente en su lugar. Así, la tecnología empieza a ser de
aplicación en el estudio de lo que yace bajo las capas de vegetación que componen el paisaje de laderas y terrazas.
Las campañas de prospección son muy complejas y requieren
de aparatos muy sofisticados para asegurarse de que el material encontrado es apto, y de que no se ha desechado el que
lo fuera. La discusión sobre la determinación de las características de los materiales es continua, y la tecnología asociada a
los sondeos, los ensayos y las interpretaciones evoluciona muy
287
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
rápidamente. La técnica de la repetición, base de todo trabajo
investigativo, se impone en beneficio del estudio de materiales.
La ciencia estadística ha pasado a ser disciplina fundamental
en la ingeniería de estos materiales.
Una vez que las tierras han sido seleccionadas, extraídas y
transportadas, hay que mejorarlas acondicionando su granulometría y su plasticidad, empleando para ello máquinas
convencionales de machaqueo, criba y mezcla, grupo de
ingenios que han evolucionado sobre todo en sus elevadas
capacidades de producción y en sus elementos de desgaste
de avanzada metalurgia y cerámica. Colocados por lotes y extendidos en sus lugares respectivos y con la humedad óptima
controlada, los materiales sueltos se someten a procesos de
compactación confiados a rodillos de peso y vibración. En el
momento presente hay poco que avanzar en el aprovechamiento de la energía de combustibles, pues ya se disfruta de
la experiencia y de la evolución operada en muchas obras
de compactación en el mundo, muy comprometidas algunas,
como los terraplenes de aeropuertos y los de trenes de alta
velocidad; obras a las que, como en el caso de las presas, se
exige no solo resistencia, sino una deformabilidad extremadamente baja (véase la figura 8).
Acondicionamiento del terreno
Los terrenos sobre los que se asienta la presa también colaboran como contención de las aguas, por lo que deben consolidarse e impermeabilizarse, y al mismo tiempo prepararles
un sistema de drenaje de las aguas que puedan pasar inevitablemente. A estos efectos, los terrenos se taladran y se inyectan con cemento y otros materiales. El manejo de líquidos
en los taladros, principalmente agua de lavado, y de las mezclas semilíquidas de cemento y aditivos, requiere de mucha
destreza para hacer robustos unos procesos en los que las
variaciones son tan características. La tecnología, además de
lo que a ella han aportado las máquinas a las que se han encomendado la realización física de las innovaciones hechas
durante el proyecto y la construcción, se ha concentrado en
la preparación de dichas mezclas, su colocación en los puntos
precisos de los taladros, la regulación de las presiones y cantidades, las esperas de fraguado y la detección de las penetraciones, todo un complejo de fórmulas y de decisiones
sobre el terreno y en tiempo ajustado (véase la figura 9).
Auscultación
Fuente: foto cedida por Dragados.
Figura 8. Presa de materiales sueltos en construcción
288
Antes de terminar la construcción de una presa, ya ha comenzado esta a dar señales de su existencia y de sus efectos
sobre el terreno en el que se ha cimentado y con el que empieza a interactuar. Terminada la construcción, comienza una
etapa intermedia en la vida de la presa, como es la de su llenado, la prueba de su entrada en carga. Ya en régimen de
explotación continúan las alternancias de nivel de embalse
mientras con el tiempo se van manifestando los movimientos
de todo el interior del cuerpo y del terreno adyacente. Construir, probar y mantener una presa requiere su observación
La construcción de obras civiles. La tecnología de las presas
nómeno no deseado para detenerlo si tiende a manifestarse,
como se ha hecho siempre, solo que las técnicas de la visibilidad se han mejorado rápidamente. Los signos palpables de
deterioro, como antes eran una grieta o un hilo de agua, hoy
saltan en monitores con mucha antelación, cuando aún tienen dimensiones microscópicas, por sí o por accidentes cercanos y asociados. Los riesgos están concatenados, lo que
ha creado un sentido de relación de fenómenos y de observación integrada y conjunta de los mismos.
La auscultación es la base de la ciencia experimental que
sirve, de manera continua, a la mejora de los métodos de
cálculo, como se indica en la Guías técnicas de presas (véase
la figura 10).
Fuente: foto cedida por Dragados.
Figura 9. Tratamiento del terreno de cimentación de una presa
en todos los instantes de su existencia. Como ejemplo, basta
referirse al complejo fenómeno de la dilatación y la contracción de tan enorme masa de material, que en la construcción
se retrae como consecuencia del fraguado y de la pérdida de
humedad, para después volver a entumecerse e inflarse con
el agua de las filtraciones y las lluvias, mientras que las variaciones de temperatura afectan al material, no solo a lo
largo del día o de las estaciones, sino del paramento oculto
mojado al visto.
Muchos son los fenómenos que hay que observar, muchos
los puntos en el espacio que requieren esa inspección y muchos los momentos en que hay que asomarse a los datos. La
auscultación es uno de los campos más intensos de esta especial ingeniería de presas, en el que se han registrado importantísimos avances en los últimos años, con aplicación de
variadas tecnologías en materia de sensores, profusión de
estos, seguridad de su funcionamiento, costes de producto
e instalación, lectura telemática, proceso de datos y revista
de los mismos. El fin inmediato es el diagnóstico, sin el que
no puede actuarse. Lógicamente, se trata de anticipar el fe-
Fuente: foto cedida por OFITECO.
Figura 10. Esquema de auscultación de una presa
Visto el nivel alcanzado en auscultación y la facilidad con que
se practica, cabe preguntarse qué hacer con las presas que ya
se pueden considerar antiguas, construidas hace apenas veinte
o treinta años, en las que no se han instalado la variedad y
cantidad de sensores que hoy se desearía para ellas, ni se ha
considerado la lectura permanente, registrada y revistada de
continuo. La respuesta es que se debe actuar. La tecnología
de aplicación de los medios actuales a las construcciones del
pasado es distinta, y tiene sus facetas muy delicadas, pero los
289
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
fundamentos son los mismos. Esto ha motivado su avance, de
forma que los dueños de los sistemas hidráulicos han emprendido proyectos de auscultación sobre las presas existentes que
se han realizado y aprovechado convenientemente, en ocasiones impulsados por la investigación de amenazas detectadas por el sistema antiguo, para llegar a conclusiones de que
el mal podría haber tenido más temprano ataque. Otras veces
el motivo de la intensa auscultación de una presa vieja ha sido
la rehabilitación o el recrecido.
Comportamiento a largo plazo
Las presas tienen una vida muy larga, aunque no perpetua,
y ello obliga a pensar en aquellos fenómenos que sobrevienen lentamente, así como en qué hacer con las que hayan
dejado de atender las demandas para las que se construyeron, en cómo gestionar su inercia terminal, cuando es bien
sabido que su principio, el agua, va a seguir vivo; y que su
herencia, buena o mala, también va a perdurar. Entre los
acontecimientos de despaciosa génesis que se van a presentar, se puede citar como ejemplo el de la acumulación de sedimentos en el fondo de los embalses, que reducen el volumen de agua embalsada, hacen perder capacidad de
regulación y dificultan la explotación, especialmente en la
parte baja de la presa, hasta el extremo de inutilizar los elementos de desagüe. Es preceptivo el control de esta formación, el análisis de sus riesgos y la retirada periódica. El agua
remansada arrastra poco de los depósitos de aguas arriba,
como poco necesita el cono de pie de presa para llenarse;
en cambio, en las laderas suceden más derrubios de los que
se han producido en su estado natural a causa de las variaciones del nivel de agua que sufre el embalse. En las proximidades de la presa, la retirada de sedimentos no puede realizarse en seco, salvo excepciones. Se presenta por tanto
una actividad de dragado cuyas particularidades han dado
buen trabajo de investigación y desarrollo, tanto a la ingeniería hidráulica como a la de maquinaria de extracción subacuática de sólidos. Las técnicas de dragados marítimos y
fluviales, propios de puertos y de canales de navegación, han
290
sido originales para el estudio de semejante asunto en los
embalses, pero se han impuesto condicionantes propios. En
general, los sedimentos causados por la retención de la presa
son de grano fino, fangos arenosos o limos con gravas, de
extracción fácil por succión, si no fuera porque la profundidad no es la clásica del dragado para superar el calado de
los barcos, sino que son varias decenas de metros las que
separan el sedimento de la maquinaria flotante de bombeo, y
otros tantos de impulsión al punto de vertido o de carga para
el transporte. La movilidad de un ingenio de dragado clásico
lo hace rentable, lo que no es el caso de un equipo confinado en el propio lago artificial. Estos retos se han planteado
en algunos embalses españoles con notables resultados, a
los que seguirán otros en el futuro, lo que potenciará la trayectoria de innovación para evitar los efectos perjudiciales
mencionados.
Hay también arrastres flotantes, como puedan ser los troncos
de árboles, que se acumulan y se sitúan en lugares inconvenientes del embalse, incluso en contacto con la presa, para
los que se pueden disponer barreras flotantes.
La explotación
En la explotación de un embalse se plantean complicados sistemas de proposiciones lógicas que superan al número de
incógnitas planteadas. Cuando esto sucede los sistemas
deben compatibilizarse artificialmente. Las decisiones no deben
tomarse simplificando dichos sistemas por desaparición de
alguna de aquellas proposiciones; mucho menos sustituyéndolas por otras que nada tengan que ver con la hidrología en su doble vertiente de disponibilidades y necesidades. Por ejemplo, nada hay más desacertado que creer en
lo bueno que es tener el embalse lleno y lo pernicioso que
es desaguar. La cuestión es matemática, desde luego, con
gran contenido estadístico y empírico; pero sujeta a leyes
y medidas. Por ello, todo lo que se invierta en mejora de
la inspección y de la metodología de cálculo debe ser celebrado.
La construcción de obras civiles. La tecnología de las presas
Bien se ve que el embalse, siendo un ingenio de contención
con una cierta asociación a la idea del agua en reposo, presenta
grandes problemas cuando esta empieza a moverse y la energía se libera a través de los elementos esenciales de la presa.
El movimiento tridimensional del fluido ha sido estudiado, con
toda precisión científica y con la mayor acumulación empírica,
con el auxilio de las teorías de semejanza hidrodinámica en laboratorios de ensayos en modelo reducido —entre los que los
españoles brillan por sus recursos y gestión—, así como con elaborados modelos matemáticos. Así se han creado formas de
tomas de agua y conductos para utilización, o de desagüe y
alivio, de vertido en chorros y melenas que, bajo su belleza y
estruendo, esconden la técnica de disipación de energía por
choque con el fondo y las laderas, lanzamientos de trampolín
o rozamiento con el aire hasta dar lugar a masas nebuladas de
polvo acuático. En los citados laboratorios se estudian incluso
comportamientos de antiguos aliviaderos cuya mejora viene
impulsada por el avance de la teoría y por las nuevas experiencias, lo que puede dar lugar a un programa de renovación de
alcance generalizado en beneficio de un mejor control de las
crecidas y de las energías a disipar (véase la figura 11).
Tecnologías asociadas
Ya se han citado varios casos de tecnologías asociadas a las
presas en sus diferentes fases de vida. Otros casos particulares merecen ser reseñados por su importancia en la explotación, como son los relativos a las ingenierías de montes y de
cultivos. Los vasos deben ser deforestados para beneficio biológico de las aguas embalsadas, mientras que las laderas de
los valles han de poblarse de árboles y arbustos para conseguir que la escorrentía sea suave y arrastre menos detritos.
A veces la transformación forestal lleva décadas de trabajo
paciente, con el beneficio de conseguir valles nuevos en su
habitabilidad y aprovechamiento, y de reducir los efectos perniciosos de las riadas.
Toda innovación en los riegos, traducida en ahorro de agua
por racionalización de los mismos, tiene incidencia en la
Fuente: foto cedida por ROP.
Figura 11. Presa de Itoiz (Navarra) con el aliviadero vertiendo agua
función de las presas del valle, pudiendo dar lugar a nuevas
planificaciones por cambio en los balances hídricos de las
cuencas.
Otra disciplina asociada es la relativa a las aguas residuales
de poblaciones e industrias. Las técnicas de depuración
permiten devolver agua limpia a los cauces y a los embalses
después de su uso en las poblaciones, con no mucha pérdida.
291
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Dinámica de la tecnología
Con todo lo que antecede se ha querido hacer un somero
repaso, con ejemplos, a lo que se enunciaba en la primera
línea del título como proceso tecnológico en la vida de una
presa, en su planificación, diseño, construcción, conservación, explotación y puesta fuera de servicio.
Desde la Antigüedad, la tecnología ha fluido por las arterias
de la información, como se comprueba en la historia de las
ciudades griegas o del Imperio romano. Se diría en lenguaje
actual que la tecnología está globalizada por naturaleza y
desde siempre.
En cuanto a la gestión del conocimiento, la tecnología de
presas ha pasado por etapas de distinto carácter. Podría decirse que los años cincuenta del siglo pasado marcaron el
cambio más importante. En la época de marcha firme pero
ralentizada por las economías de posguerras, la tecnología
nacida de los procesos en curso en la construcción quedaba
muy encerrada en el ámbito de la propiedad y de sus colaboradores, proyectistas y constructores principalmente, sin
ánimo de ocultación, pero sin afán centrifugador de experiencias y sin promoción de esfuerzos agrupados. Este modelo de cultivo tecnológico cambió, como también lo hizo el
ritmo de las construcciones, a la práctica de la tecnología impulsada por la creación de centros de concurrencia de los conocimientos, la difusión y promoción de actividades convencionales, y el aprovechamiento del potencial de las escuelas
universitarias y fundaciones a su tutela. En el mundo se siguió
también este modelo, acompañado del desarrollo de una intensa comunicación. En este campo, es fundamental la función de difusión e intercambio de experiencias que vienen
haciendo la Comisión Internacional de Grandes Presas
(ICOLD), creada en 1928, y su Comité Nacional Español
(SPANCOLD) creado cinco años más tarde.
El caudal de tecnología que ha salido de este concepto de
gran presa y que ha fluido hacia todas las obras hidráulicas en
su diversidad de tipologías y tamaños ha sido muy abundante.
292
Muy importante ha sido también la transferencia horizontal
de tecnología, el riego que se ha dispensado, valga también
aquí la metáfora hídrica, a otras disciplinas. Un ejemplo
puede ser la utilización de los procesos de enfriamiento durante la fabricación de los hormigones utilizados en las presas
en la construcción en España de las vigas del puente danés
de Oresund.
Siendo muy largo el proceso de realización de una presa, así
como luego su vida útil, ella misma es el laboratorio de los
avances, lo que da lugar a procesos quizás muy productivos
pero poco formalizados. En general, no es posible saber el
coste de los trabajos de innovación, los cuales quedan envueltos en el coste general, pasando sus resultados al activo
intelectual de propietarios y constructores, siempre depositados en personas hasta que las experiencias salen a la luz
por las vías forzadas de las publicaciones y conferencias.
Todo el desarrollo y toda la innovación se han realizado sobre
la propia obra de la presa, su diseño y su ejecución, y sobre
las mismas actuaciones de conservación y explotación, de
forma que ha sido muy difícil determinar cómo y por cuánto
se ha financiado este proceso de avance tecnológico, situación que aún persiste. Los intervinientes no suelen tener presupuestos para la investigación, salvo raras excepciones. Las
empresas de ingeniería y los consultores trabajan por encargo sobre proyectos en marcha. Durante la construcción, las
empresas experimentan sobre la obra presente por cuenta
de las propias unidades en ejecución.
En obras hidráulicas, como en otras obras civiles, se preparan
lotes de ensayo, pero la obligación y la necesidad no se consideran aspectos independientes del coste industrial, sino
parte —una más— de la preparación. La asimilación por las
empresas de la idea de la obra como un proceso ayuda a separar en los costes unitarios lo que pueden ser los correspondientes a investigación y desarrollo (véase la figura 12).
Otra cuestión es la de la propiedad de las innovaciones, de
los ingenios desarrollados y, en su caso, de la patente. Hace
La construcción de obras civiles. La tecnología de las presas
relativamente poco tiempo que las presas han entrado en los
registros de tecnología industrial, de proceso exclusivamente.
La construcción en general no tiene cajas negras, pues pocos
de sus procesos pueden ocultarse en una nave. Las presas
no guardan ventajas competitivas por mucho tiempo para
sus propietarios, proyectistas o consultores, pues las ventanas
de observación están muy repartidas. Las empresas especialistas y las marcas de maquinaria son extraordinarios difusores de cualquier novedad.
NORMATIVA
Normativa de presas y balsas
La Instrucción para el Proyecto, Construcción y Explotación
de Grandes Presas es de 1967, y se afirma que bajo sus prescripciones se realizaron y se siguen realizando una gran parte
de las grandes presas españolas. Antes de 1967 existían ya
más de quinientas presas en España. La calidad se manejaba
con protocolos internos, según el sector y la autoridad de
empleo del agua; y el sistema, al cual se incorporaban subsistemas de las distintas especialidades, se montaba sobre la
misma obra.
Esta norma ha funcionado, en general, de forma satisfactoria
a pesar de que le faltaba el requisito de albergar en sí misma
el mecanismo de su propia crítica y revisión. Afortunadamente, la tecnología ha escapado a esta limitación que podría
haber obrado como un muro de contención ante las innovaciones tecnológicas.
Una norma es una especificación técnica que recoge el estado del arte de un sector de actividad de aplicabilidad voluntaria; cuando se añade que es de obligado cumplimiento
se incurre en redundancia. Los sistemas de gestión son documentales, por lo que las normas deben ser escritas. Su expresión en calidad industrial son los procedimientos, sin los
cuales hoy ya no se trabaja. Otros documentos complementarios y frecuentemente precedentes de las normas son las
Fuente: Archivo SPANCOLD.
Figura 12. Ensayo hidráulico en modelo reducido del aliviadero de una presa
instrucciones, los métodos, las guías y las recomendaciones.
Bueno es recordar estos rudimentos para una breve andadura por la normativa de presas.
Transcurrieron treinta años desde aquella Instrucción hasta
que apareció el Reglamento Técnico sobre Seguridad de Presas
y Embalses, sin derogación de la Instrucción. Los dos códigos
coexisten, el primero atendiendo más al diseño y a la construcción, y el segundo, que se aplica a las presas de titularidad
estatal, más dirigido a la explotación y al mantenimiento.
La aplicación de la Instrucción y del Reglamento se ha visto
facilitada por las Guías Técnicas editadas por la Dirección General del Agua y por el Comité Nacional Español de Grandes
Presas (SPANCOLD) que han actuado como complemento
indispensable y de gran utilidad para proyectistas y constructores tanto en España como en otros países donde se han
constituido como documentos de referencia.
En realidad el conjunto no tiene condición normativa, por lo
que la Dirección General del Agua ha emprendido la redacción
293
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
de las nuevas Normas Técnicas de Seguridad, que afectarán
tanto a las presas como a las balsas, siendo la situación actual
la descrita en la página web del Ministerio de Medio Ambiente
y Medio Rural y Marino (www.marm.es):
“Estas nuevas Normas Técnicas de Seguridad, una vez
aprobadas, constituirán la única normativa legal en materia de seguridad de presas y embalses, unificando la
normativa actualmente vigente, derogando la Instrucción
para el Proyecto, Construcción y Explotación de Grandes
Presas así como el Reglamento Técnico sobre Seguridad
de Presas y Embalses.
Las Normas Técnicas de Seguridad, que serán aprobadas,
previo informe de la Comisión Técnica de Seguridad de
Presas y de la Comisión de Normas para Grandes Presas,
establecerán las exigencias mínimas de seguridad de las
presas y embalses, graduándolas según su clasificación y
determinarán los estudios, comprobaciones y actuaciones
que el titular debe realizar y cumplimentar en cada una
de las fases de la presa.
Asimismo, las Normas Técnicas de Seguridad establecerán los
criterios básicos para la convalidación o adaptación, en su caso,
de las actuaciones y exigencias de seguridad en las presas y
embalses existentes, que se hubiesen realizado de acuerdo con
las normas dictadas antes de la entrada en vigor de aquéllas.”
1. Seguridad de presas.
2. Criterios para proyectos de presas y sus obras anejas.
a. Presas de fábrica.
b. Presas de materiales sueltos.
3. Estudios geológico—geotécnicos y de prospección de materiales.
4. Avenida de proyecto.
5. Aliviaderos y desagües.
6. Construcción de presas y control de calidad.
7. Auscultación de las presas y de sus cimientos.
8. Explotación y Conservación.
9. Aspectos ambientales.
Cuando se publiquen las Normas Técnicas de Seguridad
mencionadas será el momento de revisar estas guías para
adaptarlas a ellas. Véase la portada de una de estas guías en
la figura 13.
Guías técnicas de presas y Manual de balsas
Como se ha dicho, existen unas Guías técnicas de presas,
que han sido editadas por SPANCOLD y que constituyen las
recomendaciones a los profesionales del sector para desarrollar las distintas actividades garantizando la seguridad y el
buen hacer.
Estas guías definen las tecnologías a emplear y su forma de
aplicarlas, cubriendo las actividades incluidas en los siguientes aspectos:
294
Figura 13. Portada de una de las guías
La construcción de obras civiles. La tecnología de las presas
Además, se dispone de los Boletines de la Comisión Internacional de Grandes Presas (ICOLD) sobre los distintos aspectos
tecnológicos de las presas, que son redactados por Comités
Técnicos en los que los profesionales españoles participan de
forma muy activa. Los que se consideran de mayor interés
para su difusión en el sector son traducidos por SPANCOLD
al castellano (véanse las figuras 14 y 15).
Figura 16. Portada del Manual para el diseño,
construcción, explotación y mantenimiento de balsas
Figura 14. Portada de un boletín
técnico en inglés y francés
Figura 15. Portada de un boletín
técnico en español
En cuanto a las balsas, se ha publicado recientemente (2010)
el Manual para el diseño, construcción, explotación y mantenimiento de balsas, que ha sido redactado por el Centro
de Estudios y Experimentación de Obras Públicas (CEDEX), a
encargo de la Dirección General del Agua, con la colaboración de SPANCOLD (véase la figura 16).
CONTROL DE RIESGOS
La tensión del agua
Los embalses y las balsas son acumulaciones de energía que
comportan el riesgo de que se desaten súbitamente, se excedan y desborden con o sin voluntad de sus gobernantes,
o se liberen con un mal control. El efecto de una riada provocada por estos fallos, tanto aguas arriba como aguas abajo
de la presa o en el entorno de la balsa, depende del cauce
por donde discurra, por lo que los componentes del problema se extienden al estado de márgenes y fondos, a las obras
interpuestas de travesía o defensa, a las derivaciones y al
aprovechamiento rural y urbano de las riberas.
En cabeza de la protección civil ante estos riesgos se encuentran los responsables de los embalses, cuyo primer conocimiento a adquirir sobre cada río es el de la probabilidad de
la avenida de cierta cuantía. Para ello se dispone de la información recopilada durante la planificación y el proyecto, con
las medidas precisas de precipitaciones y caudales en ciertos
puntos, tomadas con adecuada frecuencia y con una técnica
mejorada con el progreso de los tiempos, y desde hace unos
años se cuenta además con los datos aportados en cada
cuenca por los Sistemas Automatizados de Información Hidrológica (SAIH) que, combinados con las previsiones meteorológicas, permiten realizar una explotación con un grado
alto de seguridad gracias a los niveles de alerta establecidos
(véase la figura 17).
295
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
a convertirse en una disciplina permanente de defensa civil
en continua revisión y mejora, a lo que ha contribuido notablemente el desarrollo de la automatización de la observación con niveles de alarmas.
La tecnología no solo ha servido para diseñar y construir
mejor las nuevas presas y las nuevas balsas con suficientes
márgenes de seguridad, sino para precisar el riesgo que significa el estado actual de las cosas por acumulación de las
construcciones del pasado, alcanzando incluso a generar
información sobre las necesidades de reformas de estas.
Fuente: SPANCOLD.
Figura 17. Esquema del SAIH
Se puede pues entender que una presa o un conjunto de
ellas, materializando un sistema de embalses en una cuenca,
cada uno con un casual llenado, puede laminar una avenida
de un cierto porte, cuya probabilidad de suceso se estima
para un determinado lapso de tiempo mayor de cinco siglos,
y con una cierta magnitud del daño, que es la otra variable
importante del riesgo. Si esta previsión no se cumple se está
ante la fuerza mayor, como en casos en que la avenida de
más de quinientos años se ha presentado en plena construcción, llevándose por delante la labor realizada hasta el momento y cambiando también la faz del terreno.
En España la obra hidráulica es profusa, y sin embargo las
aguas pueden hacer daño y generan duda popular sobre la
eficacia de las obras o de su operación.
Enfoque del riesgo
El control de riesgos de índole hidráulica ha pasado de ser
una actuación puntual de socorro cuando llega el accidente
296
Las aguas desmadradas suelen arrastrar sólidos que agravan
los daños de choque de la corriente, incluso por la posibilidad
de taponamiento de los puentes. La sedimentación de una
riada puede preparar las peores condiciones para la siguiente.
Esto hace pensar también en todo lo implantado en las márgenes, en la vegetación de los vasos y en la limpieza después
de cada incidente.
La gente teme que se arríen sus bienes, y sin embargo se instala en las riberas y hasta en los cauces de avenida, a veces
fuera de la ley. A la sociedad, que se beneficia del producto
y que incluso lo cuenta en estadísticas, le resulta difícil
calcular el análisis de riesgos, la cobertura económica y la
indemnización. A este servicio se aplica también la tecnología
para reducir los efectos negativos sobre la población (véase
la figura 18). Se está avanzando mucho en la tecnificación de la
detección de problemas, emergencias, alarmas y evacuaciones,
todo lo cual necesita de innovación permanente y de protocolización revisada.
La catástrofe también puede ocurrir por falta de agua, la cual
puede causar ruina de bienes y pérdidas de vidas, precedidas
de enfermedades. Por lento que parezca este proceso comparado con el de la riada, no deja de ser objeto de estudio
para su tratamiento tecnificado. El estiaje se caracteriza por
una humedad baja del aire con aumento de la evaporación
y un cambio biológico de las aguas embalsadas en bajos niveles.
La construcción de obras civiles. La tecnología de las presas
Fuente: SPANCOLD.
Figura 18. Inundaciones producidas en 2010
Se observa que el problema de los riesgos está extendido a
toda la cuenca en su causa y a todo el valle en su efecto, así
como a todas las acciones u omisiones de los responsables
y de los potenciales damnificados; pero la presa vuelve a apa-
recer como el elemento radical cuya seguridad, no solo resistente, sino funcional, es esencial para el control. En ella se
concentran muchos de los recursos de defensa, de retención
o de desagüe, como puede ser una presa complementaria,
297
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
a modo de fusible, que se deja ensanchar y destruir cuando
el nivel alcance su altura, provocando un alivio encauzado
con obstáculos de desgaste de energía y destino de menor
daño, y con ganancia de tiempo. Por otra parte, los elementos accionables de las presas se diseñan para su utilización
en emergencia, muy distinta de la de explotación normal, teniendo en cuenta además que, como las desgracias nunca
vienen solas, se puedan producir cortes de electricidad, caída
de comunicaciones, ausencia de expertos o auxiliares y fallos
de procedimiento.
Los Planes de Emergencia de Presas, en función de la calificación de cada presa4 tienen previstas las condiciones descritas, implantando las necesarias medidas de comunicación
a las poblaciones y también de protocolización de sus comportamientos en casos críticos, incluidas las simulaciones periódicas, como se hace con otros tipos de riesgos (véanse la
tabla 2 y la figura 19).
Tabla 2. Clasificación de las presas y balsas españolas
en tres categorías de riesgo
Categoría
Descripción
N.º de presas
y balsas*
A
Presas cuya rotura o funcionamiento
incorrecto puede afectar gravemente a
núcleos urbanos o servicios esenciales
o producir daños materiales o medioambientales muy importantes
718
B
Presas cuya rotura o funcionamiento
incorrecto puede producir daños materiales o medioambientales importantes
o afectar a un número reducido de viviendas
111
C
Presas cuya rotura o funcionamiento
incorrecto puede producir daños materiales o medioambientales de moderada
importancia y solo incidentalmente pérdida de vidas humanas. En todo caso,
a esta categoría pertenecerán todas las
presas no incluidas en las categorías
AyB
701
Actos inciviles
(*) Los datos incluyen a las presas y balsas en proyecto, construcción y explotación.
Las obras hidráulicas son muy vulnerables, a la par que muy
susceptibles de generar daños de progresión acelerada, por
lo que necesitan de una vigilancia especial a la que hay que
dedicar recursos importantes, en particular tecnológicos,
tanto en prevención como en detección de siniestros (véase
la figura 20).
Al obvio empleo del cerramiento de las áreas de las instalaciones, se debe añadir la necesidad de elementos de señal
de tránsito sospechoso y violación, como la televisión en circuito cerrado u otro tipo de activadores de las alarmas.
Contenido de los planes de emergencia de presas
Análisis de la
seguridad
de la presa
Zonificación
territorial y
estimación de daños
• Determinación del área inundada, de los tiempos
de llegada de la onda de rotura y estimación de
daños potenciales.
Normas de
actuación
• Situaciones en las que se intensificará la vigilancia
de la presa y sus objetivos.
• Medidas a adoptar para la reducción del riesgo.
• Procedimientos de información y comunicación.
Organización
4
A efectos de seguridad, cada presa o balsa se analiza para calificarla en una de las tres categorías existentes (A, B o C) según los
daños potenciales a las personas y al entorno que podría producir
en caso de accidente. Los planes de emergencia se establecen sobre
la base de estas calificaciones.
298
• Situaciones y fenómenos a considerar.
• Indicadores de las situaciones y fenómenos.
• Umbrales para cada escenario de seguridad.
Medios y recursos
• Equipo necesario para la puesta en práctica de las
normas de actuación previstas.
• Sala de emergencia, sistema de aviso a la población
y medios y recursos necesarios.
Fuente: Ministerio de Medio ambiente y Medio Rural y Marino.
Figura 19. Contenido de los planes de emergencia
La construcción de obras civiles. La tecnología de las presas
ingenios de tierra armada, es decir, con incorporación de barras
o flejes de acero, y escamas de hormigón en paramentos que
han permitido elevar las pendientes de los taludes. Variante
digna de mención es la de los muros verdes, así llamados por
la incorporación de una masa de tierra vegetal con función de
contención y protección. El inicio del uso de estas estructuras
se puede fechar en los años setenta del pasado siglo.
La técnica de estabilización de terrenos confiada a los anclajes y al hormigón proyectado, en combinaciones adecuadas,
también ha evolucionado gracias a las experiencias acumuladas en los apoyos de las presas en las laderas, en las que
se han abierto excavaciones de gran altura y fuertes pendientes (véase la figura 21).
Fuente: foto cedida por el CEDEX.
Figura 20. Daños vandálicos en una lámina de impermeabilización de una balsa
Fuente: Archivo SPANCOLD.
EFECTO INDUCTOR DEL SECTOR
Figura 21. Ladera de un embalse estabilizada mediante anclajes
Contención de tierras
Impermeabilización, drenaje y sombra
Las obras de tierra y sus medios de contención, tan antiguas
y de tan variado fin, se han modernizado en diseño y construcción. Las obras hidráulicas han marcado exigencias que
han excitado la innovación en reducción de espacios con
La impermeabilización por láminas es necesaria en muchos
de los elementos de embalse, y especialmente en las balsas.
La tecnología de láminas, llamadas geomembranas, ha evolucionado muy rápidamente, gracias a la investigación de
299
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
nuevos productos en la que colaboran los propios fabricantes, con la aparición de sábanas de base plástica, polímeros
de variada composición y densidad, de grandes tamaños,
fuertes espesores y larga durabilidad. El reto de la extensión
en grandes áreas con pendiente variable, necesariamente estancas y con metrajes de soldadura proporcionalmente grandes, ha sido superado con metodologías de rentable producción y rápida colocación. Los materiales básicos están
evolucionando continuamente en distintas direcciones, especialmente en cuanto a propiedades térmicas, siendo la impermeabilización de balsas la aplicación impulsora, extendida
después a la arquitectura y a otras variantes de construcción.
Como capas de protección, drenaje y filtro se emplean los
geotextiles, que no son propiamente tejidos sino en apariencia, de estructura reticular con diferente hueco. Como en el
caso de las geomembranas, su evolución en las obras hidráulicas ha sido de aprovechamiento en otras técnicas (véase la
figura 22). Las láminas geotextiles, además, se han combinado
con productos impermeabilizantes encapsulados.
Fuente: foto cedida por GISCOSA.
Figura 22. Balsa impermeabilizada con geomembrana
El combate contra la evaporación también se ha practicado
mediante coberturas plásticas a modo de toldo o de capa
flotante en balsas de poca superficie (véase la figura 23).
Productos aditivos
La investigación físico-química ha sentido la demanda de productos para su empleo en las construcciones de presas y balsas, como componentes de masa de efectos ya comentados,
sean lodos, resinas, retardadores de fraguado, filmógenos,
reductores de óxidos, o neutralizadores de sales nocivas.
Prefabricados
Los prefabricados de construcción merecerían un tratado
sobre su evolución en los últimos cincuenta años. Valga con
decir, a modo ilustrativo, que sus distancias de competitivi300
Fuente: foto cedida por JSF Hidráulica, S.L.
Figura 23. Cubierta de balsa para evitar evaporación y para seguridad
dad han superado los 1.000 km de transporte por tierra y los
3.000 km por mar, con ejemplos espectaculares a cargo de
empresas españolas. Ejemplo de ello son las ya citadas vigas
del puente de Oresund, construidas en Puerto Real y transportadas por mar hasta su emplazamiento entre Dinamarca
y Suecia; o el muelle flotante de Mónaco, de 350 m de longitud, construido íntegramente en La Línea de la Concepción
y que se llevó navegando hasta su emplazamiento definitivo
(véase la figura 24).
La construcción de obras civiles. La tecnología de las presas
pasando por los más destacados campos del proyecto y la
construcción. Fue un momento de gran oportunidad para el
estado de la técnica en nuestro país, ya con un conocimiento
consolidado y unas relaciones seguras, de forma que el modelo para muchos proyectos hidráulicos, especialmente para
riegos y electricidad, ha sido difundido y aceptado a nivel
mundial. Un buen ejemplo de las primeras exportaciones de
tecnología de presas lo constituye la presa de Santo Domingo,
en Venezuela (véase la figura 25).
Fuente: foto cedida por Dragados.
Figura 24. Vigas prefabricadas en Cádiz en fase de colocación
en el Puente de Orensund (Dinamarca-Suecia)
En las balsas y en los depósitos de agua en general se han
demandado soluciones de muros prefabricados que pudieran
responder tanto a su estática resistente y su aptitud a la función, como a su facilidad de transporte por vías rurales, montaje con economía de medios y prescripciones ligeras de conservación. La técnica de los prefabricados exige que no se
estropee después de la salida de la factoría la excelencia que
se ha logrado dentro de sus muros.
MERCADOS EXTERIORES
Presencia española
Durante el último tercio del pasado siglo se dio una notable
presencia española en los mercados exteriores en obras hidráulicas de gran porte. Han sido años de fuerte impulso al
desarrollo en países con grandes recursos hidráulicos, con el
apoyo de las instituciones financieras internacionales para la
creación de capital fijo. La oferta de la ingeniería española
es muy amplia, desde la planificación hasta la explotación,
Fuente: foto cedida por Dragados.
Figura 25. Presa de Santo Domingo (Venezuela)
301
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
El campo de exportación presenta algunas particularidades
que lo hacen harto difícil: la primera de ellas es la fuerte inversión inicial que requiere instalarse en otro país, enviando
costosa maquinaria que corre el riesgo de quedarse inmovilizada por condicionantes ajenos a la construcción.
Los equipos técnicos de los países en desarrollo a los que se
dirige la ingeniería española gozan de un alto nivel de conocimiento, tanto generalista como especializado, dada su cuidada formación en los mejores centros, españoles entre
otros, en la que se incluye su familiaridad con las administraciones y autoridades de otros lugares, especialmente el de
origen de la oferta que se les puede presentar, lo que siempre significa una facilidad a la par que un reto de prestigio.
Las agencias de fondos internacionales de fomento se hacen
asesorar por las más distinguidas instituciones y personalidades científicas para asegurar el destino y rentabilidad de sus
asignaciones, de forma que lo que pudiera aparentar subdesarrollo es en realidad un escenario de alta competencia y
puja tecnológica, al mismo tiempo que un medio de transmisión de experiencia, de tal manera que la presencia de una
empresa en un proyecto puede significar la entrada en una
esfera de ámbito mundial, para lo bueno y para lo malo.
Las autoridades locales vigilan con celo la realización de proyectos que son señeros para su evolución. Las empresas españolas tienen que añadir a sus tecnologías de partida otras
por adquisición o por asociación de esfuerzos en uniones
temporales. En la época mencionada de primeras exportaciones (y actualmente en algunos países) era bastante
común el hecho de enfrentarse a licitaciones que presentaban mayores retos que los experimentados en las décadas
anteriores en España. En ocasiones había que excluir metodologías ya desechadas o prohibidas en las especificaciones
básicas de concurso. En otras se estrenaban procesos, solo
empleados en el interior por semejanza a menor escala.
Varias de las empresas españolas han batido récords en el
extranjero, tanto en los países visitados como en su propio
historial interno.
302
Competencia
En aquellos años sesenta de reconstrucción y desarrollo, superada la ruina y descapitalización que habían causado las
guerras, se produjo una explosión en la maquinaria pesada,
con importantes flujos de equipos modernos hacia las áreas
de trabajo programadas. Estados Unidos, Europa y Japón
competían en estos mercados, al mismo tiempo que las circunstancias exigían la renovación no solo de los equipos, sino
de la forma de aprovecharlos. En esto último encontraron las
empresas españolas de construcción grandes escollos para
la innovación.
El desarrollo tecnológico en las empresas está propiciado por
las direcciones de las mismas en función de la proximidad y
de la fórmula de asociación temporal con otras empresas.
Las obras en el extranjero están lejos y muy condicionadas
por las comunicaciones. Por otra parte, ha sido habitual en
las empresas conceder amplia autonomía a los consorcios de
variadas especialidades, lo que significaba un factor parecido
a la lejanía a la hora de requerir apoyos y directrices.
Un inconveniente muy particular radica en el hecho de que
el elevado nivel tecnológico exigido y vigilado tiene que practicarse en un entorno de subdesarrollo, tanto en la disponibilidad de medios auxiliares y materiales como en la formación de operarios hasta llevarlos al grado de destreza
necesario. Para obtener, por ejemplo, hormigones de alta resistencia con cementos de procedencias lejanas, quizás únicas, los sistemas de calidad de los contratistas han de traspasar las vallas de las fábricas y modular en ellas los procesos
necesarios. En las exportaciones de bienes de equipo, como
puede ser el caso de una compuerta de aliviadero, hay que
contar con medios potentes de descarga en puerto, transporte y manejo en obra. Esta es la ocasión de comprobar si
el progreso del lugar de destino está ordenado y si, en una
etapa precedente, se han anticipado los caudales de financiación del fomento para que la realización de grandes obras
públicas sea posible. Incluso la legislación tiene que ayudar,
especialmente la relativa a la moneda, las importaciones o la
La construcción de obras civiles. La tecnología de las presas
inmigración. De no darse mínimas condiciones de desarrollo
acompañante, las obras podrían ser ruinosas. La extraordinaria demanda de todo orden que genera una gran presa,
incluso de infraestructura circundante, tiene que verse correspondida. En todos los casos cobran extraordinaria fuerza
las tecnologías de la flexibilidad y de la improvisación, para
luego ser ejemplos reimportados.
A pesar de estas dificultades, los concursos de proyectos y
obras en el exterior, y en particular los de ejecución de presas
de fuerte compromiso, han sido abordados por firmas españolas con notable éxito y buena acogida, y en algunos casos
con repetición. La nómina de grandes presas fuera de nuestras fronteras es muy larga a la par que variada y extendida,
como se puede ver en las tablas 3 y 4, que recogen las presas
Tabla 3. Presas construidas en el extranjero por empresas españolas
Realizaciones de las empresas de construcción
Presas
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
Mecha Homadi
Najla
Oliveira Salazar
Merchra Klila
Kadincik
Derivaolón Portezuelo
Portezuelo
Portezudo Grande
Cedillo
Las Barias
Maderas (Las)
Valdesia
Futalefu
Santa Rita
Dique Bahía Blanca
Guri Etapa Final (excavación)
Rincón
Dique de las Peñas Blancas
Djama
Hatillo
Yacambú
Lekhal
Salvajina
Condoroma
Daule Peripa
López Angostura
Mexenna
Agua del Toro
Dzioua
Gera
Iruro
Paso de Las Piedras
Sabaneta
Santo Domingo
Sisa
Guavio
Abast. a Orán (Despost. El Volcán)
Haouareb
Rio Blanao
Rio Grande II
San Rafael
La Esperanza
Santa Juana
Pangue
Reparación presa de Manatali
Al Wahda
Sidi Alch
Lam Ta Kong
Asfalou
Ghrass
Beni Haroum
Contraembalse de Monolón
Porce II
Las Juntas
Rucacura
Gigel Gibe
Monción
Alqueva
Dukeko
Maguaca
Caruachi
Odelouca
Monti Nieddu
Villarpando
Situación
Marruecos
Marruecos
Chicamba (Mozambique)
Marruecos
Tarsos (Turquía)
Neuquen (Argentina)
Neuquen (Argentina)
Neuquen (Argentina)
Portugal
República Dominicana
Jujuy (Argentina)
República Dominicana
Chubut (Argentina)
Medellín (Colombia)
Bahía Blanca (Argentina)
Bolivar (Venezuela)
República Dominicana
Prov. Santa (Argentina)
Senegal
República Dominicana
Lara (Venezuela)
Bouira (Argelia)
Cali (Colombia)
Majes (Perú)
Ecuador
República Dominicana
Argelia
Mendoza (Argentina)
Argelia
Tarapoto (Perú)
Iruro (Perú)
Buenos Aires (Argentina)
San Juan (República Dominicana)
Mérida (Venezuela)
San Martín (Perú)
Boyacá (Colombia)
Orán (Argelia)
Kairouan (Tunisia)
República Dominicana
Medellín (Colombia)
Nayarit (México)
Manabí ( (Ecuador)
Chile
Chile
Republica de Mali
M’Jaara (Marruecos)
Túnez
Thailandia
Marruecos
Marruecos
Mila (Argelia)
República Dominicana
Antioquía (Colombia)
Los Angeles (Chíle)
Los Angeles (Chíle)
Addis Abeba (Etiopía)
República Dominicana
Moura (Portugal)
Chile
República Dominicana
Bolivar (Venezuela)
Algarve (Portugal)
Cerdeña (Italia)
República Dominicana
Año finalización
(1)
1945
1948
1960
1963
1970
1973
1973
1973
1973
1973
1975
1975
1976
1976
1977
1978
1978
1981
1982
1983
1983
1985
1985
1987
1987
1987
1987
1988
1988
1988
1988
1988
1988
1988
1988
1989
1990
1990
1990
1992
1994
1995
1995
1996
1996
1997
1997
1999
1999
1999
2000
2000
2001
2001
2001
2002
2002
2003
2003
2003
2004
2005
C
C
Tipo
(2)
Altura
(m)
Principales características
Volumen de presa
Propósito
10>m>
(3)
Arch
H
G
G
G
Earth
Arch
CFRD
Earth
G
CFRD
RFIC
Earth
G
G
G
G
RFIC
CFRD
RFIC
CFRD
RFIC
RFIC
RFIC
28
20
34
14
74,5
15
98
80
130
50
32
170
54
12,6
20
51
160
45
160
92
90
21,5
30
30
160
500
763
370
4500
600
6000
5500
5600
3600
170
30,5
95
16000
6956
1504
3500
4800
8000
200
Arch
RFIC
G
CFRD
RFIC
RFIC
Arch
G
RFIC
Earth
Earth
116
38
18
49
55
70
61
10
247
18
35
320
1600
6
253
3280
6300
119
16674
1436
6600
I
H
S
S
45
58
106
115
2524
97
4500
2700
790
H
H
I/S
I
H
26400
882
5280
80
I/H/N
RFIC
G (RCC)
Earth
CFRD
G (RCC)
Earth
Earth
RFIC
AFRD
Arch
Arch
G (RCC)
FSHD - RFIC
G (RCC)
Earth
Arch
AFRD
RFIC
Arch
Earth
RFIC
G
Earth
G (RCC)
G (CCR)
88
48
50
90
85
118
28
123
15
15
40
122
96
15
30,5
72
75
87
6,5
1900
175-450
1450
350
35
3000
2890
1100
60
48,7
1705
2000
518
24
H
H
H
H
H
I/H
I/H
I/H
H
H
S
H
I/S/H
H
N
I/H
I/S
I/S
H
I/H
I/H/S
I/H/S
Propietario
Compañías españolas
en la construcción
NECSO
NECSO
NECSO
NECSO
DRAGADOS
DRAGADOS
DRAGADOS
DRAGADOS
NECSO
FERROVIAL-AGROMAN
DRAGADOS
FERROVIAL-AGROMAN
DRAGADOS
NECSO
NECSO
DRAGADOS
FERROVIAL-AGROMAN
DRAGADOS
NECSO
FERROVIAL-AGROMAN
OHL
DRAGADOS
DRAGADOS
NECSO
FERROVIAL -AGROMAN
FERROVIAL -AGROMAN
NECSO
Dirección General de Marruecos y Colonias
Dirección General de Marruecos y Colonias
Sociedad Hidroeléctrica de Revue
Dirección General de Marruecos y Colonias
Cokurova
Hidronor
Hidronor
Hidronor
Hidroeléctrica Española
INDRHI
Provincia de Jujuy
INDRHI
Agua y Energía Eléctrica
Emprecas Públicas de Medellín
Dep. Obras Sanitarias de Buenos Aires
Edelca
INDRHI
Agua y Energía Elect.
O.M.V.S.
INDRHI
M.M.A.R.N.
Ministere Hydraulique
CVC Colombia
Autoridad Autónorna de Majes
CEDEGE
INDRHI
Ministere Hydraulique
S
H
I/H
H
I
I
I/S
I/S/H
H
H
H
H
I/S/H
H
H
I
H
I
I/S
DRAGADOS
DRAGADOS
NECSO
DRAGADOS
DRAGADOS
NECSO
NECSO
NECSO
DRAGADOS
FERROVIAL-AGROMAN
DRAGADOS
NECSO
NECSO
FERROVIAL-AGROMAN
DRAGADOS
NECSO
DRAGADOS
DRAGADOS
FERROVIAL-AGROMAN
DRAGADOS
NECSO
NECSO
NECSO
FERROVIAL - AGROMAN
DRAGADOS/NECSO
NECSO
FERROVIAL-AGROMAN
DRAGADOS
NECSO
DRAGADOS/FCC
FERROVLAL-AGROMAN
M.M.A.R.N
Empresa de E. E. de Bogotá
Ministere Hydraulique
Ministere Hydraulique
Corporación Dominicana
Empresas Públicas de Medellín
Comisión Federal de Electricidad
C.R.M. (Ecuador)
Dirección de Riego Min. de Obras Püblicas
Pangue S.A.
O.M.V.S. y SOGEM
Ministere de Travaux Publics
E.G.A.T.
Ministere de Travaux Publics
Ministere de Travaux Publics
Ministere Hydraulique
INDRHI
EE PP de Medellín
Sociedad Iberoamericana de Energía S.A.
Sociedad Iberoamericana de Energía S.A.
Ethiopian Electric Ligh & power Authority
INDRHI
EDIA
lberoamericana de Energía
INDRHI
EDELCA
INAG
C. Bonifica Sardegna M.
INDRHI
(1) C: En construcción
(2) BD: Contrafuertes; G: Gravedad; Earth: Tierras; Arch: Arco/Bóveda; RFIC: Escollera con núcleo impermeable; CFRD: escollera con pantalla de hormigón; AFRD: Escollera con pantalla de asfalto; PFCD: ESCOLLERA CON PANTALLA PLASTICA;
G (RCC): Gravedad de hormigón compactado; G (FSDH): Gravedad (HARDFILL)
(3) I: Regadío; S: Abastecimiento; UI: Usos industriales; N: Control de avenidas; H: Producción de energía; C: control de inundaciones
Fuente: SPANCOLD.
303
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Tabla 4. Presas proyectadas en el extranjero por empresas españolas
Realizaciones de las empresas de ingeniería
Presas
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
Passo de Mendoça
Bom-Sera
Santa Rita
Chamizo
Tahuin I
Tahuin II
Punceres
Chongón
Abastecimiento Caracas
Chanlud
Subeybaja
Convento Viejo
Tacuarí
Pirque
Manabao
Río Mosquito
Tambo
Bejucal II
Iruro
Dkhila
Gera
Lekhal
Colinares de Targuist
Bejucal II
San Pablo
Caren
Río Grande
Condoroma
Haouareb
Guavio
Esperanza
Beni Haroum
Pangue
Maya
Vicho
Simbocal
Ovejería
Baba
Duqueco II
Duqueco I
Murumuntani
Khaspicancha
Los Llanitos
Jicatuyo
Gilgel Gibe I
San Rafael
Kamieniec Zabkowicki
Situación
Río Grande do Sul (Brasil)
Río Grande do Sul (Brasil)
Antioquía (Colombia)
Ecuador
Oro (Ecuador)
Oro (Ecuador)
Monaga (Venezuela)
Guayas (Ecuador)
Venezuela
Azuay (Ecuador)
Guayas (Ecuador)
Colchaga (Chile)
Treinta y Tres (Uruguay)
Valle del Maipo (Chile)
La Vega (República Dominicana)
Manabí (Ecuador)
Ica (Perú)
La Vega (República Dominicana)
Nazca (Perú)
Agadir (Marruecos)
Tarapoto (Ecuador)
Bouira (Argelia)
Targuist (Túnez)
Jarabacoa (República Dominicana)
Bellavista San Martín (Ecuador)
Rancagua (Chile)
Manabí (Ecuador)
Majes (Perú)
Kairouan (Túnez)
Boyacá (Colombia)
Manabí (Ecuador)
Mila (Argelia)
Chile
Vargas (Venezuela)
Mizque (Bolivia)
Manabí (Ecuador)
Región Metropolitana (Chile)
Guayas (Ecuador)
Duqueco (Chile)
Duqueco (Chile)
Mizque (Bolivia)
Mizque (Bolivia)
Valle del Suia (Honduras)
Valle del Suia (Honduras)
Etiopía
Nayarit State (México)
Polonia
Año de diseño
(1)
1971
1971
1972
1973
1975
1976
1977
1978
1978
1978
1979
1980
1981
1981
1982
1982
1982
1982
1982
1983
1984
1984
1984
1984
1984
1986
1986
1987
1988
1989
1990
1993
1995
1995
1997
1998
1999
1999
2000
2000
2000
2001
2001
2002
2003
2003
2005
Tipo
(2)
Altura
( m)
Volumen de presa
10>m>
Propósito
(3)
Earth
Earth
RFIC
Earth
Earth
CFRD
Earth
Earth
Arch
Arch
Earth
Earth
Earth
Earth
G
Earth
RFIC
CFRD
CFRD
G
G
RFIC
Earth
RFIC
G
Earth
RFIC
RFIC
Earth
RFIC
Earth
G (RCC)
G (RCC)
35
58
50
70
45
45
87
26
100
40
32
38
23
70
28
61
30
90
40
29
18
45
38
90
9
54
58
92
35
247
58
118
115
1400
5600
Earth
Earth
Earth
Earth
Arch
Earth
Earth
Earth
G (RCC)
CFRD
Earth
G (RCC)
Earth
38
2
I
H
H
H/I
I
I
S
C
S
H
C
I/S
I
I/S
H
I
I
H
I/S
I/S
H
I/S
S
H
I
UI (Minera)
I/S
I/H
S
H
I/S
I/S
H
S
I
C
UI (Minera)
H
C
H
I
I
H
H
H
H
C/H
356
1200
300
2800
960
120
20
1337
1700
1300
12800
50
1500
1500
900
250
19
6
1504
2000
5
7000
1710
4800
6600
16674
4500
1900
790
58
55
30
26
115
100
41
45
20
Principales características
Compañía española
involucrada
INTECSA-INARSA
INTECSA-INARSA
IBERINSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
CYGSA
INTECSA-INARSA
IBERINSA
INTECSA-INARSA
IBERINSA
INTECSA-INARSA
INTECSA-INARSA
INTECSA-INARSA
TYPSA
TYPSA
INTECSA-INARSA
CYGSA
TYPSA
IBERINSA
IBERINSA
TYPSA
TYPSA
TYPSA
TYPSA
IBERINSA
IBERINSA
IBERINSA
Tipo de colaboración
Anteproyecto
Anteproyecto
Soporte técnico al constructor
Anteproyecto
Anteproyecto
Anteproyecto
Anteproyecto
Anteproyecto
Proyecto de construcción
Proyecto de construcción
Anteproyecto
Proyecto de construcción
Anteproyecto
Anteproyecto
Anteproyecto
Anteproyecto
Anteproyecto
Anteproyecto
Anteproyecto
Proyecto de construcción
Proyecto de construcción
Soporte técnico al constructor
Anteproyecto
Proyecto de construcción
Proyecto de construcción
Ingeniería de construcción
Anteproyecto
Soporte técnico al constructor
Soporte técnico al constructor
Soporte técnico al constructor
Proyecto de construcción
Anteproyecto
Soporte técnico al constructor
Anteproyecto
Supervisión de la programación
Anteproyecto
Ingeniería de construcción
Ingeniería de construcción
Ingeniería de construcción
Ingeniería de construcción
Supervisión de la programación
Supervisión de la programación
Estudio de factabilidad
Estudio de factabilidad
Ingeniería geotécnica y supervisión de la construcción
Proyecto de licitación
Ingeniería de construcción
Propietario
DNOS
DNOS
EEPP de Medellín
Instituto Ecuatoriano de Electrificación
Subcomisión Ecuatoriana del Puyango-Túmbez
Prodesur, Comisión Ecuatoriana
Instituto Nacional de Obras Sanitarias
Comisión Desarrollo Cuenca del Guayas
Instituto Nacional de Obras Sanitarias
Empresa Eléctrica de Cuenca
Comisión Desarrollo Cuenca del Guayas
Dirección de Riegos de Chile
Comisión Uruguaya de la laguna Merlín
Ministerio de Obras Públicas de Chile
Corporación Dominicana de Electricidad
CRM Ecuador
Corporación Desarrollo del Dep. de Ica
Corporación Dominicana de Electricidad
Ministerio de Agricultura de Perú
Direction Genérale de L’Hydraulique
Dirección Ejecutiva Huallaga Central
Ministere Hydraulique
Ministére de lÉquipapement et de le Promotion
Corporación Dominicana de Electricidad
Dirección Ejecutiva Huallaga Central
CODELCO
CRM (Ecuador)
Auroridad Autónoma de Majes
Ministere Hydraulique
Empresa de EE de Bogotá
CRM (Ecuador)
Ministere Hydraulique
Pangue S.A.
MMARN
Comisión Europea. Convenio Bolivia
CRM (Ecuador)
CODELCO
CODELCO
GrupoIBENER
GrupoIBENER
Comisión Europea. Convenio Bolivia
Comisión Europea. Convenio Bolivia
Comisión Ejecutiva del Valle del Suia
Comisión Ejecutiva del Valle del Suia
Ethiopian Electric Power Corporation
Comisión Federal de Electricidad
Environmental and Natural Resources Ministry
(1) C: En construcción
(2) BD: Contrafuertes; G: Gravedad; Earth: Tierras; Arch: Arco/Bóveda; RFIC: Escollera con núcleo impermeable; CFRD: escollera con pantalla de hormigón; AFRD: Escollera con pantalla de asfalto; PFCD: ESCOLLERA CON PANTALLA PLASTICA; G (RCC): Gravedad de hormigón compactado; G (FSDH): Gravedad (HARDFILL)
(3) I: Regadío; S: Abastecimiento; UI: Usos industriales; N: Control de avenidas; H: Producción de energía; C: control de inundaciones
Fuente: SPANCOLD.
construidas y proyectadas con tecnología española, a las que
habría que añadir casi otra decena en curso de realización
por nuestras empresas. Como ejemplo, véanse las figuras 26
(presa de Tsankov Kamak, en Bulgaria), 27 (presa de El Bato,
en Chile) y 28 (presa del río Portugués, en Puerto Rico).
Intercambio tecnológico
Puede decirse que las presas en el extranjero han sido escuelas
técnicas en muchos aspectos. La hidrología y la geología de
sus localizaciones han presentado problemas nuevos para los
ingenieros españoles y para sus colaboradores en maquinaria
y medios. Como un ejemplo de conjunto de estas especiali304
dades están las noticias de los deslaves, como son llamados
en América los derrumbes de masas de tierra empapada, que
sugieren un enfoque distinto de los problemas de excavación
y contención cuando las precipitaciones tienen otra intensidad y otro calendario, la vegetación es de más débil enraizamiento y los terrenos son diferentes; todo lo cual, siendo
ajeno a los hábitos españoles, genera una avidez por el desarrollo de métodos de drenaje, la disciplina madre del tratamiento del fenómeno. En el campo de la sismicidad, aspecto
de suave incidencia en la península ibérica, las empresas españolas han cobrado notables experiencias.
Con todo lo que puedan dar de sí las soluciones a problemas
puntuales del diseño y construcción de las presas y su mante-
La construcción de obras civiles. La tecnología de las presas
Fuente: foto cedida por Dragados.
Figura 28. Presa del Río Portugués (Puerto Rico). Infografía
Fuente: foto cedida por FCC Construcción.
Figura 26. Presa de Tsankov Kamak (Bulgaria)
Fuente: foto cedida por Ferrovial.
Figura 27. Presa de El Bato (Chile)
nimiento en contratos en el extranjero, mucho más importante resulta la asimilación del concepto global de la obra,
la aventura de instalarse para varios años de desafío para una
producción sistematizada con todas las limitaciones de las
que se ha venido dando idea. No faltan ejemplos de obras
piloto, en las que se preparan los concursos por fases para
que, con lotes de menor porte, como los accesos o las ataguías, se consigan asentar tecnologías de trabajo a mayor
escala en las fases posteriores.
A veces se ha separado a concurso previo la instalación auxiliar de construcción de una gran presa como una obra independiente, con el acierto de considerar que la tecnología
de la preparación es de distinta naturaleza. Esto requiere una
planificación a largo plazo para la que las empresas, con independencia de su tamaño, han tenido que estar preparadas. Las administraciones locales han visto siempre con muy
buenos ojos la mecanización que se asentaba en sus territorios con la ejecución de las grandes presas, han propiciado
su productividad dando continuidad a trabajos semejantes y
han lamentado la retirada cuando no se han dado las condiciones precisas. Esto quiere decir que el sistema de planificación conjunta de administraciones, proveedores de productos, fabricantes equipos y empresas constructoras
practicado en nuestro país para ambiciosos programas de
305
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
obras, como la aplicación de los fondos estructurales europeos a la inversión en infraestructuras, se ha ampliado al ámbito exterior.
Hay tecnologías dormidas en el sector español de grandes presas, no desarrolladas del todo en España o carentes del ritmo
adecuado por la desaceleración de estas construcciones en los
últimos tiempos, lo que obliga a buscar en el extranjero obras
de perfeccionamiento y de mantenimiento de la especialidad,
así como de permanente puesta al día. Esto sugiere la necesidad de un criterio de orientación de los créditos al desarrollo.
306
Una especialidad digna de ser tenida en cuenta en su aspecto
tecnológico es la de la retirada de la obra, es decir, el desmontaje de todos los medios de construcción, su reparación
para ponerlos en estado de venta, regreso a parque o traslado a otra obra, su situación temporal y guarda hasta ulterior destino, la logística de movimientos con tramitación conductora y la gestión de la chatarra. Entre hacer todo esto
bien o hacerlo mejor, con notable diferencia de economía,
media la aplicación de la experiencia propia o adquirida, la
innovación impulsada e incluso la entrega del trabajo a empresas especializadas.
El futuro de la tecnología de las presas y balsas
José Polimón López
José María Osorio Sánchez
PROSPECTIVA NACIONAL
• Paliar los periodos de sequías y reducir el riesgo de las
inundaciones.
Marco general
El futuro de las presas y las balsas, y de sus tecnologías, está
condicionado por el desarrollo de las infraestructuras hidráulicas necesarias y viables en España, dentro del marco de la
sostenibilidad.
Las obras hidráulicas van a seguir siendo necesarias para:
• Abastecimiento de poblaciones y de industrias, que puede
atenderse con aguas superficiales, subterráneas o desaladas.
• Saneamiento de los vertidos de aguas usadas.
• Regadíos para producción de alimentos, continuando con
la política de ahorro de agua basado en la modernización
de regadíos, el riego por goteo y la reutilización de aguas.
• Producción y almacenamiento de energía (centrales hidroeléctricas, reversibles y minicentrales).
La actividad futura dependerá del grado de cobertura de las
demandas y del crecimiento de la población, contando con
una activa política de ahorro y reciclado del agua. En este
sentido, va a ser muy importante la planificación hidrológica,
que está en fase muy avanzada de desarrollo por las demarcaciones hidrográficas, en la que se establecen las demandas
previstas y las soluciones para satisfacerlas.
En el momento actual, aún hay zonas que no tienen cubiertas
las demandas, especialmente las de abastecimiento y concretamente en la época estival. En estas zonas están sobreexplotados los recursos subterráneos y no se dispone de dotaciones
suficientes ni garantizadas, ni está resuelto adecuadamente
el saneamiento, lo que crea además problemas adicionales
de contaminación seria tanto fluvial como marina.
Las necesidades de agua para regadío son conocidas, así
como las dificultades para conseguir dotaciones suficientes
en zonas con un gran potencial de producción de alimentos
309
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
para consumo interno y para exportación, dentro de la línea
ya consolidada de mejora de regadíos con ahorro de agua.
Para ambos usos, abastecimiento y riego, se dispondrá de
los planes hidrológicos de las distintas cuencas hidrográficas, lo que permitirá tener mapas detallados de las necesidades mínimas de agua para las zonas deficitarias, así
como de las que no tienen saneamiento adecuado. Hay algunas zonas en las que se están acometiendo ahora los
proyectos de saneamiento, cuando ya deberían estar terminadas las obras y en funcionamiento para conseguir ríos
y costas limpios.
Para la producción de energía existe todavía un potencial
económicamente aprovechable que se cifra en unos
20.000 GWh (véase la figura 1), una parte del cual es fácilmente aprovechable en presas existentes que no disponen
de central a su pie. La definición, en los planes hidrológicos, de caudales ecológicos, va a garantizar que se puedan
construir esas nuevas centrales hidroeléctricas en presas
existentes, dotándolas de contraembalses de regulación
Futuro de la producción hidroeléctrica
Potencial hidroeléctrico español (GWh)
• Potencial fluvial bruto . . . . . . . . . . . . . . . 150.000
• Potencial técnicamente desarrollable . . . . 70.000
• Potencial desarrollado . . . . . . . . . . . 38.000 (54%)
• Máximo social y ambientalmente
desarrollable . . . . . . . . . . . . . . . . . <20.000 (25%)
Fuente: Berga Casafont, L. Manifiesto sobre la energía eléctrica 2011. Conferencia
inaugural de la jornada sobre el futuro del sistema eléctrico español. Madrid, 2011.
Figura 1. Potencial hidroeléctrico español
310
que permitirán suministrar al río el caudal ecológico establecido al tiempo que se dispone de energía hidráulica de
calidad, que se puede situar instantáneamente en el sistema eléctrico cuando este lo solicita.
Por otra parte, el sistema eléctrico español tiene una potencia total instalada muy grande, que repercute en un excedente de energía en horas valle; en cambio, hay momentos en que para dar la punta extrema de la curva de carga
hay que recurrir a poner en marcha turbinas de gas o a
aprovechar las centrales hidroeléctricas reversibles. Estas
instalaciones de almacenamiento masivo de energía mediante bombeo de agua a un depósito elevado son las únicas con energía sobrante, que se turbina de manera inmediata cuando se necesita.
Hasta aquí se ha tratado de las necesidades para atender
demandas, sean de agua o de energía, pero además hay
que tener en cuenta los efectos previstos del cambio climático, que se traducirán en periodos mayores de sequías
e inundaciones.
Para las sequías se cuenta con varias fuentes de suministro,
como las aguas subterráneas, las desaladas o los trasvases
entre cuencas, así como con las aguas superficiales reguladas
por los embalses que pueden almacenar los recursos necesarios para esos momentos de sequía.
Para las inundaciones se dispone de una serie de posibles actuaciones, estructurales y no estructurales, que se comentan
más adelante; pero entre las primeras y más eficaces están
los embalses que permiten almacenar el agua de las riadas
para evitar o reducir las inundaciones.
De lo expuesto se deduce que, de cara al futuro, es necesario
planificar y desarrollar una actividad continua en la gestión
del agua, que tiene como elementos fundamentales a las
presas, las balsas, los embalses y sus obras auxiliares (sistemas
de distribución de agua, conducciones, centrales hidroeléctricas y reversibles, colectores, etc.).
El futuro de la tecnología de las presas y balsas
NUEVOS RETOS
Los nuevos retos que se plantean en relación con la tecnología de presas y balsas son el cambio climático y el almacenamiento masivo de energía, que agudizan a su vez un reto
actual cuya importancia se irá incrementando: la gestión y
conservación del patrimonio hidráulico.
• Las lluvias a escala mundial van a aumentar, pero su distribución local no va a ser uniforme. El número de días
secos aumentará, así como la intensidad de las precipitaciones.
• Las regiones áridas serán más áridas debido a un ensanchamiento de los sistemas de altas presiones subtropicales. Los cinturones de precipitación de las latitudes medias
se van a desplazar hacia los polos.
El cambio climático
El Panel Internacional para el Estudio del Cambio Climático
(IPCC) ha establecido unas conclusiones de las que conviene
resaltar las siguientes:
• Las observaciones realizadas en todos los continentes y en
la mayoría de los océanos evidencian que muchos de los
sistemas naturales están siendo afectados por los cambios
climáticos regionales.
• Existe un alto nivel de consenso en que están ocurriendo
cambios en el sistema hidrológico.
• Es muy probable que la mayor parte del calentamiento
observado sea debido al aumento de las emisiones de
gases de efecto invernadero.
• La continuación de las emisiones de gases de efecto invernadero ocasionará un calentamiento adicional durante este
siglo que será mayor que el observado durante el siglo XX.
• El calentamiento antropogénico y el ascenso del nivel del
mar continuarán durante siglos, incluso aunque ahora se
estabilizasen las emisiones.
• El cambio climático está afectando ya a los recursos hídricos y lo seguirá haciendo en el futuro, influyendo negativamente sobre la cantidad y calidad de agua, así como
sobre las sequías e inundaciones, cuya frecuencia es muy
probable que aumente.
• En el centro de Europa el ciclo estacional se desplazará,
causando mayores precipitaciones en invierno y menores
en verano.
• Habrá una tendencia hacia precipitaciones más intensas
junto a periodos de sequía de mayor duración.
• La intensificación del ciclo hidrológico hará que las sequías
y las inundaciones sean más frecuentes y extremas.
• Las sequías en las zonas áridas y semiáridas son motivo de
especial preocupación por su duración y extensión espacial, con los consiguientes impactos sobre la agricultura y
el desencadenamiento de posibles hambrunas.
En particular, en España se han producido en los últimos
años inundaciones con efectos muy perjudiciales para la población y para la economía de las zonas afectadas, que además a veces han acarreado la pérdida de vidas humanas. Este
riesgo natural ha hecho que la Unión Europea haya redactado una Directiva que ha sido traspuesta a la legislación española, mediante el Real Decreto 903/2010, de 9 de julio.
A la vista de estas circunstancias, la probable situación creada
en el próximo futuro por los efectos mencionados del cambio
climático plantea estas cuestiones:
• Se debe cambiar la forma de gestionar las presas y embalses para adaptarla a dichos efectos, dejando una mayor
capacidad libre en los embalses para laminar las avenidas
311
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
y prevenir las inundaciones. Al mismo tiempo, se debe
tener un mayor volumen de agua almacenada para combatir las sequías. Ambas condiciones llevan a la necesidad
de una mayor capacidad de regulación de los ríos españoles.
• La forma de poner de acuerdo las estrategias para prevenir
estos efectos del cambio climático pasa por la gestión integrada de las cuencas hidrográficas, lo que pone de manifiesto que el modelo de gestión por cuencas recomendado por la Directiva Marco Europea del Agua (2000/60/CE),
que es el “inventado” por España hace unos ochenta
años, es imprescindible para gestionar adecuadamente los
recursos hidráulicos.
• Además, es necesario conocer la capacidad real actual de
los embalses, dado que en algunos, como ya se ha dicho
(véase el capítulo anterior), esta capacidad se ve reducida
por el gran volumen de sedimentos que se ha ido depositando en ellos. Aunque se han hecho diversos estudios y
trabajos de campo, debe plantearse una campaña sistemática de evaluación del volumen disponible en cada embalse
y poner en marcha las acciones necesarias para ampliar
su capacidad, limpiándolos de sedimentos, estudiando las
repercusiones ambientales que tendrían dichas acciones
e implantando las medidas necesarias para evitar efectos
negativos. Un buen ejemplo ha sido la limpieza de sedimentos de la presa de Barasona por la Confederación Hidrográfica del Ebro.
De acuerdo con lo anterior, está claro que hay que analizar
las alternativas que tenemos en relación con la atención presente y futura de las demandas para establecer las estrategias
adecuadas y desarrollar las acciones correspondientes a corto
y medio plazo para evitar los problemas esbozados, mediante
el desarrollo y la implantación de nuevas tecnologías.
Los efectos previstos del cambio climático harán que la definición de alternativas, la selección de las estrategias adecuadas y de los planes de acción, así como la implantación
312
de los nuevos modelos de gestión sostenible de los embalses,
den un nuevo impulso a la innovación para desarrollar tecnologías eficaces para atender este reto.
El patrimonio hidráulico español es de unas 1.300 presas, y
entre 60.000 y 70.000 balsas, al que hay que añadir las 36
presas en construcción o recrecimiento y un número importante y creciente de balsas en construcción.
Con estos datos, la situación de España es similar a la de
otros países desarrollados (como Japón o EEUU), en el sentido de que la actividad fundamental, ahora y en adelante,
es la conservación y el mantenimiento del patrimonio hidráulico, continuando asimismo con la construcción o recrecimiento de las 36 presas mencionadas y analizando la necesidad de otras nuevas en función de las previsiones de
situaciones relacionadas con mayores frecuencias de sequías
e inundaciones.
En el futuro, el papel de las presas en el control de avenidas
y en los usos del agua irá incrementando cada vez más su
importancia, y como, por otra parte, la puesta en servicio de
nuevas presas requiere unos plazos muy largos, habrá una
fuerte demanda para la utilización eficaz de los embalses
existentes.
Las razones para que se siga esta tendencia son:
• Quedan pocos sitios que reúnan condiciones geográficas
y geológicas adecuadas para construir nuevas presas, por
lo que debe hacerse una cuidadosa planificación para determinar la viabilidad de las que resulten necesarias.
• La duración de los proyectos de nuevas presas es cada vez
más larga, debido a condicionantes económicos para su
financiación así como por una mayor dedicación a los aspectos sociales y ambientales.
• En general, las presas existentes están bien adaptadas a
su entorno social y ambiental, y sus funciones atienden
El futuro de la tecnología de las presas y balsas
sus demandas de forma equilibrada con la preservación
del medio ambiente.
• La utilización eficaz de las presas existentes tiene unos impactos sociales y ambientales mínimos, por lo que gozan
de consenso público y su eficiencia económica es excelente en comparación con las nuevas presas.
En consecuencia, las actividades de renovación, recrecimiento, actualización de sus instalaciones y mejora de los procesos de gestión de las presas existentes, se consideran alternativas ventajosas en tanto se analiza la necesidad de nuevas
presas, como en el caso de la figura 2, que muestra la nueva
presa de La Breña construida aguas abajo de la antigua para
aumentar la capacidad de embalse y poder almacenar agua
bombeada desde el río Guadalquivir.
Por ello, es imprescindible que las presas existentes sean gestionadas de forma eficiente para que dispongan de su máxima capacidad para desempeñar sus funciones durante el
mayor tiempo posible. Teniendo en cuenta lo anterior —y que
las presas son uno de los elementos a considerar en la atención de las necesidades de agua, así como esenciales en la
gestión de las situaciones extremas, sequías e inundaciones—,
se debe aprovechar la capacidad actual de regulación de las
presas y, lo que es más importante, su capacidad futura
de regulación, cambiando los criterios de gestión de los embalses existentes.
No obstante, es completamente necesario plantearse la puesta
en marcha de una planificación de nuevas presas de tamaño
mediano que permitan disponer de una mayor capacidad de
regulación para hacer frente a los efectos mencionados del
cambio climático, ya que el plazo hasta conseguir tener una
presa en condiciones operativas es muy largo, del orden de
15 años, por lo que se puede llegar a situaciones muy comprometidas para evitar inundaciones y prever sequías.
Estas perspectivas están siendo ya objeto de debate en distintas jornadas y congresos profesionales (véase la figura 3),
cuyas conclusiones hasta el momento se pueden reunir y
resumir así:
• Los efectos del cambio climático hacen preciso aumentar
la capacidad de regulación de los ríos españoles por dos
vías: la gestión de los embalses existentes y la planificación
de nuevas presas.
• Es de vital importancia mantener los datos de aforo para
el estudio y redacción de proyectos de nuevas presas, así
como para establecer las estrategias de gestión de los embalses existentes, determinando su capacidad real actual.
Fuente: foto cedida por ACUASUR.
Figura 2. Incremento de la capacidad de embalse por construcción
de una presa de mayor altura. Presas de la Breña I y II
• Se aprecia la necesidad de formación de las nuevas generaciones en materia de presas, muy en especial en los trabajos relacionados con la gestión, la explotación, los aspectos ambientales y los de seguridad.
313
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
• Los diferentes documentos de seguridad de presas (normas técnicas de seguridad, clasificación, normas de explotación, planes de emergencia, implantación de planes de
emergencia, revisiones de seguridad, informes anuales),
así como las guías técnicas y manuales, están experimentando un gran avance, y se debe continuar en esta línea
reforzando las oportunidades de innovación y de difusión
de nuevas tecnologías.
• Se manifiesta la necesidad de emplear en las presas sistemas de auscultación automatizados, de continuar con la
aplicación de nuevas tecnologías y de la conveniencia de
utilizar herramientas de interacción auscultación-modelos.
• Se debe aprovechar y potenciar el desarrollo tecnológico
con soluciones novedosas e investigación incesante que
permitan mejoras en su explotación, en sus vertientes
científica, técnica, ambiental y social.
Fuente: Archivo SPANCOLD.
Figura 3. Jornadas Españolas de Presas
• Se deben potenciar los equipos humanos adecuadamente
formados y preparados de las Administraciones responsables de la gestión de presas.
• El conocimiento científico y técnico existente en España
en materia de presas es muy importante, por lo que se
debe difundir, nacional e internacionalmente, a través de
un sistema de gestión del conocimiento.
• Debe ser tenida en cuenta la importancia de la seguridad,
tanto en lo relacionado con la gestión y el envejecimiento
de las infraestructuras hidráulicas, como por las posibles
afecciones en situaciones extremas.
• La aplicación de metodologías basadas en las técnicas de
análisis de riesgos pueden proporcionar al titular de la
presa una información objetiva para la gestión de la seguridad.
314
• A esta concienciación sobre la optimización del uso del
agua se une en la sociedad actual una exigencia también
mayor sobre el control de los riesgos naturales, que deriva
a nivel práctico en la aplicación de soluciones técnicas para
la regulación de caudales en los ríos.
El almacenamiento de energía
La potencia total instalada del sistema eléctrico español, a
31 de diciembre de 2010, es de 102.981 MW, como se ve
en la tabla 1, de los que aproximadamente el 62% corresponde a centrales convencionales, que se contabilizan como Régimen ordinario, mientras que el 38% corresponde a centrales incluidas en el Régimen especial. La potencia máxima
demandada por el sistema eléctrico es de unos 47.000 MW,
lo que quiere decir que se dispone de una potencia instalada
muy superior a la que podría ser necesaria. El hecho de que
las instalaciones eólicas y solares no puedan garantizar su
disponibilidad sostenida, ha hecho necesario, en la práctica,
El futuro de la tecnología de las presas y balsas
instalar otro tipo de centrales, como las turbinas de gas, que
puedan sustituir en algunos momentos a esas energías, que
tienen la ventaja de ser renovables pero cuya producción es
aleatoria.
Tabla 1. Potencia eléctrica instalada en España
Balance potencia, a 31/12/2010 (en MW)
Hidráulica
Nuclear
Carbón
Fuel/gas
Ciclo combinado
Total régimen ordinario
Eólica
Solar FV
Solar térmica
Minihidráulica
Biomasa
Residuos
Cogeneración + trat. residuos
Total régimen especial
Total España
Peninsular
16.657
7.716
11.380
2.860
25.220
63.833
19.813
3.485
482
1.990
678
488
6579
33.515
97.348
Extrapeninsular
1
0
510
3029
1624
5.164
146
163
0
0
1
116
43
469
5.633
Total España
16.658
7.716
11.890
5.889
26.844
68.997
19.959
3.648
482
1.990
679
604
6.622
33.984
102.981
Fuente: UNESA
Hay que precisar que las centrales hidroeléctricas están incluidas, en su mayor parte, en el paquete de Régimen ordinario, quedando las minicentrales dentro del Régimen especial. Esta división por régimen tarifario no refleja bien la
realidad de la energía hidráulica, ya que sería más lógico diferenciar estas centrales según dispongan de embalse de regulación o sean centrales de agua fluyente, entre las que
están las minicentrales.
En ambos casos, aunque tienen un valor diferente para su
inclusión en la curva de carga del sistema, se trata de una
energía renovable y autóctona con las ventajas correspondientes de reducción de importación de hidrocarburos y de
no tener impacto sobre el efecto invernadero.
La potencia de origen hidráulico instalada es de 18.648 MW,
que supone el 18% de la potencia total. Por ello, si se suman
todas las energías renovables, el sistema alcanza el 41% de
potencia renovable instalada; aunque, dada la variabilidad
de su funcionamiento, que depende del agua que baja por
los ríos, de la fuerza del viento y de la cantidad de luz solar,
la producción total representa solamente el 27% de la energía eléctrica producida en un año medio.
Las centrales hidráulicas, como queda dicho, dependen de
la regulación de que disponga el río en que se encuentran,
lo que en la práctica está ligado a la existencia de presas con
embalse suficiente para modular los caudales que se sueltan
al río. Esto se traduce en que hay dos tipos de centrales: las
que disponen de regulación que les permita generar energía
en el momento que resulte más conveniente para el sistema;
y aquellas otras que, en cambio, deben producir la energía
cuando pasa el agua fluyente. A este segundo tipo pertenecen las centrales situadas al pie de presas que deben atender
otros usos (abastecimiento, riego o caudal ecológico) y las
minicentrales.
Entre las centrales con regulación deben distinguirse, a su
vez, las centrales reversibles, que bombean agua desde un
embalse inferior a un depósito elevado, consumiendo energía sobrante en el sistema, lo que permite entregar su producción cuando se necesita mediante la turbinación del agua
almacenada en el depósito superior al embalse inferior. Proceso que puede hacerse repetidamente, puesto que se sigue
disponiendo del agua utilizada. En la figura 4 se ve el esquema
de la central de La Muela.
Este proceso reversible constituye, en tanto no se desarrollen
otras tecnologías, el método más adecuado de almacenar
grandes cantidades de energía para tenerla a disposición del
sistema eléctrico.
La potencia instalada en centrales reversibles es de 2.440 MW,
aunque hay varios proyectos en marcha para ampliarla.
Este proceso consume más energía en el bombeo de la que
luego se obtiene turbinando, por lo que la rentabilidad de
una inversión en este tipo de centrales depende de que se
disponga de energía excedente en algunos momentos o de
que se establezca un sistema de compensación económica
por almacenamiento de energía.
315
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
de energías no programables, como se ve en la figura 5, que
muestra la energía excedente en el valle que se aprovechó
para bombear y la correspondiente turbinación en las horas
punta de un día de gran demanda de energía eléctrica.
Fuente: UNESA.
Figura 5. Curva de carga de un día de gran demanda eléctrica
REE estima que en el año 2020 la probabilidad de estos vertidos puede alcanzar el 5% de la energía eólica producible
o casi el 4% de la producible por medios eólicos y solares.
Asimismo, cifra la frecuencia de ocurrencia de estos vertidos
entre el 4% y el 7% de las horas del año.
Fuente: foto cedida por Iberdrola.
Figura 4. Central reversible y esquema de la ampliación
de la central de la Muela (Valencia)
Según Red Eléctrica de España (REE) se están produciendo
ya excedentes de energía (especialmente eólica o solar), a los
que denomina vertidos, que en algunos momentos el sistema no puede absorber, como ocurre cuando la demanda
diaria en algunas horas es inferior a lo que el sistema suministra porque se esté produciendo una cantidad importante
316
Se estima que, para dar la punta extrema del sistema durante
un periodo comprendido entre 500 y 700 horas anuales, se
va a requerir una nueva potencia instalada comprendida
entre 5.000 y 7.000 MW. Esta potencia se puede conseguir
con centrales reversibles o con turbinas de gas, correspondiendo unos 3.000 MW a hidráulicas reversibles, por lo que
será necesario construir varias de las centrales de este tipo
que están en fase de planificación o proyecto, aprovechando
embalses existentes (como en el caso que muestra la figura 6),
El futuro de la tecnología de las presas y balsas
Fuente: Iberdrola.
Figura 6. Esquema de la central reversible San Esteban – San Pedro (Orense), aprovechando embalses existentes
y completar el esquema con otras infraestructuras como balsas, conducciones y, por supuesto, con nuevos equipamientos de turbinación y bombeo.
Por otra parte, las presas que dan lugar a los embalses de regulación que abastecen a las centrales hidroeléctricas, como
ya se ha dicho, tienen una edad media superior a los 45
años, por lo que paralelamente será necesario programar un
plan de modernización de instalaciones tanto en las propias
presas como en sus correspondientes centrales.
• Edad de las presas, con una media de 45 años, lo que hace
necesario proceder a reparaciones de las obras civiles (presas, balsas, conducciones, centrales, etc.) así como a la modernización de los equipos mecánicos y eléctricos, y a la actualización y automatización de los sistemas electrónicos
de adquisición de datos y de comunicación. La figura 7 muestra la evolución del número de presas en España y de la
edad de las mismas.
Gestión y conservación del patrimonio
hidráulico
Los efectos previstos del cambio climático y las necesidades
de almacenamiento masivo de energía, a su vez, van a agudizar los problemas de gestión y conservación del importante
patrimonio hidráulico español, entre los que se destacan los
siguientes, algunos de ellos ya mencionados:
• Capacidad de regulación real de los embalses, reducida progresivamente por la sedimentación en ellos de material sólido arrastrado por los ríos, especialmente en algunas zonas.
Fuente: SPANCOLD.
Figura 7. Edad en años de las presas españolas en explotación
317
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
• Adaptación a la nueva Normativa Técnica de Seguridad,
próxima a publicarse por el Ministerio de Medio Ambiente
y Medio Rural y Marino (MARM), que puede dar lugar a
cambios importantes en las presas y las balsas existentes,
así como en sus elementos de seguridad y en sus planes
de emergencia.
de presas, balsas y embalses. Actualmente es de uso normal
en varios países, especialmente en EEUU, y se cuenta con
buenos trabajos piloto en presas del Duero y del Ebro, realizados por profesionales españoles.
Campos de innovación
• Cambios producidos por la definición de las zonas inundables que está realizando el MARM de acuerdo con la
trasposición de la Directiva europea 2007/60/CE (Real
Decreto 903/2010, de 9 de julio). Los mapas de riesgo
de inundación deben estar concluidos antes del 1 de
junio de 2013 y los planes de gestión de riesgos antes
del 1 de junio de 2015. Las actuaciones destinadas a
delimitar y reducir los riesgos de inundación serán tanto
estructurales (presas, encauzamientos, reforestación, etc.)
como no estructurales (ordenación del territorio, limitación de usos del suelo en las zonas que pueden resultar
inundadas, etc.).
Estos factores van a necesitar de un importante esfuerzo innovador y de desarrollo de nuevas tecnologías, ya que los
métodos y herramientas actuales no permitirían hacer frente
a los problemas mencionados de forma que las inversiones
a movilizar sean de un orden de magnitud que permitan la
realización de los trabajos a emprender dentro de un marco
de optimización que tenga en cuenta las circunstancias actuales y futuras de restricción económica y de globalización.
Todo ello, partiendo de una cuidadosa planificación en la
que uno de los factores fundamentales será la disponibilidad
anual de fondos para acometer los trabajos, que naturalmente se priorizarán de acuerdo con la urgencia de las actuaciones dentro de una preocupación constante por la seguridad
de las poblaciones y la protección medioambiental.
Una herramienta ya disponible, y que aumentará progresivamente su aplicación, será el análisis de riesgos, que permite analizar, priorizar y servir de base a la planificación de
las actuaciones necesarias en una presa o en un conjunto
318
Para los retos mencionados y para aportar soluciones viables
económica y ambientalmente se debe contar, en primer
lugar, con los trabajos de los Comités Técnicos de ICOLD y
de sus homólogos de SPANCOLD, donde ya se apuntan posibles líneas de innovación contrastadas a nivel internacional.
A partir de esa base, y aunque con las cautelas lógicas, es
previsible que entre las innovaciones que se pondrán en
juego, alguna de ellas ya con avances en fase de investigación, estén las que se relacionan a continuación, que no pretenden ser ni exhaustivas ni limitativas, pero que responden
a necesidades sentidas actualmente por el sector para afrontar el futuro:
• Mejora de los métodos de medición del volumen de sedimentos existente en los embalses y sistematización de las
medidas para disponer de un conocimiento de la realidad
que permita planificar y priorizar las acciones necesarias.
• Determinación de actuaciones tendentes a evitar el acarreo de sólidos dentro de los embalses por erosión de las
cuencas vertientes.
• Investigación y puesta en práctica de un sistema de gestión ambiental para los sedimentos existentes en los embalses, analizando las posibles soluciones para reutilizarlos
o eliminarlos de forma no dañina para el medio ambiente.
• Mejora de modelos matemáticos de gestión de sistemas
de embalses en cadena, con determinación de los puntos
débiles y optimización de las inversiones para adaptarlos
a nuevas disposiciones normativas.
El futuro de la tecnología de las presas y balsas
• Nuevos materiales para reparación del hormigón de las
propias presas o de elementos auxiliares de las instalaciones.
• Nuevos materiales y procedimientos de tratamiento de los
terrenos en los que se cimentan las presas, reduciendo filtraciones.
• Implantación de nuevos sistemas de reducción de costes
de construcción, analizando la posible aplicación de los
trabajos del Committee on Cost Savings de ICOLD, actualmente en fase de publicación.
• Nuevos sistemas automatizados de auscultación y comunicación a largo plazo de los datos esenciales sobre el
comportamiento de las presas y sus terrenos de apoyo,
con medida fiable y rápida de su evolución en el tiempo.
• Desarrollo de equipos ágiles y fiables de control de avenidas y desagües, y de turbinación y bombeo.
• Sistemas de ahorro de energía en todos los elementos de
las presas, balsas, equipos mecánicos, eléctricos, electrónicos, de auscultación, etc.
• Análisis e implantación de sistemas seguros y fiables de
aviso a las poblaciones próximas a las presas y balsas que
requieran disponer de planes de emergencia.
• Normalización de procedimientos para inspección de presas y balsas existentes, teniendo en cuenta la experiencia
de comportamiento durante la vida de cada instalación.
• Métodos de aviso temprano para policía de las zonas inundables, en lo que respecta a posibles edificaciones en
dichas zonas, con información simultánea a los distintos
niveles administrativos.
• Y como complemento imprescindible para gestionar adecuadamente la explotación y la seguridad de las presas y
las balsas, programas máster y módulos especializados
para formación tanto de personal titulado como auxiliar.1
Alcanzar los objetivos enunciados requiere la puesta en valor
de los conocimientos científicos y técnicos actuales; y, especialmente, una disposición clara hacia la innovación para
poder disponer de las tecnologías necesarias para los nuevos
retos de la gestión sostenible del agua.
En esta labor, el Comité Nacional Español de Grandes Presas participa mediante la gestión y difusión del conocimiento, con los trabajos que desarrollan los Comités Técnicos, que están abiertos a la colaboración de todos los
profesionales del sector, así como con la celebración de
jornadas técnicas.
PERSPECTIVAS INTERNACIONALES PARA LA
TECNOLOGÍA DE PRESAS Y BALSAS
El alto nivel conseguido por la tecnología española de presas
ha permitido, como queda dicho, que se haya producido una
participación significativa de empresas y profesionales españoles en el desarrollo hidráulico de otros países. Sin contar
las numerosas actuaciones de los profesionales que han colaborado como asesores, hay 67 presas construidas por empresas españolas y otras 47 en las que los proyectos han sido
realizados por empresas de ingeniería, a los que hay que
sumar las presas que ahora están en fase de construcción.
En todos los casos, se da una estrecha colaboración con las
empresas y los profesionales locales, lo que hace que se produzca una continua transferencia de tecnología española de
presas a esos países, que también se da a través de las guías
1 En este sentido, hay que destacar el Máster Internacional en Explotación y Seguridad de Presas y Balsas, iniciado en 2010. Promovido
por SPANCOLD, el Colegio de Ingenieros de Caminos, Canales y
Puertos y las Fundaciones Caminos y Agustín de Betancourt, cuenta
con el reconocimiento como máster propio de la Universidad Politécnica de Madrid.
319
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
técnicas de SPANCOLD utilizadas habitualmente en varios
países centro y sudamericanos.
se ha ido produciendo por otras causas e independientemente
de la disponibilidad de este recurso renovable.
Las perspectivas de exportación de tecnología están, como
es lógico, directamente ligadas con las demandas de agua
no cubiertas en países emergentes o en desarrollo. Las posibilidades son muy amplias y están limitadas fundamentalmente por las dificultades de obtener financiación, ya que la
distribución de la población en el mundo no se corresponde
con la disponibilidad del recurso (véase la figura 8).
Además de la producción de alimentos y el abastecimiento
y saneamiento, otra de las carencias en muchas zonas es la
de la energía, y ahí juega un papel muy importante la hidráulica que, al ser renovable y autóctona, evita el consumo de
combustibles fósiles cuya combustión influye decisivamente
en la emisión de gases de efecto invernadero.
También entre los países emergentes (como China o Perú)
y en algunos de la Unión Europea (como la presa ya mencionada en Bulgaria) se están impulsando importantes proyectos hidráulicos, en algunos de los cuales la tecnología
española está colaborando con las empresas locales que
disponen también de experiencia acreditada pero que valoran las oportunidades de aprovechar las innovaciones
realizadas por países con tecnología madura como España.
La figura 9 corresponde al proyecto de defensa contra avenidas del río La Leche en Perú, mediante las presas de La Calzada y Calicantro, donde se cuenta con la colaboración de
expertos españoles.
Fuente: World Council of Civil Engineers (WCCE).
Figura 8. Población y recursos hidráulicos en el mundo
La superpoblación de algunas zonas se ha producido de manera independiente de la disponibilidad de agua en las mismas,
lo que ha creado unos problemas muy importantes de producción de alimentos junto con unas condiciones sanitarias muy
deficientes que repercuten de forma severa en la salud y en los
índices de mortalidad. Este problema acuciante afecta a numerosos países, especialmente en África, pero también hay
regiones en las que se dispone de un volumen de agua por
encima de la demanda total, y el crecimiento de la población
320
Fuente: foto cedida por GEOPROB.
Figura 9. Proyecto de regulación del río La Leche (Perú)
El futuro de la tecnología de las presas y balsas
Por todo ello, puede decirse que la exportación de las tecnologías de presas, balsas y otras asociadas con ellas puede
tener un futuro prometedor siempre que las empresas sigan
trabajando con espíritu innovador, mostrando la competitividad que les proporciona el dominio de dichas tecnologías,
y que cuenten con un apoyo institucional claro; apoyo que
además debería reforzarse con unas condiciones de financiación adecuadas, las cuales pueden proporcionar un retorno económico importante y constituir una fuente de empleo
para los distintos profesionales del sector.
Referencias bibliográficas
• Berga Casafont, Luis. Manifiesto sobre la energía eléctrica
2011. Conferencia inaugural. Jornada sobre el futuro del
sistema eléctrico español. Colegio de Ingenieros de Caminos, Canales y Puertos. Madrid, 2011.
• Capote del Villar, Antonio; Abadía Anadón, Fernando y
Flórez Casillas, Víctor E. “Construcción de presas en el
exterior. Periodo entre Congresos Barcelona 2006 y Brasilia
2009”. Revista de Obras Públicas, N.º 3.509. Madrid, 2010.
pp: 159—178.
• Carbajo Josa, Alberto (REE). Visión desde la seguridad de
la operación del sistema eléctrico. Jornada sobre el futuro
del sistema eléctrico español. Colegio de Ingenieros de
Caminos, Canales y Puertos, Madrid, 2011.
• De Cea Azañedo, Juan Carlos y Sánchez Cabezas, Francisco
Javier. “Gestión de la seguridad de presas”. Revista de Obras
Públicas, N.º 3.509. Madrid, 2010. pp: 73—82.
• ICOLD (International commission on large dams). Boletines
técnicos y documentación de los Congresos internacionales de grandes presas, así como de las reuniones anuales
de los Comités Técnicos. (www.icold-cigb.org).
• ICOLD EUROPEAN CLUB SYMPOSIUM. Dam safety. Sustainability in a changing environment. Organizado por
ATCOLD (Austrian National Committee On Large Dams).
Innsbruck, 2010.
• Marcos Fano, José M.ª (UNESA). El sistema eléctrico en el
entorno 2020. La sostenibilidad técnica, ambiental y económica. Jornada sobre el futuro del sistema eléctrico español. Colegio de Ingenieros de Caminos, Canales y Puertos.
Madrid, 2011.
• Moreno Rodríguez, José Manuel (UCLM, miembro del
panel internacional de expertos sobre el Cambio Climático). Jornada de presentación y debate de la Carta
del Agua Zaragoza 2008 organizada por SPANCOLD.
Madrid, 2008.
• Ministerio de Medio Ambiente y Medio Rural y Marino.
Manual para el diseño, construcción, explotación y mantenimiento de balsas. CEDEX—SPANCOLD. Madrid, 2010.
• Navalón Burgos, Baldomero y Gómez Martín, Patricia
(Iberdrola). Visión de los productores. Generación hidráulica. Jornada sobre el futuro del sistema eléctrico español.
Colegio de Ingenieros de Caminos, Canales y Puertos.
Madrid, 2011.
• Díaz—Guerra, Belén (REE). Sistema eléctrico español en el
año 2020: necesidad del almacenamiento en la operación
del sistema. Jornadas técnicas 2010. Cigré, España.
• Polimón López, José. Tratamiento de puntas de demanda
por el sistema hidroeléctrico. Jornada técnica “El debate
sobre el futuro energético”. Colegio de Ingenieros de Caminos, Canales y Puertos. Zaragoza, 2009.
• Girón Caro, Fernando y Vázquez Brea, Fernando. “Mejora
de presas existentes”. Revista de Obras Públicas, N.º 3.509.
Madrid, 2010. pp: 65-72.
• Polimón López, José. Futuro de las presas y las balsas.
Retos y necesidades. Encuentros CEDEX “Retos tecnológicos de la política de aguas en España”. Enero 2010.
321
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
• Polimón López, José y Girón Caro, Fernando. “El Máster
Internacional en explotación y seguridad de presas y balsas”. Revista de Obras Públicas, N.º 3.509. Madrid, 2010.
pp: 93—98.
• Sánchez Caro, Francisco Javier. “Presas y Cambio climático”. Revista de Obras Públicas, N.º 3.493. Madrid, 2008.
pp: 117-124.
• Sancho Marco, Tomás S. y Colón, Emilio. “La ingeniería,
respuesta imprescindible al reto del agua para todos y
el desarrollo sostenible”. Ingeniería y Territorio, N.º 91.
Barcelona, 2011.
• Saura Martínez, Juan. “El fenómeno de las inundaciones:
La riada del Guadalquivir en el pasado invierno 20092010”. Revista de Obras Públicas, N.º 3.512. Madrid, 2010.
pp: 7—20.
• SPANCOLD (Comité Nacional Español de Grandes Presas).
Las Presas en España. Colección ciencias, humanidades e
322
ingeniería. Colegio de Ingenieros de Caminos, Canales y
Puertos. Madrid, 2008.
• SPANCOLD. Jornada de presentación y debate de la Carta
de Zaragoza 2008. Madrid, 2008.
• SPANCOLD. Guías Técnicas, documentación de las Jornadas de presas y balsas, publicaciones, etc. (www.spancold.es).
• SPANCOLD. Jornada técnica de análisis y evaluación de
riesgos. Una herramienta innovadora para la gestión de
presas y embalses. Valladolid, 2009.
• SPANCOLD. Jornada de innovación y tecnología internacional en presas y balsas. Retos actuales y futuros. Madrid,
2011.
• Yagüe Córdova, Jesús y De Cea Azañedo, Juan Carlos.
“Evolución de las presas en España”. Revista de Obras Públicas, N.º 3.493. Madrid, 2008. pp: 73-88.
Aplicación de la nanotecnología en construcción: creación de una empresa de base tecnológica
Aplicación de la nanotecnología en construcción: posible evolución
ANTONIO PORRO GUTIÉRREZ
(Madrid, 1955)
Director de Tecnología de la Unidad de Construcción
de Tecnalia Research And Innovation
Doctor en Ciencias Químicas.
Inició su carrera profesional en el Departamento de I+D de la
Compañía Hispanoamericana de Pinturas. En 1984 entró como
investigador en Labein, hoy incorporado a Tecnalia, donde ha sido
Jefe de Línea Tecnológica “Durabilidad de Materiales”, Jefe de
Laboratorio de Química y Medio Ambiente, Jefe de Línea Tecnológica “Materiales”, Gerente de NANOC (Aplicación de Nanomateriales en Construcción), y que en 2005 ha sido reconocida como
Unidad Asociada al CSIC a través del Instituto de Ciencias de la
Construcción Eduardo Torroja.
Ha sido Representante de Eurolab en el Grupo de Trabajo
conjunto EA-EUROLAB–EURACHEM-EUROMET, WorkGroup Selection and use of Reference Materials y Miembro del Advisory Committee
de la Red de Excelencia NANOQUANTA.
Actualmente es experto evaluador de propuestas en el Programa Europeo SMT (Standards, Measurements and Testing), de la DG XII
de la Comisión Europea; Evaluador de la ANEP (Plan Nacional de
Materiales); Miembro de la Delegación Europea en el Workshop
From Nanomaterials to Nanotechnology, organizado conjuntamente
por la National Science Foundation y la Comisión Europea;
Experto evaluador y miembro del Panel Nano and Bio Mechanics of
Materials del Nanotechnology Interdisciplinary Research Team, de
la National Science Foundation de los EEUU; experto evaluador
de propuestas del 7.º Programa Marco, Prioridad temática NMP;
Miembro del Ad-hoc Advisory Group on Industrial Nanotechnologies,
DG Research de la Comisión Europea; y Visiting Professor en la
Faculty of Science and Technology de la University of the West
of Scotland.
Aplicación de la nanotecnología en construcción:
creación de una empresa de base tecnológica
Antonio Porro Gutiérrez
RESUMEN
En el presente capítulo se presenta el proceso seguido en la
transformación de una idea, o concepto tecnológico, en un
activo tecnológico capaz de producir beneficios en el mercado.
El proceso comienza con la formación, en el seno de Tecnalia,
de un grupo (NANOC) dedicado a la generación de derechos
de propiedad industrial y posterior explotación de los mismos.
Continúa con el desarrollo de un programa de investigación
específico, que permite la solicitud de diversas patentes de
productos y procesos industriales y concluye con un proceso
que conduce a la creación de una empresa (NACOALIA) dedicada a la explotación del activo generado.
PROCESO DE CREACIÓN DE NANOC
Las características de la nanotecnología son ampliamente
descritas en el capítulo siguiente. Atendiendo a tales características, y siendo consciente de la enorme potencialidad
que este nuevo campo de investigación podía suponer, la
Unidad de Construcción de Tecnalia Research & Innovation,
que por el año 2001 era aún LABEIN-Tecnalia, decidió crear
un grupo especialmente dedicado a la investigación y el desarrollo de las aplicaciones de la nanotecnología en el sector
de la construcción. El grupo debía estar enfocado en la generación de una base de propiedad industrial, que permitiese
posteriormente desplegar una política de explotación de los
derechos derivados de ella. Además, debería tener un carácter multidisciplinar y ser capaz de colaborar con otros grupos
de investigación, así como con la industria. El resultado fue
la creación, en 2002, del Centro de aplicaciones de nanomateriales en construcción (NANOC).
NANOC está concebido como una plataforma para el desarrollo de las capacidades tecnológicas claves que permitan a
la industria de la construcción utilizar la nanotecnología como
herramienta de competitividad. Esta formulación implica que,
desde el punto de vista de la tecnología, el equipo de investigadores de NANOC debe:
327
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
• Distinguir, entre toda la serie de conocimientos necesarios
para el desarrollo de su misión, cuáles son claves y cuáles
de carácter instrumental.
Necesidades de la industria /mercado
Productos / procesos
• Conseguir el dominio de los conocimientos claves.
• Conseguir la colaboración de aquellos grupos de investigación que dominan los conocimientos instrumentales.
El hecho de considerar a la nanotecnología como una herramienta de competitividad, entraña también una serie de implicaciones tales como:
• Este conocimiento, generado bajo un esquema de colaboración, ha de tener por objetivo la resolución de problemas sectoriales específicos no resueltos, lo que significa
la transformación del conocimiento en productos de alto
valor añadido.
• Estos productos han de ser capaces de generar oportunidades de negocio en el mercado.
• Para conseguir estos fines, además del dominio de la tecnología, es necesario entender las claves de funcionamiento del mercado de la construcción, como aspecto esencial
para conseguir que esas oportunidades de negocio sean
tales.
328
Campo de juego de NANOC
Conocimiento tecnológico
Conocimiento científico básico
Fuente: Tecnalia.
Figura 1. Esquema de posicionamiento de NANOC
Por otra parte, fruto del conocimiento científico se generan
una serie de conocimientos tecnológicos específicos. En esta
situación, el “campo de juego” de NANOC se sitúa en ese
espacio central, enlazando diferentes “casillas” de conocimiento tecnológico, para dar lugar a otras “casillas” de producto o proceso.
• Esas claves de funcionamiento del mercado han de ser
interpretadas como formas de incrementar la cuenta de
resultados de aquellas empresas que mantienen relaciones
con NANOC.
En lo que se refiere a la forma de transferencia tecnológica,
se optó por la vía de la explotación de la propiedad industrial,
bien mediante el desarrollo de proyectos de carácter estratégico para las empresas relacionadas con NANOC, o bien
mediante la concesión de licencias de la propiedad industrial,
contemplando también la creación de empresas destinadas
al negocio de la explotación industrial de aquellos productos
que reúnan una serie de características apropiadas a este
efecto.
Desde un punto de vista esquemático, en la figura 1, se puede
apreciar cuál es el espacio que ocupa NANOC entre el conocimiento tecnológico y el mercado. El mercado marca unas
necesidades que ha de satisfacer la industria. Esas necesidades se pueden traducir en términos de productos o procesos
específicos.
El carácter multidisciplinar del equipo está garantizado por
la formación de la veintena de personas que lo componen,
que cubre campos tales como las ciencias químicas (química
física, química orgánica y química inorgánica), ciencias físicas
(física teórica y física de la materia condensada) ciencias geológicas (cristalografía y mineralogía), ingeniería industrial, e
Aplicación de la nanotecnología en construcción: creación de una empresa de base tecnológica
ingeniería de caminos, canales y puertos. Más de la mitad
de ellas están en posesión del grado de doctor y, o bien lo
han obtenido en una universidad extranjera, o bien han tenido una estancia superior a un año en un centro de investigación o universidad extranjeros. De esta forma se consigue una adecuada visión desde diferentes puntos de vista,
aportando culturas o experiencias de trabajo de muy diversa
procedencia, lo que se consideró esencial para el adecuado
desarrollo del programa de trabajo.
Aunque la misión del Centro es la de generar oportunidades
de negocio basadas en la nanotecnología, en el seno del
grupo se preparan una o dos tesis doctorales al año, lo que
es un indicador del nivel científico del mismo. Desde el punto
de vista de las técnicas utilizadas, en NANOC se utiliza una
combinación de técnicas experimentales avanzadas, como la
simulación numérica multiescalar, utilizando entre otras técnicas: simulación ab-initio; molecular dynamics; brownian
cluster dynamics; Monte Carlo; etc. La aproximación que se
sigue es una integración de la ciencia y la ingeniería de materiales (véase la figura 2) en la que precisamente la modelización multiescalar es el nexo de unión entre la estructura y las
prestaciones del material en cuestión. Este es un aspecto sumamente importante, ya que la nanotecnología ha de permitir el control de la estructura del material en la nanoescala,
Prestaciones
Ingeniería de materiales
Fabricación
Modelización
multiescalar
Propiedades
Ciencia de materiales
Estructura
Fuente: Tecnalia.
Figura 2. Integración de conocimientos
en tanto que la utilización de un material para un determinado uso depende de las prestaciones macroscópicas del
mismo.
El área de trabajo de NANOC es la correspondiente a los materiales de construcción, y más en concreto a aquellos de matriz
inorgánica, como son el cemento y sus derivados (morteros
y hormigones), así como los silicatos y sílico-aluminatos (aerogeles, geopolímeros, zeolitas, etc.), incluyendo revestimientos
de matriz inorgánica, con propiedades especiales.
Para conseguir los resultados deseados, los investigadores de
NANOC trabajan en dos grandes ámbitos: uno el de la modificación de las matrices, recurriendo a técnicas de autoensamblado o de hibridación orgánico-inorgánica. El otro ámbito es el de introducción de determinadas estructuras
capaces de conferir otras propiedades a los materiales. Entre
ellas se incluye la adición de nanoestructuras o de materiales
encapsulados.
La política de alianzas es otro apartado esencial en el trabajo
de NANOC, de ahí que se preste especial atención al establecimiento de colaboraciones estables a lo largo del tiempo
con otros grupos, centros o instituciones, buscando la existencia de complementariedades que permitan generar sinergias, así como objetivos de mutuo interés, bien en el campo
de la investigación, bien en el del desarrollo de productos, o
en ambos. Fruto de esta política es: el convenio por el que
se reconoce a NANOC como Unidad Asociada al CSIC a través del Instituto Eduardo Torroja de Ciencias de la Construcción, con el nombre de Unidad de Materiales Nanoestructurados y Ecoeficientes para Construcción; y la colaboración
con el Centro de Investigación Cooperativa en Nanociencia
(CIC nanoGUNE Consolider), desde su creación, como parte
de su estructura virtual.
Desde su creación, el equipo de investigadores de NANOC
ha solicitado un total de siete patentes, de las que tres
están concedidas; una de ellas se ha extendido a siete países y otra a seis. La tercera es únicamente española. De las
329
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
cuatro restantes, dos han sido ya publicadas y las otras dos
fueron solicitadas en 2010. Finalmente, hay que señalar que
se ha creado una empresa con el fin de explotar industrialmente uno de los productos recientemente desarrollados.
desplegar una estrategia de investigación abierta, integrando
los resultados de otros grupos en los de NANOC, a la vez que
fomenta una transferencia de tecnología, basada en la explotación de los derechos de propiedad industrial generados
al alcanzar el objetivo primero.
FORMA DE TRABAJO EN NANOC
• El proceso seguido en NANOC se inicia con una primera
acción doble de vigilancia. Por una parte, la del conocimiento científico-tecnológico de las áreas de competencia
del Centro, siguiendo la evolución del conocimiento y los
avances conseguidos por otros grupos. Por otra parte,
como centro tecnológico, es necesario mantener una vigilancia de la evolución del mercado, dada la importancia
del conocimiento del mismo y de sus resortes. Este último
aspecto es esencial para conseguir la plena adecuación de
las soluciones tecnológicas desarrolladas a las necesidades
del mercado.
Los objetivos de NANOC son de dos tipos diferentes, según
su naturaleza:
• Científico-tecnológicos:
1. Desarrollo de materiales con prestaciones extraordinarias.
2. Conocimiento de la nanoestructura de los materiales,
buscando establecer la conexión nano-macro.
3. Modelización multiescala de materiales.
• De posicionamiento:
4. En la cadena de valor de Tecnalia, buscando el establecimiento de oportunidades de negocio basadas en la
aplicación de la nanotecnología.
5. En el sistema ciencia-tecnología-empresa, desarrollando
una interlocución con grupos de investigación de excelencia (líderes internacionales) y empresas con visión y
vocación innovadoras.
De estos cinco objetivos, los esenciales son los indicados en
primer y cuarto lugar. El desarrollo de materiales con prestaciones extraordinarias permite dar respuestas a problemas
no resueltos. Por otra parte, estos desarrollos han de tener
impacto en el negocio del cliente, al ofrecer nuevas oportunidades. Los objetivos segundo y tercero son los que permiten alcanzar el primero, al proporcionar la base de conocimiento necesaria, en tanto que el objetivo quinto permite
330
• La segunda acción corresponde a la identificación de
oportunidades para el desarrollo de soluciones tecnológicas (que pueden ser de muy diversa naturaleza) que den
respuesta a necesidades del mercado, y cuya cobertura
pueda suponer una mejora en la posición en el mercado
de la empresa que ofrezca dicha respuesta.
• La tercera acción es el desarrollo de la solución en sí. Este
proceso tiene cuatro etapas diferentes:
— Análisis conceptual de la solución.
— Análisis de las posibilidades de su implementación.
— Desarrollo o adquisición de los conocimientos necesarios.
— Transformación de los conocimientos en un proceso
que lleve a un producto, o al producto en sí.
Este último punto es el neurálgico del proceso de desarrollo, ya que tras su breve formulación se encuentra la totalidad del proceso de investigación y desarrollo del producto en sus diferentes fases:
Aplicación de la nanotecnología en construcción: creación de una empresa de base tecnológica
— Fase de desarrollo básico o inicial, que finaliza con la
prueba de concepto.
— Fase de desarrollo tecnológico y de demostración, que
concluye con la validación de un prototipo preindustrial.
— Fase de despliegue industrial.
• La cuarta acción es la protección del conocimiento generado (propiedad industrial).
• La quinta y última acción es la explotación de los derechos
de propiedad obtenidos, lo que implica un análisis y decisión sobre la forma óptima de explotación.
Los conocimientos necesarios se desarrollan en el marco de
un programa de investigación, que se revisa cada tres años,
y que cubre las etapas de investigación que suponen un
mayor riesgo tecnológico. Algunos de los componentes de
este programa se desarrollan siguiendo un esquema de colaboración con otros grupos de investigación. Esta interacción se considera esencial para el adecuado progreso de
NANOC, a la vez que permite acelerar las fases iniciales del
proceso de investigación. El trabajo en colaboración se refleja
en la publicación de artículos científicos en revistas indexadas
y en la presentación de ponencias en congresos de ámbito
internacional. Otro punto relevante es el intercambio de investigadores, con un programa de estancias de los investigadores de NANOC en otros centros por periodos comprendidos entre uno y tres meses.
EXPLORANDO UNA IDEA: REVESTIMIENTOS
FOTOCATALÍTICOS
El sector de la construcción ha mostrado interés por las posibilidades que ofrecen determinadas nanopartículas de mostrar una actividad fotocatalítica al ser iluminadas por la luz
solar, es decir, que bajo iluminación natural se pueden producir determinadas reacciones químicas en su superficie, sin
que estas nanopartículas se consuman. Dicho interés quedó
plasmado en la Agenda Estratégica de Investigación de la
PTEC (Plataforma Tecnológica Española de Construcción).
Pero antes incluso de la creación de esta plataforma, ya en los
trabajos de la red E-CORE (European Construction Research
Network) de investigación en construcción (2001-2005), se
identificó el interés por este tipo de desarrollos. En Japón
se había despertado aun antes el interés industrial por los
trabajos sobre fotocatálisis del profesor Fujishima.
En esta situación, NANOC decidió incluir esta temática en el
proyecto NANOMAT, que fue parcialmente financiado por
el Departamento de Industria, Comercio y Turismo del Gobierno vasco en el marco del programa de investigación estratégica ETORTEK en el periodo 2002-2004, posteriormente
continuado en el proyecto NANOMATERIALES (2005-2007),
también financiado por el citado programa. En este marco,
se realizó un trabajo sobre las posibilidades de la aplicación
de nanopartículas de dióxido de titanio (TiO2) en su forma
cristalográfica anatasa, para obtener revestimientos aplicados
sobre acero inoxidable y acero recubierto con materiales poliméricos, que diesen lugar a superficies que se mantuviesen
limpias sin intervención humana (conocidas como superficies
autolimpiables).
El mecanismo de funcionamiento es consecuencia del carácter semiconductor del TiO2 en forma anatasa, que al ser iluminado por la luz solar genera un par electrón-hueco, que
es el responsable del desencadenamiento de toda una serie
de reacciones químicas que, en presencia de luz y humedad,
dan lugar a la eliminación de la suciedad depositada sobre
estas partículas.
Los trabajos realizados pusieron de manifiesto que los revestimientos obtenidos a partir de este tipo de material pueden
dar lugar a toda una serie de propiedades de alto interés tecnológico —que van desde la superhidrofilicidad al carácter
bactericida, pasando por la autolimpieza o la eliminación de
contaminantes— que, si son adecuadamente tratadas, pueden dar lugar a oportunidades de negocio para las empresas
que se decidan a trasladar su oferta al mercado.
331
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
El análisis de las posibles vías de obtención de revestimientos
de esta naturaleza puso de manifiesto que existían tres grandes tipos de técnicas para la aplicación de los mismos:
• La aplicación química en fase vapor (conocida por sus siglas en inglés, CVD).
• La aplicación térmica.
• La vía sol-gel.
DE LA “PRUEBA DEL CONCEPTO” AL PRIMER
CONTRASTE CON LA INDUSTRIA
Tal y como se ha indicado en el apartado anterior, el principal
objetivo marcado, en lo que se refiere al tipo de superficie a
recubrir, fue la del acero inoxidable, ya que su uso en construcción puede estar ligado al mantenimiento de las condiciones estéticas de la superficie. Pero dado que este mercado, por su volumen, puede ser considerado “de nicho”, se
decidió incluir como objetivo adicional la posibilidad de aplicación del revestimiento sobre superficies poliméricas, y especialmente sobre pinturas.
Esta decisión implicó una fuerte restricción respecto de la
forma de aplicación del revestimiento, ya que dejaba fuera de
juego a los tratamientos que implican altas temperaturas, necesarios para asegurar que el revestimiento final aplicado sobre
la superficie estuviese compuesto por nanopartículas de TiO2
en forma anatasa. Por otra parte, para conseguir las propiedades pretendidas el revestimiento buscado no podía ser una
pintura ya que, por una parte, es necesario que la mayor parte
de la superficie de las nanopartículas esté expuesta al medio
en cuestión, lo que llevaría a un contenido en pigmento por
encima de su concentración crítica, en volumen. Y por otra
parte, el ligante utilizado ha de tener una gran resistencia química, ya que en la superficie de las nanopartículas aparecerá
una elevada alcalinización del medio, como consecuencia de
la acción fotocatalítica, que degradaría el ligante.
332
En estas circunstancias, la única opción viable para obtener
un revestimiento con las propiedades fotocatalíticas buscadas, que a la vez fuera transparente y permitiera que, en
casos como el de su aplicación sobre acero inoxidable, este
mantenga su apariencia metálica, era la vía sol-gel.
Siguiendo estas premisas se desarrolló en laboratorio un producto que, aplicado por inmersión y tras un curado térmico
a una temperatura de 105 ºC, formaba un revestimiento
sobre chapa de acero inoxidable.
Sobre la base de este desarrollo se estableció y superó una
“prueba de concepto”, o lo que es lo mismo, la prueba de
la viabilidad de desarrollar un producto que cumpla unas
condiciones determinadas, que en el presente caso se establecieron en demostrar que el revestimiento posee actividad
fotocatalítica (mediante el ensayo del azul de metileno,
según la norma japonesa JIS 1703-2:2007) y que el recubrimiento tiene una distribución uniforme del TiO2 (determinada mediante microscopía electrónica de barrido). El producto
obtenido era un revestimiento que, con un espesor que
puede oscilar entre 200 y 1.000 nm, daba cumplida satisfacción a los requisitos fijados.
En ese momento era claro que la tecnología resultaba viable,
pero la prueba se había realizado únicamente en laboratorio,
lo que constituye un requisito necesario, pero no suficiente,
de cara a su explotación industrial. Por esta razón se decidió
participar en un proyecto del Programa NMP, enmarcado en
el 6.º Programa Marco de Investigación de la Comisión Europea, que permitiese evaluar las posibilidades reales de explotación del producto desarrollado en laboratorio. De esta
forma se vio que era posible adaptar el producto a determinados criterios industriales, centrados en la incorporación de
la aplicación del mismo en una línea industrial, a la vez que
acortar los tiempos de curado, por debajo de un minuto, así
como variar la forma de aplicación. Las pruebas preindustriales realizadas dieron resultados satisfactorios, con lo que se
consideró superada la prueba de la tecnología en un ambiente industrial representativo.
Aplicación de la nanotecnología en construcción: creación de una empresa de base tecnológica
Una vez alcanzado este punto, la siguiente etapa consistió
en acotar determinados parámetros de fabricación de cara
a la industrialización, así como en la evaluación de la posible ampliación, tanto de las técnicas de aplicación del producto como del tipo de sustrato a recubrir. Para estas fases
se contó con el apoyo económico del Departamento de Promoción Económica de la Diputación Foral de Bizkaia y de
la Sociedad para la Promoción y Reconversión Industrial del
Gobierno vasco. Dos aspectos relevantes de esta parte del
proceso de desarrollo fueron la demostración de que, junto
a las propiedades de autolimpieza, el revestimiento poseía
una actividad biocida muy buena (determinada según JIS Z
280) y capacidad de eliminación de contaminantes, expresada como eliminación de acetaldehído en una corriente
de aire con 3 ppm del citado producto químico. Estos ensayos fueron realizados en Tsukuba, en el National Institute
for Advanced Industrial Science and Technology (AIST) de
Japón, durante una estancia de uno de los investigadores
de NANOC en el citado centro. Otro aspecto relevante de
esta parte del desarrollo fue la obtención de revestimientos
fotocatalíticos aplicados sobre vidrio, manteniendo la transparencia del soporte.
conocimiento que dio lugar a la solicitud de patente Recubrimientos fotocatalíticos híbridos, procedimiento para aplicarlos sobre distintos sustratos y usos de los sustratos así
recubiertos (PCT/ES2010/070775).
Respecto de la explotación del conocimiento generado, se
inició el análisis en sí, abordando cinco aspectos diferentes
que constituyen la propuesta de negocio al respecto. Dicho
trabajo fue realizado con la colaboración de ADL Consultores.
El análisis se inició mediante la identificación de la matriz de
posición competitiva, de cara a identificar cuáles habían de ser
las acciones a tomar al respecto. Los factores analizados de
cara al posicionamiento en la citada matriz fueron:
• Factores de atractivo del mercado:
— Barreras de entrada/salida.
— Rentabilidad del sector.
— Potencial de diferenciación en el sector.
— Potencial de crecimiento.
DECISIÓN SOBRE LA FORMA ÓPTIMA DE
EXPLOTACIÓN
En paralelo al desarrollo tecnológico indicado, se llevó a cabo
otro proceso dedicado al análisis de las posibilidades óptimas
de explotación del conocimiento que se estaba generando
respecto de un producto cuyo desarrollo mostraba signos de
poder ser convertido en un producto industrial de éxito.
La primera decisión fue la protección de la propiedad industrial. Esta se ha traducido en la solicitud de la patente Procedimiento para obtener revestimientos fotocatalíticos sobre
sustratos metálicos (PCT/ES2009/070113).
Durante el proceso de desarrollo indicado, además de la
puesta a punto del producto original, se desarrolló un nuevo
— Tipo de competidores.
— Tamaño del mercado.
— Poder de negociación de los clientes.
— Intensidad de la inversión.
• Factores de posición competitiva:
— Nivel de precios.
— Liderazgo tecnológico y know how.
— Diferenciación de competidores.
— Cuota del mercado.
— Gama de productos y servicios.
— Sistema de distribución.
333
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
La posición resultante en la matriz (véase la figura 3) corresponde a: “esfuerzo en inversión y crecimiento”, siendo un
negocio de alto atractivo, pero que precisa de unos precios
adecuados. Estos resultados suponían la confirmación de que
la mejor forma de explotación del conocimiento generado
era la creación de una empresa de base tecnológica que ofreciese el producto al mercado.
Matriz de posición competitiva
baja
250
Atractivo del mercado
media
alta
300
Selección
oportunista
Inversión y
crecimiento
selectivo.
Para mejorar la
posición competitiva
Esfuerzo en inversión
y crecimiento.
(productos prioritarios
para asignar recursos)
Desinversión
controlada
(a través de
tácticas invisibles
para los clientes)
Prudencia en la
asignación de
recursos y
selectividad vía
segmentación
Inversión y
crecimiento
selectivo.
Para mantener la
posición competitiva
Desinversión rápida.
No invertir
(concentrar los
esfuerzos en
productos prioritarios)
Abandono.
No dedicar recursos
a largo plazo
(desinversión parcial
vía segmentación)
Productos
vaca lechera
• Se trata de un recubrimiento de alta calidad con propiedades fotocatalíticas (autolimpieza, bactericida y purificación de aire), que ofrece buena adherencia, flexibilidad (el
producto revestido puede ser conformado) y transparencia, manteniendo al mismo tiempo las propiedades intrínsecas del sustrato recubierto con este producto. El rendimiento del mismo (en gramos por metro cuadrado) es
elevado, su proceso productivo es sencillo y su aplicación
en líneas industriales no difiere de la forma de aplicación
de las pinturas industriales.
200
150
El segundo aspecto tratado se refirió a la evaluación del
grado de desarrollo del producto alcanzado de cara a su aplicación industrial, la estimación del valor añadido del mismo
y su diferenciación.
100
50
• El producto obtenido puede ser aplicado industrialmente,
mostrando la flexibilidad necesaria para adaptarse a diferentes cadencias de producción. Su elevado rendimiento lo
hace muy atractivo. Por el momento no hay en el mercado
productos que ofrezcan el mismo conjunto de propiedades.
0
0
50
100
150
200
250
300
Posición competitiva
baja
media
alta
Fuente: Tecnalia.
Figura 3. Matriz de posición competitiva
Una vez tomada la decisión al respecto, el trabajo continuó
mediante el desarrollo de los puntos reflejados en los apartados que a continuación se describen.
Análisis de la propuesta de valor
El análisis de la propuesta de valor se inició mediante una
descripción clara y concisa del producto desarrollado, de
334
forma que se pudiese poner en evidencia cuál era el grado
de novedad del mismo frente a otros productos que pudiesen existir en el mercado.
El tercer aspecto se centró en las posibilidades de protección
frente a imitadores del producto, no solo desde el punto de
vista legal, sino desde el punto de vista de las posibilidades
de mantenimiento de una ventaja competitiva por evolución
del producto. Este punto se cerró con un análisis de los posibles productos sustitutivos que pudiesen aparecer en el
mercado y dañar la posición del producto en el mismo.
• El producto y su proceso están protegidos por patentes.
De todas formas, las posibilidades de evolución del producto son claras y la posible competencia tendría que cubrir no solo la desventaja actual en términos de desarrollo
de producto, sino además acortar la diferencia que el proceso de I+D en curso tiende a agrandar.
Aplicación de la nanotecnología en construcción: creación de una empresa de base tecnológica
Análisis del entorno
En este epígrafe se analizó la estrategia del sector o sectores
a los que se dirigía la oferta de este producto nuevo. Se estudiaron cuáles podrían ser las fuentes de ventaja competitiva o, lo que es lo mismo, cuáles son las claves de éxito de
un producto en esos sectores.
• De forma sucinta, las fuentes de ventaja competitiva radican en las nuevas propiedades que confiere el revestimiento a la superficie tratada, que no se pueden obtener
de otra forma y que suponen un valor añadido para el
producto recubierto.
marcando el modelo de negocio a desplegar y la consiguiente estrategia a seguir.
Bajo el siguiente epígrafe se esbozaron los planes de márketing, comunicación y ventas acordes con el modelo de negocio adoptado y siguiendo la estrategia marcada.
Finalmente, el último epígrafe de este apartado se refirió a
la planificación empresarial en sí, abordando la planificación
legal y societaria, el plan de sistemas e infraestructuras, el
plan de inversiones y el plan financiero.1
Propuesta de industrialización
Otro epígrafe tratado fue el compuesto por clientes (naturaleza, poder de negociación, factores decisorios de compra,
etc.), competidores (tipo, tamaño, gama de productos, etc.),
proveedores (poder de negociación, existencia de suministradores alternativos, capacidad de suministro, etc.) y regulación del mercado.
• Una de las principales dificultades para la introducción de
este producto radica en la novedad del mismo, lo que implica ausencia de referencias. Por el contrario, no hay problemas relativos al suministro de materia prima, ya que
existen diversos suministradores del material necesario.
Con este análisis se estimó cuál podría ser la situación en la
que la nueva empresa habría de desenvolverse, las presiones
a las que podría verse sometida y la capacidad de actuación
frente a las mismas.
Análisis interno
En el marco de este punto se realizó el estudio de los factores internos a la empresa a constituir. El trabajo se estructuró
abordando tres epígrafes. En el marco del primero de ellos
se efectuó un análisis DAFO, que dio lugar a la primera aproximación a las políticas de producto-precio a desarrollar,
La traslación de un proceso de síntesis en laboratorio hacia
un proceso productivo a escala industrial plantea toda una
serie de problemas a solventar, y este caso no iba a ser una
excepción. Al tratarse de un proceso químico, el escalado del
mismo es genéricamente más fácil que en otros casos. Los
problemas a resolver se ciñeron al manejo de sólidos pulverulentos y líquidos, así como a la necesidad de mantener de
forma escrupulosa los tiempos y condiciones de reacción.
Todo ello acompañado por la necesidad de especificar los
materiales a utilizar para la fabricación de la infraestructura,
o los espacios necesarios para la planta productiva o para almacenamiento, tanto de materia prima como de producto
acabado, y teniendo en cuenta las servidumbres que el proceso requería.
El hecho de que tras el producto subyaciera un proceso de
“química verde” hacía que no fuera previsible ningún riesgo
de emisiones tóxicas o de producción de residuos tóxicos o
peligrosos.
1
No se hace mención especial a estos aspectos, puesto que no existe ningún aspecto diferenciador en el presente caso y se consideran
muy sensibles.
335
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Análisis de riesgos y contingencias
El análisis realizado al respecto, puso de manifiesto la existencia de diversos tipos de riesgos que la empresa habría de
afrontar en el futuro. Algunos de ellos eran riesgos relacionados con el producto en sí, y otros estaban relacionados
con la empresa. Como resultado de ello se estableció el correspondiente Plan de Contingencias, con las distintas opciones a seguir.
Todo este proceso que se acaba de relatar, fue realizado en
paralelo con las últimas etapas del trabajo de desarrollo tecnológico del producto, ofreciendo puntos a ser considerados
en el mismo. El resultado ha sido una clara mejora en las expectativas de éxito del producto en el mercado.
PRÓXIMAS ACTUACIONES
Con los resultados del análisis anterior, y amparado en las
actuaciones de Tecnalia T4, se procedió a la elaboración del
Plan de Negocio de la empresa, que sirvió de base a la creación de NACOALIA en 2010. Esta empresa se dedicará a
la fabricación de revestimientos nanoestructurados con propiedades excepcionales, derivadas de su capacidad fotocatalítica.
Las propiedades de las superficies revestidas con los productos
fabricados por NACOALIA corresponderán a una gama que
336
va desde propiedades biocidas, que impidan el crecimiento
de poblaciones bacterianas sobre ellas, hasta superficies de
fácil limpieza, pasando por las superficies con capacidad de
mantenerse limpias por sí solas, es decir, autolimpiables. Estos
revestimientos tienen también propiedades de eliminación de
la contaminación del aire.
En el momento de redactar este capítulo, NACOALIA está
afrontando el inicio del proceso de construcción de su planta
de producción industrial, proceso que se inició con la puesta
en servicio de una planta piloto. Dicha planta piloto será un
elemento esencial en la estrategia de la empresa, ya que no
solo permitirá cerrar las etapas de industrialización del producto, sino que hará posible el desarrollo progresivo de toda
su gama de nuevos productos, que han de permitir mantener
la posición de liderazgo en el mercado a la que NACOALIA
aspira. En este sentido, la colaboración establecida con Tecnalia para el desarrollo de la actividad de I+D se considera
un factor decisivo y diferenciador frente a su competencia.
De esta forma se cierra un círculo virtuoso, que se inicia con
un proceso de desarrollo tecnológico que da lugar a un producto destinado a cubrir una demanda insatisfecha hasta
el momento. El proceso de puesta en valor de este producto ha dado lugar a la creación de una empresa dedicada a
su producción industrial. Finalmente, la empresa identifica
al proceso de I+D como factor esencial para el mantenimiento de su posición en el mercado, cerrando el círculo
tecnológico.
Aplicación de la nanotecnología
en construcción: posible evolución
Antonio Porro Gutiérrez
¿QUÉ ES LA NANOTECNOLOGÍA?
Si se entiende la tecnología como un conjunto de conocimientos más la forma en que estos se usan en un determinado ámbito, la nanotecnología es un amplísimo conjunto
de conocimientos en las áreas de la física, la química y la
biología, más la forma en que estos conocimientos se usan
para lograr el control de las propiedades de la materia
cuando se trabaja en unas dimensiones comprendidas entre
0,1 y 100 nm. Esta definición tiene varias implicaciones que
es preciso resaltar.
En primer lugar, el carácter multidisciplinar. La nanotecnología emerge como fruto del conocimiento acumulado en disciplinas tales como la física, la química o la bioquímica, que
han venido trabajando en el desarrollo del conocimiento a
escala subatómica, atómica, molecular o supramolecular. Las
aplicaciones prácticas de este conocimiento son consecuencia del desarrollo tanto de técnicas experimentales cada vez
más complejas y avanzadas, y que alcanzan una mayor re-
solución espacial y temporal, como de las técnicas de simulación computacional, que están adquiriendo un inusitado
desarrollo fruto del impresionante aumento de la capacidad
de cálculo de los sistemas hoy en día disponibles.
En segundo lugar, la definición entraña el concepto de control de las propiedades de la materia, es decir, su utilización
para conseguir unas propiedades nuevas en los materiales.
Estas propiedades emergentes son el resultado de que, en
la escala mencionada, los fenómenos superficiales, así como
los fenómenos cuánticos (que prevalecen por debajo de
20 nm), condicionan el comportamiento de los materiales.
De esta forma el “juego” de la nanotecnología consiste en
explotar esas propiedades emergentes de la materia y trasladarlas a la escala macroscópica, de modo que resulte posible dar respuesta a problemas que hasta ahora eran considerados irresolubles. Precisamente esta es la razón por la
que esta tecnología ha despertado un inusitado interés en
todos los países, siendo objeto de programas específicos
para su desarrollo.
339
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
CAPACIDAD DE TRANSFORMACIÓN DE LA
NANOTECNOLOGÍA
Todas las tecnologías tienen su ciclo de vida propio. En su
evolución experimentan tres fases muy marcadas: embrionaria, emergente y de madurez. Si se representan en un diagrama que indique la capacidad de generar retorno económico, en función de la inversión necesaria para su desarrollo,
la gráfica resultante es la conocida como la S de la evolución
tecnológica: en la etapa embrionaria, el desarrollo de la tecnología requiere de grandes inversiones para dar un retorno
limitado; en la etapa emergente, pequeñas inversiones en el
desarrollo de la tecnología en cuestión son capaces de producir grandes retornos por diferenciación; en la etapa de madurez, se vuelve a requerir una inversión considerable para
producir cualquier innovación que entrañe una cierta ventaja
o retorno.
Se dice que una tecnología es de carácter disruptivo cuando su aparición y posterior desarrollo hacen que otras tecnologías que hasta ese momento eran consideradas esenciales, pasen a ser obsoletas. Este tipo de tecnología
raramente aparece aislada, de forma que los grandes cambios son el fruto de la convergencia del avance en diferentes tecnologías. La revolución industrial no fue fruto exclusivamente de la introducción de la caldera de vapor en
las fábricas, sino que las revoluciones en el transporte,
construcción, comunicaciones, etc., contribuyeron decisivamente a la creación de un nuevo orden industrial y social, al alcanzar los nichos más internos de la sociedad, forzando su cambio.
Otro caso de tecnología disruptiva es el de la tecnología digital. La posibilidad de adquirir, tratar y utilizar una gran cantidad de información de forma rápida y eficaz supuso un
nuevo cambio en la forma de trabajar de la industria. La
plena automatización de las plantas de producción condujo
a unas capacidades de producción tremendas, con unos niveles de calidad y uniformidad en los productos que supuso
un cambio radical en las formas de producción.
340
Hasta ahora, una tecnología disruptiva aparecía cuando la
tecnología anterior llegaba a un grado de madurez tan elevado que cualquier innovación en la misma era muy costosa.
De esta forma la “curva en S” de la nueva tecnología disruptiva se incardinaba de forma que su etapa embrionaria coincidía con la etapa de madurez de la tecnología anterior.
A la nanotecnología se le reconoce un carácter disruptivo,
ya que por su propia naturaleza va a dar lugar a la aparición
de nuevos productos y procesos de producción completamente diferentes a los hasta ahora conocidos. Por ejemplo,
se irá viendo cómo aparecen productos capaces de evolucionar o dar respuesta a determinados estímulos, como fruto
de un autoensamblado preprogramado durante el mismo
proceso de concepción del citado producto. Pero, volviendo
al carácter disruptivo de la nanotecnología, la gran diferencia
respecto de las tecnologías precedentes consiste en que su
aparición tiene lugar cuando la tecnología anterior (la digital)
aún no ha llegado a su etapa de pleno desarrollo o madurez.
En cierta medida, la aparición de la nanotecnología ha sido
posible gracias al desarrollo de la tecnología digital, pero a
su vez la nanotecnología está introduciendo grandes cambios
en las tecnologías de la información y comunicación, de
forma que cada una de ellas, la nanotecnología y las TIC,
están experimentando un desarrollo mutuamente coadyuvado, lo que origina una situación completamente atípica y
con gran poder de transformación.
ESTRATEGIAS Y PROGRAMAS EN
DIFERENTES PAÍSES
Un claro reflejo de la importancia del desarrollo de la nanotecnología es la existencia de innumerables programas gubernamentales, dedicados a asegurar que cada país pueda
tener acceso al desarrollo de esta tecnología y a posicionarse
adecuadamente de cara a su posterior explotación industrial.
Este mismo hecho ha motivado la aparición de una corriente
de opinión tendente a pensar que el propio desarrollo de la
Aplicación de la nanotecnología en construcción: posible evolución
nanotecnología pueda agrandar aún más la brecha existente
entre países desarrollados y en vías de desarrollo, pensando
que tal diferencia puede llegar a ser de una magnitud tal que
la haga infranqueable. Pero este es otro tema de discusión
que corresponde a un ámbito diferente del presente.
El primero de los programas nacionales dedicados al impulso
de la investigación en nanotecnología como tal, o al menos
el primero del que se tiene constancia, es la National Initiative
On Nanotechnology (NION), establecido por el Gobierno británico en el periodo 1986-1995. Este programa coexistió, en
el periodo 1989-1994, con el Programa LINK de Nanotecnología (LNP), también establecido por el Gobierno británico.
Hasta entonces, el área de trabajo, vislumbrada en 1959 por
el ganador del Premio Nobel Richard Feynman1, se había ido
desarrollando en proyectos encuadrados en programas no
específicos, sin ninguna percepción concreta por parte del
público en general.
En el año 2000, el entonces presidente de los EEUU, Bill Clinton, aprueba la dedicación de un presupuesto de 500 millones de dólares para el desarrollo de la National Nanotechnology Initiative (NNI). Esta iniciativa suponía coordinar el
esfuerzo realizado al respecto por diez agencias federales.
En la actualidad2 el número de integrantes de la NNI se eleva
a 25 departamentos y agencias. De alguna forma, se considera que la aparición de la NNI era el resultado del logro de
la masa crítica necesaria para que la nanotecnología adquiriese su propia carta de naturaleza.
fue tomado, principalmente, por el Programa Nanotechnologies and nanosciences, knowledge-based multifunctional
materials and new production processes and devices, conocido por sus siglas NMP. A finales de 2006, ya encuadrado
en el 7.º Programa marco, el relevo es tomado por el Programa Nanosciences, Nanotechnologies, Materials and new Production Technologies, que mantiene el acrónimo NMP.
Desde un punto de vista formal, la Comisión Europea ha ido
plasmando en diferentes comunicaciones su política de desarrollo de la nanotecnología. Entre otros cabe destacar los
que a continuación se mencionan: en 2004, la comunicación
de la Comisión europea COM (2004) 3383 (Hacia una estrategia europea para las nanotecnologías) propone acciones
para el mantenimiento y fortalecimiento de la posición de la
I+D europea en el ámbito de la nanociencia y la nanotecnología; en 2005, la comunicación COM (2005) 2434 (Nanociencias y nanotecnologías, un Plan de acción para Europa
2005-2009), presenta un plan que define y articula una serie
de acciones para la implementación de una estrategia segura, integrada y responsable, para el desarrollo de la nanociencia y la nanotecnología.
En aquellos años, en la Unión Europea, una gran parte de la
investigación en nanotecnología se encontraba enmarcada
en el Programa GROWTH del 5.º Programa marco de investigación. En el 6.º Programa marco (2002-2006), el relevo
En el caso de Japón, su gobierno formuló su propia iniciativa
en nanotecnología al año de ser formulada la NNI estadounidense. La investigación se enmarca en las políticas de tecnología nano y de materiales del Gobierno japonés. El segundo
Plan básico de ciencia y tecnología (2001-2006) implicaba al
ministerio de Educación, Cultura, Deportes, Ciencia y Tecnología (MEXT) y al de Economía, Comercio e Industria (METI).
En lo que se refiere al origen de los fondos de I+D, un 23%
proviene del Gobierno y un 77% de la industria. Un 14% va
dirigido a investigación fundamental, un 25% a investigación
aplicada y un 61% a desarrollo de productos.
1 Feynman, R. “There’s plenty of room at the bottom: an invitation to
enter a new field of physics”. Engineering and Science 23 (22). 1960.
3 ftp://ftp.cordis.europa.eu/pub/nanotechnology/docs/nano_com_
es.pdf.
2
4
http://www.nano.gov/html/about/nniparticipants.html (consulta
diciembre 2010).
ftp://ftp.cordis.europa.eu/pub/nanotechnology/docs/nano_action_
plan2005_es.pdf.
341
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
PREVISIBLES CAMBIOS ECONÓMICOS Y
SOCIALES INDUCIDOS
Es evidente que la mera posibilidad de cambiar las bases
de la competitividad industrial entraña unas posibilidades de
transformación de la sociedad en sus aspectos económicos
y sociales. En primer lugar, para el propio desarrollo de la
base de conocimiento necesaria, la nanociencia, así como de
sus aplicaciones tecnológicas (la nanotecnología y su posterior industrialización), se precisa una gran base de conocimientos, además de unas infraestructuras avanzadas, que
no van a estar disponibles en todos los países. En segundo
lugar, los productos basados en la nanotecnología no van a
poder obtenerse siguiendo técnicas y formas de producción
al uso, por lo que en aquellos sectores en los que se vayan
implantando irán desplazando progresiva e inexorablemente
a otros productos y formas de producción.
El elevado valor añadido de estos productos, unido a un uso
más razonable de los recursos para su fabricación (en términos de materias primas y consumo energético) será un factor
de creación de riqueza de primer orden. Pero para hacer esto
posible será necesario disponer de profesionales altamente
cualificados, en un campo en el que la oferta de formación
es aún escasa. Respecto de la factibilidad de disponer de profesionales cualificados, el informe de la Fundación de la Innovación Bankinter5, publicado en 2006, señala en su apartado “La carrera por liderar la nanotecnología” que, en el
momento de publicarse el referido informe, los Estados Unidos tenían una posición de liderazgo clara al disponer de una
masa de investigadores del orden del 45% del total, seguida
por la Europa Occidental, con un 25% y Japón con un 15%.
Otro de los factores esenciales es la disponibilidad de la infraestructura adecuada para el desarrollo de la investigación
en el campo. De nuevo en este aspecto los Estados Unidos
llevan ventaja. Una de las áreas de actuación de la National
5
FTF Informe 05 Nanotecnología. La revolución industrial del siglo XXI.
Fundación de la Innovación Bankinter. 2006.
342
Nanotechnology Initiative, es la dotación de infraestructuras6.
Entre las agencias participantes en la misma, y en el plazo de
una década, han creado un total de 60 grandes centros
de investigación e “instalaciones para usuarios”.
Pero volviendo al objeto de este apartado, es fácil imaginar
los cambios sociales a los que el pleno desarrollo de la nanotecnología va a llevar. Es muy posible que las zonas en las
que este tipo de industria florezca se parezcan a grandes parques científicos o tecnológicos, en cuyo entorno se establezca una población de alta capacitación técnica y alto poder
adquisitivo, y en las que la incidencia del desempleo sea muy
baja, ya que la principal “lucha” va a ser la de la atracción
de talento, procurando que el mismo se estabilice en ellas.
CONTRIBUCIÓN AL LOGRO DE LOS OBJETIVOS
DE LA ESTRATEGIA DE EUROPA 2020
En marzo de 2010, la Comisión Europea puso en marcha la
estrategia de Europa 20207 para salir de la crisis y preparar
la economía de la UE de cara a la próxima década. La Comisión ha identificado tres motores claves de crecimiento que
deberán ponerse en marcha a través de acciones concretas,
interrelacionadas y que se refuerzan mutuamente:
• Crecimiento inteligente, desarrollando una economía basada en el conocimiento y la innovación.
• Crecimiento sostenible, fomentando una economía de
bajo nivel de carbono, eficiente en términos de recursos
y competitiva.
• Crecimiento integrador, estimulando una economía con
un alto nivel de empleo que fomente la cohesión social y
territorial.
6
http://www.nano.gov/html/centers/home_centers.html.
7
http://ec.europa.eu/europe2020/index_en.htm.
Aplicación de la nanotecnología en construcción: posible evolución
Para lograr estos objetivos, la Comisión propone la agenda
Europa 2020, consistente en una serie de grandes iniciativas,
entre las que figuran:
• La Unión de la innovación, que supone reorientar la política en materia de I+D y de innovación en función de
los principales desafíos, superando el desfase entre la
ciencia y el mercado para convertir las invenciones en
productos.
• Una Europa eficiente en términos de recursos, apoyando
el cambio hacia una economía de bajo nivel de carbono y
eficiente en términos de recursos.
• Una política industrial para el crecimiento verde, que implica ayudar a la base industrial de la UE a ser competitiva
en el mundo después de la crisis, promoviendo el espíritu
empresarial y desarrollando nuevas capacidades.
La consecución de estos objetivos supone el despliegue de
una serie de políticas que fomentan el desarrollo de un conocimiento dirigido hacia la creación de productos altamente
tecnificados y, consecuentemente, de alto valor añadido,
como base para el desarrollo de una economía que ya no
puede basarse en una competición en precio. Adicionalmente, el desarrollo que se persigue ha de ser respetuoso con el
medio ambiente, lo que implica que las tecnologías a desarrollar deberán ser “limpias”, minimizando las emisiones a la
atmósfera asociadas y la producción de residuos, y buscando
hacer un uso lo más eficaz posible de los recursos materiales
y energéticos.
En este sentido, la nanotecnología es un claro ejemplo de
contribución a un desarrollo sostenible y basado en el conocimiento, al combinar tanto la posibilidad de dar soluciones
a problemas no resueltos como el hecho de hacerlo desde
un punto de vista amigable hacia el medio ambiente. Pero
para entender cuáles son las razones que motivan esta afirmación es preciso describir con algo más de detalle algunos
conceptos.
Para el desarrollo de la nanotecnología caben dos aproximaciones completamente diferentes:
• Top-down approach: como su propio nombre indica, supone una progresiva disminución del tamaño de los objetos que manipula, hasta llegar a la nanoescala, es decir
hasta tamaños comprendidos entre 0,1 y 100 nm.
• Bottom-up approach: supone partir de los elementos más
pequeños posible, conocidos en el argot como “elementos constitutivos básicos”, para obtener los derivados a
partir de su unión o ensamblado progresivo en elementos
de mayor tamaño.
Cada una de estas formas de trabajar tiene sus ventajas e inconvenientes, como es lógico. En el caso de la progresiva
disminución de tamaños, partiendo de la microtecnología, el
principal inconveniente que puede aparecer es la superación de
la barrera situada al reducir el tamaño a dimensiones de 20 nm
o inferiores. Justamente a esas dimensiones empiezan a ser
relevantes los fenómenos cuánticos, y su superación puede
entrañar un auténtico obstáculo difícil de franquear. En las partículas de estas dimensiones hay una proporción significativa
de moléculas que se encuentran en su superficie, respecto de
las que se encuentran en su interior. En otras palabras, las propiedades superficiales gobiernan el comportamiento de la partícula. La combinación de ambos efectos, cuánticos y superficiales, es precisamente la que dota a esos materiales
(nanomateriales) de sus extraordinarias propiedades, en comparación con las que corresponden a las partículas macroscópicas del mismo material. Este fenómeno es el conocido
como emergencia de propiedades en la nanoescala.
En el caso de la aproximación bottom-up, por contraposición, al tomar como punto de partida los elementos constitutivos básicos más pequeños, pero con entidad propia, lo
que se hace es beneficiarse de esas propiedades para conseguir unas prestaciones macroscópicas extraordinarias, derivadas de esas propiedades emergentes. Lógicamente, en este
caso la identificación de esos elementos constitutivos básicos,
343
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
conocidos como basic building blocks, puede llegar a ser
todo un desafío. En esta aproximación se busca conseguir el
autoensamblado de esas unidades básicas para formar otras
entidades de mayor tamaño, que ya no tienen por qué ser
nanométricas. Esta aproximación entraña otras ventajas adicionales nada desdeñables. La primera de ellas es la de hacer
un uso lo más eficaz posible de los materiales de partida,
puesto que el ensamblado de los mismos podría realizarse
átomo a átomo o molécula a molécula, sin dar lugar a la formación de subproductos o residuos. La programación de este
autoensamblado se logra mediante la incorporación de determinados grupos o “funcionalidades” químicas y haciendo
un uso intensivo de los procesos químicos conocidos como
“química verde”, que implican la minimización del uso de
compuestos agresivos o nocivos para el medio ambiente.
Además, este tipo de procesos de autoensamblado tiene la
ventaja adicional de que el consumo de energía se reduce al
máximo.
EVOLUCIÓN DE LA TECNOLOGÍA
Una de las dificultades que entraña el desarrollo de la nanotecnología se deriva precisamente de su carácter multidisciplinar, que obliga a combinar conocimientos de disciplinas científicas muy diferentes. Es decir, que no solo hace
necesario que los investigadores que trabajan en este
campo tengan unos conocimientos científicos profundos,
sino que también han de ser capaces de trabajar codo con
codo con expertos en otras disciplinas. Ese carácter implica
la superación de diversos tipos de barreras muchas veces
no claramente percibidas, como el propio lenguaje científico utilizado en cada disciplina: un concepto aparentemente claro y unívoco puede presentar en realidad distintos matices, en función del uso dado al mismo en las diferentes
disciplinas.
disciplina académica. Este hecho, que ha demostrado ser
adecuado para la formación de científicos e ingenieros, así
como para el desarrollo de la investigación en la disciplina
correspondiente, ahora ha de ser superado mediante el necesario trabajo conjunto en áreas diferentes, en las que hay
que generar determinadas sinergias. De la adecuada resolución de este problema puede derivar el éxito o el fracaso de
una iniciativa de desarrollo como la nanotecnología.
En lo que se refiere a la evolución de la tecnología en sí, se
puede citar a Mihail C. Roco, quien decía: “Yo veo la nanotecnología como una ayuda clave a la capacidad de la industria existente para hacerse más eficiente y competitiva, avanzando el conocimiento y las tecnologías emergentes, y
desarrollando productos sin precedentes y procedimientos
médicos que no podían ser realizados con los conocimientos
e instrumentos existentes.”8
En el año 2003, el propio Roco9 realizó un análisis sobre la
evolución tecnológica prevista, en el cual señalaba que, fruto
del continuo avance del conocimiento, el desarrollo de la nanotecnología iba a dar lugar a diferentes generaciones de
productos a lo largo del tiempo. Esta evolución seguía el siguiente esquema:
• Primera generación: nanoestructuras pasivas, aparecidas
en el mercado a partir del año 2000, por ejemplo, revestimientos, nanopartículas, metales, cerámicas y polímeros
nanoestructurados.
• Segunda generación: nanoestructuras activas, que aparecerían en el mercado a partir de 2005, por ejemplo, transistores, amplificadores, medicamentos específicos, estructuras adaptativas, actuadores.
8
Por otra parte está el hecho de que el sistema universitario
español ha propiciado la formación y mantenimiento de departamentos que cultivan exclusivamente una rama de una
344
Mihail C. Roco fue el primer coordinador de la National Nanotechnology Initiative de los EEUU.
9
Roco, M. C. “Nanoscale science and engineering: Unifying and
transforming tools”. AIChE Journal. Vol. 50 (5). 2004. pp: 890-897.
Aplicación de la nanotecnología en construcción: posible evolución
• Tercera generación: sistemas de nanosistemas, que aparecerían en el mercado a partir de 2010, por ejemplo,
ensamblado molecular guiado, redes tridimensionales,
robótica.
• Cuarta generación: nanosistemas moleculares, que aparecerían a partir de 2020, por ejemplo, moléculas utilizadas como sistemas o componentes basados en un diseño
atomístico, sistemas con capacidad de evolución.
Si se pasa revista a estas predicciones, a fecha de hoy se
puede constatar que los productos de primera generación
ya se encuentran en el mercado y que las empresas dedicadas a su producción, muchas de ellas surgidas como startups de centros de investigación o universidades, tienen un
futuro prometedor ante sí.
tecnología de carácter absolutamente horizontal, con potencial
de transformación de todos los sectores a los que irá afectando
y en los que irá tomando formas de evolución diferentes.
El informe de la Fundación de la Innovación Bankinter previamente citado (véase nota al pie 5) presenta las áreas en
las que la nanotecnología puede tener un mayor impacto,
distinguiendo entre países desarrollados y países en vía de
desarrollo. En el caso de los países desarrollados, las áreas
con un posible mayor impacto son:
• Sistemas de liberación de medicamentos dentro del organismo (15%).
• Seguimiento del paciente (14%).
• Diagnóstico de enfermedades (13%).
Respecto de los productos de segunda generación, también
hay ejemplos en el mercado, aunque a una escala mucho más
reducida, y con un gran potencial de desarrollo por delante.
Este tipo de productos se encuentra con diversas barreras para
su entrada en el mercado. Una de ellas es la falta de normalización y estandarización al respecto, aunque se están realizando numerosos esfuerzos para paliar esta carencia. La formación
del Grupo Específico Temporal AEN/GET 15 Nanotecnologías,
en el seno de AENOR, es un claro ejemplo en este sentido. Otro
de los aspectos críticos a superar (que, por una parte, guarda
relación con el punto anteriormente citado y, por otra, se deriva
de la ausencia de referencias de éxito previas, aspecto evidente
dada la novedad de los productos) es la adopción por la industria de este tipo de productos.
• Energía (13%).
• Eliminación de la polución del aire (13%).
• Construcción (11%).
De forma meramente indicativa, cabe mencionar algunos de
los desarrollos sectoriales específicos:
• En salud, nuevos implantes (prótesis) con tratamientos superficiales que favorecen la osteointegración, nuevos tipos
de medicamentos que solamente actúan en tejidos específicos (donde son necesarios) o nuevas técnicas de diagnóstico.
CARÁCTER HORIZONTAL
• En transporte, nuevos materiales más ligeros y resistentes.
Otra característica aún no mencionada, pero que está implícita en la descripción hasta ahora efectuada, es precisamente la capacidad que tiene la nanotecnología de afectar
a casi todos los sectores, no solo industriales, sino también
a aquellos relacionados con la salud. En este sentido es una
• En el sector espacial, materiales más ligeros y resistentes, con
mayor tolerancia al daño y capacidad de autoreparación.
• Respecto del medio ambiente, detección de especies químicas en muy bajas cantidades, nuevas técnicas de recu345
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
peración de suelos contaminados, eliminación de agentes
contaminantes, tratamiento de agua, etc.
• En energía, nuevos sistemas de almacenamiento de energía, cables superconductores, nuevos componentes para
sistemas de generación de energía.
• En la industria química, nuevos tipos de catalizadores, sistemas de análisis miniaturizados lab-on-a-chip.
• Respecto de las tecnologías de la información y la comunicación, nuevos procesadores, con mayor capacidad de
cálculo, más rápidos, así como mayor velocidad de transmisión de datos. Como ya se ha mencionado, las posibilidades de retroalimentación entrañan un potencial de
desarrollo absolutamente impredecible.
de actividades que, se predecía, serían significativas a mediolargo plazo para el sector de la construcción. Las actividades
citadas son:
• Comprender los fenómenos que ocurren en la nanoescala,
en los materiales de construcción. Por ejemplo: la hidratación del cemento y la formación de nanoestructuras, origen
de la adherencia, estructura porosa y zona de transición
interfacial en el hormigón, mecanismos de degradación y
durabilidad, herramientas de diseño basadas en la modelización y la simulación numérica, etc.
• La modificación de los materiales en masa tradicionales
del sector. Por ejemplo: hormigón, asfalto, plásticos modificados con nanopartículas, aditivos especiales y nuevas
técnicas de procesado que permitan la modificación de
las nanoestructuras internas, etc.
El caso de la construcción se trata en los apartados siguientes.
LA NANOTECNOLOGÍA Y LA CONSTRUCCIÓN
Respecto del caso concreto de la evolución de la nanotecnología en la construcción, el primer ejercicio destinado a conocer el posible uso que iba a experimentar esta tecnología
fue el reflejado en la Hoja de ruta10 elaborada por el Prof.
Bartos dentro del Proyecto europeo NANOCONEX11. Como
paso previo a su elaboración, en el marco del mencionado
proyecto, Zhu, Gibbs y Bartos prepararon un informe sobre
el Estado de la Técnica12,13, en el que identificaban una serie
10
Informe NANOCONEX/011 ROADMAP for future developments.
11
Proyecto NANOCONEX, G1MA-CT-2002-04016 (Programa Growth,
FP5).
12
Informe NANOCONEX/005 State-of-the-Art Report 2003.
13 W. Zhu, W; Bartos, P.J.M. y Porro, A. “Application of Nanotechnology in Construction - Summary of a State-of-the-art Report”.
Mater. Struct. 37. 2004. Páginas: 649-658.
346
• Materiales estructurales de altas prestaciones. Por ejemplo: nanotubos de carbono, nuevas fibras de refuerzo,
nanoaleaciones, aceros avanzados, materiales biomiméticos, etc.
• Recubrimientos especiales, pinturas y películas delgadas.
Por ejemplo: revestimientos resistentes a la intemperie,
pinturas duraderas, revestimientos autolimpiables, bactericidas y antigrafitis, películas delgadas inteligentes, etc.
• Materiales y componentes multifuncionales. Por ejemplo:
aerogeles y materiales aislantes, membranas y filtros eficientes, catalizadores, materiales autorreparables; etc.
• Nuevas herramientas, controles y técnicas de producción.
Por ejemplo: producción de materiales y estructuras más
amistosa con el medio ambiente y con menor demanda
de energía, nuevos procesos biomiméticos, sistemas de
control más integrados e inteligentes, etc.
• Estructuras inteligentes y uso de micro- y nanosensores.
Por ejemplo: sistemas nanoelectromecánicos, sensores
Aplicación de la nanotecnología en construcción: posible evolución
biomiméticos o en pinturas y estructuras y componentes
autoactivables, etc.
• Sistemas de monitorización y diagnóstico integrados. Por
ejemplo: para monitorización de defectos estructurales y
de corrosión de armaduras, monitorización de cambios o
condiciones ambientales y detección de riesgos para la seguridad o terrorismo, etc.
• Sistemas de iluminación de bajo consumo, células de combustible, dispositivos de comunicación y computación. Por
ejemplo, células de combustible y fotovoltaicas más eficientes y baratas, sistemas de iluminación basados en LED,
dispositivos de comunicación en red y ordenadores rápidos, herramientas de comunicación avanzadas, dispositivos de identificación y seguimiento, etc.
Teniendo en cuenta estas actividades, y en función de la
forma en que las mismas podrían ser utilizadas para fines industriales concretos, en la Hoja de ruta, que preveía el desarrollo de la nanotecnología en el sector de la construcción
a lo largo del periodo comprendido entre 2003 y 2025,
quedó reflejada la evolución previsible de estos desarrollos
en tres gráficos esquemáticos, caracterizados por contemplar
diferentes grados o niveles en la cadena de valor de la construcción, de acuerdo a la siguiente estructura:
• Materiales en masa, que presenta la evolución previsible,
fundamentalmente siguiendo procesos top-down, de los
materiales tradicionales de construcción utilizados en
masa y que son más habituales en el sector.
• Edificios del futuro, que presenta la evolución sostenible
de los edificios.
• Nuevos materiales de construcción, que presenta un nuevo
tipo de materiales con propiedades completamente nuevas, o que han sido drásticamente modificadas siguiendo
procesos bottom-up, con la peculiaridad de incluir una
línea específica para desarrollos no previsibles con el conocimiento disponible en aquel momento.
Las figuras 1, 2 y 3 muestran estos gráficos esquemáticos. Una
particularidad de dichos gráficos es la existencia de interconexiones entre unos desarrollos y otros, de forma tal que
unos pueden verse influenciados por la evolución de otros
TIMESCALE (years)
Present
0
5
10
TIMESCALE (years)
20
25+
self--cleaning glass
Bitumens,
polymers
nanofillers
molecular assembly of new polymers
Timber
modified wood for construction, fast growing defect-free, dense/strong
10
20
self-cleaning glass and bio-active surfaces
High performance insulating materials
High thermal mass materials
Stronger, tougher, lighter and more durable composites
Smart materials and components
Safety and security
Fibre-optic and microchip control systems
Photovoltaic surfaces & solar cells - roofs & cladding
Destination
NANOCONEX ROADMAP: Chart 2 - Buildings of Future
NANOCONEX ROADMAP: Chart 1 - Bulk Construction Materials
Fuente: Tecnalia.
Figura 1. Materiales de construcción en masa
25+
Buildings of Future
tougher ceramics
5
Embedded sensors, condition monitoring and diagnostic devices
BUILDINGS of TODAY
Ceramics,
bricks, glass
bio-active surfaces
0
Zero or positive energy balance; maximum sustainability
of resources; integrated lifespan of materials and
components; of resources; integrated lifespan of
materials and & components
novel, non-traditional binders
ductile cements & tougher concrete
nano-layers/coatings
Present
Active nano-coatings
Advanced Bulk Materials
Concrete
low energy cement
Negligible/zero/positive environmental impact, sustainable
resources, pre-set grading of properties replaced by properties
optimised for applications
Steel
corrosion resistant construction steel
Destination
Fuente: Tecnalia.
Figura 2. Edificios del futuro
347
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
TIMESCALE (years)
Present
0
5
10
20
Destination
25+
Bio-mimetic materials
Composites with self-adjusting interfaces
Smart, materials, shape memory, self-repairing, strain hardening
Active nano-coatings
Novel, controlled and durable fracture mechanisms
Stronger, tougher, lighter and more durable composites
Exploitation of nanoparticles, nanotubes, nanofibres
Photovoltaic materials
Safety and security
Novel construction materials
EXISTING CONSTRUCTION MATERIALS
Construction materials ‘built’ from basic nano-scale basic
components. Extreme strength and toughness; no health
hazard; acceptable degree of sustainability of resources,
environmentally harmless on local/global scale
Unforeseen developments?
Es más que evidente que, a la luz de las posibilidades bosquejadas en el apartado anterior, las oportunidades que la
nanotecnología puede generar en el sector de la construcción, son amplísimas y de muy diversa naturaleza. De una
forma genérica, las oportunidades se derivan de la emergencia de propiedades de la materia en la nanoescala, ya mencionada. Estas propiedades nuevas del material pueden constituir una respuesta o solución adecuada a problemas que
hasta el momento se consideran irresolubles.
debido a la propia complejidad de cada uno de los desarrollos reflejados, que muchas veces pueden adoptar más de
una ruta de forma independiente; o que, en otros casos,
pueden dar lugar a resultados no previsibles por integración
con otros desarrollos.
A modo de ejemplo, se puede considerar el caso de uno de
estos problemas aún no resueltos, como es el de la formación de microfisuras en el hormigón bajo determinadas condiciones. Su formación supone, entre otras, la posibilidad de
facilitar el acceso de determinadas sustancias de carácter
agresivo al interior de la masa del elemento estructural, con
el consiguiente riesgo de corrosión de las armaduras. La solución de una patología de este tipo entraña la necesidad de
detectar el problema y de acceder a la zona a tratar; lo que
conlleva, por una parte, un gasto de inspección y, por otra,
la intervención en sí.
Este documento ha sido objeto de seguimiento recientemente, con motivo de la mesa redonda organizada por la Agencia rusa de nanotecnología, en Moscú, en torno a la posibilidad de lanzar un programa ruso, específico para el
desarrollo de las aplicaciones de la nanotecnología en construcción, y que contó con la participación del Profesor Bartos,
junto con otros expertos europeos y americanos en este
campo14. En la misma se pudo apreciar cómo estos desarrollos estaban siguiendo unas pautas de progreso específicas
muy diferentes. Algunos de ellos son ya realidades en el mercado; otros se encuentran aún en desarrollo y, como es lógico, otros se han visto abandonados o tienen una evolución
mucho más lenta de lo inicialmente previsto.
Pero ¿qué sucede en el caso de estructuras de difícil accesibilidad? Se puede imaginar la dificultad que entraña el caso
de las estructuras enterradas, por ejemplo; o el de las estructuras sumergidas. En estos casos es evidente que, si se dispusiese de un hormigón con capacidad de autosellado de
estas microfisuras, el problema quedaría resuelto. Se impediría, por una parte, la progresión de la fisura; y por otra, el
acceso a la masa de hormigón de posibles agentes agresivos.
Evidentemente, este caso supone una oportunidad, cuya
adecuada respuesta puede suponer una gran ventaja competitiva para la empresa que sea capaz de poner en el mercado un producto de estas características, al ser la única que
ofrecería al mercado ese producto.
NANOCONEX ROADMAP: Chart 3 - NOVEL MATERIALS
Fuente: Tecnalia.
Figura 3. Nuevos materiales de construcción
14
348
OPORTUNIDADES Y VENTAJAS COMPETITIVAS
Entre ellos, el autor de este artículo.
Por supuesto que a esa empresa le surgirá competencia,
pero si dispone de una adecuada protección de la propiedad
Aplicación de la nanotecnología en construcción: posible evolución
industrial, gozará de una excelente posición. Si además tenemos en cuenta que este tipo de desarrollos no son fácilmente imitables, la empresa dispondría de un tiempo considerable hasta la aparición de los primeros competidores,
tiempo que podría aprovechar para mejorar su producto,
manteniendo su posición de ventaja en el mercado. Este es
precisamente el caso del trabajo realizado por Erkizia y col.15,
que han desarrollado un sistema que, ante la formación de
una microfisura, desencadena de forma autónoma todo un
mecanismo complejo de liberación de una sustancia que mediante reacciones químicas une los labios de la fisura y rellena
su interior, taponando el acceso de sustancias provenientes
del exterior. De esta forma se impide tanto la progresión
de la fisura como el acceso de agentes agresivos, todo ello
realizado sin intervención externa alguna.
Otra de las áreas en desarrollo que va a dar lugar a numerosas oportunidades, es la dedicada al estudio de la formación y agregación de las unidades constitutivas básicas de
la matriz cementicia. Hoy en día es posible explicar numéricamente el modelo de Jennings de formación de gel C-S-H
de alta o baja densidad, en función de una sola unidad constitutiva básica16, o la descripción numérica de la formación
de las capas interna y externa del gel C-S-H formado en
torno a las partículas de clinker al hidratarse las mismas. Tras
conocer la explicación de la formación de estas estructuras,
se abre la oportunidad de controlar la formación de especies
con mejores propiedades mecánicas, mediante un control
de los procesos de autoensamblado de estas estructuras. De
la misma forma, se abre la posibilidad de controlar la durabilidad de estas matrices, lo que redundaría en una vida en
servicio más larga.
15
16
PRIMERAS APLICACIONES EN DESARROLLO
Hasta el momento son relativamente pocas las aplicaciones o
desarrollos basados en la nanotecnología que se encuentran
en el mercado. En su mayoría corresponden nanopartículas o
nanoestructuras que pueden ser utilizadas como materia
prima para elaborar productos con propiedades “especiales”.
Hoy en día es posible encontrar suministradores:
• Nanoestructuras derivadas del carbono:
— Nanotubos de carbono monocapa (single-wall CNT).
— Nanotubos de carbono multicapa (multi-wall CNT).
— Grafenos.
— Nanohorns, etc.
• Nanopartículas de óxidos metálicos o cerámicos:
— Óxido de titanio.
— Óxido de sílice.
— Óxido de aluminio.
— Óxido de circonio, etc.
En el caso de los nanotubos de carbono, hay varias técnicas
de producción posibles. En función de la técnica elegida, o
del tratamiento posterior de purificación de los mismos, el
suministro puede contener residuos carbonosos o bien restos
de los catalizadores utilizados. También hay que tener en
cuenta la posible presencia de defectos en las paredes de los
nanotubos, que pueden dar lugar a la curvatura de los mismos y que, consecuentemente, supondrán una modificación
de sus propiedades.
Solicitud de patente: PCT/ES2010/000419.
González-Teresa, R. et al. “Structural models of randomly packed
Tobermorite-like spherical particles: A simple computational approach”.
Materiales de Construcción, Vol. 60, 298. 2010. pp: 7-15.
Algunas de las empresas que comercializan nanotubos de
carbono los suministran ya funcionalizados, es decir, incorporando determinados grupos químicos funcionales que
349
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
persiguen objetivos muy diferentes, como es el de mantenerlos sin que se aglomeren entre sí (tienden a formar estructuras conocidas como bundles o ropes, que son complicadas de romper). El otro posible objetivo perseguido con
la funcionalización es la de hacer posible la unión química
con otro tipo de estructuras.
Incluso en el caso de los nanotubos de carbono monocapa,
las propiedades que presentan pueden ser diferentes. Así,
hay nanotubos que desde el punto de vista eléctrico se comportan como superconductores, o bien como semiconductores, en función de la dirección del vector de quiralidad.
En lo que se refiere a las nanopartículas de óxidos, normalmente se comercializan como sólido pulverulento, pero también es posible encontrarlas como dispersión acuosa. En
estos casos las partículas se caracterizan, además de por su
estructura cristalográfica o su pureza, por el tamaño de la
partícula en sí. Este es muy variable, siendo posible encontrar
tamaños que van de unos 5 nm a la veintena o más. Pero
hay que tener en cuenta que el tamaño “real” puede ser
muy superior al indicado ya que, como respuesta a la elevada
reactividad que las caracteriza, las nanopartículas tienden a
aglomerarse, siendo esta aglomeración una forma de “estabilización natural” de las mismas. De esta forma es muy posible que se encuentren en el mercado unas nanopartículas
que, teniendo un tamaño de 25 nm por ejemplo, presenten
en realidad un tamaño de grano del orden de 100 a 150 nm.
Como es evidente, esto puede ser un inconveniente de cara
a su utilización en determinados casos, máxime cuando la
rotura de esos aglomerados puede ser complicada o de difícil
mantenimiento una vez que cese la acción que consigue su
dispersión.
En lo que se refiere a productos nanoestructurados, los que
han ido apareciendo en el mercado corresponden a la primera generación, según el esquema de Roco presentado en
el apartado “Evolución de la tecnología” de este capítulo.
Los primeros productos que aparecieron en el mercado provenían del campo de la cosmética, que añadía determinados
350
tipos de nanopartículas para conseguir, por ejemplo, filtros
o protectores solares. Volviendo a las aplicaciones al sector
de la construcción, a este grupo de productos pertenece
toda una gama de recubrimientos que van desde los de
fácil limpieza, a los autolimpiables, o con propiedades bactericidas. Se basan en las propiedades fotocatalíticas que
tienen tanto las nanopartículas de dióxido de titanio (TiO2)
en forma anatasa, como las de óxido de zinc, o incluso las
de algún otro tipo de óxido. Este tipo de propiedades son
el resultado de una combinación de propiedades superficiales, junto con las derivadas de la capacidad fotocatalítica
de las partículas, que en presencia de agua y por efecto de
la luz solar, conducen a la formación tanto de especies radicales como de superficies saturadas de iones hidroxilo. En
esta situación, la materia grasa que tiende a fijar la suciedad
sobre la superficie, es eliminada y arrastrada por el agua de
lluvia, dando lugar al efecto de autolimpieza, también conocido como el “efecto flor de loto”. Si la actividad fotocatalítica es muy elevada, puede llegar a producirse una eliminación de compuestos contaminantes, lo que da lugar a
otro tipo de aplicaciones de gran interés.
Los primeros desarrollos al respecto fueron los vidrios desarrollados por separado tanto por Saint Gobain, como por
Pilkington, que disponen de una superficie de TiO2 sobre el
vidrio, de un espesor tal que permite el paso de la luz y no
distorsiona la visión a través del vidrio. Esta aplicación tiene
un indudable interés en un momento en el que los arquitectos demuestran una especial predilección por la construcción
de edificios con “piel” de vidrio, que suponen una elevada
superficie que mantener limpia.
EVOLUCIÓN PREVISIBLE A CORTO Y MEDIO
PLAZO
La evolución de la nanotecnología en el sector de la construcción, a corto y medio plazo, va a estar condicionada,
como es lógico, por las características propias del sector y
por las tendencias que marcan su evolución. En primer
Aplicación de la nanotecnología en construcción: posible evolución
lugar hay que tener en cuenta que este sector es un gran
integrador de tecnologías, tanto las propias (fundamentalmente las de los materiales, estructurales o no), como las
provenientes de otros sectores (energía, información y comunicación, iluminación, etc.), que busca la integración de
los desarrollos específicos, basados en la nanotecnología,
con otros desarrollos convencionales. En segundo lugar hay
que tener en cuenta que el sector de la construcción evoluciona hacia posiciones de mayor sostenibilidad de sus procesos y materiales. Esto supone una mayor presión sobre el
uso de recursos naturales, una mayor vida en servicio de las
estructuras y un claro interés por potenciar la eficiencia
energética de los edificios, aspecto este que reviste especial
importancia en los procesos de su rehabilitación. Por otra
parte, la creación de las plataformas tecnológicas de la
construcción, tanto en la Unión Europea, como en distintos
países, es una señal del interés y preocupación crecientes
de los agentes del sector por el desarrollo de políticas de
I+D y de promoción de la innovación como formas de mejora de su posición competitiva.
• Hormigones de mayor durabilidad frente a procesos de lixiviación de calcio, o de corrosión de armaduras.
En esta situación, es de esperar que haya grandes avances
tanto en el desarrollo de materiales estructurales como en
el de materiales y productos destinados al logro de una
mayor eficiencia energética de los edificios. En concreto,
en el caso de los materiales estructurales se podrían ver en
el mercado:
• Instalaciones de aire acondicionado con capacidad para
evitar problemas de contaminación por bacterias.
• Componentes de hormigón armado más ligeros, pero con
la misma capacidad portante que otros de mayor masa.
• Aumento del uso de materiales compuestos, que presentan un mejor comportamiento frente al fuego.
• Materiales con mayor tolerancia al daño.
• Sistemas estructurales capaces de suministrar información
sobre su estado tensional.
Entre los materiales no estructurales, se verán aparecer:
• Materiales de alto poder aislante, bajo peso y de fácil instalación.
• Sistemas de iluminación de muy bajo consumo.
• Integración de la generación de energía en edificios y barrios, que reduzca las necesidades de suministro de la red.
Estos desarrollos serán posibles por la continuación del esfuerzo que están realizando las grandes compañías suministradoras de materiales de construcción, pero sin perder de vista que
irán apareciendo pequeñas y medianas empresas dedicadas a
la producción de nanomateriales, nanoestructuras y productos
“de nicho” con un alto contenido en tecnología.
Las nuevas turbinas de baja presión: hacia el 50% de la
cuota mundial de mercado en los aviones de doble pasillo
JOSÉ IGNACIO ULÍZAR ÁLVAREZ
(Vitoria, 1968)
Director de Ingeniería y Tecnología de ITP
(Industria de Turbopropulsores)
Ingeniero Aeronáutico. Máster en Mechanical Engineering. PhD
Mechanical Engineering.
Se inició como Research Assistant en el Cranfield Institute of
Technology, incorporándose en 1994 a ITP (Industria de Turbopropulsores), primero como Ingeniero de prestaciones de motor,
para, posteriormente ser Responsable de aerodinámica, Jefe del
departamento de aerodinámica y sistemas, Ingeniero jefe de I+D
y Director de Tecnología. Actualmente, sigue siendo el Responsable de Ingeniería y Tecnología del grupo ITP.
Ha sido Vicepresidente de Cycle Innovations Committee International Gas Turbine Institute (American Society of Mechanical
Engineering), Presidente de Cycle Innovations Committee International Gas Turbine Institute (American Society of Mechanical Engineering) y Representante español en el European Turbomachinery
Committee (ETC). En la actualidad es el Representante español en
la International Society of Air Breathing Enginges (ISABE).
Las nuevas turbinas de baja presión:
hacia el 50% de la cuota mundial de mercado
en los aviones de doble pasillo
José Ignacio Ulízar Álvarez
INTRODUCCIÓN
La empresa ITP fue fundada en el año 1989 por SENER, el
INI y Rolls Royce, gracias tanto a la ambición empresarial española como al impulso del programa EFA, en el seno del
cual, y por primera vez en la historia, España se embarcaba
en el diseño y desarrollo de un avión y un motor completamente nuevos junto con otros socios europeos de Alemania,
Italia y Reino Unido. Si bien este hecho es clave para la rama
que, dentro de la industria aeronáutica, representan las aeronaves, es aún más relevante para la del motor, ya que
rompe un largo periodo de varias décadas durante el que la
industria no había realizado ningún desarrollo en el campo
de la propulsión. Es más, desde el último diseño y desarrollo
industriales en España, se había pasado de los motores alternativos a las turbinas de gas, ya que el turborreactor denominado oficialmente INI-11, más conocido como Aries,
que se diseñó 35 años antes de la fundación de ITP, no pasó
del banco de pruebas, constituyendo el primer y último intento de desarrollo de una turbina de gas española.
En este entorno, donde el desarrollo de la tecnología aeronáutica en España era un reto titánico, no únicamente por
la dificultad intrínseca del sector, sino por la ausencia tanto
de tejido industrial especializado como de núcleos estables
de investigación y de centros tecnológicos, es donde ITP se
marcó el reto de entrar en el sector de las turbinas de gas
civiles. También hay que mencionar que no todo eran dificultades, ya que la última década del siglo XX fue una época
muy proclive a las alianzas y colaboraciones internacionales,
lo que facilitó la consecución exitosa de la aventura.
La aeronáutica tiene, al igual que ocurre con otros sectores,
algunas particularidades que marcan su ritmo vital y por
tanto sus necesidades. Algunas de las más relevantes serían:
• Elevado nivel de seguridad requerido.
• Altos niveles de inversión de capital (por ejemplo, el desarrollo de un nuevo avión de doble pasillo tiene un coste
de más de 10.000 millones de euros y, en el caso de un
355
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
nuevo motor, supone más de 1.000 millones de euros y
más de cinco años de esfuerzo).
• Requisitos medioambientales severos, tanto en CO2 y
NOx, como en ruido.
• Demanda tecnológica muy exigente (los componentes
aeronáuticos están sometidos a temperaturas superiores a
las de fusión de los materiales, esfuerzos cercanos a los
de ruptura, etc.).
• Elevado nivel de competitividad, en todos los casos, entre
un grupo reducido de empresas.
• Largo plazo de los programas, tanto para el diseño/desarrollo como para la producción y el soporte en servicio. En
muchos casos la duración completa es de más de treinta
años, con un plazo de recuperación de la inversión de
entre quince y veinte años.
Todo esto hace que las industrias aeronáuticas de primer
nivel sean empresas de gran tamaño, globalizadas, con una
historia en muchos casos centenaria y, por tanto, con una
sólida reputación.
En el sector de la propulsión hay una división entre empresas:
las que tienen capacidad de integrar un motor completo, y
que son las dueñas del Certificado de Tipo del motor; las que
tienen capacidad de suministrar módulos completos, conocidas como Tier 1; y, finalmente, las que suministran componentes. De las primeras, las principales compañías son
General Electric, Pratt & Whitney y Rolls Royce. A estas hay que
sumarles otras dos, que son Safrane (Snecma y Turbomeca)
y Honeywell. Al segundo grupo, en el que competiría ITP,
pertenecen la alemana MTU, la italiana Avio, la sueca Volvo
Aero, la belga Techspace Aero y las japonesas IHI y MHI. El
tercer grupo es bastante más numeroso y no se entrará en
detalles aquí, aunque sí hay que recalcar que es un eslabón
esencial, puesto que, en general, son las empresas suministradoras del grupo anterior.
356
Para elegir el modo de participación hay que tener en cuenta
varios aspectos claves, cuya elección va a determinar el futuro tecnológico e industrial. Los más relevantes son:
• Ser suministrador de módulo, como el fan, el compresor,
la turbina, etc., frente a ser suministrador de piezas. Claramente, ser una empresa capaz de suministrar un módulo
completo tiene ventajas; pero llegar a esa posición es una
tarea costosa en todos los aspectos que se han mencionado anteriormente.
• Ser socio de riesgo—beneficio durante la vida del programa
frente a ser suministrador estratégico. De forma análoga
al caso anterior, ser socio de riesgo—beneficio en un programa proporciona una estabilidad que no se consigue en
el caso de ser suministrador estratégico. Pero, por el contrario, la inversión, la dificultad de participar en aplicaciones competidoras entre sí y el riesgo son mayores.
Ante estas decisiones, ITP optó por la estrategia de ser un
suministrador de módulo y socio de riesgo—beneficio en los
programas.
Finalmente, quedan dos aspectos no menos importantes y que
están íntimamente relacionados entre sí, que son el módulo y
el cliente. A la hora de elegir el módulo, una empresa como
ITP, que estaba en aquellos momentos dando sus primeros
pasos, debía concentrarse en un módulo que el integrador de
motor percibiera como clave, de forma que ese socio le diera
valor añadido, pero no tan crítico como para que nunca quisiera o pudiera desprenderse de él. También había que intentar que el módulo elegido pudiera desarrollarse para más de
un integrador de motor, ya que eso permitiría maximizar las
sinergias en el desarrollo de tecnologías, tanto básicas como
aplicadas; si bien esta no es una tarea simple, puesto que la
competencia entre las grandes compañías hace difícil que una
tercera desarrolle un mismo módulo para dos o más de ellas.
Con todos estos requisitos, la decisión se inclinó hacia la turbina de baja presión, o TBP. La figura 1 muestra la TBP en una
Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo
turbina de gas que propulsa a un avión de doble pasillo, y la
figura 2 es la primera TBP para el Trent 900, que propulsa al
Airbus A380.
EL MERCADO AERONÁUTICO: APUNTES
BREVES
Si hay peculiaridades destacables en el ámbito del negocio
que distinguen al sector aeronáutico de otros, estas son el
ciclo de vida de los proyectos, con una duración típica de
más de cuarenta años; y la necesidad intensiva de capital,
con unos costes de desarrollo superiores a los 10.000 millones de euros para un nuevo avión y motor. Con estos condicionantes, el número de desarrollos que se realizan es, obviamente, muy limitado, y tanto el capital como la tecnología
suponen una enorme barrera de entrada frente a competidores.
Sin pretender mostrar un estudio exhaustivo, se darán a
continuación unas breves pinceladas del mercado civil aeronáutico.
Figura 1. TBP en una turbina de gas
Figura 2. Primera TBP para el Trent 900
En lo que se refiere a segmentación, el mercado se divide tradicionalmente en tres grandes grupos: aviación de negocios
y regional, segmento medio o monopasillo, y aviones de fuselaje ancho o de doble pasillo. La figura 3 muestra el mercado
global en función de la capacidad de la aeronave en número
de asientos y del alcance de la misma. Se puede apreciar un
segmento de aeronaves de gran tamaño y con un gran alcance, donde se encuentran compitiendo actualmente los dos
grandes fabricantes mundiales, Airbus y Boeing, con modelos
como los Airbus A340 y A380 (y en unos pocos años, el
A350) o los Boeing 747, 767 o 777 (y en un futuro próximo,
el 787). En lo que se refiere a la propulsión de estos aviones
de doble pasillo, compiten los tres fabricantes de motor, General Electric, Pratt & Whitney y Rolls Royce, si bien en los últimos años General Electric y Rolls Royce han ido ganando
cuota de mercado. El segmento medio, donde también compiten hoy en día Boeing y Airbus, cada uno con su familia de
aviones, el Boeing 737 y el Airbus A320, con varios modelos
cada uno de ellos (la familia del A320, por ejemplo, está compuesta por 318, 319, 320 y 321). En este segmento hay fundamentalmente dos competidores: CFM, que es una alianza
entre General Electric y Snecma, con el CFM56; y el consorcio
357
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
IAE, compuesto por Pratt & Whitney, Rolls Royce, Japanese
Aero Corporation y MTU, con el V2500.
medio, todavía hoy los de doble pasillo representan un
mayor valor económico: un 60%, frente al 40% de los aviones monopasillo (Rolls Royce. Market Outlook. 2009).
EL SECTOR DE LA PROPULSIÓN: LAS
TURBINAS DE GAS
Introducción
Desde hace décadas, las turbinas de gas son el método de
propulsión para las aeronaves, desde las de negocio y regionales, hasta las de doble pasillo y de transporte de mercancías. En resumen, excepto los motores de la conocida como
aviación general (general aviation) que siguen siendo motores alternativos, el resto del sector aeronáutico se propulsa
con turbinas de gas, incluidos los turbohélices de la aviación
regional de menor tamaño.
Figura 3. Segmentación del mercado
En estos dos grandes segmentos, un cambio fundamental
respecto a la situación que había hace algún tiempo es la
desaparición de empresas, como por ejemplo McDonnell
Douglas, en su día líder en el segmento medio y adquirida
por Boeing; esto ha hecho que, por el momento, Airbus y
Boeing hayan quedado como únicos grandes competidores,
con un reparto bastante equilibrado del mercado.
Centrando el análisis en los segmentos medio y de doble pasillo, la perspectiva a principios de los noventa, cuando ITP
afrontaba la decisión estratégica de futuro, era clara: en número de unidades, la expectativa para las dos siguientes décadas era de una cuota de mercado de aproximadamente el
50% para cada uno, si bien cuando se va al valor económico
de ambos grupos, el de los aviones de doble pasillo representa aproximadamente el 75% frente a un 25% para el
monopasillo (McDonnell Douglas. Outlook for Commercial
Aircraft. 1991-2010). Aunque durante las dos últimas décadas ha habido cambios en las previsiones a futuro del mercado, con un aumento relativo de los aviones del segmento
358
Las turbinas de gas son, desde el punto de vista termodinámico, un ciclo de Brayton, donde tienen lugar los siguientes
procesos:
• El aire de entrada se comprime en uno o más compresores
axiales o, para el caso de los motores pequeños, de tipo
centrífugo en las últimas fases de la compresión.
• Se mezcla el combustible con el aire y se quema la mezcla
en la cámara de combustión, aumentando la temperatura.
• Los gases procedentes de la combustión, que se encuentran a alta presión, se expanden en las turbinas que, con
la potencia generada a través de esa expansión, mueven
los compresores; con la energía restante, esos gases propulsan la aeronave.
Para los turbofanes, que son los sistemas propulsores usados
en la inmensa mayoría de los aviones hoy en día, la diferencia
fundamental radica en que, tras la primera fase de compresión,
una parte muy sustancial del aire no continúa dicho proceso
Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo
de compresión y posterior combustión y expansión, sino que
se usa directamente para propulsar. La relación entre la cantidad de aire que se usa directamente para propulsar y la que
sigue el proceso completo del ciclo de Brayton se denomina
relación de derivación y, como se verá más adelante, es uno
de los parámetros claves. Esta primera etapa de la compresión
la desarrolla el fan o ventilador, movido por la turbina de baja,
que es el módulo que diseña, desarrolla y fabrica ITP para los
aviones de doble pasillo, además de algún otro caso.
Principales factores de impulso en el desarrollo
de la tecnología de las turbinas de gas
Cuando se analizan las necesidades tecnológicas y se plantea
cómo serán las turbinas de gas del futuro, es necesario analizar primero qué factores impulsan hoy esas necesidades.
• En primer lugar hay que situar siempre todos los aspectos
relacionados con la seguridad en la operación. Este es un
denominador común en el sector aeronáutico y, por supuesto, en el de la propulsión.
• En segundo lugar están los requisitos medioambientales:
dióxido de carbono, óxidos de nitrógeno y emisiones acústicas en las diferentes maniobras.
• En tercer lugar están los aspectos económicos y de la calidad: costes de adquisición, mantenimiento y operación,
fiabilidad, etc.
Estos requisitos fueron definidos para todo el sector aeronáutico por el Advisory Council for Aeronautics Research in
Europe (ACARE) en el European Aeronautics: A vision for
2020. En particular para el sector industrial aeronáutico, los
objetivos fueron:
• Reducción del índice de accidentes en un 80%.
• Reducción del CO2 en un 50%.
• Reducción de los NOx en un 80%.
• Reducción del ruido a la mitad.
• Disminución del impacto de la actividad industrial en el
medio ambiente.
Si se centra la evaluación en los aspectos tanto medioambientales como económicos, la primera conclusión a la que
se llega es que, para los grandes aviones, el consumo es el
aspecto fundamental. La razón es clara: los motores operan
durante más de quince años a razón de cinco mil horas al
año.
Para tener una idea de cuánto significa el consumo, en un
avión de doble pasillo una ventaja de un 1% es equivalente
a más de un millón de euros por aeronave solamente en
combustible, y una cifra entre dos y tres veces mayor en carga
de pago. Por tanto, para cada avión, conseguir una mejora de
un 1% conlleva una mejora de entre tres y cuatro millones
de euros. Si esto se multiplica por el número de unidades de
la totalidad de una flota, resulta en una cifra de miles de millones de euros. Con los cambios recientes en legislación, a
esto habría que añadir el impacto en tasas por emisiones
de dióxido de carbono, que harán todavía más atractivas las
mejoras en consumo.
Para el caso de los óxidos de nitrógeno la situación es más
compleja, puesto que el objetivo de reducción entra en conflicto con la reducción de dióxido de carbono: uno de los mecanismos para aumentar la eficiencia es elevar la temperatura
de combustión, pero este aumento genera mayor cantidad
de óxidos de nitrógeno. Para compensarlo hay que evitar que
existan zonas localizadas de alta temperatura.
El ruido tiene también gran relevancia. La legislación, tanto
global como local (no ya de diferentes países, sino incluso de
diferentes aeropuertos), hace que se tenga que prestar una
atención especial a este aspecto. La importancia puede ser
clave, ya que en algunos casos no se trata de compensaciones
359
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
económicas en caso de mayores niveles de ruido, sino de la
prohibición de operar en ciertos aeropuertos o en ciertas franjas
horarias. Por tanto, no basta únicamente con cumplir con los
requisitos actuales, sino que, dado que la aeronave operará
previsiblemente durante más de dos décadas, hay que tratar
de asegurarse de que se satisfarán las restricciones futuras.
El ruido de aeronave se mide en tres maniobras en el entorno
del aeropuerto: cut back, sideline y approach, y las medidas
se corrigen por diferentes efectos, como el ruido de tonos o
la frecuencia, para tener en cuenta de la manera más real
posible el efecto en el ser humano. En todas ellas, pero especialmente en las dos primeras, el motor tiene una contribución clave. Es por esto por lo que, en algunas de las turbinas de gas recientes, se han penalizado ligeramente
atributos considerados antes como intocables, como son el
peso o el consumo, para asegurar un funcionamiento lo más
silencioso posible.
Figura 4. Aumento en la relación de derivación
Estos desarrollos tecnológicos se han traducido en mejoras
significativas, tanto en consumo como en ruido, situándonos
en valores cercanos a los objetivos del ACARE 2020, aunque
todavía sin alcanzarlos, como se muestra en las figuras 5 y 6.
Salto tecnológico de la turbina de gas en las
dos últimas décadas
Con las necesidades impuestas por los requisitos del apartado anterior, las turbinas de gas han evolucionado de forma
sustancial:
• Aumento en la relación de derivación o, lo que es lo
mismo, mayor tamaño del fan o ventilador de entrada en
relación con el tamaño del núcleo, tal y como se aprecia
en la figura 4.
Figura 5. Reducción de consumo
• Aumento de la temperatura de entrada a la turbina de
alta, con valores actualmente cercanos a los 1.700 ºC,
muy superiores a las temperaturas de fusión de los metales que se encuentran en los álabes y otras piezas, lo que
hace necesaria una refrigeración extensiva.
• Aumento de la relación de compresión, con valores superiores a 40:1.
360
La turbina de baja presión y su relevancia
dentro de la planta propulsora
Anteriormente se ha descrito brevemente el trabajo de la TBP
dentro del ciclo completo, que no es otro que extraer de
forma eficiente trabajo de los gases que pasan a través de la
Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo
• Las pérdidas aerodinámicas son inferiores al 8% o, lo que
es lo mismo, tiene un rendimiento superior al 92%.
• Las tolerancias de fabricación son, en la mayoría de los
casos, de centésimas de milímetro, para piezas cuyo tamaño puede ser superior a un metro.
En este entorno hay que ser capaces de desarrollar unas tecnologías de materiales, aerodinámicas, aeroacústicas, de procesos de fabricación, cálculo de vida, etc., cada vez mejores
que vayan proporcionando avances en todos los aspectos
claves.
Figura 6. Reducción de ruido
misma para mover el fan o ventilador de entrada, además
de dejar el flujo de salida en las mejores condiciones para
proporcionar empuje al avión.
Para entender el reto de la tecnología en la TBP dentro de
los motores que propulsan a los aviones de doble pasillo,
merece la pena dar unas pinceladas que harán comprender
fácilmente la dificultad intrínseca a la que se enfrenta la actividad de I+D.
• La TBP está sometida a una temperatura de entrada superior a 1.000 ºC, cercana o superior a la de fusión de la
mayoría de las aleaciones metálicas.
• Cada uno de los álabes, además de estar sometido a altas
temperaturas, soporta una fuerza centrífuga de varias toneladas y extrae una potencia superior a los 100 CV. Resulta fácil calcular, por tanto, que una turbina de baja de
un motor de los que aquí se tratan, proporciona una potencia superior a los 50.000 CV, o lo que es lo mismo,
energía suficiente como para abastecer de electricidad a
una ciudad pequeña.
• Tiene un requisito de vida superior a las diez mil de horas
de funcionamiento.
El papel de la turbina de baja presión y su
evolución en las dos últimas décadas
Remontándonos veinte años atrás, si bien el papel de la turbina de baja presión era relevante en el conjunto de la turbina
de gas, este no era comparable al que juega en la actualidad.
Desde un punto de vista global, la turbina de baja representaba, en relación a la planta propulsora:
• Aproximadamente un 15% del peso.
• En torno a un 12% del coste.
• Un impacto en el consumo de 0,5—0,6% por cada punto
de rendimiento de turbina.
• Peso relevante en el ruido de la maniobra de aproximación.
Cuando se analiza la situación actual, en unas turbinas de
gas con relaciones de derivación superiores a 10:1, o lo que
es lo mismo, con un aumento del 100% frente a las que
había hace dos décadas, con unas temperaturas de 1.700 ºC
y unas relaciones de compresión de 45:1, la turbina de gas
representa, frente a la planta propulsora:
• En torno al 25% del peso.
361
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
• Aproximadamente un 20% del coste.
• Impacto en consumo de 0,7-0,8% por cada punto de rendimiento de turbina.
• Peso relevante en el ruido de la maniobra de aproximación, con frecuencias más dañina para el oído humano.
como se ve en la figura 7, y abarca prácticamente a todas las
fases del ciclo de vida del producto, que se describe en la figura 8. Este nivel de compromiso con la I+D se ha venido sosteniendo durante décadas y, como resultado, se han visto
avances más que notables en todos los aspectos centrales:
fiabilidad, consumo, ruido, etc. (véase la figura 9).
Es claro que la TBP es uno de los subsistemas más importantes de la turbina de gas y, por tanto, los desarrollos tecnológicos que redunden en mejoras de este módulo tendrán un
impacto directo en la planta propulsora y en la aeronave en
su conjunto.
INVERSIÓN EN I+D COMO ELEMENTO
IMPULSOR CLAVE
Introducción
Se ha venido remarcando en apartados anteriores que una
de las características claves del sector de la propulsión aeronáutica es su elevado nivel de inversión en I+D. Este es claramente superior al de la media global en la industria, tal y
Figura 8. Ciclo de vida del producto
Figura 9. Avances tecnológicos
Figura 7. Inversión en I+D de ITP
362
Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo
El entorno del apoyo a la I+D frente a los
competidores europeos
Es de sobra conocido que el nivel global de inversión en I+D
en España es claramente inferior al de otros países de la
Unión Europea o al de Estados Unidos o Japón. Este hecho,
que de por sí es preocupante a nivel macroeconómico, lo es
aún más en sectores como el aeronáutico, donde, como se
ha mencionado anteriormente, el mercado está globalizado
(este aspecto se tratará en detalle más adelante). Si se analiza
el entorno de países como Alemania, Francia o Reino Unido,
es fácil percatarse de que en todos ellos hay una política activa y permanente de apoyo público a los sectores más intensivos en I+D. Esto hace que universidades, centros tecnológicos y empresas que disponen de este marco estable, sean
capaces de dar pasos sostenidos hacia una diferenciación
tecnológica. En España se han ido dando los primeros pasos
y, poco a poco, se ha producido una concienciación a todos
los niveles sobre la importancia capital de la I+D. Pero todavía
queda mucho camino por recorrer, y es clave avanzar rápido,
ya que, en caso contrario, las empresas estarán en una desventaja insalvable frente a sus competidoras, que partiendo
de un nivel tecnológico superior y teniendo mayor volumen,
y por tanto más facilidades para las sinergias, siguen avanzando con paso firme.
figura 10. Esta ha venido siendo de forma sistemática una de
las líneas prioritarias en el ámbito de los programas marco.
Los proyectos, siempre plurianuales y de un volumen económico ajustado al objetivo y al nivel de madurez que se persigue, aglutinan a empresas que en el marco comercial son, en
muchos casos, competidoras pero que, en el seno de un PM
son capaces de colaborar; aun protegiendo, obviamente, los
intereses individuales y la propiedad intelectual de cada empresa. Además, ha permitido que, poco a poco, los centros
colaboradores también participen como socios en proyectos,
haciéndose un hueco entre sus homólogos europeos.
Reducción CO2 / NOx / ruido
Aerodinámica/
aeroacústica
EEFAE-ANTLE FP5
VITAL FP6
DREAM FP7
ICAS-GT1 FP4
ICAS-GT2 FP5
ICAS-GT2 FP5
AITEB FP5
UTAT FP5
MAGPI FP6
AIDA FP6
TATEF2 FP6
COJEN FP6
TATMO FP6
FUTURE FP7
ERICKA FP7
FACTOR FP7
Reducción ruido
SILENCER FP5
OPENAIR FP7
TURBONOISE FP7
Materiales
RAMGT FP5
OTISPRAY FP5
DOLSIG FP6
PREMECCY FP6
ACCENT FP7
Tecnología mecánica
ADTURB FP4
ADTURBII FP5
ELUBSYS FP7
Tecnología fabricación
MMSFC FP6
MANHIRP FP5
FANTASIA FP6
VERDI FP6
MERLIN FP7
Virtual enterprise
VIVACE FP6
Figura 10. Proyectos de I+D de los programas marco de la UE
en los que ITP ha participado
Los proyectos de I+D de los programas
marco europeos
Inversión sostenida en I+D como elemento
clave en el desarrollo de tecnología
Desde hace casi dos décadas los programas marco europeos
(PM) (ITP se incorporó al tercer PM, y en la actualidad está
en vigor el séptimo) no son únicamente una fuente de clave
de financiación, sino fundamentalmente un entorno de colaboración estable entre empresas y centros tecnológicos,
clave para el desarrollo, la vertebración y la organización del
impulso tecnológico en Europa.
Durante los últimos doce años, y con el objetivo de dar un
salto cualitativo desde la posición en la que se encontraba a
principios de la década de los noventa, ITP ha realizado inversiones en I+D superiores a los 1.000 millones de euros,
según muestra la figura 11; de estos, más de un 15% ha sido
invertido en tecnologías básicas precompetitivas, como se
puede apreciar en la gráfica de la figura 12.
Durante los últimos años, ITP ha participado en múltiples
proyectos del área aeronáutica, tal y como se muestra en la
Esto ha situado a ITP, de forma permanente a lo largo de los
últimos años, entre las cinco empresas con mayor inversión
363
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
aviones de doble pasillo. El siguiente paso es ampliar este liderazgo a otros mercados, como el de los aviones regionales
y de negocios o el segmento del monopasillo.
Figura 11. Evolución de la inversión de ITP en I+D
en el conjunto de la industria española, siendo la primera
empresa industrial en términos de I+D sobre ventas. Pero aún
más importante: también se ha situado en cabeza frente a
sus homólogas del sector aeronáutico a nivel mundial, tal y
como se muestra en la figura 13. Cuando la comparamos con
sus competidores más directos, se aprecia que su inversión
es en torno a tres veces superior. Este más que notable esfuerzo se traduce en que, con la cartera de pedidos derivada
de los motores que se han desarrollado gracias a la actividad de
investigación y desarrollo, ITP tendrá en los próximos años
un 50% del mercado mundial de turbinas de baja en los
I+D en programas
(85%)
Colaboración con universidades y centros
tecnológicos: un aspecto clave en el
desarrollo de la tecnología
En el proceso estructurado de desarrollo de tecnología, esquematizado en la figura 14, cuando se analizan los niveles de
madurez (conocidos como Technology Readiness Levels o TRL)
Tecnologías básicas
(15%)
Figura 12. Distribución de la inversión en I+D
364
Figura 13. Inversión en I+D de las empresas aeronáuticas
Figura 14. Niveles de madurez de las tecnologías
Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo
inferiores (niveles 1 a 3-4), la conclusión es que no resulta viable realizar esta actividad en la empresa. Es aquí donde entran
en juego de forma activa tanto las universidades como los centros tecnológicos, siempre en coordinación con la visión de las
necesidades de los productos que proporciona la empresa.
Cuando ITP analizó esta realidad en el entorno aeronáutico
y, en particular, en el sector de la propulsión, la conclusión
no fue diferente. Sin embargo, se encontró con un reto muy
relevante: la actividad en torno a las turbinas de gas, tanto
la universitaria como en los centros tecnológicos, era prácticamente inexistente. Ese vacío industrial de décadas en España, como no podía ser de otra manera, había calado en el
entorno docente e investigador. Esta realidad era aún más
impactante cuando se comparaba con los países de los socios
o clientes. Sin tener que cruzar el Atlántico, países como Alemania, Francia o Reino Unido contaban con una red local de
universidades y centros tecnológicos de gran tradición, con
unos medios envidiables y con un soporte público incuestionable, lo que había redundado y, por supuesto, sigue redundando, en una gran calidad en sus resultados.
Por lo que respecta al segundo aspecto, el desarrollo de centros
a nivel local, se vio que era prácticamente imposible en un
marco temporal de corto plazo. Por tanto, la estrategia seguida
fue la de tener, primero, alianzas tácticas con universidades y
centros europeos y, en paralelo, ir impulsando el desarrollo o,
en algunos casos, la creación, de centros tecnológicos. Si bien
esta ha sido la tendencia general, hay que mencionar que en
algunos casos, como por ejemplo el de métodos computacionales y algunos otros, el desarrollo comenzó directamente en
los centros locales. Así, durante los últimos años de la década
de los noventa y, principalmente, los primeros años de este
siglo, se ha dado un impulso muy importante a los centros españoles identificados como claves y, durante los últimos años,
se ha empezado a recoger el fruto de todo ese esfuerzo, si bien
la situación económica reciente, con la consiguiente dificultad
de financiación, está haciendo peligrar este sistema.
El modelo que se ha seguido en la relación es el de establecer
marcos de colaboración estables; en la figura 15 se muestra un
mapa de los centros con los que ITP ha mantenido relaciones
plurianuales en la última década. Como ya se ha mencionado,
El camino que tomó en aquel momento ITP fue el de centrarse en dos aspectos fundamentales: priorizar con enorme
cuidado las áreas en las que había que poner más esfuerzo
y tratar de impulsar en España, en un plazo medio, una red
de centros capaces de desarrollar la tecnología necesaria para
los productos claves.
En el primero de los aspectos se vio que había cuatro áreas
tecnológicas claves donde la colaboración debería dar fruto
y donde se podría recortar la clara ventaja que tenían otras
empresas europeas y sus centros asociados:
• Aerodinámica (incluyendo aeroacústica).
• Materiales y procesos.
• Tecnologías de fabricación.
• Métodos computacionales.
Figura 15. Ubicación de los colaboradores de ITP
365
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
una de las características diferenciales del sector aeronáutico
es la de los largos periodos de maduración de las tecnologías,
por lo que la necesidad de establecer estas colaboraciones de
largo plazo es, si cabe, aún más necesaria.
• Reducción de longitud superior al 20%.
• Sustancial mejora en el rendimiento.
• Reducción del ruido hasta un nivel tal que no contribuye
al ruido de la aeronave.
LAS NUEVAS TURBINAS DE BAJA PRESIÓN
DESARROLLADAS POR ITP
Introducción
Los grandes proyectos aeronáuticos tienen una cadencia
relativamente baja, por lo que es crítico que, cuando tiene
lugar el lanzamiento de uno de estos programas, la tecnología esté lo suficientemente madura como para ser introducida en el producto con un riesgo bajo. En caso contrario,
habrá que esperar al siguiente programa, que puede tardar
muchos años en ocurrir, por lo que se habrá perdido una
oportunidad vital.
Para ITP, esta oportunidad se presentó en el Trent 1000, uno
de los dos motores que propulsa al Boeing 787. En los programas de aviones de fuselaje ancho anteriores, algunas de
las tecnologías claves en desarrollo estaban todavía lejos de su
madurez, por lo que no se produjo un salto cualitativo en
el módulo de la turbina de baja, donde ITP es responsable.
Como ya se ha mencionado, las demandas tecnológicas requerían una mejora en consumo, que se traduce en aumento
de rendimiento, reducción de peso, reducción del ruido en
las maniobras críticas, y en un salto en la competitividad
del subsistema para contribuir a la competitividad global del
motor en su conjunto.
Para hacer frente a estos retos, ITP ha estado desarrollando
tecnologías aerodinámicas, aeroacústicas, mecánicas y de
materiales y procesos. Finalmente, el salto global en los parámetros claves ha sido:
• Reducción de peso superior al 25%.
366
• Mejora en la competitividad, derivada tanto de la reducción de peso como de diseños avanzados de los componentes.
Desarrollo de un sistema de simulación
computacional
Enfrentarse al reto del diseño competitivo en productos altamente tecnológicos como los motores aeronáuticos, solo
es posible si se cuenta con las mejores armas. En este caso,
estas armas son los sistemas de diseño computacional.
Estas herramientas de diseño, que en buena parte son propiedad intelectual, y la información que en ellas está contenida, son el secreto mejor guardado de las empresas. En ellas
están guardados la mayor parte del conocimiento y la experiencia de años y años de investigación y desarrollo, garantizando que en cada nuevo diseño se vierte toda la experiencia de los anteriores y todas las mejoras obtenidas en la I+D.
Para ello, a mediados de la década de 1990, ITP con la colaboración de la ETS de Ingenieros Aeronáuticos de la UPM,
comenzó a desarrollar paso a paso todas las herramientas
necesarias para conseguir una ventaja competitiva, primero
en el diseño aerodinámico y posteriormente en todos los aspectos de diseño mecánico.
Después de cerca de quince años de desarrollo, ITP está a la
vanguardia mundial en códigos fluidodinámicos, aeroelásticos
y termomecánicos, no sólo en cuanto a cada uno por separado,
sino que en su conjunto, que se describe de forma gráfica en
la figura 16, constituyen un sistema líder a nivel mundial, pudiendo
Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo
compararse al que poseen algunas de las empresas que superan
ampliamente a ITP tanto en experiencia como en volumen.
Estas herramientas incluyen, entre otros, códigos de simulación tridimensional, multietapa y no estacionarios (véase la
figura 17), y todas ellas han incorporado los resultados experimentales que se describirán en los próximos apartados. Mediante el uso de estos códigos se llega a simular con enorme
precisión el comportamiento funcional de la turbina en todo
el rango de operación.
Desarrollo de la tecnología aerodinámica
Dado que la función principal de la turbina es la de extraer
el trabajo de los gases de forma eficiente, combinado con el
hecho de que la TBP es el componente de mayor relevancia
en lo que a consumo se refiere, se comprende fácilmente
que los desarrollos de tecnología en el área de aerodinámica
son probablemente los más importantes para conseguir un
producto competitivo.
Capacitación en universidades y centros
tecnológicos: desarrollo de túneles de
investigación experimental
La labor de las universidades y centros tecnológicos se centra
fundamentalmente en los niveles inferiores de la escala de
madurez de la tecnología, es decir, en aquellos estadios
donde el peso se centra en el desarrollo teórico básico o experimental a escala de laboratorio.
Figura 16. Esquema del sistema de diseño de ITP
En el caso de la tecnología aerodinámica, cuando ITP exploró
las posibilidades en España, encontró que no existía ninguna
instalación que pudiese servir para la investigación en turbomaquinaria, ni tampoco había instalaciones que, sin cubrir
exactamente las necesidades, fuese lo suficientemente similar
como para que la experiencia del equipo humano sirviese y
la instalación pudiera ser adaptada.
367
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
Figura 17. Códigos de simulación fluidodinámica
Dada la situación, el camino que se siguió fue el que ya se
ha mencionado con anterioridad: comenzar las actividades
en centros europeos ya existentes y, en paralelo, desarrollar
la capacitación de universidades y centros locales.
Esta labor de adquisición de tecnología de universidades y
centros ha durado una década y todavía no ha concluido,
por lo que hay que seguir realizando un esfuerzo continuo
para, poco a poco, ir acortando las distancias con los centros
punteros a nivel europeo y mundial.
368
Durante esta década de impulso empresarial en la investigación, tecnología e innovación en los centros, merece la pena
destacar por su importancia dos casos: el Laboratorio de Fluidodinámica que se encuentra en la ETS de Ingenieros Aeronáuticos de la Universidad Politécnica de Madrid (UPM) y el
Banco de Ensayos Fluidodinámicos del Centro de Tecnologías
Aeronáuticas (CTA). En el primer caso, se conjuga la investigación teórica fundamental y la experimentación básica,
mientras que en el segundo se da el salto a los vehículos experimentales más cercanos al entorno real en que después
Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo
funcionarán las turbinas. En ambos casos, el objetivo fundamental es entender los mecanismos físicos que dan lugar a
las pérdidas de eficiencia y los medios para minimizar dichas
pérdidas, así como comprobar experimentalmente las soluciones adoptadas.
Merece la pena resaltar que, a diferencia de otros módulos del
motor, la turbina de baja funciona a un número de Reynolds
típicamente transicional, es decir, en una primera parte de los
álabes el flujo es laminar para, posteriormente, variar a turbulento. Este hecho es clave para entender las dificultades y riesgos que acompañan a la aerodinámica de las TBP y analizar
las áreas de mejora. Un ejemplo de riesgo que se puede dar
con bastante probabilidad, si no se entienden a fondo los mecanismos físicos de la aerodinámica transicional, es la posibilidad de tener el flujo desprendido en los álabes, lo que da
lugar a una reducción drástica tanto de la eficiencia como del
trabajo que proporciona la turbina.
Para conseguir los objetivos fijados en la colaboración entre
ITP y la UPM, el equipo investigador conjunto ha desarrollado, además de numerosos modelos teóricos de comportamiento fluido, tres túneles aerodinámicos, uno de los cuales
se muestra en la figura 18, que simulan el comportamiento de
una fila de álabes y de sus zonas más críticas, así como de
una amplia variedad de tecnologías de medida. Este último
aspecto es clave para que la validación de los modelos teóricos sea lo más precisa posible. Entre otras técnicas se emplea la anemometría láser, la película y el hilo caliente. El dominio y perfeccionamiento en las medidas es, en sí mismo,
un área de desarrollo tecnológico.
En el caso del Banco de Ensayos Fluidodinámicos del CTA, que
se muestra en la figura 19, ITP contribuyó hace algo más de una
década a su creación y puesta en marcha. Este centro tiene
capacidad para ensayar prototipos de turbina, con un tamaño
muy cercano al real, y para reproducir prácticamente todos los
fenómenos físicos que se encuentran en el motor. Al igual que
en el laboratorio de la UPM, el aspecto fundamental es la capacidad de medir con precisión y alcanzar un alto grado de
Figura 18. Túnel aerodinámico
Figura 19. Banco de ensayos fluidodinámicos del CTA
repetibilidad, ya que en muchos
casos se intentan comparar mejoras relativamente pequeñas, y la
falta de precisión o de repetibilidad
pueden dar lugar a resultados
erróneos. Aquí se han desarrollado
tecnologías de medida con sondas
miniaturizadas, como la que se
muestra en la figura 20, comparando
su tamaño con una moneda; o
sondas de alta velocidad que no
Figura 20. Sonda miniaturizada
369
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
solo son altamente precisas, sino que reducen el tiempo de
ensayo de forma significativa. Ello ha colocado al CTA en
una posición de liderazgo frente a la mayoría de laboratorios
europeos y, por tanto, ha permitido a ITP dar un salto en el
diseño aerodinámico de turbinas, haciéndolas más compactas, reduciendo la longitud más de un 20% con diseños más
agresivos, reduciendo el número de álabes y, por tanto su
peso y coste, y seguir aumentando el rendimiento, lo que
ha situado a la empresa en una posición de liderazgo a nivel
mundial.
Desarrollo de la tecnología aeroacústica
El ruido es uno de los aspectos con más repercusión social,
ya que en la operación de las aeronaves las áreas afectadas
pueden llegar a ser muy amplias y están, en muchos de los
casos, en zonas urbanas o cercanas a las mismas.
En la maniobra de despegue, la turbina de baja apenas contribuye al ruido global, siendo el fan y el chorro los mayores
contribuidores en el lado del motor. Sin embargo, en el caso
del ruido de aproximación, la turbina de baja es potencialmente una de las fuentes de ruido más importantes del
motor. Esta contribución puede ser especialmente penalizadora, ya que las frecuencias de los tonos que se emiten en
la maniobra de aproximación están en el entorno del rango
más dañino para el oído humano.
Para conseguir que el ruido sea el mínimo en los puntos de
operación de interés hay que desarrollar la capacidad de simular las emisiones acústicas y su espectro completo, lo que
en el caso de una turbomáquina multietapa tiene una enorme complejidad. A diferencia de otros atributos técnicos, en
los que la física tiene unos efectos mayoritariamente lineales,
las emisiones acústicas son altamente no lineales. Este efecto
es aún mayor en una turbina de baja presión, donde, por
ejemplo, se puede dar la situación de que el ruido de tonos
de una etapa quede totalmente atenuado en la siguiente o,
por el contrario, se amplifique enormemente.
370
Durante los últimos años, tanto en el ámbito de las simulaciones computacionales como de los ensayos experimentales
de prototipos de I+D, se han producido enormes avances,
de forma que hoy se pueden predecir con una precisión más
que notable las emisiones acústicas de la TBP, además de
tener una serie de criterios orientados a minimizar, desde
las fases más tempranas del diseño, el impacto acústico en los
puntos de operación de interés. Hasta no hace mucho, las
reglas disponibles eran demasiado simples, muy cualitativas,
no siempre conservadoras y, por tanto, se confiaba en los
ensayos de medidas acústicas sobre el motor real durante la
fase de desarrollo, que proporcionaban la información necesaria para saber si se requería o no un cambio de diseño,
dando además una indicación de dónde estaban los principales problemas. Pero, obviamente, no indicaban cómo solucionar el problema detectado, a lo que hay que añadir la
escasez de centros de pruebas a cielo abierto para realizar
este tipo de ensayos.
En la última turbina diseñada por ITP para un avión de doble
pasillo, y que ya ha sido probada en motor completo en un
ensayo acústico, se ha comprobado que las predicciones de
ruido a nivel del módulo completo se cumplen satisfactoriamente. Este hecho supone un espaldarazo definitivo a todo
lo que se ha venido desarrollando tanto a nivel de simulación
como a nivel de medidas en túnel aerodinámico, donde se
dispone de un módulo rotatorio de medida de ruido, orientado a la validación de los diseños dotados de nuevas técnicas de reducción de emisiones acústicas.
Desarrollo de nuevos materiales de turbina
Trabajar de forma continua a temperaturas en el entorno de
los 900 a 1.000 ºC, con unos gradientes térmicos gigantescos
tanto en el espacio (en unas pocas decenas de milímetros hay
diferencias de temperaturas de varios cientos de grados)
como en el tiempo (un motor pasa de la condición de ralentí
a máxima potencia en menos de cinco segundos), y sometidos además a unos tremendos esfuerzos tanto estacionarios
Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo
como alternantes, requiere unos materiales con unas propiedades mecánicas fuera de lo común. Esto es especialmente exigente en los álabes, tanto estacionarios como rotativos, ya que
se encuentran en contacto directo con los gases procedentes
de la combustión. Para superar continuamente este reto, se
han venido creando nuevas aleaciones para usarlas en la fundición de estos componentes, además de nuevos procesos
como la solidificación direccional o la solidificación en monocristal. Todas estas superaleaciones tienen como materiales
principales el níquel y el cobalto, con menor cantidad de otros
aleantes, que se añaden para robustecer alguna de las propiedades particulares que demanda este tipo de componentes.
El resultado final: una nueva generación de
turbinas de baja
Cuando se combinan todos los desarrollos aerodinámicos,
aeroacústicos, mecánicos, materiales, etc., en el nuevo producto, se obtiene como resultado una nueva generación de
turbinas de baja (véase la figura 21) que consigue los objetivos
de reducción de peso, longitud, ruido, mejora de rendimiento y competitividad.
A pesar de que las cantidades de otros elementos son proporcionalmente pequeñas, al tratarse de materiales poco comunes, como por ejemplo algunos elementos de los que se
encuentran entre las tierras raras de la tabla periódica, el
coste sube de manera exponencial. Dentro de esta categoría
de materiales, ITP ha desarrollado aleaciones que son propiedad de la empresa y que suponen una ventaja competitiva
en propiedades mecánicas y peso.
Si se atiende ahora a las últimas etapas de la TBP, esta es sometida a una temperatura que, si bien es superior a la que
se encuentra en la mayoría de turbomáquinas, ha decrecido
entre doscientos y trescientos grados en relación con la etapa
inicial. Esta menor temperatura abre la puerta a utilizar en la
parte final materiales intermetálicos y, en particular, aluminuros de titanio. La menor densidad, con la consiguiente reducción de peso, es el hecho que impulsa a usar estas aleaciones, si bien sus propiedades mecánicas, inferiores a las
que se encuentran en las superaleaciones, junto a una mayor
fragilidad a temperatura ambiente, han venido dificultando
su uso en la propulsión aeronáutica.
Finalmente, si se mira hacia el futuro se abre un nuevo
campo en los materiales compuestos de matriz cerámica, por
su alta capacidad de resistencia a la temperatura y por la reducción de peso que permiten. Supone un reto enorme, pero
las recompensas merecen la pena.
Figura 21. Nueva generación de turbinas de baja
Este salto es tal que sitúa a ITP en la vanguardia de las empresas aeronáuticas, proporcionando unas mejoras sobresalientes al motor en su conjunto que contribuyen a su competitividad. Así, en los próximos años, la mitad de los aviones
de doble pasillo de todo el mundo llevarán una turbina de
baja de ITP.
Además de eso, toda la capacitación, no solo de la propia
empresa sino de la red de centros que colaboran con ella,
pone a la industria española en una posición inmejorable
para acceder a otros segmentos de negocio como los aviones
monopasillo o los regionales, con este u otro subsistema.
371
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
COMPETITIVIDAD Y MERCADO GLOBAL
Expansión de la empresa: competitividad y
globalización
Introducción
La competitividad en el sector aeronáutico se puede ejemplificar en tres factores: la constante reducción de las tarifas
aéreas (Partnership for Research and Technology and European Growth. A Position Paper produced by the External
Advisory Group for Aeronautics. Recommendations to the
European Commission. Office for Official Publications of
the European Communities. April 2000) en contraposición
al aumento del precio del petróleo, contribuyente clave en los
costes de operación; la escalada en el precio de las principales materias primas, tanto de la aeronave como del motor; y
el aumento de los costes de personal. Ante esta tendencia,
que hace que la competencia sea cada vez mayor entre los
diferentes actores, solo queda una solución: ostentar el liderazgo tecnológico para ir un paso por delante de los principales competidores.
En lo que se refiere al mercado global, desde hace décadas
el sector aeronáutico está completamente globalizado. Aquí
se pueden poner numerosos ejemplos, pero basta simplemente con mirar una pieza como puede ser un álabe de la
TBP para descubrir que el diseño se realiza en España, la fundición puede hacerse en Europa o Estados Unidos, el mecanizado en Japón y el montaje final en la turbina, nuevamente
en España. Desde el punto de vista logístico es fácil ver que
no es lo óptimo, pero este ejemplo es algo que, lejos de ser
la excepción, es una situación bastante habitual, por lo que
hay que tener los mecanismos adecuados para gestionarla.
Otro de los elementos impulsores fundamentales en la globalización es el “efecto dólar”: el sector aeronáutico civil
tiene como moneda de referencia el dólar y, por tanto, los
precios, transacciones, etc., tienen lugar en esta moneda. La
consecuencia es que si se quiere reducir el riesgo de las fluctuaciones de cambio, que están fuera del control de las
empresas y que son imposibles de predecir, además de los
instrumentos financieros habituales hay que tener una base
de operación en zona dólar.
372
En aras de mejorar la competitividad y también para ser capaces de afrontar el reto de la globalización, principalmente
en lo que se refiere al “efecto dólar”, ITP ha decidido tener
mayor presencia mundial, tal y como se muestra en la figura 22. Aquí merece especial atención la planta de México,
donde además de un negocio de mantenimiento que fue el
origen del centro, hace unos años que se lanzaron las actividades de ingeniería de diseño y fabricación. Ambas garantizarán la presencia en un país competitivo y con una moneda más ligada al dólar, factores ambos claves para el
futuro. En el caso de la ingeniería de diseño, las herramientas computacionales que permiten gestionar el trabajo en
múltiples localizaciones geográficas, como Product Lifecycle
Management (PLM), son claves para que los potenciales
errores, fruto de las dificultades de comunicación generadas
por la distancia geográfica o, en otros casos, por las diferencias tanto culturales como de idioma, sean mínimos e,
idealmente, desaparezcan.
La calidad como aspecto diferencial
Para entender la importancia de la calidad en el sector de
la propulsión aeronáutica se podría retroceder unas cuantas décadas, hasta los comienzos de este sector, cuando
los motores eran de tipo alternativo, y recordar las palabras
de sir Roy Fedden: “When the Ministry of Munitions tried
to force Rolls-Royce to get a dozen or so other firms to
make their engines, that very great man Claude Johnson
took the bold stand that he would tear up every drawing
and go to prison rather than agree to risk inferior skills of
other companies”.
El temor de Claude Johnson no era otro que el de enfrentarse a cantidades ingentes de piezas que no fuesen más que
chatarra o, todavía peor, a escapes de calidad que pudiesen
dar lugar a incidentes más graves. Este ejemplo, lejos de ser
Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo
algo que no responde a la realidad de hoy día, es un caso
que podría haberse producido hace unos poco años o unos
pocos meses.
Pero esta obsesión por la calidad no es algo que ocurra únicamente en los aspectos de fabricación, sino que está presente en todo el proceso de diseño y desarrollo. Los estrictos
criterios de certificación y cualificación hacen que, desde
todas las fases del diseño a los ensayos de componente y de
motor, junto con todos los aspectos documentales, respondan a los más altos estándares de calidad. Es más, la Agencia
Europea de Seguridad Aérea (EASA), certifica la conformidad
no solo de los productos, proporcionando lo que se conoce
como certificado de tipo, sino que previamente es necesario
que para ambos casos (diseño y desarrollo en primer lugar y
fabricación a continuación), las organizaciones estén cualificadas, objetivo para el cual son sometidas a rigurosas auditorías. Estas tratan de garantizar que las empresas dispongan
desde el primer momento de los mecanismos necesarios para
que los diseños y su fabricación sean los adecuados. Esto podría ser algo valorado en otros sectores, pero en el caso del
aeronáutico, donde la seguridad es un requisito incontestable, se convierte en vital y constituye uno de los elementos
diferenciales.
Figura 22. Presencia mundial de ITP
373
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
EL FUTURO DE LAS TURBINAS DE GAS
Introducción
Ahora mismo la aeronáutica se encuentra en un momento
clave para ser capaz de superar los retos que tiene enfrente,
fundamentalmente el medioambiental, y marcar así la senda
de las próximas décadas. El segmento del avión monopasillo
está a punto de renovarse y en este paso es probable que haya
un cambio no solo cuantitativo, sino también cualitativo.
La presión por la reducción de CO2, junto con el precio del
petróleo en cotas superiores a los 100 dólares por barril,
hacen que haya que explorar soluciones innovadoras para
alcanzar mejoras en el consumo de combustible.
En los ciclos convencionales, el esfuerzo por mejorar el consumo se ha realizado tanto aumentando la eficiencia propulsiva,
que mejora el empuje específico, como mejorando la eficiencia
termodinámica. Como se ha visto anteriormente, esto lleva a
aumentar la relación de derivación, con ventiladores de mayor
tamaño y núcleos cada vez más pequeños, a la vez que se aumenta la temperatura máxima y la relación de compresión. En
el estado tecnológico actual, todavía sería posible aumentar la
temperatura, puesto que no se ha llegado al límite estequiométrico, pero eso conduciría a unos niveles excesivamente altos
de emisiones de NOx. Por otra parte, el aumento del tamaño
del fan y la consiguiente reducción del tamaño del núcleo, con
la configuración actual, hace que la mejora teórica desaparezca, puesto que aumenta el peso, se incrementan las pérdidas
de instalación en la aeronave y la eficiencia real del núcleo también se reduce, al reducirse su tamaño. Todo esto conduce a
que sea necesario un cambio de arquitectura.
ciclo. Desafortunadamente, no todo son ventajas y el aumento de peso y, sobre todo, el ruido tanto radiado al exterior como transmitido al interior de la célula, eran excesivos y no existía tecnología para una atenuación efectiva.
Por estas y algunas otras dificultades técnicas, a las que se
unió un precio del petróleo más barato durante muchos
años, la idea fue abandonada o, mejor dicho, pospuesta.
Ahora, un cuarto de siglo después, vuelve a apreciarse un
aumento significativo en el precio del petróleo, que, a pesar
del enfriamiento sufrido a raíz de la crisis, ha vuelto de nuevo
a subir por encima de los 100 dólares el barril y continúa su
ascenso, tal y como muestran las predicciones de la figura 23.
Además, la presión mundial para la reducción de emisiones,
incluidas las tasas por mayores consumos de CO2, hace más
y más necesarias soluciones limpias desde el punto de vista
medioambiental. La buena noticia es que, ahora, los avances
tecnológicos en las diferentes disciplinas son tales que permitirán volver sobre el concepto del open rotor.
Comparando las turbinas de gas avanzadas con el ciclo actual y lo que sería una con un open rotor (véase la figura 24),
se puede observar que esta última supone una ventaja de
entre un 5 y un 10% en el combustible necesario por operación, con un impacto menor en ruido.
Nuevos ciclos como alternativa
Ya a finales de los setenta y en los ochenta, tras la crisis
del petróleo, se investigaron ciclos como el open rotor,
que mejora sustancialmente la eficiencia propulsiva del
374
Figura 23. Previsión de la evolución del precio del petróleo
Las nuevas turbinas de baja presión: hacia el 50% de la cuota mundial de mercado en los aviones de doble pasillo
yectos como el TP400 D6, que propulsa al avión de transporte A400M, sitúa a la empresa en una situación privilegiada. Además, aparecen otras posibilidades, como la estructura estática trasera o las estructuras rotatorias que
llevan las palas propulsoras o el compresor de entrada.
Todas estas posibilidades no han sido aún desarrolladas suficientemente y para llevarlas a cabo se tienen que realizar
los planes tecnológicos que las sitúen en un nivel de madurez
adecuado. Esta será una labor de casi diez años de investigación, que afortunadamente ya ha comenzado, y que
podría conducir a un cambio en la propulsión aeronáutica
tan radical que cambiará la forma en la que se conoce hoy
la aviación.
Figura 24. Exigencias de consumo y ruido
BIBLIOGRAFÍA
No obstante, en el caso del open rotor aparecen dos retos que
hay que superar: la instalación en el avión debido al tamaño
de las palas y la menor velocidad de crucero. El primer caso
puede suponer que haya que ir a una configuración de motores en cola con unos empenajes adecuados para garantizar
la estabilidad y el control de la aeronave, reducir las vibraciones
que se transmiten a la célula y, a la vez, apantallar en la medida de lo posible el ruido procedente de las palas. El segundo
puede hacer que estos motores tengan una aplicación más
clara en aviones de corto recorrido, en trayectos inferiores a
las dos horas, donde una pequeña pérdida de velocidad tiene
un impacto menor en el tiempo total de la operación, mientras
que en los aviones de medio o largo recorrido ese impacto
sería más significativo y, actualmente, tendría una mayor dificultad de aceptación.
Para ITP, este nuevo concepto significa que aparecen oportunidades nuevas, como la turbina de potencia de muy alta
velocidad, que gracias a la experiencia acumulada en pro-
Annual Energy Outlook 2006, with Projections to 2030
(2006). Energy Information Administration, Office of Integrated Analysis and Forecasting, US Department of Energy.
Washington, DC.
Gándara, A. SENER la historia de su tiempo. Sener. Salamanca, 2006.
Market Outlook 2009. Forecast 2009-2028. Rolls Royce.
www.rolls-royce.com/Images/brochure_MarketOutlook
2009_tcm92-14291.pdf, (última consulta 20-01-2011).
Outlook for commercial aircraft 1991-2010. Douglas Aircraft
Company. Long Beach, CA.
VV.AA. European Aeronautics: A Vision for 2020. Office for
Official Publications of the European Communities. Luxemburgo, 2001.
El desarrollo de la familia de aerogeneradores G10X
La evolución de la tecnología eólica
MAURO VILLANUEVA MONZÓN
(Bilbao, 1960)
Director de Desarrollo Tecnológico
en la Corporación Tecnológica Gamesa
Ingeniero Superior Industrial por la Universidad del País Vasco.
Máster of Science en Tecnologías de Fabricación Avanzada del
Cranfield Institute of Technology (Reino Unido) y Executive MBA
(INSIDE, Universidad Comercial de Deusto).
Es responsable de más de 50 proyectos por año con un presupuesto anual de unos 6 millones de euros. También es responsable de la Gestión del Patrimonio Tecnológico, formado por los
proyectos “Fabrica de Patentes”, cuyo portafolio contiene más
de 450 solicitudes, el de “Vigilancia Tecnológica y Protección”, el de
“Inteligencia Tecnológica”, así como el de “Reflexión Estratégica
Tecnológica”.
Anteriormente fue Director de la Unidad Técnica de Madrid
y Miembro del Comité de Dirección de Robotiker, centro tecnológico actualmente integrado en Tecnalia. Entre 1995 y 2000 fue
el primer Director de la Federación Española de Centros Tecnológicos (FEDIT), agrupación de los 70 centros tecnológicos españoles. Entre su experiencia profesional anterior, destaca su trabajo
durante 5 años en Sisteplant, S.A., de Corporación IBV (Iberdrola
y BBVA), consultores en organización e ingeniería industrial,
donde fue Socio-Director de la División de Ingeniería y miembro
del Comité de Dirección. Previamente trabajó otros 5 años para
el mencionado Robotiker como Director del Departamento de
Comunicaciones Industriales. Ha sido responsable del grupo
de trabajo de Financiación de la I+D y, además, miembro del
comité directivo de la TPWind (Plataforma Europea de Tecnología
Eólica).
Es miembro del Órgano Gestor de REOLTEC (Red Científico
Tecnológica del Sector Eólico Español), también es miembro
del Patronato del CIC Energigune en nombre de Gamesa y fue experto nacional para el plan Español I+D 2003-2007. Es coordinador de los dos proyectos más destacados de la I+D eólica española aprobados por el programa Cénit, WINDLIDER y AZIMUT, con
un total de 35 millones de euros en subvención a fondo perdido,
así como del proyecto europeo del FP7 RELIAWIND.
El desarrollo de la familia de aerogeneradores G10X
Mauro Villanueva Monzón
GAMESA
eléctrica de Navarra), a través de SODENA (Sociedad de Desarrollo de Navarra).
Historia
Gamesa nació en 1976 con el objetivo de desarrollar nuevas
tecnologías y aplicarlas a actividades emergentes: robótica,
microelectrónica, medio ambiente o materiales compuestos.
Su división Gamesa Aeronáutica estaba especializada en la
ingeniería, fabricación y suministro de grandes conjuntos estructurales o partes completas de aeronaves para su posterior
ensamblaje en aviones y helicópteros. Esta diversidad dio
lugar a un nombre un tanto holístico (Grupo Auxiliar Metalúrgico Sociedad Anónima) y a un logotipo que pretendía
representar esta diversidad de actividades mediante un octógono.
La entrada de Gamesa en el sector eólico tuvo su génesis en
la política energética adoptada por el gobierno de Navarra a
comienzos de los años noventa. La herramienta ejecutora de
esta política energética fue la empresa EHN (Energía Hidro-
En octubre de 2004 se consideró que los objetivos de dicha
política energética habían sido alcanzados, lo que motivó la
salida de SODENA de EHN, y su venta a Acciona. Hasta entonces, la producción de electricidad por energías renovables
en Navarra había registrado incrementos espectaculares, pasando de los 272.511 MWh en el año 1989 a los 2,15 millones de MWh alcanzados en 2003, momento en que la
energía producida en Navarra mediante energías renovables
suponía más del 60% de su consumo, existiendo cerca de
mil aerogeneradores u 850 MW de potencia (equivalente a
la potencia de una central nuclear).
A la vista del importante número de aerogeneradores que
era necesario instalar, se toma la decisión, posteriormente
adoptada en casi todos los países o regiones en los que se
acomete un despliegue eólico, de que ello debía revertir en
el beneficio de Navarra, tanto en lo que tiene que ver con
379
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
la actividad industrial y económica, como en generación de
empleo.
Y este es el papel que estaba llamada a desempeñar Gamesa:
en 1994 se creó Gamesa Eólica como empresa ensambladora
de aerogeneradores, mientras que las actividades de promoción, construcción y explotación de parques eólicos comenzaron en 1995. Al año siguiente se puso en marcha el primer
parque eólico construido por Gamesa. El 51% del capital de
Gamesa Eólica estaba controlado por Gamesa y el 40% por
su socio danés Vestas Wind Systems (a partir de ahora denominado Vestas), además de SODENA.
Más adelante, en el origen de la Gamesa actual, participaron
firmes decisiones de la Administración Pública en los ámbitos
de la política energética y la financiación pública para conseguir crear un sector en el posteriormente recogería el testigo la iniciativa privada.
El reto tecnológico de Gamesa
Gamesa carecía de experiencia en este tipo de equipos, por
lo que se inició la búsqueda de un socio tecnológico con
probada experiencia. El resultado de este proceso de selección fue la alianza con Vestas, líder mundial en el sector,
con la que se firma un TTA (Acuerdo de Transferencia Tecnológica).
La actividad se inició con el modelo V47 (es decir, un aerogenerador fabricado por Vestas, con un diámetro de rotor
de 47 m), si bien el número de unidades ensambladas fue
simbólico.
La primera máquina fabricada en grandes cantidades fue la
G52 (“G” por Gamesa y “52” por el diámetro del rotor en
metros), con una potencia nominal de 850 kW; un modelo
pensado para vientos de velocidad elevada y bastante libres
de turbulencias, propios de la orografía danesa y del norte de
Europa. En resumidas cuentas, y parafraseando un vetusto
380
anuncio televisivo: “una máquina hecha por los de allí y para
los de allí”. Lógicamente, la inadecuación de este diseño a la
compleja orografía navarra comenzó a pasar factura, y el incipiente equipo de I+D de Gamesa Eólica, creado en 1999,
trabajó febrilmente para solucionar los problemas que, por
su especificidad, no necesariamente tenían todo el interés de
la matriz tecnológica.
A título de ejemplo: se acometieron una serie de desarrollos
orientados a aumentar la resistencia a las cargas de la máquina, como un bastidor o chasis prácticamente nuevo. El
bastidor es la gran pieza que se apoya en la base superior de
la torre y que soporta todos los componentes críticos de la
máquina: el eje de baja, acoplado al rotor y a sus correspondientes rodamientos; la multiplicadora; el eje de alta acoplado a su salida; el generador eléctrico, y la electrónica de potencia asociada para su control. Se abandonó el bastidor
original de fundición por uno que incorporaba elementos
mecanosoldados.
Como derivación de estos trabajos, en el año 2003 se adoptó
la decisión de invertir en una Unidad de Prueba de Bastidores, que permitió y sigue permitiendo alcanzar un profundo
conocimiento del comportamiento de estos elementos, para
así poder optimizar su diseño.
Otro elemento en el que se trabajó fue la mejora del sistema
de giro del bastidor sobre la base superior de la torre, denominado yaw. Aquí se reforzaron los motores eléctricos de
giro, se incorporaron sistemas de frenado y se modificó el
diseño de la corona, proclive a las roturas, con objeto de
reducir los costes de mantenimiento.
Estos trabajos se realizaron con una mínima supervisión del
personal de I+D de Vestas, lo que permitió la progresiva
emancipación tecnológica del incipiente departamento de
I+D de Gamesa Eólica, hoy constituido en la Dirección
General de Tecnología de Gamesa, en la que trabajan cerca
de mil personas, con una capacidad de trabajo cercana a
1.600.000 h de ingeniería anuales.
El desarrollo de la familia de aerogeneradores G10X
Los daneses, al tener conocimiento de estos nuevos desarrollos (que no simples mejoras tecnológicas), los incorporaron
en la gran mayoría de los casos a sus propios diseños.
Debido a la existencia del citado acuerdo de transferencia
tecnológica, Gamesa no procedió inicialmente a patentar
estos primeros desarrollos; las primeras solicitudes de patentes se empezaron a depositar en el año 2001, si bien
hasta 2003 no se inicia como tal la gestión del patrimonio
tecnológico en Gamesa, que actualmente alcanza las 177
patentes solicitadas (invenciones), de las que 76 han sido
concedidas. Su extensión en todos los países mercados de
Gamesa da lugar a un total de 450 patentes, solicitadas o
concedidas.
Rotor
Diámetro
58 m
Área de barrido
2.642 m2
Velocidad de giro
Variable 14,6 - 30,8 rpm, torres 55 y 65 m
Variable 16,2 - 30,8 rpm, torre 44 m
Sentido de giro
Agujas del reloj (vista frontal)
Peso (incl. Buje)
Aprox. 12 t
Peso (incl. Buje y Nacelle)
Aprox. 35 t
Palas
Número de palas
3
Longitud
28,3 m
Perfil
NACA 63.XXX + FFA-W3
Material
Fibra de vidrio preimpregnada de resina epoxy
Peso pala completa
2.400 kg
Torre tubular
Altura
Peso
2 secciones
44 m**
45 t
3 secciones
55 m**
62 t
3 secciones
65 m**
79 t
3 secciones
74 m**
94 t
Tipo modular
Diseño de la primera máquina Gamesa
Otro hito significativo fue la detección de la necesidad de
una máquina para vientos no tan elevados (lo que se denomina clase 2) Esto requiere un mayor diámetro de rotor, en
este caso concreto de 58 m. Para ello se desarrolló una pala
100% Gamesa, con una longitud de 27 m, que inicialmente
fue equipada en el mismo buje, bastidor y torre de la G52.
Esto fue posible debido a que Gamesa había adoptado una
decisión estratégica consistente en dotarse de capacidad tecnológica y fabril para la construcción de componentes eólicos. Este proceso se inició con la creación de Fiberblade para
la fabricación de palas eólicas, y con la compra, para su incorporación al grupo Gamesa, de Echesa para las multiplicadoras, Cantarey para los generadores eléctricos, y finalmente
Enertron para la electrónica de potencia.
El modelo G58, exclusivo del portafolio de máquinas de Gamesa, se convierte en un gran éxito comercial, vendiéndose
por miles de unidades en todo el mundo, y constituyendo
actualmente uno de los productos más interesantes desde
puntos de vista de rentabilidad de la inversión, fiabilidad y
bajo coste de energía (véase la figura 1).
* Disponible con certificación IEC IIB.
** En desarrollo
Multiplicadora
Tipo
1 etapa planetaria /
2 etapas de ejes paralelos
Ratio
1:61,74 (50 Hz)
1:74,5 (60 Hz)
Refrigeración
Bomba de aceite con radiador de aceite
Calentamiento aceite
1,5 kW
Generador 850 KW
Tipo
Generador doblemente alimentado
Potencia nominal
850 kW
Tensión
690 V AC
Frecuencia
50 Hz / 60 Hz
Clase de protección
IP 54
Número de palas
4
Velocidad de giro
1.000:1.950 rpm (50 Hz)
1.320:2.340 rpm (60 Hz)
Intensidad nominal Estator
670 A @ 690 V
Factor de potencia (estandar)
0,95 CAP - 0,95 IND a cargas parciales y
1 a potencia nominal*
Factor de potencia (opcional)
0,95 CAP - 0,95 IND en todo el rango de
potencias*
* Factor de potencia en bombas de salida del generador en el lado de baja tensión antes de la
entrada del transformador
Figura 1. Características de la G58
381
Tecnología para competir. Desarrollos tecnológicos que han impulsado a la empresa española
La creación de un cliente de referencia:
Gamesa Energía
de cualquier tipo de restricción de negocio para Gamesa
Eólica.
Otro gran acierto fue la creación de Gamesa Energía, inicialmente dedicada a la promoción y explotación de parques
eólicos, es decir, a la venta de energía eólica al sistema eléctrico.
La transferencia tecnológica de la máquina G80, si bien en
teoría no debería haberse visto afectada por esta salida, ya
que el TTA se mantenía vigente varios años después, en la
práctica situó al personal de ingeniería de Gamesa Eólica
ante el reto de industrializar esta nueva máquina prácticamente a partir de los planos de Vestas. Es decir, una situación
muy parecida a la que los nuevos fabricantes asiáticos están
enfrentando en estos últimos años.
Esta estrategia aporta diversas ventajas: en primer lugar, permite conocer de cerca las necesidades de los clientes en lo
tocante a la construcción, operación y mantenimiento. En
segundo lugar, se dispone de un profundo bagaje sobre la
operación de los equipos, lo que permite mejorar los procesos de diseño de los aerogeneradores desde esta óptica. En
tercer lugar, esta capacidad interna de promoción, aporta
un buffer, o colchón, para optimizar el balance entre la oferta de equipos y la demanda del resto de los clientes.
Sin embargo, a finales de 2004 se concluyó que la inmovilización de capital en estos parques eólicos de Gamesa Energía
restaba capacidad de maniobra al grupo y se procedió a su
venta mediante concursos para optimizar su rentabilidad financiera, por lo que a partir de esta fecha su papel se circunscribe a la promoción y ulterior venta.
A partir del diseño original de la máquina G80, Gamesa inició
una andadura con objeto de satisfacer las necesidades de sus
clientes, creando así los modelos G87, G90 y G97 (véanse la
figura 2 y la tabla 1).
Se instala
el primer aeg
G87
en Lubián
(España)
2003
2002
Se instala
el primer aeg
Gamesa G80
en Agualial
Vestas desarrolló una nueva máquina de 2 MW de potencia
nominal y con un rotor de 80 m. Es decir, con unas palas de
unos 37 m de longitud, un 40% mayor que la G58. La configuración era básicamente la misma que la de la familia
G5X, por lo que se trataba de un ejercicio de upscaling.
El acuerdo que Gamesa tenía con Vestas limitaba su venta
de aerogeneradores a España, Latinoamérica y norte de
África, si no era con autorización expresa de la firma danesa.
En 2001, Gamesa compró a Vestas su participación del 40%
en Gamesa Eólica por 287 millones de euros —con pingües
plusvalías para Vestas—, pero logrando así zafarse del yugo
382
2004
Primer aeg
Gamesa G80
60 Hz instalado
en Koshizaki
(Japón)
La emancipación tecnológica de Gamesa
Primer GW
instalado
Gamesa G8X
2005
Primer aeg
Gamesa G90
instalado en
Almendarache
(España)
4 GW
instalados
Gamesa G8X
2006
2007
8 GW
instalados
Gamesa G8X
2008
2009
Se instala el
parque eólico
G8X más grande
de EEUU
(Cayuga Ridge)
Apertura
de nuevas
instalaciones
Gamesa G8X
en EEUU
2010
Lanzamiento
de la nueva
plataforma
Gamesa
G9X
Figura 2. Evolución de la familia G8X
Tabla 1. Características de la familia G8X
Medio
ambiental/
opcionales
50 Hz
60 Hz
60, 67,
78, 100
√
√
√
√
67, 78,
100
√
√
√
2.000
kW
√
67, 78,
100
√
√
√
2.000
kW
√
78, 90,
√
√
√
Modelo
IEC
Potencia
unitaria
Conexión Altura
a red
de torres
G80
IA
2.000
kW
√
G87
IIA
2.000
kW
G90
IIA/
IIIA
G97
IIIA
El desarrollo de la familia de aerogeneradores G10X
Así, y utilizando como base la misma plataforma de tren de
potencia y bastidor mecánico, se desarrollaron modelos para
las clases 2 y 3 de vientos más bajos, y se produjeron torres
de diversas alturas, llegando hasta los 100 m en acero estructural, así como tecnologías para adaptarlas a las diferentes condiciones ambientales de alta y baja temperatura. Finalmente, se adaptaron a los diversos mercados americanos,
incorporando los códigos de red y las frecuencias de 60 Hz,
y obteniendo las certificaciones necesarias para trabajar en
aqu

Documentos relacionados