TEXTO PARA AE-107, AE-202, AE-213 Y AE

Comentarios

Transcripción

TEXTO PARA AE-107, AE-202, AE-213 Y AE
INFORMÁTICA APLICADa
A LA administración de EMPRESAs
PREPARADO POR LIC. JORGE KARICA C.
PARA ESTUDIANTES DE ADMINISTRACIÓN DE EMPRESAS
AE202, AE213, AE-307 Y AE413
FAECO-UP
INFORMÁTICA APLICADA
INTRODUCCIÓN
El mundo moderno ha ocasionado, como principal problema, que la mayoría de la
población en ningún momento llega a conocer enteramente en que consiste el cambio
tecnológico o en que se basan las nuevas tecnologías. Esto sucede porque no hemos estado
al tanto de los cambios que se suscitan día a día y porque utilizamos la tecnología pero no
necesariamente comprendemos sus principios y su comportamiento. Para algunos no es
necesario conocer como funciona un automóvil para conducirlo pero si no se conoce el
principio básico del mismo no entenderíamos el porque de revisar los aceites, el agua del
radiador, los neumáticos, la batería, la transmisión y otros componentes. Algo similar
sucede con los ordenadores, computadores o sistemas electrónicos de procesamiento de
datos. ¿Sabe un contador o auditor qué tiene por dentro un ordenador? ¿De qué depende su
velocidad? ¿Por qué se necesitan distintos tipos de programas? ¿Cuál es la importancia de la
memoria, las unidades de almacenamientos o los dispositivos multimedia? ¿Qué es un
microprocesador y para qué sirve? Todas estas preguntas deben poderse responder si
orgullosamente ostentamos un título universitario de cualquiera índole pero, aún mas,
cuando exigimos nos llamen Magíster o Magístra. La juventud moderna ha evolucionado en
este sentido y no hay adolescente que se le haya comprado una computadora que no desee
conocer toda la dinámica estructural y funcional de un ordenador de V o VI generación,
según sea el caso, para sacarle mayor provecho en su rendimiento, el fenómeno es
consecuencia de los video juegos, nintendo y play station con los cuales han convivido
desde su nacimiento. En este sentido los profesionales, enchapados a la antigua, todavía
cuestionan si deben o no conocer la principal herramienta de gestión con que se cuenta en
la actualidad, ya que según sus criterios si no las han necesitado, ya definitivamente no la
necesitarán. Toda esta argumentación sería perfectamente razonable si no emergiera,
devoradoramente, una juventud habida de utilizar cuanto recurso tenga disponible para
superar a cualquiera competencia profesional. Este precioso recurso se llama, hoy en día,
tecnología informática aplicada a las ciencias.
2
OBJETIVOS DE UNA EDUCACIÓN INFORMÁTICA.
Toda persona se siente orgullosa por una cultura religiosa, académica, moral, política y
socio económica pero muy pocas hablan de su cultura informática y es debido a la
poca importancia que se le da a este género de cultura. Poder identificar a la
Informática como ciencia especializada en los sistemas de información y poder
diferenciar que son sistemas de información ya debe ser parte de la cultura de un
Administrador, Economista, Contador, Médico, Auditor u otro profesional que pretenda
poder tomar decisiones en su vida profesional basado en información oportuna,
concisa, precisa y eficiente. El objetivo de esta educación se basa en la necesidad que
tiene el ser humano de tomar decisiones en casa, en la oficina, en la calle, en la vida y
en cualquier ámbito de conocimiento. Se basa en el principio de que todo dato
procesado se convierte en información para la toma de algún tipo de decisión.
Toda la ciencia pretende establecer que: “Los datos, como cuantificación de cualquier
variable de conocimiento, se organizan, a través del tratamiento, ordenamiento,
almacenamiento, recuperación y distribución, para originar la información, que será el
elemento esencial en los procesos de toma de decisiones, en cualquier ámbito del
conocimiento humano moderno”. Se parte del principio del modelo cibernético simple.
Los datos sometidos a procesos se transforman en información, elemento fundamental
en la toma de decisiones. La información mejora su eficiencia y calidad a través de un
proceso de retroalimentación continuo y sucesivo hacia el entorno de los datos y de los
procesos. Dentro del procesamiento de datos podemos diferenciar formas de proceso
diferentes: en Procesamiento Electrónico de Datos (PED) se procesan los datos con el
auxilio de los ordenadores a diferencia del manual en donde el hombre aplica todas
sus capacidades de proceso de los datos, sin el auxilio de herramienta alguna. En el
procesamiento electromecánico intervienen los equipos mecánicos movidos por
electricidad (Calculadora eléctrica) y en el procesamiento mecánico los equipos
mecánicos movidos por el hombre (Ábaco). En el procesamiento cibernético el hombre
se auxilia con los equipos de alta tecnología e inteligencia artificial para las
necesidades de procesamiento de datos. En el procesamiento de datos, tradicional, la
información producida, al darle tratamiento a los datos, se convierte en el producto
final independiente de su uso mediato o futuro. En el esquema de la Informática
Moderna, la información generada es el punto de base para la toma de decisiones en
el entendimiento que la misma es lo mas exacta, precisa, concisa y oportuna, esto es
así, por los continuos procesos de retroalimentación que aumentan, sucesivamente,
dicha calidad. El esquema gráfico que permite ilustrar en mecanismo se conoce como:
Modelo Cibernético Simple:
SISTEMA DE INFORMACIÓN
PROCESOS DE
CAPTURA
DATOS
TRATAMIENTO Y
TRASFORMACIÓN
PROCESOS
R
3
PRESENTACIÓN
SEGÚN NIVELES
INFORMACIÓN
RELACIÓN DE LA INFORMÁTICA CON OTRAS CIENCIAS
Definiciones de informática encontraremos en todos los libros, ya hemos planteado una que
consideramos adecuada, intentaremos fijar sus relaciones con otras ciencias.
La Informática, al igual que las matemáticas, se considera apoyo del resto de las ciencias del
conocimiento humano y mantiene relaciones muy estrecha con otras ciencias como son: la electrónica,
microelectrónica, la física, cibernética, genética, matemáticas, lógica y otras con menor intensidad.
A la electrónica le debe el desarrollo de los componentes de las diferentes generaciones de
computadores como son: el tubo al vacío (Primera generación), el transistor (Segunda Generación), el
Circuito Integrado (Tercera Generación) y los microprocesadores (Cuarta Generación hacia adelante); a
la microelectrónica la reducción microscópica de los componentes electrónicos de las recientes
generaciones de microcomputadores o microordenadores; a la física el estudio de materiales y
componentes para la estructura de los computadores u ordenadores; a la cibernética los mecanismos de
control de procesos aplicados en ordenadores o computadores; a la genética la estructura de
comportamiento y funcionamiento de los procesadores; a las matemáticas la utilización del sistema
numérico binario (Base 2) como elemento básico para la representación interna de los datos dentro de
los componentes y a la lógica el diseño de circuitos lógicos para los requerimientos de toma de
decisiones internos en los computadores. En la actualidad la informática se convierte en el pilar de todas
ciencias debido la capacidad de procesar datos de cada ciencia para convertirlos en información
aplicada a la ciencia que permita tomar decisiones en ámbitos científicos específicos.
Las principales divisiones de la informática son: la sistemática (Estudio de los Sistemas de
Información), Ofimática (Automatización de los procesos en las oficinas), la Domótica (Estudio del
Desarrollo de edificios y viviendas inteligentes) y la telemática (Estudio de los Sistemas de
Comunicaciones).
La informática genética pretende identificar procesos derivados del comportamiento genético
para aplicarlos al comportamiento cibernético (MD5-Hash e-DNA).
RELACIÓN DE LA INFORMÁTICA CON OTRAS CIENCIAS
INFORMÁTICA
MATEMÁTICAS
MICRO-ELECTRÓNICA
LÓGICA
ELECTRÓNICA
ARITMÉTICA
GENÉTICA
CÁLCULO
SISTEMÁTICA
TELEMÁTICA
SISTEMAS NUMÉRICOS
TECNOLOGÍAS
INFORMÁTICAS
OFIMÁTICA
DOMÓTICA
4
EVOLUCIÓN DE LAS TECNOLOGÍAS INFORMÁTICAS
SUCESOS DE MAYOR RELEVANCIA ANTES DE LA SEGUNDA GUERRA
MUNDIAL.
EL ÁBACO. Resulto ser el instrumento para contar de mayor utilización en el pasado,
construido por los chinos, se considera uno de los mayores aportes de la antigüedad
BLAISE PASCAL. Matemático y teólogo francés, a mediados del siglo XVII inventó la primera
calculadora mecánica a base de un conjunto de ruedas dentadas que permitían realizas sumas y
restas. Las ruedas trabajaban en forma sucesiva, diez dientes de la primera rueda causaban que la
segunda rueda avanzara un diente y diez dientes de la segunda causaban un avance de un diente
en la tercera. El diseño de ruedas de la “Pascaline” sirvió de base en todas las calculadoras
mecánicas hasta mediados de la década del 60.
LEIBNITZ. Científico alemán, en 1694 tomo como base la máquina inventada por Pascal y creo
un modelo que permitía multiplicar y dividir mediante sumas y restas sucesivas.
CHARLES BABBAGE. Matemático inglés, en 1835 diseño la máquina de diferencias y la
máquina analítica. Entre sus trabajos están una tabla logarítmica y unas tablas de mortandad
utilizadas para seguros de vida.
HERNÁN HOLLERITH. Creador del sistema de codificación de Hollerith. Permitía la
incorporación de datos en tarjetas a través de la perforación de zonas 12, 11 y 0 combinada con
los dígitos de 1 al 9 para formar las 27 letras del alfabeto, o la perforación única de los dígitos de
0 a 9 para los números y de multiperforaciones para los caracteres especiales. Junto a James
Pawers realizó el Censo de Población de los Estados Unidos en 1890. Diseñó máquinas de
perforación y clasificación que sentaron las bases del procesamiento de datos con equipos como
reproductoras, interpretadoras, clasificadoras, calculadoras y tabuladotas de tarjetas mejor
conocidos como Equipos de Registro Unitario o UNIT RECORD hasta mediados de los años
1960. Al Señor HOLLERITH se le atribuye la tutoría del sistema de codificación para tarjetas
5081 basado en perforaciones que permitió transcribir datos a tarjetas para su posterior proceso.
HOWARD AIKEN. Cerca del año de 1930, junto con ingenieros de IBM, se desarrollo el
primer prototipo de computadora mecánica llamada MARK I con capacidad de almacenar
instrucciones a ejecutar. Aiken construyo la MARK II; III Y IV posteriormente.
JOHN V. ATANASOFF. Profesor de la Universidad de IOWA junto a un estudiante
graduando, Clifford Barry ensamblaron el prototipo ABC, máquina para hacer cálculos de física
en menos tiempo. Atanasoff concibió la idea de una máquina con componentes electrónicos
como tubos al vacío, sistema numérico binario (como mecanismo de circuitos interno) y circuitos
de memoria y lógica que van a ser característicos del desarrollo de las computadoras modernas.
JOHN ECKERT, JOHN MAUCHLY Y ASOCIADOS. En 1942 en la Universidad de
Pennsylvania, escuela de ingeniería eléctrica, se fabricó la computadora ENIAC considerada la
primera de índole electrónica.
JOHN VON NEWMANN. Cerca de 1945 desarrolla una teoría respecto a la construcción de
una computadora de estructura física sencilla. El aporte fundamental de Von Newmann al
5
desarrollo de la computadora lo constituye el “principio del programa almacenado” en la
memoria de la unidad central de proceso.
SUCESOS RELEVANTES DESPUÉS DE LA SEGUNDA GUERRA MUNDIAL
GENERACIONES DE ORDENADORES. Características de Estructura.
CARACTERÍSTICA
PRIMERA
GENERACIÓN
SEGUNDA
GENERACIÓN
TERCERA
GENERACIÓN
CUARTA
GENERACIÓN
COMPONENTE
TUBO AL VACÍO
TRANSISTOR
CIRCUITO
INTEGRADO
MICROPROCESADOR
LENGUAJE
MÁQUINA
ENSAMBLADOR
COMPILADOR
COMPILADOR
ALTO NIVEL
LENGUAJE DE 4
GENERACIÓN(4GL)
ALMACENAMIENTO
TARJETA
TARJETA CINTA
MAGNÉTICA
TARJETA, CINTA Y
DASD
CINTA, DASD,
MULTIMEDIA, CD, DVD,
ÓPTICOS
PRIMERA GENERACIÓN DE ORDENADORES. (1951 A 1959)
ESTRUCTURA ELECTRÓNICA
LENGUAJE DE PROGRAMACIÓN
MEDIO DE ALMACENAMIENTO
ORGANIZACIÓN DE ARCHIVOS
OTRAS:
TUBO AL VACÍO
DE MÁQUINA (BINARIO)
TARJETA PERFORADA 5081
SECUENCIAL PURA
ALTA GENERACIÓN DE CALOR, UTILIZACIÓN DE AIRES
ACONDICIONADOS, VELOCIDAD DE PROCESO LENTO
SEGUNDA GENERACIÓN DE ORDENADORES. (1959-1963).
ESTRUCTURA ELECTRÓNICA
LENGUAJE DE PROGRAMACIÓN
MEDIO DE ALMACENAMIENTO
ORGANIZACIÓN DE ARCHIVOS
OTRAS:
TRANSISTOR
ENSAMBLADORES Y COMPILADORES (Bajo Nivel)
TARJETA PERFORADA 5081 Y CINTA MAGNÉTICA
SECUENCIAL PURA
ALTA GENERACIÓN DE CALOR, UTILIZACIÓN DE AIRES
ACONDICIONADOS, VELOCIDAD DE PROCESO
MILISEGUNDOS, APARECEN LAS TELECOMUNICACIONES.
MEMORIA DE NÚCLEOS MAGNÉTICOS.
TERCERA GENERACIÓN DE ORDENADORES. (1964-1979).
ESTRUCTURA ELECTRÓNICA
LENGUAJE DE PROGRAMACIÓN
MEDIOS DE ALMACENAMIENTO
ORGANIZACIÓN DE ARCHIVOS
OTRAS:
CIRCUITO INTEGRADO
COMPILADORES (Alto Nivel)
TARJETA PERFORADA 5081, CINTA MAGNÉTICA, DISCOS
MAGNÉTICOS
SECUENCIAL PURA, SECUENCIAL INDEXADA Y RANDOM
GENERACIÓN DE CALOR, UTILIZACIÓN DE AIRES
ACONDICIONADOS, VELOCIDAD DE PROCESO EN
MICROSEGUNDOS, MEJORAN LOS SISTEMAS DE
TELECOMUNICACIONES, MEMORIA DE TIPO MOS
(SEMICONDUCTOR DE OXIDO DE MAGNESIO)
CUARTA GENERACIÓN DE ORDENADORES. (1980 A LA FECHA)
ESTRUCTURA ELECTRÓNICA
LENGUAJE DE PROGRAMACIÓN
MEDIOS DE ALMACENAMIENTO
ORGANIZACIÓN DE ARCHIVOS
OTRAS:
LSIC, VLSIC MICROPROCESADORES
LENGUAJES DE CUARTA GENERACIÓN
TARJETAS, DISKETTES, CINTA MAGNÉTICA, DISCOS
MAGNÉTICOS, MULTIMEDIA, CD, DVD, ÓPTICOS, FLASH.
SECUENCIAL PURA, SECUENCIAL INDEXADA Y RANDOM
UTILIZACIÓN DE AIRES ACONDICIONADOS, VELOCIDAD DE
6
PROCESO NANOSEGUNDOS, MEJORAN LOS SISTEMAS DE
TELECOMUNICACIONES, MEMORIA DE TIPO RAM Y ROM,
APARECEN LOS SISTEMAS INALÁMBRICOS, TELEFONÍA
CELULAR, PROCESO DE VOZ, IMAGEN Y SONIDOS.
EVOLUCIÓN DE LOS MICROPROCESADORES. (1980 A LA FECHA).
.
Historia de los
microprocesadores
Han pasado más de 25 años desde que Intel diseñara el primer microprocesador, siendo la compañía
pionera en el campo de la fabricación de estos productos, y que actualmente cuenta con más del 90 por
ciento del mercado. Un tiempo en el que todo ha cambiado enormemente, y en el que desde aquel 4004
hasta el actual Pentium II hemos visto pasar varias generaciones de máquinas que nos han entretenido y
nos han ayudado en el trabajo diario.
Dicen que es natural en el ser humano querer mirar constantemente hacia el futuro, buscando
información de hacia dónde vamos, en lugar de en dónde hemos estado. Por ello, no podemos menos
que asombrarnos de las previsiones que los científicos barajan para dentro de unos quince años. Según
el Dr. Albert Yu, vicepresidente de Intel y responsable del desarrollo de los procesadores desde el año
1984, para el año 2011 utilizaremos procesadores cuyo reloj irá a una velocidad de 10 GHz (10.000
MHz), contendrán mil millones de transistores y será capaz de procesar cerca de 100 mil millones de
instrucciones por segundo. Un futuro prometedor, que permitirá realizar tareas nunca antes pensadas.
Los inicios
Sin embargo, para que esto llegue, la historia de los procesadores ha pasado por diferentes situaciones,
siguiendo la lógica evolución de este mundo. Desde aquel primer procesador 4004 del año 1971 hasta el
actual Pentium IV del presente año ha llovido mucho en el campo de los procesadores. Tanto, que no
estamos seguros si las cifras que se barajan en Intel se pueden, incluso, quedar cortas. Aquel primer
procesador 4004, presentado en el mercado el día 15 de noviembre de 1971, poseía unas características
únicas para su tiempo. Para empezar, la velocidad de reloj sobrepasaba por poco los 100 Khz., disponía
de un ancho de bus de 4 bits y podía manejar un máximo de 640 bytes de memoria. Realmente una
auténtica joya que para entonces podía realizar gran cantidad de tareas, pero que por desgracia no tiene
punto de comparación con los actuales micros. Entre sus aplicaciones, podemos destacar su presencia
en la calculadora Busicom, así como dotar de los primeros tintes de inteligencia a objetos inanimados.
Poco tiempo después, sin embargo, el 1 de abril de 1972, Intel anunciaba una versión mejorada de su
procesador. Se trataba del 8008, que contaba como principal novedad con un bus de 8 bits, y la memoria
direccionable se ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3500 transistores, casi el doble
que su predecesor, y se le puede considerar como el antecedente del procesador que serviría de corazón
al primer ordenador personal. Justo dos años después, Intel anunciaba ese tan esperado primer
ordenador personal, de nombre Altaír, cuyo nombre proviene de un destino de la nave Enterprise en uno
de los capítulos de la popular serie de televisión Star Trek la semana en la que se creó el ordenador.
Este ordenador tenía un coste de entorno a los 400 dólares de la época, y el procesador suponía
multiplicar por 10 el rendimiento del anterior, gracias a sus 2 MHz de velocidad (por primera vez se utiliza
esta medida), con una memoria de 64 Kb. En unos meses, logró vender decenas de miles de unidades,
7
en lo que suponía la aparición del primer ordenador que la gente podía comprar, y no ya simplemente
utilizar.
La introducción de IBM
Sin embargo, como todos sabemos, el ordenador personal no pasó a ser tal hasta la aparición de IBM, el
gigante azul, en el mercado. Algo que sucedió en dos ocasiones en los meses de junio de 1978 y de
1979. Fechas en las que respectivamente, hacían su aparición los microprocesadores 80086 y 80088,
que pasaron a formar el denominado IBM PC, que vendió millones de unidades de ordenadores de
sobremesa a lo largo y ancho del mundo. El éxito fue tal, que Intel fue nombrada por la revista "Fortuna"
como uno de los mejores negocios de los años setenta. De los dos procesadores, el más potente era el
80086, con un bus de 16 bits (por fin), velocidades de reloj de 5, 8 y 10 MHz, 29000 transistores usando
la tecnología de 3 micras y hasta un máximo de 1 Mega de memoria direccionable. El rendimiento se
había vuelto a multiplicar por 10 con respecto a su antecesor, lo que suponía un auténtico avance en lo
que al mundo de la informática se refiere. En cuanto al procesador 80088, era exactamente igual a éste,
salvo la diferencia de que poseía un bus de 8 bits en lugar de uno de 16, siendo más barato y obteniendo
mejor respaldo en el mercado.
En el año 1982, concretamente el 1 de febrero, Intel daba un nuevo vuelco a la industria con la aparición
de los primeros 80286. Como principal novedad, cabe destacar el hecho de que por fin se podía utilizar la
denominada memoria virtual, que en el caso del 286 podía llegar hasta 1 Giga. También hay que contar
con el hecho de que el tiempo pasado había permitido a los ingenieros de Intel investigar más a fondo en
este campo, movidos sin duda por el gran éxito de ventas de los anteriores micros. Ello se tradujo en un
bus de 16 bits, 134000 transistores usando una tecnología de 1.5 micras, un máximo de memoria
direccionable de 16 Megas y unas velocidades de reloj de 8, 10 y 12 MHz. En términos de rendimiento,
podíamos decir que se había multiplicado entre tres y seis veces la capacidad del 8086, y suponía el
primer ordenador que no fabricaba IBM en exclusiva, sino que otras muchas compañías, alentadas por
los éxitos del pasado, se decidieron a crear sus propias máquinas. Como dato curioso, baste mencionar
el hecho de que en torno a los seis años que se le concede de vida útil, hay una estimación que apunta a
que se colocaron en torno a los 15 millones de ordenadores en todo el mundo.
Microsoft Participa.
El año de 1985 es clave en la historia de los procesadores. El 17 de octubre Intel anunciaba la aparición
del procesador 80386DX, el primero en poseer una arquitectura de 32 bits, lo que suponía una velocidad
a la hora de procesar las instrucciones realmente importante con respecto a su antecesor. Dicho
procesador contenía en su interior en torno a los 275000 transistores, más de 100 veces los que tenía el
primer 4004 después de tan sólo 14 años. El reloj llegaba ya hasta un máximo de 33 MHz, y era capaz
de direccionar 4 Gigas de memoria, tamaño que todavía no se ha superado por otro procesador de Intel
dedicado al mercado doméstico. En 1988, Intel desarrollaba un poco tarde un sistema sencillo de
actualizar los antiguos 286 gracias a la aparición del 80386SX, que sacrificaba el bus de datos para
dejarlo en uno de 16 bits, pero a menor coste. Estos procesadores irrumpieron con la explosión del
entorno gráfico Windows, desarrollado por Microsoft unos años antes, pero que no había tenido la
suficiente aceptación por parte de los usuarios. También había habido algunos entornos que no habían
funcionado mal del todo, como por ejemplo el Gem 3, pero no es hasta este momento cuando este tipo
de entornos de trabajo se popularizan, facilitando la tarea de enfrentarse a un ordenador, que por aquel
entonces sólo conocíamos unos pocos.
Y si esto parecía la revolución, no tuvimos que esperar mucho para que el 10 de abril de 1989 apareciera
el Intel 80486DX, de nuevo con tecnología de 32 bits y como novedades principales, la incorporación del
caché de nivel 1 (L1) en el propio chip, lo que aceleraba enormemente la transferencia de datos de este
caché al procesador, así como la aparición del co-procesador matemático, también integrado en el
procesador, dejando por tanto de ser una opción como lo era en los anteriores 80386. Dos cambios que
unido al hecho de que por primera vez se sobrepasaban el millón de transistores usando la tecnología de
una micra (aunque en la versión de este procesador que iba a 50 MHz se usó ya la tecnología .8 micras),
hacía posible la aparición de programas de calidad sorprendente, entre los que los juegos ocupan un
lugar destacado. Se había pasado de unos ordenadores en los que prácticamente cualquier tarea
compleja requería del intérprete de comandos de MS-DOS para poder ser realizada, a otros en los que
con mover el cursor y pinchar en la opción deseada simplificaba en buena medida las tareas más
8
comunes. Por su parte, Intel volvió a realizar, por última vez hasta el momento, una versión de este
procesador dos años después. Se trataba del 80486SX, idéntico a su hermano mayor salvo que no
disponía del famoso co-procesador matemático incorporado, lo que suponía una reducción del coste para
aquellas personas que desearan introducirse en el segmento sin necesidad de pagar una suma elevada.
Aparece la familia del Pentium
Intel rápidamente anunció que en breve estaría en la calle una nueva gama de procesadores que
multiplicaría de forma general por cinco los rendimientos medios de los 80486. Se trataba de los
Pentium, conocidos por P5 (80586) en el mundillo de la informática mientras se estaban desarrollando, y
de los que la prensa de medio mundo auguraba un gran futuro, tal y como así ha sido. Estos
procesadores pasarán a la historia por ser los primeros a los que Intel no los bautizó con un número, y sí
con una palabra. Estos procesadores, partían de una velocidad inicial de 60 MHz, llegaron hasta los 200
MHz, algo que nadie había sido capaz de imaginar en años anteriores.
Con una arquitectura real de 32 bits, se usaba de nuevo la tecnología de .8 micras, con lo que se lograba
realizar más unidades en menos espacio. Los resultados no se hicieron esperar, y las compañías
empezaron aunque de forma tímida a lanzar programas y juegos exclusivamente para el Pentium. Algo
que demostró la aparición del nuevo sistema operativo de Microsoft Windows 95, que aunque funciona
en equipos dotados de un procesador 486, lo hacía sin sacar el máximo provecho de sus funciones.
Pentium Pro y Pentium II
La aparición, el 27 de marzo de 1995, del procesador Pentium Pro supuso para los servidores de red y
las estaciones de trabajo un nuevo ambiente. La potencia de este nuevo procesador no tenía
comparación hasta entonces, por la arquitectura de 64 bits y el empleo de una tecnología revolucionaria
como era la de .32 micras, lo que permitía la inclusión de cinco millones y medio de transistores en su
interior. El procesador contaba con un segundo chip en el mismo encapsulado, que se encargaba de
mejorar la velocidad de la memoria caché, lo que resultaba en un incremento del rendimiento
sustancioso. Las frecuencias de reloj se mantenían como límite por arriba en 200 MHz, partiendo de un
mínimo de 150 MHz. Un procesador que desde un principio no tiene intenciones de saltar al mercado
doméstico, ya que los procesadores Pentium MMX cubren de momento todas las necesidades en este
campo. Especificaciones técnicas de los microprocesadores Intel.
Fecha de
Velocidad
Ancho
presentación
de reloj
de bus
Número de
Memoria
Memoria
transistores
direccionable
virtual
Breve
descripción
4004
15/11/71
108 KHz.
4 bits
2.300 (10
micras)
640 byte
Primer chip con
manipulación aritmética
8008
1/4/72
108 KHz.
8 bits
3.500
16 KBytes
Manipulación Datos/texto
8080
1/4/74
2 MHz.
8 bits
6.000
64 KBytes
10 veces las (6 micras)
prestaciones del 8008
1 MegaByte
10 veces las prestaciones
del 8080
5 MHz.
29.000
80086
8/6/78
8 MHz.
16 bits
(3 micras)
10 MHz.
5 MHz.
80088
1/6/79
8 bits
Idéntico al 8086 excepto
en su bus externo de 8
bits
29.000
8 MHz.
8 MHz.
134.000
80286
1/2/82
10 MHz.
16 Bits
16 Megabytes 1 Gigabyte
(1.5 micras)
De 3 a 6 veces las
prestaciones del 8086
12 MHz.
Microprocesador
17/10/85
16 MHz.
32 Bits 275.000
9
4 Gigabytes
64
Primer chip x86 capaz de
Terabytes manejar juegos de datos
de 32 bits
20 MHz.
Intel 386 DX®
25 MHz.
(1 micra)
33 MHz.
Microprocesador
16 MHz.
16/6/88
Intel 386 SX®
275.000
16 Bits
20 MHz.
64
4 gigabytes
(1 micra)
Bus capaz de direccionar
16 bits procesando 32bits
Terabytes a bajo coste
25 MHz.
Microprocesador
10/4/89
33 MHz.
Intel 486 DX®
(1 micra, 0.8
32 Bits micras en 50
MHz.)
64
4 Gigabytes
Terabytes
Caché de nivel 1 en el
chip
50 MHz.
16 MHz.
Microprocesador
20 MHz.
22/4/91
Intel 486 SX®
1.185.000
32 Bits
25 MHz.
64
4 Gigabytes
(0.8 micras)
Idéntico en diseño al Intel
486DX, pero sin
Terabytes coprocesador matemático
33 MHz.
Procesador
Pentium®
22/3/93
3,1 millones
32 Bits
27/3/95
PentiumPro®
7/5/97
180 - 200
MHz.
233 a 300
MHz.
5,5 millones
64 Bits
64
4 Gigabytes
Arquitectura de ejecución
dinámica con procesador
Terabytes de altas prestaciones
4 Gigabytes
S.E.C., MMX, Doble Bus
64
Independiente., Ejecución
Terabytes
Dinámica
(0.32 micras)
64 Bits
7,5 millones
(0.32 micras)
Arquitectura escalable.
Hasta 5 veces las
prestaciones del 486 DX a
Terabytes 33 MHz.
64
4 Gigabytes
(0.8 micras)
150 MHz.
Procesador
Procesador
PentiumII®
60 a
200 mhz
Microprocesadores más Recientes
Es el cerebro del ordenador. Se encarga de realizar todas las operaciones de cálculo y de controlar lo
que pasa en el ordenador recibiendo información y dando órdenes para que los demás elementos
trabajen. Es el jefe del equipo y, a diferencia de otros jefes, es el que más trabaja. En los equipos
actuales se habla fundamentalmente de los procesadores Pentium4 de Intel y Athlon XP de AMD.
Además, están muy extendidos procesadores no tan novedosos, como los Pentium MMX y Pentium II/III
de Intel y los chips de AMD (familias K6 y los primeros K7/Athlon).
Tipos de conexión
El rendimiento que dan los microprocesadores no sólo depende de ellos mismos,
sino de la placa donde se instalan. Los diferentes micros no se conectan de igual
manera a las placas:
• Socket, con mecanismo ZIF (Zero Insertion Force). En ellas el procesador
se inserta y se retire sin necesidad de ejercer alguna presión sobre él. Al levantar la palanquita
que hay al lado se libera el microprocesador, siendo extremadamente sencilla su extracción.
Estos zócalos aseguran la actualización del microprocesador. Hay de diferentes tipos:
o Socket 423 y 478. En ellos se insertan los nuevos Pentiums4 de Intel. El primero hace
referencia al modelo de 0,18 micras (Willamete) y el segundo al construido según la
tecnología de 0,13 micras (Northwood). También hay algunos de 478 con núcleo
Willamete. El tamaño de micras mencionado hace referencia al tamaño de cada
transistor, cuanto menor sea tu tamaño más pequeño será el micro y más transistores
10
•
•
será posible utilizar en el mismo espacio físico. Además, la reducción de tamaño suele
estar relacionada con una reducción del calor generado y con un menor consumo de
energía. En el zócalo 478 también se insertan micros Celeron de Intel de ultimísimo
generación similares a los p4 pero más económicos
o Socket 462/Socket A. Ambos son el mismo tipo. Se trata donde se insertan los
procesadores Athlon en sus versiones más nuevas:
 Athlon Duron (versión reducida, con sólo 64 Kb de memoria caché, para
configuraciones económicas)
 Athlon Thunderbird (versión normal, con un tamaño variable de la memoria
caché, normalmente 256 Kb)
 Athlon XP (con el núcleo Palomino fabricado en 0,18 micras o Thoroughbred
fabricado en 0,13 micras) es un Thunderbird con una arquitectura totalmente
remodelada con un rendimiento ligeramente superior a la misma frecuencia
(MHz), con un 20% menos de consumo y el nuevo juego de instrucciones SEC
de Intel junto con el ya presente 3DNow! de todos los procesadores AMD desde
el K6-2. o con el núcleo T).
 Ahlon MP (micro que utiliza el núcleo Palomino al igual que el XP, con la
salvedad que éste accede gestiona de forma diferente el acceso a la memoria al
hora de tener que compartirla con otros micros, lo cual le hace idóneo para
configuraciones multiprocesador.
o Socket 370 o PPGA. Es el zócalo que utilizan los últimos modelos del Pentium III y
Celeron de Intel.
o Socket 8. Utilizado por los procesadores Pentium Pro de Intel, un micro optimizado para
código en 32 bits que sentaría las bases de lo que conocemos hoy día.
o Socket 7. Lo usan los micros Pentium/Pentium MMX/K6/K6-2 o K6-3 y muchos otros.
o Otros socket, como el zócalo ZIF Socket-3 permite la inserción de un 486 y de un
Pentium Overdrive.
Slot A / Slot 1 /Slot 2. Es donde se conectan respectivamente los procesadores Athlon antiguos
de AMD / los procesadores Pentium II y antiguos Pentium III / los procesadores Xeon de Intel
dedicados a servidores de red. Todos ellos son cada vez más obsoletos. El modo de insertarlos
es a similar a una tarjeta gráfica o de sonido, ayudándonos de dos guías de plástico insertadas
en la placa base.
En las placas base más antiguas, el micro iba soldado, de forma que no podía actualizarse (486
a 50 MHz hacia atrás). Hoy día esto no se ve en lo referente a los microprocesadores de PC.
Valoración del rendimiento de un microprocesador
El microprocesador es uno de los componentes que hay que prestar más atención a la hora de
actualizarlo, ya que en su velocidad y prestaciones suele determinar la calidad del resto de elementos.
Esta afirmación implica que es absurdo poner el último procesador hasta los topes de Mhz con solo 32 o
64 Mb de RAM, o con una tarjeta gráfica deficiente, o un sistema de almacenamiento (disco duro) lento y
escaso. Hay que hacer una valoración de todos los elementos del ordenador, actualmente en las tiendas
suelen venderse digamos "motores de un mercedes en la carrocería de un 600". Esto tenemos que
evitarlo, dejándonos aconsejar por usuarios experimentados o bien repasarse bien esta Web, donde se
puede obtener información se sobra de cómo hacer una correcta compra. Además del microprocesador,
la velocidad general del sistema se verá muy influenciada debido a la placa base, la cantidad de memoria
RAM, la tarjeta gráfica y el tipo de disco duro. Sin embargo, según sean más complejos y nuevos los
programas, más complejos serán los equipos. Los programas multimedia y enciclopedias, requieren un
procesador Pentium de gama media. A los programas de retoque fotográfico se les puede poner también
un procesador Pentium de gama media, aunque influirá sobre todo la memoria RAM (harán falta un
mínimo de 128 Mb. para un rendimiento medianamente óptimo). Y últimamente se está incitando a la
adquisición de equipos mejores debido sobre todo a los últimos juegos 3D, descompresión MPEG-2 por
software para visualizar DVDs (la tarea la realiza el micro conjuntamente con la tarjeta gráfica)... y a un
nivel menos doméstico, la renderización de gráficos tridimensionales o la ejecución multitarea de
servidores de red. Para esto, nada es suficiente, por ello los micros son cada vez más y más rápidos y
complejos. Por ello es necesaria la compra de una tarjeta gráfica relativamente potente, dependiendo del
presupuesto y las necesidades. Huye de tarjetas muy económicas que el rendimiento puede ser hasta 10
veces inferior el de una tarjeta que cueste el doble.
11
El uso de los últimos micros que sobrepasan la mítica barrera del GHz se justifica por los nuevos
sistemas operativos (el nuevo Windows XP por ejemplo utiliza muchos recursos de la máquina, mucho
más que otros Windows anteriores), los nuevos formatos de audio o vídeo comprimido (DivX y MP3, a
diferencia de videos y archivos de sonido normales, estos se descomprimen en tiempo real ,tarea llevada
completamente a cabo por el micro), realizar más trabajo en menos tiempo, como compresiones de
archivos, renderizado de dibujos en 3D.... o el simple hecho de cargar un programa como Word o el
mismo Windows, y cómo no, los últimos juegos, quizá las aplicaciones de hoy día que mejor PC en
términos generales requieren.
Conclusiones:
•
•
•
•
Athlon XP. El nuevo procesador de AMD es según nuestra opinión la mejor alternativa sin
ninguna duda, sobre todo en relación calidad/precio. Además, con la mayoría del software actual
son los micros más rápidos en comparación con los Intel Pentium4 de Intel. A la hora de comprar
un micro de este tipo, conviene prestar muchísima atención a la placa base (recomendamos
chipsets KT333 y KT400 de Via, nForce2 de nVidia o chipsets de SiS de última generación), a la
memoria RAM (siempre con memoria "DDR", olvida placas que utilicen aún SDRAM) y a la
tarjeta gráfica especialmente si vas a usar el PC para jugar o para disfrutar de altas resoluciones
con altos refrescos en un monitor alto de gama y de gran tamaño.
Pentium 4. Micro sobre el papel más avanzado que el Athlon XP pero que a la hora de la verdad
viene a tener un rendimiento similar. El Pentium4 se caracteriza por su alto número de Mhz, pero
fíjate que ejecuta 6 instrucciones por cada ciclo de reloj mientras que el Athlon XP que funciona a
menos Mhz ejecuta 9 instrucciones. Normalmente, el micro de Intel de por ejemplo 2200 Mhz va
a costar más que el Athlon XP equivalente, en este caso el 2200+ (que en realidad funciona a
1800 Mhz), como puedes ver en la tabla de más abajo. El Pentium4 tiene ventajas como una
menor generación de calor, por lo que tendremos en ese aspecto muchos menos problemas que
el Athlon. E inconvenientes, principalmente el coste. Podríamos dar muchas más diferencias
entre AMD e Intel, pero no tenemos la intención de iniciar ahora una discusión sobre el tema.
Multiprocesador AMD, 2 Athlones MP. Mejor esto que un multiprocesador de 2 Pentiums4
Xeon, ya que el precio de esto último se va por las nubes. En caso de disponer de un
presupuesto muy generoso puedes ir a este campo, siempre y cuando tengas un sistema
operativo preparado para soportar 2 procesadores, tal como cualquier versión de Windows NT,
Windows 2000, Windows XP SOLO VERSIÓN PROFESIONAL o por supuesto Linux / Unix y
derivados. Con esto puedes distribuir las tareas, como liberar un procesador para que lo utilice
sólo un determinado programa, o bien disfrutar del proceso en paralelo, ejecutar más trabajo en
menos tiempo. Sólo hay algunos inconvenientes, como el hecho de tener que disponer de,
lógicamente, una placa con dos zócalos preparada para dos micros, y de memoria RAM
ECC/registrada, que viene a costar 5 veces la memoria que ponemos en nuestros PCs
normalmente.
Soluciones más económicas, Duron de AMD, Celeron de Intel e incluso Pentium III de Intel.
Recomendable si disponemos de muy poco presupuesto o queremos adquirir un segundo equipo
para diversas funciones, como por ejemplo hacer un servidor para administrar impresoras, un
FTP o páginas Web.
12
COMPARACIÓN DE RENDIMIENTOS DE PROCESADORES
13
I.- LOS CIMIENTOS DE LA PIRÁMIDE DE LOS SISTEMAS DE INFORMACIÓN
1) La Contabilidad es un sistema de información, ya que registra, procesa, almacena y
distribuye la información financiera. El sistema de Información Contable actual descansa en los
ordenadores como plataforma para el registro de las transacciones económicas para su posterior
agregación en Estados Financieros. Los ordenadores, junto con los programas y las tecnologías
de la comunicación son los cimientos de la pirámide que forma el Sistema de Información
Gerencial de cualquier empresa.
2) Y los Contadores. De acuerdo con IFAC, la Federación Internacional de Contadores, en su
Guía Internacional de Educación nº 11, "Information Tecnology in the Accounting Curriculum",
los contadores deben ser capaces de trabajar en diferentes equipos informáticos -ordenadores
personales, estaciones de trabajo, macrocomputadoras y superordenadores-, identificar sus
componentes-microprocesador, memorias, tarjetas, etc.- y conocer su función. Deben conocer el
uso de los periféricos de entrada y salida de datos como impresoras, teclado, ratón, monitor, así
como de las unidades de almacenamiento como discos duros, CD-ROM, disquetes, etc. y de los
componentes de comunicación como el módem. Han de ser capaces de participar en las
decisiones de compra o renovación de equipos informáticos y programas que le afecten, para ello
tienen que estar al día con los cambios tecnológicos que periódicamente surgen. Es preciso que
tengan una formación, una cultura informática previa y un deseo de estar actualizados.
3) Fuentes de información. Una buena práctica es incluir en sus fuentes de información no sólo
las referidas a los cambios en normas contables o fiscales y las principales noticias económicas
sino leer los suplementos dedicados a las tecnologías de la información, o estar suscrito a
boletines de noticias electrónicos relacionados con el impacto de las tecnologías en la empresa.
La gestión de la información moderna se basa en el uso de tecnologías informáticas aplicadas, un
caso específico lo constituye la minería de datos o data mining para la colección de la
información que se requiere para su ordenamiento, tratamiento y conversión a sujeto para la toma
de decisiones.
4) Calidad y oportunidad de la información. Deberán poder discriminar la calidad y oportunidad
de la información, en los procesos de toma de decisiones, para hacerla cada vez mas eficiente y
eficaz.
5) La publicación de la Información Financiera tiende, cada día más, a realizarse sobre nuevos
principios de tecnologías informáticas como son las publicaciones en Portales WEB a través de
libros digitalizados. El modelo de e-Comercio, en el mundo digital, presupone la adecuación de
todas las normas vigentes para el registro de transacciones a través de los métodos de flujos de
datos o bajo la filosofía de almacenes de datos.
14
II.- CARACTERÍSTICAS GENERALES DE LOS EQUIPOS NFORMÁTICOS
ESTRUCTURA DE UN ORDENADOR
El computador o sistema informático se compone de 5 tipos de dispositivos básicos:
A) Dispositivos de proceso de Datos.
B) Dispositivos de captura y almacenamiento primario de datos.
C) Dispositivos de visualización, impresión y graficación.
D) Dispositivos para intercomunicación entre computadores.
E) Dispositivos multimedia (Bocinas, scanner, micrófonos, cámaras de video, otros)
ESQUEMA ESTRUCTURAL DE UN ORDENADOR
UCP
DIS. HACIA
UCP
ENTRADA
DATOS
DISPOSITIVO
ENTRADA
M
A
+
MEM
PE
PROCESADOR
UC UAL
CANAL
REGISTROS
CARÁCTER
CAMPO
REGISTRO
ARCHIVO
BASE DE DATOS
ALMACÉN DE DATOS
MODELO DE DATOS
C
A
N
A
L
UCP HACIA
DIS. SALIDA
=
INFORMACIÓN
CANAL
DISPOSITIVO
SALIDA
I
N
AMBOS
SENTIDOS
E
T
O
PIRÁMIDE DE DATOS
DISPOSITIVO
MIXTO
15
SIG
ESTRUCTURA FUNCIONAL DEL SISTEMA
PROCESOS
UCP
MEMORIA PRINCIPAL
OPERACI
ONES
LÓGICAS
Y
ARITMÉT
ICAS
U/C
EJECUTA
R
LA
INSTRUC
CIÓN
DATOS PARA
ELABORAR
INFORMACIÓN
U.A.L
ALMACENAR PROGRAMAS
Y ÁREAS TRABAJO
ENTRADAS
BUS, MEMORIA CACHÉ
SOPORTE DE OPERACIONES
CAPTURA DE
DATOS
SALIDAS
INFORMACIÓN
ELABORADA PARA
TOMA DE DECISIONES
GENERAR
ALMACÉN
DE DATOS
MIXTOS
ALMACENAMIENTO
SECUNDARIO
MODELO DE DATOS
E
S
I
T
MUNDO
REAL
PIRÁMID
E
DE
DATOS
O
COMPONENTES DE UN MICROCOMPUTADOR
PANTALLA
TORRE
BOCINAS
TECLADO
RATÓN
TARJETA MADRE O MOTHER BOARD.
16
G
A.- ESTRUCTURA PARA EL PROCESO DE DATOS.
LA TORRE. Al observar un ordenador, el primer componente que distinguimos es la carcasa o
caja. La placa, cuya función describiremos posteriormente, es como el esqueleto donde se
instalan todos los componentes y se alojan en la carcasa.
En cuanto a la apariencia externa, la carcasa puede tener forma de torre, diseño preferido para
los ordenadores profesionales y de sobremesa, que son más utilizados en casa. La carcasa con
diseño de torre ocupa más volumen, pero, en general, es más fácil ampliar sus componentes.
Es un elemento a tener en cuenta, pues una torre de bajo precio puede ser fuente de problemas
futuros como, por ejemplo, que no quepan bien los componentes. Además, hay que prestar
atención a los nuevos estándares que surgen periódicamente en las placas madre.
Por esta razón, al cambiar el modelo de placa madre es muy frecuente que en un
ordenador viejo no se pueda aprovechar ni la caja o torre.
1) VISTA FRONTAL
En la parte delantera de la torre se encuentra atornillado el marco frontal, con varios espacios
para alojar dispositivos de captura de datos como la disquetera, el lector de CD-ROM, DVD,
unidad ZIP, TAPE Backup, etc. que describiremos posteriormente.
2) LA CUBIERTA O TAPAS DE LA TORRE.
La cubierta es como la piel que rodea a la torre y se desmonta presionando o con un
destornillador. Por la parte trasera nos encontramos unas ranuras, que son regletas que sirven
para conectar otros componentes del ordenador o tarjetas. Deben quedar huecos libres por si se
desea ampliar esas tarjetas.
3) LA FUENTE DE PODER O ALIMENTACIÓN DE CORRIENTE.
También se encuentra atornillada a la torre la fuente de alimentación, con un
ventilador. La fuente de poder o de corriente, distribuye las necesidades de poder dentro de la
torre como por ejemplo: para la tarjeta madre, discos, diskettes, CD, DVD y luces del panel de la
torre. Conviene revisar el ventilador, pues al desgastarse con el uso suele ser el causante de la
mayoría de los ruidos dentro de la torre del ordenador.
17
LA UNIDAD CENTRAL DE PROCESAMIENTO SE COMPONE DE:
1) La placa madre o mother board
2) El microprocesador (INTEL, AMD, CYRIX, MOTOROLA, otros)
3) Las memorias (RAM, ROM, EPROM, etc.)
1) La placa madre o mother board. Al despojar al ordenador de la carcasa el componente
de mayor tamaño que nos encontramos es la placa madre o placa principal. En esta placa se
ubican la mayoría de los componentes del ordenador: memorias, tarjetas, el microprocesador y
los dispositivos integrados en el board. Es importante disponer de una placa madre moderna con
una arquitectura que permita alojar futuros componentes, tarjetas o ampliar sus requerimientos
sin mayores dificultades.
Placas Base. TOMADO DE WEB DUIOPS.NET
La placa base es el esqueleto de nuestro ordenador. En sus ranuras van fijados todos los demás
componentes, y su calidad influirá sustancialmente en la velocidad del equipo, además de las
posibilidades del equipo.
Tipos de placas base
En los ordenadores actuales existen seis tipos básicos de placas base, en función de la CPU: Socket 7, Socket
8, Super 7, Slot 1, Slot 2 y Socket 370. Las placas Socket 7 albergan los procesadores Pentium, K5 de AMD,
6x86 de Cyrix y Winchip C6 de IDT; ya no se venden, pues carecen de las interfaces más utilizadas en la
actualidad, como el bus AGP y el puerto USB. Estos dos estándares se incorporan en las placas Super 7,
también compatibles Pentium y K6. Las placas Socket 8, muy escasas, albergan los extinguidos procesadores
Pentium Pro. Las placas Slot 1 son necesarias para suministrar soporte a los Pentium II/III y Celeron, y suelen
disponer del formato ATX, que reorganiza la localización de las tarjetas, para que quepa mayor cantidad en el
mismo espacio, y se reduzca el cruce de cables internos. Las placas ATX también necesitan una carcasa
especial ATX. Una variante son las placas Slot 2, soporte de la versión Xeon del Pentium II, utilizada en
servidores profesionales. Finalmente, las placas Socket 370 alojan una versión especial de Celeron, con las
mismas prestaciones que el modelo Slot 1, pero más barato para el fabricante.
18
El Bus y ranuras de expansión.
El bus de la placa base son los canales por donde circulan los datos que van y vienen del microprocesador.
Con la aparición de microprocesadores muy rápidos se desperdiciaba parte de su potencia debido a que el bus
hacía de cuello de botella, atascando los datos y haciendo esperar al microprocesador a que estuvieran
disponibles los datos. Tras el tradicional bus ISA de 8 MHz han surgido otras alternativas como el Vesa Local
Bus y el PCI, que ampliaban el ancho de banda de 16 hasta 32 bits. El resultado es una mejora en el
rendimiento al transferir el doble de información (de 16 a 32 bits) en una misma operación. El Vesa Local Bus
se quedó rápidamente obsoleto, permaneciendo el bus PCI que es el que se ha estado usando en las placas
Pentium.
Las placas más modernas soportan una velocidad del bus que varía entre los 50 y los 100 MHz, en función del
procesador utilizado. Otros valores intermedios son 66, 75 o 112 MHz, por ejemplo. La placa también incorpora
distintos multiplicadores: 2x, 3x, etc. Valores superiores a 5x comienzan a ser imprescindibles. Estos dos datos
se utilizan para soportar todo tipo de procesadores. A mayor número de velocidades del bus y multiplicadores,
la placa soportará mayor cantidad de procesadores. Para instalar un Pentium II a 400 MHz, por ejemplo, se
configura el bus a 100 MHz y se activa el multiplicador 4x. 100x4=400 MHz. Un Pentium a 200 MHz se
configura con un bus a 66 MHz y un multiplicador 3x. 66x3=198 MHz.
Todas las placas soportan diferentes voltajes. No obstante, puesto que se desconoce el voltaje de los futuros
procesadores, es bueno adquirir una placa que permita establecer este valor a voluntad, mediante fracciones
de 0.1 voltios.
Una placa base actual debe disponer de una ranura AGP para la tarjeta gráfica, cuatro o cinco PCI y, al
menos, dos ISA para las tarjetas viejas, como modems internos, tarjetas de sonido, placas SCSI, etc. Los
puertos exteriores no deben bajar de dos entradas USB, dos COM, y varios puertos en paralelo.
AGP
Este nuevo bus es capaz de paliar el cuello de botella que existe entre el microprocesador y la tarjeta gráfica.
Hemos de tener en cuenta que el actual bus PCI va a 33 MHz. (132 Mb/s máximo), una velocidad bastante
inferior a la del microprocesador. AGP incorpora un nuevo sistema de transferencia de datos a más velocidad,
gracias al uso de la memoria principal del PC. Las placas base que lo soportan (sólo contienen 1 slot de este
tipo) son las de Pentium II con chipset de Intel 440LX AGPset y 440BX. Ya están apareciendo las placas base
Super 7, con el fin de hacer el estándar compatible con procesadores que van conectados con el zócalo
Socket 7, tales como los Pentium, Pentium MMX y los procesadores de AMD y Cyrix.
Para que el sistema funcione, se necesita una tarjeta gráfica compatible con el slot AGP, por lo que una tarjeta
PCI no nos valdrá. En este caso varía la velocidad. Existen tarjetas 1x, velocidad estándar, es decir, 66 Mhz
(264 Mb/s máximo). Las nuevas AGP llegan con 2x a 133 MHz (dobla al anterior, y alcanza de máxima 528
Mb/s); y un último tipo de 4x a 400 Mhz (ya que la velocidad interna se aumenta a 100 Mhz). Aunque el chipset
BX de Intel en teoría lo soporta, no saldrán tarjetas de este tipo hasta principios de 1.999.
El bus AGP permite cargar texturas en la RAM principal, es decir, ya no se limita a la capacidad de la memoria
de la tarjeta gráfica; y además se apreciará de un aumento de imágenes por segundo, mayor calidad gráfica y
la reproducción de vídeo más nítida. En teoría, un juego de 30 fps con una PCI alcanzaría con una AGP 240
fps. Microsoft dice que su API DirectDraw incluido en DirectX 5.0 es compatible con esta tecnología.
PCI
La tecnología PCI fue desarrollada por Intel para su microprocesador Pentium, pero se extendió hasta las
placas para 486 (sobre todo las de la última generación que soportaban 486DX4). El funcionamiento es similar
al del bus VESA. La diferencia es que todos los slots de expansión se conectan al microprocesador
indirectamente a través de una circuiteria que controla las transferencias. Este diseño permite conectar
19
(teóricamente) hasta 10 placas de expansión en PCI.
La Bios
Es una memoria especial que contiene las rutinas necesarias para que el ordenador funcione correctamente y
gestione las operaciones de entrada y salida de datos, de ahí su nombre BIOS, Basic Input/Output System
(Sistema básico de entrada/salida).
Es muy recomendable que se pueda actualizar por software, es decir, tipo Flash, y que sea lo más reciente
posible. Con respecto al programa de Setup, teniendo en cuenta nuestros conocimientos nos decantaremos
por una BIOS con el mayor número de funciones de configuración automática posible (detectado de unidades
IDE y de sus parámetros, ajuste automático de velocidades de acceso a RAM y a caché, etc.), o por otro lado,
podemos desear un mayor control de sus parámetros para ajustar al máximo el rendimiento. Una BIOS buena
debe permitir arrancar el ordenador desde varios formados, como un disquete, un disco duro IDE o SCSI y un
CD-ROM. Igualmente, conviene que las funciones automáticas de Plug and Play puedan configurarse
manualmente (asignar IRQ y canales DMA para los posibles conflictos). Y se debe de poder desactivar por
Setup los puertos serie y paralelo, o poder modificar sus direcciones de I/0 e IRQ para solucionar problemas al
instalar nuevos dispositivos.
Hay distintos fabricantes de BIOS. Los más conocidos son Award y AMI. Por norma las opciones que nos
encontramos en estas BIOS son diferentes. Por ejemplo, ambas tienen la posibilidad de obtener los
parámetros de los discos duros instalados, pero sin embargo, la de Award no tiene la posibilidad de
formatearlos (sólo a bajo nivel) mientras que la BIOS de AMI sí. La de AMI da la posibilidad de utilizar el ratón,
mientras que la de Award no.
En el caso de una placa para Pentium II, suele incorporar funciones de desconexión automática y nos tenemos
que fijar si soporta configuración del procesador por BIOS (y no por jumpers), y las nuevas características de
Windows 98 ACPI y OnNow.
Los Zócalos y la Memoria RAM
La memoria es el almacén temporal de datos y código ejecutable que utiliza el ordenador. La memoria RAM es
volátil, esto quiere decir que cuando se apaga el ordenador, toda la información almacenada se pierde. En las
placas de Pentium II VX y TX, y en las Placas Pentium II, la RAM va en pequeñas placas llamadas DIMM, de
168 contactos, cuyas capacidades oscilan entre 16 y 128 Mb. cada una. Hasta hace poco eran las placas
SIMM (Single In-line Memory Module) de 30 y 72 contactos, con capacidades entre 256 Kb y 32 Mb cada uno.
Para insertar estas plaquitas hay en la placa base unos slots del mismo tamaño donde se insertan. Pueden
insertarse de dos maneras: encajándolas directamente o insertándolas en sentido inclinado y después
girándolas hacia arriba hasta que encajan completamente con los pivotes.
El software de hoy necesita grandes cantidades de RAM para funcionar. No compréis un equipo nuevo que no
tenga instalados al menos 64 Mb de memoria RAM, especialmente si es de alta gama. Antes de comprar los
módulos de memoria conviene que os informéis de los tipos de módulos que utiliza vuestra placa base. Los
módulos de 72 o 168 contactos pueden ser de simple o de doble cara. Aseguraos bien del tipo de módulos que
utiliza vuestra placa. Es muy importante que sepáis qué orden llevan los zócalos para los SIMM. Estos zócalos
se agrupan en bancos de uno, dos o cuatro zócalos numerados como SIMMO, SIMMI, SIMM2, etc. (o DIMM0,
DIMM1...) En las placas base Pentium nuevas hay uno o dos slots DIMM, mientras que en las de Pentium II
hay 3 ó 4. Hoy por hoy, se recomienda poner SDRAM a las placas base Pentium y Pentium II (si la placa lo
soporta), ya que de lo contrario se ocasionaría un cuello de botella, especialmente en el Pentium II
La placa base debe direccionar un mínimo de 256 Megas de RAM (en las placas base Super 7 se suele llegar
a 768 Mb y en las Slot 1 a 1024 Mb). También hay que introducir el concepto de memoria cacheable: hay
placas base de mala calidad que admiten mucha memoria pero no es capaz de manejarla eficientemente. En
20
los mejores modelos se especifica el tamaño de memoria cacheable (Ej.: 256 Mb) y memoria máxima admitida
(Ej.: 769 Mb).
Consultad la documentación de la placa base para saber cuántos módulos de memoria y de qué capacidad
tenéis que comprar y así conseguir el número de Megabytes que queréis tener, sobre todo a la hora de
combinar antiguos SIMM con nuevos DIMM en los Pentium.
La Memoria Caché
La memoria caché es una memoria especial de acceso muy rápido. Almacenar los datos y el código utilizados
en las últimas operaciones del procesador. Habitualmente el ordenador realiza la misma operación repetidas
veces seguidas. Si en lugar de, por ejemplo, leer del disco cada una de las veces que realiza la operación lee
de la memoria se incrementa la velocidad de proceso unas 1.000.000 veces, es la diferencia de nanosegundos
a milisegundos que son los tiempos de acceso a memoria y a disco respectivamente. Las placas base
generalmente tienen instalada la memoria caché en unos zócalos para poder ampliarla. La configuración más
usual es la de 512 Kb en la actualidad, pero puede haber configuraciones de 1 Mb o 2 Mb en algunas placas
(hoy día sólo en los procesadores tipo Pentium (Pentium MMX, K6-x), ya que el Pentium II/II y el K7 la llevan
integrada dentro de él).
A la hora de la verdad, el rendimiento no es tan grande en los módulos Pipeline de las placas Pentium. Aunque
por 3.000 Ptas., no es mala idea incrementar la caché de 256 a 512 Kb en las placas Pentium más antiguas.
El chipset
El juego de chips de una placa, o chipset, es posiblemente su componente integrado más importante, ya que
controla el modo de operación de la placa e integra todas sus funciones, por lo que podemos decir que
determina el rendimiento y características de la misma. Determina lo que puede hacer el ordenador, desde el
soporte para varias CPU, hasta la velocidad del bus o el tipo de memoria que se puede utilizar. Es el
encargado de comunicar entre sí a todos los componentes de la placa, y los periféricos. Una placa puede
disponer de zócalos DIMM, pero si el chipset incluido no los soporta, no podrán utilizarse. Intel fabrica los
modelos oficiales para sus procesadores, aunque otras marcas como VIA, SUS o ALI fabrican clónicos a un
precio más reducido.
En el caso del Pentium ha habido un gran grupo de chipsets, no sólo los Tritón, sino los Zappa, Endeavour...
Hoy día sólo se encuentra el chipset Tritón TX, que es el más recomendado, ya que el VX, además de ser
bastante antiguo, no soporta características como el DMA 33. Estos dos chipsets optimizan el rendimiento de
la memoria EDO, soportan la técnica Bus Master, que mejora los procesos de transferencia de datos, módulos
DIMM de 168 contactos y memoria SDRAM, y admiten la arquitectura SMBA (Shared Memory Buffer
Architecture), que permite gestionar la memoria de forma compartida. Las placas Super 7 (las actuales)
disponen de varios modelos, como los conocidos VIA Apollo MVP3, o Alladin V de ALI, con menor soporte de
tipos de RAM.
En el caso del Pentium II nos encontramos con 4 chipsets: FX, LX, BX y EX (en un futuro el NX, que será el
que use Katmai con MMX y 500 MHz). El FX fue el primero que apareció y ocasionaba un gran cuello de
botella. Todos los impacientes que se compraron una placa base de éstas la tuvieron que cambiar. Por tanto
¡que no te "encasqueten" una! Hay que usar el bus LX para los modelos de 233 a 333 MHz y el BX desde el
350 al 400 MHz (este último es de 100 MHz). Es cierto que el BX soporta los modelos del LX, pero también es
más caro. Y por último, el chipset EX es el que se usa en el microprocesador Intel Celeron, y lo tendremos que
adquirir en caso de comprar este procesador. El modelo ZX es muy utilizado por las CPU Socket 370. Elimina
el soporte para varias CPU, reconoce el bus a 100 MHz, y reduce la memoria máxima a 256 Megas.
21
El modelo 440GX se encuentra en las placas Slot 2. Puesto que también soporta los procesadores Slot 1,
puede llegar a sustituir al actual BX. VIA, SIS y ALI también venden clónicos de estos modelos, como el Apollo
Pro Plus o el Alladin Pro.
Otros factores importantes
Hay otros detalles a tener en cuenta; por ejemplo, ya es común la inclusión de un conector para ratones y
teclados de tipo PS/2 (ya sabéis, los que tienen la clavija pequeña y redonda), de puertos infrarrojos (que
permiten la comunicación, sin cables, con dispositivos de este tipo) y USA, o Bus Serie Universal, que permite
conectar 127 dispositivos con una transferencia de datos media-baja (webcams, escáneres, monitores...) a 12
Mbps y totalmente Plug and Play. Dentro de poco aparecerá el 1394, y tienes un artículo en el WEB de
Duiops para informarte todo lo que quieras.
Algunos modelos incorporan diversos añadidos, como la inclusión de un chip de aceleración gráfica 3D de
Intel, una tarjeta de sonido Yamaha o una controladora SCSI. No son aconsejables, pues disponen de menos
calidad que los periféricos adquiridos independientemente. También pueden encontrarse chips que miden la
temperatura del procesador y el ventilador, y BIOS capaces de controlar la desconexión temporal de
periféricos, cuando no se utilizan, para ahorrar energía.
Otro detalle que se suele olvidar, pero que no carece de importancia, lo tenemos en el software que debe
acompañar a la placa, los omnipresentes drivers; ya que se recomiendan para dispositivos como la
controladora de disco duro.
Y ya por último hablaremos sobre el formato de la placa. El que ha habido siempre ha sido el Baby-AT, y
desde finales del 1996 podemos encontrar el ATX. No mejorará la velocidad, sino la flexibilidad, integración y
funcionalidad. Reorganiza la distribución de los componentes de la placa base, de forma que al insertar
tarjetas no se tropiecen con chips como el procesador. Además, se acorta la longitud de los cables y se mejora
la ventilación de los componentes. También cambia el conector de alimentación para la placa base y la forma
de la caja, por lo que tendremos que cambiar la caja externa antes de comprar la placa. El ATX permite
integrar componentes en la placa como la tarjeta gráfica y la tarjeta de sonido, pero suelen tener una calidad
bastante mediocre. Por tanto, si queremos instalar tarjeta gráfica y de sonido independiente, tendremos que
buscar una placa base ATX sin estos componentes integrados en ella.
2) El microprocesador. El elemento fundamental de proceso de los datos es el procesador
dentro del ordenador y junto a la memoria principal recibe el nombre de unidad central de
proceso o UCP (CPU en inglés). La UCP es responsable de todas las operaciones que se efectúan
con los datos y lleva el control de los demás dispositivos del ordenador. Por ejemplo, Intel
Pentium para los PC, y Motorola Power-PC de Apple.
22
UNIDAD CENTRAL DE PROCESA (ESQUEMA CONCEPTUAL)
UNIDAD CENTRAL DE PROCESO (UCP)
MEMORIA
PRINCIPAL
UNIDAD DE
ARITMÉTICO
LÓGICA
SISTEMA
OPERATIVO
PROGRAMAS
UNIDAD
DE CONTROL
P
R
O
C
E
S
A
D
O
R
3) Estructura del microprocesador. En el microprocesador hay dos partes: unidad de
control y unidad aritmético-lógica. Enlazada a la CPU se encuentra la memoria principal ROM
(Read Only Memory) y RAM (Random Access Memory) que describiremos posteriormente.
4) Unidad de Control. Se encarga de la ejecución de toda instrucción de programa que se
encuentre almacenada en la memoria principal. En coordinación con la unidad aritmético lógica
decodifica y ejecuta toda instrucción de tipo aritmético o de lógica de decisión. En este proceso
se auxilia con las áreas de entrada-salida, las áreas de trabajo, los registros para operaciones
aritméticas y lógicas y las áreas de comunicaciones del sistema.
5) Ciclo de la máquina. Al conjunto de operaciones requeridas para procesar una
instrucción se le denomina ciclo de la máquina. En un ciclo, el microprocesador obtiene e
interpreta una instrucción para ejecutar, ejecuta dicha instrucción y deposita los resultados en las
áreas de memoria especificadas por las instrucciones de los programas. Todo ciclo de máquina
esta referido a la ejecución de una instrucción que se encuentra en la memoria principal en
lenguaje de máquina o binario puro.
5) Unidad aritmético-lógica
La unidad aritmético-lógica se encarga de las operaciones de cálculo y de lógica matemática.
Dispone de circuitos electrónicos especialmente diseñados para realizar operaciones aritméticas
de punto fijo o de punto flotante y de lógica comparativa mediante la aplicación de las
operaciones de AND, OR y OR Exclusivo (Aritmética Boleana).
6) Eficiencia del procesador. Para un usuario normal lo que debe importar del
microprocesador es su funcionamiento y que la relación con las aplicaciones sea del mayor nivel
de precisión, velocidad y confiabilidad. Esta se logra a través de la certificación del
microprocesador que normalmente significa una garantía de funcionamiento por x cantidad de
horas.
23
7) Representación Interna de los Datos.
a) Circuito Binario. BIT (Dígito binario) es la unidad mínima de representación de
datos a lo interno de un ordenador y puede tomar dos valores: 0 y 1, es decir, verdadero y falso
en lógica positiva o bien en electrónica dos valores muy diferentes de tensión continúa. Todos
los datos introducidos en los ordenadores se traducen internamente a combinaciones de bits, es
decir forman cadenas de 0 y 1, utilizando cualquiera de los sistemas de codificación ABCDIC o
ASCII. Por ejemplo, la letra A en binario se expresa con 8 bits, que son: 10100001 y el número 1
con la combinación: 11110001.
LETRA “A”
DÍGITO “1”
1 0 1 0 0 0 0 1
1 1 1 1 0 0 0 1
Pero no solamente las letras y número se pueden representar en un código binario. También los
sonidos o los colores se pueden representar con una cadena de ceros y unos. Cualquier color se
puede obtener como una mezcla de tres colores básicos, por ejemplo, rojo, verde y azul. Por
ejemplo, el 2l 15 83 sería el color que se obtiene con un 21% de rojo, un 15% de verde y 83%
de azul. A partir de ahí se representa en código binario dicho número con el porcentaje de cada
uno de los colores básicos.
Un BYTE es una combinación de 8 bits. Las letras del abecedario, símbolos y los números se
representan con 8 bits, es decir, un byte. De esta forma podemos entender mejor la capacidad de
un ordenador, al medirlo en bytes. Por ejemplo, 1KB es 1 kilobyte = 1,024 bytes o sean 8192
bits, 1 Megabyte son 1,024 KB (kilobytes), 1 GB son 1,024 MB (Megabytes), y 1 Terabyte son
1,024 GB. Para hacernos una idea, en un libro de 500 folios puede haber unos 200,000
caracteres, es decir, se ocuparían 200,000 bytes, o sean, 1,600,000 bits.
Existe el concepto de media palabra (4 bytes), palabra (8 bytes) y doble palabra (16 bytes)
utilizado en términos de alineamiento de las instrucciones dentro de la memoria. Cada
microprocesador puede localizar instrucciones en la memoria en función de 16, 32 o 64 bits. A
esto se le llama direccionamiento de memoria necesario al ejecutar instrucciones en un programa.
b) Bus de datos. El bus de datos es la vía por donde se transportan los datos en el
procesador al momento de ejecutarse las instrucciones. Entre mayor resulta ser el bus de datos
mayor transferencia de datos podrá realizarse por unidad de tiempo.
c) Frecuencia de trabajo. Ya hemos hablado del ciclo de la máquina como la serie de
operaciones requerida para procesar una instrucción. Otro de los factores que afectan a la
rapidez con que se ejecutan las instrucciones en el microprocesador es precisamente la
frecuencia de trabajo. Dentro de los ordenadores hay un reloj que va marcando la cantidad de
instrucciones ejecutadas, que simula un contador de flujo. Un Pentium de 400 mhz (megahertzios), significa que su proceso es de 400 instrucciones por unidad de tiempo mega hercios. La
velocidad del microprocesador es directamente proporcional a la frecuencia en mega hertzios
que le llega del reloj que marca dicho ritmo. Cuanta más alta es la frecuencia, mayor es la
velocidad.
d) Arquitectura. Siendo importante ese dato, la frecuencia de trabajo no es el único
factor que afecta a la velocidad del microprocesador: por ejemplo un Pentium II a 233 MHz era
24
más rápido que un Pentium MMX a 233MHz, pero más lento que un Power PC a 233 MHz. Por
ejemplo, la arquitectura del microprocesador, es decir, cómo está diseñado, es sin duda, un
factor fundamental que influye en su rendimiento. Dos arquitecturas típicas de
ordenadores
son la CISC, utilizada en los procesadores INTEL familias 386, 486, Pentium, etc. y la RISC,
utilizada en los Power PC de Apple o IBM. Una diferencia importante es que en el mismo ciclo
de reloj, los procesadores RISC pueden empezar a ejecutar una instrucción antes de que la
instrucción anterior se complete, a esto se le conoce como tiempo compartido.
CARACTERÍSTICAS DEL PROCESADOR INTEL PENTIUM IV.
Intel se ha centrado en un segmento especializado que tiene unas necesidades particulares para desarrollar
el procesador Intel® Pentium® 4 Extreme Edition con soporte para tecnología Hyper-Threading. Diseñado
específicamente
para aquellos que conocen su tecnología y sueñan con un gran rendimiento, este procesador proporciona
una velocidad de proceso de 3,20 y 3,40 GHz, y está equipado con un avanzado bus del sistema a 800 MHz
y una sensacional caché L3 de 2 MB. Al hacer posible que el procesador pueda ejecutar dos subprocesos de
software a la vez, la tecnología Hyper-Threading¹ incorporada ofrece ventajas inmediatas al entorno
informático de hoy día. Esto le permite ejecutar dos aplicaciones de software en paralelo sin tener que
sacrificar el rendimiento.
Basado en la micro arquitectura Intel® NetBurst® y diseñado a partir de la tecnología de proceso de 130 nm
de Intel, el procesador Pentium 4 Extreme Edition con soporte para tecnología Intel ofrece a los jugadores un
rendimiento sin altibajos y proporciona más potencia a los usuarios que exigen una mayor capacidad de
proceso para hacer frente a las aplicaciones más avanzadas de la actualidad.
Velocidades compatibles con la
tecnología Hyper-Threading
Bus del sistema a 800 MHz: 3,20 y 3,40 GHz
Bus del sistema
800 MHz
Caché
L3: 2MB, L2: 512KB, L1: 8 KB
Chipset
Bus del sistema a 800 MHz: Chipsets Intel® 875P
Placas madre Intel® para equipos de
sobremesa
Compatibles con el procesador Intel Pentium 4
Micro arquitectura Intel® NetBurst®
•
•
•
•
•
•
•
, 865PE
, 865G
Bus del sistema a 800 MHz
Tecnología hipercanalizada
Sistema de ejecución rápida
Caché de seguimiento de ejecución
Caché de transferencia avanzada
Ejecución dinámica avanzada
Multimedia/coma flotante mejorada
• Extensiones Streaming SIMD 2
Tecnología Intel® RAID disponible
La tecnología Intel® RAID está disponible en los chipsets Intel® 875P
865PE y 865G con ICH5R
8) El rendimiento de los componentes debe ser equilibrado para que el ordenador trabaje
a buena velocidad. El clonar procesadores ha sido una práctica de los últimos años que causa un
desmejoramiento en la calidad del procesador ya que las fábricas de clones no se preocupan por
mejorar la calidad del procesador.
9) Dos detalles sorprendentes. En diciembre de 1999, una misión fundamental de los
astronautas del Discovery fue a renovar el microprocesador del Telescopio Hubble, dotándolo de
un procesador 486 en la época del Pentium III. La explicación es que resulta más que suficiente
25
,
para la sencilla tarea que realiza (girar el telescopio) y es un microprocesador muy fiable. Por
otro lado, las consolas de los videojuegos disponen de procesadores de 64 o 128 bits, más que los
de los ordenadores personales dado que el proceso masivo es de multimedia.
MEMORIAS DE LOS ORDENADORES.
1) Memoria RAM.
Una de las más importantes es la memoria RAM memoria de acceso al azar (Random Access Memory).
Conjunto de circuitos integrados donde se almacenan instrucciones para procesos de los diferentes tipos de
programas en formato binario. En estas memorias los datos se almacenan en forma aleatoria o al azar. En la memoria
RAM se almacena temporalmente el programa y los datos que el mismo requiere y que han sido obtenidos de los
medios de almacenamiento. En el mercado actual, tenemos memorias RAM de hasta 1,024 KB.
2) Medición de la memoria RAM.
La memoria RAM se mide en KB o Megas y cuanto mayor sea significará que podemos disponer de más
espacio para ejecución de programa y almacenamiento de los datos asociados.
3) Ampliar la memoria RAM.
La memoria RAM se puede ampliar, aunque tiene un límite, dependiendo de los zócalos libres que tenga la
placa madre del ordenador. Este es un dato muy a tener en cuenta a la hora de adquirir un equipo, sobre todo porque
hay varios tamaños, tipos y calidades de módulos de memoria RAM y cada placa madre admite unas combinaciones
concretas 32, 64, 128, 256 y 512 como ejemplos.
4) Correlación entre el procesador, el sistema operativo y la memoria RAM. A mayor memoria RAM
el sistema operativo podrá desempeñarse con mayor eficiencia ya que podrá cargar, en memoria, un mayor número
de tareas a ejecutar lo que acelerará el conjunto de procesos. La mayor limitación, histórica, en el procesamiento de
los ordenadores ha sido el tamaño de la memoria.
5) La memoria caché. Mejor conocida como memoria colchón resultan ser las de mayor velocidad
conocida pero de mayor precio, se utilizan para la transferencia de datos entre el bus y los componentes del
procesador para incrementar el rendimiento. No toda la memoria RAM es de la misma calidad, por lo que un dato
importante que suele aparecer en las especificaciones de los equipos informáticos es el tiempo de acceso de la
memoria RAM. Es el tiempo mínimo necesario para asegurar que en un ciclo de lectura-escritura de los circuitos
integrados de memoria estos pasan la información que contienen al bus de datos. Se mide en nanosegundos.
6) La memoria ROM. La memoria ROM (Read Only Memory) es otro tipo de memoria que sólo se puede
leer, por lo tanto la información que contiene ha de ser escrita en el momento de su fabricación. Su contenido no se
borra excepto, por programas especiales, y consiste programas e instrucciones de control que son necesarios para la
puesta en marcha de los ordenadores. Interviene de forma casi exclusiva al encender el equipo para ejecutar
automáticamente las operaciones necesarias de arranque, como cargar el sistema operativo.
7) Tipos especiales de memoria ROM. Hay otros tipos especiales de memoria ROM, como la PROM
(Programable Read Only Memory) y la EPROM (Erasable Programable Read Only Memory) que tienen usos
bastante específicos. La PROM es una memoria ROM que puede programarse una vez por el usuario y la EPROM
puede borrarse y programarse con un programa adecuado.
BIOS
8) CONFIGURACIÓN DEL BIOS DE UNA MEMORIA CMOS.
(BASIC INPUT OUTPUT SYSTEM)
26
Ahora nos meteremos un poco con la famosa y misteriosa BIOS, también llamado el "SETUP" o
configuración del BIOS (recuerda que se accede pulsando la tecla SUPR mientras hace el Tes. de
memoria al arrancar, aunque en otras placas más raras se hace con F1 o combinaciones de otras teclas).
Ante todo tenemos que decirte que no existe la configuración de BIOS perfecta, sino que cada una de las
configuraciones posibles se hace con un propósito (conseguir la mayor velocidad en los gráficos,
conseguir el funcionamiento de disco duro más eficiente, el acceso a memoria más rápido). El aumentarle
en un punto le hará bajar en los demás. En realidad la configuración más ideal es la que viene por
defecto, pero esta última suele traer unos valores un tanto "holgados" para ofrecer máximas
compatibilidades. Pongamos un ejemplo: en las bios que soportan RAM y RAM EDO, hay una opción que
permite aumentar la velocidad de este segundo tipo. Sin embargo, si esa opción la utilizamos con el
primer tipo habría problemas, por lo que la opción determinada es ese acceso un poco más rápido
quitado, con el fin de que vaya bien con las dos memorias.
Antes de comenzar, ten en cuenta de que hay dos métodos para restaurar los valores iniciales en caso de
error: uno es la opción LOAD SETUP DEFAULTS, que permitirá cargar los valores por defecto. La otra
opción es factible en el caso de que el ordenador no arranque. En este caso, habrá que cambiar el jumper
de la placa base que sirve para borrar la CMOS (chip donde la BIOS guarda sus valores, recuerda que la
BIOS está en una memoria ROM, Read Only Memory -> memoria de sólo lectura). Si carece de dicho
jumper, habrá que quitar la pila de litio que alimenta a la CMOS. Si la pila está soldada a la placa base,
lee la frase que viene a continuación:
Y nos queda por decir lo típico, que no nos responsabilizamos de los posibles problemas
ocasionados por la mala utilización de estos consejos sobre la BIOS, y que se menciona con un
propósito meramente informativo. Es sólo para usuarios avanzados. Así que quedas avisado.
Aunque te todas formas no hay demasiado peligro. Si hay alguna opción que no entiendes, no la toques.
También recuerda apuntar en papel todos los valores anteriores en caso de perder rendimiento y
no verte obligado a usar la opción LOAD BIOS DEFAULTS
•
B.- DISPOSITIVOS DE CAPTURA Y ALMACENAMIENTO DE DATOS
Los dispositivos se clasifican de acuerdo a la función que desempeñan en: de
entrada, de salida y mixtos.
DISPOSITIVOS DE CAPTURA
1) Dispositivos de captura. Son todos aquellos dispositivos que transfieren datos de las
unidades de lectura hacia la unidad central de procesos. Ejemplo: lectoras de caracteres ópticos,
lectoras de tarjetas, lector de código de barras, etc. Son elementos que se encargan de convertir la
información que viene del exterior en un formato legible para introducirla a las áreas de entrada
del ordenador.
2) Variedades de dispositivos.
Este grupo incluye todo tipo de elementos capaces de adquirir información, como los
teclados y ratones. Un poco más sofisticado es el digitalizador o escáneres que es capaces de
digitalizar fotografías o textos. En combinación con un programa adecuado de reconocimiento de
caracteres, un dispositivo de reconocimiento de caracteres ópticos OCR (Optical Character
Recognition) es capaz de identificar y traducir lo escaneado a caracteres de datos en un
ordenador.
Los lectores de código de barras se usan, por ejemplo, en los supermercados y son una
aplicación específica de digitalizador datos para transferirlos al ordenador de forma rápida y
27
eficiente. Parecida función desempeñan los lectores de bandas magnéticas, utilizados por
ejemplo para leer las tarjetas de crédito y de débito en los bancos. Las cámaras de video son
utilizadas para realizar aplicaciones multimedia o incluso videoconferencias. Las cámaras
digitalizadas permiten capturar imágenes para introducirlas al computador.
Otros dispositivos son las palancas de comandos, periféricos utilizados en los juegos de
ordenador. Todos conocemos también las pantallas de contacto o táctiles, que son sensibles al
tacto de forma que es posible introducir información tocando con el dedo en la pantalla. Los
instrumentos de reconocimiento de voz, todavía no son muy populares, pero tienen un gran
futuro como interfaz natural de introducción de datos en el ordenador.
Escáneres
El escáner es un dispositivo que cada vez goza de mayor popularidad y aceptación entre todos los usuarios, y no sólo entre los
profesionales de la imagen. Y es que no estamos hablando únicamente del retoque
fotográfico de alto nivel; digitalización de páginas de texto para su tratamiento OCR,
o escaneado de documentos para su gestión en soporte magnético, entre otros
cometidos.
Para aconsejaros bien de cara a la adquisición de este periférico, es preciso explicar
antes su funcionamiento, así que vamos allá.
El principio de funcionamiento de un escáner es la digitalización, es decir, la
conversión de una información analógica a datos comprensibles por nuestro querido
PC; para ello, se vale de una serie de componentes internos que posibilitan este
objetivo. Una fuente de luz va iluminando, línea por línea, la imagen o documento en
cuestión, y la luz reflejada en la imagen es recogida por los elementos que
componen el CCD (Charged-Couple Device), dispositivo que convierte la luz recibida
en información analógica. Por último, un DAC (Digital-Analog Converter) convierte los datos analógicos en valores digitales.
Este es, a grandes rasgos, el funcionamiento del escáner. Sin embargo, necesitamos conocer más conceptos; por ejemplo, la
resolución. Cuando se habla de una resolución óptica de 600 ppp (puntos por pulgada), estamos indicando que su dispositivo CCD
posee 600 elementos. Cuanta mayor sea la resolución, más calidad tendrá el resultado; en la actualidad, lo mínimo son 300 ppp,
aunque 600 ppp es una resolución más conveniente si vamos a digitalizar fotografías. No obstante, la mayoría de escáneres
pueden alcanzar mayor resolución, mediante la interpolación; se trata de un algoritmo por el cual el escáner calcula el valor situado
entre dos píxeles digitalizados, a partir del valor de estos. Por ello, hay que saber diferenciar entre la resolución óptica (real) y la
interpolada.
Profundidad de color
Este parámetro, expresado en bits, indica el número de tonalidades de color que un píxel puede adoptar; lo normal en la actualidad
es un valor de 24 bits por píxeles. Aunque hasta hace poco los escáneres de blanco y negro, tonos de grises o 256 colores eran
muy populares, lo cierto es que los 24 bits de color se han convertido en un estándar, lógico si se tiene en cuenta que en la
actualidad cualquier tarjeta gráfica es capaz de mostrar esta cantidad de colores.
Sin embargo, hay escáneres capaces de utilizar 30 o incluso 36 bits de color, pero la mayoría lo hacen a nivel interno, para
disminuir el intervalo entre una tonalidad y la siguiente; posteriormente, lo que envían al PC son únicamente 24 bits. Por otro lado,
muy pocos programas pueden gestionar esos bits adicionales de color.
El estándar TWAIN
En cualquier caso, se necesita un software que actúe de intermediario entre el escáner y la aplicación que tratará el archivo
digitalizado; afortunadamente se ha logrado establecer un estándar, denominado TWAIN (según algunos, la palabra viene de
Technology Without An Interesting Name, algo así como "Tecnología sin nombre interesante"), hasta el punto de que no se concibe
un escáner que no incluya su correspondiente driver Twain. Se trata de un controlador que puede ser utilizado por cualquier
aplicación que cumpla con dicho estándar; su diseño permite que podamos digitalizar una imagen desde la aplicación con la que
acabaremos retocándola, evitando pasos intermedios.
En este punto es importante tener en cuenta un detalle: es recomendable que el driver Twain del escáner a adquirir sea lo más
potente y flexible posible; no basta con que nos permita elegir resolución, tamaño y tipo (color, grises, etc.) de la imagen o
documento, sino que también posea controles para ajustar los parámetros que influyen en el proceso de digitalización: niveles de
contraste, colores, etc.
Tipos de escáner
28
Hasta ahora, hemos visto el funcionamiento interno de estos dispositivos; es el momento de echar un vistazo a la amplia oferta del
mercado, dividida en tres tipos: escáneres de mano, de sobremesa y de rodillo. El escáner de mano es, con mucho, la alternativa
más económica, puesto que elimina gran parte de los mecanismos que encarecen a los dispositivos de sobremesa; más
concretamente el de tracción, ya que es el usuario quien mueve el escáner sobre la imagen o documento a digitalizar. La ventaja
económica y de ahorro de espacio tiene su contrapartida en la poca fiabilidad del proceso, ya que depende de la habilidad y el
pulso del usuario, y mover el escáner de forma demasiado lenta o rápida puede afectar al resultado final. Asimismo, puede ser
complicado digitalizar una página de un libro, con un escáner de mano.
Frente a estos modelos, los de sobremesa representan la alternativa más profesional y de calidad, aunque también más cara, y
realmente son los que más se están extendiendo. A modo de pequeñas fotocopiadoras, el documento o imagen se coloca sobre un
cristal bajo el cual la lente luminosa se desplaza, digitalizando el documento. La mayor complejidad del dispositivo, así como el
sistema de escaneado, le permiten obtener una gran calidad y fiabilidad, aunque como inconvenientes podemos citar su mayor
tamaño y precio.
Por último, el escáner de rodillo es una interesante alternativa, a medio camino entre los dos anteriores; como su nombre indica, el
escáner utiliza como mecanismo de tracción un rodillo que recoge automáticamente el documento y lo digitaliza. La calidad
obtenida no es tanta como en los modelos de sobremesa, pero es una excelente opción para usuarios con determinadas
necesidades.
Software incluido
Generalmente, se incluye software de regalo con el escáner; suele tratarse de versiones reducidas de excelentes programas de
retoque o de OCR (Reconocimiento Óptico de Caracteres), pero también de otras aplicaciones más sencillas, que pueden quedarse
cortas según qué usuarios las empleen. Aquí es evidente que no se puede exigir demasiado, pero es preciso buscar un escáner
que incluya al menos un buen software de tratamiento de imágenes y otro de OCR. En algunos casos se añade algún programa de
gestión documental, que puede venirnos bien si vamos a archivar gran cantidad de documentos; en cualquier caso, es una sabia
norma el buscar un software lo más potente posible, ya que es mejor pasarse que quedarse cortos.
Un par de recomendaciones
No hay que olvidar que la inmensa mayoría de los escáneres trabajan a 24 bits de color; esto significa que, incluso aunque no
necesitásemos más de 256 colores, el dispositivo no va a dar buen resultado con una profundidad de color inferior. Resumiendo,
nuestra tarjeta gráfica deberá estar configurada para esa cantidad de colores, si no queremos obtener resultados más pobres de lo
normal.
Nuestra segunda recomendación está de alguna forma relacionada con la primera; no debemos adquirir un escáner sin antes
comprobar si nuestro equipo podrá estar a la altura. No basta con tener un 486 con 8 Megas de memoria y un disco duro normal,
para que nos vayamos a engañar; la digitalización y tratamiento de imágenes exige un uso intensivo de la CPU, así como una
buena cantidad de memoria y mucho, mucho espacio en disco. En definitiva, se impone un análisis de nuestro PC, previo a la
compra de cualquier tipo de escáner.
La mejor conexión
Un escáner puede tener diferentes formas de conectarse al ordenador, cada una con ventajas e inconvenientes. Una conexión por
puerto paralelo nos ahorra la necesidad de abrir el PC y facilita la instalación, pero es notoriamente más lenta que otras soluciones.
La alternativa SCSI es mucho más rápida y fiable, aunque es preciso abrir el equipo, y lidiar con la clásica configuración de la
cadena de dispositivos SCSI; otro detalle a tener en cuenta es el tipo de tarjeta SCSI que el escáner puede incluir. Si ésta tiene un
diseño propietario y no es totalmente compatible con la norma (lo cual no es infrecuente), podemos tener problemas a la hora de
conectar el escáner en otros ordenadores con tarjeta SCSI.
Por último, otros modelos incluyen una tarjeta ISA de diseño propietario; el tema es evidente, si deseamos usar el escáner en otro
sistema, este deberá poseer una tarjeta idéntica, o tendremos que desmontar la nuestra y pincharla en el otro equipo. Por
supuesto, cada usuario empleará su escáner según sus necesidades, por lo que aquí nos limitamos a citar las diferentes
posibilidades existentes.
Algunos escáneres permiten obtener una gran calidad y fiabilidad, aunque siempre existen los inconvenientes del tamaño y el
precio.
Existen escáneres de rodillo con alimentador de hojas, algo que facilita al usuario, en gran medida, el trabajo a realizar.
El driver Twain es un controlador que puede ser utilizado por cualquier aplicación que cumpla con dicho estándar. Los escáneres
motorizados se utilizan para digitalizar grandes cantidades de texto mediante un programa OCR.
Calibración
29
Efectivamente, estos dispositivos también necesitan ser calibrados; esto se realiza de diversas formas. Por ejemplo,
muchos escáneres de mano incluyen una hoja con diferentes tonalidades de color, que debe ser digitalizada para que nuestro
periférico establezca los patrones necesarios. Asimismo, es importante que nuestra impresora de color pueda reproducir
correctamente la imagen original; para ello es preciso establecer una relación entre los colores que ésta puede imprimir, y los que el
escáner puede digitalizar. Se suele emplear un modelo, que primero se imprime en la impresora y posteriormente se digitaliza; se
comparan las diferencias y se crea un archivo de configuración, conteniendo los ajustes que permitirán corregirlas. Aunque no
todos los modelos permiten este tipo de calibración, lo cierto es que cada vez se utiliza con mayor frecuencia.
DISPOSITIVOS DE ALMACENAMIENTO PRIMARIO DE LOS DATOS Y
LA INFORMACIÓN.
1) El disco duro. La unidad de almacenamiento interno más frecuente es el disco duro.
La capacidad del disco duro es la capacidad total disponible en el mismo, una vez formateado y
se mide en Mega bites o Giga bytes (40gigas, 80 gigas, etc.). La velocidad de transferencia de
datos entre el disco duro y el ordenador depende básicamente de la interfase controladora, que
normalmente está integrada en la placa madre y se comunica con el disco duro mediante una faja
gris con cables. También existen controladoras que van en una tarjeta que se une a la placa a
través de una ranura de expansión. Si el ordenador es lento es inútil disponer de velocidades de
transferencia rápidas, ya que el microprocesador no es capaz de admitir datos a tanta velocidad.
Un dato que debe aparecer en las especificaciones del equipo es el tiempo medio de acceso de
disco duro, que es el tiempo medio que tardan las cabezas de lectura del disco en ir de una pista
a otra y acceder a los datos de la última. Se mide en milisegundos, y cuanto más rápido sea,
mejor.
Discos duros
Ha habido muchos cambios en el campo de los discos duros. De más antiguos del tamaño de una caja de
zapatos y de capacidades ridículas (vistas desde hoy) hasta discos duros compactos y reducidos con
capacidades 400 veces mayores.
Estructura interna de un disco duro
Un disco duro se compone de muchos elementos; citaremos los más importantes de cara a entender su
funcionamiento. En primer lugar, la información se almacena en unos finos platos o discos, generalmente de
aluminio, recubiertos por un material sensible a alteraciones magnéticas. Estos discos, cuyo número varía
según la capacidad de la unidad, se encuentran agrupados uno sobre otro y atravesados por un eje, y giran
continuamente a gran velocidad.
Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura, uno en cada cara. Estos cabezales
se encuentran flotando sobre la superficie del disco sin llegar a tocarlo, a una distancia de unas 3 o 4 micro
pulgadas (a título de curiosidad, podemos comentar que el diámetro de un cabello humano es de unas 4.000
pulgadas). Estos cabezales generan señales eléctricas que alteran los campos magnéticos del disco, dando
forma a la información. (Dependiendo de la dirección hacia donde estén orientadas las partículas, valdrán 0 o
valdrán 1).
La distancia entre el cabezal y el plato del disco también determinan la densidad de almacenamiento del
mismo, ya que cuanta más cerca estén el uno del otro, más pequeño es el punto magnético y más
información podrá albergar.
30
Algunos Conceptos
Si se aumenta la velocidad de rotación, la latencia se reduce; en antiguas unidades era de 3.600 rpm
(revoluciones por minuto), lo que daba una latencia de 8,3 milisegundos. La mayoría de los discos duros
actuales giran ya a 7.200 rpm, con lo que se obtienen 4,17 mb de latencia. Y actualmente, existen discos de
alta gama aún más rápidos, hasta 10.000 rpm.
Es preciso comentar también la estructura lógica del disco, ya que contiene importantes conceptos que todos
habréis oído; para empezar, la superficie del disco se divide en una serie de anillos concéntricos,
denominados pistas. Al mismo tiempo, las pistas son divididas en trames de una misma longitud, llamados
sectores; normalmente un sector contiene 512 bytes. Otro concepto es el de cilindro, usado para describir las
pistas que tienen el mismo número pero en diferentes discos. Finalmente, los sectores suelen agruparse en
clusters o unidades de asignación. Estos conceptos son importantes a la hora de instalar y configurar un disco
duro, y haremos uso de alguna de esta información cuando subamos al nivel lógico del disco. Muchas placas
base modernas detectan los discos duros instalados, mientras que en otras más antiguas hay que meter
algunos valores uno por uno (siempre vienen escritos en una etiqueta pegada en la parte superior del disco).
Interfaces: ST506, MFM y RLL
Hasta aquí hemos visto la estructura del disco duro, pero nos falta una pieza vital: la controladora. Es un
componente electrónico que gestiona el flujo de datos entre el sistema y el disco, siendo responsable de
factores como el formato en que se almacenan los datos, su tasa de transferencia, velocidad, etcétera.
Los primeros discos duros eran gestionados por controladoras ST506, un estándar creado por la conocida
empresa Seagate. Dentro de esta norma se implementaron los modos MFM y RLL, dos sistemas para el
almacenamiento de datos que, si bien diferentes en su funcionamiento, a nivel físico y externo del disco
presentaban la misma apariencia, siendo conocidos de forma genérica en el mundillo como "discos MFM".
Estas unidades incluían externamente tres conectores: el primero, y común a cualquier disco duro, es el de
alimentación. En los restantes se conectaba un cable de control y un cable de datos, desde el disco a la
controladora; el cable de control gestionaba la posición de los cabezales y el de datos transmitía el flujo de
información desde y hasta la controladora.
La diferencia entre MFM y RLL es a nivel interno; MFM (Modified Frequency Modulation) y RLL (Run Length
Limited) son dos métodos de codificación de la información binaria. RLL permite almacenar un 50% más de
datos que el MFM, al aumentar la densidad de almacenamiento. También la tasa de transferencia es superior
en RLL, debido al más eficiente método de grabación usado, sin embargo, la velocidad de rotación era la
misma en ambos casos: 3600 rpm.
En cualquier caso, la tasa de transferencia de estas unidades no era precisamente como para tirar cohetes:
una media de 5 Mbtis por segundo (es decir, medio mega) en MFM y 7.5 Mbtis/s para RLL. Y en cuanto a
capacidad, las unidades MFM no solían tener más de 40 Megas, 120 Megas en las RLL
31
ESDI
Con esta interfaz, “Enhanced Small Devices Interface” (interfaz mejorada para dispositivos pequeños), se
daba un paso adelante. Para empezar, una parte de la lógica decodificadora de la controladora se
implementó en la propia unidad, lo que permitió elevar el ratio de transferencia a 10 Mbits por segundo.
Asimismo, se incluyó un pequeño buffer de sectores que permitía transferir pistas completas en un único giro
o revolución del disco.
No obstante, estas unidades no se extendieron demasiado, y únicamente compañías como IBM (muy
aficionadas a tecnologías propietarias) fueron las que más lo emplearon en sus máquinas. Estas unidades no
solían tener una capacidad superior a 630 Megas, y en cualquier caso se trató más bien de una tecnología de
transición, ya que un tiempo después tuvo lugar el salto cuantitativo y cualitativo con la interfaz que
detallamos a continuación.
El estándar IDE
“Integrated Drive Electronics”, o IDE, fue creado por la firma Western Digital, curiosamente por encargo de
Compaq para una nueva gama de ordenadores personales. Su característica más representativa era la
implementación de la controladora en el propio disco duro, de ahí su denominación. Desde ese momento,
únicamente se necesita una conexión entre el cable IDE y el Bus del sistema, siendo posible implementarla
en la placa base (como de hecho ya se hace desde los 486 DX4 PCI) o en tarjeta (equipos 486 VLB e
inferiores). Igualmente se eliminó la necesidad de disponer de dos cables separados para control y datos,
bastando con un cable de 40 hilos desde el bus al disco duro. Se estableció también el término ATA (AT
Attachment) que define una serie de normas a las que deben acogerse los fabricantes de unidades de este
tipo.
IDE permite transferencias de 4 Megas por segundo, aunque dispone de varios métodos para realizar estos
movimientos de datos, que veremos en el apartado “Modos de Transferencia”. La interfaz IDE supuso la
simplificación en el proceso de instalación y configuración de discos duros, y estuvo durante un tiempo a la
altura de las exigencias del mercado.
No obstante, no tardaron en ponerse en manifiesto ciertas modificaciones en su diseño. Dos muy importantes
eran de capacidad de almacenamiento, de conexión y de ratios de transferencia; en efecto, la tasa de
transferencia se iba quedando atrás ante la demanda cada vez mayor de prestaciones por parte del software
(¿estás ahí, Windows?). Asimismo, sólo podían coexistir dos unidades IDE en el sistema, y su capacidad
(aunque ero no era del todo culpa suya, lo veremos en el apartado “El papel de la BIOS”) no solía exceder de
los 528 Megas. Se imponía una mejora, y ¿quién mejor para llevarla a cabo que la compañía que lo creó?
Enhanced IDE
La interfaz EIDE o IDE mejorado, propuesto también por Western Digital, logra una mejora de flexibilidad y
prestaciones. Para empezar, aumenta su capacidad, hasta 8,4 Gigas, y la tasa de transferencia empieza a
subir a partir de los 10 Megas por segundo, según el modo de transferencia usado. Además, se
implementaron dos sistemas de traducción de los parámetros físicos de la unidad, de forma que se pudiera
acceder a superiores capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas innegables,
ya que con mínimas modificaciones (aunque LBA exigía también cambios en la BIOS del PC) se podían
acceder a las máximas capacidades permitidas.
Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al mismo tiempo, que se
aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y de BIOS a soportar los controladores
secundarios (dirección 170h, IRQ 15) siempre presentes en el diseño del PC pero nunca usados hasta el
momento, de forma que se pudieran montar una unidad y otra esclava, configuradas como secundarias. Más
aún, se habilitó la posibilidad de instalar unidades CD-ROM y de cinta, coexistiendo pacíficamente en el
sistema (más sobre esto en el apartado “Otros términos”). A nivel externo, no existen prácticamente
diferencias con el anterior IDE, en todo caso un menor tamaño o más bien una superior integración de un
32
mayor número de componentes en el mismo espacio.
Modos de transferencia
Los dispositivos IDE pueden transferir información principalmente
empleando dos métodos: PIO y DMA; el modo PIO (Programmed I/O)
depende del procesador para efectuar el trasiego de datos. A nivel de
rendimiento no hay mayor problema, ya que los micros actuales tienen
la suficiente capacidad para gestionar estas operaciones y alternarlas
con otras, por supuesto. El otro método es el DMA; así la CPU se
desentiende de la transferencia, teniendo ésta lugar por mediación de
un chip DMA dedicado. Con el IDE original se usaban los modos PIO 1
y 2, que podían llegar a unos 4 Megas por segundo de transferencia; el
modo DMA del IDE original no superaba precisamente esa tasa,
quedándose en unos 2 o 3 Megas por segundo.
Hay que decir que existe una variante de la transferencia DMA, y es la
BusMaster DMA; esta modalidad aprovecha las ventajas de los chipsets de las placas base, cada vez más
optimizados para estas laboras. Además de liberar al procesador, puede obtener por parte de éste un control
casi total, de forma que la información sea transferida con la máxima prioridad. Aunque se pueden alcanzar
16 Megas por segundo, la última modalidad Ultra DMA logra llegar a los 33,3 Megas/s, aprovechando las
bondades del nuevo chipset TX de Intel. No obstante, para disfrutar de esta técnica es precioso contar con los
correspondientes controladores, suministrados normalmente por el fabricante de la correspondiente placa
base.
Otros términos
EIDE amplió los modos PIO al 3, y estableció el MultiWord DMA 1; con ello se logró una tasa de 11 o 13
Megas/s, dando lugar al término Fast ATA. Con posterioridad, se definió la norma Fast ATA-2, para identificar
aquellos productos que se acogían a los modos PIO 4 y MultiWord DMA 2, que permiten alcanzar un máximo
de 16,6 Megas/s. Existe otro método de transferencia propio del Fast ATA, y es la múltiple lectura/escritura;
es decir, la capacidad de leer o escribir varios sectores (normalmente hasta 32) en una sola interrupción, lo
que permite optimizar la transferencia incluso en buses lentos, como ISA.
Conviene resaltar que las tasas de transferencia citadas se consiguen en el mejor de los casos, y no siempre
son sostenidas, es decir, que suelen ser “picos” de transferencia.
Es preciso también abordar en esta introducción a los discos duros otro término muy conocido; ya hemos
comentado que EIDE amplió la flexibilidad en el conexionado, permitiendo la coexistencia de discos duros
con unidades de cinta y de CD-ROM, usando el estándar IDE. Para ello se ideó la norma ATAPI (ATA Packet
Interface), una extensión del protocolo ATA creada con el fin de aportar un único conjunto de registros y
mandatos, y de esta forma facilitar la coexistencia de estas unidades. Los dispositivos de este tipo también
pueden, por tanto, beneficiarse de todas las ventajas de los modos PIO y DMA.
MODO DE TRANSFERENCIA
PIO 0
PIO 1 y 2
PIO 3
PIO 4
MultiWord DMA 1
MultiWord DMA 2
Ultra DMA 33
Ultra DMA 66
MB DE TRANSFERENCIA (PICOS)
2/3 Mb/s
4 Mb/s
11 Mb/s
16 Mb/s
13 Mb/s
16,6 Mb/s
33 Mb/s
66 Mb/s
33
Buffer y caché
Prácticamente todos los discos duros incluyen una memoria buffer, en la que almacenan los últimos sectores
leídos; ésta, que puede ser desde 2 Kb hasta 512 Kb, es importantísima de cara al rendimiento, e incluso
imprescindible para poder mantener altas cotas de transferencia. Se la denomina caché cuando incluyen
ciertas características de velocidad; concretamente, los procesos se optimizan cuando el sistema vuelve de
una operación de copiado de datos a la unidad sin esperar a que ésta haya finalizado. También utilizan otra
técnica diferente consistente en que la unidad informa de la finalización de una operación de escritura en el
momento de recibir los datos, antes de comenzar a grabarlos en el disco. De esta manera no se producen
estados de espera; tras todo lo comentado hasta este momento, podemos decir, resumiendo, que un caché
amplio en un disco duro es absolutamente imprescindible.
Más de 520 Megas... ¿por qué no?
Seguro que muchos de vosotros habéis vivido el caso (o al menos habéis sido testigos de él) de ir a instalar
un disco duro de alta capacidad, y encontraros con que de esos 1080 Megas sólo alcanzáis 528 Megas. Se
trata de una nefasta limitación, que curiosamente no está impuesta ni por la BIOS (Basic Input/Output
System) ni por el estándar IDE (ni por el DOS, como alguna gente piensa); en realidad, viene dada.... ¡por
ambos!
La capacidad de un disco duro se mide en tres valores: número de sectores por pista, número de cabezas y
número de cilindros (notación CHS); el estándar IDE soporte 65.536 cilindros, 16 cabezas y 255 sectores por
pista, lo que nos da una capacidad bestial, alrededor de 137 Gigas.
Por su parte, la BIOS del PC soporta 1.024 cilindros, 255 cabezas y 63 sectores; ya que ambos deben
funcionar en conjunción, es el mínimo común denominador de ambos el que marcará la capacidad definitiva,
que será de 1.024 cilindros (máximo de la BIOS), 16 cabezas (máximo del IDE) y 63 sectores (máximo de la
BIOS), lo que nos va a dar un total de 528 Megas.
Para superar esta traba, la BIOS debe implementar el modo de trabajo conocido como LBA (Logical Block
Adreesing), que traduce el esquema CHS a otro de direccionamiento lógico. Esta operación es totalmente
transparente al sistema operativo y al software en general, y aporta la evidente ventaja de poseer acceder a
todo el espacio disponible del disco duro del ordenador.
Cuando una BIOS no soporta esta técnica, es preciso emularla por software; para ello, el fabricante de la
unidad suele poner a disposición del usuario utilidades especiales que, en forma de driver residente, logran
engañar al sistema y obtener el mismo efecto que el LBA por BIOS.
La norma SCSI
Hasta el momento hemos estado comentando los estándares ST506, MFM, RLL, IDE y EIDE, pero nos
hemos saltado uno que, tan veterano como los anteriores, ha ido evolucionando (hasta hace poco en otros
segmentos de mercado) de forma paralela a ellos. Nos referimos, por supuesto, a SCSI; demos un breve
paseo por sus características.
La interfaz SCSI (Small Computer System Interface) ha sido tradicionalmente relegada a tareas y entornos de
ámbito profesional, en los que prima más el rendimiento, la flexibilidad y la fiabilidad. Para empezar, SCSI es
una estructura de bus separada del bus del sistema. De esta forma, evita las limitaciones propias del bus del
PC. Además, en su versión más sencilla esta norma permite conectar hasta 7 dispositivos SCSI (serían 8
pero uno de ellos ha de ser la propia controladora) en el equipo; y las ventajas no se reducen al número de
periféricos, sino también a su tipo: se puede conectar prácticamente cualquier dispositivo (escáneres,
impresoras, CD-ROM, unidades removibles, etc.) siempre que cumplan con esta norma.
Otra enorme ventaja de SCSI es su portabilidad; esto quiere decir que podemos conectar nuestro disco duro
o CD-ROM (o lo que sea) a ordenadores Macintosh, Amiga, etc., que empleen también la norma SCSI. Un
detalle a resaltar que todos los periféricos SCSI son inteligentes; es decir, cada uno posee su propia ROM
34
donde almacena sus parámetros de funcionamiento. En especial, es la controladora el dispositivo más
importante de la cadena SCSI, que al poseer su propia BIOS puede sobrepasar limitaciones de la ROM BIOS
del sistema.
Posiblemente lo que hace destacar a SCSI en su rendimiento, bastante superior a IDE al no depender del bus
del sistema; no obstante, no todo iban a ser ventajas: SCSI es más caro que IDE, y en la mayoría de las
ocasiones, más complejo de configurar, aunque esto último es cada vez menos problemáticos, ya que es
preciso resaltar que la norma SCSI también ha evolucionado y mejorado; citaremos a continuación sus
diferentes modalidades.
El surtido SCSI
La primera norma, SCSI-1, lograba un máximo de 3 Megas por segundo de transferencia, a una anchura de 8
bits en el bus de datos. La posterior SCSI-2 introdujo mejoras en el control de los dispositivos, inclusión de
mejoras de caché y otras, subiendo a 5 Megas de ratio, con la misma anchura de bits que su predecesora.
Luego se presentó la variante Fast SCSI-2, que lograba los 10 Megas por segundo, manteniendo esos 8 bits
en el bus de datos. El modo Wide se unió después al Fast, resultando el Fast/Wide SCSI-2, con el que se
amplió a 16 bits el ancho de banda del bus de datos, lográndose hasta 20 Megas/s de transferencia y
permitiendo un soporte de hasta 15 dispositivos en cadena.
Lo último ha sido el Ultra SCSI, con el que se ha conseguido llegar a 40 Megas por segundo a 16 bits y 20
Megas a 8 bits, aunque no debemos pasar por alto la inclusión de la norma SCAM (SCSI Configured
Automatically), alo parecido al Plug & Play, que nos libera de la clásica dificultad de configuración de las
cadenas SCSI, aunque para ello los dispositivos también deben contemplar el SCAM. Por diversos motivos,
SCSI siempre ha sido la alternativa profesional, pero cada vez podemos verla con más frecuencia en el
ámbito doméstico; no hay que olvidar que periféricos como unidades Zip o Jazz, magneto-ópticos y escáneres
vienen cada vez de forma más frecuente en SCSI, así como el progresivo abaratamiento al que se ven
sometidos este tipo de componentes.
Norma SCSI
SCSI-1
SCSI-2
Fast SCSI-2
Fast/Wide SCSI-2
Ultra SCSI
Ultra2 SCSI LVD
Ancho Bus
8 bits
8 bits
8 bits
16 bits
8/16 bits
8/16 bits
Megas/segundo
3 Megas/s
5 Megas/s
10 Megas/s
20 Megas/s
20/40 Megas/s
40/80 Megas/s
Otras formas de usar un disco duro
Si hay algo que resulta evidente, es que el disco duro siempre almacena una valiosa información, y de su
buen funcionamiento depende la integridad de los datos. Si esto es importante en el ámbito particular,
imaginad a un nivel de entidades bancarias, grandes empresas, administraciones públicas o ejército, cuyas
instalaciones informáticas normalmente son redes basadas en un servidor central. Si ese disco duro falla, el
resultado puede ser catastrófico.
Por este motivo, surge el término SFT (Sistema tolerante a fallos, o System Fault Tolerance); se basa en el
concepto de mantener tanto la integridad de los datos cómo el correcto funcionamiento del sistema, en el
caso de un fallo de hardware. Este concepto aporta un nuevo término, RAID (Redundant Array of Inexpensive
Disks); se puede traducir como Matriz Redundante de Discos Baratos, y sus diferentes modos de
implementación forman los llamados niveles RAID. Aunque existen multitud de niveles, tocaremos más bien el
concepto genérico; este se basa en utilizar varios discos duros, conectados entre sí (aunque el sistema cree
35
que sólo existe uno), y que almacenan duplicados de la información principal. Por tanto, si uno de ellos cae, el
sistema no se paraliza puesto que tenemos otros discos para sustituirlo, y, además, con la información
totalmente intacta.
Existen numerosísimas formas de implementar la tolerancia a fallos, tanto por hardware como por software;
podemos citar por ejemplo, el Disk Striping (que divide los datos en bloques de 64 Kb y los distribuye entre los
diferentes discos instalados), el Disk Mirroring (crea una copia exacta, un espejo, del disco principal en otro
secundario) y su variante Disk Duplexing (añade una controladora para gestionar el disco secundario y así
reducir el tráfico) o el Disk Striping with Parity (variante del Striping, que añade también información de
paridad a los datos guardados, empleada para recuperar la información en una hipotética pérdida de la
misma). Por último, la técnica de Sector Sparing consiste en, tras la detección de un sector defectuoso del
disco, sacar la información del mismo, colocarla en un sector bueno y marcar como defectuoso el sector
erróneo.
Por supuesto, todas estas técnicas se efectúan en tiempo real, y normalmente son los sistemas operativos de
red (como Windows NT Server o Novell Netware) los encargados de soportarlas. Asimismo, se emplean casi
siempre discos SCSI debido a sus características, como flexibilidad o capacidad de ampliación; incluso
técnicas como el Sector Sparing deben ser usadas en discos SCSI, puesto que es imposible aplicarlas con
dispositivos IDE.
Capacidad
ULTRA2
SCSI LVD
RLL
ESDI
IDE
EIDE
SCSI-2
40 Mb
120 Mb
630 Mb
520 Mb
?
16 Mb/s
33 Mb/s
con
UDMA 33
66 Mb/s
con
UDMA 66
?
10 Mb/s y
hasta
20
Mb/s
en 40 Mb/s
controladoras
versión Fast
80 Mb/s
12 ms
10 ms
?
5 Mg/s = 7,5 (Mg/s
Tasa
de
0,625
= 0,9375 1 Mb/s
transferencia
Mb/s
Mb/s
11 Mb/s
Tiempo
acceso
14 ms
de
ULTRA
SCSI
?
MFM
65 ms
40 mb
15 mb
9 ms
Notas: capacidad indica la cantidad máxima (en Megabytes) que puede controlar el sistema. Tasa de
transferencia expresada en Megabits segundo (Mg/s) y en Megabytes por segundo (Mb/s). Tiempo de acceso
expresado en milisegundos. Puede variar según fabricantes.
Un poco de historia
Aparte del clarísimo crecimiento que se puede observar a lo largo de todas estas tecnologías, el avance
evolutivo es evidente también en términos cronológicos. Por ejemplo, y también de forma orientativa,
podemos citar un “calendario” muy especial: durante el año 1992 y principios del 93, los discos duros
implementados más comúnmente en los ordenadores domésticos eran de 40 y 80 Megas. A finales del 93 y
primeros del 94, el tamaño ascendió a 100 y 120 Megas; sin embargo, antes de acabar el mismo año 94 ya
nos poníamos en 214 y 260 Megas.
1995 fue testigo de la proliferación de los 428 y 540 Megas, pero antes de finalizar dicho año los discos de
620 y 850 Megas, e incluso se alcanzó la mágica cifra del Gigabyte, aunque los de 850 Megas también eran
muy utilizados. En 1997 lo más bajo que se instalaba eran discos de 1,2 y 1,7 Gigabytes, siendo lo más
normal discos de 2 Gigas. Hoy día, a finales de 1999, se instalan discos de 8, 12 y 15 GB.
En el ámbito de las interfaces, EIDE es la estrella del PC doméstico, y de buena parte del profesional, debido
a su buen rendimiento y mejor precio. No obstante, es preciso recordar que SCSI es cada vez más popular y
asequible. En cualquiera de los casos, no debemos olvidar que, para obtener el máximo rendimiento, el disco
y la controladora deben estar al mismo nivel; por ejemplo, un disco Ultra SCSI no dará de sí todo lo posible
con una controladora Fast SCSI, y viceversa. Lo mismo sucede con IDE: una controladora EIDE se verá
36
frenada por un disco IDE estándar y viceversa.
Por otro lado, la relación precio/Megabyte sigue más o menos la onda de otros componentes informáticos;
más que la bajada de precios, lo que realmente ocurre es que se da más por el mismo precio.
IEEE 1394 Firewire
Este es el nuevo bus de discos duros que se utilizará dentro de unos meses en adelante, por lo que ahora no
está a la venta. Sin embargo, es bueno conocerlo, ya que esto se trata de una guía.
El IEEE 1394, que se dio a conocer debido sobre todo a la lista de tecnologías contenidas en Windows 98, es
un nuevo bus que permite conectar hasta 63 dispositivos con una velocidad de datos media-rápida. En el
fondo es similar al USB, pero, como verás más adelante, tiene diferencias tanto en aplicaciones como en
prestaciones. No se harán competencia uno con otro y convivirán pacíficamente en un mismo ordenador.
Lo mejor de todo es el tipo de cosas que se pueden conectar. Éstas incluyen discos duros, DVD-ROMs y CDROMs de alta velocidad, impresoras, escáneres... y la novedad: cámaras de fotos digitales, videocámaras
DVD, televisiones... Todo esto último es un nuevo hardware que se está fabricando ya. De hecho, ya hay
disponibles muchos elementos. Gracias al 1394, se podrán conectar cámaras digitales y de DV sin la
necesidad de incómodas tarjetas que vienen opcionalmente con estos aparatos.
Y ahora, te preguntarás cómo se conecta todo esto al ordenador. Por el momento, se hará con controladoras
PCI.
Elegir el disco duro. IDE vs. SCSI
Como la función principal del disco duro es la de actuar como almacén de datos a largo plazo, la capacidad
es una consideración fundamental. Hay que buscar un disco duro de entre 4 y 12 GB, dependiendo del tipo
de datos que piense almacenar en el disco duro. Otras consideraciones son la velocidad de acceso
(busquemos una velocidad mínima de 10 a 12 milisegundos, y si llega a 8 o 6, mejor), el buffer (recomendado
de 256 Kb), rpm (revoluciones por minuto, busquemos 7.200) y el tamaño de la caché del disco duro.
También es importante considerar el tipo de datos que piensa almacenar en su disco duro. Los formatos de
datos actuales (video, sonido y gráficos) pueden requerir varios megabytes de espacio para almacenamiento.
De todas las tecnologías comentadas, cuando pienses comprar un disco duro tendrás dos opciones a elegir:
IDE o SCSI. Los discos duros SCSI requieren hardware adicional y son más adecuados para tipos de
operaciones de entrada/salida como servidores de archivos. Las unidades de disco duro IDE o EIDE
(Enhanced IDE, o IDE mejorado) no requieren hardware adicional y los de la variante UDMA/33 o DMA/66
son casi igual o más veloces que los discos duros SCSI (los SCSI-2 concretamente). Para la mayoría de los
usos de alto rendimiento, un disco duro EIDE suele ser el más apropiado y económico.
Otro punto es que el IDE admite en la actualidad cuatro dispositivos (que pueden ser discos duros, CDROMs, y algún tipo de disco removible), el SCSI 1 y 2 admite 7 dispositivos (discos duros, CD-ROMs,
escáneres y discos removibles) y el Ultra SCSI) admite 15 (el Ultra2 SCSI LVD admite ¡30!). La cantidad de
dispositivos que vamos a necesitar es otro factor de elección.
2) Unidades de disco flexibles
Las tradicionales unidades de disco flexibles tienen una capacidad de almacenamiento bastante
limitada, que es la capacidad máxima que se puede leer-escribir con dichas unidades, una vez
formateados y en los ordenadores compatibles las unidades de disco de 3,5 pulgadas de alta
densidad admiten 1.440 GB. Es uno de los periféricos que más ha sobrevivido, aunque debido a
su baja capacidad algunos fabricantes como Apple ya no lo incluyen en sus modelos. Otras
37
unidades de almacenamiento muy populares son las unidades Zip, Superdisc, Jazz, etc. que
permiten una mayor capacidad de datos, tanto de lectura como de escritura.
Discos Removibles
A la hora de ampliar nuestros ordenadores nos mueve algo que se puede definir con una palabra clave:
necesidad. Necesidades de potencia, versatilidad, rapidez, y cómo no, almacenamiento. El software va
tomando continuamente un tamaño mastodónico, y además nuestro trabajo con el ordenador va
ocupando cada vez más espacio; curiosamente no basta con un disco duro de gran tamaño, puesto que
éste también se va llenando rápidamente.
Todos tenemos datos y programas de los que no queremos o no podemos desprendernos, aún en el
caso más que probable de que estos últimos estén desfasados: bases de datos, imágenes y sonidos,
documentos, etc. Surge por tanto la necesidad de guardar esa información en algún soporte que nos
permita eliminarla de nuestro disco duro y reinstalarla en él cuando sea preciso. El medio removible por
excelencia es el disquete de 3 1/2", aunque relacionado con él aflora un insondable misterio, al que
ningún gurú informático ha respondido: ¿cómo es posible que un dispositivo que sólo puede almacenar
1.440 Kilobytes sobreviva durante tantos años en un mundo donde la longevidad se mide en escasos
meses, y es rarísimo el software que cabe en un sólo disquete? Queda clara, por tanto, la necesidad de
contar con una forma de almacenar la mayor cantidad de datos posible, en un soporte removible. El
mercado pone a disposición un extenso catálogo de alternativas; comentaremos los más conocidos y
empleados, enumerando sus ventajas e inconvenientes. Citaremos las cintas magnéticas o streamers,
cintas DAT, discos removibles (ya sean magnéticos o magneto-ópticos), y discos CD-ROM gravables,
entre otros.
Streamers
Las unidades de cinta o streamers emplean un sistema similar al de casete de audio. Su capacidad
puede variar entre 40 Megas y varios Gigas, y son ideales para realizar grandes copias de seguridad
(backups), en los que el tiempo no sea importante, ya que su mayor desventaja estriba en su notoria
lentitud, tanto al grabar como al recuperar la información; en este último punto hay que tener en cuenta
que al ser un sistema secuencial, para localizar un dato debe pasar primero por los que se encuentren
almacenados previamente.
También es importante saber que estos dispositivos suelen aportar la característica de compresión, por lo
que la capacidad que proclaman en su publicidad es siempre la que se obtiene al comprimir la
información. En otras palabras, hay que informarse bien de la capacidad de la unidad con y sin
compresión. Y también asegurarse de que las cintas usadas cumplen, al menos, con el estándar QIC; y
si también permiten el uso de cintas Travan (otro estándar), mucho mejor.
Cintas DAT
Existe una variante de las cintas streamers normales: las cintas DAT (Digital Audio Tape o Cinta Digital
de Audio). Se trata de cintas de cuatro milímetros, bastante más pequeñas que las normales QIC y
similares a las empleadas en la industria musical. Su capacidad se mide en gigabytes, normalmente más
de dos. Su velocidad es también bastante mayor que la de las QIC, y su implementación suele hacerse
invariablemente con SCSI; por supuesto, también son ideales para grandes copias de seguridad. Y
seguro que ya os imagináis la desventaja: el precio. Estas unidades no suelen bajar de los veinte mil
duros, lo que unido a sus especiales características las hacen más propias de entornos profesionales
(servidores de red, etc.) que de usuarios domésticos.
Discos removibles
Las dos alternativas anteriores, debido a sus características, se orientan más exclusivamente a la
realización de grandes copias de seguridad. Sin embargo, el caso de los discos removibles es diferente;
se trata de unidades que combinan a la perfección rapidez de acceso, un precio bastante ajustado y una
considerable capacidad de almacenamiento.
38
Pueden usar la tecnología magnética tradicional o la magneto-óptica; en ésta última se combinan, como
su nombre indica, las dos técnicas, siendo un sistema más seguro en cuanto a la integridad y fiabilidad
de la información almacenada (ventajas del láser), aunque la velocidad de grabación se resiente
bastante. La capacidad más básica de este tipo de discos suele estar en 100 Megas, pasando por 230,
540, y 640, hasta llegar al gigabyte de capacidad (por supuesto, según marcas y modelos). Uno de los
mayores atractivos de estas unidades estriba en su velocidad de acceso, hasta el punto de que pueden
utilizarse en la mayoría de los casos para ejecutar programas desde los mismos discos. La ventaja es,
por tanto, muy evidente.
CD-ROM gravables
Hasta hace no mucho tiempo, las grabadoras de CD-ROM se encontraban fuera del alcance del usuario
final, principalmente por su precio. Sin embargo, éste se está reduciendo continuamente, hasta el punto
de ser una opción a considerar por cualquiera. ¿Ventajas? Más de 600 Megas de capacidad y la
posibilidad de ser utilizados en cualquier PC dotado de lector de CD estándar frente a la necesidad, por
parte de los discos removibles, que cada PC donde se quieran utilizar cuente con una unidad de su tipo.
El principal problema consiste en que sólo se pueden grabar una vez (aunque esa importante pega
comenzará a desaparecer en un breve espacio de tiempo; ver recuadro "CD-RW"), por lo que se utilizará
para guardar toda la información de forma definitiva, que no necesite ser modificada en ningún momento.
¿Unidad interna o externa?
La práctica totalidad de las unidades removibles se encuentra disponible en formatos interno y externo.
Está claro que un dispositivo externo nos permite, teóricamente, usarlo en otros equipos, pero es preciso
tener en cuenta ciertos factores. Si la unidad es externa, implica que la conexión será por puerto paralelo
o por SCSI; si elegimos SCSI, obtenemos mayor rendimiento, pero no podremos utilizar la unidad en
otras máquinas, si éstas no disponen de controladora SCSI, y además con el mismo tipo de conector.
La conexión por puerto paralelo elimina ese problema, pero no está exenta de problemas; será necesario
contar con un puerto paralelo mejorado EPP o ECP para obtener una tasa de transferencia aceptable, y
aún así el rendimiento se verá reducido de forma considerable. Personalmente, el que suscribe prefiere
unidades internas SCSI, aunque en este caso, la conexión IDE se presenta como posible alternativa a la
SCSI, siendo sus ventajas más evidentes la sencillez de instalación y su relación precio/rendimiento.
CD-RW
Recientemente ha irrumpido en la industria un nuevo estándar, que puede inclinar la balanza hacia el
lado de los discos compactos: el CD-RW. Se trata de unidades que pueden grabar CD-ROM más de una
vez; esto, como podréis imaginaros, supone una gran ventaja, ya que se consigue unir una excelente
capacidad de almacenamiento con la comodidad de poder utilizar los discos en otras unidades. No
obstante, por el momento, su precio y rendimiento, amén de algunos problemillas menores relativos a su
compatibilidad, nos hacen prever que su utilización será de forma minoritaria; aunque claro, esto no se
puede asegurar al cien por cien.
Otros detalles
Hay otros factores a considerar: aunque la mayoría de los dispositivos externos exigen un transformador
externo del que obtener alimentación eléctrica, algunos incluyen dicha fuente en la misma carcasa de la
unidad, lo que nos evitaría un trasto más sobre la mesa; por tanto, es interesante conocer el sistema de
alimentación del periférico antes de adquirirlo.
El otro detalle a tener en cuenta es la protección contra escritura del disco removible; algunos la realizan
por software, mediante alguna utilidad incluida en el paquete. Es cuestión de gustos, pero suele ser más
cómodo deslizar manualmente una pestaña del disco, que tener que iniciar el software en cuestión cada
vez que queramos protegerlo o desprotegerlo.
RESPALDOS.
39
Finalizaremos el artículo con la misma palabra clave con que lo empezamos: necesidades. Estas deben
condicionar nuestra decisión de compra: si, por ejemplo, deseamos realizar una copia de seguridad
completa de nuestros datos, de forma esporádica, una unidad de cinta QIC será suficiente.
Los CD-ROM gravables son más indicados para almacenar datos o programas valiosos, que no sea
preciso modificarlos pero sí utilizarlos o consultarlos con relativa frecuencia.
Por último, los discos removibles son ideales si lo que necesitamos es realizar frecuentes copias de
nuestros datos, que puedan ser borrados o modificados con asiduidad, o incluso si deseamos ejecutar
diferentes programas sin tener que instalarlos previamente en nuestro disco duro.
C) DISPOSITIVOS DE VISUALIZACIÓN, IMPRESIÓN Y GRAFICACIÓN
DE DATOS
1) Monitores, pantallas de video o de plasma. Los más populares son los monitores,
que generalmente son pantallas de rayos catódicos o en los ordenadores portátiles, de plasma.
Las pantallas de plasma o planas tienen precios elevados. El tamaño del monitor se expresa en
pulgadas que equivalen a 2.54 cm. y se miden como en los televisores en diagonal. La
resolución gráfica es el número máximo de puntos horizontales por verticales que se pueden
visualizar en la pantalla. Por ejemplo, resoluciones típicas son 800x600, 1024x768, 1200 x 1024
o 2400 x 1200 píxeles. Algunas placas madres disponen de un conjunto de circuitos especiales
que permiten presentar los gráficos en la pantalla del ordenador. Sin embargo es más frecuente
que haya unas tarjetas especiales para este fin, las llamadas tarjetas gráficas. La calidad del
monitor tiene que estar en consonancia con la de la tarjeta gráfica, y además guardar coherencia
con la cantidad de memoria que tienen estas tarjetas, que puede ser de un tipo especial
optimizado para el video, y en este caso se llama VRAM. Hay ciertos estándares en el mercado
de las tarjetas de video de los ordenadores compatibles, gracias a los cuales se pueden clasificar
las calidades de imagen, aunque hoy en día los más conocidos son VGA, con posibilidad de
generar 256 colores y la XVGA, que puede exhibir millones de colores. De ellos dependerá la
gama cromática disponible.
Pantallas de Representación Visual.
Tanto el teclado como el ratón del ordenador nos
permiten introducir datos o información en el sistema. De
poco nos sirven si no tenemos algún dispositivo con el
que comprobar que esa información que estamos
suministrando es correcta. Los monitores muestran tanto
la información que aportamos, como la que el ordenador
nos comunica. Desde los primeros que aparecieron con
el fósforo verde, la tecnología ha evolucionado junto con
la fabricación de nuevas tarjetas gráficas. Ahora no se
concibe un ordenador sin un monitor en color. Ahora la
"guerra" está en el tamaño y en la resolución que sean
capaces de mostrar.
La tecnología en la fabricación de monitores es muy compleja y no es propósito ahora de
profundizar en estos aspectos. Sí los vamos a tratar superficialmente para que sepáis cuáles son los
40
parámetros que más os van a interesar a la hora de elegir vuestro monitor. Estos parámetros son los
siguientes:
Tamaño
Son las dimensiones de la diagonal de la pantalla que se mide en pulgadas. Podemos tener
monitores de 9, 14, 15, 17, 19, 20 y 21 ó más pulgadas. Los más habituales son los de 15 pulgadas
aunque cada vez son más los que apuestan por los de 17 pulgadas, que pronto pasarán a ser el
estándar. Los de 14 pulgadas se usan cada vez menos. Todo esto se debe a que las tarjetas
gráficas que se montan ahora soportan fácilmente resoluciones de hasta 1600x1280 píxel.
Resolución
Un píxel es la unidad mínima de información gráfica que se puede mostrar en pantalla. Cuantos más
píxeles pueda mostrar el monitor de más resolución dispondremos. Traducido a lenguaje "de la
calle" quiere decir que más elementos nos cabrán en ella. Es igual que si vivimos en un estudio de
25 m2 y nos mudamos a una casa de 300 m2. Nosotros somos los mismos, sólo que disponemos
de más espacio. Si trabajáis con Windows la resolución ampliada es fundamental, podréis tener más
iconos en pantalla, podréis tener abiertas varias aplicaciones y verlas a la vez, sin tener que
maximizar cada una cuando cambiéis a ellas, etc.
La resolución está íntimamente relacionada con las dimensiones del monitor, pero no podemos
guiarnos fiablemente por esto. Por ejemplo, hay algún monitor de 15 pulgadas que alcanza
resoluciones de hasta 1600 x 1280, pero las dimensiones físicas de la pantalla hacen que todo se
vea muy reducido, siendo un engorro y además pagamos por unas características que nunca
utilizaremos. Para estas resoluciones ampliadas os recomendamos: un monitor de 15 pulgadas para
1024 x 768, y uno de 17 o 20 pulgadas para 1280 x 1024 píxeles.
Entrelazado
Es una técnica que permite al monitor alcanzar mayores resoluciones refrescando el contenido de la
pantalla en dlls barridos, en lugar de uno. Lo malo de esta técnica es que produce un efecto de
parpadeo muy molesto, debido a que el tiempo de refresco no es lo suficientemente pequeño como
para mantener el fósforo activo entre las dos pasadas. Procurad que vuestro monitor sea noentrelazado.
Frecuencia de barrido vertical
El rayo de electrones debe recorrer toda la superficie de la pantalla empezando por la esquina
superior izquierda, y barriéndola de izquierda a derecha y de arriba abajo. La frecuencia de refresco,
medida en Hertzios, es el número de veces que el cañón de electrones barre la pantalla por
segundo. ¿Por qué es tan importante este valor? Pues porque si es una frecuencia baja, se hará
visible el recorrido del haz de electrones, en forma de un molesto parpadeo de la pantalla. El mínimo
debe ser de 70 Hz, pero un buen monitor debe ser capaz de alcanzar frecuencias superiores.
Cuanto mayor sea el valor de este parámetro mejor, ya que permitirá mayores resoluciones sin
necesidad de entrelazar. La imagen será más nítida y estable.
Tamaño del punto (Dot Pitch)
Un punto del monitor es la unidad mínima física que puede mostrarse en la pantalla. Dependiendo
de la resolución lógica que utilicemos se adaptará la salida para que un píxel ajuste perfectamente
con una o un conjunto de estas celdillas físicas de pantalla. Si un monitor tiene las celdillas muy
pequeñas, menor será el tamaño del píxel lógico, con lo cual las resoluciones altas serán más
precisas en la calidad de la imagen. Un tamaño muy bueno del punto es de 0.25 mientras que uno
de 0.28 o superior muestran resultados deficientes en resoluciones mayores a 800 x 600 píxeles.
41
Existen otros parámetros interesantes, como por ejemplo la posibilidad de almacenar
configuraciones en la memoria del monitor, que sea de exploración digital controlada por un
microprocesador, la posibilidad de desmagnetizar el tubo (degauss), de ajustar las dimensiones de
la imagen, control de color, brillo y contraste, ahorro de energía, baja radiación, etc.
Existe una gran variedad de monitores en el mercado entre ellos están los Sony, Hitachi, Samsung,
Philips Brilliance, Eizo, Nanao, Toshiba, Proview, etc.
Lo que sí debe quedar claro es que si queréis resoluciones de 1024 x 768 optad por uno de 15
pulgadas y mirad muy bien las especificaciones del entrelazado y tamaño del punto (sobre todo).
Filtros para el monitor
Si el monitor es importante para poder ver qué hacemos y lo que nos dice el sistema, más
importante son nuestros ojos y nuestra salud. Está demostrado científicamente, y en la práctica, que
trabajar ante un monitor produce cansancio, picor e irritación de ojos, vista cansada, dolor de
cabeza y visión borrosa. El filtro es un elemento imprescindible, y hasta tal punto que es obligatorio
en todos los centros de trabajo. El monitor emite una serie de radiaciones y acumula en la pantalla
electricidad estática, causantes de estos síntomas. Los filtros de pantalla se encargan de reducir
estos efectos de las radiaciones y de descargar la electricidad estática. Entre las radiaciones
emitidas se encuentran la ultravioleta, la infrarroja, la visible (luminosidad), y VLF y ELF (generadas
por los campos electromagnéticos que crea el sistema de alimentación). Entre las demás ventajas
de instalar un filtro frente a nosotros destacan la eliminación de los reflejos en la pantalla, el
aumento de la definición de los colores y caracteres y la reducción de la cantidad de polvo y
suciedad que se fija a la pantalla (principalmente por el humo de tabaco) debido a la electricidad
estática.
En el mercado existe una gran cantidad de filtros cuyo precio oscila entre las 3.000 y 20.000
pesetas. La diferencia se ve sobre todo en el precio, aunque se justifica en el proceso de
fabricación, concretamente en el tratamiento del cristal. Los mejores están tratados por las dos
caras, poseen filtro ortocromático, un cable para la descarga de la electricidad estática (generadas
sobre todo al encender el monitor) y reducen la radiación emitida hasta en un 99%.
La alternativa LCD
Últimamente se habla del avance de la tecnología LCD o cristal líquido, llegando incluso a citarse
como posible alternativa de futuro frente al tradicional CRT. Ventajas como el ahorro de consumo y
de especio (LCD posibilita la fabricación de pantalla extraplanas, de muy poca profundidad), así
como la prácticamente nula emisión de radiaciones, aportan un gran interés a este tipo de
dispositivos. No obstante, su elevado costo unido a los continuos avances en la tecnología CRT
hace que, por el momento, ésta última sea la opción más recomendable. En cualquier caso, no hay
que perder de vista esta alternativa; nunca se sabe...
2) Impresoras. Otro dispositivo de salida muy utilizado son las impresoras, que pueden
ser matriciales, de inyección de tinta, láser, etc.
42
PRINCIPALES CARACTERÍSTICAS.
Cuando se realiza un trabajo en un ordenador, no importa su naturaleza, tarde o temprano surge la
necesidad de plasmar los resultados en papel, elemento éste que no creemos que desaparezca
totalmente en favor de la llamada "oficina sin papeles".
Muy al contrario, como hemos citado, en la mayoría de las veces es imprescindible llevar al papel el
resultado de nuestro trabajo, seamos diseñadores, contables o programadores. Por ello abordaremos en
este artículo los puntos a tener en cuenta a la hora de adquirir una impresora.
Impresoras matriciales.
Se puede decir que este es el escalón básico en la oferta de impresoras; muchos os preguntaréis, ¿quién
puede querer una impresora de agujas? La respuesta es: mucha gente. Para empezar, son
imprescindibles en trabajos donde haya que imprimir sobre papel de copia, es decir, con más de una hoja;
esto engloba todo tipo de oficinas y centros, públicos o privados, que empleen ese tipo de papel. También
los programadores saben apreciar su valor, ya que para imprimir un gran listado de un programa no
vamos a utilizar una máquina láser o de inyección.
Su funcionamiento es simple, un cabezal dotado de una serie de diminutas agujas recibe impulsos que
hacen golpear dichas agujas sobre el papel, que a su vez se desplaza por un rodillo sólido. Los modelos
más frecuentes son los de 9 y 24 agujas, haciendo referencia al número que de este componente se dota
al cabezal; este parámetro también se utiliza para medir su calidad de impresión, lógicamente a mayor
número de agujas, mayor nitidez se obtendrá en la impresión.
Como iremos viendo, en realidad no puede hablarse de inconvenientes de un tipo u otro de impresoras,
simplemente cada uno tiene una orientación (a un tipo de trabajo) diferente de otro. En el caso de las
matriciales, resulta evidente que no sirven para imprimir gráficos, y que su funcionamiento no es
precisamente silencioso.
Impresoras de Inyección de Tinta.
Sin duda el segmento de más éxito en el campo de las impresoras es el de la inyección o chorro de tinta;
su funcionamiento también se basa en un cabezal, en este caso inyector, dotado de una serie de
boquillas que expulsan la tinta según los impulsos recibidos. Aunque al principio únicamente se podía
imprimir en blanco y negro, el color se popularizó rápidamente, y se puede decir que ahora la inmensa
mayoría de usuarios domésticos adquiere una impresora de inyección en color junto con su PC.
Aquí el parámetro de calidad lo da la resolución de la imagen impresa, expresada en puntos por pulgada;
aunque con 300 ppm basta para imprimir texto, para fotografías es recomendable al menos 600 ppm.
Dada su relación precio/calidad, son las impresoras más utilizadas para trabajos domésticos y semiprofesionales.
Como inconveniente se puede citar lo delicado de su mecánica y también su mantenimiento, ya que los
cartuchos no suelen ser baratos.
Impresoras láser
Aunque el coste de un láser ya no tira para atrás como en otros tiempos, lo cierto es que siguen
43
orientadas al ámbito profesional. En estas máquinas, un tambor, abreviado OPC (Optical Photo
Conductor), o dicho comúnmente "fotoconductor", cargado de electricidad estática es recorrido por un
pequeño rayo láser, cuyo haz actúa invirtiendo la carga en el tambor y atrayendo hacia éste el tuner (la
"tinta" de las impresoras láser).
Este tuner se "pega" al papel por la acción de la corona o rodillo de transferencia, que invierte la polaridad
del OPC atrayendo hacia sí las partículas de tuner. Como entre la corona de transferencia y el OPC está
el papel, es en este en donde se queda el tuner, o sea, lo que al fin y al cabo vamos a imprimir, ya sea
texto o gráfico. Ahora bien, esa imagen no está "fijada" en el papel, de hecho, si le pasamos un dedo por
encima antes de pasar por el último rodillo (fusor), el tuner "se corre". Gracias la acción del fusor, que son
dos rodillos, uno de calor y otro de presión, ya sí se fija definitivamente la imagen.
Aquí se tiene en cuenta tanto la resolución, también expresada en ppm. (Lo mínimo aconsejable es 600
ppm.) como la rapidez de impresión dada en páginas por minuto.
¿Inconvenientes? Son máquinas todavía caras, y aunque los consumibles no se cambian con la
frecuencia que en las impresoras de inyección, cuando hay que hacerlo el bolsillo puede resentirse. Pero
su rapidez y calidad de impresión las hacen destacar sobre el resto.
Detalles comunes: memoria
Prácticamente todas las impresoras, independientemente de la tecnología empleada, incluyen una
memoria RAM. En las matriciales puede ser de unos pocos bytes (8 Kb, 16 Kb, etc.), y no mucho más en
las de inyección. Por el contrario, en el láser sí que es imprescindible una buena cantidad de memoria,
que no suele bajar de 512 Kb, aunque la verdad es que lo mínimo admisible debe ser, al menos, 1 Mega.
Impresoras de Color o blanco y negro.
Normalmente la respuesta a esta pregunta está muy clara en todos los casos, porque además no hay
mucha alternativa; debido a la orientación de las impresoras matriciales y a la baja calidad que ofrecen
cuando se intenta imprimir en color con ellas, es un segmento condenado al blanco y negro.
En las de inyección de tinta ocurre algo curioso, y es que será bastante difícil encontrar una impresora de
este tipo, de sobremesa únicamente en blanco y negro, ya que el color se ha abaratado y perfeccionado
tanto, que es algo que ya se incluye "de serie".
Por último, en las impresoras láser se imponen criterios económicos y de necesidad; ¿puedes gastarte un
dineral en una impresora láser a color? ¿Realmente necesitas tanta calidad?
Consumibles
En las impresoras matriciales, el mantenimiento es sencillo y normalmente barato, ya que únicamente
será preciso cambiar la cinta, que suele durar bastante. El cabezal también se suele considerar como
consumible, pero no es algo que se estropee con frecuencia, teniendo una media de vida del orden de
años.
En las de inyección, lo que más cambiaremos serán los cartuchos de negro y/o color; el cabezal inyector
no suele estropearse, y la mayoría de impresoras implementan sistemas de limpieza y calibrado que
permiten ajustar el funcionamiento de las mismas.
Por último, en las impresoras láser el consumible por excelencia es el cartucho de tuner (es decir, la tinta),
pero tampoco es extraño tener que cambiar la unidad fotoconductora o el tambor (en algunas máquinas
estas dos piezas se engloban en una sola) cada cierto tiempo, siempre según la carga de trabajo que
soporte la máquina.
44
Displays y controles
La tendencia a la simplificación y reducción de tamaño que siguen las impresoras ha dado lugar a la
aparición de modelos que sólo poseen un LED y un botón de selección, cuando antes eran numerosos los
controles.
En general, se tiende a que sea el software quien gestione todas las operaciones con la impresora, por lo
que los fabricantes incluyen drivers y controladores. Pero esto también puede ser un inconveniente, ya
que obliga a tener cargado software residente que de otra forma no necesitaríamos (por ejemplo bajo
DOS), además de limitar a muchos usuarios que prefieren manipular manualmente los controles de la
impresora. Pero esta es la tendencia, y es preciso habituarse a ella.
Puerto EPP/ECP, imprescindible
Si bien en las matriciales no es necesario, a la hora de adquirir una impresora de inyección o láser es
prácticamente imprescindible que el puerto paralelo de nuestro ordenador sea bidireccional. Esto es así
debido a que estas impresoras no sólo reciben datos del PC, sino que también pueden enviarle
información, en forma de notificación de errores o situaciones anómalas, respuestas a códigos de control,
etc. De hecho, el funcionamiento de los drivers y paneles de control vía software de estas máquinas se
basa en esa premisa, e incluso algunos modelos ni siquiera instalarán su software de control si no
detectan una conexión bidireccional. En ordenadores que son relativamente recientes, ya se incluye de
fábrica el puerto paralelo ECP/EPP (Enhanced Parallel Port), y únicamente hay que verificar si está
activada dicha característica en el Setup. Sin embargo, en máquinas más antiguas no se implementan
estos puertos, así que conviene asegurarse para evitar sorpresas de última hora.
Emulaciones
Decimos que una impresora "emula" cuando admite códigos y modos de funcionamiento de otros
modelos o marcas del mercado. Normalmente las de inyección no suelen implementar emulación, ya que
dada su orientación basta con el driver que se incluye. Pero en una matricial, la emulación puede llegar a
ser importantísima, en especial en aplicaciones hechas a medida o basadas en DOS; una impresora
matricial se puede considerar completa si incluye modos IBM Pro printer y Epson, los dos grupos de
códigos estándar.
En las impresoras láser sucede como con las de inyección, el driver incluido suele ser suficiente debido al
segmento al que van dirigidas, pero no vienen mal un par de modos de emulación en cualquier impresora
láser.
3) Plotters. Los plotters reproducen salidas gráficas sobre papel, generalmente utilizados
por los delineantes, ingenieros, topógrafos y arquitectos para imprimir planos de gran tamaño o
por los diseñadores de carteles.
45
D) DISPOSITIVOS PARA INTERCONEXIÓN ENTRE COMPUTADORAS
1) Módem. El módem es un dispositivo que permite la modulación de una señal
sinusoidal a una señal digital y posteriormente la desmodulación de la señal digital a sinusoidal.
Se utiliza para convertir la señal digital cuando ésta excede de los limites por la calidad del
conductor y poderla transportar a través de sistemas públicos de transmisión de voz.
CARACTERÍSTICAS PRINCIPALES DE LOS MODEMS.
Indudablemente, la explosión experimentada por el mercado de los modems sólo tiene un protagonista:
Internet. La popularidad de la omnipresente Red, ayudada por el servicio InfoVía proporcionado por
Telefónica en nuestro país, está haciendo que los usuarios se familiaricen con las comunicaciones y se
planteen seriamente la adquisición de uno de estos dispositivos. Así que, si eres uno de estos usuarios,
esto te interesa. Un MODEM es un dispositivo que permite la transmisión y recepción de información
binaria (es decir, datos de ordenador) a través de un medio analógico (o sea, la línea telefónica); para
poder realizar este proceso, es necesario convertir la señal digital en analógica, y viceversa, y esa es la
función del MODEM.
La importancia de la UART. Posiblemente, el componente más importante de un MODEM es el chip
UART (Universal Asynchronous Receiver/Transmitter), encargado de transmitir los datos; existen varios
modelos de UART, el más básico de los cuales es el 8250A, empleado en ordenadores 286 y 386 y ya
obsoleto. Su diseño le impedía trabajar a velocidades superiores a 9.600 bps, algo aceptable en otros
tiempos pero no en este momento.
Posteriormente, fueron apareciendo modelos más avanzados, hasta llegar al más común empleado en la
actualidad, el 16550 (del que existen 3 variantes, 16550A, AF y AFN, casi idénticas entre ellas). Este chip
incorpora un buffer FIFO (First In, First Out) de 16 bytes, lo que le permite incrementar notablemente su
rendimiento; asimismo, su capacidad de transmisión se eleva hasta 115 Kbps, por lo que podemos decir
que es totalmente imprescindible la inclusión de este modelo de UART en cualquier MODEM actual.
Protocolos
Casi tan importante como la UART es el conjunto de protocolos o normas de comunicación que el
MODEM es capaz de soportar; estas normas, establecidas por la ITU (Unión Internacional de
Telecomunicaciones), definen los procedimientos estándar para la transmisión de datos. Su
denominación suele ser siempre un número precedido por la letra V. Así, tenemos los antiguos V.21,
V.22 y V.22bis (que soportan transmisiones a 300, 1200 y 2400 bps), los posteriores V.32 y V.32bis
(transmisiones a 9.600 y a 14.400 bps) y los últimos V.34 y V.34+ (velocidades de 28.800 y 33.600 bps).
Evidentemente, se recomienda la máxima velocidad posible, por el momento 33.600, accesible mediante
el protocolo V.34+.
De esta manera, es más que recomendable la adquisición de un MODEM que soporte compresión y
corrección de errores en tiempo real; para ello, son imprescindibles las normas V.42, V.42bis y MNP5. Se
trata de protocolos que permiten corregir los posibles errores durante la transmisión y al mismo tiempo
comprimir los paquetes de datos, para incrementar el rendimiento del dispositivo.
Mejor con Flash ROM
Los modems incorporan una memoria ROM en la que almacenan parámetros, comandos y el código
correspondiente a las diferentes normas y protocolos soportados por el aparato. Es muy deseable que la
ROM del MODEM que vayamos a adquirir sea del tipo flash, ya que de esta forma sería posible
actualizar el dispositivo, mediante software facilitado por el fabricante, por ejemplo, para implementar
nuevos protocolos que incrementen su rendimiento. Es lo mismo que ocurre con las BIOS de las placas
base: se busca el poder actualizar sin tener que cambiar el chip.
Otros detalles
46
Es importante no confundir la velocidad de comunicación entre el MODEM y el ordenador con la
velocidad de conexión con el exterior. La primera normalmente debe ser de unos 115.200 bps, e indica el
ratio de transferencia entre el MODEM y la CPU a través del bus de expansión.
La segunda velocidad sirve de medida para diferenciar el rendimiento de los modems; en un modelo de
56,000, lo más alto que podremos llegar será a unos 56,000 bps. Ya que el estado de las líneas no suele
ser el óptimo, y el ruido hace descender frecuentemente la velocidad. Podemos incluso bajar hasta unos
26.400 bps, según el estado de la línea.
Por otro lado, hay que tener en cuenta que para llegar a 33.600 bps, el MODEM con que nos vayamos a
conectar también debe ser capaz de llegar a esta velocidad; por ejemplo, si nuestro proveedor de Internet
sólo tiene modems a 28.800 bps, únicamente podremos enganchar a esta velocidad, ya que la conexión
se establece a la velocidad del MODEM más lento.
Otros factores como las capacidades de voz o el software incluido con el MODEM, deben ser evaluados;
respecto a éste último, la oferta suele consistir en un paquete de comunicaciones, fax y funciones de
contestador automático en caso de modems con voz.
¿Interno o externo?
Existe una clásica controversia: ¿es mejor un MODEM externo o un modelo interno? Puesto que existen
ventajas y desventajas en cada caso, nosotros nos vamos a limitar a exponerlas, sin llegar a recomendar
ninguno de ellos.
Un modelo externo nos obliga a tener una fuente de alimentación independiente, y añade 2 cables más a
la habitual maraña que cuelga del equipo; esto lo evitamos con un modelo interno. Ahora bien, en un
MODEM externo tenemos a la vista todos los LEDS que indican el funcionamiento del mismo, algo vital a
la hora de detectar problemas de conexión. En un modelo interno no tenemos a la vista esa información.
Por otro lado, la opción externa depende totalmente del tipo de UART instalada en el PC; y si estamos
trabajando en una máquina relativamente desfasada, puede ser que no obtengamos el rendimiento
esperado. En un MODEM interno, la UART viene ya incorporada, y ese problema no existe. Por el
contrario, un modelo externo aprovecha uno de los dos puertos COM del PC no usado normalmente, y la
opción interna implica añadir un puerto serie adicional, surgiendo conflictos.
La RDSI.
La RDSI (Red Digital de Servicios Integrados) o ISDN, como se la conoce fuera de nuestro país, es un
sistema de conexión digital que permite alcanzar altas tasas de transferencia; es la opción ideal para, por
ejemplo, realizar videoconferencia a nivel profesional. Sin embargo, y hablando desde el punto de vista
del usuario de a pie, tiene una desventaja muy importante: el precio. Necesitaremos una tarjeta RDSI, y
tendremos que solicitar la instalación de la línea digital en nuestro domicilio. Si vamos a conectarnos a
Internet, habrá que contratar con el proveedor el acceso mediante RDSI. Todo esto supone una
importante inversión, que no merece la pena si no vamos a emplearlo de forma profesional, por lo que no
nos parece una opción a considerar por la mayoría de los usuarios. Algunos modems externos pueden
colocarse en vertical para ahorrar espacio en la mesa de trabajo.
Plug and Play
En un gran número de ocasiones, la instalación de un MODEM interno puede llegar a ser un
auténtico calvario, debido al clásico problema de los conflictos entre IRQ. Ya que los puertos COM1 y
COM3 comparten la misma línea de interrupción (al igual que el COM2 y el COM4), añadir un puerto
serie al sistema es una posible fuente de problemas, salvo que podamos desactivar el COM2 del
ordenador, o establecer la IRQ del MODEM a una no usada por el equipo. Por ello, es altamente
recomendable que nuestro MODEM cumpla con la norma PNP; de esta forma, la configuración queda
facilitada en gran medida, puesto que el MODEM buscará una interrupción no usada en el sistema.
47
2) Router (Ruteadores), hub y swiches. Equipos de enlace de
computadoras cuando se diseñan redes de comunicación de datos LAN O WAN.
E) DISPOSITIVOS MULTIMEDIA.
1) Bocinas o altavoces para PC. Equipos para la reproducción de
sonidos acoplados a un ordenador a través de una interfase.
2) Cámaras digitalizadas
de video grabación. Permiten la
grabación digitalizada de las
imágenes
del
video
para
incorporarlas a un ordenador para su
reproducción.
3) Cámara de fotografía digitalizada.
transforma la foto en una imagen digitalizada.
Equipos de fotografía que
4) Micrófonos. Equipo que recoge la voz introduciéndola al ordenador
para su almacenamiento en forma digitalizada.
Tarjetas Gráficas (TOMADO DE www.duiops.net).
Antes de elegir una tarjeta gráfica
tendremos que evaluar nuestras
necesidades. Si, por ejemplo, somos
usuarios a nivel de paquetes de
gestión, o programadores, la elección
irá dirigida a las tarjetas aceleradoras
de Windows, en 2D por supuesto. Si,
por el contrario, lo nuestro son los
videojuegos o el diseño en 3D
(programas de modelado, render o
CAD) hay que buscar una aceleradora
3D.
Chip o controlador gráfico
Actualmente existen chips para tarjetas gráficas muy potentes, la mayoría de las veces
con potencia de cálculo superior a la del procesador principal, pero también muy
diferentes entre sí. Hace algunos años, no se le prestaba en absoluto atención a la
calidad de la tarjeta VGA. Después, tras la aparición de la SVGA, fue el punto de
partida a la hora de mejorar estas tarjetas, ya que, junto con la evolución de la
tecnología en los monitores, cada vez soportaban mayores resoluciones al incorporar
memorias entre 1 y 3 Mb.
Pero la auténtica revolución gráfica fue en el sector tridimensional, el 3D, donde se
necesitan potencias de cálculo muy superiores que el microprocesador central no
puede soportar. Fundamentalmente, lo que hace un chip 3D es quitar la labor del
procesador de generar los triángulos y el relleno de texturas, haciendo que la tarjeta
gráfica lo haga sola liberando al procesador de otras tareas. Con esto, se obtiene una
mejora muy grande en lo que se refiere a la velocidad, y además se han incorporado
48
multitud de efectos gráficos fáciles de usar por los programadores que mejoran
sustancialmente la calidad de los gráficos. Las primeras tarjetas con 3D para el
mercado de consumo fueron aquellas Diamond Edge 3D, 3D Blaster, o la S3 Virge,
todas sin ser demasiado rápidas y con un soporte de juegos muy limitado.
La decisión de elegir un chip u otro es bastante compleja. Dentro del campo 2D,
gracias al estándar VESA, todas las tarjetas son compatibles entre sí. Sin embargo, en
los chips 3D (o la parte 3D de los chips 2D/3D), existen más problemas puesto que no
todos contienen las mismas instrucciones (¿quién no ha oído hablar de los famosos
parches para una u otra tarjeta?). Esto pasaba sobre todo en los primeros juegos
acelerados 3D para MS-DOS. Por ello, se han creado unos APIs, que consiguen
solucionar estos problemas, y funcionan bajo Windows 95/98. Éstos son el DirectX de
Microsoft (el componente Direct 3D en concreto) y el OpenGL de Silicon Graphics. Más
abajo tienes información sobre estos APIs. Y también, hay que recordar que no todas
las tarjetas 3D son iguales: unas sirven digamos para "trabajar" (las compatibles con
programas como 3D Studio, TrueSpace...) y las que sirven para "jugar". Muy pocas
tarjetas se desenvuelven bien en estos dos campos.
Y ya para terminar este apartado, dejemos fijadas ciertas bases de conocimiento:
•
•
Actualmente, en el mercado de consumo, existen 2 tipos de aceleradoras
gráficas:
o Las propias aceleradoras 3D, tarjetas independientes que sólo entran
en funcionamiento cuando se ejecuta algún juego que necesite su
funcionamiento. Estas tarjetas requieren una tarjeta 2D que se
encargue de las tareas normales, con un único requisito de tener un
mínimo 2 Mb. de memoria. Además, ambas suelen estar unidas con un
cable externo.
o Y luego están las tarjetas "híbridas" 2D/3D, que consisten en un único
chip que se encarga tanto de las funciones 2D como de las funciones
3D de una aceleradora. Los últimos modelos que están apareciendo
estos meses son realmente buenos y no tienen nada que envidiar a las
aceleradoras 3D puras.
Y ya por último, ten en cuenta que las tarjetas aceleradoras pueden servir para
"trabajar" o para jugar. Una aceleradora profesional de 300.000 ptas. será
incapaz de acelerar cualquier juego normal, y una aceleradora 3D pura de
30.000 no podrá renderizar ningún tipo de gráfico en programas como 3D
Studio o TrueSpace. Hay muchas tarjetas híbridas 2D/3D que pueden acelerar
juegos muy bien, y también renderizar gráficos profesionales de una manera
bastante aceptable.
Librerías y APIs
Cada chip gráfico tiene una forma de procesar las rutinas implementadas en ellos, por
lo que hay una incompatibilidad (sobre todo en el 3D, ya que en el 2D existe el
estándar VESA que libera de estos problemas).
Para ello, han surgido las librerías de programación, para unificar en un API las
diferentes funciones, y destacan 2:
•
•
OpenGL, de Silicon Graphics, que está adoptada por sistemas como Unix, Iris,
Windows NT, para profesionales.
DirectX, de Microsoft, limitada a Windows 95/98 y dedicada a los juegos.
Depende de nuestro uso del ordenador, nos decantaremos por el soporte de uno u otro
(aunque hay varias tarjetas gráficas que soportan los dos).
Buses
49
Las placas de video se fabrican hoy día para buses PCI y AGP (estos buses permiten
características como Plug and Play y Bus Mastering, ésta última para optimizar las
operaciones de transferencia de la tarjeta). Estas tarjetas se suelen usar en
ordenadores Pentium o Pentium II y equivalentes (como el K6 o el K6-2 de AMD). Se
puede aún encontrar de segunda mano alguna ISA para ordenadores 386 y 486, y las
VESA están ya abandonadas. Para saber más cosas sobre estos buses, accede a la
sección de
Placas base.
Lo único, decir que las tarjetas AGP, usadas en ordenadores Pentium II/III son capaces
de usar la memoria RAM como memoria de texturas, es decir, no sólo la memoria que
viene incluida en la tarjeta gráfica. Por ello, los pocos juegos que hay actualmente para
AGP, son capaces de tener texturas animadas o de alta resolución moviéndose a una
velocidad asombrosa. Esta memoria de texturas no está disponible para placas Socket
7 ni para placas Slot A con el Athlon de AMD. Además, el AGP ofrece un ancho de
banda superior al PCI: si el PCI va a 66 MHz, el AGP va a 133 MHz, con unas
variantes: el AGP 2x a 266 MHz y el AGP 4x a 533 MHz. Lástima que los programas
actuales no exploten sus posibilidades, pero esto terminará con el AGP 4x que llegará
en 1.999. Y por último, hay que decir que no todas las tarjetas AGP son "AGP
verdaderas", es decir, que utilizan la memoria RAM como memoria de texturas. Las
AGP no verdaderas son todas aquellas que tienen tanto versión PCI como AGP, o bien
que la versión AGP ha evolucionado de la PCI (puede haber que tenga versión PCI y
luego una versión AGP verdadera). Y las AGP verdaderas son aquellas que han sido
diseñadas para tal fin, y que sólo existen en versión AGP. Todas las tarjetas AGP
verdaderas hoy día son 2x, mientras que las AGP que no utilizan la memoria RAM
como memoria de texturas son 1x (un modo sencillo de diferenciarlas). También se
pueden diferenciar las AGP 4x y las AGP 2x, las primeras llevan 2 hendiduras en los
contactos de la zona de conexión y las segundas llevan sólo una.
La memoria
La controladora de vídeo en un ordenador es la responsable de transmitir la
información al monitor para que la podamos ver en la pantalla. Hay una gran variedad
de tarjetas de vídeo, cada una con sus características especiales. Cuantos más píxeles
sean capaces de dibujar en pantalla por la unidad de tiempo, mejor rendimiento
obtendremos en las aplicaciones que usen intensivamente los gráficos, como por
ejemplo Windows. Vamos a poneros un ejemplo para comprenderlo con un par de
imágenes:
1. Puedes ver cómo en primer caso, los iconos se ven más grandes y, por tanto,
2.
caben menos. Por consiguiente, el logotipo de Duiops se verá con menos
definición y más "cuadriculado". Las ventanas se colocarán unas encimas de
otras y el trabajo se hará muy engorroso.
En el segundo caso, los iconos se ven más pequeños y, por tanto, caben más.
Por consiguiente, el logotipo de Duiops se verá con más definición y más
perfilado. Los píxel son muy difíciles de apreciar. Las ventanas podrán abrirse
una al lado de la otra, de forma que se vea el contenido de ambas, y el trabajo
será más amigable.
Pero todos estos puntos necesitan almacenarse en RAM. Para ello, las tarjetas gráficas
tienen chips de memoria, y hoy día el mínimo que se puede encontrar son 4 Mb,
aunque se recomienda un mínimo de 8. Para poder conseguir mayores resoluciones a
más cantidades de colores, hay que ampliar la memoria. Para saber la que
necesitamos, hay que multiplicar la resolución horizontal por la resolución vertical; esto
nos da la cantidad de RAM necesaria para trabajar a 8 bits de color. Es preciso
multiplicar el resultado por dos para obtener la cantidad necesaria para 16 bits de color,
y por tres para los 24 bits. Hoy día las tarjeras gráficas domésticas llevan hasta 32 Mb
50
de memoria, los cuales permiten alcanzar resoluciones tan asombrosas como
2048x1536 a 32 bits (más de 4.000 millones de colores)
Recordemos que más memoria en la tarjeta gráfica no implica mayor velocidad, a no
ser que la utilice como memoria caché.
También hay que tener en cuenta el tipo de memoria incorporada; frente a la DRA.
Clásica es mejor utilizar otros tipos, como la 2DO o la VRAM; al disponer ésta de dos
puestos permite aumentar el ancho de banda en las transferencias de información.
Otra opciones, como la WRAM (que optimiza las operaciones de manejo de bloques de
memoria), la MDRAM (memoria multibanda que no retarda los procesos de
conmutación de bancos) o la SDRAM (RAM síncrona capaz de trabajar a la misma
velocidad de reloj que el chip de la tarjeta) deben ser considerada.
Las últimas tarjetas utilizan SGRAM, de dos tipos. Podemos encontrar memoria DDR
en algunas tarjetas (Double Data Rate), la cual aprovechando ciertas fases del ciclo de
reloj hasta ahora no utilizados, es capaz de proporcionar un notable incremento en el
ancho de banda disponible, con respecto a la memoria convencional SDR (Single Data
Rate). Cuando más aumentas la resolución más "atasco" se produce debido a las
limitaciones propias de la memoria. Con el sistema DDR esta limitación ya no existe y
es posible utilizar resoluciones de 1280x1024 e incluso de 1600x1280 sin ninguna
pérdida de velocidad.
Otras características
Las tarjetas gráficas permiten casi siempre la reproducción de vídeos MPEG por
software, y las más modernas y potentes de MPEG-2 (para DVD-Vídeo); aunque se
recomienda que ambas reproducciones sean por hardware.
Tarjetas de Sonido
Las dos funciones principales de estas tarjetas son la generación o reproducción de
sonido y la entrada o grabación del mismo. Para reproducir sonidos, las tarjetas
incluyen un chip sintetizador que genera ondas musicales. Este sintetizador solía
emplear la tecnología FM, que emula el sonido de instrumentos reales mediante pura
programación; sin embargo, una técnica relativamente reciente ha eclipsado a la
síntesis FM, y es la síntesis por tabla de ondas (WaveTable).
En WaveTable se usan grabaciones de instrumentos reales, produciéndose un gran
salto en calidad de la reproducción, ya que se pasa de simular artificialmente un sonido
a emitir uno real. Las tarjetas que usan esta técnica suelen incluir una memoria ROM
donde almacenan dichos "samples"; normalmente se incluyen zócalos SIMM para
añadir memoria a la tarjeta, de modo que se nos permita incorporar más instrumentos a
la misma.
Una buena tarjeta de sonido, además de incluir la tecnología WaveTable, debe permitir
que se añada la mayor cantidad posible de memoria. Algunos modelos admiten hasta
28 Megas de RAM (cuanta más, mejor).
Efectos
Una tarjeta de sonido también es capaz de manipular las formas de onda definidas;
para ello emplea un chip DSP (Digital Signal Processor, Procesador Digital de
Señales), que le permite obtener efectos de eco, reverberación, coros, etc. Las más
avanzadas incluyen funciones ASP (Advanced Signal Processor, Procesador de Señal
51
Avanzado), que amplía considerablemente la complejidad de los efectos. Por lo que a
mayor variedad de efectos, más posibilidades ofrecerá la tarjeta.
Polifonía
¿Qué queremos decir cuando una tarjeta tiene 20 voces? Nos estamos refiriendo a la
polifonía, es decir, el número de instrumentos o sonidos que la tarjeta es capaz de
emitir al mismo tiempo. Las más sencillas suelen disponer de 20 voces, normalmente
proporcionadas por el sintetizador FM, pero hoy en día no debemos conformarnos con
menos de 32 voces. Las tarjetas más avanzadas logran incluso 64 voces mediante
sofisticados procesadores, convirtiéndolas en el llamado segmento de la gama alta.
MIDI
La práctica totalidad de tarjetas de sonido del mercado incluyen puerto MIDI; se trata
de un estándar creado por varios fabricantes, que permite la conexión de cualquier
instrumento, que cumpla con esta norma, al ordenador, e intercambiar sonido y datos
entre ellos. Así, es posible controlar un instrumento desde el PC, enviándole las
diferentes notas que debe tocar, y viceversa; para ello se utilizan los llamados
secuenciadores MIDI.
En este apartado hay poco que comentar. Simplemente, si vamos a emplear algún
instrumento de este tipo, habrá que cerciorarse de que la tarjeta incluya los conectores
DIN apropiados para engancharla al instrumento en cuestión, y el software
secuenciador adecuado, que también suele regalarse con el periférico.
Un detalle que conviene comentar en este artículo, es que en el mismo puerto MIDI se
puede conectar un Joystick, algo muy de agradecer por el usuario, puesto que
normalmente los conocidos equipos Pentium no incorporan de fábrica dicho conector,
algo habitual, por otra parte, en sus inmediatos antecesores, los ordenadores 486.
Frecuencia de muestreo
Otra de las funciones básicas de una tarjeta de sonido es la digitalización; para que el
ordenador pueda tratar el sonido, debe convertirlo de su estado original (analógico) al
formato que él entiende, binario (digital). En este proceso se realiza lo que se denomina
muestreo, que es recoger la información y cuantificarla, es decir, medir la altura o
amplitud de la onda. El proceso se realiza a una velocidad fija, llamada frecuencia de
muestreo; cuanto mayor sea esta, más calidad tendrá el sonido, porque más continua
será la adquisición del mismo.
Resumiendo, lo que aquí nos interesa saber es que la frecuencia de muestreo es la
que marcará la calidad de la grabación; por tanto, es preciso saber que la frecuencia
mínima recomendable es de 44.1 KHz, con la que podemos obtener una calidad
comparable a la de un disco compacto.
Otras consideraciones
Existen otros factores que se deben tener en cuenta: por ejemplo, mucha gente prefiere
controlar el volumen de la tarjeta de forma manual, mediante la típica ruedecilla en la
parte exterior de la misma. Sin embargo, la tendencia normal es incluir este control
(además de otros, como graves, agudos, etc.) por software, así que debe ser tenido en
cuenta este detalle si es importante para nosotros.
La popularización de Internet ha propiciado la aparición de un nuevo uso para las
tarjetas de sonido: la telefonía a través de la red de redes. Efectivamente, con un
micrófono y el software adecuado, podemos utilizar la tarjeta para hablar con cualquier
52
persona del planeta (que posea el mismo equipamiento, claro) a precio de llamada
local.
Sin embargo, la calidad de la conversación dependerá de dos conceptos: half-duplex y
full-duplex. Resumiendo un poco, full-duplex permite enviar y recibir información al
mismo tiempo, mientras que half-duplex sólo puede realizar una de las dos operaciones
en cada momento. Traduciendo esto a una conversación, tenemos que el half-duplex
nos obliga a hablar como si utilizáramos un walkie-talkie; es decir, hay que esperar a
que uno diga algo para poder responder, mientras que el full-duplex nos ofrece bidireccionalidad, es decir, mantener una conversación normal como si fuera un teléfono.
En algunos casos, el fabricante posee controladores que añaden funcionalidad fullduplex a tarjetas que no implementan esta forma de trabajo, por lo que puede ser una
buena idea ir a la página Web del fabricante en cuestión.
Por último, y aunque sea de pasada, puesto que se trata de un requisito casi
obligatorio, resaltaremos la conveniencia de adquirir una tarjeta que cumpla al cien por
cien con la normativa Plug and Play; seguro que muchos lo agradecerán.
Ventajas y Desventajas del puerto IDE
Un gran porcentaje de tarjetas de sonido incluye conexión IDE. ¿Es realmente útil este
puerto adicional? En principio, sí que lo es; normalmente, cuando se adquiere una
tarjeta de sonido, es casi seguro que el comprador ya posee, o poseerá, un lector de
CD-ROM, si es que no compra las dos cosas al mismo tiempo. Los CD-ROM más
difundidos implementan la conexión IDE por ser barata y eficaz.
En los ordenadores Pentium se incluyen dos puertos IDE, por lo que no suele haber
problemas; ahora bien, si el PC es un 486 o inferior (todavía existe un parque muy
elevado de estas máquinas) es bastante posible que el equipo sólo tenga un puerto
IDE. Si la tarjeta de sonido incluye su propia conexión, la labor se hará más sencilla, ya
que podemos enganchar ahí nuestro lector.
Por otro lado, un puerto IDE adicional consumirá una interrupción más en el sistema
(normalmente IRQ 11), y además Windows 95 no se lleva bien con puertos IDE
terciarios y cuaternarios, traduciéndose esto en el temible símbolo de admiración
amarillo en la lista de dispositivos. A pesar de todo, y vista la situación, la balanza se
inclina hacia el lado positivo, ¿no creéis?.
La compatibilidad
Indudablemente, en estos momentos, el mercado de las tarjetas de sonido tiene un
nombre propio: Sound Blaster. En la actualidad, cualquier tarjeta que se precie debe
mantener una total compatibilidad con el estándar impuesto por la compañía Creative
Labs; existen otros, como el pionero Adlib o el Windows Sound System de Microsoft.
Pero todos los juegos y programas que utilizan sonido exigen el uso de una tarjeta
compatible Sound Blaster, así que sobre este tema no hay mucho más que comentar.
Otro asunto es la forma de ofrecer dicha compatibilidad: por software o por hardware.
La compatibilidad vía soft puede tener algunas limitaciones; principalmente, puede ser
fuente de problemas con programas que accedan a bajo nivel o de forma especial a las
funciones de la tarjeta. Asimismo, los controladores de emulación deben estar bien
diseñados, optimizados y comprobados, para no caer en incompatibilidades, justo lo
contrario de lo que se desea alcanzar. Por tanto, es preferible la emulación por
hardware.
Sonido 3D
53
El sonido 3D consiste en añadir un efecto dimensional a las ondas generadas por la
tarjeta; estas técnicas permiten ampliar el campo estéreo, y aportan una mayor
profundidad al sonido habitual. Normalmente, estos efectos se consiguen realizando
mezclas específicas para los canales derecho e izquierdo, para simular sensaciones de
hueco y direccionalidad.
Seguro que os suenan nombres como SRS (Surround Sound), Dolby Prologic o QSound; estas técnicas son capaces de ubicar fuentes de sonido en el espacio, y
desplazarlas alrededor del asombrado usuario. Y decimos asombrado, porque el efecto
conseguido es realmente fantástico, y aporta nuevas e insospechadas posibilidades al
software multimedia y, en especial, a los juegos. Es fácil hacer una recomendación en
este tema: ¡No renunciéis al sonido 3D!
54
CONFIGURACIÓN RECOMENDADA PARA UN ORDENADOR O PC.
Configuración del mes de febrero 2003
Una configuración repleta de novedades. Para los que quieren estar a la última.
AMD Athlon XP 2,800+ Ghz Thoroughbred B 0,13 micras
Microprocesador
Placa Base
Intel Pentium4 3,06 Ghz con HT, Nothwood 0,13 micras
Socket 478
Para el AMD, Athlon XP, Abit AT7-MAX2 o Abit NF7-S. La
primera con chipset KT400 y la segunda con nForce2.
Ambas con AGP 8x, firewire, serial ata, tarjeta de red, usb
2.0... Soportan memoria DDR333, DDR400, y FSB de 333
Mhz para los Athlon futuros.
Para el Intel Pentium4, la Abit IT7 MAX2 2.0 con el chipset
845PE, Asus P4G8X Deluxe o Giga-Byte GA-8INXP,
ambas con el chipset Intel E7205.
Tarjeta Gráfica
Ati Radeon 9700 Pro con 128 Mb de memoria DDR.
Soporta DirectX 9, AGP 8x, 19 Gb de ancho de banda
para la memoria, y las tecnologías exclusivas y mejoradas
de ATI Smartshader 2.0, Smootvision 2.0, Videoshader o
Fullstream.
2 DIMMs de 512 MB de RAM de memoria DDR PC3200
para el Athlon XP o DDR PC3200/3500/3700 para el
Pentium4.
Memoria Ram
Presta atención a la marca, que sea de calidad (Corsair,
OCZ, Geil, Muskin, algunas Samsung...), los tiempos de
latencia (intenta que sean Cas 2-5-2-2, esto sólo es
posible) y sobre todo que sea compatible con tu placa
base. El desconocimiento de que hay que prestar atención
a estas cosas es la fuente de la mayoría de los cuelgues.
60/120 Gb Maxtor con ATA133
40/60/80 Gb Seagate Barracuda IV ATA100
Disco Duro
40/60/75 Gb IBM ATA100 (estos últimos se recomiendan
para montaje en RAID)
120 Gb Western Digital 1200WJ
Lector de DVD-ROM
Regrabadora CD
DVD Toshiba 48x CD 16x DVD SM-1612
Regrabadora Plextor 48x/24x/48x IDE
Regrabadora DVD
Plextor PX-504A, 4x/2.4x/12x DVD y 16x/10x/40x CD
Tarjeta de Sonido
Sound Blaster Audigy2 Platinum, Conexión PCI, audio
envolvente EAX ADVANCED HD, 24 bits 192 Khz, 106 dB
de señal/ruido, compatible digital 5.1... Todo un derroche
de calidad para luego tirarla con un alta bocillos de
informática ;-)
Eizo 21'' FlexScan F980
Monitor CRT
Sony F520 de 21 pulgadas o FW900 de 24 pulgadas 16:10
(tubo CRT ambos)
55
Monitor TFT
Sony SDM-P232W (23 pulgadas 16:10)
Epson Stylus Photo 900 (A4)
Impresora
Epson Stylus Pro 10600 (A4 - B0+). Plotter de gran
formato. B0+ es 1580mm - 1118 mm.
Router 3com USRobotics 56K
Módem/Router
RDSI Diva 2.0 Pro (interno) o RDSI USS Robotics Courier
(externo)
Router ADSL 3Com 812
Escáner
Epson Perfection 2400 PHOTO. Con conexiones USB 2.0.
Cámara Video Conferencia
Logitech Quickcam Cordless
Cámara Digital de fotos
Canon Powershot G3 (cámara compacta)
Canon EOS 1 Ds (cámara reflex)
Joystick
Microsoft Sidewinder Force Feedback Pro 2
Volante
Logitech MOMO Force
Pad
Microsoft Freestyle
Teclado
Logitech Cordless Desktop Optical
Ratón
Logitech Cordless MouseMan Optical
Logitech MX 700
Sistema Operativo
Microsoft Windows XP Professional
Caja
Racom Stealth ó Kingwin KT-436. Ambas son la misma
caja. Realizadas en aluminio, tamaño semi torre, 4 huecos
5 1/4 pulgadas, 9 huecos 3,5 pulgadas (6 de ellos ocultos)
y 6 ventiladores de 8 centímetros incluidos
estratégicamente colocados. No incluye fuente de
alimentación y tiene la posibilidad de adquirirse con una
ventana lateral.
Fuente de alimentación
Cualquier Enermax de la serie FMA o cualquier ASTEC de
la serie True.
Akasa Silver Mountain II (la mejor relación calidad/precio)
para Athlon XP
Swiftech MCX462 (el mejor disipador del momento,
también el más caro) para Athlon XP o MCX-4000 para
Pentium4
Accesorios caja
Digital Doc 5. Incluye 8 sensores de temperatura y
posibilidad de conectar 8 ventiladores para gestionarlos
mediante una cómoda pantalla y un sistema de menús.
Ventiladores adicionales
De la marca Enermax si se busca buena relación
prestaciones/ruido y de marcas como Delta y Sanyodenki
si sólo se buscan prestaciones.
CONFIGURACION PARA 2007.
¿QUE ORDENADOR COMPRAR?.
Revisado en enero de 2007
56
La primera pregunta que nos surge es ¿me compro un ordenador de marca o
un ordenador clónico?.
La definición de ordenador clónico que solemos dar es “ordenador que
se monta a partir de componentes de diferentes marcas”. Pues bien.
Basándonos en esta definición TODOS los ordenadores personales son
clónicos, ya que ninguna de las marcas de ordenadores (HP - Compaq,
Packard Bell, IBM (en su gama de ordenadores personales), Fujitsu –
Siemens, etc. fabrican los componentes que integran sus productos. A lo
sumo, en algunos casos, un par de ellos (caso de los discos duros en IBM y
Fujitsu – Siemens, lectores de DVD en el caso de HP y poco mas). Muchas
veces hablamos de la ventaja de los ordenadores “de marca” en cuanto a
calidad, servicio postventa, manuales, software. Vamos a tratar este punto
por partes. La calidad de un ordenador viene determinada por dos factores.
La calidad de los componentes y la calidad del montaje de los mismos. Bien,
Intel NO hace dos fabricaciones diferentes, una para estas empresas y otra
para el resto de sus clientes. Esta diferenciación de fabricaciones solo la
encontramos el las placas base, que suelen ser por otra parte los mismos
modelos que tienen para el resto del mercado, pero en muchos casos con
otra nomenclatura. Es cierto que estas empresas pasan unos mayores
controles de calidad, pero también es cierto que esto es menos relevante
hoy en día que hace unos años. En el tema de los manuales estamos ante
un echo parecido. Todos los componentes de un ordenador suelen venir con
sus manuales, drivers, etc., por lo que este tema no justifica por si solo la
diferencia de precio. En el tema del servicio postventa hay mucho que
hablar, ya que en muchas ocasiones este consiste en la retirada del
ordenador y en quedarnos sin el durante un periodo de tiempo en casi todos
los casos superior al que nos da cualquier tienda de informática. Es cierto
que el software que nos ofrecen estos ordenadores es bastante completo,
pero también es cierto que en la mayoría de los casos es preinstalado y que
cada vez esta más de moda (por el tema de acuerdos y costes) que este
software no este soportado en cds, siendo algo complicado tanto su
reinstalación en caso de que necesitemos recuperar alguno que no nos
funcione bien como su actualización. Un claro ejemplo de esto es que el
Windows y los drivers vengan en una partición del disco duro (con la
disminución de capacidad real que esto implica) y accesibles a través de un
cd de recuperación (en algunos casos ni tan siquiera nos suministran este
cd), que casi siempre nos obliga a reinstalar todo el sistema para algo tan
simple como reinstalar un driver de sonido. Además, mucho de este
software adicional es shareware, con un periodo de caducidad. Un ordenador
“clónico” suele venir sin software adicional, pero el software básico nos
vendrá en cds independientes y de mas fácil manejo. Tendremos nuestro cd
de Windows, nuestro cd con los drivers de la placa base y nuestros cds con
los drivers de los demás componentes, por lo que la recuperación del
sistema es bastante mas fácil y menos dependiente de los servicios técnicos
(aquí quiero recordar que ninguna garantía incluye el software y mucho
menos su reinstalación). Otra cuestión es que los ordenadores de marca son
configuraciones cerradas, por lo que si queremos cambiar algo tendremos
que pagar un extra por ello y además enfrentarnos a algunas
incompatibilidades que no suelen darse en ordenadores “clónicos”.
Visto este punto, vamos a ver con que nos encontramos para montar
nuestro
ordenador.
57
GABINETE (CAJA).
Consideraciones estéticas aparte, al comprar una caja debemos tener en
cuenta
tres
factores
fundamentales:
Robustez,
diseño
interior
y
accesibilidad.
Refrigeración (que cuente con ventiladores opcionales o bien la posibilidad
de
ponérselos).
Fuente de alimentación. Este tema es de suma importancia, ya que tanto de
su capacidad como de su calidad depende en buena medida tanto el
rendimiento como la estabilidad e integridad de nuestro ordenador. Para un
ordenador actual debemos partir como mínimo de una fuente de 450w,
siendo
aconsejable
una
de
500w.
Imagen de una FA de gama alta.
MICROPROCESADORES
58
Aquí encontramos una amplia (y a veces liosa) gama, tanto en INTEL como
en AMD. La primera dificultad con la que nos encontramos es la
nomenclatura de los mismos. Mientras INTEL usa para identificar a sus
micros la velocidad de relog del mismo, AMD ha optado por identificarlos por
la relación que sus micros tienen con INTEL (salvo en la serie FX, que no
tiene equivalente en INTEL), independientemente de su velocidad real. Para
explicar esto habría que meterse en temas técnicos sobre la arquitectura de
los micros. Baste decir que aunque ambos son micros para ordenadores
personales basados en IBM, no usan la misma arquitectura, por lo que el
rendimiento (a igualdad de velocidad) de un AMD es muy superior a la de un
INTEL (la velocidad de reloj de un AMD 3000+ es de 1800 Mh).
MICROPROCESADORES INTEL:
Los microprocesadores INTEL actuales usan el socket 775 (de 775
contactos), en los que se han eliminado los tradicionales pines para
sustituirlos por contactos, menos frágiles que los pines. Soportan tanto
memorias DDR como DDR2. Todos soportan tanto 32 como 64 bits. Los P4
cuentan con Hyper Treading (permite dos subprocesos en paralelo).
Soportan los estándares multimedia SSE, SSE2, SSE3 y MMX. Toda la gama
INTEL cuenta con funcionalidad de desactivación de ejecución de bit,
tecnología que evita el ataque de virus que provoquen desbordamiento de
buffer
(con
XP
SP2).
Socket 775, Observar los conectores en lugar de los tradicionales pines.
GAMA
INTEL
CELERON
D
59
Aunque INTEL mantiene en su catálogo algunos Celeron con socket 478, no
los incluyo en esta lista por estar destinados solo a montadores, ya que
actualmente
no
se
comercializan
placas
478.
La lista siguiente corresponde a micros con socket LGA775. Todos soportan
la tecnología Intel 64 de 64 bits, tienen un bus frontal de 533 Mhz y
soportan
Bit
de
Desactivación.
El orden es el siguiente: Numero/Arquitectura/Cache/Velocidad.
326
331
336
341
346
347
351
352
355
356
360
365
/
/
/
/
/
/
/
/
/
/
/
/
90nm
90nm
90nm
90nm
90nm
65nm
90nm
65nm
90nm
65nm
65nm
65nm
PENTIUM
/
/
/
/
/
/
/
/
/
/
/
/
256Kb
256Kb
256Kb
256Kb
256Kb
512Kb
256Kb
512Kb
256Kb
512Kb
512Kb
512Kb
4
L2
L2
L2
L2
L2
L2
L2
L2
L2
L2
L2
L2
(NUCLEO
/
/
/
/
/
/
/
/
/
/
/
/
2.53Ghz
2.86Ghz
2.80Ghz
2.93Ghz
3.06Ghz
3.06Ghz
3.20Ghz
3.20Ghz
3.33Ghz
3.33Ghz
3.46Ghz
3.60Ghz
SIMPLE)
Todos los P4 utilizan el socket LGA775. Todos son micros de 64 bit, con la
tecnología
Intel
64
y
soportan
Bit
de
Desactivación.
El orden es el siguiente: Numero/Arquitectura/Cache/Velocidad/Bus
frontal/Hiper
Threading/SpeedStep.
506
/
90nm
/
1Mb
L2
/
533Mhz
60
/
2.66Ghz
/
No
/
No
511
516
524
521
531
541
551
630
631
640
641
650
651
660
661
670
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
90nm
90nm
90nm
90nm
90nm
90nm
90nm
90nm
65nm
90nm
65nm
90nm
65nm
90nm
65nm
90nm
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
PENTIUM
1Mb L2 / 533Mhz / 2.86Ghz /
1Mb L2 / 533Mhz / 2.93Ghz /
1Mb L2 / 533Mhz / 3.06Ghz /
1Mb L2 / 800Mhz / 2.80Ghz /
1Mb L2 / 800Mhz / 3.00Ghz /
1Mb L2 / 800Mhz / 3.20Ghz /
1Mb L2 / 800Mhz / 3.40Ghz /
2Mb L2 / 800Mhz / 3.00Ghz /
2Mb L2 / 800Mhz / 3.00Ghz /
2Mb L2 / 800Mhz / 3.20Ghz /
2Mb L2 / 800Mhz / 3.20Ghz /
2Mb L2 / 800Mhz / 3.40Ghz /
2Mb L2 / 800Mhz / 3.40Ghz /
2Mb L2 / 800Mhz / 3.60Ghz /
2Mb L2 / 800Mhz / 3.60Ghz /
2Mb L2 / 800Mhz / 3.80Ghz /
D
(DOBLE
No
No
Si
Si
Si
Si
Si
Si
Si
Si
Si
Si
Si
Si
Si
Si
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
No
No
No
No
No
No
No
Si
Si
Si
Si
Si
Si
Si
Si
Si
NUCLEO)
Todos los Pentium D utilizan el socket LGA775 con Bus frontal a 800Mhz.
Todos son micros de 64 bit, con la tecnología Intel 64, soportan Bit de
Desactivación
y
todos
menos
el
820
soportan
SpeedStep.
El orden es el siguiente: Numero/Arquitectura/Cache/Velocidad/IVT (Intel
Virtualization Technology).
820
830
840
915
920
925
930
935
940
945
950
960
/
/
/
/
/
/
/
/
/
/
/
/
90nm
90nm
90nm
65nm
65nm
65nm
65nm
65nm
65nm
65nm
65nm
65nm
PENTIUM
/
/
/
/
/
/
/
/
/
/
/
/
2
2
2
2
2
2
2
2
2
2
2
2
x
x
x
x
x
x
x
x
x
x
x
x
Extreme
1Mb
1Mb
1Mb
2Mb
2Mb
2Mb
2Mb
2Mb
2Mb
2Mb
2Mb
2Mb
Edition
L2
L2
L2
L2
L2
L2
L2
L2
L2
L2
L2
L2
/
/
/
/
/
/
/
/
/
/
/
/
2.80Ghz
3.00Ghz
3.20Ghz
2.80Ghz
2.80Ghz
3.00Ghz
3.00Ghz
3.20Ghz
3.20Ghz
3.40Ghz
3.40Ghz
3.60Ghz
(DOBLE
/
/
/
/
/
/
/
/
/
/
/
/
No
No
No
No
Si
No
Si
No
Si
No
Si
Si
NUCLEO)
Todos los Pentium Extreme Edition utilizan el socket LGA775. Todos son
micros de 64 bit, con la tecnología Intel 64, soportan Bit de Desactivación y
soportan
Hyper
threading.
No
soportan
SpeedStep.
El
orden
es
el
siguiente:
Numero/Arquitectura/Cache/Bus
frontal/Velocidad/IVT
(Intel
Virtualization
Technology).
840
955
965
/
/
/
90nm
65nm
65nm
PENTIUM
/
/
/
2
2
2
CORE
x
x
x
1Mb
2Mb
2Mb
L2
L2
L2
2
DUO
61
/
/
/
800Mhz / 3.20Ghz / No
1066Mhz / 3.46Ghz / Si
1066Mhz / 3.73Ghz / Si
(DOBLE
NUCLEO)
Todos los Pentium Core2 Duo utilizan el socket LGA775. Todos son micros de
64 bit, con la tecnología Intel 64 y usan la arquitectura de 65nm, , soportan
Bit de Desactivación y soportan SpeedStep. La velocidad es por núcleo
(1.80Gb
=
2
núcleos
de
1.80Gb)
El orden es el siguiente: Numero/Cache/Bus frontal/Velocidad/IVT (Intel
Virtualization
Technology).
E4300
E6300
E6400
E6600
E6700
/
/
/
/
/
2Mb
2Mb
2Mb
4Mb
4Mb
PENTIUM
Imagen
L2
L2
L2
L2
L2
CORE
de
un
/
/
/
/
/
2
INTEL
800Mhz
1066Mhz
1066Mhz
1066Mhz
1066Mhz
QUAD
QUAD
con
/
1.80Ghz
1.86Ghz
2.13Ghz
2.40Ghz
2.66Ghz
/
/
/
/
(CUATRO
el
/
/
/
/
/
No
Si
Si
Si
Si
NUCLEOS)
protector
y
sin
el.
Todos los Pentium Core2 Quad utilizan el socket LGA775 con cuatro núcleos.
Todos son micros de 64 bit, con la tecnología Intel 64 y usan la arquitectura
de 65nm, , soportan Bit de Desactivación y soportan SpeedStep y IVT. La
velocidad
es
por
núcleo.
El orden es el siguiente: Numero/Cache/Bus frontal/Velocidad.
Q6600
PENTIUM
/
8Mb
CORE
L2
/
2
1066Mhz
Extreme
62
/
2.40Ghz
Edition
Todos los Pentium Core2 Duo utilizan el socket LGA775. Todos son micros de
64 bit, con la tecnología Intel 64 y usan la arquitectura de 65nm, , soportan
Bit de Desactivación, soportan SpeedStep y IVT. La velocidad es por núcleo.
El orden es el siguiente: Numero/Núcleos/Cache/Bus frontal/Velocidad.
X6800
QX6700
/
/
2
4
/
/
4Mb
8Mb
L2
L2
GAMA
/
/
1066Mhz
1066Mhz
/
/
2.93Ghz
2.66Ghz
AMD
Los microprocesadores AMD usan tres tipos diferentes de sockets. El 754
(754 pines), que lo usan solo los Sempron, el 939 (de 939 pines),
compatible con memorias DDR y el AM2 (de 940 pines), compatible con
memorias DDR2. Esta diferencia se debe a que los microprocesadores de
AMD llevan incorporado el gestor de memoria en el micro de doble canal
(128 bits), lo que hace que el uso de la memoria sea mucho mas optimizado
que en los procesadores INTEL, al ser la comunicación entre el micro y la
memoria directa, no existiendo prácticamente tiempo de latencia. La serie
64 son microprocesadores de 64 bits, pero implementan 32 bits de forma
nativa. Todos soportan las instrucciones SSE, SSE2 y SS3 de 128 bits, MMX
y las exclusivas de AMD 3D Now!. Tienen un ancho de banda para DDR de
72 bits (64 de datos + 8 de control) de hasta 6.4 Gbps, sin buffer y
mediante la tegnologia HyperTransport de 16 + 16 bit consiguen un FBS de
hasta 2000 Mhz, lo que les da un ancho de banda total de hasta 18.6 Gbps
(dependiendo del modelo). Los Athlon 64 cuentan con EVP (protección
mejorada antivirus), que trabaja junto con Windows XP SP2, Linux, Soliaris y
BSD Unix, protegiendo el sistema evitando el ataque de virus que provoquen
desbordamiento
de
buffer.
AMD está reestructurando casi toda su gama y pasandola a socket AM2.
Mantiene algunos Sempron en socket 754 para ensambladores, pero
practicamente se ha dejado de distribuir las placas 754 y 939, por lo que,
salvo en los Sempron, indico solo los procesadores con socket AM2
SEMPRON
63
Los AMD Sempron, a pesar de ser el comienzo de la gama AMD, no son
comparables en rendimiento a los INTEL Celeron, sino mas bien a los
anteriores amd Athlon Y P4. Son procesadores que trabajan a 64bit y a 32
bit y todos tienen una velocidad FBS de 1600Mhz, con la tecnología
HyperTransport.
Nombre
/
Vel.
Reloj
/
Socket
2800+
3000+
3100+
3300+
3400+
/
/
/
/
/
1600Mhz
1800Mhz
1800Mhz
2000Mhz
2000Mhz
/
/
/
/
/
754
128Kb
128Kb
128Kb
128Kb
128Kb
-
256Kb
128Kb
256Kb
128Kb
256Kb
Socket
2800+
3000+
3200+
3400+
3500+
3600+
3800+
/
/
/
/
/
/
/
1600Mhz
1600Mhz
1800Mhz
1800Mhz
2000Mhz
2000Mhz
2200Mhz
/
/
/
/
/
/
/
AM2
128Kb
128Kb
128Kb
128Kb
128Kb
128Kb
128Kb
-
128Kb
256Kb
128Kb
256Kb
128Kb
256Kb
256Kb
ATHLON
Men.
Caché
(L1-L2)
64
Los AMD Athlon 64, son los rivales del INTEL Pentiun 4. Son procesadores
que trabajan a 64bit y a 32 bit y todos tienen una velocidad FBS de
2000Mhz, con la tecnología HyperTransport. Socket AM2 y memorias DDR2.
Nombre
/
3000+
3200+
/
/
Vel.
Reloj
1800Mhz
2000Mhz
/
/
/
64
Men.
128Kb
128Kb
Caché
-
(L1-L2)
512Kb
512Kb
3500+
3800+
/
/
2200Mhz
2400Mhz
ATHLON
/
/
128Kb
128Kb
64
-
512Kb
512Kb
x2
Los AMD Athlon 64 x2, son los rivales del INTEL Core 2 Duo. Son
procesadores de doble núcleo y ambos trabajan a 64bit y a 32 bit y todos
tienen una velocidad FBS de 2000Mhz, con la tecnología HyperTransport. La
memoria cache es independiente para cada núcleo. Socket AM2 y memorias
DDR2.
Nombre
3600+
3800+
4000+
4000+
4200+
4400+
4400+
4600+
4800+
4800+
5000+
5200+
5400+
5600+
ATHLON
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
Vel.
1900Mhz
2000Mhz
2100Mhz
2000Mhz
2200Mhz
2200Mhz
2300Mhz
2400Mhz
2400Mhz
2500Mhz
2600Mhz
2600Mhz
2800Mhz
2800Mhz
Reloj
/
/
/
/
/
/
/
/
/
/
/
/
/
/
/
128Kb
128Kb
128Kb
128Kb
128Kb
128Kb
128Kb
128Kb
128Kb
128Kb
128Kb
128Kb
128Kb
128Kb
64
Men.
x2
x2
x2
x2
x2
x2
x2
x2
x2
x2
x2
x2
x2
x2
Caché
-
-
-
-
(L1-L2)
512Kb
512Kb
1Mb
512Kb
512Kb
1Mb
512Kb
512Kb
1Mb
512Kb
512Kb
1Mb
512Kb
1Mb
x2
x2
x2
x2
x2
x2
x2
x2
x2
x2
x2
x2
x2
x2
FX
Es difícil encuadrar a los AMD Athlon 64 FX con la gama de INTEL (salvo
quizás con los Core 2 Extreme Edition). Son procesadores de doble núcleo y
Quad de doble socket de conexión directa (DSDC), con un ancho de banda
de hasta 25.6Gbps. Todos tienen una velocidad FBS de 2000Mhz, con la
65
tecnología HyperTransport y memorias DDR2. No tienen relación en su
denominación con INTEL (al contrario del resto de la gama), solo una
relación FXxx, donde xx representa la velocidad de estos (a xx mayor,
mayor
velocidad).
Nombre
/
Vel.
Reloj
/
Fx62 / 2800Mhz / 2 /
Fx70 / 2600Mhz / 4 / 128Kb
Fx72 / 2800Mhz / 4 / 128Kb
Fx74 / 3000Mhz / 4 / 128Kb
Men.
Caché
(L1-L2)
/
128Kb x2 - 1Mb x2
x2 - 1Mb x2 / Socket F
x2 - 1Mb x2 / Socket F
x2 - 1Mb x2 / Socket F
Socket
/ AM2
(1207Fx)
(1207Fx)
(1207Fx)
Llegados a este punto, es conveniente hacer unas aclaraciones sobre los
microprocesadores de doble núcleo. Tienen la gran ventaja de que cuando
ejecutamos varias tareas a la vez, la carga de estas se reparte entre los
núcleos y, en programas preparados para ello, ejecutan parte del programa
en un núcleo y parte en el otro. Esto supone una gran ventaja en cuanto a
rapidez, PERO SOLO CON PROGRAMAS QUE ESTEN DISEÑADOS PARA
SOPORTAR ESTA FUNCION. En la actualidad están preparados para esta
función Windows XP Profesional SP2 y la mayoría de los programas de
diseño 2D – 3D, así como varios de tratamiento fotográfico (Photoshop,
EDStudio, Autocad..), pero en la actualidad ningún juego esta preparado
para ejecutarlo en doble núcleo, por lo que no se conseguirá ninguna mejora
en estos. Además, debemos tener muy en cuenta que el calor generado por
estos micros es muy superior al generado por un micro de núcleo único. Esto
hace que sea muy delicado (hasta peligroso) hacer overclocking en estos
micros.
REFRIGERACION.
Este es un apartado de suma importancia para la vida de nuestro ordenador.
Normalmente tendremos suficiente con el disipador que nos viene con el
micro, pero si deseamos sacarle el máximo rendimiento es conveniente
sustituir este por uno de mayor poder de disipación. A mayor rendimiento el
micro generará mayor temperatura y tendremos que disipar más.
66
Los tres tipos mas usuales de disipadores. De izquierda a derecha AMD 939
y AM2, INTEL 478 y a la derecha INTEL 775.
MEMORIAS.
Hay dos tipos de memorias disponibles actualmente:
DDR (184 contactos), en 400 Mhz (DDR400 – PC3200)
DDR2 (240 contactos), en 400 Mhz (DDR2-400 – PC2-3200), 533Mhz
(DDR2-533 – PC2-4200), 667 Mhz (DDR2600 – PC2-5300) y 800 Mhz
(DDR2-800
–
PC2-6400).
La elección entre un tipo de memoria y otro viene determinado por la placa
base que usemos y la cantidad de la misma (expresado en Mb), de la
aplicación que vayamos a darle a nuestro ordenador y de la capacidad de la
67
placa
base.
TARJETA GRAFICA.
Imagenes de dos graficas. A la izquierda una AGP, a la derecha una
PCIExpress.
68
Podemos apreciar los dos tipos de slot. Arriba PCIEx, abajo AGP.
Existen en el mercado dos grandes marcas de chipset en gráficas, NVIDIA y
ATI (adquirida hace poco por AMD). Ambas marcas tienen modelos que
cubren todas las necesidades del mercado, y que van desde los 64 Mb hasta
los 1024 Mb. Los soportes para estas tarjetas son de dos tipos: AGP, con un
ratio de transferencia de hasta 8x (velocidad de 533 Mhz y 2 Gb/s) y
PCIexpress, con un ratio de transferencia de 16x (para una tasa de
transferencia punto a punto de 4 Gb/s en modo bidireccional, lo que lo
convierten en 16 Gb/s). Las AGP tienden a desaparecer, por lo que la oferta
en estas es cada vez menor. La elección entre una u otra dependerá de la
placa base que tengamos y la capacidad y modelo del uso que le vayamos a
dar. Para aplicaciones ofimáticas e Internet, con una VGA de 64 Mb
tendremos mas que suficiente, mientras que para aplicaciones 3D, edición
de video, edición fotográfica y, sobre todo, para juegos nos interesará una
VGA lo más potente posible.
PLACA BASE. Imagen de placa base para INTEL 775
Impresionante esta placa base para los nuevos AMD Fx Quad
La elección de la placa base vendrá determinada por el tipo de
microprocesador que vayamos a tener, ya que dependiendo del socket que
tenga el micro deberemos utilizar un tipo de placa base u otro, no siendo
compatibles entre sí. Estamos ante el principal componente de nuestro
ordenador, tan importante o mas que el micro, ya que de la placa base
dependerá que podamos sacarle al mismo todo su rendimiento. En las placas
base, el precio va más ligado a la calidad de la misma que a las prestaciones
y esto es algo que debemos de tener muy en cuenta. Un punto muy
importante es la estabilidad en el rendimiento, ya que es mejor una placa
que no de grandes picos a otra que en un momento dado nos de un gran
pico, pero que luego también nos de una gran bajada. Esto suele ocurrir en
bastantes placas de marcas económicas, así como en modelos económicos
de las primeras marcas (a veces el marketing se impone). Dado que dentro
de una misma marca existen varios modelos con diferentes prestaciones (y
muy diferentes precios), debemos hacer nuestra elección con sumo cuidado
y teniendo muy en cuenta el uso que vayamos a darle al ordenador.
En la actualidad se están poniendo de moda un tipo de placas denominadas
SLI, que consisten en placas con doble PCIexpress 16x para VGA. Sobre este
69
tipo de placas me gustaría hacer una aclaración. Los fabricantes suelen tener
esta misma placa, pero con un solo slot para gráfica, con las mismas
prestaciones y a un precio bastante inferior, ya que las placas SLI son
bastante caras. Este tipo de placa esta pensado sobre todo para trabajar en
programas de diseño, con 2 tarjetas gráficas y 1 o 2 monitores, trabajando
en una y mostrando el resultado en otro. Si tenemos esto en cuenta, la
diferencia de precio final puede rondar los 500 euros, por lo que si no
pensamos conectar dos monitores o usar las ultas prestaciones de SLI es
preferible decantarnos por otro modelo de placa base que nos de el mismo
rendimiento (por ejemplo, la ASUS A8N-SLI y la ASUS A8N-E en realidad son
la misma placa, solo que la primera es SLI y el precio de la primera es casi
el doble que la segunda). Las placas base actuales tienen incorporados hasta
10 puertos USB 2.0, tarjeta Ethernet, tarjeta de sonido (en la mayoria de los
casos 5.1 y en las placas de gama alta, de hasta 8.1) y dependiendo del
modelo,
conexión
WIFI
y
Firewire.
DISCO DURO.Es donde vamos a grabar el SO y donde vamos a almacenar
nuestros datos, por lo que el tamaño del mismo (que actualmente va desde
los 80 Gb hasta los 400 Gb) dependerá de la cantidad de información que
pensemos
guardar.
Existen dos tipos de discos, dependiendo de la conexión: IDE y SATA. En la
actualidad todas las placas base vienen preparadas para discos SATA, por lo
que es la opción mas lógica, ya que su tasa de transferencia es muy
superior.
OTROS COMPONENTES.
En este apartado debemos meter el lector – regrabador de DVD, lector de
tarjetas de memoria flash, disquetera y tarjeta de sonido. En este ultimo
tema es importante que sepamos que (naturalmente dependiendo de la
calidad de la placa base) la calidad de las tarjetas de sonido integradas en
placa base suele ser bastante elevada, por lo que en la mayoría de los casos
tendremos bastante con esta.
COMPATIBILIDADES.
Esta es una palabra clave. ¿Qué es la compatibilidad entre los diferentes
componentes que forman el ordenador?.
Cada tipo de microprocesador tiene un tipo de socket diferente (775 en el
caso de INTEL, 754 en el caso de los Sempron y 939 y AM2 en el caso de
AMD), por lo que cuando compramos la placa base, esta se tiene que
adaptar al micro que queremos, pero no termina ahí la cosa. Debemos
estudiar detenidamente las especificaciones de la placa base y comprobar
los siguientes puntos:
Que, dentro del socket elegido, soporte el tipo de micro que queremos en
cuanto a velocidad. Que la VGA sea compatible con la placa base (AGP o
PCIe).
Que el tipo de memoria, así como la cantidad, velocidad y capacidad de los
módulos los soporte la placa base. Este punto necesita un poco mas de
explicación.
Las placas para INTEL pueden llevar tanto módulos DDR como DD2, las
placas para AMD llevan módulos DDR las 754 y las 939 y módulos DDR2 las
AM2. Asimismo, debemos comprobar el número de slot que tiene, la
capacidad máxima de los mismos y las frecuencias que soportan. Muchas
placas con Dual Channel tienen 4 slots de memoria, pero la configuración no
70
es libre. Soportan un modulo, dos en Dual Channel y 4 en Dual Channel,
pero NO soportan tres módulos, por lo que si queremos 3072 Mb tendremos
que poner 2 módulos de 1024 y otros dos de 512. Esto se debe a la
configuración del bus de datos de la memoria, ya que una vez activado el
Dual Channel (se activa al conectar dos módulos en los bancos 0 y 2), los
módulos tienen que ir de dos en dos. Asimismo, las placas suelen soportar
varias frecuencias, pero no todas. Muchas placas para DDR2 soportan
módulos DDR2-667, y DDR2-800. Este es un punto que debemos comprobar
muy bien, ya que nos ahorraremos algún dinero y bastantes problemas.
Si vamos a cambiar el disipador debemos asegurarnos de que es el
adecuado para el socket de nuestra placa base.
EJEMPLOS DE CONFIGURACION.
Vamos a dar unos cuantos ejemplos de configuración basándonos en el uso
al que vaya destinado el ordenador.
INTERNET, OFIMATICA Y REPRODUCIR MUSICA Y VIDEOS Y JUEGOS
POCO PESADOS
Este es un uso que no requiere grandes requisitos en el sistema, por lo que
puede ser una configuración bastante económica.
MICRO.- Podemos decantarnos por un INTEL Celeron o bien por un AMD
Sempron. Además, tampoco necesitamos que sean excesivamente potentes.
REFRIGERACION.- Tendremos suficiente con el disipador que trae el micro.
PLACA BASE.- Con una placa base de gama media tendremos suficiente.
MEMORIA.- Para este uso, con 512 Mb tendremos suficiente.
VGA.- Con una VGA de 128 Mb iremos bien. También podemos elegir una
placa
base
con
la
VGA
incorporada.
DISCO DURO.- Dependiendo de lo que pensemos almacenar, con un disco
de entre 80 Gb y 160 Gb tendremos suficiente.
OTROS COMPONENTES.- Lector – regrabador de DVD, disquetera, lector de
tarjetas.
LO ANTERIOR MAS EDICION DE VIDEO Y FOTOGRAFIA
MICRO.- Podemos decantarnos por un INTEL P4 o bien por un AMD Sempron
o Athlon 64.
REFRIGERACION.- Casi siempre tendremos suficiente con el disipador que
trae el micro.
PLACA BASE.- Nos decantaremos por una placa base de gama media – alta.
MEMORIA.- Para este uso, con 2048 Mb tendremos suficiente. Es interesante
que sea Dual Channel
VGA.- Con una VGA de 256 Mb iremos bien. No es recomendable una VGA
incorporada en placa base.
71
DISCO DURO.- Dependiendo de lo que pensemos almacenar, con un disco
de entre 200 Gb y 300 Gb tendremos suficiente. Debemos tener en cuenta
que la edición de video necesita mucho disco duro
OTROS COMPONENTES.- Lector de DVD, regrabador de DVD, disquetera,
lector de tarjetas, probablemente necesitemos una capturadota de video si
pensamos pasar cintas de VHS a DVD.
DISEÑO GRAFICO
MICRO.- Podemos decantarnos por un INTEL P4 D o bien por un AMD Athlon
64 X2 o FX (para esta configuración si vamos a notar bastante el doble
núcleo. A ser posible a partir de 3500 Mh.
REFRIGERACION.- Es conveniente sustituir el disipador por uno de más
potencia.
PLACA BASE.- Deberíamos elegir una placa base de gama alta. Para este uso
estaría
justificado
el
uso
de
una
placa
base
SLI.
MEMORIA.- Para este uso, con 2048 Mb tendremos una memoria adecuada,
pero mejor 4096. Muy recomendable Dual Channel y a ser posible DDR2.
VGA.- Con una VGA de 512 Mb iremos bien. Es conveniente PCIe. Para este
uso concreto, las prestaciones de NVIDIA son algo superiores a las de ATI.
DISCO DURO.- Dependiendo de lo que pensemos almacenar, a partir de 200
Gb.
OTROS COMPONENTES.- Lector de DVD, regrabador de DVD, disquetera,
lector
de
tarjetas.
EDICION DE VIDEO, EDICION DE SONIDO Y JUEGOS DE ULTIMA
GENERACION
Quizás sea esta la configuración mas exigente en algunos apartados, como
la
elección
de
la
VGA.
MICRO.- Podemos decantarnos por un INTEL P4 o bien por un AMD Athlon
64 o FX. Si vamos a realizar varias tareas a la vez, podemos elegir un micro
de
doble
núcleo.
A
partir
de
3500
Mh
REFRIGERACION.- Es conveniente sustituir el disipador por uno de más
potencia.
PLACA BASE.- Necesitaremos una placa base de gama alta y alto
rendimiento. Algunos fabricantes tienen placas específicamente diseñadas
para juegos, como es el caso de la serie LANParty de DFI, con un
rendimiento optimizado para juegos de última generación.
MEMORIA.- Para este uso, con 2048 - 4096 Mb tendremos suficiente. Debe
ser Dual Channel y a ser posible DDR2.
VGA.- Con una VGA de 512 - 1024 Mb iremos bien. Muy recomendable PCIe.
DISCO DURO.- Dependiendo de lo que pensemos almacenar, a partir de 200
Gb.
OTROS COMPONENTES.- Lector – regrabador de DVD, disquetera, lector de
tarjetas. En esta configuración nos puede interesar recurrir a una tarjeta de
sonido adicional del tipo Sound Blaster Audigy Pro.
72
CONFIGURACIONES EN 2010.
Características del sistema
Sistema operativo
instalado
Windows® 7 Home Premium original 64 bits
Tipo de procesador
Procesador Intel® Core™ i7 860
Chipset
Intel® H57 PCH
Memoria
Memoria
DDR3 de 8 GB
Ranuras de memoria
4 conectores para módulos DIMM
Almacenamiento de datos
Compartimentos para
unidades internas
2 compartimentos para unidades ópticas externas, 2 compartimentos
para discos duros internos, 1 compartimento para unidad Pocket Media,
Landing Pad para dispositivos USB y 1394
Unidades internas
Unidad de disco duro SATA 3G de 1 TB (7200 rpm)
Unidades ópticas
Reproductor Blu-ray y grabadora de DVD SuperMulti con tecnología
LightScribe
Gráficos
Tarjeta gráfica
NVIDIA® GeForce® GT 230 con tecnología PureVideo® HD
hasta 5.118 MB de memoria gráfica total disponible con 1,5 GB
dedicada
Pantalla
Monitores LCD (se venden aparte): Monitor de pantalla plana
panorámica de 20" HP 2010i, monitor de pantalla plana panorámica de
22" HP 2210i , monitor de pantalla plana panorámica HP 2229h, monitor
de pantalla plana panorámica de 23" HP 2310i, monitor de pantalla
plana panorámica de 25" HP 2510i, monitor de pantalla plana
panorámica de 27" HP 2710m
Características de expansión
Puertos de E/S externos 10 puertos USB 2.0 (4 en parte frontal), 2 puertos de audio frontales, 6
puertos de audio analógicos posteriores, 1 puerto de audio digital
posterior 2 puertos Firewire® IEEE 1394 (1 frontal)
Conectores de vídeo
Puerto DVI, puerto VGA, puerto HDMI
73
Ranuras
3 PCI-Express 1x (1 libre), 1 PCI-Express 16x
Dispositivo de tarjeta de Lector tarjetas de memoria 15 en 1
memoria
Dispositivos multimedia
Mando a distancia
Mando a distancia HP Win7 Media Center
Sintonizador de TV
Tarjeta sintonizadora de TV (analógica y DVB-T)
Dispositivos de entrada
Dispositivo apuntador
Ratón HP inalámbrico óptico
Teclado
Teclado inalámbrico
Comunicaciones
Interfaz de red
LAN Ethernet Gigabit 10/100/1000 integrada
Tecnologías
inalámbricas
Minitarjeta LAN inalámbrica 802.11 b/g/n PCI-Ex1
Dimensiones y peso
Peso del producto
11,8 Kg
Medidas del producto (P 179 x 422 x 401 mm
x A x L)
Contenido de la caja
Garantía
1 año en piezas y mano de obra con recogida y devolución
Software incluido
Partición de recuperación (incluida la posibilidad de recuperar el
sistema, las aplicaciones y los controladores por separado)
Reasignación opcional de partición de recuperación
Herramienta de creación de CD/DVD de recuperación
Symantec™ Norton Internet Security™ 2009 (actualización gratuita
durante 60 días)
HP MediaSmart Suite: Música, Vídeo, DVD, Fotografía
Windows Photo Gallery
Reproductor de Windows Media
74
Windows Movie Maker, Windows DVD Maker
Cyberlink DVDSuite
EasyBits Magic Desktop
Consola de juegos HP con varias horas de juego gratuitas.
Windows Media Center
Microsoft® Internet Explorer
Windows Mail (correo de Windows)
Microsoft® Works y versión de prueba de 60 días de Microsoft® Office
Home and Student 2007
75
CAPÍTULO III. TIPOS DE PROGRAMAS
Sabemos que el ordenador se compone de un conjunto de componentes conectados entre
sí. Para que el ordenador funcione es necesario que haya unos programas que le digan
paso a paso qué debe hacer. El software es el componente intangible de todo sistema
informático y está formado por una colección de reglas e instrucciones que permiten
establecer la relación entre el usuario y la máquina.
I.- SISTEMAS OPERATIOS.
II.- LENGUAJES DE PROGRAMACIÓN.
III.- PROGRAMAS DE APLICACIÓN.
IV.- PROGRAMAS DE UTILIDAD O UTILITARIOS.
V.- PROGRAMAS GENERADORES DE PROGRAMAS.
VI.- PROGRAMAS PAQUETES O ARMAZONES.
I.- EL SISTEMA OPERATIVO
1) Es el programa de mayor importancia también llamado programa
SUPERVISOR
El sistema operativo es el conjunto de programas que dirige las operaciones
básicas del ordenador, especialmente las de entrada y salida como presentar en
el monitor los resultados, controlar la impresora, etc. Se encarga del manejo de
las interrupciones de los dispositivos, la carga inicial del IPL, asignar memoria a
los programas y de las comunicaciones con el resto de los programas cargados
en memoria.
2) Funcionamiento
Cuando se conecta un ordenador personal se carga parte del sistema operativo en
la memoria, y se ejecuta. En este momento, el sistema operativo controla qué
periféricos (ratón, impresora, monitor, etc.) se encuentran conectados y si hay
algún error. Una parte del sistema operativo permanece en memoria para
controlar la ejecución de cualquier programa, haciendo de intermediario entre el
microprocesador y las aplicaciones.
De esta forma cada aplicación se dedica a hacer su tarea y deja que sea el
sistema operativo quien
realice las actividades comunes, como enviar los
datos al monitor, imprimir, etc.
3) Relación con el hardware
El sistema operativo está muy ligado a la configuración del hardware,
especialmente al
microprocesador del sistema, de forma que cada sistema
operativo está diseñado para operar en un tipo de ordenador. Los más conocidos
son MS-DOS, Mac-OS, UNIX, VMS, Windows, LINUX, etc.
76
También existe lo que se denominan sistemas propietarios, es decir, que
pertenecen a una marca y aunque se pueden conectar periféricos de otras marcas,
su arquitectura es incompatible con otras arquitecturas de distinto constructor.
Un ejemplo es el sistema operativo de los equipos AS/400 de IBM.
System commander (http://www.systemcommander.com) es un programa que
permite tener varios sistemas operativos en un mismo equipo.
4) Funciones del sistema operativo
El sistema operativo se ocupa de varias funciones:
1) Administrar los recursos disponibles de la máquina, que son escasos.
Controlar los flujos de información dentro del sistema y la ejecución de los
trabajos encomendados.
2) Mantener la operatividad del sistema, detectar errores y controlar los
dispositivos y configuración de los periféricos, de forma que no aparezcan
continuas interrupciones frente al usuario.
3) Ejecutar el software de aplicación para obtener la máxima eficacia en la
explotación del equipo.
II.- LOS LENGUAJES DE PROGRAMACIÓN
1) Son programas que permiten escribir programas para ordenadores
Hay lenguajes de programación que se aproximan al código de la máquina y se
llaman de bajo nivel. En este caso se utilizan los ensambladores, que son
programas que transforman las órdenes escritas en lenguajes de bajo nivel a
código binario, a ceros y unos.
En el otro extremo se encuentran los lenguajes de alto nivel, que se asemejan al
idioma escrito. Para traducir estos programas a código binario existen los
llamados intérpretes y compiladores.
En el caso de los lenguajes de programación interpretados, se traduce el llamado
programa fuente cada vez que se ejecuta. Este es un proceso sencillo pero lento,
ya que está continuamente traduciendo.
En los lenguajes de programación que utilizan compilador, éste traduce el
programa fuente y se obtiene lo que se denomina programa objeto, que es el que
se ejecuta.
Los lenguajes de programación más conocidos históricamente han sido
ASSEMBLER, COBOL, PL/I, BASIC, PASCAL, VISUAL BASIC, y en la
actualidad para desarrollo WEB, HTML, VML y XVML.
77
III.- PROGRAMAS DE APLICACIÓN
1) Programas desarrollados con propósitos específicos.
Están orientados a la resolución de un tipo de problema o a la realización de
ciertas tareas específicas: planillas, inventarios, facturación, contabilidad
general, programas de dibujo, etc.
IV.- PROGRAMAS DE UTILIDAD O UTILITARIOS.
Los llamados programas accesorios facilitan la interacción entre los lenguajes
de programación y el usuario: pequeños editores de fotos, programas que
realizan copias de seguridad, utilidades para
comprimir y descomprimir
ficheros, programas para medir y controlar el rendimiento del equipo, etc.
También podemos incluir en este apartado las utilidades para defendernos de los
virus: programas antivirus, comprobadores y vacunas.
Los antivirus son programas dirigidos contra tipos particulares de virus
informáticos. Un antivirus
funciona analizando los ficheros en busca de
secuencias de bytes características de un determinado virus. El antivirus explora
los ficheros de un disco en busca de esa cadena y la elimina. El comprobador es
un programa que explora los ficheros y comprueba si han sido alterados,
avisando al usuario.
Un tipo especial de software de aplicación son los programas de
comunicaciones, que suelen ir unidos al hardware que soporta el tipo de
interconexión requerido: red de área local, conexión a fax, a módem, etc. Este
software tiene un carácter básico en los grandes ordenadores, puesto que su
forma de trabajo normal requiere el enlace permanente con un gran número de
usuarios y periféricos.
V.- PROGRAMAS GENERADORES DE APLICACIONES
Son utilizados para generar programas para aplicaciones o sistemas
particulares como páginas Web, portales, inventarios, contabilidad, análisis
financiero, estadísticas, etc.
VI.- PROGRAMAS PAQUETES O ARMAZONES.
El ejemplo típico de programa paquete es el OFFICE ya que contiene los
siguientes programas especializados:
1).- Word. Para procesamiento de textos.
2).- Excel. Para proceso de hojas electrónicas de cálculo.
3).- Power Point. Para presentaciones ejecutivas.
4).- Outlook. Para proceso de correo electrónico.
5).- Access. Manejo de Bases de Datos.
6).- Publisher. Publicaciones de todo tipo.
78
Existen diferentes formas de obtener programas paquetes o de funciones
específicas:
a) Adquisición de un paquete llave en mano desarrollado por
técnicos especializados en ello, con el objetivo de vender el máximo número de
unidades a un precio asequible.
b) Desarrollo de una aplicación informática a la medida. Esta
estrategia puede implantarse de dos formas, como desarrollo interno, utilizando
personal y medios de la propia empresa y como desarrollo externo, utilizando
consultores y personal especializado ajeno a la empresa. También puede
formarse un equipo mixto con personal propio y ajeno.
c) Outsourcing financiero. Otra posibilidad que no implica la
informatización de la actividad en la empresa, es la contratación externa u
outsourcing financiero, que consiste en que actividades que tradicionalmente se
realizan en el departamento contable-financiero las realicen proveedores de la
empresa. Tradicionalmente un número muy importante de pequeñas empresas,
que no cuentan en sus empresa con un contable confían su contabilidad o la
elaboración de la nómina a despachos profesionales. Con el outsoucing
financiero, aunque sean grandes empresas, dejan que sean proveedores de la
empresa quienes realicen la nómina o la
contabilidad.
d) Paquetes llave en mano. La casa de software que fabrica
paquetes llave en mano trata de repartir los costes de diseño, desarrollo y puesta
a punto del programa entre el mayor número de clientes, con lo que se puede
fijar un precio relativamente bajo que puede incluir la actualización del
programa. Las principales características del paquete llave en mano son su
rapidez de adquisición e instalación y su precio inferior. Su diseño suele seguir
dos alternativas: un uso genérico, como podría ser un programa de contabilidad
general o bien un uso específico en el contexto de determinados negocios como
podría ser una aplicación para la gestión hotelera, clínicas, supermercados, etc.
e) Software a medida con desarrollo externo. El desarrollo de
software a medida con desarrollo externo tiene lugar cuando la empresa detecta
la necesidad de disponer de un sistema de información de unas características y
prestaciones que no cumple ningún paquete llave en mano existente en el
mercado. Además tampoco se dispone de recursos internos adecuados para tal
esfuerzo de desarrollo. En tales casos puede acudirse a un consultor externo o
empresa de informática que realiza los programas según un contrato firmado
entre ambas partes.
f) Software a medida con desarrollo interno. Utilizado por
empresas que cuentan con sus propios medios de diseño y desarrollo,
infraestructura informática, departamento de organización y métodos, etc. En
estas circunstancias se crea un equipo de trabajo con la correspondiente dotación
de personal, presupuesto y medios, y se pone en marcha para
cumplir el
pliego de especificaciones de diseño que define las prestaciones del sistema de
información.
g) Software a medida desarrollado con el apoyo del usuario. El
software a medida desarrollado con el apoyo del usuario se basa en la
incorporación de tres tipos de personas al equipo de trabajo. En primer lugar los
79
analistas y profesionales externos que aportan
experiencia en otros proyectos
de desarrollo de software. También participa el personal del departamento de
informática, organización y métodos o auditoría interna de nuestra empresa, que
conoce el funcionamiento de la infraestructura informática de la empresa, sus
limitaciones y prestaciones. Finalmente intervienen los usuarios del sistema, que
son los que informan de las necesidades.
h) Contratación externa. La contratación externa supone que la
organización contrata con un proveedor externo el procesamiento de sus
transacciones contables. Las razones para optar por esta modalidad son la
eficiencia y el menor riesgo, ya que se confía en verdaderos profesionales que ha
desarrollado procedimientos, controles y programas informáticos de eficacia
demostrada. Además, se reduce personal interno y se contrata un servicio con un
proveedor.
80
81
CAPÍTULO IV. ESTRUCTURA Y FLUJO DE LOS DATOS.
Micro y Macrodatos:
Se entiende por micro dato la unidad menor respecto a la cuantificación
de una variable en el tiempo y espacio. Ejemplos: el salario de José Gomes en
marzo de 2006, el estado civil de Petra Lombana en junio de 2005 o los ahorros
de Juan Sibauste en enero de 2006.
Por macro dato entendemos la agregación de los micro datos en grupos
de mayor jerarquía, por ejemplo: los salarios de los empleados de la empresa o el
país en marzo de 2005, el producto interno bruto del país para el mes de octubre
de 2004, etc.
Pirámide de los Datos.
organización lógica de los datos ha sufrido una notable evolución para
que cada día exista mayor concordancia entre los requerimientos del Sistema de
Información Gerencial (SIG) y la estructura de la llamada Pirámide de los Datos.
Debemos hablar mas específicamente del Modelo de Datos para el SIG.
La
El sistema estructural de agrupamiento lógico, a nivel de datos, parte del
caracter como la menor unidad orgánica de dato; los caracteres cuando se
agrupan mediante una relación lógica entre sí forman el campo(alfabético,
numérico y alfanumérico); el conjunto de campos con relación lógica de
conjunto da origen al registro lógico (de personal, de planilla, de costo, de
inventario, etc.); cuando se integran todos los registros relacionados a un área
de conocimiento constituimos un archivo lógico de datos (archivo de personal,
archivo de planilla, archivo de costos, archivo de inventario, etc.); hasta este
momento hemos definido la arquitectura histórica llamada PLANA.
Estableciendo relaciones correlacionadas entre archivos lógicos de datos
estructuramos las llamadas BASES DE DATOS, según la génesis de la relación
decimos que es jerárquica, estructurada o de red. Las necesidades de nuevos
ordenamientos y seguimiento del agrupamiento de los datos para convertirlos en
información elaborada han permitido desarrollar el concepto de ALMACENES
DE DATOS como conjunto de datos masivos, al menor detalle, pero referidos a
las áreas específicas de interés (Almacén de Datos Presupuesto, Almacén de
Datos de Costos, Almacén de Datos Ventas, etc.). Pero que sucede cuando el
interés por controlar las operaciones nos obliga a correlacionar por sectores
(Almacén de Datos Financieros, Almacén de Datos Contables, Almacén de
Datos Económicos, Almacén de Datos Estadísticos, Almacén de Datos Jurídicos,
etc.) y todo el conjunto a nivel operativo, en estos casos estamos estructurando
un Modelo de Datos Operativo.
Si aplicamos los mismos criterios a nivel táctico y estratégico en el SIG
decimos entonces que tenemos un Modelo de Datos para el SIG. En el modelo
de datos operativo, se manejan todo el micro datos de forma correlacionada ya
que estos permiten el control y la administración de las actividades. Este modelo
se caracteriza por el volumen de información, por la diversidad de la misma y,
82
sobre todo, porque toda esta íntimamente relacionada. Por ejemplo la política de
empleo se materializa, en normas de contratación de personal y de rendimiento
del personal; del trabajo diario se debe derivar la productividad de los
trabajadores para así determinar salario productivo e improductivo y esta
condición deberá determinar el costo de la mano de obre y el salario a pagar; no
debe ser la tarjeta de tiempo el instrumento que determine el salario a pagar.
Todas las variables en los negocios, a nivel operativo, tienen causa y efecto y el
mecanismo de registro contable solo mide un perfil de la información necesaria
para la Toma de Decisiones; es por intermedio del Modelo de Datos que se
aprecia el comportamiento operativo y administrativo de los negocios modernos.
Métodos de Captura y Actualización de los Datos.
Los métodos de captura de datos tradicionalmente se han dividido en
fuera de línea (BATCH) o en línea (ON LINE); en el proceso fuera de línea
ocurre una demora de tiempo entre el momento en que se da la transacción que
genera los datos y el momento de su registro o captura por medios informáticos.
En los procesos de captura en línea (ON LINE) las transacciones se
registran a través de los sistemas informáticos al momento que se da la
transacción, implica la verificación de consistencia y valides de los datos para
garantizar el proceso de captura. Los errores que puedan ser detectados en estos
procesos por regla general obligan al rechazo de la transacción que originó los
datos.
Por captura, en ambos ambientes, se entiende el registro inicial de la
transacción y por actualización, el cambio de alguno de los componentes de la
transacción ya registrada. Una regla moderna de certificación de los datos y de
las transacciones consiste en bloquear los datos de la transacción para que no
puedan ser alterados una vez certificado el contenido. En nuestro país la
certificación de la información en medios magnéticos compete a los CPA.
Los procesos de actualización en línea (ON LINE) se caracterizan por
realizarse en el llamado tiempo real (Menos de 10 segundos) y a través de
estructuras de redes teleinformáticas. Hoy día la INTRANET e INTERNET
hacen de estos procesos el acontecer diario y de allí la relevancia e importancia
de controlar adecuadamente estos procesos.
MATRICES DE DATOS.
Por matrices de datos entendemos las intersecciones entre dos vectores
uno vertical y uno horizontal que dan origen a una celda de datos en donde se
puede alojar información con diversas características, el conjunto de celdas
relacionadas da origen a la matriz de datos. Un caso específico de aplicación de
las matrices de datos son los programas que manejan hojas electrónicas de
cálculo. La principal ventaja de la matriz consiste en los cálculos y en la
obtención de resultantes a través de sumatorias.
Ejemplo de matriz de datos:
83
EMPLEADO
00001
00002
NOMBRE
PEDRO
JUAN
APELLIDO
PICAPIEDRA
PIEDRITA
SALARIO
B/. 1,000.00
B/. 2,500.00
BASE DE DATOS (DATA BASE).
Una base o banco de datos es un conjunto de datos que pertenecen al
mismo contexto almacenados sistemáticamente para su posterior uso. En este
sentido, una biblioteca puede considerarse una base de datos compuesta en su
mayoría por documentos y textos impresos en papel e indexados para su
consulta.
En la actualidad, y gracias al desarrollo tecnológico de campos como la
informática y la electrónica, la mayoría de las bases de datos tienen formato
electrónico, que ofrece un amplio rango de soluciones al problema de almacenar
datos.
En informática existen los sistemas gestores de bases de datos (SGBD), que
permiten almacenar y posteriormente acceder a los datos de forma rápida y
estructurada. Las propiedades de los sistemas gestores de bases de datos se
estudian en informática.
Las aplicaciones más usuales son para la gestión de empresas e instituciones
públicas. También son ampliamente utilizadas en entornos científicos con el
objeto de almacenar la información experimental.
Aunque las bases de datos pueden contener muchos tipos de datos, algunos de
ellos se encuentran protegidos por las leyes de varios países.
TIPOS DE BASES DE DATOS.
Las bases de datos pueden clasificarse de varias maneras, de acuerdo al
criterio elegido para su clasificación:
Según la variabilidad de los datos almacenados
Bases de datos estáticas
Éstas son bases de datos de sólo lectura, utilizadas primordialmente para
almacenar datos históricos que posteriormente se pueden utilizar para estudiar el
comportamiento de un conjunto de datos a través del tiempo, realizar
proyecciones y tomar decisiones.
Bases de datos dinámicas
Éstas son bases de datos donde la información almacenada se modifica con el
tiempo, permitiendo operaciones como actualización y adición de datos, además
de las operaciones fundamentales de consulta. Un ejemplo de esto puede ser la
base de datos utilizada en un sistema de información de una tienda de abarrotes,
una farmacia, un videoclub, etc.
84
IMPUESTO
B/. 43.50
B/. 257.54
Según el contenido
Bases de datos bibliográficas
Solo contienen un surrogante (representante) de la fuente primaria, que permite
localizarla. Un registro típico de una base de datos bibliográfica contiene
información sobre el autor, fecha de publicación, editorial, título, edición, de una
determinada publicación, etc. Puede contener un resumen o extracto de la
publicación original, pero nunca el texto completo, porque sino estaríamos en
presencia de una base de datos a texto completo (o de fuentes primarias) [ver
más abajo]Como su nombre lo indica, el contenido son cifras o números. Por
ejemplo, una colección de resultados de análisis de laboratorio, entre otras.
Bases de datos de texto completo
Almacenan las fuentes primarias, como por ejemplo, todo el contenido de todas
las ediciones de una colección de revistas científicas.
Directorios
Un ejemplo son las guías telefónicas en formato electrónico.
Banco de imágenes, audio, video, multimedia, etc.
Es aquel banco en el cual se guarda lo que es multimedio para poder usarse
mas tarde
Bases de datos o "bibliotecas" de información Biológica
Son bases de datos que almacenan diferentes tipos de información proveniente
de las ciencias de la vida o médicas. Se pueden considerar en varios subtipos:
•
•
•
•
•
Aquellas que almacenan secuencias de nucleótidos o proteínas.
Las bases de datos de rutas metabólicas
Bases de datos de estructura, comprende los registros de datos
experimentales sobre estructuras 3D de biomoléculas
Bases de datos clínicas
Bases de datos bibliográficas (biológicas)
MODELOS DE BASES DE DATOS.
Además de la clasificación por la función de las bases de datos, éstas también se
pueden clasificar de acuerdo a su modelo de administración de datos.
Un modelo de datos es básicamente una "descripción" de algo conocido como
contenedor de datos (algo en donde se guarda la información), así como de los
métodos para almacenar y recuperar información de esos contenedores. Los
modelos de datos no son cosas físicas: son abstracciones que permiten la
implementación de un sistema eficiente de base de datos; por lo general se
refieren a algoritmos, y conceptos matemáticos.
85
Algunos modelos con frecuencia utilizados en las bases de datos:
Bases de datos jerárquicas
Éstas son bases de datos que, como su nombre indica, almacenan su información
en una estructura jerárquica. En este modelo los datos se organizan en una forma
similar a un árbol (visto al revés), en donde un nodo padre de información puede
tener varios hijos. El nodo que no tiene padres es llamado raíz, y a los nodos que
no tienen hijos se los conoce como hojas.
Las bases de datos jerárquicas son especialmente útiles en el caso de
aplicaciones que manejan un gran volumen de información y datos muy
compartidos permitiendo crear estructuras estables y de gran rendimiento.
Una de las principales limitaciones de este modelo es su incapacidad de
representar eficientemente la redundancia de datos.
Bases de datos de red
Éste es un modelo ligeramente distinto del jerárquico; su diferencia fundamental
es la modificación del concepto de nodo: se permite que un mismo nodo tenga
varios padres (posibilidad no permitida en el modelo jerárquico).
Fue una gran mejora con respecto al modelo jerárquico, ya que ofrecía una
solución eficiente al problema de redundancia de datos; pero, aun así, la
dificultad que significa administrar la información en una base de datos de red
ha significado que sea un modelo utilizado en su mayoría por programadores
más que por usuarios finales.
Base de datos relacional
Éste es el modelo más utilizado en la actualidad para modelar problemas reales y
administrar datos dinámicamente. Tras ser postulados sus fundamentos en 1970
por Edgar Frank Codd, de los laboratorios IBM en San José (California), no
tardó en consolidarse como un nuevo paradigma en los modelos de base de
datos. Su idea fundamental es el uso de "relaciones". Estas relaciones podrían
considerarse en forma lógica como conjuntos de datos llamados "tuplas". Pese a
que ésta es la teoría de las bases de datos relacionales creadas por Edgar Frank
Codd, la mayoría de las veces se conceptualiza de una manera más fácil de
imaginar. Esto es pensando en cada relación como si fuese una tabla que está
compuesta por registros (las filas de una tabla), que representarían las tuplas, y
campos (las columnas de una tabla).
En este modelo, el lugar y la forma en que se almacenen los datos no tienen
relevancia (a diferencia de otros modelos como el jerárquico y el de red). Esto
tiene la considerable ventaja de que es más fácil de entender y de utilizar para un
usuario esporádico de la base de datos. La información puede ser recuperada o
almacenada mediante "consultas" que ofrecen una amplia flexibilidad y poder
para administrar la información.
86
El lenguaje más habitual para construir las consultas a bases de datos
relacionales es SQL, Structured Query Language o Lenguaje Estructurado de
Consultas, un estándar implementado por los principales motores o sistemas de
gestión de bases de datos relacionales.
Durante su diseño, una base de datos relacional pasa por un proceso al que se le
conoce como normalización de una base de datos.
Durante los años '80 (1980-1989) la aparición de dBASE produjo una revolución
en los lenguajes de programación y sistemas de administración de datos. Aunque
nunca debe olvidarse que dBase no utilizaba SQL como lenguaje base para su
gestión.
Bases de datos orientadas a objetos
Este modelo, bastante reciente, y propio de los modelos informáticos orientados
a objetos, trata de almacenar en la base de datos los objetos completos (estado y
comportamiento).
Una base de datos orientada a objetos es una base de datos que incorpora todos
los conceptos importantes del paradigma de objetos:
•
•
•
Encapsulación - Propiedad que permite ocultar la información al resto
de los objetos, impidiendo así accesos incorrectos o conflictos.
Herencia - Propiedad a través de la cual los objetos heredan
comportamiento dentro de una jerarquía de clases.
Polimorfismo - Propiedad de una operación mediante la cual puede ser
aplicada a distintos tipos de objetos.
En bases de datos orientadas a objetos, los usuarios pueden definir operaciones
sobre los datos como parte de la definición de la base de datos. Una operación
(llamada función) se especifica en dos partes. La interfaz (o signatura) de una
operación incluye el nombre de la operación y los tipos de datos de sus
argumentos (o parámetros). La implementación (o método) de la operación se
especifica separadamente y puede modificarse sin afectar la interfaz. Los
programas de aplicación de los usuarios pueden operar sobre los datos
invocando a dichas operaciones a través de sus nombres y argumentos, sea cual
sea la forma en la que se han implementado. Esto podría denominarse
independencia entre programas y operaciones.
Se está trabajando en SQL3, que es el estándar de SQL92 ampliado, que
soportará los nuevos conceptos orientados a objetos y mantendría compatibilidad
con SQL92.
Bases de datos documentales
Permiten la indexación a texto completo, y en líneas generales realizar
búsquedas más potentes. Tesaurus es un sistema de índices optimizado para este
tipo de bases de datos.
87
Base de datos deductivas
Un sistema de base de datos deductivas, es un sistema de base de datos pero
con la diferencia de que permite hacer deducciones a través de inferencias. Se
basa principalmente en reglas y hechos que son almacenados en la base de datos.
También las bases de datos deductivas son llamadas base de datos lógica, a raíz
de que se basan en lógica matemática.
Gestión de bases de datos distribuida
La base de datos está almacenada en varias computadoras conectadas en red.
Surgen debido a la existencia física de organismos descentralizados. Esto les da
la capacidad de unir las bases de datos de cada localidad y acceder así a distintas
universidades, sucursales de tiendas, etcetera
MODELOS DE DATOS (DATA MODEL).
Un modelo de datos es una serie de conceptos que puede utilizarse para describir
un conjunto de datos y las operaciones para manipularlos. Hay dos tipos de
modelos de datos: los modelos conceptuales y los modelos lógicos. Los modelos
conceptuales se utilizan para representar la realidad a un alto nivel de
abstracción. Mediante los modelos conceptuales se puede construir una
descripción de la realidad fácil de entender. En los modelos lógicos, las
descripciones de los datos tienen una correspondencia sencilla con la estructura
física de la base de datos.
En el diseño de bases de datos se usan primero los modelos conceptuales para
lograr una descripción de alto nivel de la realidad, y luego se transforma el
esquema conceptual en un esquema lógico. El motivo de realizar estas dos
etapas es la dificultad de abstraer la estructura de una base de datos que presente
cierta complejidad. Un esquema es un conjunto de representaciones lingüísticas
o gráficas que describen la estructura de los datos de interés.
Los modelos conceptuales deben ser buenas herramientas para representar la
realidad, por lo que deben poseer las siguientes cualidades:
•
•
•
•
Expresividad: deben tener suficientes conceptos para expresar
perfectamente la realidad.
Simplicidad: deben ser simples para que los esquemas sean fáciles de
entender.
Minimalidad: cada concepto debe tener un significado distinto.
Formalidad: todos los conceptos deben tener una interpretación única,
precisa y bien definida.
En general, un modelo no es capaz de expresar todas las propiedades de una
realidad determinada, por lo que hay que añadir aserciones que complementen el
esquema.
ALMACENES DE DATOS (DATA WAREHOUSE).
88
En el contexto de la Informática, un almacén de datos o data warehouse
es una colección de datos orientadas a un dominio, integrado, no volátil y varía
en el tiempo que ayuda a la toma de decisiones de la empresa u organización.
Un almacén de los datos es, sobre todo, un expediente de una empresa más allá
de la información transaccional y operacional, almacenado en una base de datos
diseñada para favorecer análisis y la divulgación eficientes de datos. El
almacenamiento de los datos no debe usarse con datos de uso actual.
Los almacenes de los datos contienen a menudo grandes cantidades de
información que se subdividen a veces en unidades lógicas más pequeñas
llamadas los centros comerciales dependientes de los datos.
Generalmente, dos ideas básicas dirigen la creación de un almacén de los datos:
•
•
Integración de los datos de bases de datos distribuidas y diferentemente
estructuradas, que facilita una descripción global y un análisis
comprensivo en el almacén de los datos.
Separación de los datos usados en operaciones diarias de los datos
usados en el almacén de los datos para los propósitos de la divulgación,
de la ayuda en la toma de decisiones, para el análisis y para controlar.
Periódicamente, uno importa datos de sistemas del planeamiento del recurso de
la empresa (ERP) y de otros sistemas de software relacionados al negocio en el
almacén de los datos para la transformación posterior. Es práctica común
"efectuar" datos antes de combinarla en un almacén de los datos. En este sentido,
"de efectuar medios de los datos" de hacerlo cola para el proceso previo,
generalmente con una herramienta de ETL. El programa del proceso previo lee
los datos efectuados (a menudo bases de datos primarias de OLTP de un
negocio), realiza el proceso previo cualitativo o la filtración (desnormalizacion,
si juzga necesario incluyendo), y la escribe en el almacén.
ESTRUCTURA DE UN DATA WAREHOUSE
El ambiente de un Data Warehouse queda definido por la suma de los diferentes
DataMarts integrados, no sólo a nivel físico sino también a nivel lógico.
Cubos De Información (DataMarts). Un DataMart es una vista lógica de los
datos en bruto de su los datos provistos por su sistema de operaciones/finanzas
hacia el Datawarehouse con la adición de nuevas dimensiones o información
calculada. Se les llama DataMart, porque representan un conjunto de datos
relacionados con un tema en particular como Ventas, Operaciones, Recursos
Humanos, etc, y están a disposición de los "clientes" a quienes les puede
interesar la misma. Esta información puede accesarse por el Ejecutivo (Dueño)
mediante "Tablas Dinámicas" de MS-Excel o programas personalizados. Las
Tablas Dinámicas le permiten manipular las vistas (cruces, filtrados,
organización) de la información con mucha facilidad. Los cubos de información
(DataMarts) se producen con mucha rapidez. A ellos se les aplican las reglas de
seguridad de acceso necesarias La información estratégica está clasificada en:
Dimensiones y Variables. El análisis está basado en las dimensiones y por lo
89
tanto es llamado: Análisis multidimensional. Llevando estos conceptos a un
DW: Un Data Warehouse es una colección de datos que está formada por
Dimensiones y Variables, entendiendo como Dimensiones a aquellos elementos
que participan en el análisis y Variables a los valores que se desean analizar.
Dimensiones. Son atributos relativos a las variables. Son las perspectivas de
análisis de las variables. (Forman parte de la Dimension Table – Tabla de
Dimensiones)
Variables. También llamadas “indicadores de gestión”, son los datos que están
siendo analizados. Forman parte de la Fact Tabla (Tabla de Hecho) Más
formalmente, las variables representan algún aspecto cuantificable o medible de
los objetos o eventos a analizar. Normalmente, las variables son representadas
por valores detallados y numéricos para cada instancia del objeto o evento
medido. En forma contraria, las dimensiones son atributos relativos a la
variables, y son utilizadas para ordenar, agrupar o abreviar los valores de las
mismas. Las dimensiones poseen una granularidad menor, tomando como
valores un conjunto de elementos menor que el de las variables.
FLUJOS DE DATOS (DATA WORKFLOW).
Los flujos de datos nos dan el recorrido que siguen los datos que forman
las transacciones en procesos definidos. Están condicionados por las reglas de
cumplimiento del flujo y generan un expediente de datos asociado al proceso
realizado. Ejemplo:
V.- Tecnologías de Apoyo a la Gestión Empresarial.
Procesador de Texto (OFFICE, OPEN OFFICE).
Un procesador de textos es un programa informático para crear,
componer, dar formato, modificar o imprimir documentos. Es el actual sustituto
90
de las máquinas de escribir, aunque con mayor capacidad, ya que pueden
incluirse imágenes y mezclar otros datos. También son conocidos como
procesadores de palabras (de la traducción directa del inglés).
Hay una gran cantidad de diferentes programas, desde muy sencillos hasta
completamente especializados. Se pueden subdividir en dos grupos: lo que tú
ves es lo que recibes (en inglés: WYSIWYG what you see is what you get):
como: Microsoft Word, OpenOffice.org Writer, WordPerfect o aquellos editores
para sólo el contenido y la estructura como LyX.
Obtener un documento impreso con formato suele ser el objetivo de estas
aplicaciones, pero el archivo de texto enriquecido que producen también es útil
como documento electrónico.
Se distinguen de los editores de texto en que los procesadores pueden manejar
texto con formato, imágenes, tablas y otros elementos que acompañan un
documento de texto, mientras los editores sólo manejan archivos de texto plano.
Hojas Electrónicas de Cálculo.
Una hoja de trabajo es un recurso en forma de matriz que se utiliza para
organizar datos numéricos y realizar cómputos con ellos para llevar a cabo
análisis financieros. Puede haber la necesidad de actualizar esos datos numéricos
con cierta regularidad.
Una hoja electrónica de trabajo es un programado que emula en forma
electrónica la hoja de trabajo. Reemplaza los tres instrumentos típicos de trabajo
de un analista financiero: la hoja de trabajo en papel, el lápiz y la calculadora. La
hoja de trabajo es reemplazada por un conjunto de celdas dispuestas en filas y
columnas (matriz) cuyo contenido se guarda en la memoria principal de la
computadora; el lápiz queda reemplazado por el teclado y la unidad de aritmética
y lógica reemplaza la calculadora.
Las hojas electrónicas de trabajo aumentan grandemente la eficiencia, precisión
y productividad del usuario. Una vez la hoja ha sido preparada, se pueden
realizar comparaciones haciendo cambios en ella (qué pasa si...) y recalculando
automáticamente a base de los valores nuevos que han sido entrados. Esto le deja
más tiempo al usuario para realizar decisiones creativas.
Una hoja electrónica es muy útil cuando se utiliza para hacer contabilidad,
gráficos de estadística, facturas, cotizaciones, proporcionalidades, entre otros.
En una hoja de calculo se pueden utilizar funciones, las cuales sirven para hacer
mas fácilmente las labores que cotidianamente es difícil ejecutar. Algunas de
estas funciones y sus tareas que desempeñan son: SUMAR, SUMAR.SI, SI,
FECHA, etc.
Graficadores.
Los graficadores son programas que permiten representar los datos,
agrupados en tablas, mediante graficas de distintos tipos como son: de barras,
91
lineales, circulares, logarítmicas, 3D y otros tipos. Ejemplo de programas que
permiten graficar tablas de datos son: excel, corel, 3d y otros.
Administradores de Bases de Datos.
Los Sistemas Gestores de Bases de Datos son un tipo de software muy
específico, dedicado a servir de interfaz entre la Base de datos y el usuario, las
aplicaciones que la utilizan. Se compone de un lenguaje de definición de datos,
de un lenguaje de manipulación de datos y de un lenguaje de consulta. En los
textos que tratan este tema, o temas relacionados, se mencionan los términos
SGBD y DBMS, siendo ambos equivalentes, y acrónimos, respectivamente, de
Sistema Gestor de Bases de Datos y DataBase Management System, su
expresión inglesa
Generadores de código HTML Y XML (Páginas WEB,
PORTALES).
El HTML, acrónimo inglés de HyperText Markup
Language (lenguaje de marcado de hipertexto), es un lenguaje de marcación
diseñado para estructurar textos y presentarlos en forma de hipertexto, que es el
formato estándar de las páginas web. Gracias a Internet y a los navegadores del
tipo Internet Explorer, Opera, Firefox o Netscape, el HTML se ha convertido en
uno de los formatos más populares que existen para la construcción de
documentos y también de los más fáciles de aprender.
HTML es una aplicación de SGML conforme al estándar internacional
ISO 8879. XHTML es una reformulación de HTML 4 como aplicación XML
1.0, y que supone la base para la evolución estable de este lenguaje. Además
XHTML permite la compatibilidad con los agentes de usuario que ya admitían
HTML 4 siguiendo un conjunto de reglas.
INTERNET (Internet Explorer, Mozilla Firefox, Netscape).
Un navegador web, hojeador o browser es una aplicación software que
permite al usuario recuperar y visualizar documentos de hipertexto, comúnmente
descritos en HTML, desde servidores web de todo el mundo a través de Internet.
Esta red de documentos es denominada World Wide Web (WWW) o Telaraña
Mundial. Los navegadores actuales permiten mostrar o ejecutar: gráficos,
secuencias de vídeo, sonido, animaciones y programas diversos además del texto
y los hipervínculos o enlaces.
La funcionalidad básica de un navegador web es permitir la visualización
de documentos de texto, posiblemente con recursos multimedia incrustados. Los
documentos pueden estar ubicados en la computadora en donde está el usuario,
pero también pueden estar en cualquier otro dispositivo que este conectado a la
computadora del usuario o a través de Internet, y que tenga los recursos
necesarios para la transmisión de los documentos (un software servidor web).
Tales documentos, comúnmente denominados páginas web, poseen
hipervínculos que enlazan una porción de texto o una imagen a otro documento,
normalmente relacionado con el texto o la imagen.
El seguimiento de enlaces de una página a otra, ubicada en cualquier
computadora conectada a la Internet, se llama navegación; que es de donde se
origina el nombre de navegador. Por otro lado, hojeador es una traducción literal
del original en inglés, browser, aunque su uso es minoritario. Otra denominación
92
es explorador web inspirada en uno de los navegadores más populares el
Internet Explorer.
Portales y Tiendas Virtuales (Sitios web).
Un sitio web (en inglés: website) es un conjunto de páginas web,
típicamente comunes a un dominio de Internet o sub dominio en la World Wide
Web en Internet
Hoy en día, hay más de 80 millones de sitios web en el mundo con dominios
registrados. Todos los sitios web públicamente accesibles constituyen una
gigantesca "World Wide Web" de información.
A las páginas de un sitio web se accede desde una URL raíz común llamada
portada, que normalmente reside en el mismo servidor físico. Las URLs
organizan las páginas en una jerarquía, aunque los hiperenlaces entre ellas
controlan cómo el lector percibe la estructura general y cómo el tráfico web
fluye entre las diferentes partes de los sitios.
Hay muchas variedades de sitios web, cada uno especializándose en un tipo
particular de contenido o uso, y puede ser arbitrariamente clasificados de muchas
maneras. Unas pocas clasificaciones pueden incluir:
•
•
•
•
•
•
•
•
•
•
Sitio archivo: usado para preservar contenido electrónico valioso
amenzado con extinción. Dos ejemplos son: Internet Archive, el cual
desde 1996 ha preservado billones de antiguas (y nuevas) páginas web; y
Google Groups, que a principios de 2005 archivaba más de 845.000.000
mensajes expuestos en los grupos de noticias/discusión de Usenet.
Sitio weblog (o blog): sitio usado para registrar lecturas online o para
exponer diarios online; puede incluir foros de discusión. Ejemplos:
blogger, Xanga.
Sitio de empresa: usado para promocionar una empresa o servicio.
Sitio de comercio electrónico: para comprar bienes, como Amazon.com.
Sitio de comunidad virtual: un sitio donde las personas con intereses
similares se comunican con otros, normalmente por chat o foros. Por
ejemplo: MySpace.
Sitio de Base de datos: un sitio donde el uso principal es la búsqueda y
muestra de un contenido específica de la base de datos como la Internet
Movie Database.
Sitio de desarrollo: un sitio el propósito del cual es proporcionar
información y recursos relacionados con el desarrollo de software,
Diseño web, etc.
Sitio directorio: un sitio que contiene contenidos variados que están
divididos en categorías y subcategorías, como el directorio de Yahoo!, el
directorio de Google y el Open Directory Project.
Sitio de descargas: estrictamente usado para descargar contenido
electrónico, como software, demos de juegos o fondos de escritorio.
Sitio de juego: un sitio que es propiamente un juego o un "patio de
recreo" donde mucha gente viene a jugar, como MSN Games, Pogo.com
y los MMORPGs VidaJurasica, Planetarion y Kings of Chaos.
93
•
•
•
•
•
•
•
•
•
•
Sitio de información: contiene contenido que pretende informar a los
visitantes, pero no necesariamente de propósitos comerciales; such as:
RateMyProfessors.com, Free Internet Lexicon and Encyclopedia. La
mayoría de los gobiernos y instituciones educacionales y sin ánimo de
lucro tienen un sitio de información.
Sitio de noticias: Similar a un sitio de información, pero dedicada a
mostrar noticias y comentarios.
Sitio pornográfico (porno): un sitio que muestra imágenes pornográficas
y vídeos.
Sitio buscador: un sitio que proporciona información general y está
pensado como entrada o búsqueda para otros sitios. Un ejemplo puro es
Google, y el tipo de buscador más conocido es Yahoo!.
Sitio shock: incluye imágenes o otro material que tiene la intención de
ser ofensivo a la mayoría de visitantes. Ejemplos: rotten.com,
ratemypoo.com.
Sitio personal: Mantenido por una persona o un pequeño grupo (como
por ejemplo familia) que contiene información o cualquier contenido que
la persona quiere incluir.
Sitio portal: un sitio web que proporciona un punto de inicio, entrada o
portal a otros recursos en Internet o una intranet.
Sitio wiki: un sitio donde los usuarios editan colaborativamente (por
ejemplo: Wikipedia).
Sitio político: un sitio web donde la gente puede manifestar su visión
política. Ejemplo: New Confederacy.
Sitio de Rating: un sitio donde la gente puede alabar o menospreciar lo
que aparece. Ejemplos: ratemycar.com, ratemygun.com, ratemypet.com,
hotornot.com.
Correo Electrónico.
Correo electrónico, o en inglés e-mail, es un servicio de red para
permitir a los usuarios enviar y recibir mensajes mediante sistemas de
comunicación electrónicos (normalmente por Internet). Esto lo hace muy útil
comparado con el correo ordinario, pues es más barato y rápido. Junto con los
mensajes también pueden ser enviados ficheros como paquetes adjuntos.
pertenece siempre a la
misma persona.
Dirección de correo. Una
dirección de correo
electrónico es un conjunto de
palabras que identifican a
una persona que puede
enviar y recibir correo. Cada
dirección es única y
Un ejemplo es [email protected], que se lee perico arroba palotes punto
com. El signo @ (llamado arroba) siempre está en cada dirección de correo, y la
divide en dos partes: el nombre de usuario (a la izquierda de la arroba; en este
caso, perico), y el dominio en el que está (lo de la derecha de la arroba; en este
caso, palotes.com). La arroba también se puede leer "en", ya que
94
[email protected] identifica al usuario perico que está en el servidor
palotes.com (indica una relación de pertenencia).
Una dirección de correo se reconoce fácilmente porque siempre tiene la @; en
cambio, una dirección de página web no. Por ejemplo, mientras que
http://www.palotes.com/ puede ser una página web en donde hay información
(como en un libro), [email protected] es la dirección de un correo: un buzón a
donde se puede escribir.
Lo que hay a la derecha de la arroba es precisamente el nombre del proveedor
que da el correo, y por tanto es algo que el usuario no puede cambiar. Por otro
lado, lo que hay la izquierda normalmente sí que lo elige el usuario, y es un
identificador cualquiera, que puede tener letras, números, y algunos signos.
Normalmente se eligen direcciones fáciles de memorizar -si es posible- ya que es
común apuntar o decirle a alguien la dirección de correo propia para que pueda
escribirnos, y hay que darla de forma exacta, letra por letra. Un solo error hará
que no lleguen los mensajes al destino.
Proveedor de correo. Para poder usar enviar y recibir correo electrónico,
generalmente hay que estar registrado en alguna empresa que ofrezca
este servicio (gratuita o de pago). El registro permite tener una dirección
de correo personal única y duradera, a la que se puede acceder mediante
un nombre de usuario y una contraseña. Hay varios tipos de proveedores
de correo, que se diferencian sobre todo por la calidad del servicio que
ofrecen. Básicamente, se pueden dividir en dos tipos: los correos
gratuitos y los de pago.
Agenda Electrónica.
La agenda de papel ya se ha quedado rezagada con respecto al avance
electrónico moderno. Las agendas electrónicas son equipos que permiten
consultar números de teléfonos y direcciones, hacer operaciones con su
calculadora, convertir monedas e incluso descargar aplicaciones desde su
ordenador o Internet.
Posibilidad de conexión con el PC. Permite al usuario transferir la
información de la agenda a la computadora y viceversa. De esta manera, si la
agenda sufre algún desperfecto o se pierde, la información se encontrará a salvo
en el ordenador (direcciones, eventos, etc.). Tenga en cuenta que el cable que
permite esta conexión no siempre está incluido dentro del precio.
Posibilidad de conexión a Internet. Los nuevos organizadores digitales
hacen posible la navegación por Internet. La única limitación es que, de
momento, sólo pueden hacerlo con la escasa velocidad de la red GCM, por lo
cual la consulta puede verse muy ralentizada. Este tipo de agendas es adecuada
para aquellas personas que trabajan mucho tiempo fuera de la oficina, ya que
permiten la consulta del correo electrónico.
Capacidad de memoria. Determina la cantidad de datos que puede
almacenar el aparato. A modo comparativo 8MB de memoria permiten
almacenar hasta 10.000 direcciones. El precio irá incrementando en función de
esta capacidad de memoria. Cada comprador, en función de sus necesidades,
debe buscar un equilibrio entre el precio y la posibilidades de trabajo que ofrece
95
una
agenda
con
mayor
capacidad.
Calidad de la pantalla. Es conveniente que posea una pantalla de fondo
luminoso que permita acceder a las distintas funciones a través de un menú
táctil.
Reconocimiento de la escritura. La agenda puede contar con un lápiz
especial para escribir en la pantalla de manera que su uso sea más cómodo y
ventajoso.
Posibilidad de utilizar un teclado. Con el teclado, el uso de la agenda
resultará más práctico. Si su usuario suele escribir habitualmente, el teclado
facilitará
su
trabajo
al
mismo
tiempo
que
lo
acelera.
Tamaño y peso. Todas estas funciones deben concentrarse es un aparato
que un tamaño y peso reducido. Es conveniente que la agenda electrónica no
pese
más
de
200
gramos.
Facilidad de manejo. La agenda debe permitir un acceso a los diferentes
menús de forma cómoda, efectuar anotaciones de forma rápida o la posibilidad
de ver de un solo vistazo la planificación.
Clave de acceso. Con una clave de acceso, la información que contenga
la agenda está protegida en caso de pérdida o robo. de toda la jornada. Todas
estas funciones garantizan la funcionalidad del aparato.
Archivo Electrónico. Características de un sistema de archivo
electrónico de última generación:
1. Es una solución integrada, capaz de gestionar papel, documentos
electrónicos y documentos multimedia que integre el proceso de
reconocimiento óptico de caracteres (OCR) y el escaner como un solo
producto, compacto que no requiera desarrollos añadidos.
2. Indexa automáticamente la totalidad del contenido de los documentos,
mediante el reconocimiento adaptativo de patrones de dígitos binarios,
que corresponden a cada palabra, trozo de palabra o frase del contenido
del documento, sobre una estructura de REDES NEURONALES; sin
requerir ninguna intervención externa.
3. Los índices generados son muy pequeños, de manera que índices y textos
están disponibles en disco magnético pudiendo gestionar grandes
volúmenes de información con independencia de donde residan los datos.
4. Integra un interface a las bases de datos relacionales más extendidas del
mercado: Oracle, Informix...
5. La relación entre la imagen de un documento, el texto del documento
generado por el OCR y la base de datos relacional asociada al documento
es automática y dinámica.
6. Puede buscar por texto libre con gran velocidad y tolerancia a fallosBÚSQUEDA DIFUSA-de manera que los textos generados por el OCR
no requieran limpieza manual. La búsqueda difusa permite que los
errores de un operador o el desconocimiento de la ortografía correcta de
una palabra (sea el caso de un tecnicismo o un apellido extranjero) no
resulten fatalmente determinantes.
El potente grado de automatización de estos sistemas nos reporta un gran
incremento de productividad, ya que los datos están disponibles para su
recuperación a la vez que son introducidos al sistema.
96
Con sistema de esta naturaleza se abre un nuevo horizonte al deseo, hasta
ahora insatisfecho, de la automatización completa de la gestión documental; y
más teniendo en cuenta que esta nueva generación de tecnología a dado
recientemente su primer fruto como producto ya presente en el mercado.
Seguridad y Control de Redes de Computadoras.
El término "redes de computadoras" puede referirse tanto a dos
computadoras conectadas entre si, como a Redes de Área Local (LANs), y hasta
a la propia Internet - la "red de redes".
Las redes pueden ayudar para que las organizaciones trabajen en colaboración
mediante el intercambio de información, y también pueden permitir que
compartan recursos como las impresoras. La seguridad y la privacidad en línea
debería ser una preocupación de todo usuario de Internet. Si su organización
opera una red o un servidor Internet, mecanismos confiables de seguridad como
"firewalls" (cortafuegos) son esenciales.
Los principales ataques a los sistemas provienen de la red. Proteger la
misma de intrusiones no deseadas es, por tanto, uno de los objetivos prioritarios
que un administrador debe proponerse. Lista de temas que debes tener en cuenta
a la hora de proteger tu red.
Seguridad en Redes IP: Windows IP Security, del Internet Engineering Task
Force, proporciona a los administradores de redes un elemento estratégico de
defensa
para
la
protección
de
sus
redes.
Firewalls / Proxys: Descubre como mejorar el funcionamiento y la seguridad de
tu
red
a
través
de
estos
dispositivos.
Servicios de Autentificación en Redes: Infórmate de las formas de
autentificación de un usuario en Red. Y de cómo utilizar .NET Passport para
autentificarse
en
Internet.
Seguridad en .NET: Descubre los pilares básicos de seguridad que incorpora
.NET Framework.
VI.- El ambiente Multimedia y la Era Digital.
Procesamiento de Voz.
La importancia que siempre ha tenido la voz en el proceso de
comunicación humana se ve, en nuestros días, incrementada por el rápido avance
tecnológico. La enorme cantidad de posibilidades que la tecnología digital,
basada en el desarrollo de microprocesadores cada vez más potentes, ofrece,
hace que las aplicaciones de procesamiento digital de señales se multipliquen.
Entre estas aplicaciones, las que involucran señales de voz han permitido
disponer de un conjunto de servicios que hasta hace algunos años eran
impensables. Redes de integración de voz y datos, diálogo hombre-máquina,
síntesis a partir de texto, identificación/verificación de locutores, son algunos
ejemplos de los logros alcanzados por el procesado digital de señales de voz.
Procesamiento de Imagen.
97
Procesamiento de imágenes es el término usado para denominar las
operaciones desarrolladas sobre un set de datos de imagen para mejorarlas de
alguna forma, para ayudar a su interpretación o para extraer algún tipo de
información útil de ella. Es obvio que el procesamiento de imágenes no puede
producir información a partir de nada. Si en el set de datos no existe información
concerniente a una aplicación o interpretación en particular, entonces no importa
que cantidad de complicadas rutinas de procesamiento apliquemos, no se podrá
obtener información. Es de gran importancia tener en cuenta que lo que estamos
observando es una representación gráfica de números, de igual forma
podríamos representar los datos de satélite en forma de tabla.
Los datos satélitales, dependiéndo de su tamaño pueden venir en CCT
(Computer Compatible Tape), cintas de 8 o 4 mm (DAT), CDROM o
descargarse por FTP (File Transfer Protocol, el cual corre en protocolo TCP/IP).
El medio a seleccionar dependerá del tamaño del archivo usado y la frecuencia
de acceso a dichos datos. Si los datos serán usados con frecuencia un CDROM
es lo más conveniente, pero si serán archivados como base de datos histórica, la
elección se inclina hacia las cintas.
La digitalización deja los datos con un formato adecuado para su
manipulación por parte del computador. Éstos pueden ser ahora transformados
en cualquier función matemática elegida. Cada sistema de procesamiento de
imágenes tiene su propio software asociado, cada uno desarrollando una tarea
diferente. La secuencia de tareas aplicadas a una imagen se denomina como
procesamiento de imágenes, la cual puede variar dependiendo de las metas que
se tengan en vista. A continuación se da una lista de técnicas básicas actualmente
usadas en procesamiento de imágenes.
Procesamiento de Sonido.
Los aparatos procesadores utilizan un sonido, recogido mediante
micrófono o sintetizado, y lo transforman en otro. Para ello existen en el
mercado los aparatos de efectos, cada uno de los cuales está especializado en un
solo tipo de proceso. Sin embargo, es más sencillo centrarse en los métodos más
que en los aparatos concretos, ya que actualmente aparecen nuevos dispositivos
que incluyen varios procesadores y además se empieza a extender el uso del
ordenador para este fin.
La palabra MIDI es un acrónimo de Musical Instrument Digital Interface,
lenguaje estándar que permite la comunicación entre diversos tipos de
instrumentos electrónicos, como sintetizadores, cajas de ritmos, ordenadores,
etc. aunque no sean del mismo fabricante. Hasta su aparición, en 1983, cada
sistema utilizaba un microprocesador diferente y un lenguaje distinto, con lo que
la comunicación entre los instrumentos era imposible.
Firmas Electrónicas y certificados digitales.
La firma digital de un documento es el resultado de aplicar cierto
algoritmo matemático, denominado función hash, al contenido. Esta función
asocia un valor dentro de un conjunto finito (generalmente los números
naturales) a su entrada. Cuando la entrada es un documento, el resultado de la
función es un número que identifica casi unívocamente al texto. Si se adjunta
este número al texto, el destinatario puede aplicar de nuevo la función y
comprobar su resultado con el que ha recibido. No obstante esto presenta
algunas dificultades.
98
Para que sea de utilidad, la función hash debe satisfacer dos importantes
requisitos. Primero, debe ser difícil encontrar dos documentos cuyo valor para la
función "hash" sea idéntico. Segundo, dado uno de estos valores, debería ser
difícil recuperar el documento que lo produjo.
Algunos sistemas de cifrado de clave pública se pueden usar para firmar
documentos. El firmante cifra el documento con su clave privada y cualquiera
que quiera comprobar la firma y ver el documento, no tiene más que usar la
clave pública del firmante para descifrarla.
Existen funciones "hash" específicamente designadas para satisfacer estas dos
importantes propiedades. SHA y MD5 son dos ejemplos de este tipo de
algoritmos. Para usarlos un documento se firma con una función "hash", cuyo
resultado es la firma. Otra persona puede comprobar la firma aplicando la misma
función a su copia del documento y comparando el resultado con el del
documento original. Si concuerdan, es casi seguro que los documentos son
idénticos.
Claro que el problema está en usar una función "hash" para firmas
digitales que no permita que un "atacante" interfiera en la comprobación de la
firma. Si el documento y la firma se enviaran descifrados, este individuo podría
modificar el documento y generar una firma correspondiente sin que lo supiera
el destinatario. Si sólo se cifrara el documento, un atacante podría manipular la
firma y hacer que la comprobación de ésta fallara. Una tercera opción es usar un
sistema de cifrado híbrido para cifrar tanto la firma como el documento. El
firmante usa su clave privada, y cualquiera puede usar su clave pública para
comprobar la firma y el documento. Esto suena bien, pero en realidad no tiene
sentido. Si este algoritmo hiciera el documento seguro también lo aseguraría de
manipulaciones, y no habría necesidad de firmarlo. El problema más serio es que
esto no protege de manipulaciones ni a la firma, ni al documento. Con este
método, sólo la clave de sesión del sistema de cifrado simétrico es cifrada
usando la clave privada del firmante. Cualquiera puede usar la clave pública y
recuperar la clave de sesión. Por lo tanto, resulta obvio usarla para cifrar
documentos substitutos y firmas para enviarlas a terceros en nombre del
remitente.
Un algoritmo efectivo debe hacer uso de un sistema de clave pública para
cifrar sólo la firma. En particular, el valor "hash" se cifra mediante el uso de la
clave privada del firmante, de modo que cualquiera pueda comprobar la firma
usando la clave pública correspondiente. El documento firmado se puede enviar
usando cualquier otro algoritmo de cifrado, o incluso ninguno si es un
documento público. Si el documento se modifica, la comprobación de la firma
fallará, pero esto es precisamente lo que la verificación se supone que debe
descubrir.
El Mundo Futuro y la digitalización de los Procesos.
Debemos entender la revolución tecnológica como una evolución que
sigue un patrón recurrente que se ha repetido a lo largo de la historia. Nos
encontramos en un período entre eras, en el que se pone en duda la continuidad
del comercio electrónico, cuando aún está en su inicio.
Para ver cómo se
99
estructura la realidad del negocio electrónico (e-business) en nuestros días dentro
y fuera de la empresa, aplicaremos conceptos económicos, como el ciclo boombust y los procesos de adopción, y veremos que los ciclos tecnológicos se
suceden con mucha rapidez, lo que requiere una gestión creativa de los procesos.
En el ámbito de las pymes, la digitalización de las empresas acaba de empezar.
La dificultad de digitalizar entornos como el B2B es debida a la complejidad de
los procesos que lo conforman –no a la tecnología, que tiene capacidad
adaptativa– y a nuestra incapacidad para entender la complejidad.
La clave de la digitalización dentro de la empresa es la integración
interna de todas las partes que conforman el negocio electrónico, y la integración
entre múltiples canales fuera de la empresa. Es necesario, pues, un modelo
empresarial que mediante la innovación busque vínculos que enlacen,
sincronicen y completen todo el proceso, a la vez que lo hagan eficaz. La mala
ejecución de las estrategias también es un punto débil en el ámbito del negocio
electrónico, ya que se tiende a tener una visión del proceso que no corresponde
con la realidad y a olvidar la ejecución de estrategias medianas. Sin embargo, los
cambios estructurales no cesarán y esto es sólo el inicio de un nuevo período que
debemos afrontar con una nueva mentalidad.
El Comercio Electrónico e-Commerce.
El comercio electrónico consiste en la compra, venta, marketing y
suministro de información complementaria para productos o servicios a través de
redes informáticas. La industria de la tecnología de la información podría verlo
como una aplicación informática dirigida a realizar transacciones comerciales.
Una definición alternativa la vería como la conducción de comunicaciones de
negocios comerciales y su dirección a través de métodos electrónicos como
intercambio electrónico de datos y sistemas automáticos de recolección de datos.
El comercio electrónico también incluye la transferencia de información entre
empresas (EDI).
El significado del término "comercio electrónico" ha cambiado a lo largo
del tiempo. Originariamente, "comercio electrónico" significaba la facilitación
de transacciones comerciales electrónicamente, normalmente utilizando
tecnología como la Electronic Data Interchange (EDI, presentada finales de los
años 70) para enviar electrónicamente documentos como pedidos de compra o
facturas.
Más tarde pasó a incluir actividades más precisamente denominadas "Comercio
en la red" -- la compra de bienes y servicios a través de la World Wide Web vía
servidores seguros (véase HTTPS, un protocolo de servidor especial que encripta
la realización confidencial de pedidos para la protección de los consumidores y
los datos de la organización) con tarjetas de compra electrónica y con servicios
de pago electrónico como autorizaciones para tarjeta de crédito.
Se diferencia al comercio electrónico directo (que, por referirse a bienes
o servicios digitales, se concerta y ejecuta completamente por vía informática)
del indirecto (referido a bienes o servicios físicos que aun cuando permitan una
celebración por medios tecnológicos, requieren del medio físico tradicional para
su cumplimiento). También se suele categorizar en comercio electrónico de
100
empresa a empresa (B2B), de empresa a consumidor (B2C), de consumidor a
consumidor (C2C) o entre empresa y Gobierno (B2G).
VII.- Los Sistemas de Información Gerenciales Digitalizados.
Estructura de los Sistemas Inteligentes. (Edificios Inteligentes).
Definición. Por lo difícil de dar con exactitud una definición sobre un edificio inteligente,
se citarán diferentes conceptos, de acuerdo a la compañía, institución o profesional que
la enuncia:
-Intelligent Building Institute (IBI), Washington, D.C., E.U.
Un edificio inteligente es aquel que proporciona un ambiente de trabajo productivo y
eficiente a través de la optimización de sus cuatro elementos básicos: estructura,
sistemas, servicios y administración, con las interrelaciones entre ellos. Los edificios
inteligentes ayudan a los propietarios, operadores y ocupantes, a realizar sus
propósitos en términos de costo, confort, comodidad, seguridad, flexibilidad y
comercialización.
-Compañía HoneywelI, S.A. de C. V., México, D.F.
Se considera como edificio inteligente aquél que posee un diseño adecuado que
maximiza la funcionalidad y eficiencia en favor de los ocupantes, permitiendo la
incorporación y/o modificación de los elementos necesarios para el desarrollo de la
actividad cotidiana, con la finalidad de lograr un costo mínimo de ocupación, extender
su ciclo de vida y garantizar una mayor productividad estimulada por un ambiente de
máximo confort.
-Compañía AT&T, S.A. de C.V., México, D.F.
Un edificio es inteligente cuando las capacidades necesarias para lograr que el costo
de un ciclo de vida sea el óptimo en ocupación e incremento de la productividad, sean
inherentes en el diseño y administración del edificio.
Para nosotros, un edificio inteligente aquél cuya regularización, supervisión y
control del conjunto de las instalaciones eléctrica, de seguridad, informática y
transporte, entre otras, se realizan en forma integrada y automatizada, con la finalidad
de lograr una mayor eficacia operativa y, al mismo tiempo, un mayor confort y
seguridad para el usuario, al satisfacer sus requerimientos presentes y futuros. Esto
sería posible mediante un diseño arquitectónico totalmente funcional, modular y
flexible, que garantice una mayor estimulación en el trabajo y, por consiguiente, una
mayor producción laboral.
Los objetivos o finalidad de un edificio inteligente, son los siguientes:
a) Satisfacer las necesidades presentes y futuras de los ocupantes,
propietarios y operadores del edificio.
b) La flexibilidad, tanto en la estructura como en los sistemas y
servicios.
c) El diseño arquitectónico adecuado y correcto.
d) La funcionalidad del edificio.
101
e) La modularidad de la estructura e instalaciones del edificio.
f) Mayor confort para el usuario.
g) La no interrupción del trabajo de terceros en los cambios o
modificaciones.
h) El incremento de la seguridad.
i) El incremento de la estimulación en el trabajo.
j) La humanización de la oficina.
Tecnológicos
a) La disponibilidad de medios técnicos avanzados de
telecomunicaciones.
b) La automatización de las instalaciones.
c) La integración de servicios
Ambientales
a) La creación de un edificio saludable.
b)El ahorro energético.
c) El cuidado del medio ambiente.
Económicos
a) La reducción de los altos costos de operación y mantenimiento.
b) Beneficios económicos para la cartera del cliente.
c) Incremento de la vida útil del edificio.
d) La posibilidad de cobrar precios más altos por la renta o venta de
espacios.
e) La relación costo-beneficio.
f) El incremento del prestigio de la compañía.
INFRAESTRUCTURA DEL SISTEMA INTELIGENTE.
a) La estructura del edificio. Todo lo que se refiere a la estructura y
diseño arquitectónico, incluyendo los acabados y mobiliario. Entre sus
componentes están: la altura de losa a losa, la utilización de pisos
elevados y plafones registrables, cancelería, ductos y registros para las
instalaciones, tratamiento de fachadas, utilización de materiales a
prueba de fuego, acabados, mobiliario y ductos para cableado y
electricidad.
b) Los sistemas del edificio. Son todas las instalaciones que integran
un edificio. Entre sus componentes están: aire acondicionado,
calefacción y ventilación, energía eléctrica e iluminación, controladores
y cableado, elevadores y escaleras mecánicas, seguridad y control de
102
acceso, seguridad contra incendios y humo, telecomunicaciones,
instalaciones hidráulicas, sanitarias y seguridad contra inundación.
c) Los servicios del edificio. Como su nombre lo indica, son los
servicios o facilidades que ofrecerá el edificio. Entre sus componentes
están: comunicaciones de video, voz y datos; automatización de
oficinas; salas de juntas y cómputo compartidas; área de fax y
fotocopiado; correo electrónico y de voz; seguridad por medio del
personal; limpieza; estacionamiento; escritorio de información en el
lobby o directorio del edificio; facilidad en el cambio de teléfonos y
equipos de computación; centro de conferencias y auditorio
compartidos, y videoconferencias.
d) La administración del edificio. Se refiere a todo lo que tiene que
ver con la operación del mismo. Entre sus variables están:
mantenimiento, administración de inventarios, reportes de energía y
eficiencia, análisis de tendencias, administración y mantenimiento de
servicios y sistemas. La optimización de cada uno de estos elementos
y la interrelación o coordinación entre sí, es lo que determinará la
inteligencia del edificio.
Sistemas de Control y Seguridad Digitalizados.
La seguridad está dada por la prevención, detección y solución de accidentes o
imprevistos. Para prevenir y evitar pérdidas y acciones hostiles, cada vez más
complejos sistemas de control de los accesos integran desde identificación por
sofisticadas tecnologías biométricas hasta los casos más novedosos de control de
entrada y salida, tanto peatonal como vehicular, con habilitación a través de una tarjeta
de proximidad, de utilización obligatoria para empleados y visitantes, para registrar los
movimientos de las personas en el interior del edificio, en combinación con los demás
sistemas
del
mismo.
En algunos casos, hay códigos de accesos a todas las puertas internas, para evitar
intrusos en caso de robos o extravíos de las tarjetas, y un circuito cerrado de televisión
(CCTV), que mediante un registro en cinta o completamente digital, permite almacenar
las
grabaciones
durante
un
mínimo
de
15
días.
También se monitorean los sensores de flujos luminosos con medición permanente del
nivel de iluminación, que según sea el ingreso de luz natural, accionan los atenuadores
de luz (dimmers) de todo el edificio, haciendo que se apaguen o se atenúen las que no
son necesarias, y en algunos casos ¡hasta se las puede gobernar mediante una orden
verbal.
En todos los sistemas puede programarse que se realicen determinados llamados
telefónicos para alertar de la ocurrencia de algún evento peligroso o que al entrar en
cada departamento se identifique al dueño, desactive el sistema de seguridad y
establezca la iluminación seleccionada.
Además puede aprovecharse la red interna del sistema para que provea acceso a los
servicios de Internet de alta velocidad, videotelefonía, vídeo bajo demanda,
videoconferencia, tele trabajo y trabajo cooperativo.
Fraude y Violaciones a la Seguridad.
Estos conceptos manejados por fabricantes y especialistas tienen diferentes nombres:
103
Agujero de seguridad.Es un error en el sistema operativo o alguna aplicación que pone en riesgo la seguridad
del equipo.
Adware.Es un programa que se instala en la PC y abre ventanas con contenido publicitario pero
también puede robar información.
Alias.Es el nombre alternativo que puede tener un virus, por lo general estos tienen
diferentes alias.
ActiveX.Son pequeños programas que tienen funciones específicas y pueden ser usados como
componentes independientes y de estos se han descubierto vulnerabilidades que han
sido usadas por virus y gusanos para su reproducción.
Bulos o hoaxes.Es un mensaje que te alerta sobre un virus que no existe.
Backdoor.Así se le llama al troyano que instala una puerta trasera (backdoor) para abrir paso a
los intrusos y tomar el control de una PC infectada.
Bots.Programas que se instalan automáticamente para tener el control de la PC.
Firewall.Programa o dispositivo que analiza los datos que entran y salen del equipo para
protegerlo de virus.
Keyloggers.Son programas que tienen un registro de las teclas presionadas por el usuario.
(comúnmente son usados por delincuentes para fraudes u obtener información
confidencial).
Parche.Son actualizaciones (updates) que solucionan problemas como agujeros de seguridad
en sistemas operativos o aplicaciones.
Phishing.Son ganchos que se valen de distribuir mensajes de correo invitando a acceder a sitios
falsos para obtener información confidencial.
Scam.Son mensajes que se usan con el fin de convencer a los usuarios de realizar ayuda de
carácter social por medio de donativos.
Spyware.Es un programa que se instala en la PC y crea una línea de comunicación que permite
al atacante obtener datos confidenciales del usuario (passwords, números de tarjetas,
etc.)
WebBugs.El término significa pequeños micrófonos de espionaje.
Por supuesto en el medio de la tecnología estos son solo algunos de los términos
104
utilizados, hay muchos más pero lo importante es conocerlos para estar siempre
actualizado y protegido.
105

Documentos relacionados