Historia de la Computación - Grupo de Geomorfología

Transcripción

Historia de la Computación - Grupo de Geomorfología
La información contenida en este fichero ha sido extraida de la hoja web:
http://www-etsi2.ugr.es/alumnos/mlii/
Convertido de html a pdf por Miguel Angel Sanz
(Licencia Adobe - Universidad Complutense)
Historia de la
Computación
Prehistoria
Era
Mecánica
Primera
Generación
Segunda
Generación
Tercera
Generación
Cuarta
Generación
La Prehistoria
La Computación, y por tanto, las Ciencias de la Computación, tienen su origen en
el cálculo, es decir, en la preocupación del ser humano por encontrar maneras de
realizar operaciones matemáticas de forma cada vez más rápida y más fácilmente.
Pronto se vio que con ayuda de aparatos y máquinas las operaciones podían
realizarse de forma más rápida y automática.
El primer ejemplo que encontramos en la historia es el ábaco, aparecido hacia el
500 AC en Oriente Próximo, que servía para agilizar las operaciones aritméticas
básicas, y que se extendió a China y Japón, siendo descubierto mucho más tarde
por Europa.
También es digno de señalar el conocido Mecanismo de Antikythera, recuperado
en 1900, construido alrededor del año 80 a.C., en la isla griega de Rodas, ubicada
en el mar Egeo. Era un artefacto de cálculo astronómico con mecanismos de
precisión. El usuario, por medio de una perilla, podía accionar un simulador en
miniatura del movimiento del sol, la luna y varios planetas, teniendo a la vista la
fecha en que se había dado, o se daría, tal combinación. Es tanta su sofisticación
que ha sido llamado la primera computadora de Occidente.
Por otra parte, los matemáticos hindúe s, árabes y europeos fueron los primeros
que desarrollaron técnicas de cálculo escrito. El matemático árabe Al'Khwarizmi,
alrededor del año 830 DC, escribe un libro de Aritmética, traducido al latín como
Algoritmi de numero Indorum, donde introduce el sistema numérico indio (sólo
conocido por los árabes unos 50 años antes) y los métodos para calcular con él. De
esta versión latina proviene la palabra algoritmo.
La Era Mecánica
A finales del siglo XVI y comienzos del XVII comienza lo que denominamos Era
Mecánica, en la que se intenta que aparatos mecánicos realicen operaciones
matemáticas de forma prácticamente automática. En 1610, John Napier (15501617), inventor de los logaritmos, desarrolló las Varillas de Napier, que servían
para simplificar la multiplicación. En 1641, el matemático y filósofo francés Blaise
Pascal (1623-1662), con tan sólo 19 años, construyó una máquina mecánica para
realizar adiciones, la Pascalina, para ayudar a su padre. Por su parte, Gottfried
Wilhelm Leibniz (1646-1716) propuso el sistema binario para realizar los cálculos,
construyendo una máquina que podía multiplicar, en incluso teóricamente,
realizar las cuatro operaciones aritméticas. Sin embargo, la tecnología disponible
le imposibilita la realización de las operaciones con exactitud. No obstante un
estudiante alemán de la Universidad de Tubingen, Wilhelm Schickard (1592-1635)
ya había construido una máquina de estas características entre 1623 y 1624, de la
que hace unas breves descripciones en dos cartas dirigidas a Johannes Kepler. Por
desgracia, al menos una de las máquinas quedó destruida en un incendio, y el
propio Schickard murió poco después, víctima de la peste bubónica.
Los trabajos de Pascal y Leibniz tuvieron su continuación en 1727, cuando Jacob
Leupold propuso algunas mejoras sobre el mecanismo de Leibniz. En 1777,
Charles Mahon (1753-1816), Conde de Stanhope, construyó una máquina
aritmética y otra lógica, esta última llamada Demostrador de Stanhope. En 1825, el
francés Charles Xavier Thomas de Colmar diseña una máquina calculadora que
posteriormente consigue comercializar con éxito.
Una mención muy especial requiere el desarrollo de un telar automático por el
francés Joseph Jacquard (1752-1834), en 1801. En efecto, analizando las
operaciones repetitivas que requería la producción de telas, este inventor imaginó
conservar la información repetitiva necesaria bajo la forma de perforaciones en
tarjetas. Estas perforaciones eran detectadas mecánicamente, asegurando el
desplazamiento adecuado de las guías del hilado, pudiendo una sola persona tejer
complicados patrones codificados en las perforaciones de las tarjetas.
Fue Charles Babbage (1791-18171) el que diseñó una verdadera máquina
procesadora de información, capaz de autocontrolar su funcionamiento.
Desesperado por los errores contenidos en las tablas numéricas de la época y
dándose cuenta de que la mayoría de los cálculos consistían en tediosas
operaciones repetitivas, este profesor de la Universidad de Cambridge, proyecta e
inicia la construcción de un nuevo tipo de calculadora. En 1821 presentó a la Royal
Society una máquina capaz de resolver ecuaciones polinómicas mediante el cálculo
de diferencias sucesivas entre conjuntos de números, llamada Máquina
Diferencial. Obtuvo por ello la medalla de oro de la Sociedad en 1822.
Más tarde, Babbage empezó a trabajar en la Máquina Analítica, en cuya
concepción colaboró directamente Ada Augusta Byron, Condesa de Lovelace, hija
de Lord Byron. El objetivo perseguido era obtener una máquina calculadora de
propósito general, controlada por una secuencia de instrucciones, con una unidad
de proceso, una memoria central, facilidades de entrada y salida de datos, y
posibilidades de control paso a paso, es decir, lo que hoy conocemos como
programa. Ada Lovelace, a quien se reconoce como la primera programadora de
la historia, y en honor de quien se puso el nombre de Ada al conocido lenguaje de
programación, ayudó a Babbage económicamente, vendiendo todas sus joyas, y
escribió artículos y programas para la referida máquina, algunos de ellos sobre
juegos. Sin embargo, este proyecto tampoco pudo realizarse por razones
económicas y tecnológicas.
En el 1854, George Boole publica Las leyes del pensamiento sobre las cuales son
basadas las teorías matemáticas de Lógica y Probabilidad. Boole aproximó la
lógica en una nueva dirección reduciéndola a una álgebra simple, incorporando
lógica en las matemáticas. Comenzaba el álgebra de la lógica llamada Algebra
Booleana. Su álgebra consiste en un método para resolver problemas de lógica que
recurre solamente a los valores binarios 1 y 0 y a tres operadores: AND (y), OR (o)
y NOT (no).
La Primera Generación (electromecánicos y electrónicos de tubos de
vacío)
Para tabular el censo de 1890, el gobierno de Estados Unidos estimó que se
invertirían alrededor de diez años. Un poco antes, Herman Hollerith (1860-1929),
había desarrollado un sistema de tarjetas perforadas eléctrico y basado en la lógica
de Boole, aplicándolo a una máquina tabuladora de su invención. La máquina de
Hollerith se usó para tabular el censo de aquel año, durando el proceso total no
más de dos años y medio. Así, en 1896, Hollerith crea la Tabulating Machine
Company con la que pretendía comercializar su máquina. La fusión de esta
empresa con otras dos, dio lugar, en 1924, a la International Business Machines
Corporation (IBM).
Sin embargo, en el censo de 1910, el sistema de Hollerith fue sustituido por uno
desarrollado por James Powers . En 1911 James Powers constituyó la Power's
Tabulating Machine Company, convirtiéndose en el principal competidor de
Hollerith.
En 1900, en el Congreso Internacional de Matemáticas de París, David Hilbert
(1862-1943) pronunció una conferencia de título Problemas matemáticos, en la que
proponía una lista de 23 problemas que estaban sin resolver (algunos todavía lo
están).
Dos de estas cuestiones fueron: ¿es la matemática completa?, es decir, ¿puede ser
demostrada o refutada cualquier sentencia matemática? y ¿es la matemática
consistente?, es decir, ¿es cierto que sentencias tales como 0 = 1 no pueden
demostrarse por métodos válidos?. En 1931, Kurt Gödel (1906-1978) fue capaz de
responder a estas dos preguntas, demostrando que cualquier sistema formal
suficientemente potente es inconsistente o incompleto.
Otra de las cuestiones era: ¿son las matemáticas decidibles? es decir, ¿hay un
método definido que pueda aplicarse a cualquier sentencia matemática y que nos
diga si esa sentencia es cierta o no?. Esta cuestión recibió el nombre de
enstcheidungsproblem.
En 1936, Alan Turing (1912-1954) contestó a esta cuestión en el artículo On
Computable Numbers. Para resolver la cuestión Turing construyó un modelo
formal de computador, la Máquina de Turing, y demostró que había problemas
tales que una máquina no podía resolver. Al mismo tiempo en Estados Unidos
contestaba a la misma cuestión Alonzo Chuch, basándose en una notación formal,
que denominó cálculo lambda, para transformar todas las fórmulas matemáticas a
una forma estándar. Basándose en estos resultados, entre 1936 y 1941, el ingeniero
alemán Konrad Zuse (1910-1957), diseñó y construyó su serie de computadores
electromecánicos binarios, desde el Z1 hasta el Z3. Sin embargo estos
computadores no tuvieron mucha difusión, ni siquiera dentro de su país, ya que el
gobierno nazi nunca confió en los trabajos de Zuse.
En 1938, Claude Shannon (1916- ) demostró cómo las operaciones booleanas
elementales, se podían representar mediante circuitos conmutadores eléctricos, y
cómo la combinación de circuitos podía representar operaciones aritméticas y
lógicas complejas. Además demostró como el álgebra de Boole se podía utilizar
para simplificar circuitos conmutadores. El enlace entre lógica y electrónica estaba
establecido.
Al desencadenarse la Segunda Guerra Mundial, la necesidad de realizar
complicados cálculos balísticos y la exigencia de descodificar los mensajes cifrados
del otro bando, impulsó el desarrollo de los computadores electrónicos de
propósito general. El propio Turing fue reclutado en Bletchley Park, en Inglaterra,
para descifrar los mensajes que encriptaba la máquina alemana Enigma, para lo
que fue necesario construir la computadora Colossus .
En la Universidad de Harvard, Howard Aiken (1900-1973) en colaboración con
IBM, empezó, en 1939, la construcción del computador electromecánico Mark I, en
la que trabajó como programadora Grace Murray Hopper. Pero para cuando se
terminó en 1944, ya habían aparecido las primeras computadoras totalmente
electrónicas, que eran mucho más rápidas.
Por otro lado, en la Universidad del Estado de Iowa, entre 1937 y 1942, John
Vincent Atanasoff (1903-1995) y Clifford Berry, diseñaron y construyeron la ABC
(Atanasoff-Berry Computer). Terminada en 1942, fue la primera computadora
electrónica digital, aunque sin buenos resultados y nunca fue mejorada. En 1941,
John W. Mauchly (1907-1980) visitó a Atanasoff y observó de cerca su
impresionante maquinaria, teniendo la oportunidad de revisar su tecnología. Más
tarde, Mauchly y J. Presper Eckert, Jr (1919-1995), diseñaron y construyeron,
entre los años 1943 y 1946, el computador eléctrico de propósito general ENIAC.
Existe una gran controversia respecto a que Mauchly copiara muchas de las ideas
y conceptos del profesor Atanasoff, para construir la computadora ENIAC. En
cualquier caso en las últimas fases de su diseño y construcción aparece la
importante figura de John Von Neumann (1903-1957), que actúa como consultor.
Von Neumann escribió en 1946, en colaboración con Arthur W. Burks y Herman
H. Goldstine, Preliminary Discussion of the Logical Design of an Electronic
Computing Instrument, que contiene la idea de Máquina de Von Neumann, que es
la descripción de la arquitectura que, desde 1946, se aplica a todos los
computadores que se han construido.
Con estos fundamentos, Eckert y Mauchly construyen en la Universidad de
Manchester, en Connecticut (EE.UU.), en 1949 el primer equipo con capacidad de
almacenamiento de memoria, la EDVAC. Eckert y Mauchly forman una
corporación para construir una máquina que se pueda comercializar, pero, debido
a problemas financieros, se vieron obligados a vender su compañía a a Remington
Rand Corp. Trabajando para esta compañía fue que se concluyó el proyecto
Univac, en 1951.
También por esta época Maurice Wilkes construye la EDSAC en Cambridge
(Inglaterra) y F.C. Williams construye en Manchester (Inglaterra), la Manchester
Mark I.
Estas máquinas se programaban directamente en lenguaje máquina, pero a partir
de mediados de los 50, se produjo un gran avance en la programación avanzada.
La Segunda Generación (los transistores y los avances en programación)
Allá por 1945 la máxima limitación de las computadoras era la lenta velocidad de
procesamiento de los relés electromecánicos y la pobre disipación de calor de los
amplificadores basados en tubos de vacío.
En 1947, John Bardeen, Walter Brattain y William Shockley inventan el
transistor, recibiendo el Premio Nobel de Física en 1956. Un transistor contiene un
material semiconductor, normalmente silicio, que puede cambiar su estado
eléctrico. En su estado normal el semiconductor no es conductivo, pero cuando se
le aplica un determinado voltaje se convierte en conductivo y la corriente eléctrica
fluye a través de éste, funcionando como un interruptor electrónico.
Los computadores construidos con transistores eran más rápidos, más pequeños y
producían menos calor, dando también oportunidad a que, más tarde, se
desarrollaran los microprocesadores. Algunas de las máquinas que se
construyeron en esta época fueron la TRADIC, de los Laboratorios Bell (donde se
inventó el transistor), en 1954, la TX-0 del laboratorio LINCOLN del MIT y las
IBM 704, 709 y 7094. También aparece en esta generación el concepto de
supercomputador, específicamente diseñados para el cálculo en aplicaciones
científicas y mucho más potentes que los de su misma generación, como el
Livermore Atomic Research Computer (LARC) y la IBM 7030.
Pero esta generación se explica también por los avances teóricos que se dan.
Así, en 1950, Alan Turing publica el artículo Computing Machinery and
Intelligence en la revista Mind, en el que introducía el célebre Test de Turing. Este
artículo estimuló a los pensadores sobre la filosofía e investigación en el campo de
la Inteligencia Artificial. Por desgracia, Turing no fue testigo del interés que desató
su artículo, porque en 1952 fue detenido por su relación homosexual con Arnold
Murray y fue obligado a mantener un tratamiento con estrógenos que le hizo
impotente y le produjo el crecimiento de pechos. En 1957, fue encontrado muerto
en su casa al lado de una manzana mordida a la que había inyectado cianuro.
En 1951, Grace Murray Hooper (1906-1992) da la primera noción de compilador y
más tarde desarrolla el COBOL. Pero fue John Backus, en 1957, el que desarrolla
el primer compilador para FORTRAN. En 1958, John MacCarthy propone el
LISP, un lenguaje orientado a la realización de aplicaciones en el ámbito de la
Inteligencia Artificial. Casi de forma paralela, Alan Perlis, John Backus y Peter
Naur desarrollan el lenguaje ALGOL.
Pero el personaje más importante en el avance del campo de los algoritmos y su
análisis, es Edsger Dijkstra (1930- ), que en 1956, propuso su conocido algoritmo
para la determinación de los caminos mínimos en un grafo, y más adelante, el
algoritmo del árbol generador minimal. Más tarde, en 1961, N. Brujin introduce la
notación O, que sería sistematizada y generalizada por D. Knuth. En 1957, aparece
la Programación Dinámica de la mano de R. Bellman. En 1960, S. Golomb y L.
Baumet presentan las Técnicas Backtracking para la exploración de grafos. Se
publican en 1962 los primeros algoritmos del tipo Divide y Vencerás: el QuickSort
de Charles Hoare y el de la multiplicación de grandes enteros de A. Karatsuba e Y.
Ofman.
En 1959, Jack Kilby (1923- ) presenta el primer circuito integrado, un conjunto de
transistores interconectados con resistencias, en una pequeña pastilla de silicio y
metal, llamada chip. Fue a partir de este hecho que las computadoras empezaron a
fabricarse de menor tamaño, más veloces y a menor costo, debido a que la
cantidad de transistores colocados en un solo chip fue aumentando en forma
exponencial.
Tercera Generación (cicuitos integrados y minituarización)
A partir del circuito integrado, se producen nuevas máquinas, mucho más
pequeñas y rápidas que las anteriores, así aparecen las IBM 360/91, IBM 195,
SOLOMON (desarrollada por la Westinghouse Corporation) y la ILLIAC IV,
producida por Burroughs, el Ministerio de Defensa de los EE.UU y la Universidad
de Illinois.
Seymour Cray (1925-1996) revoluciona el campo de la supercomputación con sus
diseños: en 1964, el CDC 6600, que era capaz de realizar un millón de operaciones
en coma flotante por segundo; en 1969, el CDC 7600, el primer procesador
vectorial, diez veces más rápido que su predecesor.
En cuanto a los avances teóricos, a mediados de los 60, un profesor de Ciencias de
la Computación, Niklaus Wirth, desarrolla el lenguaje PASCAL, y en Berkeley, el
profesor Lotfi A. Zadeh, publica su artículo Fuzzy Sets, que revoluciona campos
como la Inteligencia Artificial, la Teoría de Control o la Arquitectura de
Computadores.
En 1971, Intel introduce el primer microprocesador. El potentísimo 4004
procesaba 4 bits de datos a la vez, tenía su propia unidad lógicoaritmética, su
propia unidad de control y 2 chips de memoria. Este conjunto de 2.300 transistores
que ejecutaba 60.000 operaciones por segundo se puso a la venta por 200 dólares.
Muy pronto Intel comercializó el 8008, capaz de procesar el doble de datos que su
antecesor y que inundó los aparatos de aeropuertos, restaurantes, salones
recreativos, hospitales, gasolineras...
A partir de aquí nacieron las tecnologías de integración a gran escala (LSI) y de
integración a muy gran escala (VLSI), con las que procesadores muy complejos
podían colocarse en un pequeño chip.
Sin embargo, hasta este momento, por motivos económicos, complejidad de uso y
dificultad de mantenimiento, los computadores habían sido patrimonio de
universidades, organismos militares y gubernamentales, y grandes empresas.
En 1975, Popular Electronics dedicó su portada al primer microcomputador del
mundo capaz de rivalizar con los modelos comerciales, el Altair 8800.
Cuarta Generación (ordenadores personales de uso doméstico)
El Altair 8800, producido por una compañía llamada Micro Instrumentation and
Telemetry Systems (MITS), se vendía a 397 dólares, lo que indudablemente
contribuyó a su popularización. No obstante, el Altair requería elevados
conocimientos de programación, tenía 256 bytes de memoria y empleaba lenguaje
máquina. Dos jóvenes, William Gates y Paul Allen, ofrecerion al dueño de MITS,
un software en BASIC que podía correr en el Altair. El software fue un éxito y,
posteriormente Allen y Gates crearon Microsoft.
Paralelamente, Steven Wozniak y Steven Jobs , también a raíz de ver el Altair 8800
en la portada de Popular Electronics, construyen en 1976, la Apple I. Steven Jobs
con una visión futurista presionó a Wozniak para tratar de vender el modelo y el 1
de Abril de 1976 nació Apple Computer. En 1977, con el lanzamiento de la Apple
II, el primer computador con gráficos a color y carcasa de plástico, la compañia
empezó a imponerse en el mercado.
En 1981, IBM estrena una nueva máquina, la IBM Personal Computer,
protagonista absoluta de una nueva estrategia: entrar en los hogares. El corazón
de esta pequeña computadora, con 16 Kb de memoria (ampliable a 256), era un
procesador Intel, y su sistema operativo procedía de una empresa recién nacida
llamada Microsoft.
En 1984, Apple lanza el Macintosh, que disponía de interfaz gráfico para el
usuario y un ratón, que se hizo muy popular por su facilidad de uso.
Ábaco
Fueron los egipcios quienes 500 años AC inventaron
el primer dispositivo para calcular, basado en bolitas
atravesadas por alambres. Posteriormente, a
principios del segundo siglo DC, los chinos
perfeccionaron este dispositivo, al cual le agregaron
un soporte tipo bandeja, poniéndole por nombre
Saun-pan. El ábaco permite sumar, restar, multiplicar
y dividir.
La palabra ábaco proviene del griego ABAX que
significa una tabla o carpeta cubierta de polvo. Este
dispositivo en la forma moderna en que la
conocemos, realmente apareció en el siglo 13 DC y
sufrió varios cambios y evoluciones en su técnica de
calcular. Actualmente está compuesto por 10
columnas con 2 bolitas en la parte superior 5 en la
parte inferior.
Los japoneses copiaron el ábaco chino y lo
rediseñaron totalmente a 20 columnas con 1 bolita en
la parte superior y 10 en la inferior, denominándolo
Soroban.
Como caso anecdótico cabe relatar que
en 1946, un contador japonés de
nombre Kiyoshu Matzukai, quien era
un experto en el uso del ábaco, se
enfrentó en un concurso contra una
computadora de la época durante dos
dias completos, resultando como
ganador indiscutible el ciudadano
japonés.
Actualmente el antiguo ábaco se
emplea como método de enseñanza en
las escuelas de los paises orientales,
aunque es usado regularmente en
muchos lugares del mundo,
particularmente en los pequeños
negocios de los barrios chinos
(Chinatowns) en los Estados Unidos de
América, Canadá y países
cosmopolitas.
Ada Augusta Byron, Condesa de Lovelace (1815-1851)
Ada Augusta Byron, también llamada Lady Lovelace,
fue uno de los personajes más interesantes de la historia
de la computación. Nació en Londres, el 10 de
Diciembre de 1815, siendo hija del ilustre poeta inglés
Lord Byron. Apenas 5 semanas después de nacida su
madre Lady Byron, se separó de su esposo y obtuvo la
custodia de su hija, encargándose de su crianza y
educación por cuanto a ella le aterrorizaba la idea de
que su hija acabase convirtiéndose en un poeta bohemio,
como su padre.
Lady Lovelace tuvo vocaciones de analista y metafísica
y a los 17 años influenciada por Mary Somerville
realizó sus estudios de matemáticas. Fue en una cena
que escuchó y se interesó en las ideas de Charles
Babbage acerca de una nueva máquina de calcular. Ella
intuyó que un proyecto de esa envergadura podría
convertirse en realidad y fue una de las pocas personas
que creyó en la universabilidad de las ideas,
preconizada por Charles Babbage. Por esa razón decidió
colaborar con él.
En 1843, a los 28 años, Lovelace tuvo perfeccionados los planes
de Babbage para la Máquina Analítica. Teniendo la buena
fortuna de estar casada con un hombre que la alentó en su
progreso intelectual, así como también la ayudó para cuidar a
sus tres niños, Lovelace canalizó mucho de su talento y energía
continuando con la causa de Babbage, y con el tiempo,
corrigiendo algunos de los serios errores del trabajo original.
Una de sus geniales ideas fue la de que un cálculo grande podía
contener muchas repeticiones en la misma secuencia de
instrucciones, y ella notó que usando un salto condicional sería
posible preparar solamente un juego de tarjetas para las
instrucciones recurrentes. Así describió lo que nosotros ahora
llamamos un "bucle" y una "subrutina".
Sus ideas fueron extendidas un siglo más tarde por el
matemático británico Alan M. Turing en 1937 y por John von
Neumann en 1946, ambos fundamentales en el desarrollo de la
moderna computadora electrónica digital.
La mujer que poseyó tal percepción encontró un final
dolorosísimo a los 36 años, enferma de cáncer, dejando a
Babbage solo para continuar sus trabajos.
En la década de los 80 el Departamento de Defensa de los
Estados Unidos de América desarrolló un lenguaje de
programación en honor a la condesa, al cual nombró ADA.
Alan Turing (1912-1954)
Alan Mathison Turing nació el 23 de Junio de 1912, en
Paddington, Londres. De padre Inglés y madre Irlandesa,
estuvo separado de sus padres durante su infancia ya que
estuvieron exiliados en la India (su padre luchó en esta
guerra). Con 12 años ya expresaba su tremenda fascinación
sobre la naturaleza y la gran cantidad de preguntas que no
tenian respuesta para él, pensamientos que lo marginaron
en la Escuela Pública en que se hallaba. Debido a esto
estudió en Sherborne School cuyo director tuvo unas
palabras para con su madre: "Si es un científico de
vocación, pierde el tiempo en la Escuela Pública". Las
notas privadas de Turing sobre la Teoria de la Relatividad
denotan un alto nivel de inteligencia, pero a su vez es
advertido para que no tenga un fatal fracaso en la obtención
del Certificado Escolar.
Al año de su entrada en Sherbone encuentra en Christopher Morcom la motivación para
seguir con sus estudios, y entra en un vital periodo de riqueza intelectual, el cual finaliza
con la muerte súbita de Morcom en Febrero de 1930. La idea de que tendría que hacer
lo que Morcom no pudo, aparentemente lo sumió en una larga crisis. Durante tres años
al menos el leyó las cartas de Morcom, que su madre habia recibido un tiempo atrás y
su atención se centró en la pregunta de como la mente humana, y la de Christopher en
particular, se encarnaban y formaban parte de la materia, y el modo en que la mente se
separaba de la materia tras la muerte.
Esta pregunta le introdujo fuertemente en el área de los físicos
del siglo XX, consultando el libro de A. S. Eddington The
Nature of the Physical World cuando la Teoría de la Mecánica
Cuántica afectó al tradicional problema de la mente y la
materia. Como estudiante del King´s College en Cambridge,
entra en una fase de gran motivación (1931). Su lectura en 1932
de el nuevo trabajo de Von Neumann sobre las fundamentos
lógicos de Mecánica Cuántica le ayudó en la transición de
persona emocional a riguroso investigador intelectual. Al
mismo tiempo que su homosexualidad formaba parte
definitivamente de su identidad. El ambiente tan especial del
King´s College hizo de este su primer y verdadero hogar. En
este periodo 1933-1935 formó parte de diversos movimientos y
asociaciones estudiantiles generalmente englobados King´s
College, y también se relacionó con los círculos literarios del
College. El progreso de Turing parece seguro, su grado
distinguido en 1934 seguido del compañerismo del King´s
College en 1935 y la participación en el trabajo de Smith Prize
en 1936 sobre la Teoria de Probabilidades, le conducen hacia la
obtención de su carrera como un excéntrico Graduado en
Matemáticas Puras. La peculiaridad de su mente, también le
conduce en una dirección impredecible. En 1933 es iniciado en
los principio s lógicos matemáticos de la mano de Bertrand
Russell que tenia unos conocimientos de lógica y fundamentos
matemáticos muy profundos. Pero una pregunta acechaba a
Turing, y era el hecho de que: debe existir al menos en
principio algún método definido, o proceso mediante el cual
toda cuestión matemática pueda ser demostrada? Esta pregunta,
llamada entscheidugsproblem, fue formulada por David Hilbert
en el Congreso Internacional de Matemáticos de 1900.
Para contestar a esta pregunta necesitaba una definición del concepto método, y para
ello analizó que era lo que hacía una persona para transformar un proceso metódico, y
buscar una forma de hacer esto mecánicamente. Expresó el analisis en términos de una
máquina teórica que sería capaz de transformar con precisión operaciones elementales
previamente definidas en símbolos en una cinta de papel. En Agosto de 1936 presenta el
concepto final de la Maquina de Turing en su artículo On Computable Numbers.
Casi el mismo día en que Turing anunciaba su resultado, lo hacía también en Estados
Unidos Alonzo Church, aunque basándose en una notación formal, que denominó
cálculo lambda, para transformar todas las fórmulas matemáticas a una forma estándar.
Los trabajos de Church y, en especial, los de Turing, tuvieron profundas consecuencias
para el desarrollo de las Ciencias de la Computación y la Inteligencia Artificial. Con
estos fundamentos, el ingeniero alemán Konrad Zuse diseñó el primer computador
electromecánico binario, el Z1.
En 1936, fue a estudiar a la universidad de Princeton, como un estudiante ya graduado.
Allí trabajo en su proyecto Ordinal Logics probablemente su mas difícil y profundo
trabajo matemático; que le acercó al mundo de lo abstracto e incalculable; también lo
utilizó para su gran pregunta de la naturaleza de la mente, y de este trabajo obtuvo la
idea de que la intuición humana corresponde a lo pasos no calculables de un argumento.
Pero hasta 1938 no desarrolló esta idea.
En Princeton y los años 30, desarrolló una máquina de cifrado, y estudió sobre este
campo debido a la utilidad de ello en la Guerra con Alemania. Trabajando secretamente
para el Colegio de Cifrado y Código Gubernamental o también llamado Departamento
de Criptoanálisis. Turing fue reclutado por Inglaterra, en Bletchley Park, para descifrar
los mensajes que componía la máquina alemana Enigma, y, como consecuencia, los
aliados construyeron la máquina Colossus. Y es en este periodo cuando toma contacto
con la más avanzada tecnología electrónica de la época y planea la Máquina de Turing
Universal en su forma electrónica, de hecho había inventado las computadoras digitales.
Una investigación paralela americana llamada EDVAC, le hace temer que posiblemente
se adelanten a su proyecto y su idea. Por esta época, Turing estuvo entrenándose, y a
punto estuvo de participar por Inglaterra en los Juegos Olímpicos del 1948 en atletismo
de larga distancia. En Mayo de 1948 es nombrado Director Adjunto del laboratorio de la
Universidad de Manchester. En 1950, Turing publica el artículo Computing Machinery
and Intelligence en la revista Mind, en el que introducía el célebre Test de Turing. Este
artículo estimuló a los pensadores sobre la filosofía e investigación en el campo de la
Inteligencia Artificial.
El 31 de Marzo de 1952 es detenido y juzgado por sus relaciones sexuales con Arnold
Murray, un joven de Manchester. El reconocimiento de su homosexualidad crea una
atmósfera de antipatía hacia él de los ingenieros de Manchester. A cambio de no ir a
prisión, fue obligado a mantener un tratamiento médico con estrógenos que le hizo
impotente y le produjo el crecimiento de pechos. También es excluido de su trabajo en
el Departamento de Criptoanálisis por su homosexualidadello.
Fue encontrado por su asistenta el 8 de Junio de 1954. Había muerto el día anterior por
ingestión de cianuro. Una manzana mordisqueada estaba a su lado. Su madre defendió
que la muerte fue por la ingestión accidental de cianuro de sus dedos tras un
experimento químico, pero es más creible que él planease su muerte, amargado por su
situación. El dictamen del forense: suicidio
Algoritmo
Una posible definición de algoritmo es un conjunto de reglas que permiten obtener un
resultado determinado apartir de ciertas reglas definidas. Otra definición sería,
algoritmo es una secuencia finita de instrucciones, cada una de las cuales tiene un
significado preciso y puede ejecutarse con una cantidad finita de esfuerzo en un tiempo
finito. Ha de tener las siguientes características: legible, correcto, modular, eficiente,
estructurado, no ambiguo y a ser posible se ha de desarrollar en el menor tiempo
posible.
El término proviene del matemático árabe Al'Khwarizmi, que escribió un tratado sobre
los números. Este texto se perdió, pero su versión latina, Algoritmi de Numero Indorum,
sí se conoce.
Al'Khwarizmi (780-850 DC)
Muhammad ibn Musa abu Djafar Al'Khwarizmi,
también llamado Al'Khorezmi, nació alrededor del
780 DC (otros citan 800 DC) en Khorezm, al sur
del Mar de Aral (hoy Khiva, Uzbekistán), que
había sido conquistado 70 años antes por los
árabes. Su nombre significa "Mohamed, hijo de
Moisés, padre de Jafar, el de Khorezm". Hacia el
820, Al'Khwarizmi fue llamado a Bagdad por el
califa abasida Al'Mamun, segundo hijo de Harun
ar Rashid, por todos conocido gracias a las Mil y
una noches. Al'Mamun continuó el
enriquecimiento de la ciencia árabe y de la
Academia de Ciencias creada por su padre,
llamada la Casa de la Sabiduría, lo que traería
importantes consecuencias en el desarrollo de la
ciencia en Europa, principalmente a través de
España.
Poco se sabe de su vida, pero realizó viajes a
Afganistán, el sur de Rusia y Bizancio (hoy
Turquía). Falleció en Bagdad hacia el 850 DC
(también se menciona 840 DC).
La mayoría de sus diez obras son conocidas en forma indirecta o por traducciones
hechas más tarde al latín (muchas de ellas en Toledo) y de algunas sólo se conoce el
título. Al'Khwarizmi fue un recopilador de conocimiento de los griegos y de la India,
principalmente matemáticas, pero también astronomía (incluyendo el calendario Judío),
astrología, geografía e historia. Su trabajo más conocido y usado fueron sus Tablas
Astronómicas, basadas en la astronomía india. Incluyen algoritmos para calcular fechas
y las primeras tablas conocidas de las funciones trigonométricas seno y cotangente. Lo
más increíble es que no usó los números negativos (que aún no se conocían), ni el
sistema decimal ni fracciones, aunque sí el concepto del cero. Su Aritmética, traducida
al latín como Algoritmi de numero Indorum introduce el sistema numérico indio (sólo
conocido por los árabes unos 50 años antes) y los algoritmos para calcular con él.
Finalmente tenemos el Algebra, una introducción compacta al cálculo, usando reglas
para completar y reducir ecuaciones. Además de sistematizar la resolución de
ecuaciones cuadráticas, también trata geometría, cálculo s comerciales y de herencias.
Quizás éste es el libro árabe más antiguo conocido y parte de su título Kitab al-jabr
wa'l-muqabala da origen a la palabra álgebra. Aunque los historiadores no se han puesto
de acuerdo en la mejor traducción del título, éste significa El libro de restaurar e
igualar o El arte de resolver ecuaciones.
El trabajo de Al-Khorezmi permitió preservar y difundir el conocimiento de los griegos
(con la notable excepción del trabajo de Diofanto) e indios, pilares de nuestra
civilización. Rescató de los griegos la rigurosidad y de los indios la simplicidad (en vez
de una larga demostración, usar un diagrama junto a la palabra Mira). Sus libros son
intuitivos y prácticos y su principal contribución fue simplificar las matemáticas a un
nivel entendible por no expertos. En particular muestran las ventajas de usar el sistema
decimal indio, un atrevimiento para su época, dado lo tradicional de la cultura árabe. La
exposición clara de cómo calcular de una manera sistemática a través de
algoritmos diseñados para ser usados con algún tipo de dispositivo mecánico
similar a un ábaco, más que con lápiz y papel, muestra la intuición y el poder de
abstracción de Al'Khwarizmi. Hasta se preocupaba de reducir el número de
operaciones necesarias en cada cálculo. Por esta razón, aunque no haya sido él el
inventor del primer algoritmo, merece que este concepto esté asociado a su
nombre.
Mecanismo de Antikythera
A veces, la recuperación de objetos de
navíos que naufragaron pone al
descubierto tesoros del pasado. El
naufragio de Antikythera -nombre de
una isla griega del Egeo- no fue la
excepción: sacó a la superficie un
testimonio único del avance de la
técnica de la Antigüedad clásica, el
mecanismo de Antikythera, conocido
como la primera computadora de
Occidente.
Una vez en el Museo de Atenas,
después de haber pasado 20 siglos en el
mar, a 42 metros de profundidad, las
partes limpias del instrumento exhibían
en su superficie numerosas
inscripciones astronómicas, en
principio no atribuibles a meros
adornos. No obstante, la idea de que se
tratase de un astrolabio también se
descartó, debido a que los primeros
reconocibles como tales se registran a
partir del 650 d.C.
Luego de décadas de olvido -ya que la
recuperación se había realizado en
1900-, Derek de Solla Price, un físico e
historiador de la ciencia presentó, en
1959, su conclusión: se trataba de un
complicado mecanismo de relojería
que, por su diseño y funciones, podía
ser llamada la primera computadora de
Occidente. Según él, las inscripciones
astronómicas debían de ser indicadores
de un mecanismo de engranajes que, al
moverse, mostraban la posición de los
cuerpos celestes. La hipótesis fue
rechazada por muchos estudiosos.
Sin embargo, De Solla Price no se dio
por vencido e hizo examinar los
fragmentos del artefacto mediante la
aplicación de radiación gamma, con lo
cual pudo comenzar la reconstrucción
del mecanismo y establecer su fecha y
lugar de construcción.
El examen confirmó que se
trataba del instrumento
científico más sofisticado de
la Antigüedad que había
llegado hasta nosotros.
Consistía en un artefacto de
cálculo astronómico con
mecanismos de precisión que,
mediante 32 engranajes y un
engranaje diferencial, mostraba
la posición de los cuerpos
celestes en sincronización con
el año calendario. El usuario,
por medio de una perilla, podía
accionar un simulador en
miniatura del movimiento del
sol, la luna y varios planetas,
teniendo a la vista la fecha en
que se había dado, o se daría,
tal combinación.
Mediante este estudio se pudo,
además, determinar que el
artefacto pertenecía
efectivamente al siglo I a.C., y
por las inscripciones y la
posición de los engranajes se
dedujo que había sido
construido alrededor del año 80
a.C., en la isla griega de Rodas,
ubicada en el mar Egeo. Este
hallazgo aportó importantes
datos que llevaron a revisar la
historia oficial de la técnica
griega.
El descubrimiento del
mecanismo de Antikythera
obliga, además, a
redimensionar el testimonio de
las fuentes literarias en relación
con su valor histórico, durante
mucho tiempo consideradas
como mero fruto de la
exageración.
Apple Computer Inc.
Steve Jobs y Stephen Wonziak se conocieron trabajando para HewlettPackard. En 1974, Jobs pasó a formar parte del club de Wozniak Homebrew
Computer Club. Pero a Jobs no le bastaba con crear juguetes electrónicos
como al resto de los miembros, en parte porque no era demasiado bueno en
esos menesteres, y convenció a Wozniak para que trabajase con él en la
creación de una computadora personal, más asequible que la Altair 8800, la
primera computadora personal aparecida en 1975.
Ambos diseñaron el Apple I en el dormitorio de Jobs y
construyeron el prototipo en su garaje. Decididos a crear una
empresa dedicada a vender sus computadoras personales,
consiguieron 1.300 dólares tras vender sus más preciadas
posesiones. Jobs se deshizo de su Volkswagen y Wozniak de
su calculadora científica HP. El 1 de abril de 1976 nació
Apple Computer y comenzaron a comercializar su Apple I por
666 dólares. El primer año las ventas ascendieron a 774.000
dólares.
Pero Apple no comenzó a crecer verdaderamente hasta 1977, cuando la Apple II hizo su
aparición en una exposición local de computadoras. La Apple II fue una máquina que
llamaba la atención, porque era la primera computadora personal que venía en una
carcasa de plástico e incluía gráficos en color. Luego de su lanzamiento, las órdenes de
compra de las máquinas de Apple se multiplicaron varias veces y, a principios de 1978,
las ventas crecieron aún más con la introducción de la Apple Disk II, la diskettera más
económica y fácil de usar (para la época).
Sin embargo, el crecimiento de las ventas trajo
consigo un aumento en el tamaño de la empresa y,
cuando se lanzó la Apple III en 1980, Apple contaba
con varios miles de empleados y comenzaba a vender
computadoras al exterior. En 1980, Apple empezó a
cotizar en bolsa. Jobs y otros ingenieros comenzaron
a desarrollar el Lisa, que redefiniría la informática
personal. Sin embargo, Jobs resultó ser un mal
gerente de proyectos y Mike Markkula, el entonces
presidente de Apple y uno de sus mayores
accionistas, lo apartó del proyecto del Lisa. Jobs, que
tenía sólo el 11 por ciento de Apple, tomó a su cargo
otro proyecto de la empresa y comenzó a trabajar en
el Macintosh, cuyo objetivo era una computadora
personal de 500 dólares. Jobs se encargó de que fuera
mucho más.
En 1981, IBM presentó su primera PC que comenzó a dominar rápidamente el campo
de juego. El equipo de Jobs tendría que trabajar muy rápido si quería competir con IBM
en el mercado de las computadoras personales. Ese mismo año, Wozniak estrelló contra
el asfalto el avión que pilotaba. El resultado, además de graves heridas, fue una amnesia
de la que no se recuperó hasta 1983, año en el que volvió a Apple. Dos años más tarde
abandonó la empresa por diferencias con la dirección y con más de 100 millones de
dólares bajo el brazo.
Después de retirarse de Apple, Wozniak ha
declarado en varias ocasiones su
descontento con el destino de la empresa
que ayudó a fundar: "Apple no es la
compañía que yo esperaba que fuese".
Jobs comprendió que Apple tendría que
convertirse en una compañía madura, y
que él no era el hombre adecuado para ese
trabajo. A principios de 1983, Jobs
comenzó a hablar de negocios con John
Sculley, en aquel entonces presidente de
Pepsi-Cola. En abril lo convenció y
Sculley se convirtió en el presidente
ejecutivo (CEO, Chief Executive Officer)
de Apple. Si bien era un hombre de
negocios exitoso, pronto se hizo evidente
que Sculley no sabía gran cosa de la
industria informática. Casi de inmediato, él
y Jobs estuvieron en desacuerdo. Como
faltaba cada vez menos para el
lanzamiento del Macintosh, Jobs aumentó
su ritmo de trabajo. Buscó sin descanso
desarrolladores que programaran para la
máquina a punto de salir, porque Jobs
creía que la industria del software, en
última instancia, haría funcionar o no al
Mac.
El 22 de enero de 1984, en el tercer cuarto del Super Bowl (la gran final del football
americano), Apple lanzó el famoso aviso comercial de presentación de la Macintosh.
Dirigido por Ridley Scott, la escena, de características orwellianas, describía cómo el
mundo de IBM era destruido por una nueva máquina. Al principio, el Mac se vendió
muy bien, pero para las Navidades la gente ya se quejaba por la poca memoria RAM y
la imposibilidad de conectarla a un disco rígido.
Fue a comienzos de 1985 cuando Jobs y Sculley comenzaron a discutir. Sculley creía
que Jobs era peligroso y que estaba fuera de control; Jobs creía que Sculley no sabía
nada de la industria informática y que no hacía ningún esfuerzo por aprender. En mayo
Jobs decidió hacer una jugada para tomar el control de la compañía. Le propuso a
Sculley que programara una reunión en China y planeó un golpe en el directorio para
cuando Sculley estuviera de viaje. A último momento alguien le hizo llegar esta
información a Sculley, que decidió enfrentar a Jobs. Luego de una acalorada discusión
entre ambos, la Junta Directiva votó y se colocó unánimemente del lado de Sculley.
Jobs renunció ese mismo día, dejando a Sculley a cargo de Apple.
Sculley se convirtió de hecho en la cabeza de Apple en mayo de 1985. En los meses
posteriores, la empresa se vio forzada a despedir a un quinto de su fuerza laboral,
alrededor de 1200 empleados. Apple también anunció su primer trimestre fiscal con
pérdidas. Todo esto, más la renuncia de Jobs, sirvió para que se fuera perdiendo la
confianza en la capacidad de Sculley para ser el CEO de Apple.
Al mismo tiempo, Sculley puso todo su empeñó en una batalla judicial contra Bill
Gates, de Microsoft, por la introducción del Windows 1.0, que era muy similar a la GUI
(siglas de Graphical User Interface, Interfaz Gráfica de Usuario) del Mac. Gates,
finalmente, acordó firmar una declaración por la que Microsoft se comprometía a no
usar tecnología del Mac en Windows 1.0, pero nada se decía allí sobre las futuras
versiones de Windows, y los abogados de Gates se aseguraron que esta argucia fuera a
prueba de fallas. Apple había perdido, efectivamente, los derechos exclusivos sobre su
diseño de interfaz. Este documento llegaría a ser importante en los juicios posteriores
entre Apple y Microsoft, que trataran sobre la interfaz del Windows.
La introducción simultánea de la LaserWriter, la primera impresora láser PostScript de
bajo costo para el Mac, y del PageMaker, uno de los primeros programas de edición
electrónica, fue lo que sacó a Apple del pozo en el que se había metido. Estos dos
productos, en conjunto, hicieron del Mac la solución ideal para la edición de bajo
presupuesto, y otra vez el Mac volvió a ser un éxito instantáneo.
En 1987, Apple introdujo al mercado el Mac II. Concebida para ser expandible, el Mac
II convirtió a la línea Macintosh en una familia de computadoras viable y poderosa.
Apple fue de nuevo una acción favorita de Wall Street, que entregaba 50 mil Macs por
mes. Parecía, en 1989, que Windows sería un fracaso y que Macintosh dominaría en la
década siguiente.
No fue así. En 1990 el mercado se saturó con clones de PC con todas las
configuraciones imaginables, y Apple era la única compañía que vendía Macs. A fines
de mayo, Microsoft presentó el Windows 3.0, que podía ejecutarse prácticamente en
todos los clones de PC del mundo. Apple estaba en problemas.
La idea de los que conducían a Apple para encontrar
una solución a este problema era dar en licencia el Mac
OS (Sistema Operativo del Mac). También se hablaba
de llevar el sistema operativo para que se ejecutara en
máquinas con procesadores de Intel. Fue Michael
Spindler, el nuevo COO (siglas de Chief Operating
Officer o Jefe Operativo) de Apple, quien rechazó la
idea, cuando dijo que era "demasiado tarde para dar
licencias".
A finales de 1991, Apple presentó la primera
generación de PowerBooks, que fue un éxito de
inmediato. También se había estado trabajando en un
nuevo tipo de computadoras, el Asistente Digital
Personal (PDA, siglas de Personal Digital Assistant),
al que Apple denominó Newton. Sculley se interesó de
inmediato en este proyecto, y lo dirigió hasta su
culminación, en agosto de 1993. La primera
generación del Newton tenía una función para el
reconocimiento de la escritura de poca utilidad y no se
vendió mucho.
Sculley comenzó a desinteresarse de las operaciones diarias de Apple y, finalmente, la
Junta Directiva de Apple decidió que había sido suficiente. En junio de 1993, relevaron
a Sculley de su posición como CEO y colocaron a Spindler en el puesto. Spindler, según
todas las referencias, era el hombre equivocado para el trabajo. Poco dispuesto al trato
personal, era casi imposible entrar a su oficina. Sin embargo, Spindler dirigió varios
proyectos con éxito en sus dos años y medio como CEO.
En 1994 Apple anunció la familia PowerMac, los primeros Macs que se basaban en el
chip PowerPC, un procesador extremadamente rápido desarrollado en conjunto con
IBM y Motorola. El procesador PowerPC le permitió a las Macs competir con la
velocidad de los más nuevos procesadores de Intel y muchas veces superarlos.
Spindler también dirigió la cesión de licencias del Mac
OS a varias empresas, entre las que se encontraba Power
Computing, uno de los fabricantes más exitosos de
clones del Mac. Pero muchos creyeron que Apple era
demasiado restrictivo en sus acuerdos de licencias y
apenas un puñado de compañías llegó a licenciar alguna
vez el Mac OS. Pero el problema más grave de Apple no
era la venta de computadoras, sino fabricarlas. En junio
de 1995 Apple tenía mil millones de dólares en pedidos
detenidos y no tenía los componentes para construirlas.
A los problemas de Apple se les sumó, hacia el final del
verano, el lanzamiento del Windows '95, que copiaba
mejor que nunca la interfaz gráfica de usuario del Mac.
Apple tuvo la peor caída de su historia en el invierno de 1995-96. La empresa se
equivocó al evaluar el mercado y lanzó Performas de bajo costo con procesadores
PowerMac de mediana potencia, y no obtuvo rentabilidad alguna. Apple anunció una
pérdida de US$68 millones en ese trimestre fiscal. En enero de 1996, se le pidió a
Spindler la renuncia como CEO y fue reemplazado por Gil Amelio, ex-presidente de
National Semiconductor.
Amelio realizó un gran esfuerzo para que Apple volviera a ser rentable, pero fue en
vano. Luego de sus primeros cien días como CEO, Amelio anunció grandes cambios en
la estructura empresarial de Apple. Esta se separó en siete divisiones y cada una fue
responsable de su propio beneficio o pérdida. También se empeñó en mantener
informados a los desarrolladores y a los usuarios sobre los asuntos diarios de la
empresa. Aunque se anunció una terrible pérdida de US$740 millones en el primer
trimestre fiscal de 1996, la pérdida se redujo a US$33 millones en el segundo trimestre,
batiendo todas las estimaciones de los expertos financieros más acreditados. En el tercer
trimestre, Apple tuvo una rentabilidad de casi US$30 millones, asombrando otra vez a
los expertos en finanzas, quienes habían pronosticado una pérdida de ese tenor. Sin
embargo en el cuarto trimestre Apple perdió mucho más que nunca.
A finales de diciembre de 1996, Apple anunció que compraba a NeXT y que Steven
Jobs regresaba al rebaño, noticia que estremeció a la industria. La división del Newton
terminó convertida en Newton, Inc., una filial subvencionada en su totalidad por Apple.
A principios de julio de 1997, Gil Amelio renunció a consecuencia de otra
multimillonaria pérdida trimestral. Esto fue una sorpresa para casi todos, y en ese
momento no se anunció un nuevo CEO. La Junta Ejecutiva consideró que, según
informes recibidos, Amelio había hecho todo lo que podía por Apple. Mientras tanto, a
Steven Jobs se le confirió, por el momento, un papel especial en Apple.
La presencia de Jobs se conoció casi al mismo tiempo que se adquirió
a NeXT. El grado del papel especial de Jobs pronto fue evidente. Con
las acciones de Apple en su punto más bajo en cinco años y sin CEO,
había que tomar muchas decisiones y poco tiempo para llevarlas a
cabo. Jobs comenzó a hacer cambios llamativos en la estructura de
Apple, entre ellos la cancelación de la separación del Newton. (El
Newton se dejó de producir unos meses más tarde.) Sin embargo, el
lugar y el momento para los anuncios más impactantes fue la
exposición MacWorld de Boston en agosto de 1997.
Jobs, a quien se lo comenzaba a llamar el CEO interino, pronunció el discurso inaugural
de la exposición y se refirió a la próxima y agresiva campaña publicitaria de la
compañía. También anunció un casi por completo renovado Consejo Directivo, que
incorporaba a Larry Ellison, CEO de Oracle. Pero se guardó lo mejor para lo último. En
una decisión que sorprendió a casi todos, Jobs anunció una alianza con Microsoft. A
cambio de US$150 millones en acciones de Apple, Microsoft y Apple tendrían una
licencia cruzada de cinco años sobre patentes y, lo más importante, un acuerdo final en
la disputa sobre la GUI del Mac OS. Microsoft convino en pagar una suma adicional de
dinero, que no se dio a conocer, para terminar con los argumentos que sostenían que
Microsoft había robado la propiedad intelectual de Apple cuando diseñó el sistema
operativo del Windows. Microsoft también anunció que Office '98, su popular paquete
de aplicaciones para uso en oficinas, estaría disponible para la Mac hacia fin de año.
Estos anuncios le dieron nueva vida a Apple, pero Jobs no había terminado. Quedaba
todavía un obstáculo más grande por superar: los clones. Jobs creía que los vendedores
de clones, como Power Computing, se habían introducido en el mercado de alta gama,
en el que Apple obtenía, tradicionalmente, el mayor beneficio. Los clones no habían
podido expandir el mercado del Mac OS y, en cambio, le habían quitado clientes a
Apple. Jobs dio un corte definitivo al aparente fracaso del experimento de los clones. A
comienzos del otoño de 1997, Apple anunció su intención de comprar la parte de la
licencia sobre el Mac OS en poder de Power Computing, e incorporar a la mayoría de su
plantel de ingenieros. Power cerró varios meses más tarde, y Apple continuó con la
atención de sus productos. Apple compró también las licencias sobre el Mac OS
otorgadas a Motorola e IBM y le permitió seguir operando a Umax, pero bajo el acuerdo
tácito que ésta se dedicaría al mercado de bajo gama, con la venta de máquinas a un
precio por debajo de los US$1000. Umax vendió el inventario remanente de Macs y se
dedicó a vender equipos Wintel.
El 10 de noviembre de 1997 Apple dio otra conferencia de
prensa, en la que Jobs anunció cambios importantes en la
estrategia empresarial de Apple. Ahora Apple ve ndería
computadoras directamente, tanto por Internet como por
teléfono, como Power Computing lo había hecho tan bien
en el pasado. Jobs también anunció dos nuevos equipos de
Apple: la PowerMac G3 y el PowerBook G3.El Apple
Store (el almacén de Apple) tuvo un éxito arrollador y en
menos de una semana era el tercer sitio más grande de
comercio electrónico de la Web. En la exposición
MacWorld de San Francisco, en enero, Jobs anunció que
Apple, por primera vez en más de un año, había tenido un
primer trimestre con ganancias, que llegaban a los US$44
millones. Esto superó por mucho los pronósticos de los
analistas. En abril de 1998, Jobs anunció otro trimestre con
ganancias (US$57 millones), que fue una gran sorpresa
para casi todo el mundo.
Jobs no perdió la iniciativa y a principios de mayo anunció un nuevo PowerBook G3,
un Apple Store para el sector educativo, y el iMac, un Mac con un diseño totalmente
nuevo. El iMac respondía a las exigencias del usuario común de poco presupuesto y les
ofrecía un poder de computación más que suficiente para la gran mayoría y a un precio
accesible. Más tarde, en ese mismo mes, en su discurso de presentación en la WWDC
(siglas de Worldwide Developers Conference o Conferencia Mundial de
Desarrolladores de Apple), Jobs anunció un cambio espectacular en la dirección del
sistema operativo de Apple. El Mac OS X se fusionaría con el OS 8 y con Rhapsody -la futura versión del NeXTStep de Apple-- en un sistema operativo sólido, con todas las
prestaciones de un sistema operativo moderno y compatible con la mayoría de las
aplicaciones que lo fueran con el OS 8.
En julio de 1998, Jobs anunció que la empresa había tenido
ganancias por tercer trimestre consecutivo, esta vez de
US$101 millones. La iMac fue la computadora más
vendida en todos los Estados Unidos durante la mayor parte
del otoño, y llevó a que las ventas de Apple superaran todos
los pronósticos. En el otoño, Jobs anunció otro trimestre
con beneficios, completando así un año entero de
rentabilidad. En enero de 1999, Jobs anunció un quinto
trimestre consecutivo de ganancias, con crecimiento
comparado con el mismo trimestre del año anterior, y una
nueva y refinada PowerMac G3.
En julio de 1999, lanzó el iBook, el ordenador portátil para
el usuario común. Siguiendo los mismos principios que
convirtieron al iMac en un gran éxito de ventas el año
anterior, el iBook llevó estilo al mercado de lo s
ordenadores portátiles de bajo costo. Meses después, Jobs
anunció PowerMac G4, un nuevo y significativo equipo de
sobremesa para uso profesional. La acción de Apple había
subido durante todo el verano, y a mediados de septiembre
se estaba comerciando a su valor más alto.
En un espectacular discurso inaugural de la exposición
MacWorld de San Francisco, en enero de 2000, Jobs
presentó la nueva estrategia de Apple para Internet: un
conjunto de aplicaciones basadas en Internet, sólo para
Macs, llamada iTools y una asociación exclusiva con
Earthlink, que convirtió a esta empresa en el proveedor de
acceso a Internet recomendado por Apple. Jobs también
anunció que quitaría el interino del título de su cargo,
convirtiéndose en el CEO permanente de Apple.
En julio de 2000, Apple anunció un gran número de máquinas nuevas, entre ellas la
PowerMac G4 Cube. El Cube fue la respuesta de Apple a quienes querían una iMac sin
monitor, y al mismo tiempo un desafío a la industria de la informática para continuar
reduciendo el tamaño de las computadoras mientras aumenta su atractivo visual.
Aunque cobra sólo US$1,00 al año, Steven Jobs permanece al timón de Apple
Computer, Inc., y mantiene el iCEO en el título de su cargo porque "suena muy bien".
Máquina de Von Neumann (Arquitectura Von Neumann)
En 1946, en colaboración con Arthur W. Burks y Herman H. Goldstine, John Louis Von
Neumann (1903-1957) escribió uno de los artículos más influyentes en la moderna
historia de los computadores: Preliminary Discussion of the Logical Design of an
Electronic Computing Instrument. Las ideas que contiene este artículo, que de forma
conjunta se conocen con el nombre de Máquina de Von Neumann o Arquitectura Von
Neumann, han proporcionado los fundamentos para la construcción y el desarrollo de
todos los computadores hasta el momento.
El concepto central en la Arquitectura Von Neumann es el de programa almacenado,
según el cual las instrucciones y los datos tenían que almacenarse juntos en un medio
común y uniforme, en vez de separados, como hasta entonces se hacía. De esta forma,
no sólo se podían procesar cálculos, sino que también las instrucciones y los datos
podían leerse y escribirse bajo el control del programa. A partir de esta idea básica se
sigue que un elemento en la memoria tiene una calidad ambigua con respecto a su
interpretación; esta ambigüedad se resuelve, sólo temporalmente, cuando se requiere ese
elemento y se ejecuta como una instrucción, o se opera como un dato. Un beneficio de
esta ambigüedad es el hecho de que un dato, obtenido como resultado de algunas
operaciones en la unidad aritmetico-lógica del computador, podía colocarse en la
memoria como si fuera cualquier otro dato, para entonces usarlo y ejecutarlo como si
fuera una instrucción. Además la Máquina de Von Neumann presentaba como
característica importante un pequeño número de registros para mantener la instrucción
del programa en curso, y el registro de datos que se estaban procesando. La máquina
operaba en un ciclo repetitivo de pasos para localizar y ejecutar en secuencia las
instrucciones del programa. Resulta evidente que esta breve descripción puede aplicarse
a casi todos los computadores que desde 1946 se han construido, por lo que la
aportación de Von Neumann a las Ciencias de la Computación es más que notable.
Con este concepto en mente se construyeron EDVAC, EDSAC y UNIVAC.
Atanasoff-Berry Computer (ABC)
La AtanasoffBerry Computer o
ABC empezó a ser
concebida por el
profesor de física
John Vincent
Atanasoff a partir
de 1933,
formulando la idea
de usar el sistema
de números
binarios para su
funcionamiento.
Al buscar un
ayudante para
cumplir con su
propósito, un
colega le
recomendó a un
joven brillante,
Clifford Berry.
Entre los años de
1937 y 1942,
contando con la
ayuda de Berry,
diseñó y construyó
en el sótano de su
laboratorio en la
Universidad del
Estado de Iowa su
famoso prototipo a
un costo de 1,460
dólares. Estaba
compuesto de
tubos al vacío,
capacitores y un
tambor rotatorio
para el manejo de
los elementos de la
memoria, así como
un sistema lógico
para su
operatividad.
Terminada en 1942, fue la primera computadora electrónica digital, aunque sin buenos
resultados y nunca fue mejorada. Desafortunadamente sus inventores jamás la
patentaron y por aquel entonces surgieron problemas sobre la propiedad intelectual de la
misma, en cuyas divergencias participó la IBM.
Aunque existen serias dud as sobre si la ABC (Atanasoff- Berry Computer) fue
completamente operativa, el hecho es que John W. Mauchly visitó a Atanasoff en 1941
y observó muy de cerca su impresionante maquinaria y tuvo la oportunidad de revisar
su tecnología. Existe una gran controversia respecto a que Mauchly copiara muchas de
las ideas y conceptos del profesor Atanasoff, para, posteriormente, entre los años 1943 a
1946, construir la computadora ENIAC.
Charles Babbage: Mecánica aplicada a la computación
Por José María Cuenca de la Cruz
Aunque el desarrollo de los ordenadores como grandes artefactos para la
realización de cálculos, primero, y como utensilios de trabajo en hogares
y oficinas, después, se ha efectuado en la segunda mitad de este siglo,
hubo un precursor de la computación automática, que construyó
máquinas que según la crítica histórica exigían más de lo permisible por
la ingenería de la época. En este artículo el lector podrá hacerse un juicio
más objetivo sobre el excéntrico profesor Charles Babbage.
Se considera a Charles Babbage (matemático inglés profesor en Cambridge, que vivió
entre 1792 y 1871 para más señas) como el precursor de las ciencias informáticas; tanto
por establecer los conceptos teóricos en que se basa actualmente la arquitectura de
computadores, como por diseñar sus máquinas analítica y de las diferencias: auténticas
pioneras de las calculadoras digitales, pese a basarse en principios puramente
mecánicos, lo que constituye todo un alarde de ingeniería.
El tal sujeto era un bicho raro ya desde estudiante en el Trinity College: aficionado a
repasar los errores de cálculo, transcripción o tipográficos que se acumulaban en las
tablas matemáticas de la época cual ratón de biblioteca, se le ocurrió la genial idea de
construir una máquina capaz de recopilar las tablas de logaritmos, que por aquel
entonces apenas tenían un siglo de antigüedad.
De carácter muy excéntrico, se movía en círculos privilegiados, donde lo hacían
también Charles Dickens, Pierre S. de Laplace o Charles Darwin, lo que le dotaba de
una visión de la realidad muy avanzada para su época. Pero el desarrollo de sus
progresos más allá de la pura teoría se vió limitado por su mal carácter: obligaba a sus
empleados a desmontar sus máquinas para volver a reconstruirlas de modo más
complejo a medida que se le ocurrían nuevas ideas una y otra vez; lo que a la larga
acabó dejándole sin fondos para seguir adelante, y sin nadie interesado en financiar sus
interminables empresas. Intolerante con las intromisiones, llegó incluso a intentar
procesar al gremio de organilleros porque le molestaban en su trabajo, lo que provocó
que los niños de la vecindad fueran tras él por las calles burlándose y cantando al son de
incipientes latas de conserva.
Pero todo esto no quita un ápice a su gran talla como matemático e ingeniero. Su
primera calculadora digital fue inventada en 1822 para el Servicio de Correos Británico;
determinaba valores sucesivos de funciones polinómicas utilizando solamente la
operación de adición, mediante el método de las diferencias finitas: partiendo de los
valores iniciales conocidos de una serie de potencias obtenemos los demás mediante la
realización de restas entre valores consecutivos hasta obtener una columna de un valor
constante; y retroceder sumando hasta el valor siguiente que deseamos obtener, como se
ve en este ejemplo para las segundas potencias de x:
Ejemplo de empleo del método de las diferencias finitas para hallar x²
en los primeros naturales:
x
1
2
3
4
5
6
7
x2
1ª diferencia
1
4-1= 3
4
9-4= 5
9
16-9= 7
16
25-16= 9
25
36-25= 11
36
11+2= 13
36+13= 49
..
2ª diferencia
5-3= 2
7-5= 2
9-7= 2
11-9= 2
2
..
..
Como no disponía de conmutadores eléctricos para imitar el álgebra booleana, se vio
obligado a sustituirlos en todos sus diseños con interruptores mecánicos a base de
barras, cilindros, cremalleras y ruedas dentadas. Todo el sistema estaba basado en la
numeración decimal, de forma que cada una de las cifras de un número se representaba
por una rueda dentada, y su valor por la rotación angular asociada a ella. Este
funcionamiento hace que sólo sean posibles las rotaciones correspondientes a valores
numéricos enteros, lo que en la práctica equivale a un resultado correcto como solución,
o al cuelgue de la máquina, pero nunca a un resultado erróneo.
La primera máquina inicial fue desarrollándose más y más en lo que se dio en llamar
artilugio de diferencias, hasta que tras diez años de trabajo el proyecto se vino abajo
debido a las razones expresadas más arriba, y a su elevado coste: se habían invertido
17.470 libras de 1834, unas veinte veces más de lo que costó desarrollar la locomotora
de Bull. Aunque después de todo Charles no perdió sus esperanzas, porque los
problemas tecnológicos de diseño y fabricación de las 25.000 piezas realizadas hasta la
fecha estaba demostrado que podían salvarse. Además una parte (alrededor de dos mil
piezas) se aprovechó como máquina de exhibición, formando la primera calculadora
automática de sobremesa conocida... que ha seguido funcionando correctamente hasta
hoy con una precisión de hasta 21 cifras.
Tras este fracaso cobró nuevas fuerzas haciendo gala al dicho «lo que no mata hace más
fuerte» y emprendió hasta su muerte (claro) el desarrollo de los planos y bocetos del
ingenio al que le debe su fama de pionero en la informática: la máquina analítica,
primera computadora universal y programable.... ¡ y mecánica !
Correctamente pretendía que las operaciones aritméticas se realizasen en un procesador
similar a su máquina anterior, aunque mucho más complejo; provinientes de un almacén
de tarjetas perforadas como el usado por Jacquard en su telar automático; imprimiendo
los resultados en tarjetas vacías que irían a almacenarse de forma ordenada de manera
que fuese posible su recuperación en un momento posterior. Unas pequeñas campanas
avisarían al empleado, para introducir nuevas tarjetas; y otras mayores indicarían los
fallos del sistema. El invento de la sirena para la hora del almuerzo creemos que es
posterior.
Para hacernos una idea de la potencia de tal máquina, sólo decir que estaba diseñada
para recibir datos de hasta 50 dígitos y dar resultados hasta de 100; en formatos impreso
y gráfico además de la tarjeta perforada. La enormidad de este proyecto hizo que
enseguida las ideas del genial inventor se viesen limitadas por la escasez de medios en
la época: una máquina de estas características no podía ponerse en funcionamiento de
forma práctica sin ayuda de la electricidad, y sobre todo de la electrónica, aún no
descubierta. En espera de estos avances, nuestro amigo optó por desarrollar mecanismos
capaces de realizar automáticamente multiplicación y división, sin tener que remitir
éstas a las operaciones básicas: era la segunda máquina de las diferencias, de diseño
mucho más evolucionado y económico, capaz de tabular hasta la séptima potencia con
una precisión de 31 dígitos.
La máquina es accionada mediante una manivela solidaria empleando engranajes con
una rueda vertical de 14 pares de levas, encargadas de activar y sincronizar cada ciclo
de cálculo. Los números producidos mediante el giro de los engranajes se reflejan en 8
columnas verticales de 31 ruedas cada una, con 10 dígitos por rueda. La adición de
diferencias se realiza mediante un sistema de cremalleras y palancas que, accionadas
por las levas, bajan o alzan los ejes verticales, haciéndoles girar hasta su posición final.
El ciclo de trabajo se divide en dos partes para reducir el tiempo de cálculo, como en la
técnica de bombeo o pipelining de los ordenadores electrónicos actuales: primero se
suman los valores de las columnas impares a las pares; y seguidamente los registrados
en las pares a las impares; de forma que a cada vuelta de manivela se produzca un
nuevo valor y deje a la máquina lista para generar el siguiente.
Un artilugio así es el que ha sido construido con motivo del bicentenario del nacimento
de Babbage por el museo de la Ciencia de Londres, en donde puede contemplarse si
alguna vez tenemos ocasión de pasar por allí (visita obligada para los informáticos,
como para un paleontólogo el Museo de Historia Natural). Su realización deja bien
patente lo correcto de las ideas del matemático en lo tocante al empleo de elementos
mecánicos para realizar operaciones complejas: el primer cálculo produjo las primeras
potencias de 7 correctamente. Solo tiene un pero: su precio, de unos 50 millones de
pesetas, hace que sea eso, una pieza de museo.
José María Cuenca de la Cruz ([email protected])
Claude Shannon Elwood (1916- )
Ingeniero Electrotécnico y Matemático, nacido
el 30 de abril de 1916 en Gaylord, Michigan
(Estados Unidos), considerado como el padre de
la era de las comunicaciones electrónicas.
Realizó sus estudios superiores en la
Universidad de Michigan. En el Instituto
Tecnológico de Massachusetts (MIT) obtuvo su
doctorado en el año de 1940. Mientras trabajaba
para los Laboratorios Bell formuló una teoría
que explicaba la comunicación de la
información, conocida como La Teoría de la
Información.
La teoría matemática de la comunicación era el
clímax del matemático Shannon y de sus
investigaciones en la ingeniería. El concepto de
la entropía es una característica importante de la
teoría de Shannon, esto es que en el envío de
información existe un cierto grado de
incertidumbre de que el mensaje llegue
completo.
Shannon demostró en 1938, cómo las operaciones booleanas elementales, se podían
representar mediante circuitos commutadores eléctricos, y cómo la combinación de
circuitos podía representar operaciones aritméticas y lógicas complejas. Además
demostró como el álgebra de Boole se podía utilizar para simplificar circuitos
conmutadores. El enlace entre lógica y electrónica estaba establecido.
Colossus
Durante la Segunda Guerra Mundial,
el matemático Maxwell Herman
Alexander Newman, profesor de
Alan Turing, propuso una máquina
para acelerar la decodificación del
código Enigma de los alemanes. Al
ver las dificultades mecánicas de la
máquina, Thomas H. Flowers,
ingeniero de la Post Office Research
Station (PORS), tuvo la osada idea de
proponer que los datos de las cintas
se almacenaran internamente, de
manera electrónica.
La máquina, que sería llamada
después Colossus, fue diseñada por
Thomas H. Flowers, S. W. Broadbent
y W. Chandler de forma ultrasecreta.
Ni siquiera ellos mismos pudieron
ver nunca todas las partes de la
máquina y nunca se hicieron
reproducciones de los diseños
originales, los cuales se tomaron
directamente de las notas elaboradas
por sus creadores.
Nunca hubo manuales, ni registros o preguntas sobre sus
piezas o la cantidad de labor consumida. Su ensamblaje y
el montaje de sus conexiones internas se efectuó por
etapas, usando personal distinto, para que nadie supiera
los detalles de toda la máquina.
Más tarde, el propio Turing fue reclutado en Bletchley
Park para participar en el diseño de Colossus.
La primera Colossus se puso en funcionamiento en
diciembre de 1943. Para alivio de Flowers, la máquina
resolvió adecuadamente su primer problema en sólo 10
minutos, repitiendo además el resultado de manera
consistente en, al menos, dos ocasiones consecutivas.
Algunas de las características más importantes de
Colossus eran las siguientes:
Empleaba el sistema binario.
LLegó a tener 2,400 tubos de vidrio al vacío.
Sus datos de entrada los leía de una cinta de papel perforada usando una lectora
fotoeléctrica.
Usaba circuitos de dos estados y sus operaciones eran controladas mediante los
pulsos de su reloj interno, lo que hacía posible operarla a cualquier velocidad, lo cual
era muy útil para probarla.
Sus circuitos permitían efectuar conteos, aplicar operaciones Booleanas y efectuar
operaciones aritméticas en binario.
Sus funciones lógicas podían manejarse de manera preestablecida usando un tablero
de interruptores, o podían seleccionarse de manera condicional (había una especie de
menú con las configuraciones posibles) usando relevadores telefónicos.
Era totalmente automática.
Tenía una memoria de cinco caracteres de cinco bits cada uno, los cuales se
almacenaban en un registro especial.
Su velocidad de operación era de 5,000 Hertz (ciclos por segundo), esto contrasta
notablemente con la velocidad de las computadoras modernas, que es del orden de
millones de Hertz.
Medía 2.25 metros de alto, 3 metros de largo y 1.20 metros de ancho.
Sus resultados se almacenaban temporalmente en relevadores para luego darles salida
a través de una máquina de escribir eléctrica que funcionaba a una velocidad de 15
caracteres por segundo.
Permitía saltos condicionales.
No contaba con programas almacenados internamente y era, obviamente, una
máquina diseñada explícitamente para tareas criptográficas.
Se estima que hacia el final de la guerra
había al menos 10 máquinas Colossus en
operación (todas ellas distintas) y varias
más estaban produciéndose. También parece
ser que se construyó toda una serie de
pequeñas máquinas y acoplamientos
especializados en Bletchley Park en esta
época.
Aparentemente se destruyeron ocho de las
10 máquinas Colossus de Bletchley Park en
1946, por orden directa de Winston
Churchill. Una más sobrevivió hasta los
1950, y la última fue desmantelada en 1960
cuando todos los diagramas de sus circuitos
y sus planos fueron quemados. Se sabe que
varios científicos norteamericanos vieron
funcionar a Colossus en visitas secretas a
Bletchley Park después de la guerra, pero el
gobierno británico vetó toda la información
sobre la máquina durante 30 años. Las
razones no fueron sólo militares, sino
también políticas, pues se sabe que hubo al
menos un bombardeo alemán a una ciudad
inglesa que pudo haberse evitado gracias a
Colossus, pero que se dejó proceder (a costa
de un sinnúmero de muertes) para proteger
uno de los secretos mejor guardados durante
la Segunda Guerra Mundial.
Charles Mahon, Conde de Stanhope (1753-1816)
La piedra fundamental para las Máquinas de Charles Babbage fue el desarrollo en 1777
de una máquina aritmética de calcular por un excéntrico político llamado Charles
Mahon, Tercer Conde de Stanhope.
El abuelo de Mahon fue un comandante en la Guerra de la Sucesión Española y Primer
Ministro del Rey Jorge I (el mismo que no invitó a Gottfried Leibniz a Inglaterra
cuando accedió al trono) y su madre era la hija del Gobernador Pitt. El padre de Mahon
tenía una vida más devota para la ciencia y se hizo un prominente intelectual en vez de
ser un miembro político y social.
Nacido en Londres el 3 de Agosto de 1753 Charles Mahon fue el único niño
sobreviviente de los que tuvieron sus padres. A los nueve años fue enviado a Eton
School, donde mostró gran interés por la mecánica y las matemáticas. A los 19 años fue
enviado a Ginebra, Suiza, y puesto bajo el tutelaje del célebre jurista y escritor francés
Alain Rene Le Sage. Se aplicó a la geometría, la mecánica y la filosofía, y Mahon
pronto ganó el premio de la Academia Sueca por el mejor ensayo escrito en la
construcción del péndulo. A esta edad fue elegido miembro de la Royal Society.
Casado a los 24 años con su prima segunda, la Señora Hester Pitt, Mahon ese mismo
año inventó dos máquinas aritméticas de calcular. La primera tenía platos y pequeños
índices movibles con un alfiler de acero, ejecutando con precisión cálculos complicados
de adición y sustracción. El segundo de los problemas resueltos fue la multiplicación y
la división sin la posibilidad de error por la revolución de un torno pequeño. Tenía el
tamaño de la mitad de un escritorio común y lo que aparece como muy singular y
sorprendente a cada espectador de esta máquina es que mientras trabajaba en la división,
si el operador estaba desatento a su trabajo y giraba el manubrio una revolución más de
la que debía, era instantáneamente amonestado por el error al saltar una bola de marfil
pequeña.
De gran importancia ha sido el uso por Mahon de ruedas de engranaje y un dispositivo
para arrastrar 10 posiciones. La máquina contiene una serie de ruedas dentadas,
relacionadas por medio de dientes. El primer diente alcanza completamente la cara de la
rueda, y representa al nueve y el siguiente es un noveno más corto; el próximo es un
octavo más corto y así sucesivamente hacia abajo. Para añadir nueve, la rueda dentada
se mueve hasta que engancha la posición nueve; y para agregar ocho se mueve hasta
enganchar la ocho.Tres años después que inventara su máquina de aritmética, llegó a ser
miembro de la Cámara de los Comunes (en 1780) y en 1786, miembro de la Cámara de
los Lores. Fue presidente de la Revolution Society, la cual simpatizaba con la
Revolución Francesa, y en 1795 introdujo en la Cámara de los Lores una moción
denunciando cualquier interferencia con los asuntos internos de Francia, un punto en el
cual él estaba en minoría. Envió a París una felicitación por la toma de la Bastilla. En
1791 y 1792 tomó con frecuencia la palabra para oponerse a la guerra con Francia y en
1794 propuso a la Cámara que reconociera a la República Francesa., lo que dio motivo a
que los periódicos humorísticos se ocuparan de él y le llamaran "el ciudadano
Stanhope". Llegó a ser altamente impopular en su país, hasta el punto de que el 12 de
junio de 1794 el populacho de Londres incendió su casa. Como un conservador, Mahon
luchó por la reforma parlamentaria, la abolición de la esclavitud, la libertad de prensa y
por la independencia de las cortes de jurados.
Además de su máquina de aritmética, Mahon
desarrolló la que es considerada la primera máquina
lógica del mundo: el Demostrador de Stanhope .
No solamente el dispositivo podía ser usado para
resolver silogismos tradicionales por un método
aproximado al de los círculos de Venn, sino que
podía manejar silogismos numéricos y también
problemas elementales de probabilidad. Inventor
también en otras áreas, Mahon ideó un esquema para
evitar el fuego en edificios, un material especial para
tejado de casas, un horno para lima ardiente, un vapor
y un doble plano inclinado para la operación de
exclusas en un canal. Creó un plan para prevenir
falsificaciones en moneda y billetes de banco,
desarrolló un instrumento monocorde, unas lentes
microscópicas y un sistema de prensas a brazo para
estereotipos de imprenta que lleva su nombre.
El Conde de Stanhope murió el 15 de diciembre de 1816, profundamente lamentado por
todos, especialmente por la clase más humilde de ciudadanos para quién él había
trabajado arduamente.
EDSAC (Electronic Delay Storage Automatic Calculator)
Desarrollado por Maurice Wilkes y sus
colegas de Cambridge (Inglaterra), fue
completamente operativo por primera vez
en Junio de 1949. El primer ordenador
electrónico en cuanto al uso, por primera
vez en el cálculo, de la tecnología
electrónica de los tubos de vacío y,
también, a la estructura funcional de un
sistema de cálculo versátil con un
programa almacenado en memoria en lo
que conocemos como arquitectura Von
Neumann y que define lo que hoy
consideramos un ordenador.
Anteriormente, los aparatos utilizados
para el cálculo científico- militar usaban la
tecnología electromecánica de los relés y
se programaban, casi siempre
externamente; por ejemplo, con sistemas
de cableado. El EDSAC realizaba 714
operaciones por segundo.
Edsger Dijkstra (1930- )
Edsger Wybe Dijkstra nació en
Rotterdam, (Holanda) en 1930. Sus
padres eran ambos intelectuales y él
recibió una excelente educación. Su
padre era químico y su madre
matemática. mother was a
mathematician.En 1942, cuando
Dijkstra tenía 12 años, entró en
Gymnasium Erasminium, una
escuela para estudiantes
especialmente brillantes, donde dio
clases, fundamentalmente, de
Griego, Latín, Francés, Alemán,
Inglés, biología, matemáticas y
química.En 1945, Dijkstra pensó
estudiar Derecho y trabajar como
representante de Holanda en las
Naciones Unidas. Sin embargo,
debido a su facilidad para la
química, las matemáticas y la física,
entró en la Universidad de Leiden,
donde decidió estudiar física teórica.
Durante el verano de 1951, asistió a
un curso de verano sobre
programación en la Universidad de
Cambridge.
A su vuelta empezó a trabajar en el Centro Matemático en Amsterdam, en marzo de
1952, donde se incrementó su creciente interés en la programación. Cuando terminó la
carrera se dedicó a problemas relacionados con la programación. Pero uno de los
problemas con que se encontró es que ser programador no estaba oficialmente
reconocido como una profesión. De hecho, cuando solicitó una licencia de matrimonio
en 1957, tuvo que señalar que su profesión era físico teórico.
Dijkstra continuó trabajando en el Crentro Matemático hasta que aceptó un trabajo
como desarrollador en Burroughs Corporation, en los Estados Unidos, a principio de la
década de los 70. En 1972 ganó el Premio Turing ACM, y ,en 1974, el AFIPS Harry
Good Memorial. Dijkstra se trasladó a Austin, Texas a principio de los 80. En 1984, se
le ofreció un puesto en Ciencias de la Computación en la Universidad de Texas, donde
ha permanecido desde entonces. Es miembro honorario de la Academia Americana de
Artes y Ciencias y de Real Academia Holandesa de Artes y Ciencias. Además es
miembro distinguido de la Sociedad de Computación Británica. Finalmente es Doctor
Honoris Causa en Ciencias por la Queen's University Belfast.
En 1956, Dijkstra anunció su algoritmo de caminos mínimos, después de haber estado
trabajando con el ARMAC, el ordenador que el Centro Matemático poseía. Más tarde
propuso el algoritmo del árbol generador minimal. A principios de la década de los
60, Dijkstra aplicó la idea de la exclusión mutua a las comunicaciones entre una
computadora y su teclado.Su solución de exclusión mutua ha sido usada por muchos
procesadores modernos y tarjetas de memoria desde 1964, cuando IBM la utilizó por
primera vez en la arquitectura del IBM 360. El siguiente problema del que se ocupó
Dijkstra fue el de los filósofos comensales. En este problema, cinco filósofos están
sentados en una mesa circular con un plato de arroz delante y un palillo a cada lado, de
manera que hay cinco palillos en total. El problema trata sobre el uso de recursos
comunes sin que los procesos (los filósofos) lleguen a una situación de bloqueo mutuo,
inanición y que los recursos sean usados de la manera más eficiente por todos los
procesos. También ayudó a fomentar la disciplina en la programación: "GOTO se puede
considerar dañino. Cuanto más sentencias GOTO haya en un programa, más difícil es
entender el código fuente".
También hay que señalar las duras opiniones que ha expresado Dijkstra sobre algunos
lenguajes de programación.
EDVAC (Electronic Discrete Variable Automatic Computer)
La computadora EDVAC, construida en la
Universidad de Manchester, en Connecticut
(EE.UU.), en 1949 fue el primer equipo con
capacidad de almacenamiento de memoria e hizo
desechar a los otros equipos que tenían que ser
intercambiados o reconfigurados cada vez que se
usaban.
Esta computadora fue también construída por John
Mauchly y J. Prespert Eckert, quienes empezaron a
trabajar en ella 2 años antes que la ENIAC
empezara a operar. La idea era tener el programa
almacenado en la computadora y esto fue posible
gracias a que la EDVAC tenía una mayor
capacidad de almacenamiento de memoria.
La memoria consistía en líneas de mercurio dentro
de un tubo de vidrio al vacío, de tal modo que un
impulso electrónico podía ir y venir en 2
posiciones, para almacenar los ceros (0) y unos (1).
Esto era indispensable ya que en lugar de usar
decimales la EDVAC empleaba números binarios.
En realidad EDVAC fue la primera verdadera computadora electrónica digital de la
historia, tal como se le concibe en estos tiempos y a partir de ella se empezaron a
fabricar arquitecturas más completas.
ENIAC (Electronic Numerical Integrator and Computer)
John P. Eckert y John W. Mauchly
construyeron en 1946, en la Universidad de
Pennsylvania, el ENIAC, primer
computador electrónico, compuesto de
17.468 válvulas o tubos de vidrio al vacío
(más resistencias, condensadores, etc.), con
32 toneladas de peso, 2,40 de ancho y 30
metros de largo.
El calor de las válvulas elevaba la
temperatura del local hasta los 50º. Para
efectuar diferentes operaciones, debían
cambiarse las conexiones (cables) como en
las viejas centrales telefónicas, lo cua l era
un trabajo que podía tomar varios días. Era
capaz de calcular con gran velocidad la
trayectorias de proyectiles, principal
objetivo inicial de su construcción. En 1,5
segundos podía calcular le potencia 5000
de un número de 5 cifras.
La ENIAC podía resolver 5,000 sumas y 360 multiplicaciones por segundo, pero su
programación era terriblemente tediosa y debía cambiársele de tubos contínuamente.
En las últimas fases de su diseño y construcción actuó como consultor John von
Neumann.
George Boole (1815-1864)
Nacido el 2 de Noviembre de 1815 en Lincoln,
Lincolnshire (Inglaterra), primero concurrió a
una escuela en Lincoln, luego a un colegio
comercial. Sus primeras instrucciones en
matemática, sin embargo fueron de su padre
quién le dio también a George la afición para
la construcción de instrumentos ópticos. El
interés de George se volvió a los idiomas y
recibió instrucción en Latín de una librería
local. A la edad de 12 años había llegado a ser
tan hábil en Latín que provocaba controversia.
Él tradujo del latín una Oda del poeta Horacio
de lo cual su padre estaba tan orgulloso que
tenía su publicación. No obstante el talento era
tal que un maestro de escuela local cuestionaba
que nadie con 12 años podría haber escrito con
tanta profundidad.
Boole no estudió para un grado académico,
pero a la edad de 16 años fue un profesor
auxiliar de colegio. Mantuvo su interés en
idiomas e intentó ingresar a la Iglesia. Desde
1835, sin embargo, pareció haber cambiado de
idea ya que abrió su propio colegio y empezó a
estudiar matemáticas por si mismo. Tardó en
darse cuenta que había perdido casi cinco años
tratando de aprender las materias en vez de
tener un profesor experto. En ese periodo
Boole estudió los trabajos de Laplace y
Lagrange, tomando apuntes, los cuales
llegaron a ser más tarde las bases para sus
primeros papeles matemáticos. Comenzó a
estudiar álgebra y Aplicación de métodos
algebraicos para la solución de ecuaciones
diferenciales fue publicada por Boole en el
Transaction of the Royal Society y por este
trabajo recibió la medalla de la Real Sociedad.
Su trabajo matemático fue el comienzo que le
trajo fama.
Boole fue nominado para una cátedra de matemáticas en el Queens College, en 1849,
donde enseñó por el resto de su vida, ganándose una reputación como un prominente y
dedicado profesor.
En el 1854 publicó Las leyes del pensamiento sobre las cuales son basadas las teorías
matemáticas de Lógica y Probabilidad. Boole aproximó la lógica en una nueva
dirección reduciéndola a una álgebra simple, incorporando lógica en las matemáticas.
Agudizó la analogía entre los símbolos algebraicos y aquellos que representan formas
lógicas. Su álgebra consiste en un método para resolver problemas de lógica que recurre
solamente a los valores binarios 1 y 0 y a tres operadores: AND (y), OR (o) y NOT
(no). Comenzaba el álgebra de la lógica llamada Algebra Booleana la cual ahora
encuentra aplicación en la construcción de computadores, circuitos eléctricos, etc.
Boole también trabajó en ecuaciones diferenciales, el influyente Tratado en Ecuaciones
Diferenciales apareció en 1859, el cálculo de las diferencias finitas, Tratado sobre el
Cálculo de las Diferencias Finitas (1860), y métodos generales en probabilidad. Publicó
alrededor de 50 escritos y fue uno de los primeros en investigar las propiedades básicas
de los números, tales como la propiedad distributiva.
Muchos honores le fueron concedidos a Boole, fue reconocido como el genio en su
trabajo recibió grandes honores de las universidades de Dublin y Oxford y fue elegido
miembro académico de la Real Sociedad (1857). Sin embargo, su carrera que comenzó
un tanto tarde terminó infortunadamente temprano cuando murió a la edad de 49 años,
el 8 de Diciembre de 1864 en Ballintemple, County Cork (Irlanda). Las circunstancias
son descritas por Macfarlane de la siguiente forma:
"Un día en el 1864 camino desde su casa al colegio, una distancia de dos millas, con una
lluvia torrencial y luego dio una conferencia con la ropa empapada. El resultado fue un
resfrío febril el cuál pronto dañó sus pulmones y terminó su carrera....."
Lo que a Macfarlane le faltó decir es que la esposa de Boole (Mary nieta de Sir George
Everest, de quién después fue nombrada la montaña) creía que el remedio podría ser la
causa. Ella puso a Boole en cama y arrojó cubos de agua sobre la cama, ya que su
enfermedad había sido causada por mojarse.
El trabajo de Boole llegó a ser un paso fundamental en la revolución de los
computadores, cuando Claude Shannon en 1938, demostró como las operaciones
booleanas elementales, se podían representar mediante circuitos conmutadores
eléctricos, y como la combinación de estos podía representar operaciones aritméticas y
lógicas complejas. Shannon demostró asímismo que el álgebra de Boole se podía
utilizar para simplificar circuitos commutadores.
Gottfried Wilhelm von Leibnitz (1646-1716)
También llamado Leibniz, nació el 1 de Julio
1646 en Leipzig, Saxony (Alemania). Hijo de
un profesor de filosofía moral en Leipzig.
Aprendió él mismo Latín y algo de Griego a la
edad de 12 años, para así poder leer los libros
de su padre. Desde 1661 al 1666 estudió leyes
en la Universidad de Leipzig. En 1666 le fue
rechazado el ingreso para continuar con un
curso de doctorado, y fue a la Universidad de
Altdorf, recibiendo su doctorado en leyes en el
1667.
Continuó su carrera de leyes trabajando en la
corte de Mainz hasta 1672. En ese año visitó
París para tratar de disuadir a Luis XIV del
ataque al territorio alemán.
Permaneció en París hasta 1676, donde
continuó practicando leyes. Sin embargo en
París estudió matemáticas y física. Fue durante
este periodo que las características
fundamentales del cálculo fueron
desarrolladas.
Fue un verdadero precursor de la lógica matemática. Persiguiendo una idea que le acosa
desde la juventud es pos de un alfabeto de los pensamientos humanos y de un idioma
universal se propone el proyecto de construir una característica universal, especie de
lenguaje simbólico capaz de expresar, sin ambigüedad, todos los pensamientos
humanos, de manera que al surgir una controversia entre dos filósofos, éstos la zanjasen
a la manera de los calculistas; bastaría en efecto, sentarse ante los ábacos, pluma en
mano, y como buenos amigos decirse, en mutuo acuerdo: calculemos.
Las ideas de Leibnitz, que contiene muchos conceptos de la lógica simbólica de hoy, no
tuvieron entonces mayor influencia, pues quedaron inéditas hasta este siglo. Igual
destino tuvieron ideas semejantes esbozadas durante el siglo XVIII y comienzos del
XIX. Agreguemos que las ideas de Kant, de gran influencia en su tiempo y para quien
no era necesaria ninguna nueva invención en la lógica, han contribuido sin duda al
estancamiento de esta disciplina. Las cosas cambiaron cuando llegó Boole, el cual se
convirtió en el verdadero fundador de la lógica simbólica.
Leibnitz fue el primero que propuso el uso de un
sistema binario para realizar los cálculos. En 1671
desarrolló una máquina multiplicadora, parecida a
la de Blaise Pascal, que, en teoría podía realizar
incluso las cuatro operaciones aritméticas, y de
hecho construyó dos de estas máquinas. Sin
embargo, la tecnología disponible le imposibilitaba
la realización de las operaciones con exactitud, y
por eso nunca llegaron a ser más que diseños
teóricos.
El resto de su vida desde 1676 hasta su muerte el 14 de noviembre de 1716, permaneció
en Hanover.
Grace Murray Hooper (1906-1992)
Nacida en 1906, se graduó de Vassar College con
grados en matemáticas y física. Conocida como
Amazing Grace. Completó su maestría y doctorado en
matemáticas en Yale. Mientras estudiaba se casó con
Vincent Hopper y se divorciaron en 1945. Durante la
segunda guerra mundial se unió a la U.S. Navy, la
Marina de Guerra de los Estados Unidos, donde trabajó
en el Bureau of Ordenance Computation. Fue enviada al
laboratorio de Howard Aiken en la universidad de
Harvard, donde trabajó como programadora con la Mark
I. Ella creó el lenguaje Flowmatic, con el cual desarrolló
muchas aplicaciones y en 1951 produjo el primer
compilador, denominado A-0 (Math Matic). En 1960
presentó su primera versión del lenguaje COBOL
(Common Business-Oriented Language) para UNIVAC.
El término bug (anglicismo que significa error o fallo
en un programa o sistema) se hizo popular después de
que la programadora Grace Murray Hopper
encontrara un bicho (bug) alojado en los circuitos del
Mark I, provocando que la máquina funcionase mal.
Hopper escribió en su cuaderno de trabajo :"Relé #70
Panel F bug en Relé".
Se le dio el premio Hombre del Año en las Ciencias
de Cómputos por la Data Processing Management
Association. Fue la primera mujer nombrada
Distinguished fellow of the British Computer Society,
y la primera mujer almirante en el U.S. Navy.
Falleció en 1992.
Harvard Mark I
Howard Aiken, director del Proyecto Mark I de la Universidad de Harvard, remarcó: "Si
Babbage hubiera vivido 75 años más tarde, yo estaría fuera de mi empleo". La histórica
Mark I, terminada en 1944, fue conceptualmente muy semejante a la Máquina Analítica
de Babbage.
El proyecto inició en 1939 y la máquina se construyó en el North Street Laboratory de
IBM, en Endicott, Nueva York La tarea tomó varios años, pues primero se tuvieron que
analizar los aspectos prácticos de la idea de Aiken, a la luz de la experiencia de los
ingenieros de IBM en la construcción de equipo de cálculo. La máquina se terminó en
enero de 1943, y se le trasladó posteriormente a Harvard, donde se demostró
públicamente por primera vez en mayo de 1944. Oficialmente, se le bautizó como
Harvard-IBM Automatic Sequence Controlled Calculator (ASCC), pero se le conoció
después como la Harvard Mark I, debido a la serie de máquinas con ese nombre que
Aiken construyera después.
La Mark I era una máquina
impresionante, pues medía unos
15.5 metros de largo, unos 2.40
metros de alto y unos 60
centímetros de ancho , pesando
unas cinco toneladas. Además de
sus gigantescas dimensiones, la
máquina llamaba la atención porque
IBM la construyó a propósito con
gabinetes elegantes que tenían, en
su mayoría, costosas cubiertas de
cristal muy llamativas. Su
funcionamiento era electromecánico
y su interior estaba compuesto de
unas 750,000 piezas diferentes,
entre relevadores, interruptores
binarios, ruedas rotatorias para los
registros, interruptores de diez
posiciones (para los dígitos), etc.
Habían más de 1,400 interruptores rotatorios de diez posiciones en el frente de la
máquina, pues éstos se usaban para establecer los valores que sus 60 registros
constantes (colocados en un panel frontal) contendrían. Además de estos registros
constantes, la Mark I contenía 72 registros mecánicos, cada uno de los cuales podía
almacenar 23 dígitos decimales más un dígito para el signo (cero para el más y nueve
para el menos). La posición del punto decimal estaba fija durante la solución de un
problema, pero podía ajustarse previamente de manera que estuviera entre dos dígitos
cualquiera.La máquina contaba también con mecanismos que permitían efectuar
cálculos de doble precisión (46 decimales), mediante la unión de dos registros, en una
forma análoga a la Máquina Analítica de Babbage.
La Mark I recibía sus secuencias de instrucciones (programas) y sus datos a través de
lectoras de cinta de papel perforada y los números se transferían de un registro a otro
por medio de señales eléctricas. Tal vez por eso no deba sorprendernos que a pesar de
medir sólo 15 metros de largo, el cableado interno de la Mark I tenía una longitud de
más de 800 kilómetros, con más de tres millones de conexiones. Los resultados
producidos se imprimían usando máquinas de escribir eléctricas o perforadoras de
tarjetas, en la más pura tradición de IBM.
A pesar de su tamaño, la Mark I no era extremadamente ruidosa y se
dice que cuando estaba en operación, el sonido que producía era
similar al que haría un cuarto lleno de mecanógrafos trabajando de
forma sincronizada.
La Mark I tardaba aproximadamente 0.3 segundos en transferir un
número de un registro a otro y en
realizar cada una de sus otras operaciones básicas: sumar, restar, poner a cero un
registro, etc. Para efectuar multiplicaciones, divisiones, y calcular valores específicos de
algunas funciones, la máquina usaba unidades aritméticas especiales, aunque éstan
solían evitarse al máximo posible debido a su lentitud. Por ejemplo, calcular el seno de
un ángulo tardaba un minuto y calcular el logaritmo de un número requería 68.4
segundos. La multiplicación y la división eran más rápidas, dada la naturaleza mecánica
de la máquina. La primera tardaba cuando mucho seis segundos y la segunda 16
(aunque normalmente tomaba sólo 10 segundos).
La Mark I originalmente tenía poca capacidad para modificar su secuencia de
instrucciones en base a los resultados producidos durante el proceso de cálculo. La
máquina podía escoger de entre diferentes algoritmos para efectuar un cierto cálculo,
basándose en el valor que tuviera un argumento; sin embargo, para cambiar de una
secuencia de instrucciones a otra, se tenía que detener la máquina y hacer que los
operadores cambiaran la cinta de control. Curiosamente, la Mark I sí permitía verificar
si el contenido de un registro era mayor que un cierto valor (una diferencia notable con
la Z1 de Zuse), pero dado que no podía realmente interrumpir el cálculo que estaba
haciendo para saltar a otro lado de manera automática, suele considerarse que la Mark I
no tenía realmente saltos condicionales.
Esta característica, sin embargo, se le agregó posteriormente, a través del llamado
Mecanismo Subsidiario de Secuencia, que consistía de tres páneles de tableros de
conexiones que se acompañaban de tres lectoras de cinta de papel. Con estos
aditamentos, la Mark I podía transferir el control entre cualquiera de las lectoras,
dependiendo del contenido de los registros. El Mecanismo Subsidiario de Secuencia
permitía definir (mediante conexiones de sus tableros) hasta 10 subrutinas, cada una de
las cuales podía tener un máximo de 22 instrucciones.
La Mark I fue puesta en operación desde abril de 1944, usándose para resolver
problemas de balística y diseño naval durante el final de la Segunda Guerra Mundial.
Fue durante este tiempo que Aiken contó con la colaboración de otro personaje
legendario en la historia de la computación: la por aquel entonces teniente, Grace
Murray Hopper.
Después de la guerra, la Mark I fue utilizada principalmente para calcular tablas de las
funciones de Bessel (usadas para resolver cierto tipo de ecuación diferencial). Debido a
esto, se cuenta que sus programadores solían llamar afectuosamente Bessie a la
máquina.
Sin embargo, la Mark I era una máquina muy lenta en comparación con las
computadoras electrónicas existentes, como la ENIAC. No obstante se tuvo en uso hasta
1959, año en que se desmanteló, manteniendo algunas de sus partes en exhibición en
Harvard y otras en el Smithsonian Institute en Washington, D. C.
La Mark I marcó el inicio del involucramiento de IBM en el diseño de computadoras de
propósito general.
Herman Hollerith (1860-1929)
Nacido en Buffalo, New York, el 29 de Febrero de 1860
era hijo de unos inmigrantes alemanes. Realizó estudios
en el City College de New York a la edad de 15 años y
se graduó de Ingeniero de Minas con altas distinciones
en la Columbia School of Mines, a la edad de 19 años.
Su primer empleo lo obtuvo en la Oficina de Censos en
1880. Posteriormente enseñó ingeniería mecánica en el
Instituto Tecnológico de Massachusetts (MIT) y luego
trabajó para la Oficina de Patentes del gobierno
norteamericano.
Hollerith empezó a trabajar con el sistema de máquinas
tabuladoras durante sus dias en el MIT, logrando su
primera patente en 1884.
Desarrolló una prensa manual que detectaba los orificios
en las tarjetas perforadas. Tenía un alambre que pasaba
a través de los huecos dentro de una copa de mercurio
debajo de la tarjeta, cerrando de este modo el circuito
eléctrico. Este proceso disparaba unos contadores
mecánicos y ordenaba los recipientes de las tarjetas,
tabulando así en forma apropiada la información. La
máquina de Hollerith era eléctrica y procesaba los hoyos
en las tarjetas basándose en la lógica de Boole.
En 1880 se
celebró un censo
de población
nacional en los
Estados Unidos y
tuvieron que
transcurrir 7
largos años antes
de que toda la
información
quedase
procesada por el
Buró de Censos,
debido a que los
datos levantados
eran tabulados en
papel. Por
consiguiente se
estimó que el
próximo censo a
celebrarse en
1890 tardaría
unos 10 o 12
años en
procesarse para
obtener los
resultados
finales. Es por
ello que el
gobierno
norteamericano
convocó a una
licitación para un
sistema de
procesamiento de
datos que
proporcionase
resultados más
rápidos.
Herman
Hollerith, que
trabajaba como
empleado del
buró de Censos,
propuso su
sistema basado
en tarjetas
perforadas, y que
puesto en
práctica
constituyó el
primer intento
exitoso de
automatizar el
procesamiento de
ingentes
volúmenes de
información.
Las máquinas de Hollerith clasificaron, ordenaban y enumeraban las tarjetas perforadas
que contenían los datos de las personas censadas, logrando una rápida emisión de
reportes, a partir de los 6 meses. Los resultados finales del censo de 1890 se obtuvieron
en el tiempo record de 2 años y medio.
Herman Hollerith en 1896 fundó la Tabulating Machine Company que luego se fusionó
con otras dos empresas: Computing Scale e International Time Recording, dando lugar
a CTR (Computing Tabulating Recording) Company. Hollerith se retiró en 1921 y en
1924 CTR cambió su nombre por el de International Business Machines Corporation
(IBM), que años más tarde se convertiría en el gigante de la computación.
Sin embargo, James Powers fue quien desarrolló el sitema de tarjetas perforadas que se
usó en el censo de 1910
Herman Hollerith falleció el 17 de Noviembre de 1929.
Howard Aiken (1900 - 1973)
Howard Hathaway Aiken nació el 9 de Marzo de 1900
en Hoboken (N.J., EE.UU) y falleció el 14 de Marzo de
1973 en St. Louis (Mo., EE.UU). Durante su escuela
superior en Indiana, Aiken asistía a la escuela por el día
y trabajaba largas horas por la noche, e hizo trabajos de
ingeniería mientras asistía a la Universidad de
Wisconsin (Madison), donde obtuvo a los 23 años su
licenciatura en filosofía y letras.
Después de completar su doctorado en la Universidad
de Harvard en 1939, permaneció allí un corto período
como profesor antes de comenzar trabajos de guerra
para la U.S. Navy Board of Ordnance (Consejo Naval
de Artillería de EE.UU.).
Con otros tres ingenieros (Clair D. Lake, B.M. Durfee y F.E. Hamilton), Aiken
comenzó a trabajar en 1939 en una máquina automática de calcular que pudiese realizar
cualquier secuencia seleccionada de 5 operaciones aritméticas (suma, resta,
multiplicación, división y referencia a resultados anteriores) sin intervención humana,
para lo que recibió una subvención de 500.000 dolares americanos (60 millones de ptas.
aprox.) del primer jefe ejecutivo de IBM, Thomas J. Watson.
La primera máquina de este tipo, el Mark I, fue terminada por Aiken y sus compañeros
en Febrero de 1944, y al principio fue llamada "Automatic Sequence Controlled
Calculator" , ASCC (Calculadora Automática de Secuencias Controladas). Desde la
fecha de su fabricación ya estaba técnicamente obsoleta debido a la compentencia de la
máquina de Atanasoff y Berry (Atanasoff-Berry Computer (ABC)).
Continuando su trabajo, Aiken completó un mejorado Mark II, totalmente eléctrico en
1947.
Recibió muchos honores de Estados Unidos, Francia, Paises Bajos, Bélgica y Alemania,
y también contribuyo con numerosos artículos para periódicos escolares de electrónica,
teoría de computadores y procesamiento de datos.
El papel de Aiken en la historia de la computación en los Estados Unidos y en el mundo
es, sin lugar a dudas, muy importante, pues además de diseñar otras máquinas, la
creación del Laboratorio de Computación de la Universidad de Harvard lo llevó a
iniciar uno de los primeros programas de maestría y doctorado en una nueva disciplina
denominada Ciencia de la Computación.
IBM (International Business Machines)
En 1896, Herman Hollerith creó la Tabulating Machine Company. El
15 de Junio de 1911, en Nueva York, Charles R. Flint gestionó la
fusión de esta compañía con otras dos: Computing Scale e
International Time Recording, dando lugar a CTR (Computing
Tabulating Recording) Company. En un principio esta empresa, con
1.300 empleados, se dedicó a fabricar y vender todo tipo de
maquinaria mecánica, desde balanzas industriales hasta cronómetros,
pasando por cortadores de carne y queso.
En 1914, cuando la gestión de la empresa se empezó a complicar,
Flint acudió a Thomas J. Watson. Watson multiplicó los beneficios
y extendió sus dominios por Europa, Suramérica, Asia y Australia.
También fue quien promovió en 1924 que CTR pasara a llamarse
International Business Machines Corporation (IBM).
Durante la Gran Depresión de los años 30, IBM se dedicó a prosperar, especialmente
tras conseguir un contrato millonario con el gobierno estadounidense. En este período
negro, IBM era uno de los mejores lugares en los que se podía estar: fue la primera
empresa en contratar un seguro de vida y en pagar las vacaciones a sus empleados.
En la Segunda Guerra Mundial. IBM amasó una fortuna fabricando material bélico.
También es cierto que creó un fondo para viudas y huérfanos con el 1% de sus ingresos.
En 1944, IBM colabora en la creación de la Harvard Mark I.
En 1952 Watson pasa el testigo a su hijo Thomas
Watson Jr. y se presenta la IBM 701, computadora que
abandonaba la electromecánica a favor de las válvulas
de vacío. La 701 no era mucho más pequeña que la
Mark I, pero era capaz de ejecutar 17.000 instrucciones
por segundo. En 1959, su primer computador que
operaba con transistores y que alcanzaba 229.000
cálculos por segundos: el IBM 7090. Esta máquina fue
usada, por poner un ejemplo, por la Fuerza Aérea
Estadounidense.
Bajo la dirección de Watson Jr., y gracias a una arriesgada apuesta tecnológica, IBM
pasó de ser una empresa mediana y poco puntera, a una enorme y moderna compañía,
protagonista de importantes inventos como el floppy disk. Las cosas cambiarán de
nuevo en 1981, cuando IBM estrena un presidente, John R. Opel, y una nueva máquina,
la IBM Personal Computer, protagonista absoluta de una nueva estrategia: entrar en los
hogares. El corazón de esta pequeña computadora, con 16 Kb de memoria (ampliable a
256), era un procesador Intel, y su sistema operativo procedía de una empresa recién
nacida llamada Microsoft.
Pero durante la segunda parte de la década de los 80 y los primeros 90, IBM vivió un
periodo de recesión. En 1993 IBM tocó fondo al tener unas pérdidas de 8.000 millones
anuales. En este momento apareció Louis V. Gerstner Jr., que se vio obligado a efectuar
fuertes reducciones de costes y plantilla para estabilizar al viejo gigante tambaleante,
decidió mantener la unidad, pese a las múltiples presiones que empujaban a dividirla en
varias empresas independientes, en una apuesta por ofrecer soluciones integradas a sus
clientes. Huelga decir que su estrategia de convertir IBM en una empresa de servicios
que ofreciera productos, tecnología, soluciones y consejos de manera integrada a las
empresas funcionó. Tan bien les ha salido que la competencia (como Hewlett Packard
HP) está siguiendo su estela.
A finales de 1995 IBM adquirió Lotus Development y poco después Tivoli Systems, y
un año después el valor de mercado del gigante azul se incrementó en cerca de 50.000
millones de dólares.
El tamaño y la velocidad de crecimiento de IBM la ha llevado en numerosas ocasiones
ante los tribunales. La primera vez fue en 1936, cuando el Departamento de Justicia
estadounidense consiguió que el Tribunal Supremo condenara a IBM y a RemingtonPand por prácticas contra la competencia. Hasta hoy se ha enfrentado a decenas de
acusaciones (sólo en los años 70 sobrevivió a 20 juicios).
El gigante azul ingresó 87.500 millones de dólares durante el año 1999, con unos
beneficios de 7.700 millones. El 60% de sus ventas proceden de fuera de los Estados
Unidos.
Sede: New Orchard Rd., Armonk, New York 10504
Tlf : 914-499-1900
Fax : 914-765-7382
En la Red: http://www.ibm.com/
Intel Corp.
El primer chip apareció en el mercado en 1961 de la mano de Jack Kilby (Texas
Instruments). En 1964 algunos ya contenían 32 transistores; en 1965 el chip más
complejo del mercado se había desarrollado en Fairchild (cuna de los fundadores de
Intel) y contaba con 64 transistores (un Pentium III incluye 28 millones).
El 18 de julio de 1968, Robert Noyce, Gordon
Moore y Andrew Grove crean la empresa Intel
en la que se desarrollan ideas prácticas para la
memoria de semiconductores, una industria
recién nacida. En un principio, Intel era una
modesta empresa formada por 12 científicos en
un pequeño local alquilado en Mountain View,
que creían en las posibilidades de la memoria
de silicio y apostaron valientemente por ella.
En aquel momento nadie se atrevía a separarse
de la reinante memoria magnética que, aunque
ocupaba más espacio, consumía más energía y
tenía menos prestaciones, era 100 veces más
barata.
El éxito comenzó modestamente cuando
consiguieron que los japoneses Busicom les
encargasen una remesa de microprocesadores
para sus calculadoras programables. Pese a las
indicaciones de los japoneses, el ingeniero
Ted Hoff diseñó un chip revolucionario que
podía ser utilizado en muchos otros
dispositivos sin necesidad de ser rediseñado.
Los chicos de Intel enseguida se dieron cuenta
del potencial de este producto, capaz de dotar
de ? inteligencia? a muchas máquinas
? tontas? . El único problema es que Busicom
poseía los derechos, y para recuperarlos Intel
tuvo que pagarles 60.000 dólares.
En 1971 nació el primer microprocesador (en
aquella época aún no se les conocía por ese
nombre). El potentísimo 4004 estaba
compuesto por 4 de estos chips y otros 2 chips
de memoria. Este conjunto de 2.300
transistores que ejecutaba 60.000 operaciones
por segundo se puso a la venta por 200
dólares. Muy pronto Intel comercializó el
8008, capaz de procesar el doble de datos que
su antecesor y que inundó los aparatos de
aeropuertos, restaurantes, salones recreativos,
hospitales, gasolineras...
Pero Intel no siempre tuvo la visión de futuro acertada. Moore recuerda como a
mediados de los 70 le propusieron comercializar el 8080 equipado con un teclado y un
monitor orientado al mercado doméstico. Es decir, le estaban proponiendo ser los
pioneros en el mundo de las computadoras personales. Pero no vieron la utilidad de esos
cacharros y descartaron la idea.
En 1981 Intel desarrolló los procesadores de 16 bits 8086 y los de 8 bits 8088 que
acumularon la friolera de 2.500 premios de diseño en un solo año. Con ellos IBM
acudió por primera vez a un fabricante externo y confeccionó el primer PC. En 1982
apareció el revolucionario 286, equipado con 134.000 transistores y el primero en
ofrecer compatibilidad de software con sus predecesores.
En 1985 llegó el 386, un micro de 32 bits y 275.000 transistores que fue rápidamente
adoptado por Compaq para su computadora personal Compaq Deskpro 386. Cuatro
años después llegaría el robusto Intel 486 de 1,2 millones de transistores.
En 1993 Intel comienza a desarrollar la línea Pentium, plena de nuevos estándares y de
transistores, y con 5 veces más capacidad que el 486. Después llegará el Pentium Pro y
en 1997 incluye en sus procesadores la tecnología MMX. En mayo de 1997 aparece el
Pentium II, un año más tarde el Pentium II Xeon, tras el que llegaría el Pentium III.
Gordon E. Moore ha sido cofundador, vicepresidente y CEO de Intel. Desde 1997
es consejero emérito. Moore, de 71 años y doctorado en Química y en Física, es
conocido en todo el mundo por haber afirmado en 1965 que la capacidad de los
microprocesadores se doblaría cada año y medio. Es la espectacular y discutida Ley
de Moore.
Andrew S. Grove, químico nacido en Hungría en 1936, participó en la fundación de
Intel. En 1979 fue nombrado presidente y en 1987 CEO, cargo que ocupó hasta mayo
de 1997. Actualmente ocupa el cargo de consejero. Es famoso por su lema "Sólo los
paranoicos sobreviven".
Craig R. Barrett, de 61 años, se unió a la compañía en 1974, en 1984 fue nombrado
vicepresidente, en 1992 fue elegido para formar parte del consejo de dirección y en
1993 paso a ser jefe de operaciones. Actualmente, y desde que sucedió a Grove, es el
CEO de Intel.
Su eslogan Intel Inside es una
realidad, casi todas las
computadoras personales tienen
como cerebro un Pentium o un
Celeron, el 80% del mercado de los
microprocesadores.
Los dos principales clientes de Intel
son los fabricantes de
computadoras Compaq y Dell. Sólo
estas dos compañías suman el 13%
de las ventas de la Intel. El 55% de
las ventas proceden de fuera de los
Estados Unidos.
En su último ejercicio
correspondiente a 1999, Intel tuvo
unas ventas por valor de 29.389
millones de dólares, lo que supuso
un crecimiento del 11,9% respecto
al año anterior, y unos ingresos
netos de 7.314 millones de dólares,
un 20,5% más que en 1998.
Intel cuenta con más de 70.000 trabajadores distribuidos por 40 países alrededor del
mundo. Su tasa de contratación crece cerca de un 9% al año.
Sus dos principales rivales, en cuanto a microprocesadores se refiere son AMD y Cyrix.
Sede
2200 Mission College Blvd.
Santa Clara, CA 95052-8119
Tlf: 408-765-8080
Fax: 408-765-6284
En la Red
http://www.intel.com/
Inteligencia Artificial
La Inteligencia Artificial es nieta de la ciencia y tecnología de la computación e hija de
la vida artificial. Se encarga del estudio de la tecnología y la ciencia del diseño de
máquinas que realizan tareas que normalmente se asocian con la inteligencia humana o
de los animales con sistemas nerviosos con algo de inteligencia. Se la puede definir
como una ciencia de lo artificial y como un conjunto de tecnologías computacionales
que se interesan en cómo se manifiesta la adaptación al ambiente, la representación y el
razonamiento , en diversas especies vivientes (el humano, los invertebrados, etc.) y lo
aplican o lo imitan (hacen una mímica) de su adaptación, su representación y su
razonamiento (segun la especie) en máquinas artificiales universales de Turing. Las
técnicas de la IA incluyen, entre muchísimas, brazos robotizados con varios grados de
libertad, demostración de teoremas y sistemas expertos que diagnostican enfermedades
y prescriben remedios, así como la simulación de la inteligencia natural a través de dos
vertientes: la computación conexionista (redes neurales) y la computación simbólica
(aplicación de las reglas lógicas).
J. Presper Eckert, Jr. (1919-1995)
Nació el 9 de abril de 1919 en Philadelphia
(EE.UU.) y fue el único hijo de una prospera
familia. Desde muy pequeño evidenció poseer
aptitudes excepcionales para las matemáticas y
mentalidad de inventor. En 1937, luego de
graduarse del colegio privado William Penn
Charter School, Eckert ingresó en la Universidad
de Pennsylvania, donde se graduó de ingeniero
eléctrico en 1941. Después de graduado, Eckert
continuó trabajando en la Universidad y
realizando estudios de postgraduado.
Aún antes de obtener su título de ingeniero, Eckert
ya había diseñado y construido un dispositivo para
medir la concentración de vapor de naftaleno
utilizando luz ultravioleta y, posteriormente,
trabajó en el desarrollo de instrumentos para medir
los límites de fatiga en los metales.
Durante la Segunda Guerra Mundial, Eckert
diseñó y construyó un dispositivo que permitía
detectar cambios rápidos en pequeños campos
magnéticos. Este dispositivo se utilizó
ampliamente durante la guerra para desactivar las
minas marítimas del enemigo. Otros de los
inventos de Eckert estuvieron relacionados con los
radares, y en ellos aplicó por primera vez
conceptos digitales relacionados con contadores, a
problemas de ingeniería electrónica.
A la edad de 22 años, sirviendo de instructor en la Universidad para un grupo de
alumnos, la mayoría de los cuales eran Ph.D (doctorados en su rama particular), conoció
y trabó amistad con John Williams Mauchly. Esta amistad duraría hasta la muerte de
Mauchly (ocurrida en 1980), y de su asociación saldrían varios de los logros más
importantes en la computación moderna.
Junto a Mauchly, construyó en 1946,
en la Universidad de Pennsylvania, la
computadora electrónica de propósito
general, ENIAC. En la Universidad de
Manchester, en Connecticut
(EE.UU.), en 1949, construyeron la
EDVAC.
Más tarde, una corporación formada
por Eckert y Mauchly empezó a
construir UNIVAC, pero debido a
problemas financieros, se vieron
obligados a vender su compañía a
Remington Rand Corp. Trabajando
para esta compañía fue que se
concluyó el proyecto Univac, en
1951. Univac I fue la primera
computadora que se fabricó
comercialmente, así como la primera
en utilizar un compiler (compilador o
autoprogramador) para traducir
idioma de programa en idioma de
máquinas. En 1952 Univac (no el
modelo original sino otra) se utilizó
para computar el resultado de las
elecciones presidenciales entre
Eisenhower y Adlai Stevenson. El
resultado (victoria de Eisenhower) se
supo 45 minutos después de que
cerraron los colegios electorales.
Después de haber producido Univac I,
Eckert y Mauchly continuaron
trabajando para la firma Remington
Rand, que pasó a llamarse Sperry
Rand Corporation en 1951.
Jack S. Kilby (1923- )
Nació en 1923 en Jefferson City, Missouri, (EEUU),
diplomado de las universidades de Illinois y de
Wisconsin, desde 1958 fue empleado de la compañía
informática estadunidense Texas Instruments, donde
desarrolló el microchip en 1959. El inventor del circuito
integrado monolítico, se declaró sorprendido de que se le
haya otorgado el Premio Nobel de Física, que comparte
con Kroemer y con el ruso Zhores Alferov. Kilby, quien
vive en Dallas, Texas, declaró que ? no había previsto
esto y de hecho, creía que era muy improbable ? .
La investigación de Kilby condujo a la producción de los
microprocesadores y echó los cimientos conceptuales y
técnicos para todo el campo de la microelectrónica.
? Yo creí entonces que el microprocesador sería
importante, pero no podía imaginar en qué forma
crecería la industria electrónica debido a él? , agregó.
Kilby comenzó su carrera en 1947 en Globe Union, en
Milwaukee y trabajó en el desarrollo de circuitos de base
cerámica y matriz para los artefactos electrónicos.
En su carrera, Kilby ha patentado más de
60 inventos que se han incorporado a la
industria para el consumo, las
fabricaciones militares y las aplicaciones
comerciales de la tecnología de
microprocesadores.
James Powers
Poco se sabe de él, excepto que nació en Rusia, que era ingeniero
eléctrico, y que fue capaz de acabar con el monopolio de Hollerith.
Hacia 1910, año de censo, un nuevo superintendente del censo fue
nombrado. Su nombre era Simon Newton Dexter North, y se
convertiría en la peor pesadilla de Hollerith. Sabiendo que las
patentes de Hollerith estaban a punto de vencerse, North propuso al
gobierno el diseño de una máquina que resultaría significativamente
más barata que la de Hollerith. Como era de esperarse, Hollerith se
puso furioso y una larga y cruenta guerra se inició entre los dos.
North habría sido derrotado en su intento de crear una máquina que
no violara las patentes de Hollerith y a la vez pudiera hacer el
trabajo, si no hubiera sido por un oscuro ingeniero que contrató para
ayudarle. Su nombre era James Powers.
Fue James Powers quien desarrolló el sistema de tarjetas perforadas
que se usó en el censo de 1910. Después de eso Powers quedó
convencido de que había un mercado para este tipo de máquinas y
en 1911 constituyó la Power's Tabulating Machine Company,
convirtiéndose en el principal competidor de Hollerith. Después de
una serie de fusiones su compañía llegó a ser parte de la Sperry
Rand Corporation y de la división Sperry UNIVAC.
Johannes Kepler (1571-1630)
Johannes Kepler nació el 27 Diciembre de 1571
en Leonberg, Holy Roman Empire (Alemania).
Fue un niño enfermizo que padecía de
furúnculos, dolores de cabeza, miopía,
infecciones de la piel, fiebres y afecciones al
estómago y a la vesícula. A la edad de cuatro
años, casi sucumbió con los estragos de la
viruela.
Por fortuna para Kepler, los duques de
Wurttemberg alentaban entonces la educación
de los niños precoces. Pudo terminar sus
estudios en el seminario teológico y fue a
graduarse en la Universidad de Tubinga gracias
a lo que en el siglo XVI equivalía a una beca. En
Tubinga tuvo el apoyo de un profesor que
secretamente le enseñó las ideas de Copérnico,
cosa que fue necesario hacer en secreto debido a
que sólo la teoría tolemaica tenía la aprobación
oficial. En esta época de la carrera de Kepler,
parecía seguro que sería sacerdote, pero por
alguna razón desconocida cambio de planes y
aceptó el empleo de maestro de astronomía y
matemática en Graz, capital de la provincia
austríaca de Estiria.
Fue en Graz, en 1596, donde Kepler publicó su notable libro "El misterio del Universo".
Con el ardor y la exuberancia de la juventud, declaró que había descubierto el orden
fundamental que servía de base a las distancias que separaban a los planetas del Sol; en
otras palabras, creyó haber resuelto el enigma del plan divino del Universo. La teoría de
Kepler (que era errónea) resultaba muy ingeniosa. Sabía que sólo existían cinco sólidos
perfectos que podrían construirse en el espacio tridimensional. Se le ocurrió a Kepler
que estos cinco sólidos podrían caber exactamente en los cinco intervalos que separaban
a los seis planetas (no se conocían más en ese tiempo). En la órbita de Saturno inscribió
un cubo; en ese cubo insertó otra esfera, Júpiter. Inscribió el tetraedro en Júpiter y luego
inscribió en él la esfera de Marte. El dodecaedro cabría perfectamente entre Marte y la
Tierra; el icosaedro entre la Tierra y Venus, y entre Venus y Mercurio puso el octaedro.
¡Y he aquí que Kepler creyó haber encontrado la clave del gran enigma! Lo resumió así
:
? En unos días, todo quedó en su lugar. Vi que un sólido tras otro encajaba con tanta
precisión entre las órbitas apropiadas que si un campesino preguntaba con que gancho
estaban prendidos los cielos para no caerse, sería fácil contestarle? .
Kepler envió informes de esta teoría a todos aquellos en quienes pudo pensar, contando
a Galileo y el famoso astrónomo Ticho Brahe. Los dos hombres sostuvieron
correspondencia con el joven astrónomo; y cuando la intolerancia religiosa obligó al
protestante Kepler a irse de Graz, aceptó la invitación de ayudar a Brahe, quién era
matemático de la corte de Rodolfo II de Praga. El 1 de enero de 1600, Kepler llegó a
Praga.
Cuando murió Ticho en 1601, Kepler lo sucedió en el puesto de matemático imperial.
Una de sus obligaciones consistía en preparar horóscopos para el emperador y otros
dignatarios de la corte. Pero, al hacerlo, tuvo que enfrentarse a los espinosos problemas
dignos de un genio matemático, astronómico y filosófico. En 1615, después de penosos
estudios que llenaron quinientas hojas de papel de oficio, se preparó para publicar su
Nueva astronomía, primer libro moderno sobre la materia.
La vista defectuosa de Kepler lo llevó a interesarse toda la vida en la óptica. Sus
trabajos comprenden explicaciones sobre el modo en que los anteojos ayudan a los
miopes y a los présbitas; también abarcaron el principio de la cámara fotográfica.
Despertada su curiosidad por el recién inventado telescopio, Kepler publicó su Dióptrica
en 1611, en la cual bosquejó el diseño de un telescopio astronómico de inversión que se
usó mucho a partir de entonces.
En la esfera de las matemáticas, se le atribuye el haber contribuido a crear el cálculo
infinitesimal y estimular el uso de los logaritmos en los cálculos. Fue uno de los
primeros en advertir el efecto que tiene la Luna sobre las mareas.
Kepler falleció el 15 de noviembre de 1630 en Rosensburg (Alemania). Han pasado más
de tres siglos desde que murió Kepler, pero los años que siguieron no han hecho más
que aumentar el fulgor de sus aportaciones. No hay mejor manera de bajar el telón sobre
la historia de Kepler que la de citar el epitafio que compuso para su lápida :
?Medí los cielos, y ahora las sombras mido, En el cielo brilló el espíritu, En la
tierra descansa el cuerpo. ?
John Bardeen (1908-1991)
Nació en Madison, Wisconsin (EE.UU.) en 1908.
Estudió en las universidades de Wisconsin y
Princeton; obtuvo la licenciatura en Letras en
1928, y en Ciencias al año siguiente. De 1930 a
1933 fue profesor de matemáticas. Trabajó como
geofísico en la Gulf Research y en la
Development Corporation. De 1935 a 1938 fue
catedrático de Física en la Universidad de
Harvard. En los años siguientes, sirvió diversos
cargos docentes en el Departamento de Marina y
en los laboratorios navales. Investigador en la
Murray Hill de Nueva Jersey y en los laboratorios
de la Bell Telephone, de 1945 a 1951, sirvió las
cátedras de Electricidad y Física en la
Universidad de Illinois.
Las investigaciones de Bardeen contribuyeron al rápido progreso en el ámbito de la
electrónica y condujeron a la invención y perfeccionamiento del transistor, que por sus
muchas ventajas reemplazó a las válvulas termoiónicas. La Academia de Ciencias de
Suecia, que le otorgó el premio Nobel en 1956, junto con Walter Brattain y William
Shockley, por sus estudios sobre los transistores, indicó que era merecedor del galardón
por sus "investigaciones sobre los semiconductores y el descubrimiento del efecto del
transistor".
Bardeen recibió nuevamente el premio Nobel, en 1972, con Leon N. Cooper y John R.
Schrieffer, por el estudio de la superconductividad de metales enfriados casi al cero
absoluto, estudio trascendente para el desarrollo de la industria eléctrica. Los
superconductores fueron descritos por vez primera por el holandés Kamerlingh Onnes.
Bardeen, tras exhaustivas investigaciones, logró desentrañar sus complejos y anómalos
comportamientos; demostró que las cargas negativas de electrones en un
superconductor, en lugar de dispersar su energía e ímpetu a través de colisiones
casuales, se ordenan y actúan de manera complementaria, moviéndose coherentemente
en la misma dirección y velocidad.
Además, de los dos premios Nobel, el profesor Bardeen recibió el premio Fritz London,
en 1962, el Vincent Bendiz en 1964 y la Medalla Nacional de Ciencias. Falleció en
Boston, Massachusetts, en 1991.
John Vincent Atanasoff (1903-1995)
Nace el 4 de octubre de 1903 en Nueva York. El doctor Atanasoff tuvo
un interés constante en hallar formas más rápidas para realizar cómputos
matemáticos. Tras examinar algunas de las máquinas de su época,
aseveró que éstas eran lentas e imprecisas y comenzó a desarrollar el
concepto de un aparato digital, pues las máquinas análogas eran
demasiado restrictivas y no alcanzaban el grado de precisión que él
quería.
Curiosamente, el concepto de una computadora electrónica digital
nació en una taberna de Iowa, donde Atanassoff definió los 4
preceptos básicos para tal aparato, que usaría: electricidad y
componentes electrónicos, un sistema binario (unos y ceros),
condensadores para almacenar datos (memoria) y un sistema lógico
para el cómputo y no la enumeración, como ocurría con las
máquinas análogas.
Atanasoff solicitó un estudiante para que lo asistiera en el proyecto y le fue
recomendado Clifford Berry, un dotado ingeniero eléctrico con un perfil similar al del
doctor.
El primer prototipo de su máquina quedó listo en diciembre de 1939, era la ABC, por
Atanasoff Berry Computer.
En 1940, Atanasoff asiste a una lectura del Dr. John W. Mauchly y después de una
plática posterior le muestra su máquina. Mauchly retoma muchas ideas de la ABC para
diseñar junto con J. Presper Eckert la ENIAC, generalmente considerada la primera
computadora digital electrónica del mundo.
Tras una larga disputa legal, en 1972 se adjudicó a Atanasoff la paternidad de la
máquina que revolucionaría el mundo.
John Vincent Atanasoff muere en 1995 en Mariland.
John Williams Mauchly (1907-1980)
John Williams Mauchly había nacido en
Cincinnati, Ohio (EE.UU.) el 30 de agosto
de 1907. Sus magnificas aptitudes como
estudiante le valieron una beca para la
Escuela de Ingeniería Eléctrica de la
Universidad Johns Hopkins. Al cabo de
dos años en esta especialidad se dio cuenta
que su verdadera vocación no era la
ingeniería sino la física. En 1932, a los 35
años de edad, Mauchly se graduó de
Doctor en Ciencias Físicas.
Luego de doctorarse y pasar un año
trabajando en Johns Hopkins, Mauchly
pasó a ser el jefe del Departamento de
Física en el Ursinus College de
Collegeville, Filadelfia, donde se mantuvo
desde 1933 hasta 1941. En este año se
enroló en el curso de ocho semanas sobre
la electrónica aplicada en el campo de la
defensa que se dictó en la Universidad de
Pennsylvania; allí conoció a Presper Eckert
y luego continuó trabajando para dicha
Universidad como instructor.
A principios de la década de los 40,
Mauchly escribió un memorandum
titulado : "Utilización de Tubos al
Vacío de Alta Velocidad par realizar
Cálculos.". Este memorandum abrió
las puertas para que Washington
aprobara el presupuesto para
emprender la construcción de la
ENIAC.
En 1941, Mauchly visitó a John
Vincent Atanasoff y observó muy de
cerca la ABC (Atanasoff- Berry
Computer) y tuvo la oportunidad de
revisar su tecnología. Existe una gran
controversia respecto a que Mauchly
copiara muchas de las ideas y
conceptos del profesor Atanasoff,
para, posteriormente, entre los año s
1943 a 1946, aplicarlas a la
computadora ENIAC.
De todas formas, en 1946, trabajando
junto Eckert, la computadora
electrónica de propósito general,
ENIAC, se terminó de cons truir en la
Universidad de Pennsylvania. En
1949, en la Universidad de
Manchester, en Connecticut
(EE.UU.), junto a Eckert nuevamente,
construyó la EDVAC.
Más tarde, una corporación formada por Eckert y
Mauchly empezó a construir UNIVAC, pero
debido a problemas financieros, se vieron
obligados a vender su compañía a Remington
Rand Corp. Trabajand para esta compañía fue que
se concluyó el proyecto Univac, en 1951. Univac
I fue la primera computadora que se fabricó
comercialmente, así como la primera en utilizar
un compiler (compilador o autoprogramador) para
traducir idioma de programa en idioma de
máquinas. En 1952 Univac (no el modelo original
sino otra) se utilizó para computar el resultado de
las elecciones presidenciales entre Eisenhower y
Adlai Stevenson. El resultado (vic toria de
Eisenhower) se supo 45 minutos después de que
cerraron los colegios electorales.
Después de haber producido Univac I, Eckert y
Mauchly continuaron trabajando para la firma
Remington Rand, que pasó a llamarse Sperry
Rand Corporation en 1951. Mauchly trabajó como
ingeniero en el departamento de diseño lógico de
la compañía hasta su muerte en 1980.
Joseph Marie Jacquard (1752 - 1834)
Nació el 7 de Julio de 1752 en la ciudad de Lyon (Francia), y
aunque fue hijo de un modesto obrero textil tuvo grandes
aspiraciones para su futuro.
En 1801, ya convertido en inventor e industrial textil, Joseph
Marie Jacquard dio un fundamental aporte al proceso de las
máquinas programables al modificar una maquina ria textil, a la
cual añadió un sistema de plantillas o moldes metálicos perforados,
unidas por correas, que permitían programar las puntadas del
tejido, logrando obtener una diversidad de tramas y figuras.
Fue tan grande el interés despertado por el invento de
Jacquard, que el propio Napoleón Bonaparte se quedó
asombrado cuando en 1805 asistió a una exibición
industrial celebrada en Lyon, para posteriormente
condecorarlo con la medalla de La Legión de Honor y
un premio de 50 francos por cada telar que fuese
comercializado durante el período de 6 años.
A pesar del impacto comercial del telar de Jacquard, que
permitió que un sólo hombre realizara el trabajo de
varios, el hecho ocasionó el temor de la pérdida de
empleos de los obreros textiles. El inventor recibió
amenazas de muerte y su popularidad decayó, pero a
partir de 1806 su invento se posesionó del mercado.
Jacquard terminó sus días trabajando como regidor
municipal en la ciudad de Oullins, no muy lejos de su
ciudad natal Lyon, falleciendo el 7 de Agosto de 1834 a
la edad de 82 años.
A partir del invento de Jacquard empezaron a proliferar, poniéndose muy de moda, las
máquinas y equipos programados por sistemas perforados, tales como los pianos
mecánicos, conocidos como pianolas, muñecos y otros novedosos juguetes mecánicos.
Konrad Zuse (1910-1957)
Konrad Zuse nació en Berlin el 22 de Junio de 1910. Estudió
ingeniería civil en el Instituto Politécnico de Berlin,
graduándose en 1933. Trabajó en la industria aeronáutica,
pero años más tarde se retiró para dedicarse a las tareas de
nventor, labor que desarrolló en el dormitorio de un
departamento desocupado propiedad de sus padres.
Durante 1936 y 1939, Zuse construyó la primera computadora
electromecánica binaria programable, la cual hacía uso de
relés eléctricos para automatizar los procesos. Sin embargo,
tan sólo fabricó un prototipo para pruebas al cual llamó Z1, el
cual nunca llegó a funcionar debido a la falta de
perfeccionamiento en sus elementos mecánicos.
En 1940 Zuse terminó su modelo Z2, el cual fue la primera
computadora electromecánica completamente funcional del
mundo. Al año siguiente, en 1941, fabricó su modelo Z3 pare
el cual desarrolló un programa de control que hacía uso de los
dígitos binarios. Sin embargo esta computadora fue destruida
en 1944 a causa de la guerra. Konrad Zuse se había basado
para el diseño de sus computadores en los recientes trabajos
de Alan Turing.
El gobierno nazi no confió nunca en sus trabajos, por lo que toda su investigación fue
financiada por él mismo, con ayuda de un grupo de entusiastas amigos.Entre 1945 y
1946 creó el Plankalkül (Plan de Cálculos), el primer lenguaje de programación de la
historia y predecesor de los lenguajes modernos de programación algorítmica.
En 1949 formó la fundación ZUSE KG dedicada al desarrollo de programas de control
para computadoras electromecánicas. En 1956 esta fundación fue adquirida por la
empresa Siemens.
A lo largo de su vida Konrad Zuze fue motivo de muchos honores, falleciendo en
Hünfeld, Alemania el 18 de Diciembre de 1995.
Kurt Freidrich Gödel (1906-1978)
Kurt Gödel nació el 28 de de abril de 1906 en Brünn, Moravia. Su padre, Rudolph, fue
un diligente e inventivo propietario de una fábrica text il. Su madre, Marianne, fue una
cariñosa madre de familia que había recibido una extensa educación literaria en
Francia. La familia Gödel era económicamente acomodada y el joven Kurt pudo
dedicar todas sus energías al estudio, ya que no era necesario colaborar en la
financiación familiar. Sobresalió en el trabajo escolar. Su primer interés académico fue
la Lingüística, pero más tarde acudió a las Matemáticas ya que era más fácil para él
estudiarlas por su cuenta, una vez agotados los recursos que le ofrecía la escuela.
Ingresó en la Universidad de Viena en 1924 planeando estudiar Física Teórica. Hacia
1926 su atención volvió a las Matemáticas y se produjo su unión a lo que más tarde fue
conocido como el Círculo de Viena, un grupo de matemáticos que fundó la escuela
filosófica conocida como Positivismo Lógico. Gödel estuvo asociado con este grupo
durante muchos años. La principal premisa del Círculo de Viena era que lo que no es
verificable empíricamente no tiene sentido. La antítesis de esta filosofía es la
especulación metafísica, ya que nada puede ser probado o refutado con algún grado de
certidumbre dentro del sistema metafísico. Gödel se fue interesando progresivamente en
Teoría de Números y, después, en Lógica Matemática durante estos años.
En 1930, Gödel se doctoró en Matemáticas dirigido por H. Hahn, un notable
matemático miembro del Círculo de Viena. A partir de aquí comienza Gödel a trabajar
en sus más importantes teorías sobre la completitud de sistemas formales. Viajó a los
Estados Unidos dando un ciclo de conferencias y se encontró por primera vez con
Albert Einstein en 1933. Dedicó alguno de los años siguientes al estudio de problemas
de Física y de Psicología. Durante esta época tuvo que ser ingresado varias veces en
hospitales por problemas de salud.
En 1931, Kurt Gödel fue capaz de responder a dos de las preguntas formuladas por
David Hilbert en el Congreso Internacional de Matemáticos de 1900, demostrando que
cualquier sistema formal suficientemente potente es inconsistente o incompleto. Así
mismo probó que si un sistema de axiomas es consistente, esta consistencia no puede
demostrarse por sí misma.
Gödel se casó con Adele Porkert en 1938 y decidieron trasladarse definitivamente a los
Estados Unidos en 1940. Se asentaron en Princeton, New Jersey, donde residieron hasta
el final de sus vidas.
Llegó a ser un gran amigo de Einstein, y trabajaron juntos los aspectos filosóficos y
matemáticos de la Teoría General de la Relatividad. Gödel incluso trabajó con éxito en
las ecuaciones del campo gravitatorio, encontrando soluciones sorprendentes. También
dedicó gran parte de su tiempo al estudio del concepto de tiempo, publicando varios
artículos y dando varias conferencias sobre el tema.
Recibió muchos homenajes importantes durante su vida. Fue nombrado doctor
honorario en Literatura por la Universidad de Yale en 1951. También fue doctor
honorario en Ciencias por Harvard en 1952 con una mención que lo llamó "el
descubridor de la verdad matemática más significativa del siglo". Fue elegido como
miembro de la Academia Nacional de Ciencias en 1955 y de la Academia Americana de
las Artes y Ciencias en 1957. En 1961 ingresó en la Sociedad Filosófica de América. En
1967, fue elegido miembro honorario de la Sociedad Matemática de Londres.
Finalmente, en 1975, el presidente Ford le entregó la Medalla Nacional de las Ciencias.
Batalló durante toda su vida contra sus problemas de salud física y mental. Confesó en
1969 que no era capaz de entender el trabajo de los nuevos lógicos; la enfermedad iba
cobrando su peaje. Años más tarde, llegó a estar convencido de que estaba siendo
envenenado. Para evitar esto, dejó de comer y acabó muriendo por inanición el 14 de
enero de 1978.
Lenguajes de programación
Lenguaje
Origen del Nombre
Año Notas/Comentarios
ADA
Augusta ADA Byron
(Lady Lovelace)
1979
ALGOL
ALGOrithmic Language
(Lenguaje algorítmico)
Primer lenguaje estructurado, usado
principalmente para resolver problemas
1960
matemáticos. Desarrollado por Alan
Perlis, John Backus y Peter Naur.
APL
A Programming
Language (Lenguaje de
programación A)
Lenguaje interpretado que usa un gran
1961 conjunto de símbolo especiales y una
sintaxis compleja.
BASIC
Beginners All-Purpose
Symbolic Instruction
Code (Código de
instrucción simbólica
multifuncional para
principiantes)
Popular lenguaje de alto nivel, usado
1965 frecuentemente por programadores
principiantes.
C
Lenguaje posterior al
lenguaje B de los
Laboratorios Bell
1972
COBOL
COmmon BusinessOriented Language
(Lenguaje orientado a
tareas sencillas)
Creado por Grace Murray Hooper para
1960 Univac. Crea el concepto de tipo de
dato.
Derivado del PASCAL, usado
principalmente para fines militares.
Popular lenguaje estructurado y
compilado, muy portable.
Primer compilador creado por John
Backus en 1957. Lenguaje compilado
FORmula TRANslation
de alto nivel. Precursor de múltiples
FORTRAN (Traducción de Fórmulas) 1957
conceptos, tales como variables,
sentencias condicionales y funciones
compiladas separadamente.
LISP
PASCAL
Creado por John McCarthy. Lenguaje
interpretado de procesamiento de listas
LISt Processing
1958 orientado a la realización de
(Procesamiento de Listas)
aplicaciones en el ámbito de la
Inteligencia Artificial.
Blaise PASCAL,
matemático e inventor de
la Máquina Analítica,
primer concepto de
ordenador.
Lenguaje estructurado compilado
basado en ALGOL, al cual añade tipos
1971 de datos y simplifica su sintaxis. Creado
por el profesor suizo de Ciencias de la
Computación, Niklaus Wirth.
PL/1
Programming Language
One
Complejo lenguaje de programación.
Compilado, estructurado y capaz de
1964
manejar errores y multitarea, usado en
entornos académicos y de desarrollo.
También podemos citar las caústicas opiniones de Esger Dijkstra sobre algunos de estos
lenguajes de programación:
"PL1 es como una muerte súbita. Más que al conjunto de soluciones, este lenguaje
pertenece al de los problemas".
"El FORTRAN es el desorden infantil. A pesar de su antigüedad, es más que
inadecuado para cualquier aplicación que se tenga en mente, demasiado torpe,
demasiado arriesgado y demasiado costoso su uso".
"Es prácticamente imposible enseñar a programar a cualquier estudiante que haya
estado expuesto con anterioridad al BASIC : como programadores potenc iales, esos
estudiante habrán quedado mentalmente mutilados, sin esperanza de regeneración".
"Como el COBOL produce parálisis cerebral, debería considerarse como una ofensa
criminal".
Máquina de Turing
En 1936, Alan Turing contestó al entscheidungsproblem, la cuestión planteada por
David Hilbert sobre si las matemáticas son decidibles, es decir, si hay un método
definido que pueda aplicarse a cualquier sentencia matemática y que nos diga si esa
sentencia es cierta o no. En el artículo On Computable Numbers, Turing construyó un
modelo formal de computador, la Máquina de Turing, y demostró que había problemas
tales que una máquina no podía resolver. La máquina de Turing es el primer modelo
teórico de lo que luego sería un computador programable. Con el tiempo a este tipo de
máquina se la conoció como máquina de estado finito, debido a que en cada etapa de un
cálculo, la siguiente acción de la máquina se contrastaba con una lista finita de
instrucciones de estado posibles.
¿Cómo funciona la máquina de Turing?
Una máquina de Turing es un dispositivo que transforma un INPUT en un OUTPUT
después de algunos pasos. Tanto el INPUT como el OUPUT constan de números en
código binario (ceros y unos). En su versión original la máquina de Turing consiste en
una cinta infinitamente larga con unos y ceros que pasa a través de una caja. La caja es
tan fina que solo el trozo de cinta que ocupa un bit (0 ó 1) está en su interior. La
máquina tiene una serie de estados internos finitos que también se pueden numerar en
binario.
Para llevar a cabo algún algoritmo, la máquina se inicializa en algún estado interno
arbitrario. A continuación, se pone en marcha y la máquina lee el bit que se encuentra
en ese momento en su interior y ejecuta alguna operación con ese bit (lo cambia o no,
dependiendo de su estado interno). Después se mueve hacia la derecha o hacia la
izquierda, y vuelve a procesar el siguiente bit de la misma manera. Al final se para,
dejando el resultado al lado izquierdo por ejemplo.
Una instrucción típica podría ser: 01→11011i
La traducción es como sigue: si la máquina se encuentra en el estado interno 0 y lee 1 en
la cinta, entonces pasará al estado interno 1101 (13), escribirá 1 y se moverá hacia la
izquierda un paso (la cinta se moverá hacia la derecha).
A continuación es conveniente inventar una notación para la secuencia del INPUT. Esta
notación se llama notación binaria expandida. Consiste en cambiar la secuencia original
binaria por otra construida de la siguiente forma: el 0 se cambia por 0 y el 1 por 10 y se
ponen un cero a la izquierda y/o a la derecha del resultado si empieza o acaba en 1
respectivamente. Así por ejemplo, el número 13 que en binario es 1101 es en binario
expandido 1010010 con un cero delante por esta última regla 01010010. Para volver al
original hay que contraer el binario expandido con la siguiente regla:
Empezamos a leer por la izquierda el bianrio expandido. Cuando encontremos un 0
tomamos nota de cuántos 1 hay hasta llegar al siguiente 0 y lo escribimos. Si
encontramos que hay dos 0 seguidos, apuntaríamos un 0 porque no habría ningún
1.Veamos con el 13 cómo se haría. El primer 0 se encuentra en la primera posición y el
siguiente 0 está en la posición 3. Entre los dos solo hay un 1. Lo anotamos.
Seguidamente hay un 1, y después un 0, entonces apuntamos 1 porque hay un 1 entre
medias de ellos. Esto es lo que se hace sucesivamente y encontramos: 1101 que es el
número original.
Máquina Diferencial
Charles Babbage había constatado en 1812, que muchos de los cálculos muy largos
consistían en operaciones que había que repetir de manera regular, y desde este punto de
vista especuló que debería ser posible diseñar una máquina calculadora que pudiera
hacer estas operaciones de forma automática. Con este objetivo construyó un prototipo
de Máquina Diferencial en 1821, con capacidad para resolver polinomios de segundo
grado. Su trabajo Observaciones en la aplicación de la Máquina al Cómputo de Tablas
Matemáticas fue recibido con gran aclamación y Babbage obtuvo el primer premio y
medalla de oro en la Royal Society.
Con el apoyo de la Royal Society, Babbage escribió una carta a su presidente, Sir
Humphrey Davy, donde le decía que el trabajo intolerable y la fatiga de la monotonía de
una repetición continuada de semejantes cálculos matemáticos tuvieron excitados sus
deseos y posteriormente sugirió la idea de una máquina que por la ayuda de la gravedad
o cualquier otro poder móvil sería un substituto para una de las ocupaciones más bajas
del intelecto humano.
Un comité formado por 12 personas
consideró la súplica de Babbage para
obtener fondos para completar su proyecto y
en mayo de 1823 la Sociedad estuvo de
acuerdo en que la causa era meritoria. En
Julio, Babbage recibió 1500 libras para
posibilitarle perfeccionar su invento de la
manera que él recomendó.
En el desarrollo de su Máquina Diferencial,
como Babbage la llamó, estudió las
invenciones matemáticas de varios
predecesores, como el notable trabajo de
Charles Mahon, Tercer Conde de Stanhope.
Mientras que él dibujó arduamente,
basándose en los principios de Mahon, lo
que distinguió el diseño de Babbage de todo
trabajo previo fue lo siguiente: que se
propuso para calcular una serie de números
siguiendo cualquier ley por la ayuda de las
diferencias y que colocando unos pocos
números en el inicio, una larga serie de
números rápidamente eran producidos por
una operación mecánica.
Comenzada su construcción, la Máquina
Diferencial sufrió muchas mejoras y
modificaciones durante los siguientes cuatro
años.
El modelo inicial consistía en 96 ruedas y 24 ejes pero cada progreso en la puesta a
punto creaba una necesidad especial de construir partes inéditas de la máquina. Babbage
aparentemente había calculado mal su tarea. Construyendo la máquina había gastado
cerca de 50 veces más que el dinero que se le dio. Además necesitó dos toneladas de
latón, alambres y maquinarias de reloj, que tuvieron que ser fabricadas especialmente
pues no existían en ese entonces.
El gobierno Británico poco después le concedió otras 1.500 libras seguidas por 3.000
libras más, con una promesa para suministrar una suma mayor cuando la máquina
estuviera completa. Babbage también había heredado 100.000 libras luego de la muerte
de su padre.
Fue el primer ministro ingles Benjamin Disraeli quien abortó el proyecto escribiendo
mordazmente que: "Para lo único que podía servir aquel aparato era para calcular las
enormes sumas de dinero público que se habían derrochado ya con él".
Microsoft
En enero de 1975, Paul Allen, llamó con urgencia a Bill Gates para
que viera la tapa de la revista Popular Electronics. Allí aparecía el
prototipo de la primera computadora hogareña, la MITS- Altair 8800.
Allen le dijo: "Bill, no podemos quedarnos al margen".
Gates abandonó la Universidad y junto con Allen fundaron una nueva
firma, Microsoft. Su objetivo era participar en forma activa en el
desarrollo de la era de las computadoras. La computadora hogareña
existía, pero no existía un lenguaje para una máquina tan pequeña.
Entonces Gates llamó por teléfono a Ed Roberts, el presidente del
MITS y le dijo que había creado una forma del lenguaje BASIC para
una microcomputadora. Roberts le contestó: "Traígamelo y usted será
el primero en hacer el negocio".
Bill y Paul no tenían la menor idea de cómo iban a adaptar el BASIC al microchip.
Empezaron a trabajar como poseídos y no dormían más de dos horas por día. Bill estuvo
escribiendo el programa prácticamente hasta el último momento. En febrero de 1975,
Paul Allen viajo a Albuquerque a llevarle el BASIC al presidente del MITS... y
funcionó. En abril firmaron un contrato entre Microsoft y MITS.
Allen se instaló en Albuquerque y estableció el cuartel general de
Microsoft en un motel de la legendaria Ruta 66. Gates iba y venía
de Harvard, hasta que en enero de 1977, a la edad de 21 años,
decidió abandonar la Universidad, para dedicarse definitivamente
a Microsoft. Gates adquirió un 64 % de la empresa y Allen un
36%.
Al haber mas computadoras personales en el mercado, las ventas de la Altair bajaron,
entonces MITS, decidió vender el negocio. Pero quiso venderla junto con el BASIC de
Microsoft. Inmediatamente comenzaron los litigios entre ambas empresas. Esto arrastró
prácticamente al borde de la quiebra a Microsoft. Pero hubo una mano salvadora. Un
amigo, otro de los jóvenes genios de esa generación, Steve Jobs, el cofundador de Apple
Computers y director del proyecto Macintosh, impidió que Microsoft se fuera a la
bancarrota aportando un cheque de 10.500 dólares. En diciembre Microsoft ganó el
juicio y se extendió la licencia del BASIC a todas las computadoras hogareñas. Ese año
la empresa consiguió recaudar medio millón de dólares.
1978 fue el año en que se
consolidó el negocio. El personal
aumentó a 13 personas y el
volumen del negocio alcanzó la
barrera del millón de dólares.
El 1 de enero de 1979 se
trasladaron a Seattle, para estar
mas cerca de sus familias. La
relación entre los socios era de
constantes peleas, pero la química
entre ambos funcionaba a la
perfección: Gates era adicto al
trabajo y Allen era un soñador.
En 1980 Gates le solicitó a su ex compañero de cuarto en la facultad, Steve Ballmer,
que se convirtiera en vicepresidente de ventas. Ballmer le dio forma a las distintas
categorías productivas de la empresa.
Ese año IBM decidió subirse al tren de las PC. Necesitaban un sistema operativo. Los
directivos de IBM se presentaron en Digital Research para solicitar el sistema CP/M.
Increíblemente, les contestaron que estaban ocupados y que debían volver en otro
momento. Completamente ofendidos y furiosos, tomaron la decisión de dirigirse a
Microsoft y les encargaron que desarrollen el sistema operativo en cuestión. Gates,
Allen y Ballmer no tenían tiempo para crear un nuevo sistema. La computadora debía
salir a la venta a mediados de 1981. Gates recordó que Tim Paterson de la firma Seattle
Computers había creado el Q-DOS (Quick n? Dirty Operating System). Gates fue a
hablar con Patterson y le preguntó si sería posible facilitarle la licencia a un cliente. Este
consintió sin saber de qué clientes se trataba. Luego siguieron negociando y finalmente
Microsoft adquirió todos los derechos del Q-DOS por 75.000 dólares. Le cambió el
nombre por MS-DOS (Microsoft Disk Operating System).
En febrero de 1981 se cargó por primera vez una versión del MS-DOS en una IBM y
aunque estaba repleta de errores salió a la venta en julio.
En 1983, Paul Allen fue diagnosticado con la temible enfermedad de Hodgkin. Allen
abandonó Microsoft argumentando que no soportaba la constante presión de la empresa.
Se tomó dos años sabáticos. Para Bill Gates fue un duro golpe. Le pareció que su amigo
lo había abandonado y tomó la decisión de que Allen no volviera a incorporarse a la
firma. Cuando Allen superó la enfermedad fundó Asymetrix, su propia compañia de
software.
En septiembre Microsoft, lanzó su primer programa de aplicación, un
procesador de textos al que se denominó Word I y en Noviembre Bill
Gates anunció que lanzaría al mercado una nueva forma de usar la
computadora con una interfaz gráfica de usuario denominada
Windows.
En junio de 1984 Microsoft se convirtió por primera vez en la
numero uno en la lista de las casas de software, moviendo mas de 100
millones de dólares en el mundo. La versión 2.0 del Word tenía la
particularidad de contar con un programa ortográfico y se impuso
entre los usuarios de procesadores de textos.
El año 1986 fue decisivo en la historia de Microsoft. El 13 de marzo pusieron a la venta
las acciones de Microsoft en la bolsa. Bill Gates se convirtió ese mismo día en el
multimillonario más joven de los Estados Unidos. Paul Allen, con menos acciones
también se volvió millonario. Juntos donaron 2.2 millones de dólares al colegio
Lakeside para construir un edificio para ciencias y matemáticas al que se denominó
Allen Gates Hall.
Luego de recibir críticas fulminantes con el Windows 1.0, en Noviembre lanzó el
Windows 2.0, corregido y mejorado, vendiendo más de un millón de copias en lo que
restaba del año.
En 1990 se consolidó Windows con su versión 3.0 y Microsoft se convirtió en la
primera compañía de software mundial en exceder el billón de dólares anuales en
ventas.
El 24 de agosto de 1995 salió a la venta en los
Estados Unidos, el Windows 95, arrasando con
todas las expectativas de venta. Apenas salió al
mercado se agotó y es hasta hoy en día el más
importante producto de software de Microsoft.
Más tarde comenzó a competir contra Netscape
con el Explorer por el control de Internet.
En 1997, Microsoft firmó una alianza con Apple, que volvía estar al mando de Steve
Jobs. A cambio de US$150 millones en acciones de Apple, Microsoft y Apple tendrían
una licencia cruzada de cinco años sobre patentes y, lo más importante, un acuerdo final
en la disputa sobre la GUI del Mac OS. Microsoft convino en pagar una suma adicional
de dinero, que no se dio a conocer, para terminar con los argumentos que sostenían que
Microsoft había robado la propiedad intelectual de Apple cuando diseñó el sistema
operativo del Windows. Microsoft también anunció que Office '98, su popular paquete
de aplicaciones para uso en oficinas, estaría disponible para la Mac hacia fin de año.
Microsoft en Internet:
http://www.microsoft.com/
John Napier (1550-1617)
John Napier nació en 1550 en Edimburgo
(Escocia) y allí fallece el 4 de abril de 1617
A la temprana edad de 13 años ingresó en el
Saint Salvador College, donde estudió por
espacio de 2 años. Luego viajó por toda
Europa, principalmente a Francia y Holanda
donde continuó sus estudios e investigaciones
entre 1566 y 1571 en la Universidad St.
Andrés. En 1571, retornó a Escocia y recorrió
todos sus estados como un devoto religioso
tomando parte en las controversias religiosas
de ese tiempo. Fue un ferviente protestante y
publicó lo que él consideró como su más
importante trabajo, el Plaine Discovery of the
Whole Revelation of St. John (1593).
Napier estudió matemática sólo como un
hobby. En el año 1614 publicó una
descripción de como multiplicar y dividir con
la ayuda de los logaritmos. También fue él
quién asignó la palabra logaritmo, que es una
palabra Griega compuesta por logos que
significa rel
ación y arithmos que significa número.
Independientemente de Napier pero algo
después el Suizo Burgi trabajó con una tabla
para la multiplicación de logaritmos. Ni
Napier ni Burgi tuvieron una base especial
para sus sistemas de logaritmos.
Con relación al cálculo publicó en 1610 una obra titulada "RABDOLOGIAE", que era
un pequeño tratado sobre la forma de ejecutar multiplicaciones. En su apéndice
explicaba un método para multiplicar y dividir usando varillas y placas metálicas
(Varillas de Napier) que puesto en la práctica se convirtió en la precursora de las
modernas calculadoras de bolsillo de hoy en dia, pese a que este rústico sistema era
inseguro debido a que las varillas no podían ser manejadas con versatibilidad.
Blaise Pascal (1623-1662)
Nació el 19 Junio de 1623 en Clermont, Francia.
El padre de Pascal, Étienne Pascal, tenía una
educación ortodoxa y decidió educar él mismo a su
hijo. Decidió que Pascal no estudiara matemáticas
antes de los 15 años y todos los textos de matemáticas
fueron sacados de su hogar. Pascal, sin embargo,
sintió curiosidad por todo esto y comenzó a trabajar
en geometría a la edad de 12 años. Descub rió que la
suma de los ángulos de un triángulo corresponden a
dos ángulos rectos y cuando su padre comprobó esto
se enterneció y entregó a Pascal un texto de Euclídes.
A la edad de 14 años acudía a las reuniones con Mersenne. Mersenne pertenecía a una
orden religiosa de Minims y su cuarto en París era un lugar frecuente de reuniones para
Fermat, Pascal, Gassendi, y otros. A la edad de 16 años presentó sólo un trozo de papel
con escritos a las reuniones con Mersenne. Contenía un número de teoremas de
geometría proyectiva, incluyendo incluso el hexágono místico de Pascal.
En 1642 construyó una máquina mecánica para realizar adiciones, llamada Pascaline
(Pascalina), destinada a ayudar a su padre, alto funcionario de las finanzas nacionales.
Pascal trabajó en las secciones cónicas y desarrolló importantes teoremas en la
geometría proyectiva. En su correspondencia con Fermat dejó la creación de la Teoría
de la Probabilidad. Fomentó estudios en geometría, hidrodinámica e hidroestática y
presión atmosférica, dejó inventos como la jeringa y la presión hidráulica y el
descubrimiento de la Ley de Presión de Pascal.
Su más famoso trabajo en filosofía es Pensées, una colección de pensamientos
personales del sufrimiento humano y la fe en Dios. ?Si Dios no existe, uno no pierde
nada al creer en él, mientras que si existe uno pierde todo por no creer? .
Pascal murió el 19 de Agosto de 1662, en París (Francia), a la edad de 39 años, después
de sufrir un dolor intenso debido al crecimiento de un tumor maligno en su estómago
que luego se le propagó al cerebro.
Pascalina
Fabricada en 1642 por el francés Blaise Pascal, a los
19 años, con la intención de ayudar a su padre, alto
funcionario de las finanzas nacionales. Es la primera
máquina sumadora mecánica. Estaba basada en un
antiguo diseño de los griegos para calcular las
distancias que recorrían los carruajes. El principio
básico de esta máquina calculadora se usa todavía en
nuestros días en algunos pluviómetros y
cuentakilómetros. El mecanismo estaba operado por
una serie de discos asociados a ruedas, que llevaban
marcados los números desde el cero al nueve en sus
circunferencias. Cuando una rueda daba una vuelta
completa, avanzaba la otra rueda situada a su
izquierda. Naturalmente había unos indicadores sobre
los anteriores discos, que eran los encargados de dar
la respuesta buscada.
En conjunto el engranaje proporcionaba un mecanismo de respuesta idéntico al
resultado que se puede obtener empleando la aritmética. No obstante, la Pascalina tenía
varios inconvenientes, de los que el principal era, que sólo el mismo Pascal era capaz de
arreglarla. Por otro lado, la Pascalina es el primer antecedente de tecnofobia, puesto que
los matemáticos de la época se opusieron a ella, ante la eventualidad de que sus trabajos
empezaran a no ser necesarios.
Se construyeron 50 Pascalinas, algunas de las cuales pueden verse en la actualidad en el
Museo de Ranquet en Clermond Ferrand (Francia).
Paul Allen (1953- )
Nace en 1953 en Seattle y cursa la secundaria en un colegio de élite, el Lakeside
School. El destino hizo que la escuela se convirtiera en una de las primeras de los
Estados Unidos en tener acceso a una computadora. Allí conoció a un muchacho dos
años menor que él, Bill Gates. En 1969, Paul, Bill y dos estudiantes más decidieron
fundar una empresa. Hasta el año 1970, se dedicaron a testear las computadoras de la
firma Computer Center Corporation sin cobrar, pero teniendo acceso gratuito a las
máquinas.
Mientras Gates era admitido en Harvard, Allen, hijo de una maestra y de un
bibliotecario de la universidad, se tuvo que conformar con la más humilde universidad
estatal de Washington. En cualquier caso ninguno de los dos acabaron su carrera; en
1975 decidieron escribir un sistema operativo para el Altair 8800 PC. Y ese mismo año
fundaron Microsoft.
Paul Allen fue quien transformó el sistema operativo QDOS (Quick and Dirty Operating System) en el primer
bombazo de Microsoft: MS-DOS. Bill Gates fue quien lo
vendió a IBM. Por eso Allen se hizo con un tercio de la
compañía y Gates con el resto. Cosas que pasan.
En 1982, cuando Allen tenía 29 años y la empresa marchaba viento en popa, se le
manifestó un raro tipo de cáncer que afecta al sistema linfático conocido como
enfermedad de Hodgkin. Inmediatamente comenzó un duro tratamiento basado en
radiación que le obligó a apartarse de su labor en Microsoft en 1983. Se tomó dos años
sabáticos. Para Bill Gates fue un duro golpe. Le pareció que su amigo lo había
abandonado y tomó la decisión de que Allen no volviera a incorporarse a la firma. Eso
sí, Allen salió de Microsoft mucho más millonario que Wozniak de Apple.
Actualmente, según la revista Fortune, Allen es el tercer hombre más rico del mundo
tras Gates y Larry Ellison. Aunque probablemente fue un escaso consuelo mientras
luchaba contra el cáncer. Durante los años en los que Gates se convertía en un icono
conocido mundialmente, Allen luchaba por vivir.
Cuando Allen superó la enfermedad fundó Asymetrix, su propia
compañia de software. En 1990, volvió a ocupar un puesto en el
consejo de dirección de Microsoft y fundó Vulcan Ventures , un
fondo de capital riesgo especializado sobre todo en negocios de
cable y banda ancha. Desde entonces se ha dedicado a vivir la
vida y a invertir en empresas.
Hoy por hoy, Paul Allen participa en más de 140 compañías, entre las que destacan
Metricom, Go2Net, Priceline, Dreamworks, Diller Networks y Oxygen. De momento
ninguna de sus inversiones ha tenido un éxito espectacular. De hecho, su primera
apuesta por la banda ancha de la mano de SkyPix acabó en bancarrota.
Es famoso el episodio de su aventura con AOL. En 1993 pagó 40 millones de dólares
por un 24,5% de la empresa, pero cuando quiso invertir otros 25 millones se lo negaron,
al igual que un asiento en el consejo de dirección. La rabia y la frustración empujaron a
Allen a deshacerse de su porcentaje un año más tarde. Eso sí, hizo un buen negocio,
consiguió 140 millones de dólares.
Hay dos inversiones que se escapan del ámbito tecnológico, y que responden a la pasión
de Allen por los deportes. En 1988 pagó 70 millones de dólares por el equipo de la
NBA Portland Trail Blazers, y más recientemente 200 millones por los Seattle
SeaHawks.
Además de los deportes, Allen es un gran amante de la música, en concreto del rock and
roll. Toca la guitarra, tiene un estudio de grabación profesional en su casa y ha
financiado el museo dedicado a Jimi Hendrix en Seattle. Una de las pocas entrevistas
que ha concedido en su vida fue a la revista Rolling Stone.
También tiene como afición millonaria la búsqueda de vida extraterrestre. Hace algunos
años el proyecto SETI no se hundió gracias a él. Hace poco volvió a donarles 12,5
millones de dólares en colaboración con el CTO de Microsoft para que construyeran un
supertelescopio. Por supuesto, también ha fundado varias organizaciones caritativas.
A principios de septiembre del 2000, Paul Allen decidió abandonar completamente
Microsoft y todos los cargos, más o menos cosméticos, que ocupaba. En un emotivo
comunicado, firmado por el propio Gates, se reconocía la contribución de Allen al éxito
de la compañía. En el futuro ejercerá como consejero estratégico.
También accionarialmente se está desvinculando del gigante de Redmond: en lo que va
de año Allen lleva vendidas acciones de Microsoft por más de 6.000 millones de
dólares. El hombre que en 1976 tenía un 36% de Microsoft, ahora apenas posee el 4%.
También Vulcan Ventures está abriendo sus horizontes. Desde 1990 hasta finales de
1997 Vulcan sólo había invertido 200 millones de dólares en empresas que no tuvieran
que ver con el cable y la banda ancha. Pero sólo en los 18 meses siguientes este tipo de
inversiones había ascendido hasta alcanzar los 1.200 millones. No parece haber sido una
decisión errónea teniendo en cuenta que el valor de mercado de estos negocios ronda
ahora los 5.500 millones de dólares, y eso sin contar los 1.000 millones de Starwave,
vendido a Disney en 1997.
Allen, que continúa soltero a sus 47 años, es terriblemente tímido (algunos periodistas
lo han comparado a un manatí de grandes ojos azules) y muy apegado a su familia. Es
director asociado de la biblioteca de Washington, a la que donó 10 millones en recuerdo
a su padre. Su hermana Jody ocupa cargos directivos en empresas que él financia, su
madre Faye vive en una mansión cuyo diseño está inspirado en una biblioteca.
Seymour Cray (1925-1996)
Seymour Cray nació en el año 1925, en una pequeña población
del estado norteamericano de Wisconsin, y se graduó en
ingeniería eléctrica y en matemáticas en la Universidad de
Minnesota. Durante los años 50 trabajó en ERA -Engineering
Research Associates- y en las compañías que la sucedieron,
Remington Rand y Sperry Rand, donde fue uno de los
principales responsables del diseño del ordenador UNIVAC
1103. En 1957, junto con otros ingenieros -entre ellos William
Norris- fundó una nueva compañía denominada Control Data
Corporation, en abreviatura CDC, para la cual construyó el
CDC 1604, que fue uno de los primeros ordenadores
comerciales que utilizaron transistores en lugar de tubos de
vacío.
En 1962, Seymour Cray persuadió a William
Norris para que CDC creara un laboratorio
para investigar cómo diseñar el ordenador
más potente de la época, triunfo que
consiguió con su equipo de 30 colaboradores
en el año 1963, con el CDC 6600, que batió
ampliamente en capacidad de cálculo y en
coste al ordenador más potente de que
disponía IBM en aquella época.
A finales de la década, Control Data, después
de haber sacado al mercado el modelo CDC
7600 -para muchos el primer
supercomputador en sentido estrictocomenzó a perder interés en la
supercomputación y Cray pensó en
establecerse por su cuenta. En el año 1972
fundó Cray Research, con el compromiso de
dedicarse a construir exclusivamente
supercomputadores y además de uno en uno,
por encargo. El primer producto salido de la
factoría -CRAY-1, en 1976- tuvo como
destino el laboratorio nacional de Los
Alamos, y era único en su diseño ya que
incorporaba el primer ejemplo práctico en
funcionamiento de procesador vectorial,
junto con el procesador escalar más rápido
del momento, con una capacidad de 1 millón
de palabras de 64 bits y un ciclo de 12,5
nanosegundos. Su coste se situaba en torno a
los 10 millones de dólares.
En el plazo de tres años, la compañía había vendido seis ordenadores CRAY-1, pero su
fundador no se encontraba satisfecho técnicamente, pues pensaba que el diseño de ese
sistema no era suficientemente revolucionario, y se embarcó en el diseño de una nueva
máquina, el CRAY-2, entre 6 y 12 veces más rápido que su predecesor. Disponibe en
1985, disponía de 256 millones de palabras y 240.000 chips. Su empaquetamiento era
tan ajustado que el calor generado por la electrónica podía fundir el ordenador, por lo
cual su interior se encontraba inundado con líquido refrigerante, y ello provocó el
simpático comentario de que el CRAY-2 era en realidad un computador dentro de un
acuario.
La compañía iba de viento en popa, y a mediados de los 80 controlaba el 70% del
mercado de la supercomputación. Sin embargo su fundador se encontraba incómodo,
pues la problemática empresarial le resultaba escasamente interesante y difícil de
soportar. Por ello cedió la presidencia, y dejó la responsabilidad del desarrollo
tecnológico de la línea CRAY-2 a un ingeniero lleno de talento, Steve Chen, que
concibió y cosntruyó los primeros multiprocesadores de la firma, conocidos como serie
X-MP. A su vez Seymour Cray, inició en 1985 el diseño de una nueva serie, CRAY-3,
cuyo procesador no se construiría sobre chips de silicio sino de arsenuro de galio. Su
entrega, inicialmente prevista para el año 1988 sufrió sucesivos retrasos debido a los
problemas que causaba la nueva tecnología GaAs, y el proyecto finalmente se canceló.
El inventor se desvinculó entonces de la firma que había fundado años atrás e inició a
finales de esa década un nuevo proyecto, pero las condiciones del mercado hacían ya
entonces insostenible el esfuerzo inversor necesario para fabricar un supercomputador
que justificase su viabilidad comercial en términos coste/potencia, fundamentalmente
debido a los progresos experimentados en las arquitecturas convencionales RISC y
CISC. Para sacar al mercado sus nuevas generaciones de ordenadores Cray, invirtió
grandes sumas de dinero, lo que le llevó en 1995 a la bancarrota. Su empresa, Cray
Research, fue adquirida ese mismo año por Silicon Graphics.En ese último empeño le
sobrevino el fin de su vida, a consecuencia de un accidente automovilístico. A los 71
años de edad y todavía activo en los negocios, la investigación y la ingeniería.
En el año 1986, en la cúspide de la gloria de la supercomputación, existían en todo el
mundo unos 130 sistemas de este tipo, de los cuales más de 90 llevaban la marca Cray.
Stephen Wozniak (1950-)
Nació el 11 de agosto de 1950 en California, en la
zona que ahora conocemos como SiliconValley.
Quizá influenciado por su padre, ingeniero en
Lockheed, mostró una clara vocación científica desde
niño. El pequeño Woz se divertía jugando con la
electrónica y montando radios, voltímetros y
calculadoras en casa. A este niño, extremadamente
brillante, la escuela le aburría, y en la universidad no
tuvo mejor suerte. Primero fracasó en la de Colorado
y luego abandonó sus estudios en California para
trabajar en Hewlett Packard.
Wozniak conoció a Steve Jobs durante los primeros años 70, ambos pertenecían
entonces al Homebrew Computer Club, donde pasaban las horas confeccionando
cacharros. Pero a Jobs crear juguetitos electrónicos le sabía a poco, en parte por que no
era especialmente brillante, y convenció a Wozniak para crear una computadora
personal más asequible que la Altair 8800, la primera computadora personal aparecida
en 1975.
El primer prototipo de la Apple I fue concebido en el dormitorio de Jobs, y construido
en su garaje. En 1976 Jobs se deshizo de su coche y Wozniak vendió su calculadora HP
para conseguir 1.300 dólares, el capital inicial de Apple Computer Inc., nueva empresa
dedicada a comercializar su Apple I por 666 dólares. Sólo el primer año las ventas
ascendieron a 774.000 dólares.
El mérito de la
computadora pertenece
más que a nadie a
Wozniak, el de las ventas
y la creación de la
empresa a Jobs. Así que
desde un principio ambos
tuvieron señalado su
papel: Jobs quedó
encargado de las labores
de marketing y Wozniak
de continuar mejorando
su máquina, dando lugar
a Apple II apenas un año
después. Siempre más
interesado en los aspectos
técnicos del negocio que
en otra cosa, Wozniak fue
quedando paulatinamente
desplazado en la toma de
decisiones mientras
acumulaba millones de
dólares.
Todo cambió un día
aciago de 1981 en el que
Wozniak estrelló contra
el asfalto el avión que
pilotaba. El resultado,
además de graves
heridas, fue una amnesia
de la que no se recuperó
hasta 1983, año en el que
volvió a Apple. Dos años
más tarde abandonó la
empresa por diferencias
con la dirección y con
más de 100 millones de
dólares bajo el brazo.
Después de retirarse de
Apple, Wozniak ha
declarado en varias
ocasiones su descontento
con el destino de la
empresa que ayudó a
fundar: "Apple no es la
compañía que yo
esperaba que fuese".
Funda una nueva empresa. CL9,para construir aparatos inalámbricos por control remoto
para televisores y electrodomésticos. CL9 cerró a finales de 1989.
La verdadera vocación de este amante declarado de los niños y los perros ha resultado
ser la enseñanza. Lo descubrió en 1991, mientras enseñaba a su hijo Jesse, de 9 años, el
funcionamiento y montaje de un disco duro.
Tras su accidente, Wozniak se planteó dos objetivos: terminar sus estudios
universitarios de informática e ingeniería en Berkeley en honor a su padre y
convertirse en maestro a jornada completa. Wozniak ha alcanzado ambas
metas y ahora se dedica a enseñar informática a niños de quinto grado (10 y
11 años) en Los Gatos, California.
Gracias a él, la escuela pública de Los Gatos es una de las más modernas del mundo,
con 11 modernos laboratorios, distintas conexiones de alta velocidad y todo tipo de
cursos tecnológicos para alumnos y profesores. También ha regalado cientos de
portátiles y conexiones a Internet a los estudiantes, y aporta fondos a multitud de
proyectos de investigación. En sus ratos libres asesora y anima a otras escuelas a
informatizarse.
Su amor por los niños también le empujó a financiar distintos museos, como el Tech
Museum y el Childern? s Discovery Museum, y a intentar acercar el pueblo ruso al
norteamericano y a las nuevas tecnologías patrocinando conciertos y convenciones, e
invirtiendo en escuelas de informática en la antigua URSS. Todas estas iniciativas le
han hecho acumular premios por su labor didáctica, y ser amado y agasajado por
multitud de techies, ingenieros e internautas.
Wozniak da la impresión de que se ha casado con todas las novias que ha tenido. Y con
todas sus ex mujeres tiene una buena relación. Su primera esposa fue Alice Robertson,
con la que se casó en 1980 y de la que separó amistosamente. La segunda boda fue en
1987 con Candice Clark, con la que tuvo tres hijos y con la que mantiene una buena
relación. La tercera, y por ahora definitiva, en 1990 con Suzanne Mulkern, con la que
también ha tenido tres retoños. Actualmente vive en Los Gatos con Suzanne y sus seis
hijos. Su principal ambición en la vida es ser un buen padre.
Steve Jobs (1955-)
Toda la vida de Steve Jobs gira en torno a Silicon Valley (EE.UU.). Allí nació el
pequeño Steven en febrero de 1955, allí creció tras ser adoptado por Paul y Clara Jobs
y allí ha desarrollado su vida profesional y vive en compañía de su mujer y sus tres
hijos.
Jobs es uno de los principales nombres propios del panorama tecnológico. Algo digno
de tener en cuenta ya que Apple, aunque es muy conocida, no es una empresa
especialmente importante y Jobs no es un personaje demasiado extravagante, siempre
que no se le compare con Gates. Toda la popularidad de Jobs y de Apple se debe a que
son parte de la historia de la informática.
Antes de crear Apple junto a Stephen Wozniak, Jobs pasó brevemente y con pocos
resultados por el Reed College en Portland (Oregon), trabajó brevemente en Atari,
empresa pionera en el mundo de los videojuegos, y en Hewlett-Packard. De la primera
obtuvo el dinero suficiente para costearse un viaje a la India, en la segunda conoció a
Wozniak.
En 1974, de nuevo en
California, pasó a formar
parte del club de
Wozniak Homebrew
Computer Club. Pero a
Jobs no le bastaba con
crear juguetes
electrónicos como al
resto de los miembros, en
parte porque no era
demasiado bueno en esos
menesteres, y convenció
a Wozniak para que
trabajase con él en la
creación de una
computadora personal.
Ambos diseñaron el
Apple I en el dormitorio
de Jobs y construyeron el
prototipo en su garaje.
Decididos a crear una
empresa dedicada a
vender sus computadoras
personales, consiguieron
1.300 dólares tras vender
sus más preciadas
posesiones. Jobs se
deshizo de su
Volkswagen y Wozniak
de su calculadora
científica HP. En 1976
comenzaron a
comercializar su Apple I
por 666 dólares. El
primer año las ventas
ascendieron a 774.000
dólares.
En 1985 Apple se quedó sin sus cofundadores. Wozniak se embarcó en CL9 (Cloud 9) y
Jobs cedió su puesto, que tras varios cambios lo obtuvo Gil Amelio, y creó la firma de
software NeXT Corporation.
Jobs está obsesionado por revolucionar el negocio de las computadoras personales, por
innovar constantemente el diseño y prestaciones de sus productos, porque sean el resto
los que les copien. Efectivamente, Jobs y Apple lo han conseguido má s veces que
cualquier otra compañía: en los 70 con el Apple II, en los 80 con el Macintosh y en los
90 con el iMac y el iBook. Pero este empeño, loable en un mundo dominado por
Microsoft y los PCs, también estuvo a punto de costarles la existencia.
Este afán por innovar fue el que llevó a Jobs a impulsar Pixar Animation Studios, la
empresa que abrió nuevos horizontes en el mundo de la animación con su éxito de 1995
Toy Story, el primer largometraje generado completamente por ordenador. Cuando se
menciona a Pixar se suele hablar de su genio artístico, John Lasseter, y se olvida a Jobs.
Un despiste imperdonable teniendo en cuenta que es su CEO y posee un 64% de la
compañía.
En 1997, cuando muchos daban por muerta a Apple, Jobs decidió volver a
llevar el timón. Sobre todo gracias al iMac y a una fuerte apuesta por
Internet, Apple volvió a despertar pasiones y ganar adeptos. Suyo es todo el
mérito de la resurrección.
Jobs, de 45 años de edad, ha tenido poca suerte en los diferentes retratos que se han
hecho de él. Piratas de Silicon Valley es una película que se emitió hace algo más de un
año en la televisión norteamericana y que narra la ascensión de Steve Jobs y Bill Gates,
mostrando al CEO de Pixar y Apple como un feliz consumidor de diversas drogas en su
juventud y un pomposo empresario algo más tarde.
Pero fue mucho peor, sin ninguna duda, The Second Coming of Steve Jobs, un libro
escrito por Alan Deutchsman que muestra a Jobs como un narcisista inseguro y tiránico,
encantado de humillar a sus empleados siempre que puede, y que tras volver a hacerse
cargo de su moribunda empresa implantó un reino de terror. Eso en Apple; en Pixar la
situación era de lucha constante por imponer su autoridad a unos empleados
completamente entregados a Lasseter.
Test de Turing
En 1950, Alan Turing publicó en la revista Mind el artículo Computing Machinery and
Intelligence en el que introducía el concepto de Test de Turing. Este artículo puede
considerarse el precursor de muchos de los desarrollos actuales en el campo de la
Inteligencia Artificial. El test consistía en juzgar el nivel de inteligencia de una
máquina. Se supone un juez situado en una habitación, y una máquina y un ser humano
en otras. El juez debe descubrir cuál es el ser humano y cuál es la máquina, estándoles a
los dos permitidos mentir al contestar por escrito las preguntas que el juez les hiciera.
La tesis de Turing es que si ambos jugadores eran suficientemente hábiles, el juez no
podría distinguir quién era el ser humano y quién la máquina. El límite temporal que
Turing puso para que una máquina consiga superar el test engañando durante bastante
tiempo a un buen interrogador, y no dejándole aclarar si se está dirigiendo a un ser
humano o a una máquina, era el año 2000.
Transistor
En 1947, John Bardeen, Walter Brattain y William Shockley inventaron el transistor,
recibiendo el Premio Nobel de Física por ello en 1956.
Los microamplificadores, conocidos también como transistores, realizan todas las
funciones de los tubos al vacío en el campo de la electrotermia y comunicaciones. Tan
solo necesitan una fracción de la corriente y espacio de las viejas válvulas. Pueden
fabricarse en diversos sólidos semiconductores. Operan siguiendo la corriente a través
de hoyos en los cristales. Constituyen, además, un dispositivo de gran importancia para
la fabricación de aparatos de radio y teléfono.
El transitor en un dispositivo electrónico de estado sólido. La idea nació al intentar
controlar la conducció n de un diodo de unión P-N (semiconductor). Se encontró que
cuando sobre un semiconductor se ponían dos puntas metálicas y a una se le aplicaba
una cierta tensión, la corriente en la otra venía influenciada por la de la primera; a la
primera punta se la denomina emisor; al semiconductor , base y a la otra punta, colector.
Posteriormente se encontró que igual fenómeno ocurría si se unían dos semiconductores
polarizados en sentido inverso a otro de distinto tipo; así se construyen los transistores
de unión, que son los más empleados. Segun la estructura de sus uniones, los transitores
pueden se pnp o npn; sustituyen con ventajas a los triodos de vacío y válvulas
termoionicas multielectródicas, al menos en lo que a bajas potencias se refiere. Los
transitores pueden emplearse tanto en la tecnología analógica como en la digital; ésta
debe a los transitores el impresionate auge alcanzado en el último decenio.
Para poder entender un poco mejor el efecto del transistor, necesitamos entender como
un transistor puede trabajar como un insulador y un conductor. Es la habilidad del
transistor de cambiar entre estos dos estados que lo deja cambiar o amplificar.
Insulación:
Esta animación muesta al transitor en su efecto
de cambio cuando el transistor esta hecho para
alterar su estado de inicio de conductividad
(encendido, la corriente al máximo) a su
condicion final de insulacion (apagado y sin flujo
de corriente). La animación comienza con la
corriente fluyendo desde el emisor (punto E) al
colector (punto C). Cuando un voltaje negativo
se le aplica a la base (punto B), los electrones en
la región base son empujados (dos cargas que se
repelen, en este caso dos negativas) creando la
insulación. La corriente que fluía desde el punto
E al punto C se detiene.
Conductividad:
Esta animacion muestra muestra el efecto del
transistor cuando pasa de su estado de insulación
(apagado y sin flujo de corriente) a su estado
final de conductividad (prendido, la corriente al
maximo). La animacion comienza con el
transistor trabajando como un insulador. Para
que pueda tener conductividad, voltaje positivo
tiene que ser aplicado a la base (punto B). Como
las cargas positivas se atraen (en este caso,
positivo y negativo), los electrones se halados
fuera de los limites y deja que siga el flujo de
corriente como lo muestra la figura. El transistor
se cambio de insulador a conductor.
UNIVAC (Universal Automatic Computer)
La construcción de UNIVAC
fue comenzada por una
corporación formada por J.
Presper Eckert, Jr y John W.
Mauchly. Debido a problemas
financieros para terminar su
proyecto de Univac, Eckert y
Mauchly se vieron obligados a
vender su compañía a a
Remington Rand Corp.
Trabajando para esta compañía
fue que se concluyó el proyecto
Univac, en 1951.
Univac I fue la primera
computadora que se fabricó
comercialmente, así como la
primera en utilizar un compiler
(compilador o
autoprogramador) para traducir
idioma de programa en idioma
de máquinas. Sus principales
avances eran el sistema de
cintas magnéticas que podían
leerse hacia adelante y hacia
atrás, con un sistema de zonas
tampón y procedimientos de
comprobación de errores. Era
una máquina decimal con 12
dígitos por palabra,
instrucciones de una sola
dirección y dos instrucciones
por palabra. Su memoria era
todavía de líneas de retardo de
mercurio y tecnología a
válvulas. Su sucesor, el
UNIVAC II, sustituiría aquella
memoria por una de núcleos de
ferrita. El UNIVAC 1103 era
una máquina de 36 bits,
aritmética por complemento a
uno y de punto flotante y, por
primera vez, con capacidad de
interrupciones. En 1960 Grace
Murray Hooper presentó su
primera versión del lenguaje
COBOL (Common Business-
Oriented Language) para
UNIVAC.
Una UNIVAC I fue vendida
por Eckert y Mauchly a la
Oficina del Censo para tratar el
de 1950. En 1952, Univac (no
el modelo original sino otra) se
utilizó para computar el
resultado de las elecciones
presidenciales entre
Eisenhower y Adlai Stevenson.
El resultado (victoria de
Eisenhower) se supo 45
minutos después de que
cerraron los colegios
electorales.
John Louis Von Neumann (1903-1957)
Este científico matemático ocupa un lugar
privilegiado en la historia de la computación debido a
sus múltiples e importantísimos aportes a las
computadoras de la primera generación. Nació el 28
de Diciembre de 1903 en Budapest (Hungría),
llegando a ser uno de los más brillantes matemáticos
de la era de la computación.
Von Neumann fue un niño prodigio que a la edad de
6 años podía dividir mentalmente cifras de 8 dígitos.
Recibió una temprana educación en su ciudad natal,
bajo el tutelaje del matemático M. Fekete
conjuntamente con el cual publicó su primer trabajo a
la edad de 18 años. En 1921 ingresó a la facultad de
Química de la Universidad de Budapest, pero decidió
continuar sus estudios en Berlin y Zurich,
graduándose de Ingeniero Químico en 1925.
Inmediatamente después de graduado volvió a sus investigaciones y estudios de las
matemáticas de las cuales fue un apasionado, logrando un doctorado en 1928.
Rápidamente ganó una reputación como un excelente matemático y en 1930 fue
invitado a visitar la Universidad de Princeton (USA). Al fundarse el Instituto de
Estudios Avanzados en 1933, Von Neumman fue elegido como uno de sus únicos 6
profesores matemáticos, actividad que realizó el resto de su vida.
A través de los años desempeñó muchas cátedras en universidades de prestigio en todo
el mundo, tales como Harvard, Pensilvania, Princeton, Roma, Amsterdam, etc. En 1956
fue elgido miembro ho norario de la Academia de Ciencias Exactas en Lima, Perú.
Entre sus trabajos teóricos podríamos citar los relativos a lógica matemática, axiomática
de teoría de conjuntos, espacios de Hilbert, álgebras de operadores, teoría de la medida,
teoría ergódica, etc. Por otro lado, podrían merecer la calificación de aplicaciones, la
fundamentación matemática de la mecánica, la creación de la teoría de juegos, o sus
notables aportaciones a las teorías de sistemas y autómatas.
Durante la segunda guerra mundial fueron aprovechados sus conocimientos en
hidrodinámica, balística, meteorología, teoría de juegos y estadísticas. En 1944
contribuyó en forma directa en los diseños de fabricación de computadoras, asesorando
a Eckert y John Mauchly, creadores de la ENIAC y que construyeron además la
UNIVAC en 1950. Durante esa década trabajó como consultor para la IBM colaborando
con Howard Aiken para la construcción de la computadora Mark I de Harvard.
En 1946, en colaboración con Arthur W.
Burks y Herman H. Goldstine, Von
Neumann escribió uno de los artículos
más influyentes en la moderna historia de
los computadores: Preliminary Discussion
of the Logical Design of an Electronic
Computing Instrument. Las ideas que
contiene este artículo, que de forma
conjunta se conocen con el nombre de
Máquina de Von Neumann o Arquitectura
Von Neumann, han proporcionado los
fundamentos para la construcción y el
desarrollo de todos los computadores
hasta el momento.
Se supone que las radiaciones que estuvo
expuesto durante sus trabajos sobre la
bomba atómica fueron la causa de su
muerte por cáncer el 8 de Feberero de
1957 en Washington DC.
Walter Brattain (1902-1987)
Brattain nació en Amoy (China), en 1902. Llevó a cabo su preparación académica en
Estados Unidos, en las universidades de Oregón y Minnesota, y obtuvo el doctorado en
Ciencias. La Universidad de Portland, en 1929, le concedió el título de doctor honoris
causa. Su vida profesional incluye el desempeño de diversos cargos en el National
Bureau of Standards de Estados Unidos, en los laboratorios de la Compañía Telefónica
Bell y en la Universidad de Columbia.
Habiendo dedicado su actividad científica al campo de la investigación termoiónica y
de los semiconductores, hizo notables aportaciones para el rápido progreso de la
ciencia en el sector de la física de estados sólidos, y junto con sus colaboradores
Shockley y Bardeen, pudo crear el transistor.
Los principios físicos en que éste se funda eran conocidos desde los comienzos de la
radiotelefonía; pero el perfeccionamiento que hizo posible su empleo culminó en 1948,
cuando los tres científicos estadounidenses, tras arduas experimentos e investigaciones,
pudieron crear el llamado transistor de punto de contacto. El empleo de este tipo de
transistor, que se generalizó a partir de 1952, representa uno de los más notables
progresos en electrónica y constituye uno de los más grandes avances científicos de este
siglo.
Así, en 1956, le fue concedido el premio Nobel de Física, honor que compartió con sus
compatriotas, doctores William B. Shockley y John Bardeen, por los trabajos que
llevaron a cabo en la Bell Telephone Co., y que culminaron con la invención del
transistor, así como por sus ulteriores perfeccionamientos.
William Gates (1955- )
Mary Maxwell y Bill Gates Jr tuvieron a su primera hija Kristi en 1954 y el 28 de
octubre de 1955, en Seattle, poco después de las 9 de la noche, nació William Henry
Gates III, conocido mundialmente como Bill Gates. Pero en su familia nunca nadie lo
llamó así. Desde que su abuela le puso como apodo Trey, porel número III, este se
convirtió en su verdadero nombre. Mary pertenecía a una prominente familia del
noreste de los Estados Unidos. Fue maestra de escuela y llegó a ser directora de la
Universidad de Washington. Participó del directorio de distintas organizaciones,
incluyendo United Way International. Bill Jr empezó su carrera como asistente del
fiscal público de Bremerton, hasta convertirse en un prestigioso abogado.
A los 9 años nació su hermana menor Libby. Por entonces uno de los pasatiempos
favoritos de Bill era leer la enciclopedia por estricto orden alfabético.
Cuando estaba en sexto grado Bill Gates se encerraba en el sótano. Un día su madre
preocupada le preguntó que hacía. El le contestó lacónicamente :"Estoy pensando".
"¿Estás pensando?", insistió Mary. El, fastidiado respondió: "Si mamá, estoy pensando.
¿Alguna vez trataste de pensar?. Desorientados, sus padres lo mandaron al psicólogo,
pero éste simplemente dijo que debían adaptarse al chico.
En 1967, al terminar séptimo grado lo sacaron de la escuela pública y lo enviaron para
que cursara la secundaria en un colegio de élite, el Lakeside School. El destino hizo que
el año siguiente la escuela se convirtiera en una de las primeras de los Estados Unidos
en tener acceso a una computadora. Al poco tiempo Bill se convirtió en un adicto a la
computadora, pasando todo su tiempo libre en aquel lugar. Allí conoció a un muchacho
dos años mayor que él, Paul Allen. En 1969, Bill, Paul y dos estudiantes más decidieron
fundar una empresa. Hasta el año 1970, se dedicaron a testear las computadoras de la
firma Computer Center Corporation sin cobrar, pero teniendo acceso gratuito a las
máquinas.
En 1973, luego de terminar el colegio se inscribe en la
universidad de Harvard, donde comenzó sus estudios de
ingeniería electrónica, cursando matemáticas, física y
computación. Antes de abandonar la universidad
consiguió un trabajo y fundó la empresa Traf-O-Data, que
sería el precursor de Microsoft.
Publicó el número de teléfono de su flamante empresa en el periódico universitario y
tuvo suerte, alguien lo llamó y le encargo un programa para analizar el tráfico de unas
cuantas ciudades pequeñas cercanas a Seatle.
A los 18 años y tras dos semanas de trabajo, presentó su trabajo y cobró 20.000 dólares,
con los que compró un Ford Mustang rojo que costó 3.000 dólares.
En enero de 1975, Paul Allen, lo llamó con urgencia para que viera la
tapa de la revista Popular Electronics. Allí aparecía el prototipo de la
primera computadora hogareña, la MITS- Altair 8800. Allen le dijo:
"Bill, no podemos quedarnos al margen".
Gates y Allen fundaron una nueva firma, Microsoft. Su objetivo era
participar en forma activa en el desarrollo de la era de las
computadoras. La computadora hogareña existía, pero no existía un
lenguaje para una máquina tan pequeña. Entonces Gates llamó por
teléfono a Ed Roberts, el presidente del MITS y le dijo que había
creado una forma del lenguaje BASIC para una microcomputadora.
Roberts le contestó: "Traígamelo y usted será el primero en hacer el
negocio".
Bill y Paul no tenían la menor idea de cómo iban a adaptar el BASIC al microchip.
Empezaron a trabajar como poseídos y no dormían más de dos horas por día. Bill estuvo
escribiendo el programa prácticamente hasta el último momento. En febrero de 1975,
Paul Allen viajó a Albuquerque a llevarle el BASIC al presidente del MITS y funcionó.
En abril firmaron un contrato entre Microsoft y MITS.
Allen se instaló en Albuquerque y estableció el cuartel general de Microsoft en un motel
de la legendaria Ruta 66. Gates iba y venía de Harvard, hasta que en enero de 1977, a la
edad de 21 años, decidió abandonar la Universidad, para dedicarse definitivamente a
Microsoft. Gates adquirió un 64 % de la empresa y Allen un 36%.
El 1 de enero de 1979 se trasladaron a Seattle, para estar mas cerca de sus familias. La
relación entre los socios era de constantes peleas, pero la química entre ambos
funcionaba a la perfección: Gates era adicto al trabajo y Allen era un soñador.
En 1980 le solicitó a su ex compañero de cuarto en la facultad, Steve Ballmer, que se
convirtiera en vicepresidente de ventas. Ese año IBM decidió subirse al tren de las PC.
Necesitaban un sistema operativo. Gates, Allen y Ballmer no tenían tiempo para crear
un nuevo sistema. La computadora debía salir a la venta a mediados de 1981. Gates
recordó que Tim Paterson de la firma Seattle Computers había creado el Q-DOS (Quick
n? Dirty Operating System). Gates fue a hablar con Patterson y le preguntó si sería
posible facilitarle la licencia a un cliente. Este consintió sin saber de que clientes se
trataba. Luego siguieron negociando y finalmente Microsoft adquirió todos los derechos
del Q-DOS por 75.000 dólares. Le cambió el nombre por MS-DOS (Microsoft Disk
Operating System).
En febrero de 1981 se cargó por primera vez una versión del MSDOS en una IBM y aunque estaba repleta de errores salió a la
venta en julio.
En 1983, Paul Allen fue diagnosticado con la temible enfermedad de Hodgkin. Allen
abandonó Microsoft argumentando que no soportaba la constante presión de la empresa.
Se tomó dos años sabáticos. Para Bill Gates fue un duro golpe. Le pareció que su amigo
lo había abandonado y tomó la decisión de que Allen no volviera a incorporarse a la
firma. Cuando Allen superó la enfermedad fundó Asymetrix, su propia compañia de
software.
En una conferencia de computación conoció a la empresaria de software, Ann Winblad.
Comenzaron a salir y a tener citas muy particulares. Por ejemplo iban a ver la misma
película al mismo tiempo, cada uno en una ciudad distinta. Al terminar la proyección se
hablaban a traves de sus celulares para comentar lo que habían visto. Cuando se iban de
vacaciones se llevaban gigantescos libros de física para leer juntos.
El 13 de marzode 1986 pusieron a la venta las acciones de Microsoft en la bolsa. Bill
Gates se convirtió ese mismo día en el multimillonario más joven de los Estados
Unidos. Paul Allen, con menos acciones también se volvió millonario. Juntos donaron
2.2 millones de dólares al colegio Lakeside para construir un edificio para ciencias y
matemáticas al que se denominó Allen Gates Hall.
En 1987 terminó su relación con Ann porque ella, cinco años mayor que él, quería
casarse.
En 1992 recibió de manos del presidente norteamericano George Bush, la Medalla
Nacional de Tecnología.
El 1 de enero de 1994 se casó en Lanai, Hawaii, con Melinda French, una manager de
Microsoft. El padrino de la boda fue su amigo Steve Ballmer. Comenzó a edificar su
futura residencia en Seattle con un costo estimativo de 40 millones de dólares. Estará
poblada de pantallas digitales que cambiarán automáticamente a gusto de la persona.
Podrá ver sus imágenes favoritas, acompañadas de su música predilecta.
Ese mismo año murió su madre y en su homenaje llamaron con su nombre la calle de
Seattle en donde vive el padre de Bill.
En noviembre pagó 32.5 millone s de dólares por un manuscrito de 72 páginas, original
de Leonardo Da Vinci., por el que su antiguo dueño Armand Hammer había pagado
apenas 5 millones en 1980.
El 24 de agosto de 1995 salió a la venta en los Estados Unidos, el
WINDOWS 95, arrasando con todas las expectativas de venta.
Apenas salió al mercado se agotó y es hasta hoy en día el más
importante producto de software de Microsoft.
Escribió el libro Camino al Futuro que estuvo primero en la lista de
best sellers durante 7 semanas. Sus regalías las donó a una fundación
internacional de maestros que trabajan con computadoras en clase.
Se asoció con Steven Spielberg en DreamWorks, compró el 80% de Ticketmaster, el
20% de America Online y metió baza en los imperio de Time-Warner y TCI..
El 26 de abril de 1996 nació su hija Jennifer Katherine Gates.
Bill Gates es hoy por hoy el hombre más rico del mundo pero su idea es dirigir
Microsoft por sólo 10 años más para luego dedicarse a la filantropía. Piensa dejarle a su
familia sólo el 2% de su fortuna y regalar el 98% restante.
William Shockley (1910-1989)
William Bradford Shockley nació en Londres el 13 de febrero de
1910, aunque sus padres eran norteamericanos y sólo 3 años
después de su nacimiento se lo llevaron a vivir a Palo Alto,
California. Su padre era un ingeniero y su madre una topógrafa
de minas. Considerando que le podrían dar a su hijo una mejor
educación en casa, los Shockleys mantuvieron a William sin ir a
la escuela hasta que cumplió 8 años. Aunque su educación
probaría más tarde ser de excelente nivel, este aislamiento hizo
que el pequeño William tuviera muchos problemas para adaptarse
a su entorno socia l.
La madre de William le enseñaba matemáticas, y ambos padres le
motivaban sus intereses científicos, aunque una influencia
particularmente importante para él en esos días fue su vecino
Perley A. Ross, que era profesor de física en Stanford. A los 10
años de edad, William visitaba constantemente la casa de Ross, y
jugaba con las 2 hijas del profesor.
Shockley pasó 2 años en la Academia Militar de Palo Alto antes de ingresar a la
Preparatoria de Hollywood en Los Angeles. Durante un corto tiempo asistió también a
la Escuela de Entrenamiento de los Angeles, en la que estudió física. Fue ahí que
descubrió que tenía un talento innato para esa disciplina: solía encontrar con cierta
facilidad formas de resolver problemas que diferían de las soluciones tradicionales que
proporcionaban sus maestros. Pese a ser el mejor estudiante de física de su escuela,
Shockley se decepcionó al no recibir el premio en esta disciplina al graduarse, pues éste
le fue negado por haber tomado clases de física en otra escuela.
En el otoño de 1927 ingresó a la Universidad de California en Los Angeles, pero tras
sólo un año ahí ingresó al prestigioso Instituto de Tecnología de California (Cal Tech),
en Pasadena. William terminó su licenciatura en física en 1932, y posteriormente
obtuvo una beca para estudiar en el Instituto Tecnológico de Massachusetts (MIT), de
donde se doctoró en 1936.
Después de doctorarse, Shockley tenía ofertas para trabajar en General Electric y la
Universidad de Yale, pero eligió los Laboratorios Bell de Murray Hill, New Jersey,
porque eso le permitiría colaborar con C. J. Davisson, cuyo trabajo en la difracción de
los electrones le valdría obtener más tarde el Premio Nobel. A su entrada a Laboratorios
Bell, Shockley tuvo cortas estancias en diferentes departamentos a fin de que pudiera
adquirir un conocimiento tecnológico más general. Posteriormente se unió al
departamento de tubos de vacío, encabezado por Davisson. Una preocupación del
director de investigación de Laboratorios Bell de aquella época (Mervin J. Kelly) era
que con los años crecería la demanda del sistema telefónico, y que los relevadores no
serían suficientes, por lo que creía que debía hallarse una manera de controlar el equipo
telefónico de manera electrónica. Esa conversación tuvo una gran influencia sobre
Shockley, a pesar de que Kelly pensaba erróneamente que los tubos de vacío serían los
sustitutos de los relevadores.
Durante la Segunda Guerra Mundial, Shockley no se involucró en física en lo más
mínimo. Abandonó temporalmente Laboratorios Bell para servir como director de
investigación del Grupo Anti-Submarinos de Investigación de Operaciones de Guerra
entre 1942 y 1944, y como asesor experto para la Oficina de la Secretaría de Guerra en
1944 y 1945. En la estación de campo de Bell en Whippany, New Jersey, realizó el
diseño electrónico del equipo de radar. Shockley obtuvo la condecoración civil más
elevada de la época: la Medalla al Mérito. La mayor parte de sus contribuciones
tuvieron que ver con el uso del radar en los bombarderos B-29.
Shockley regresó a Laboratorios Bell después de la Segunda Guerra Mundial, para
continuar con su trabajo en física del estado sólido, con la esperanza de encontrar una
alternativa a los tubos de vacío, usando ahora los nuevos descubrimientos en física
cuántica que lo motivaron a investigar los intrigantes semiconductores. En julio de 1945
Shockley se volvió codirector del programa de investigación en física del estado sólido.
El trabajo realizado a principios de los 40s por Russell S. Ohl (otro empleado de
Laboratorios Bell) en los semiconductores convenció a Shockley que debía ser posible
producir una nueva forma de amplificación usando la física del estado sólido. De hecho,
ya en 1939 Shockley había intentado producir, junto con Walter Brattain (un
investigador veterano de Laboratorios Bell) un amplificador de este tipo usando óxido
de cobre, pero sin tener éxito.
Fue John Bardeen el que logró descrifrar el enigma, y en 1947 logró construir junto con
Brattain el primer amplificador funcional usando germanio.
Los Laboratorios Bell acordaron otorgar licencias para el uso del transistor a cualquier
firma a cambio de un pago de regalías. Sólo los fabricantes de aparatos para la sordera
no tenían que pagar dichas regalías, como un tributo a la memoria de Alexander
Graham Bell que en vida ayudó tanto a los sordos. Los transistores fueron usados por el
público por primera vez en 1953, en la forma de amplificadores para los aparatos contra
la sordera. En 1954 se desarrolló la radio de transistores y en febrero de 1956 el
Laboratorio de Computadoras Digitales de MIT empezó a desarrollar en colaboración
con IBM una computadora transistorizada. En 1957 y 1958 UNIVAC y Philco
produjeron las primeras computadoras comerciales de transistores.
Shockley fue nombrado Director de Investigación de la Física de los Transistores en
Laboratorios Bell en 1954.
Shockley decidió independizarse en 1955, y fundó el Laboratorio de Semiconductores
Shockley en una ladera de Mountain View, al sur de Palo Alto, California. La empresa
de Shockley fue el origen de lo que hoy se conoce como el Valle del Silicio, y a pesar
de lograr atraer a algunos de los científicos más connotados de su época, eventualmente
fracasó debido a su falta de tacto para con sus empleados. El punto de quiebra vino en
1957, cuando sus 8 ingenieros principales se molestaron con él porque se negó a
concentrarse en los transistores de silicio, que ellos creían que serían más fácil de
comercializar que los de germanio. Ante la negativa de Shockley, lo s "8 traidores",
como él los llamaría después, decidieron renunciar y fundaron su propia empresa,
llamada Fairchild Semiconductor, que recibió apoyo financiero del industrial Sherman
Fairchild. El tiempo le daría la razón a los empleados de Shockley, y eve ntualmente la
mayor parte de las firmas de semiconductores del Valle del Silicio se derivarían a la
exitosa Fairchild Semiconductor.
Shockley hubo de vender su empresa a Clevite Transistor en abril de 1960, quedándose
como asesor. En 1958 comenzó a dar clases en Stanford, y en 1963 fue nombrado el
primer Presor Alexander M. Poniatoff de Ingeniería y Ciencias Aplicadas. Como
científico, hizo todavía varias aportaciones más a la electrónica y campos afines, y llegó
a acumular más de 90 patentes a lo largo de su vida. En sus ratos libres gustaba del
alpinismo, y llegó a escalar algunas de las montañas más elevadas de los Alpes,
incluyendo la Jungfrau y Mt. Blanc (con su hija Alison en 1953). Más tarde se aficionó
a la vela, aunque un serio accidente automovilístico acaecido el 23 de julio de 1961 lo
obligó a retirarse del deporte. En 1965 regresó a Laboratorios Bell como asesor de
tiempo parcial, y se retiró de ese empleo en febrero de 1975, y de Stanford en
septiembre del mismo año.
Un día Shockley leyó cómo el dueño de una panadería había quedado ciego a
consecuencia del ácido que un adolescente con un CI (Coeficiente Intelectual) de 70 le
había arrojado. Este adolescente era uno de los 17 hijos que tenía una señora con un CI
de 55. El artículo lo afectó tanto que a partir de ese momento entonces comenzó a
incursionar en el controversial campo de la disgenia, que es algo así como la evolución
inversa (o involución) causada por la reproducción excesiva de los que tienen
desventajas genéticas. Shockley propuso que las fundaciones privadas ofrecieran dinero
a aquellas personas con hemofilia, epilepsia, y bajo CI que accedieran a ser
esterilizadas. Esto contribuiría, según él, a detener "el brutal mecanismo de eliminación
de la evolución". En particular, Shockley dirigió sus ataques contra los negros, a los
cuales él consideraba "más aptos para labores físicas", pero inferiores intelectualmente,
pues según él, obtenían consistentemente puntuaciones más bajas que sus compañeros
blancos en la pruebas de CI. Resulta innecesario decir las controversias que estas
declaraciones originaron. Su efigie fue quemada públicamente en Stanford, su coche fue
pintado con spray, sus clases fueron interrumpidas por estudiantes vestidos con sábanas
blancas, y en diversos medios de comunicación se le calificó de racista.
Aún en el ojo del huracán, Shockley no cesó su campaña, y llegó incluso a lanzarse
como candidato a senador por el partido republicano en 1982, quedando en octavo
lugar. Ante la controversia tan enconada, la misma Academia Nacional de las Ciencias
de Estados Unidos hubo de intervenir.
Aunque la controversia en torno a la disgenia continúa hasta nuestros días, la vida de
Shockley se apagó el sábado 12 de agosto de 1989, cuando éste murió de cáncer de la
próstata en su casa en el campus de Stanford a los 79 años de edad. Sin embargo, tal vez
no hemos oído todo lo que tenía que decir, pues se sabe que el controversial científico
logró convencer al multimillonario Robert K. Graham de patrocinar un banco de
esperma de ganadores de premios Nobel, en un intento por "controlar la producción de
genios en el mundo, para balancearlo y protegerlo de los menos dotados
intelectualmente". Adivine quién fue el primero en donar esperma a este banco.
Z3 (1941)
Durante 1936 y 1939, en Alemania, Konrad Zuse construyó la primera computadora
electromecánica binaria programable, la cual hacía uso de relés eléctricos para
automatizar los procesos. Sin embargo, tan sólo fabricó un prototipo para pruebas al
cual llamó Z1, el cual nunca llegó a funcionar debido a la falta de perfeccionamiento en
sus elementos mecánicos.
En 1940, Zuse terminó su modelo Z2, el cual fue la primera computadora
electromecánica completamente funcional del mundo. Al año siguiente, en 1941,
fabricó su modelo Z3 pare el cual desarrolló un programa de control que hacía uso de
los dígitos binarios. Sin embargo esta computadora fue destruida en 1944 durante un
bombardeo. Konrad Zuse se había basado para el diseño de sus computadores en los
recientes trabajos de Alan Turing.
La Z3, programada mediante una cinta perforada, tenía 2000 relés (electroimanes), un
peso de 1000 Kg, una memoria de 64 palabras de 22 bits (equiv. a 176 bytes) y un
consumo de 4000 watts. Una adición demoraba 0,7 segundo y una multiplicación o
división 3 segundos.

Documentos relacionados