La Computadora

Tiene poco más de medio siglo su invención, la computadora revolucionó a la humanidad desde su llegada y uso masivo para una vida confortable con este aparato desde el hogar, trabajo, viajes y disponibilidad para trabajo a distancia fuera del planeta, en exploración del cosmos.

Se clasifica su aparición en varias generaciones, la primera corresponde al periodo de 1951 a 1958, cuando se empleó bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Todo el equipo era grande y generaba mucho calor que los modelos más recientes.computadora

Contribuyeron en todo esto la dupla Eckert y Mauchly, al conformando una compañía y construyeron UNIVAC I, y le sirvió a Estados Unidos para realizar su censo poblacional en 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el contrato de ese censo.

Este consorcio inició la construcción de computadoras electrónicas con la IBM 701 en 1953, “un lento pero excitante comienzo” y se convirtió en un producto comercialmente viable. Sin embargo en 1954 introdujo el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. Arriesgó construir para venta de 50 computadoras, una cifra elevada de máquinas instaladas en Estados Unidos en ese entonces, pero finalmente la marca instaló mil cuando empresas privadas y el gobierno dispuso de esos equipos.

A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras.

La Segunda Generación (1959-1964) consistió el uso de Transistor Compatibilidad Limitada, invento del transistor hizo posible una nueva generación más rápida de computadoras, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. También utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.

El COBOL desarrollado durante la primera generación estaba ya disponible comercialmente. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la computación.

Su versatilidad de los equipos permitirá su uso para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.

La marina estadounidense utilizó las computadoras para crear el primer simulador de vuelo (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como el grupo BUNCH.

Tercera Generación (1964-1971) Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora:

Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.

Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.

La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación).

Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las mini computadoras se desarrollaron durante la segunda generación pero alcanzaron su mayor auge entre 1960 y 1970.

Cuarta Generación (1971 a la fecha) Microprocesador, Chips de memoria, Microminiaturización:

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos.

El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC Personal Computer).

Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación que ocupaba un cuarto completo.

ORDENADOR Y PIONEROS

La computadora es un procesar, acumular y ordenador de datos. El término proviene del latín computare (“calcular”). Se trata de una máquina electrónica capaz de recibir, procesar y devolver resultados en torno a determinados datos y que para realizar esta tarea cuenta con un medio de entrada y uno de salida. Es un sistema informático que compone de dos subsistemas que reciben los nombres de software y hardware, el primero consiste en la parte lógica de la computadora (programas, aplicaciones, etc) el segundo en la parte física (elementos que la forman como mother, ventilador, memoria RAM).

Carlos Babbage (1791-1871), nació en Teignmouth (Inglaterra), fue un niño enfermizo. Su padre era rico por lo que Babbage estudió en las mejores escuelas privadas. Enseguida mostró interés por las matemáticas. Antes de entrar en la universidad estudiaba en su casa con la ayuda de un tutor de Oxford, para así lograr el nivel universitario. Así en 1810 ingresó en la Universidad de Cambridge.

En 1812 crea la Sociedad Analítica junto con otros estudiantes de Cambridge y en 1816 ingresa en la Real Sociedad de Matemáticas de Londres.

Durante una de las reuniones de la Sociedad Analítica en 1812, fue cuando a Babbage se le ocurrió la idea de que era posible diseñar una máquina capaz de realizar cálculos. En un principio no se dedicó a esta idea, pero en 1819 ya empezó a diseñar y construir su primera máquina, que terminó en 1822, fue un pequeño motor en diferencias. La presentó en la Real Sociedad Astronómica de Londres, recibiendo por ella la medalla de oro de dicha sociedad. Fue entonces cuando obtuvo una subvención para diseñar y construir una máquina en diferencias más grande, Babbage esperaba terminarla en 3 años pero la construcción se alargó en el tiempo. En 1834 se paró la construcción de la máquina en diferencias.

Su trabajo con la máquina en diferencias le condujo a nuevas ideas, y así en 1834 ya tenía realizados los primeros bocetos de la máquina analítica, que nunca llegó a construirse pero su diseño sentó las bases de la computadora actual.

En 1840 Babbage dio una conferencia en Turín sobre el motor analítico, presenciando dicha conferencia estaba un matemático italiano llamado Menabrea que realizó un informe en francés sobre todo lo expuesto por Babbage. Dicho informe lo tradujo al inglés Ada Lovelace, incorporando varias ideas suyas así como diversos programas para realizar cálculos complejos con la máquina.

A pesar de que Babbage no pudo construir la máquina analítica, su proyecto supuso sentar las bases de la informática y todos los conceptos por él expuestos en su diseño se demostraron que eran correctos años más tarde.

   Herman Hollerith, conocido como el creador del primer prototipo de computadora moderna y como el padre de la informática, nació en Nueva York en 1860. En 1879, graduado en estadística, comenzó su trabajo en la oficina de censos de EEUU. Allí debió plantearse el desafío de resolver el problema que se había presentado en el censo de 1880: la enorme cantidad de habitantes hacía muy costoso el armado y análisis manual de las interminables tablas de información.

El censo de 1880 había demandado 7 años de análisis, y según las proyecciones de aumento poblacional, el censo de 1890 implicaría más de 10 años de tabulación y cálculo manual. Así, Hollerith comenzó a trabajar en el diseño de una máquina tabuladora o censadora que permitiera reducir el tiempo de análisis de datos, buscando mecanizar la tabulación manual.

Hollerith observó que la mayor parte de las preguntas contenidas en los censos se podían contestar con opciones binarias: SÍ o NO, abierto o cerrado. Entonces ideó una tarjeta perforada, una cartulina compuesta por 80 columnas con 2 posiciones, con la cual se contestaba este tipo de preguntas.

Esta noción de programación binaria había sido usada ya en 1801 por el inventor francés Joseph Marie Jacquard, que había logrado automatizar un telar, conocido como el telar de Jacquard, mediante el uso de tarjetas perforadas que aplicaban el concepto de código binario publicado en 1623 por el filósofo Francis Bacon en su De Augmentis Scientarum. También había hecho lo suyo el científico e inventor británico Charles Babbage (1791 – 1871), quien diseñó entre 1833 y 1842 una máquina analítica que nunca terminó de construir para ejecutar programas de tabulación, aplicando la misma lógica de código binario utilizada por Jacquard. Babbage es considerado por muchos como el verdadero “Padre de la computación”, antes que Hollerith, aunque su invento nunca se materializó. Es de notar que a pesar de que su máquina analítica nunca vió la luz, la matemática Ada Lovelace, hija de Lord Byron, se interesó sobremanera en la máquina de Babbage y escribió varios programas para su funcionamiento teórico, lo que convierte a Ada Lovelace en la primera programadora de computadoras de la historia.

En 1890, el Gobierno estadounidense eligió la máquina tabuladora de Hollerith para elaborar el censo. Con este método, el resultado del recuento y análisis censal de los 62,622,250 habitantes estuvo listo en sólo 6 semanas.

Hollerith patentó su máquina en 1889, que es sólo una dentro de sus más de treinta patentes. Años después, en 1896, Hollerith fundó la empresa Tabulating Machine Company, con el fin de explotar comercialmente su invento. En 1911, dicha compañía se fusionó con Dayton Scale Company, International Time Recording Company y Bundy Manufacturing Company, para crear la Computing Tabulating Recording Company (CTR). El 14 de febrero de 1924, CTR cambió su nombre por el de International Business Machines Corporation (IBM), cuyo primer presidente fue Thomas John Watson, que curiosamente no estaba muy convencido del futuro que podían tener estas máquinas.

Herman Hollerith, hace más de un siglo, pasó con su máquina tabuladora a las páginas de la historia de la tecnología, inscribiéndose como el primer hombre que logró llevar a cabo el tratamiento automático de la información, es decir, como el padre de la informática.

El inglés Alan Turing, 1912-1954, puede ser considerado el padre de la Inteligencia Artificial (IA), aunque este nombre no se usase hasta después de 1956. Turing estudió lógica matemática en la Universidad de Cambridge y en 1937 estuvo en el Institute for Advanced Studies de Princeton, donde estaban Gödel y Von Newman, entre otros destacados lógicos y matemáticos, además de Albert Einstein Durante la segunda guerra mundial trabajó para su país en los servicios de información; en 1949 en la Universidad de Manchester y en el programa MADAM (Manchester Authomatic Digital Machine) que resultó ser el equipo de computación de mayor memoria construido hasta entonces. Condenado a causa de su homosexualidad a un tratamiento, o tortura, médico-farmacéutica equivalente a la castración, Turing se suicidó por envenenamiento en 1954.” (Enric Trillas50-51)
“Durante los años de la segunda guerra mundial, Turing colaboró en el diseño de una máquina llamada la ‘Bomba’ que exploraba las combinaciones posibles generadas por la máquina codificadora alemana ‘Enigma’. Tal ‘Bomba’ fue una máquina de propósito especial, el de descifrar códigos, construida electromecánicamente con relés. Asimismo, trabajó en el desarrollo de la ‘Colossus’ (que algunos consideran como el primer ordenador electrónico) que ya funcionaba con válvulas (tubos de vacío) en lugar de relés; gracias a ella los británicos pudieron mantener alejados de los submarinos alemanes a los barcos de suministro que cruzaban el Atlántico… Turing no recibió en vida reconocimiento alguno de la sociedad a la que tanto ayudó en los momentos más difíciles.” (Enric Trillas51)

“Más sorprendente todavía es que Turing demostró que para cualquier sistema de sus máquinas que sea necesario para efectuar algoritmos cada vez más complicados existe una máquina de Turing capaz de hacerlo todo ella sola. Tal máquina hipotética recibe el nombre de ‘máquina de Turing universal’, y su existencia teórica pone de manifiesto que el concepto de máquina de Turing es de una versatilidad sin fin, al permitir que cualquier incremento de la complejidad del algoritmo pueda ser aceptado por una lista más larga de especificaciones… Los ordenadores actuales son realizaciones de las ideas de John von Newmann y de Alan Turing.” (Enric Trillas53)

Turing “en 1950 propuso una prueba que se conoce como el ‘test de Turing’, el cual se basa en la idea siguiente: si una persona se comunica sólo a través de un terminal con otras dos partes, que están escondidas,, y no se puede discriminar a través de preguntas cuál de ambas partes es una persona y cuál es un ordenador, entonces no se puede negar que la máquina muestra la cualidad que, en las personas, se llama ‘inteligencia’. Tal procedimiento tiene la ventaja de no tener que definir lo que es la inteligencia. Turing creía firmemente que máquinas que piensen llegarían a existir y predijo que hacia el año 2000 una máquina jugaría al ‘juego de imitación’, como él llamó al test, de manera que un interrogador medio no tendría más del 70 por 100 de posibilidades de efectuar la identificación correcta tras cinco minutos de preguntas.” (Enric Trillas55)

En el desarrollo de la computadora, la teoría antecedió a la práctica. El manifiesto del nuevo orden electrónico de cosas fue un trabajo (“On Computable Numbers” -Sobre números calculables-) publicado en 1936, por el matemático y lógico A.M.Turing, el cual determinó la naturaleza y las limitaciones teóricas de las máquinas lógicas antes de que se construyera siquiera una sencilla computadora por completo programable.(Bolter17)
Turing… en 1950 publicó “Computing Machinery and Intelligence”… expresó su convicción de que las computadoras eran capaces de imitar perfectamente la inteligencia humana y que tal hazaña la realizarían hacia el año 2000.
Al prometer (o al amenazar) sustituir al hombre, la computadora nos ofrece una nueva definición de hombre, como “procesador de información”, y de naturaleza, como “información que debe ser procesada”.(Bolter18)
“En 1936 Turing concibió su propio autómata imaginario. La máquina de Turing, como se le llegó a conocer, no hizo intento alguno para unirse a la sociedad de las criaturas vivas. Podría visualizarse más como un tocacintas muy sofisticado con una cinta arbitrariamente infinita. “Siendo una Máquina de Estados Finitos, se podría concebir como un autómata finito”.(Lévy 22-23).

John Presper Eckert y John William Mauchly

John William Mauchly es un físico nacido en Agosto de 1907 y John Presper Eckert un Ingeniero electrico nacido en 1919 , los dos crearon el UNIVAC I valorada en $1.500.000 que fue la primera computadora comercial y el ENIAC, máquinas que superaban la superficie de los 150 m2, aunque estas dos no fueron las primeras máquinas programables si fueron el desencadenante para que en la actualidad podamos disponer en nuestras casas de un PC, además algo que es muy importante es el UNIVAC fue la primer máquina en usar un compilador(Programa informático que traduce un programa escrito en un lenguaje de programación a otro lenguaje de programación, generando un programa equivalente que la máquina será capaz de interpretar).

Desde luego eses no son sus únicos méritos, a lo largo de sus vidas estuvieron aportando sus conocimientos para numerosos proyectos que los llevaron a ser reconocidos mundialmente:

  • Eckert tenía muchas patentes sobre electrónica. Y recibió numerosos premios por su trabajo pionero en el mundo de las computadoras, como la Medalla Nacional de Ciencia en 1969 (el más prestigioso en EE. UU.).
  • Mauchly recibió numerosos premios y honores. Era miembro vitalicio del Franklin Institute, la National Academy of Engineering y la Society for Advancement of Management. También fue escogido Socio de la IRE, sociedad predecesora de la IEEE, en el 1957, y fue socio del American Statistical Association.

 Von Newman, nació en Budapest, su nombre verdadero es Margittai Neumann János (los húngaros colocan sus apellidos antes que el nombre) que se puede traducir como János Neumann de Margitta, que se transformó en Jhohann Neumann von Margitta cuando se trasladó a Alemania y que luego se lo recortaron quedándose en Johann von Neumann, para finalmente conocérsele mundialmente como John von Neumann, al llegar a EE.UU.

John von Neumann fue un niño prodigio, con una gran memoria fotográfica y una gran habilidad para los idiomas.

Al comenzar la Segunda Guerra Mundial comenzó a trabajar para el Gobierno de los EE.UU, hacia 1943 von Neumann empezó a interesarse por la computación para ayudarse en su trabajo, en aquellos años había numerosas computadoras en construcción, como por ejemplo la Mark I (Howard Aiken) o Complex Computer (George Stibiz), pero con la que von Neumann se involucró fue el ENIAC (junto con John Presper Eckert y John W. Mauchly). Una vez finalizada la construcción del ENIAC y viendo sus limitaciones, decidieron definir todo un nuevo sistema lógico de computación basado en las ideas de Turing y se enfrascaron en el diseño y la construcción de una computadora más poderosa el EDVAC (Electronic Discrete Variable Arithmetic Computer). Pero hubo problemas legales con la titularidad de lo que hoy conocemos como Arquitectura de von Neumann. Esto produjo que el diseño se hiciera público, al final Eckert y Mauchly siguieron su camino y von Neumann regresó a Princeton con la idea de construir su propia computadora.

En los años 50 construyó la computadora IAS, cuyo diseño ha sido una de las bases de la computadora actual, conociéndose como “arquitectura de von Neumann”. Otras de sus contribuciones en computación fueron por ejemplo el uso de monitores para visualizar los datos y el diagrama de flujo. También colaboró en el libro “Cibernética: control y comunicación en el animal y en la máquina” escrito junto con Norbert Wiener, en donde se explica la teoría de la cibernética.

En 1954 empezó a trabajar para la Comisión de Energía Atómica. A lo largo de su vida von Neumann obtuvo numerosos reconocimientos por su labor científica, como varios doctorados Honoris Causa, la medalla presidencial al mérito, y el premio Albert Einstein. También recibió en 1956 el premio Enrico Fermi de la Comisión de Energía Atómica por sus “notables aportaciones” a la teoría y diseño de las computadoras electrónicas.

   Jack Kilby. fue premio Nobel de Física e inventor de los circuitos integrados que llevaron a la creación de los microprocesadores.

Esos dispositivos son considerados el primer paso hacia la sociedad de la información. Sustituyeron a los tubos al vacío y llevaron a la creación de microprocesadores, que en la actualidad forman parte de casi todos los aparatos digitales, desde las televisiones, hasta los hornos microondas, pasando por las radios a transistores y los ordenadores.

El ingeniero estadounidense creó en 1958 el primer circuito integrado, en el que todos los componentes constituían una sola pieza de material semiconductor de tamaño microscópico. Este logro le valió la concesión en el año 2000 del premio Nobel de Física. Tom Engibous, presidente de Texas Instruments (TI) -la empresa para la que trabajó Kilby durante muchos años- ha dicho que el trabajo del físico estadounidense es comparable al de otros científicos que “transformaron al mundo” como Thomas Edison, Henry Ford y los hermanos Wright.

Kilby dijo, tras ser galardonado con el Premio Nobel, que pensaba que su invento “sería importante para la industria electrónica”, pero no entendía “cómo iba a impulsar su crecimiento”. Este en todo caso llegó pronto y se ha mantenido a lo largo de los años.

   Douglas Engelbart, inventó el mouse. Ideó el que probablemente sea uno de los dispositivos más influyentes en la popularización de la computación personal: hoy lo usan cientos de millones de personas en todo el mundo.

Su labor fue crucial para que usar una computadora fuera un poco más fácil. No se quedó ahí: también fue el primero en desarrollar un sistema operativo con múltiples ventanas de tamaño variable, que soportara teleconferencias con la imagen en una ventana, el hipertexto y la hipermedia (un texto con enlaces a archivos de audio o video), el e-mail multimedia y los paneles de ayuda que varían su contenido según el contexto. Piense cuántas de esas cosas se usan hoy en las computadoras.

Se podría suponer que Engelbart estaba en Apple cuando diseñó todo esto, y que lo hizo a principios de los años 80. Después de todo, las Apple, en 1984, fueron las primeras computadoras populares en ofrecer un mouse para controlar un sistema operativo con una interfaz gráfica basada en ventanas. Pero no: estas herramientas crecieron entre 1964 y 1968.

Steve Wozniak y Steve Jobs. Las Macs como las conocemos hoy tuvieron su origen en lo que significó el computador Apple I para el mundo de la tecnología. La historia de las Macintosh, de Apple como compañía e incluso la historia de la computación no se podrían explicar completamente sin primero conocer la innovación que representó en los 70, la creación de la Apple I, la primera computadora de Apple.

Al aparato también se le ha llamado Apple-1 o Apple One, ya que fue comercializada en los 60 con el nombre de Apple Computer, aunque ahora se conoce como la Apple One.

Wozniak y Jobs se conocieron a inicios de los años 70. En una de esas afortunadas casualidades, ambos se complementaban el uno al otro. Wozniak tenía gusto y talento para las ciencias computacionales. Jobs, ahora todos lo sabemos, era un genio de los negocios y las ventas. Así que las circunstancias favorecieron que entre los dos hicieran una mancuerna perfecta para fundar una compañía tecnológica. Gracias a ese encuentro fundaron nada menos que Apple Computer, en 1976.

La creación de la primera computadora personal de Apple, la Apple I, se le atribuye mayormente al genio de Wozniak, ya que como mencionamos anteriormente; él era el que tenía gusto y talento para los asuntos tecnológicos, y Jobs era el encargado de visionar las oportunidades de negocio.

Una anécdota famosa sobre la primera computadora personal de Apple, cuenta que Wozniak y Jobs decidieron vender su calculadora científica y su auto, respectivamente, para poder juntar $1,300 dólares y así construir la Apple I. El aparato fue construido manualmente en un garage.

La Apple I no fue la primera computadora personal de la historia. Pero la manera en la que fue comercializada representó una innovación en su tiempo.

Las grandes innovaciones que la Apple I tuvo como contribución fueron la posibilidad de integrar fácilmente un monitor de tv y un teclado, además de que la tarjeta se vendía pre-ensamblada. En contraste con lo que se podía encontrar en las computadoras de los años 70: líneas de luces LED o una terminal de teletipo como salida de datos; además de que las computadoras de aquel entonces se vendían en kits con partes separadas que el usuario tenía que ensamblar manualmente.

Se podrán imaginar entonces que es gracias a la creación de la Apple I que las computadoras personales son como son hoy en día. Aunque también habría que apuntar que en este caso mucho tiene que ver la visión de negocios de Steve Jobs, que logró que la computadora se volviera popular entre los entusiastas de la tecnología

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s