Por Begoña Albizuri Romero, Departamento Académico de Computación

El ITAM Informa Enero-Marzo 2004 No. 2 Año 1 Tecnología Historia de la Computación Por Begoña Albizuri Romero, Departamento Académico de Computación.
Author:  Alicia Gil Montoya

0 downloads 70 Views 62KB Size

Recommend Stories


EL INEVITABLE GUPFY. por Aldem aro Romero
EL INEVITABLE GUPFY por A ld em aro R om ero P orq u e e l G u p p y es una de esas especies de peces m u y po pulares, un pez de c o n s id e ra b

Romero
ACHSC / 32 / Romero Sweig, Julia. Inside the Cuban Revolution: Fidel Castro and the Urban Underground. Cambridge (Massachusetts): Harvard University

CATALOGO DE PRUEBAS POR DEPARTAMENTO
PROGRAMA DE SERVICIOS EXTERNOS Miguel Silva No. 64 Morelia, Mich. Tel. (443) 3 12 32 24 FAX (443) 3 12 35 30 CATALOGO DE PRUEBAS POR DEPARTAMENTO I

SAGITARIO Y LA META. Por Luisa Romero de Johnston
SAGITARIO Y LA META Por Luisa Romero de Johnston La nota clave del signo zodiacal Sagitario – “Veo la meta, alcanzo esa meta y veo otra meta” – repres

es: Romero García, Rosario Amada y Romero Gil, Esperanza
k 19 ˜ OFICINA ESPANOLA DE PATENTES Y MARCAS ˜ ESPANA k 12 k 1 034 687 kN´umero de solicitud: U 9601933 kInt. Cl. : A45F 3/04 11 N´ umero de pub

2) Autor: Mario Romero
mailxmail - Cursos para compartir lo que sabes Dibujo del cuerpo humano (1/2) Autor: Mario Romero 1 mailxmail - Cursos para compartir lo que sabes

LISTA DE FIRMAS POR DEPARTAMENTO ** AÑO 2016
LISTA DE FIRMAS POR DEPARTAMENTO ** AÑO 2016 Ramos: Expendedoras de ¨Productos Veterinarios NOMBRE DISTRIBUIDOR LOCALIDAD TELEFONO ALTO PARAGUAY CO

Story Transcript

El ITAM Informa Enero-Marzo 2004 No. 2 Año 1 Tecnología

Historia de la Computación Por Begoña Albizuri Romero, Departamento Académico de Computación. Por toda la historia, el desarrollo de las matemáticas ha ido de la mano con el desarrollo de las computadoras. Cada avance en unas es seguido inmediatamente por un avance en las otras. Cuando la humanidad desarrolló el concepto del sistema de conteo en base diez, el ábaco fue una herramienta para hacerlo más fácil. Cuando las computadoras electrónicas fueron construidas para resolver ecuaciones complejas, campos como la dinámica de fluidos, teoría de los números, y la física química florecieron. Las primeras computadoras eran capaces de ejecutar varios cientos de operaciones por segundo, pero a medida que la electrónica ha evolucionado, eso ha cambiado drásticamente, ya que actualmente son capaces de ejecutar millones de instrucciones por segundo. ¿Pero de dónde viene toda esta corriente?, ¿en qué libro mágico se encontraron las recetas?, ¿quién fue el genio que inventó este portento de máquina? Como en todo gran desarrollo, nada se puede sacar de la chistera (como lo hace el mago), todo es consecuencia de la suma de esfuerzos de científicos que, sin saberlo en la mayoría de las veces, han contribuido con su granito de arena. En este trabajo se da un breve relato de la historia de las computadoras, así como también las historias de los lenguajes de programación y de los microprocesadores. Antecedentes Uno de los primeros dispositivos mecánicos para contar fue el ábaco. Se piensa que se originó entre 600 y 500 a. C., en China o Egipto. El ábaco representa la primera calculadora mecánica, aunque no se le puede llamar computadora porque carece de un elemento fundamental: el programa. Como una indicación de su potencial, se usa el ábaco todavía en muchas culturas orientales hoy en día [4]. El matemático escocés John Napier (mejor conocido por su invención de los logaritmos), en 1617, desarrolló un juego de palitos, a los que llamó Napier Bones (Huesos de Napier), para realizar cálculos. Los Huesos de Napier tuvieron una influencia fuerte en el desarrollo de la regla deslizante o regla de cálculo y máquinas calculadoras subsecuentes que contaron con logaritmos. En 1621, la regla de cálculo fue inventada por el matemático William Oughtred. La regla de cálculo (llamada en un principio Círculos de Proporción) era un juego de discos rotarios que se calibraron con los logaritmos de Napier. La regla de cálculo es un dispositivo analógico, en el cual los números se representan como longitudes medidas sobre una escala. La regla de cálculo fue uno de los primeros aparatos de la computación analógica y se usó normalmente hasta comienzos de 1970 cuando

salieron al mercado las calculadoras científicas. En 1623 la primera calculadora mecánica fue diseñada por Wilhelm Schickard en Alemania. Esta calculadora, llamada El Reloj Calculador, incorporó los logaritmos de Napier y haciendo rodar unos cilindros en un albergue grande ayudaba básicamente a realizar multiplicaciones de varios dígitos [2]. Otro ingenio mecánico, que tampoco es una computadora, fue la primera sumadora mecánica del mundo inventada por el matemático y filósofo francés Blaise Pascal en 1642. Se trata de una serie de engranajes en una caja, que proporcionan resultados de operaciones de suma y resta en forma directa -mostrando un número a través de una ventanita- y que por este simple hecho tiene la ventaja de que evita tener que contar, como en el ábaco; además, presenta los resultados en forma más accesible y directa. Pascal desarrolló esta máquina, llamada Pascalina, originalmente para simplificar a su padre los cálculos de impuestos. Aunque la Pascalina nunca fue un éxito comercial como Pascal había esperado, el principio de los cambios que implicó fue útil en las generaciones subsecuentes de las computadoras mecánicas. La primera calculadora de propósito general fue inventada por el matemático alemán Gottfried von Leibniz en 1673. El aparato usaba un cilindro de dientes (llamado La Rueda de Leibniz) en lugar de los engranajes utilizados por la Pascalina. Era una máquina rudimentaria para mecanizar el cálculo de tablas matemáticas, siendo la primera máquina que multiplicaba y dividía directamente. Charles Mahon, Conde de Stanhope, inventó en 1777 la primera máquina lógica, llamada Demostrador Lógico. Era una aparato tamaño bolsillo que resolvía silogismos tradicionales y preguntas elementales de probabilidad. Mahon es considerado el precursor de los componentes lógicos de las computadoras modernas. En 1820 nació la primera calculadora de producción masiva, creada por Charles Thomas de Colmar. Principalmente se vendió a las casas de seguros de París. El Aritmómetro de Colmar operaba usando una variación de la rueda de Leibniz. Se vendieron más de mil aritmómetros y recibió la medalla de la Exhibición Internacional de Londres en 1862. La computadora nace, de hecho, en 1822, con la invención de la Máquina Analítica de Charles Babbage. Este diseño, que nunca se llevó por completo a la práctica, contenía todos los elementos que configuran una computadora moderna, y que la diferencian de una calculadora. La máquina analítica estaba dividida funcionalmente en dos grandes partes: una que ordenaba y otra que ejecutaba las órdenes. La que ejecutaba las órdenes era una versión muy ampliada de la máquina de Pascal, mientras que la otra era la parte clave. La innovación consistía en que el usuario podía, cambiando las especificaciones del control, lograr que la misma máquina ejecutara operaciones complejas, diferentes de las que había hecho antes. Esta verdadera antecesora de las computadoras contaba también con una sección en la que se recibían los datos con los que se iba a trabajar. La máquina seguía las instrucciones dadas por la unidad de control, las cuales indicaban qué hacer con los datos de entrada, para obtener luego los resultados deseados. La aplicación fundamental para la que Babbage desarrolló su máquina era elaborar tablas de funciones matemáticas usuales (logaritmos, tabulaciones trigonométricas, etc.) que requerían mucho esfuerzo manual. Esta primera computadora "leía" los datos (argumentos) de entrada por medio de las tarjetas perforadas que había inventado el francés Joseph M. Jacquard, y que habían dado nacimiento a la industria de los telares mecánicos durante la Revolución

Industrial. Desgraciadamente, a pesar de las cuantiosas contribuciones del gobierno, la visión de Babbage nunca se materializó. Las fábricas de la Inglaterra victoriana no eran capaces de producir los elementos correctos necesarios para construir su Máquina Analítica. Cuando Babbage murió, en 1871, dejó una colección de planos detallados, dibujos e instrucciones para su ingeniosa máquina, proporcionando a la posteridad un auténtico y valioso caudal de conocimiento sobre los principios funcionales de las computadoras ([3], [7], [9]) . En 1931 la primera computadora analógica capaz de resolver ecuaciones diferenciales fue desarrollada por Vannevar Bush y su grupo de investigación del MIT. El Analizador Diferencial, como se llamaba, tenía unos engranajes diferenciales que rotaban por medio de unos motores eléctricos y los grados de rotación se interpretaban como cantidades. Los resultados de los cálculos que realizaba el analizador estaban limitados por la falta de precisión en la medida de los ángulos. El alemán Konrad Zuze presentó en 1941 una computadora de propósito general electromecánica, llamada Z1, que utilizaba relevadores electromagnéticos. La Z1 fue destruida por una bomba durante la Primera Guerra Mundial, y antes de que se terminara la guerra Zuze desarrolló dos computadoras más (Z2 y Z3). Zuze no pudo convencer al gobierno nazi para que le apoyara económicamente por lo que tuvo que utilizar lo que le sobró de la Z3 para crear la Z4. Algunos autores consideran que no hay una sola persona a la que se le pueda atribuir el haber inventado la computadora, sino que fue el esfuerzo de muchas personas. Sin embargo en el antiguo edificio de Física de la Universidad Estatal de Iowa aparece una placa con la siguiente leyenda: "La primera computadora digital electrónica de operación automática del mundo, fue construida en este edificio en 1939 por John Vincent Atanasoff, matemático y físico de la Facultad de la Universidad, quien concibió la idea, y por Clifford Edward Berry, estudiante graduado de física." Esta afirmación recibió apoyo en 1973 cuando una antigua patente de un dispositivo que mucha gente creyó que era la primera computadora digital electrónica (ENIAC), se invalidó por orden de un tribunal federal de Estados Unidos, y oficialmente se le dio el crédito a John V. Atanasoff y su computadora ABC (Atanasoff Berry Computer). Si la bomba atómica fue el secreto mejor guardado por los norteamericanos durante la Segunda Guerra Mundial, su equivalente en Inglaterra fue Colossus, una computadora electrónica que se diseñó explícitamente para poder descifrar los mensajes secretos de los nazis. Esto marcó el inicio de la escuela inglesa de cómputo electrónico que le dio al mundo la primera computadora con programa almacenado de la historia, la primera unidad de control microprogramada y muchas otras valiosas contribuciones a la computación moderna. Colossus fue creada en 1943 por Alan Turing y su grupo de investigadores de Bletchley Park. Aparentemente se destruyeron ocho de las 10 máquinas Colossus de Bletchley Park en 1946, por orden directa de Winston Churchill. Una más sobrevivió hasta los 1950s, y la última fue desmantelada en 1960 cuando todos los diagramas de sus circuitos y sus planos fueron quemados. Se sabe que varios científicos norteamericanos vieron funcionar a Colossus en visitas secretas a Bletchley Park después de la guerra, pero el gobierno británico vetó toda la información sobre la máquina durante 30 años. Las razones no fueron sólo militares, sino también políticas, pues se sabe que hubo al menos un bombardeo alemán a una ciudad inglesa que pudo haberse evitado gracias a Colossus, pero que se dejó proceder (a costa de un sinnúmero de muertes) para proteger uno de los secretos mejor guardados durante la Segunda Guerra Mundial.

En 1944 se construyó en la universidad de Harvard, en los Estados Unidos, la computadora IBM Mark I, diseñada por un equipo encabezado por Howard H. Aiken. El funcionamiento de esta conocida máquina estaba basado en dispositivos electromecánicos, llamados relevadores, y no era de propósito general. Después de varias conversaciones con Atanasoff, leer apuntes que describían los principios de la computadora ABC y verla en persona, John W. Mauchly colaboró con J.Presper Eckert, Jr., ambos de la Universidad de Pennsylvania, para desarrollar una máquina que calculara tablas de trayectoria para el ejército estadounidense. El producto final, una computadora electrónica completamente operacional a gran escala, se terminó en 1946 y se llamó ENIAC (Electronic Numerical Integrator And Computer). La ENIAC construida para aplicaciones de la Segunda Guerra mundial, se terminó en 30 meses por un equipo de científicos que trabajaban bajo reloj. Esta máquina era enorme: ocupaba todo un sótano en la universidad, tenía más de 18,000 bulbos, consumía 200 kilowatts de energía y requería todo un sistema de aire acondicionado industrial. Era capaz de efectuar alrededor de cinco mil operaciones aritméticas en un segundo, dejando para siempre atrás las limitaciones humanas de velocidad y precisión, e inaugurando una nueva etapa en las capacidades de procesamiento de datos. El proyecto, auspiciado por el Departamento de Defensa de Estados Unidos, culminó dos años después cuando se integró a ese equipo el ingeniero y matemático húngaro naturalizado norteamericano, John von Neumann. Este equipo de trabajo, con von Neumann a la cabeza, diseñó en 1952 una computadora llamada EDVAC (Electronic Discrete Variable Automatic Computer); tenía cerca de cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos ([6], [8]). La nueva idea fundamental resulta muy sencilla: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada de manera "suave", y no por medio de alambres que eléctricamente interconectaban varias secciones del control, como en la ENIAC. Esta idea, que incluso obliga a una completa revisión de la arquitectura de las computadoras, recibe desde entonces el nombre de modelo de von Neumann. Alrededor de este concepto gira toda la evolución posterior de la industria y la ciencia de la computación. De 1947 a la fecha las cosas han avanzado muy rápido, posiblemente más que cualquier otro proceso en la historia de la ciencia y la tecnología; a tal grado que en la actualidad hay computadoras mucho más poderosas que la ENIAC y que no ocupan sino un circuito de silicio sumamente pequeño. Como contraste inicial, antes de proceder a describir lo que ha sucedido en los sesenta años desde la invención de la computadora, compararemos dos máquinas, la ENIAC y uno de los primeros microprocesadores (ya obsoleto):

Año

ENIAC

Intel 8080

1947

1973

Componentes electrónicos 18 000 bulbos

Un circuito integrado con más de 100 000 transistores.

Tamaño

Decenas de m2

Menos de 1 cm2

Requerimientos de potencia

200 kilowatts

Pocos miliwatts

Velocidad

5 000

150 000 sumas/segundo

sumas/segundo Costo

Varios millones de dólares

Cincuenta dólares (en 1974)

El desarrollo de las computadoras suele dividirse en generaciones. El criterio para determinar cuándo se da el cambio de una generación a otra no está claramente definido, pero resulta aparente que deben cumplirse al menos dos requisitos estructurales [5]: a. Forma en que están construidas: que haya tenido cambios sustanciales. b. Forma en que el ser humano se comunica con ellas: que haya experimentado progresos importantes. Primera generación de computadoras En esta generación había un gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. La primera generación de computadoras abarcó la década de 1950. Las máquinas de esta generación cumplían los requisitos antes mencionados de la siguiente manera: a. Están construidas con circuitos de bulbos. b. Se programan utilizando lenguaje de máquina (lenguaje binario) Estas máquinas eran grandes y costosas (del orden de decenas o cientos de miles de dólares). En 1951 aparece la primera computadora comercial, es decir, fabricada con el objetivo de ser vendida en el mercado: la UNIVAC I (UNIVersAl Computer). Esta máquina, que disponía de mil palabras de memoria central y podía leer cintas magnéticas, se utilizó para procesar los datos del censo de 1950 en los Estados Unidos. En las dos primeras generaciones, las unidades de entrada estaban por completo dominadas por las tarjetas perforadas, retomadas a principios de siglo por Herman Hollerith, quien además fundó una compañía que con el paso de los años se conocería como IBM (International Business Machines). A la UNIVAC I siguió una máquina desarrollada por la compañía IBM, que apenas incursionaba en ese campo; es la IBM 701 (de la que se entregaron 18 unidades entre 1953 y 1956), la que inaugurará la larga serie por venir. Posteriormente, la compañía Remington Rand produjo el modelo 1103, que competía con la 701 en el campo científico, por lo que IBM fabricó la 702, que no duró mucho en el mercado debido a problemas con la memoria. La más exitosa de las computadoras de la primera generación fue el modelo 650 de IBM, de la que se produjeron varios cientos. Esta máquina usaba un esquema de memoria secundaria llamado tambor magnético, antecesor de los discos duros que actualmente se emplean.

La competencia contestó con los modelos UNIVAC 80 y 90, que pueden situarse ya en los inicios de la segunda generación. También de esta época son los modelos IBM 704 y 709, Burroughs 220 y UNIVAC 1105. Segunda generación de computadoras Se acercaba la década de 1960 y las computadoras seguían en constante evolución, reduciendo su tamaño y aumentando sus capacidades de procesamiento. Al mismo tiempo se iba definiendo con mayor claridad toda una nueva ciencia: la de comunicarse con las computadoras, que recibiría el nombre de programación de sistemas. Las características de la segunda generación son las siguientes: a.

Están construidas con circuitos de transistores. b. b) Se programan en nuevos lenguajes llamados lenguajes de alto nivel (LISP, Fortran, Cobol y Algol).

En general, las computadoras de la segunda generación son de tamaño más reducido y de costo menor que las anteriores. En la segunda generación hubo mucha competencia y muchas compañías nuevas, y se contaba con máquinas bastante avanzadas para su época, como la serie 5000 de Burroughs y la máquina ATLAS de la Universidad de Manchester. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores. El usuario final de la información no tenía contacto directo con las computadoras. Entre los primeros modelos se puede mencionar la Philco 212 (esta compañía se retiró del mercado de computadoras en 1964) y la UNIVAC M460. Una empresa recién formada, Control Data Corporation, produjo la CDC 1604, seguida por la serie 3000. Estas máquinas comenzaron a imponerse en el mercado de las grandes computadoras. IBM mejoró la 709 y produjo la 7090 (luego ampliada a la 7094), siendo comercializada durante la primera parte de la segunda generación. UNIVAC continuó con el modelo 1107, mientras que NCR (National Cash Register) empezó a producir máquinas más pequeñas, para proceso de datos de tipo comercial, como la NCR 315. RCA (Radio Corporation of America) introdujo el modelo 501, que manejaba el lenguaje COBOL, para proceso administrativo y comercial. Más tarde introdujo el modelo RCA 601. La segunda generación no duró mucho, sólo unos cinco años, y debe ser considerada como una transición entre las recién inventadas máquinas electrónicas, que nadie sabía con precisión para qué podrían ser útiles, y el actual concepto de computadora, sin el cual el funcionamiento de las modernas sociedades industriales sería difícil de concebir. Tercera generación de computadoras Con la aparición de nuevas y mejores maneras de comunicarse con las computadoras, junto con los progresos en la electrónica, surge la que se conoce como tercera generación de computadoras, a mediados de la década de 1960. Se puede decir que se inaugura con la presentación, en abril de 1964, de la serie 360 de IBM.

Las características estructurales de la tercera generación consisten en: a. Su fabricación electrónica está basada en circuitos integrados (chips), los cuales son agrupamientos de circuitos de transistores grabados en pequeñísimas placas de silicio. b. Se difundieron sistemas operativos que utilizaban técnicas tales como multiprogramación, multiprocesamiento, dispositivos de entrada/salida virtuales ("spool"), etc. Las computadoras de la serie IBM 360 (11 modelos) manejan técnicas especiales de utilización del procesador, unidades de cinta magnética de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares. El sistema operativo de la serie 360, llamado simplemente OS, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares. Esta serie alcanzó un éxito enorme, a tal grado que la gente en general, el ciudadano común y corriente, pronto llegó a identificar el concepto de computadora con el nombre IBM. Sin embargo, sus máquinas no fueron las únicas, ni necesariamente las mejores. También en 1964, CDC introdujo la serie 6000, con la máquina modelo 6600, que durante varios años fue considerada como la más rápida. Esta fue una época de pleno desarrollo acelerado y de competencia por los mercados internacionales, pues la industria de la computación había crecido hasta alcanzar proporciones insospechadas. Para esta época la computadora ya estaba plenamente identificada en la mente del "hombre de la calle" de los países avanzados como un omnipresente aunque misterioso agente tecnológico, imprescindible para el funcionamiento de las grandes corporaciones. En las películas y los programas de televisión de esos años la gran computadora aparecía como respaldo de aventuras de todo tipo. IBM, UNIVAC y CDC producen computadoras, al inicio de la década de 1970, tan potentes y veloces que se convierten ya en un asunto de estado y de seguridad nacional para el país que las produce, y se cuida, ya en los más altos niveles gubernamentales, su exportación y comercialización internacional. A finales de la década de 1970, en Japón la compañía Fujitsu produce computadoras poderosas, que van desde máquinas relativamente pequeñas hasta verdaderos gigantes (de la serie FACOM), comparables sólo con los más grandes sistemas de CDC o IBM: Las grandes computadoras reciben en inglés el nombre de mainframes, que significa, precisamente, gran sistema. Entre las máquinas de la tercera generación hay algunas dedicadas a procesos especiales, que manejan cientos de millones de números en representación decimal y requieren diseños específicos para ser resueltos. A mediados de la década de 1970 (en plena tercera generación) surge un gran mercado para computadoras de tamaño mediano, o minicomputadoras, que no son tan costosas como las grandes máquinas, pero que ya disponen de una gran capacidad de proceso. En un principio, el mercado de estas nuevas máquinas estuvo dominado por

la serie PDP-8 de DEC (Digital Equipment Corporation). Otras minicomputadoras populares son la serie PDP-11 de DEC, reemplazada por las nuevas máquinas VAX (Virtual Address eXtended) de la misma compañía, los modelos Nova y Eclipse de Data General, las series 3000 y 9000 de Hewlett-Packard y el modelo 34 de IBM, que luego fue reemplazado por los modelos 36 y 38. En la ex Unión Soviética fueron de amplio uso las computadoras de la serie SU (Sistema Unificado, Ryad), que también han pasado por varias generaciones. La primera de estas máquinas era, en cuanto a la arquitectura, una copia de la serie 360 de IBM [1]. Asimismo, los ex países socialistas desarrollaron una serie de computadoras dedicadas al control industrial, además de las máquinas de la serie Minsk y BESM. Cuarta generación de computadoras El adelanto de la microelectrónica prosigue a una velocidad impresionante, y por el año de 1981 surge en el mercado una nueva familia de circuitos integrados de alta densidad, que recibe el nombre de microprocesadores. Las microcomputadoras que se diseñan con base en estos circuitos de semiconductores eran extremadamente pequeñas y baratas, por lo que su uso se extendió al mercado de consumo industrial. Hoy día hay microprocesadores en muchos aparatos de uso común, como relojes, televisores, hornos, juguetes, teléfonos celulares, y naturalmente en toda una nueva generación de máquinas. Se empiezan a crear en forma masiva las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática". En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM. En 1979 aparece el primer programa procesador de palabras (Word Star) y la primera hoja de cálculo electrónica (VisiCalc). Posteriormente se diseña el sistema operativo MS-DOS (1980), la hoja de cálculo Multiplan (1982), el procesador de palabras Word (1983), la hoja de cálculo Lotus 1-2-3 (1984), el sistema operativo Windows (1985), etc. El software empieza a tratar de alcanzar el paso del hardware. El usuario pasa de estar totalmente desconectado de las computadoras grandes a utilizar las PC, las cuales son una pieza clave en el diseño tanto del software como del hardware. Se ofrecen un sinnúmero de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas comerciales. Aunque el problema era que cada nuevo programa requería aprender nuevos controles, nuevos trucos, nuevos menús. Esto provoca que se empiece a sentir que la relación usuario-PC no estaba acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una relación amistosa entre el usuario y la PC. Con el uso masivo de Internet ya también podría hablarse de un cambio sustancial en la forma en que el ser humano se comunica con las computadoras, ya que la comunicación entre nosotros y las máquinas se ha desplazado del modo independiente y centralizado (standalone, en inglés) al modo compartido en red, mediante esquemas cliente-servidor o a través de sistemas de información basados en el Web. Fue en 1972 cuando se introdujo la primera aplicación "estrella": el correo electrónico.

Los criterios, entonces, son: a. Microelectrónica de alta integración y distribución de tareas específicas mediante microprocesadores acoplados. b. Acceso a la red desde una computadora personal, tanto en forma local como global. Quinta generación de computadoras En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas para manejar las computadoras. Aunque existe un apabullante fenómeno de competencia internacional por el dominio del gigantesco mercado de la computación, aún no se ha podido alcanzar el nivel deseado: la capacidad de comunicarse con la computadora mediante el lenguaje natural y no a través de códigos o lenguajes de control especializados. Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los dos criterios mencionados, aunque a su término en 1993 los resultados fueron bastante más pobres de lo prometido, por lo que se considera una "generación perdida". En Estados Unidos estuvo en actividad un programa de desarrollo que perseguía objetivos semejantes, que pueden resumirse de la siguiente forma: a. Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad. b. Manejo de lenguaje natural y sistemas de inteligencia artificial. Conclusiones Actualmente la velocidad a la que corren las computadoras ya se mide en GHz. (Giga Hertz) y se ha estimado que la eficiencia del mejor procesador (top performance) está por arriba de los 150 MIPS (millones de instrucciones por segundo). En el sistema métrico esta unidad se ha normado y ahora se denomina SPECint92 (Sistem Performance Evaluation Corporation integer calculations), así que los 150 MIPS se denominan como 150 SPECint92. A este ritmo se espera que próximamente se puedan alcanzar los 1000 SPECint92. Pero no será el final ya que, a medida que se incrementa la velocidad, aparecen nuevas aplicaciones que demandan mayor velocidad. No hay duda que estamos ante la presencia de un verdadero Gargantúa. ¿Pero, podrá la industria soportar este tren de desarrollo? ¿Existirá algún límite en el cual no pueda ya darse más un crecimiento de la capacidad de cálculo y de almacenamiento de las computadoras personales? Si analizamos la forma en que ha crecido la velocidad de cálculo en los últimos años, vemos que dicho crecimiento ha sido en forma exponencial y que no tardaremos en alcanzar la meseta de la curva en que no se pueda seguir aumentando la velocidad a este ritmo, es decir, no se podrá seguir con la misma eficiencia de velocidad/costo. Quiere decir esto que en un futuro no muy lejano tendremos que conformarnos con la misma velocidad de la máquina, como rezan los cuentos de hadas, ¿por siempre jamás?. No lo creo así, ya que en primer lugar estamos hablando de diferentes

arquitecturas de computadoras y estas pueden cambiar, de hecho han cambiado cuando se ha dado la situación de que, por el crecimiento exponencial que estas han tenido, ha sido necesario recurrir a diferentes arquitecturas. Por ejemplo, la vieja y conocida arquitectura de "tuberías" (pipeline) fue remplazada por la CISC (Complex Instruction Set Computer), la cual, a su vez, fue remplazada por la arquitectura RISC (Reduced Instruction Set Computer), la cual no tardará en ser remplazada por otra más eficiente. Así que podemos decir que la tan temida meseta en la curva de nuestra gráfica no será necesariamente la muerte de los microprocesadores. Los próximos años demandarán de una mejor eficiencia aunada a mejores algoritmos y técnicas de cálculo. Así que, en el futuro, veremos cada vez más cosas como algoritmos genéticos y programación evolutiva, lógica difusa, redes neuronales, caos, etc. El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto. Bibliografía [1] Davis, N. C. y S. E. Goodman, The Soviet Bloc\"s unified system of computers, Computing Surveys, Association for Computing Machinery, vol. 10, núm. 3, junio, 1978. [2] De Freitas, Christian G., Marco histórico de las computadoras, http://www.monografías.com/trabajos/marcohistocomp/marcohistocomp.shtml [3] Goldstine, H. Herman, The Computer from Pascal to von Neumann, Princeton University Press, New Jersey, 1972. [4] Historia resumida de la computación, http://www.prodigyweb.net.mx/intecoc/generaciones.html [5] Levine Guillermo, Introducción a la Computación y a la Programación Estructurada, McGraw-Hill Interamericana de México, México, 1989. [6] Lukoff, Herman, From Dits to Bits. A Personal History of the Electronic Computer, Robotics Press, Oregon, 1979. [7] Pylyshyn, Zenon (ed.), Perspectivas de la revolución de los computadores, Alianza Editorial, Col. Alianza Universidad, núm. 119, Madrid, 1975. [8] Ralston, Anthony y C. L. Meek (eds.), Encyclopedia of Computer Science, Petrocelli/Charter, Nueva York, 1976. [9] Slater, Robert, Portraits in Silicon, MIT Press, Massachusetts, 1987.

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.