Tema 1. Conceptos Generales e Historia

Tema 1. Conceptos Generales e Historia 1.1 Definiciones Informática es la ciencia del tratamiento automático (por realizarse mediante máquinas - hoy e

0 downloads 193 Views 889KB Size

Recommend Stories


TEMA 1. MEDIO AMBIENTE: CONCEPTOS GENERALES
TEMA 1. MEDIO AMBIENTE: CONCEPTOS GENERALES MEDIO AMBIENTE El medio ambiente es el marco o entorno en el que se produce la vida y se puede definir com

TEMA 1: CONCEPTOS BÁSICOS
Departamento de Tecnología IES Carmen Conde Tecnologías de la Información y la Comunicación TEMA 1: CONCEPTOS BÁSICOS Curso 2013/2014 TEMA 1: CONCE

TEMA 1: Introducción 1.1 CONCEPTOS GENERALES. Dinámica de Sistemas
Dinámica de Sistemas TEMA 1: Introducción 1.1.- Conceptos Generales. 1.2.- Sistemas Dinámicos. 1.3.- Modelado y Representación de Sistemas. 1.4.- Est

ESQUEMA TEMA 1: CONCEPTOS GENERALES Y OBJETIVOS. INDICE
Contabilidad de Costes y Gestión. Profesor: Jose Ignacio González Gómez . Página 1 de 7 ESQUEMA TEMA 1: CONCEPTOS GENERALES Y OBJETIVOS. INDICE 1.

Story Transcript

Tema 1. Conceptos Generales e Historia 1.1 Definiciones Informática es la ciencia del tratamiento automático (por realizarse mediante máquinas - hoy en día electrónicas -) y racional (está controlado mediante órdenes que siguen el razonamiento humano) de la información. Este término apareció en Francia en 1962 uniendo las palabras 'information' y 'automatique'. En inglés, Computer Science. Una computadora u ordenador es una máquina capaz de aceptar unos datos de entrada, efectuar con ellos operaciones lógicas y aritméticas y proporcionar la información resultante a través de un medio de salida; todo ello sin intervención de un operador humano y bajo el control de un programa de instrucciones previamente almacenado en la propia computadora. Se entiende por operaciones lógicas funciones tales como comparar, seleccionar o copiar símbolos, ya sean numéricos o no numéricos. Una computadora puede considerarse como un sistema cuyas salidas dependen de sus entradas, formadas por datos e instrucciones. Una calculadora es una máquina capaza de efectuar operaciones aritméticas bajo el control directo del usuario. Es decir, calculadora no es sinónimo de computadora, ya que no enlaza automáticamente las operaciones que realiza, objetivo que se cubre con el programa almace nado en el caso de la computadora. La calculadora tampoco realiza operaciones de tipo lógico y sólo actúa con datos numéricos. Un ordenador es programable, es decir, lo que hace el ordenador depende del programa que utilice. Un programa es una lista de instrucciones que le indica al ordenador lo que debe hacer. El hardware de un ordenador (la parte física, la máquina y sus componentes) está diseñado primando la flexibilidad. Al utilizar programas específicos, el hardware se transforma en una herramienta con propósito específico. Esto es lo que hace que el uso del ordenador resulte interesante tanto para matemáticos, físicos, científicos de todas las áreas, como para productores de televisión, diseñadores gráficos, músicos, poetas, historiadores, etc. Independientemente del programa que utilice, un ordenador realiza cuatro funciones básicas: Entrada: El ordenador acepta datos introducidos por medio de un dispositivo de entrada, como el teclado.

Tema 1: Conceptos Generales.

Página 1

Procesamiento: El ordenador realiza operaciones con los datos para transformarlos de alguna manera. Salida: El ordenador produce un resultado en un dispositivo de salida, como una impresora o un monitor, que muestra los resultados de las operaciones realizadas con los datos. Almacenamiento: El ordenador almacena los resultados de las operaciones para su uso posterior. Los datos son conjuntos de símbolos utilizados para expresar o representar un valor numérico, un hecho, un objeto o una idea; en la forma adecuada para poder ser tratado. Las salidas que genera un programa también son datos, y pueden ser utilizados como entrada para otros programas. En general, en informática, la palabra dato se utiliza como contraposición a instrucción. Datos e instrucciones son los dos tipos de información utilizada por la computadora: las instrucciones indican a la máquina qué es lo que tiene que hacer, y los datos son los elementos sobre los que actúa o que genera el programa. La informática se ocupa entre otros de los siguientes temas: •

El desarrollo de nuevas máquinas (computadoras y periféricos)



El desarrollo de nuevos métodos de trabajo.



El desarrollo de nuevas aplicaciones informáticas.

1.2 Codificación de la información En

informática

es

frecuente

codificar

la

información.

Codificación

es

una

transformación que representa los elementos de un conjunto mediante los de otro, de forma tal que a cada elemento del primer conjunto le corresponda un elemento distinto del segundo. Con los códigos se puede comprimir y estructurar la información. La identificación de un coche por su matrícula es más corto que hacerlo, por ejemplo, por el nombre del propietario, marca, color y fecha de compra. En el interior de las computadoras la información se almacena y se transfiere de un sitio a otro según un código que utiliza sólo dos valores (es decir, un código binario), representados por 1 y 0. En la entrada y salida de la computadora se efectúan

Tema 1: Conceptos Generales.

Página 2

automáticamente los cambios de código oportunos para que en su exterior la información sea directamente comprendida por los usuarios. La unidad más elemental de información es un valor binario, conocido como bit. Procede de la contracción de binary digit. Un bit es una posición o variable que toma el valor 0 ó 1. La capacidad mínima de almacenamiento de información en el interior de una computadora es el bi t. De esta manera, la capacidad de almacenamiento se podría medir en bits, pero al ser una unidad tan pequeña, se suelen utilizar múltiplos del bit: 1 Byte = 8 bits (son los bits que hacen falta para representar un carácter). 1 KiloByte (KB) = 210 bytes = 1024 bytes 1 MegaByte (MB) = 210 KB = 220 bytes 1 GigaByte (GB) = 210 MB = 230 bytes 1 TeraByte (TB) = 210 GB = 240 bytes

1.3 Elementos constitutivos de una computadora La parte física, también denominada hardware, formada por: •

Unidad Central de Proceso



Unidades de memoria auxiliar



Unidades de entrada



Unidades de salida

La parte lógica, también denominada software (programas), formada por: •

Datos



Aplicaciones



Sistema Operativo (programas para la gestión de recursos)

Las personas, estas se dividen en dos grandes grupos. •



El personal informático: o

El Personal de dirección (Director, Jefe del área de desarrollo, Jefe del área de explotación)

o

El Personal de análisis y programación (Jefe de proyectos, Analistas, Programadores)

o

El Personal de explotación (Operadores)

Los usuarios

Tema 1: Conceptos Generales.

Página 3

1.4 Componentes de una computadora Una Computadora procesa o elabora los datos que se le suministran, puede por ejemplo realizar el promedio de unos datos introducidos previamente, realizar una gráfica con esos datos o suministrar un listado ordenado de mayor a menor de dichos datos. Para realizar estos procesos, la computadora debe disponer de recursos para almacenar la información mientras ésta se elabora, memoria, y asimismo de los dispositivos que permitan tanto su introducción, como ofrecerla, ya elaborada, a los usuarios. Estos últimos dispositivos reciben el nombre de periféricos.

Esquemáticamente una computadora se compone de: Unidad de Entrada: Permiten la introducción de información en la computadora (teclado, escáner, lectores de tarjetas o códigos de barras, pantalla táctil, etc.) Unidad de Almacenamiento o Memoria: Dispositivos donde se almacenan los datos y los programas para procesarlos. Existen dos tipos: Memoria Principal, que a su vez se subdivide en RAM y ROM , en la RAM se cargan los datos necesarios para los programas que están en ejecución, esa memoria se vacía al apagar el ordenador; en la ROM figuran los datos básicos para que el ordenador pueda arrancar, en ella no se puede escribi r ni borrar lo que hay. Memoria Secundaria, donde se puede almacenar cualquier tipo de información, los datos permanecen aunque se apague el ordenador y se puede escribir y borrar en ella (Discos duros (HD), CD-ROM, disquetes (FD), Unidades de cinta, etc.).

Tema 1: Conceptos Generales.

Página 4

Unidad Aritmético/Lógica: Es la parte encargada de procesar los datos, se conoce también como ALU (Arithmetic-Logic Unit). Las operaciones que realiza son de tipo aritmético: suma, resta, multiplicación y división; y de tipo lógico: igual, mayor que o menor que. Unidad de Control: Dirige la ejecución del programa y controla tanto el movimiento entre memoria y ALU, como las señales que circulan entre la CPU y los Periféricos. Unidad de Salida: Presentan al usuario los datos ya elaborados que se encuentran en la memoria de la computadora (pantalla, impresoras, etc.) La Unidad de Control con la Unidad Aritmético/Lógica y la Memoria Principal forman la Unidad Central de Procesos (CPU). Las Unidades de Entrada y de Salida son los denominados Periféricos.

1.5 Perspectiva histórica 1.5.1 Los primeros ordenadores La idea de la computación es tan antigua como la civilización. Al fin y al cabo, los ordenadores son sólo complejos aparatos para contar. El primer aparato de computación podría haber sido tan sencillo como un conjunto de piedras utilizadas para representar medidas de trigo o rebaños de animales. El cálculo del número total de animales de dos rebaños o el trueque de ganado por trigo se podría representar con piedras. Cuando la gente siguió un conjunto estándar de procedimientos para realizar los cálculos con estas piedras, crearon un aparato de cálculo digital, un predecesor del ordenador.

1.5.2 Calculadoras Las calculadoras aparecieron ante la necesidad del hombre por realizar cálculos básicos, que le permitían un mayor control sobre sus posesiones y sobre diferentes aspectos de la realidad que le rodeaba. La calculadora más antigua son las manos, a través de las cuales el hombre realiza sus primeros cálculos. Pronto comienza a utilizar objetos de la naturaleza como trozos de madera y pequeñas piedras, en latín Calculus, para realizar cálculos mas complicados. Pero para operaciones con números grandes este método es limitado. Tema 1: Conceptos Generales.

Página 5

El paso siguiente es asignar un valor simbólico al objeto, hasta ahora el valor de un objeto era la unidad, a partir de ahora un objeto puede significar 5, 10 o cualquier cantidad que se le asigne. Esto hace que aparezcan los primeros objetos creados con el único propósito de realizar cálculos. El ábaco es un ejemplo de estos diseños, se compone de un marco de madera en el que hay tendidos una serie de hilos o varillas. En cada uno de ellos se insertan una serie de cuentas que permiten almacenar cantidades y realizar operaciones básicas de suma y resta. Para ver un número, se bajan las cuentas de manera que cada conjunto de cuentas representa un dígito. Para resolver un problema matemático, sólo tiene que seguir un conjunto de instrucciones que le explican cuándo y dónde debe mover las cuentas.

Ábaco Otra máquina de computación, "los huesos de Napier", fue inventada a principios del siglo XVII por John Napier, matemático escocés inventor de los logaritmos. Los "huesos" eran tiras de marfil con números escritos en ellas. Cuando se disponían estas tiras de manera correcta, la persona que las utilizaba podía leer los números en las columnas adyacentes para encontrar respuesta con gran rapidez multiplicaciones y raíces cuadrada y cúbica.

Tema 1: Conceptos Generales.

Página 6

Los huesos de Napier

1.5.3 Calculadoras mecánicas Si se pueden resolver problemas siguiendo un conjunto de reglas sencillas, como con el ábaco, se puede crear una máquina que calcule las respuestas automáticamente. Durante los siglos XVI al XIX, los europe os crearon varias máquinas de cálculo que utilizaban la tecnología existente, especialmente los engranajes y palancas de los mecanismos de relojería. Parece ser que en 1623, un alemán, Schickard, diseñó la primera calculadora que sumaba y restaba. Tuvo tan mala suerte que el modelo fue destruido en un incendio. Es considerada como la primera calculadora mecánica.

¨Reloj de Cálculo¨ de Wilhelm Schickard La calculadora que alcanzó mayor difusión fue inventada en Francia en 1642 por Blaise Pascal a la edad de 19 años. Más tarde, Pascal llegaría a ser uno de los grandes filósofos y matemáticos europeos. Era hijo de un comisario de impuestos y trabajaba frecuentemente en la oficina de su padre. El trabajo debía resultarle muy aburrido a Pascal, porque se le ocurrió crear una máquina que les ahorrara a personas como su Tema 1: Conceptos Generales.

Página 7

padre la pesadez de hacer sumas una y otra vez. La solución de Pascal fue la Pascalina, una calculadora mecánica que funcionaba con engranajes y palancas de relojería. La base de las operaciones consistía en contar los dientes de un engranaje, al igual que un cuentakilómetros. Para sumar y restar, la Pascalina giraba ruedas para registrar los valores y utilizaba una palanca para realizar la operación de traspaso de una rueda a otra.

Máquina de Pascal Aunque las empresas no aceptaron la Pascalina, Pascal fue el primero de los innovadores de la computación que se adelantó a su tiempo. En reconocimiento a su contribución al campo de la computación, se ha bautizado un lenguaje informático con su nombre. Este lenguaje, el Pascal, se suele utilizar para enseñar programación a los futuros informáticos. El siguiente adelanto significativo en las máquinas de cálculo se lo debemos a Gottfried Wilhelm von Leibniz en 1673. Leibniz es más conocido por su trabajo con Sir Isaac Newton al desarrollar la parte de las matemáticas conocida como cálculo. Leibniz inventó una calculadora que podía sumar, restar, multiplicar y dividir con exactitud. La calculadora también realizaba la

función

de

raíz

cuadrada,

pero

no

siempre correctamente.

Tema 1: Conceptos Generales.

Página 8

Calculadora de Leibniz En 1678 Grillet de Roven, relojero de la Corte Francesa idea una máquina sumadora que combina el mecanismo de ruedas de Pascal con el sistema de Huesos de Napier.

Máquina sumadora de Grillet de Roven La primera calculadora con posibilidades comerciales fue el "aritmómetro". La desarrolló el francés Charles Xavier Thomas, conocido como Carlos de Colmar, y ganó una medalla de oro en la Exposición Internacional de Londres en 1862. La máquina podía sumar, restar, multiplicar, dividir y calcular raíces cuadradas con precisión.

Aritmómetro de Charles Xavier Thomas Tema 1: Conceptos Generales.

Página 9

Las máquinas vistas hasta este momento no eran automáticas ya que requerían la intervención humana durante el proceso de cálculo.

1.5.4 Representación de los datos: de los telares a las máquinas comerciales A medida que los inventores trabajaban para mejorar las calculadoras mecánicas, comprendieron que necesitaban una manera mejor de introducir datos que la de ajustar discos de engranajes de relojería. Los medios de esta mejora ya se habían creado en un lugar un poco inverosímil: los telares de Francia. El telar de Jacquard

A principios del siglo XIX, un tejedor francés llamado Joseph Marie Jacquard desarrolló un telar que podía programarse. El telar utilizaba grandes tarjetas con agujeros perforados para controlar automáticamente el diseño que se tejía en la tela. El resultado era una tela rica y tupida con diseños florales o geométricos repetidos. Antes de la invención de este telar, sólo los muy ricos podían permitirse el lujo de comprar telas con diseños elaborados. Los diseños de Jacquard se convirtieron en un éxito instantáneo y todavía se producen en la actualidad. El éxito del principio de Jacquard fue demostrado por 11,000 telares de este tipo, que entraron en funciones en sólo ocho años. Otros adaptaron las tarjetas perforadas utilizadas en el telar de Jacquard para que funcionaran como método de entrada informático. Las tarjetas perforadas se han utilizado para introducir datos y programas hasta hace unos veinte años.

Tema 1: Conceptos Generales.

Página 10

En 1887 un joven inventor francés de 18 años de edad, León Bollée, realiza la primera máquina capaz de lograr la multiplicación directamente

y

no

mediante

sumas

repetitivas. La multiplicadora de León Bollée gana una medalla de oro en la Exposición Universal

de

París

de

1899.

De

esta

máquina se produjeron pocos ejemplares porque el inventor abandonó gradualmente el proyecto para dedicarse a su pasatiempo favorito: la construcción de automóviles de carreras.

Charles Babbage y la primera computadora moderna Charles Babbage, nacido y criado en Inglaterra a principios

del

computadora

siglo

XIX,

moderna.

creó Mientras

la

primera Babbage

trabajaba en su doctorado, tenía la necesidad de resolver muchas fórmulas complejas y no podía hacerlo manualmente en un plazo de tiempo razonable. Para resolver las ecuaciones, Babbage comenzó a desarrollar una máquina a vapor a la que llamó máquina diferencial.

Máquina diferencial de Babbage

Tema 1: Conceptos Generales.

Página 11

Más tarde, Babbage comenzó a planear un aparato más ambicioso, la máquina analítica. Utilizando el procedimiento de tarjetas perforadas unido al anterior diseño de ruedas mecánicas, Charles Babbage desarrolló en 1834 la Máquina Analítica. Esta máquina se proyectó con los tres componentes básicos de un ordenador actual: •

Una memoria



Una unidad de cálculo



Una unidad de control de las operaciones a través de tarjetas perforadas.

La máquina estaba diseñada para utilizar unas tarjetas perforadas para introducir los datos similares a las tarjetas de Jacquard. Este aparato habría sido una computadora completamente moderna con un ciclo reconocible de Entrada, Procesamiento, Salida y Almacenamiento. Desgraciadamente, la tecnología de la época no podía crear las partes necesarias para completar la máquina analítica. Babbage trabajó en sus planos durante años con Augusta Ada Byron, hija del famoso poeta Lord Byron y de la Condesa de Lovelace. Augusta Ada, una brillante matemática, contribuyó mucho a los planos de Babbage y se le puede considerar la primera mujer informática y programadora

del

mundo.

Existe

un

lenguaje

de

programación bautizado con el nombre de Ada en su honor. El final de la historia de Babbage no es muy feliz: se arruinó intentando construir la máquina analítica, En 1991 se construyó una máquina analítica funcional según los planos de Babbage que se encuentra en el Charles Babbage Institute de Minnesota. A Charles Babbage se le reconoce como "el padre de la informática".

Hollerith y la oficina del censo automatizada La siguiente figura importante en la historia de la informática fue el Dr. Herman Hollerith, un estadístico. La constitución de los Estados Unidos exige que se realice un censo de la población cada diez años, como método de determinar la representación en el Congreso. A finales del siglo XIX, las técnicas de procesamiento manual eran tan Tema 1: Conceptos Generales.

Página 12

lentas que los resultados del censo de 1880 tardaron más de siete años en tabularse. La necesidad de automatizar el censo era clara. El Dr. Hollerith pensó un plan para codificar las respuestas a las preguntas del censo en tarjetas perforadas. También desarrolló un aparato para perforar, un lector eléctrico de alimentación manual que podía procesar 50 tarjetas en un minuto y un aparato de clasificación. Estas mejoras permitieron que el censo de 1890 se completara en dos años y medio, lo que representaba una gran mejora con respecto al censo de 1880. Cuando el censo estuvo completo, Hollerith decidió perfeccionar su equipo de tarjetas perforadas y sacarlo al mercado. Fundó la Tabulating Machine Company en 1896 para continuar su trabajo. En 1911, la Tabulating Machine Company se fusionó con otras dos compañías para formar la Computing-Tabulating-Recording Company. Esta fusión permitió a Hollerith concentrarse en inventar equipos mejores. Uno de los socios, un experto en técnicas de mercado llamado Thomas Watson Jr., dirigió la nueva compañía. Bajo su guía, la compañía tuvo un enorme éxito. En 1924, la dirección decidió que un nuevo nombre indicaría mejor la naturaleza progresista de la compañía, por la que la ComputingTabulating-Recording Company se convirtió en la International Business Machines Corporation (IBM).

1.5.5 Hacia la informática moderna Los primeros ordenadores electrónicos eran máquinas complejas que necesitaban una fuerte inversión para su construcción y mantenimiento. La industria del ordenador nunca se habría desarrollado sin el apoyo y la financiación gubernamental. La Segunda Guerra Mundial proporcionó un estímulo a los gobiernos para que invirtieran suficiente dinero en investigación para crear poderosas computadoras. Las primeras computadoras, creadas durante la guerra, eran propiedad exclusiva del gobierno y de organizaciones militares. Sólo a partir de la década de los 50, las compañías comenzaron a producir ya ser consumidoras de computadoras. Hubo que esperar hasta los 60 para que se hiciera obvio el gran mercado que existía para estas máquinas. Para describir el progreso técnico de los ordenadores desde la Segunda Guerra Mundial, los informáticos utilizan el término "generaciones". Cada generación tecnológica tiene sus propias características identificativas. Ahora estamos en la cuarta generación de tecnología informática y algunos expertos opinan que la quinta generación se nos está echando encima. Tema 1: Conceptos Generales.

Página 13

La Primera Generación Fase previa: las primeras computadoras electrónicas A finales de la década de los 30, el matemático ingles Alan Turing escribió un trabajo describiendo la capacidad y las limitaciones de una hipotética máquina de computación de tipo general a la que se llegó a conocer como máquina de Turing. Turing también ayudó a construir la computadora británica llamada Robinson durante la Segunda Guerra Mundial para descifrar mensajes alemanes codificados por la máquina alemana En igma. En 1950 Turing publicó un artículo con el título "Maquinas de computación e inteligencia", en el que proponía el test de Turing de inteligencia artificial. Los científicos todavía utilizan esta prueba como estándar. Simplificando, el test de Turing requiere que un ordenador sea capaz de mantener una "conversación" (utilizando el teclado y la pantalla) con una persona sin que ésta pueda distinguir si está manteniendo una conversación con un ordenador o con otro humano. Al profesor John Atanasoff de la Universidad de Iowa se le considera el autor de los conceptos que llevaron a la invención del ordenador electrónico. En 1939, él y un estudiante graduado llamado Clifford Berry crearon una máquina calculadora electrónica que podía resolver sistemas de ecuaciones. Se la conoce como ABC (Atanasoff Berry Computer) y fue el primer ordenador digital de propósito específico. En 1941, Konrad Zuze se construye la primera computadora de propósito específico que funciona con relés eléctricos. Fue llamada Z3. Poco

de spués,

la

universidad

de

Harvard

contactó con IBM para crear una computadora de carácter general basándose en los estudios de Turing y de Ada Byron. La computadora Mark I estuvo operativa en 1944. Mark I era en parte electrónica y en parte mecánica. Era e norme (medía 2,5 m de alto por casi 17 m de largo) y muy lenta, tardando entre 3 y 5 segundos en realizar una multiplicación sencilla. Las calculadoras actuales de unas 1000 Ptas. funcionan mejor que la Mark I. La Segunda Guerra Mundial creó una necesidad en el ejército estadounidense de calcular rápidamente trayectorias para misiles. El ejército le pidió al Dr. John Mauchly de la Universidad de Pennsylvania que desarrollara una máquina con este propósito. Aunque había sido encargado por el ejército para utilizarlo durante la guerra, ENIAC (Electronic Numeric Integrator and Calculator) no se completó hasta dos meses más tarde de la finalización del conflicto. ENIAC podía hacer cinco mil operaciones Tema 1: Conceptos Generales.

Página 14

aritméticas en un segundo, lo que era bastante mejor que el rendimiento del Mark I. Medía más de 30 metros de largo y 3 metros de alto, pesaba 30 toneladas y contenía unos 18.000 tubos de vacío. Hoy es posible colocar varios millones de componentes en un sólo chip (circuito integrado) de una pulgada cuadrada. No obstante, ENIAC era difícil de utilizar porque cada vez que se usaba para resolver un nuevo problema, el personal tenía que modificar manualmente el programa para introducir nuevas instrucciones.

ENIAC. Primer ordenador totalmente electrónico Para pensar en soluciones a este problema, se contactó con John von Neumann (a la edad de 20 años ya tenía fama de ser un matemático excepcional. Nacido, criado y educado en Hungría, von Neumann se trasladó a Estados Unidos y se hizo profesor de matemáticas en la Universidad de Princeton). El resultado de su estudio fue el concepto del almacenamiento de programa. El concepto de programa almacenado consistía en guardar los programas en la memoria interna junto con los datos. Una ventaja clave de esta técnica es que la computadora puede volver sobre

cualquier

instrucción

y

repetirla.

La

mayoría de las tareas interesantes que realizan los

ordenadores

actualmente

surgen

de

la

repetición de ciertas acciones una y otra vez. Desde entonces, todos los ordenadores que se han vendido comercialmente, empezando por UNIVAC, han utilizado el concepto de programa almacenado.

Tema 1: Conceptos Generales.

Página 15

De lleno en la primera generación (1951-1959) Hasta 1951 las computadoras electrónicas se hallaban exclusivamente en manos de científicos, ingenieros y el ejército. Nadie había intentado crear un ordenador electrónico digital con fines comerciales. En aquel momento, los creadores de ENIAC, formaron una compañía para comercializar

una

Conocida

como

utilizaba

tarjetas

versión UNIVAC,

de

su

esta

perforadas

de

máquina.

computadora IBM

para

introducir datos. Como la oficina del censo de Estados Unidos ya estaba utilizando tarjetas perforadas de IBM, era natural que la oficina comprara el primer ordenador en 1951. La compañía de Mauchly y Eckert se convirtió en la división UNIVAC de la Sperry-Rand Corporation, que más tarde adoptó el nombre UNISYS. Viendo que existía un segundo mercado para los ordenadores comerciales, IBM anunció su primer ordenador comercial, el IBM 701, en 1953. IBM fabricó 19 ordenadores de este tipo. En aquel momento, los líderes de la industria creían que 19 ordenadores

serían

suficientes

necesidades

de

computación

para de

ocuparse las

de

las

empresas

estadounidenses. Grandes, lentos y caros, estos primeros ordenadores necesitaban instalaciones especiales y un personal altamente cualificado. Características de la Primera Generación La primera generación de ordenadores utilizaba válvulas de vacío. Los ordenadores de la primera generación eran grandes y lentos e irradiaban mucho calor. Las válvulas de vacío solían fallar con frecuencia, de manera que los ordenadores de la primera generación estaban "parados" la

mayoría

del

tiempo.

Pero

habían

cautivado

la

imaginación de la gente. En periódicos y revistas los periodistas escribían sobre los "cerebros electrónicos" que cambiarían el mundo. Los ordenadores de la primera generación recibían las instrucciones en lenguaje máquina, que está compuesto en su totalidad por los números 0 y 1. El lenguaje máquina se diseñó así porque las computadoras electrónicas utilizan el sistema

Tema 1: Conceptos Generales.

Página 16

binario. Como es muy difícil trabajar con el lenguaje máquina, sólo unos pocos especialistas sabían cómo programar estas primeras computadoras. Todos los datos e instrucciones eran introducidos en los ordenadores de la primera generación por medio de tarjetas perforadas. El almacenamiento secundario de las computadoras consistía en tambores magnéticos. Hasta 1957 no se impuso la cinta magnética como medio de almacenamiento secundario más rápido y eficaz. Una sola cinta podía contener aproximadamente la información de 1.100 tarjetas perforadas; es decir, unas 21 páginas de información. La segunda generación (1959 -1963) La primera generación de ordenadores era poco fiable, principalmente porque las válvulas

de

vacío

se

quemaban

con

frecuencia.

Para

mantener

ENIAC

en

funcionamiento, los estudiantes tenían carritos de la compra llenos de válvulas para cambiar las docenas que se quemaban durante una sesión normal. Pero un invento de 1948, el transistor, iba a cambiar la manera en que se fabricaban los ordenadores, llevándolos hacia la segunda generación de la tecnología de los ordenadores modernos. A diferencia de las válvulas de vacío, los transistores son pequeños, necesitan poca energía para su funcionamiento y trabajan en frío. Además, son mucho más fiables. Como los ordenadores de la segunda generación se fabricaron con transistores en vez de válvulas de vacío, estos ordenadores eran más rápidos, más pequeños y más fiables que los de la primera generación. Durante esta generación, se amplió la memoria auxiliar. Como almacenamiento secundario, se crearon discos magnéticos, aunque se seguía utilizando comúnmente la cinta magnética. Se empezaron a utilizar periféricos que recibían y mostraban la información de manera más comprensible: se diseñaron impresoras y lectores ópticos. Los ordenadores de la segunda generación eran más fáciles de programar que los de la primera. La razón era el desarrollo de los lenguajes de alto nivel, que son más fáciles de comprender y utilizar que el lenguaje ensamblador. Asimismo, a diferencia del lenguaje ensamblador, un lenguaje de alto nivel no es específico de una determinada máquina. Esto posibilita su utilización en ordenadores fabricados por diferentes compañías. Los ordenadores de la segunda generación se podían comunicar entre sí utilizando las líneas telefónicas, transmitiendo datos de un lugar a otro. La comunicación era bastante lenta, pero sin duda ofrecía un método nuevo de intercambiar ideas y datos. Tema 1: Conceptos Generales.

Página 17

Estos ordenadores de la segunda generación también tenían problemas. Los dispositivos de entrada y salida eran tan lentos que el ordenador solía estar parado, esperando a que las tarjetas se leye ran o se imprimieran los informes. Dos soluciones diferentes pero igualmente importantes resolvieron este problema. Aunque ambos proyectos empezaron durante la segunda generación y utilizaron tecnología de la segunda generación, ninguno se completó hasta bien avanzada la tercera generación. El Dr. Daniel Slotnick desarrolló la primera solución: el ILLIAC IV, que se completó en 1964. ILLIAC IV era único porque tenía cuatro unidades de control; de esta manera, podía realizar entrada, salida y operaciones mate máticas al mismo tiempo. Un grupo de profesores y alumnos del Instituto de Tecnología de Massachusetts (MIT) desarrolló una segunda solución: Por medio del proyecto MAC (ordenador de acceso múltiple), crearon un sistema de multiprogramación que podía procesar los programas utilizados por diferentes usuarios uno detrás de otro. Como el ordenador podía alternar entre varios programas, no tenía que quedarse parado esperando las operaciones de entrada y salida. La tercera generación (1963 -1975) Como sucedió con la primera generación de ordenadores, el dispositivo que terminó con la segunda generación fue inventado antes de que comenzara ésta. En 1958, Jack St. Clair Kilby y Robert Noice inventaron el primer circuito integrado. Los circuitos integrados incorporaban muchos transistores y circuitos electrónicos en un único disco de silicio o chip. La tecnología de los circuitos integrados es la responsable del progreso técnico de la industria de la informática. El primer miniordenador disponible en el mercado apareció en 1965. El PDP-8 (Procesador de datos programados) cabía en una esquina de una habitación y no necesitaba las constantes atenciones de un operador. Pero lo más novedoso fue que diferentes usuarios podían acceder al ordenador desde diferentes ubicaciones en el mismo sistema

edificio de

(la

implantación

tiempo

del

compartido,

desarrollado en los ordenadores de la segunda

generación).

El

precio

del

miniordenador era aproximadamente la cuarta parte del coste de un sistema mainframe tradicional. Por primera vez, las compañías más pequeñas podían comprar ordenadores. Tema 1: Conceptos Generales.

Página 18

En 1967, había tantos lenguajes de programación que IBM decidió "abrir" sus sistemas. Antes de ese momento, los compradores recibían convertidores de lenguajes (compiladores) para todos los lenguajes con los que podían funcionar los sistemas informáticos que habían comprado. Ahora los compradores sólo tenían que comprar los convertidores que necesitaran. El resultado fue un mercado competitivo para los convertidores de lenguaje y el principio de la industria del software. Se incluyó en todas las computadoras un programa que facilitaba el uso de la misma a personal que no tenía que ser altamente especializado: el sistema operativo. Otro avance significativo de esta generación fue el lanzamiento del primer satélite de telecomunicaciones. Las estaciones de telecomunicaciones de la tierra podían transmitir y recibir datos de los satélites, permitiendo la comunicación global entre los sistemas informáticos. La cuarta generación (1975 hasta nuestros días) A principios de los años 70, se diseñó el primer chip microprocesador. Un chip microprocesador tiene en un solo chip toda la unidad de control y la unidad aritmético-lógica de un ordenador. La importancia del microprocesador es tanta que no se puede exagerar aún más: ha cambiado el mundo. Las técnicas utilizadas para fabricar los microprocesadores, llamadas circuito de integración a mayor escala (VLSI), permiten que las fábricas produzcan chips informáticos en masa que contienen cientos, miles o incluso millones de transistores. También en esta generación, se aumenta la capacidad de entrada y salida de datos y se construyen terminales inteligentes que incluyen memoria y que disponen de ciertos programas. A finales de la década de los 70, muchas compañías lazaron kits de construcción de microordenadores, pero eran difíciles de montar. Dos jóvenes empresarios, Steve Jobs y Steve Wozniak, soñaban con crear un "ordenador doméstico". Querían un microordenador tan sencillo que se pudiera sacar de una caja, enchufarlo y utilizarlo, como si fuera un tostador. Jobs y Wozniak se instalaron en un garaje después de vender un Volkswagen por unas 175.000

pesetas

para

conseguir

el

capital

que

nece sitaban. Con la ayuda del experto Mike Markkula, fundaron Apple Computer, Inc. en abril de 1977. Su primer producto, el Apple I, era un procesador de texto para los aficionados a la informática, pero la experiencia que la compañía obtuvo al crear el Apple I les llevo a crear el sistema Apple II, que tuvo mucho éxito. El Apple II era un microordenador completo, con su teclado, su monitor, unidad de disco y Tema 1: Conceptos Generales.

Página 19

sistema operativo. Apple Computer, Inc. se convirtió en una de las compañías líderes del mercado de los microordenadores. La introducción del primer software de hoja de cálculo, VisiCalc, en 1979, ayudó a convencer al mundo de que los microordenadores no eran sólo un juguete. En 1980, IBM decidió que el mercado del miniordenador era demasiado prometedor como para ignorarlo y firmó un contrato para que Microsoft Corporation escribiera un sistema operativo para un nuevo microordenador. El ordenador personal de IBM (PC), con un chip fabricado por Intel y un sistema operativo de Microsoft, fue lanzado al mercado en 1981. Como Intel y Microsoft eran contratistas independientes, eran libres de comercializar sus productos en el mercado. Como resultado, muchos fabricantes desarrollaron microordenadores que hoy se conocen también como compatibles IBM. La tecnología de la cuarta generación sigue vigente; muchos expertos creen que los esfuerzos de miniaturización acabarán por producir chips con miles de millones de transistores. Aunque los lenguajes de alto nivel todavía se utilizan mucho, han aparecido lenguajes de muy alto nivel durante la cuarta generación. Un lenguaje de muy alto nivel es en realidad una manera de escribir instrucciones para un programa complejo que tiene un conjunto de comandos muy grande. Otro desarrollo de la cuarta generación es la propagación de redes informáticas de alta velocidad, que permiten que los ordenadores se comuniquen y compartan datos. Dentro de las compañías, las redes de área local (LAN) conectan varias docenas o incluso varios centenares de ordenadores en un área geográfica limitada (un edificio o varios edificios cercanos entre sí). Las redes de área extensa (WAN) proporcionan conexiones globales para los ordenadores actuales. Las computadoras, durante esta generación, se han convertido en interesantes para cualquier tipo de usuario, no sólo para grandes empresas, debido a que incorporan programas de uso general: procesadores de textos, hojas de cálculo, gestores de bases de datos, etc. La tecnología informática actual Los microordenadores actuales son más pequeños, rápidos, baratos y eficaces que el ENIAC. Disponemos de modelos de microordenadores para mesa, portátiles, del tamaño de un cuaderno o del de una calculadora. Debido a los microordenadores, la mayoría de los usuarios de ordenadores no son profesionales de la informática. Para conseguir que los ordenadores sean más fáciles de utilizar, las compañías han desarrollado las interfaces gráficas de usuario. Tema 1: Conceptos Generales.

Página 20

Una interfaz gráfica de usuario (GUI) proporciona iconos (dibujos) y menús (listas de comandos) que los usuarios pueden se leccionar con un ratón. La primera GUI comercializada, llamada Finder, fue introducida por Apple para el Macintosh en 1984. Microsoft ha desarrollado una interfaz similar, que se conoce como Windows, que es muy popular en los microordenadores compatibles IBM. Además, las aplicaciones más modernas incluyen tutoriales y ayuda para los nuevos usuarios. La industria de los microordenadores ha estado dividida entre Apple e IBM desde 1981. Históricamente, estas dos familias no podían utilizar los mismos programas. Esto cambió en 1991, cuando Apple, IBM y Motorola firmaron un acuerdo que ha provocado el desarrollo de microordenadores que pueden alternar entre el modo Macintosh y el modo IBM. Desde 1992, todos los ordenadores Macintosh pueden leer disquetes con formato IBM y ejecutar programas escritos para microordenadores IBM. A finales de 1995, IBM lanzó ordenadores capaces de leer disquetes con formato Apple y ejecutar programas escritos para estos ordenadores. En 1993 IBM compró los derechos del sistema operativo 0 de Apple Macintosh. Es sólo cuestión de tiempo que estas dos familias se hagan una. ¿Una quinta generación? Si realmente hay una quinta generación, se está haciendo esperar; después de todo, la última generación empezó en 1975. (De todas maneras, las fechas son arbitrarias y quizás pronto sepamos que la quinta generación comenzó en 1990). Se están produciendo grandes cambios tanto en software como en hardware. Según los expertos, lo que distinguirá a la nueva generación será la inteligencia artificial. Los ordenadores que utilicen inteligencia artificial tendrán algunos atributos asociados con la inteligencia humana, como las capacidades de decodificar y responder al lenguaje natural (un lenguaje humano como el inglés), para razonar y sacar conclusiones, y para reconocer patrones en la recepción de estímulos sensoriales.

Tema 1: Conceptos Generales.

Página 21

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.