HARDWARE A.- PERSPECTIVA HISTORICA E INFLUENCIA ACTUAL

HARDWARE INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse de ellas, hay una que se ha destacado muy por encima del re

3 downloads 690 Views 128KB Size

Story Transcript

HARDWARE INTRODUCCION De entre todas las máquinas que ha inventado el hombre para servirse de ellas, hay una que se ha destacado muy por encima del resto: la computadora electrónica. Durante muchos años se le ha otorgado el título de cerebro electrónico, y se han empleado numerosas horas en discutir apasionadamente sobre si estas máquinas "piensan" realmente o no. Sin lugar a dudas, el cerebro humano es mucho más perfecto y eficiente que cualquier máquina desarrollada hasta el momento, por muy sofisticada que ésta sea. En lo único que se ve superado el cerebro humano por la máquina es en la velocidad de cálculo, probablemente de ahí provenga su mitificación. La búsqueda de aparatos de apoyo para mejorar dicha velocidad data de tiempos inmemoriales. Respecto a su capacidad de almacenamiento, la máquina aventaja al hombre con relación al orden y precisión, pero el cerebro humano permite almacenar un volumen mucho mayor de información; de hecho es imposible, por el momento, que una máquina pueda almacenar toda la información que existe en la memoria de un hombre, por simple que éste sea. Al encarar el estudio de un curso sobre informática es importante definir claramente el significado de este término, ya que al ser relativamente nuevo, puede no estar totalmente aclarado. Una primera aproximación nos dice que es una contracción de "información automática", pero se puede llegar a definiciones mucho mas ampulosas como: "Es la disciplina que se ocupa del tratamiento de la información a través de la aplicación de la inteligencia sobre la misma, en forma recurrente y teniendo como fin último la creación y transmisión de conocimiento"; para los alcances de este curso basta una definición tal como: "Es la ciencia que trata la concepción, realización y utilización de los sistemas que procesan información". Otro punto importante al comienzo del estudio sobre el tema es analizar la evolución que han sufrido los distintos medios de cálculo hasta desembocar en las modernas computadoras. Esto se hace para que a través de una visión del pasado de estos equipos, podamos hacer previsiones con respecto al futuro, de una manera más confiable, sin entrar en especulaciones de ciencia-ficción. Comenzaremos pues, con una breve perspectiva histórica.

A.- PERSPECTIVA HISTORICA E INFLUENCIA ACTUAL ??

Perspectiva histórica

Si no somos demasiado rigurosos en cuanto a las características exigidas para considerar máquinas de calcular a los primeros elementos utilizados por el hombre para auxiliarse en las actividades intelectuales relacionadas con el cálculo, podemos afirmar que el más elemental de estos utensilios es el ábaco. Su origen tuvo lugar en Asia, hace varios miles de años y aún sigue brindando servicios en esos lugares. Con un poco de paciencia y algo de práctica, se pueden realizar con él adiciones y sustracciones de números grandes, a velocidades bastante elevadas. A lo largo de la historia se han inventado otras muchas máquinas que, por su sencillez, no vamos a considerarlas prototipos de las modernas computadoras, hasta que en el siglo XVIII, aproximadamente en 1642, el filósofo y científico francés Blaise Pascal, de tan sólo dieciocho años de edad, inventó una máquina que sumaba y restaba denominada "pascalina" y que utilizaba ruedas dentadas como mecanismo; estos engranajes estaban formados por diez dientes numerados del 0 al 9. Cuando una rueda pasaba del 9 al 0 después de una vuelta completa, producía un arrastre de un décimo de vuelta en la rueda situada a su izquierda, incrementando en una unidad el número de lectura. Este proceso de "arrastre automático" constituye el principal aporte de la máquina de Pascal, que éste fabricara especialmente para complacer a su padre, que era recaudador de impuestos. La "pascalina" no tuvo éxito comercial. Posteriormente, en 1671, el filósofo y matemático alemán Gottfried Leibniz, que inventó el cálculo infitesimal en forma independiente de Newton, utilizando el principio de la máquina de Pascal, desarrolló un proyecto que además de sumar y restar, multiplicaba y dividía por sumas y restas sucesivas respectivamente, utilizando por primera vez el principio cíclico. Sin embargo no puede hablarse de auténtico adelanto, en cuanto a los conceptos del cálculo y su representación, hasta las investigaciones del británico Charles Babbage quien, aproximadamente en 1823 comenzó a trabajar en un proyecto denominado "máquina de diferencias", que servía para el cálculo de tablas. Babbage abandonó, sin acabar, este proyecto por una máquina más potente y ambiciosa que él denominó "máquina analítica" y que concibió en 1831. Su finalidad era ejecutar cualquier operación matemática sin la intervención humana en el proceso de cálculo. Uno de los principales adelantos consistió en la idea que tenía Babbage, con respecto a que a su máquina se la podía "enseñar" o "programar" para efectuar cualquier tarea matemática. Desafortunadamente, las máquinas de Babbage, no pudieron ser construídas pues necesitaban una tecnología mecánica imposible de lograr en esa época. El proyecto de Unidad temática: Hardware - Página 1

Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002

Babbage utilizaba un sistema de tarjetas perforadas (que había descubierto en 1801 el francés Joseph Jacquard y empleado en un telar automático), con las cuales se suministraban los datos y se controlaba la máquina. En 1835, la condesa Ada Lovelace, compañera de Babbage, llegó a desarrollar programas para la máquina analítica, convirtiéndose de esa manera en la primera persona que programó ordenadores. A pesar de que la máquina analítica no se llegó a construir jamás, su proyecto mantiene grandes analogías con las actuales computadoras. Otro hito en el desarrollo informático es la máquina tabuladora del norteamericano Hermann Hollerith quien, en 1890, la utilizó para evaluar el Censo Norteamericano, ingresando los datos por medio de tarjetas perforadas de 80 columnas, del tamaño de un billete de un dólar. Estas tarjetas de cartón son prácticamente idénticas a las utilizadas actualmente. Hollerith fundó una compañía que posteriormente se convertiría en la empresa de informática mas grande e importante del mundo: IBM (International Business Machines). En 1937, Howard Aiken, propuso el diseño de una calculadora electromecánica que se comenzó a construir en 1939, gracias a un acuerdo con IBM. En 1944 ve la luz el trabajo de Aiken: el Mark I, considerado el primer ordenador electromecánico del mundo con programa almacenado. Este se programaba mediante tarjetas perforadas. El primer ordenador electromecánico del mundo, de aplicación especial, fue el Colossus, desarrollado por el inglés Alan Turing en 1943; fue el invento más secreto de la Segunda Guerra Mundial, fabricado para descifrar el código secreto alemán Enigma. En 1943, en los momentos más críticos de la II Guerra mundial, un coronel del Ejército de los Estados Unidos, solicitó una calculadora para la artillería. El reto fue aceptado por J.P. Eckert y J.M. Mauchly, que más tarde fundarían la empresa UNIVAC. El desarrollo tuvo lugar en la Universidad de Pensilvania y en 1946 nace el ENIAC (Electronic Numerical Integrator and Calculator), el primer ordenador electrónico del mundo. El ENIAC utilizaba 18.000 válvulas de vacío y 1.500 relés; emitía el calor equivalente a 200.000 Watts y estaba instalado en una sala de 9x30m. Su capacidad de almacenamiento era de 20 números de 10 dígitos. A pesar del gran adelanto, con respecto a la velocidad, que significaba sustituir la inercia de las partes mecánicas por conmutaciones electrónicas, su concepción dió un paso atrás con respecto a programación ya que todo el programa debía hacerse reordenando las conexiones; luego de terminada la guerra se le hicieron modificaciones para permitir la programación mediante tarjetas perforadas, pero sus características no permitieron que prosperara comercialmente. Fue retirado de funcionamiento en 1952. Aproximadamente en la misma época en que nace el ENIAC, John Von Newman -quien propusiera el sistema binario para la representación numérica en las computadoras- desarrolló el EDVAC (Electronic Discrete Variable Automatic Computer), la primera computadora electrónica de programa internamente almacenado. El EDVAC fue una computadora mucho mas pequeña y simple que el ENIAC, pero mucho más poderosa. El ENIAC y el EDVAC dan comienzo a lo que se denomina la Primera Generación de Ordenadores, cuyo componente fundamental en la unidad de proceso eran los tubos de alto vacío o válvulas electrónicas, su velocidad de proceso se medía en milésimas de segundo, pero su tiempo medio entre fallos era muy bajo; en el ENIAC, por ejemplo, a los dos minutos de funcionamiento las válvulas comenzaban a fundirse. Los computadores más representativos de esta época fueron: UNIVAC I, IBM 650 e IBM 700. Con la aparición del transistor en 1956, comienza lo que se denomina Segunda Generación de Computadoras. El transistor permitió reducir el tamaño de las máquinas y aumentar su potencia y velocidad, que se medía en millonésimas de segundo. Las computadoras de esta generación ya eran alfanuméricas y su tiempo medio entre fallos aumentó en forma sustancial. Los representantes más importantes fueron las series 1400 y 1700 de IBM, el 1107 de UNIVAC REMINGTON RAND, el BURROUGHS B-500, el HONEYWELL 800 y el CONTROL DATA 1604. Pese a que no es muy exacta la fecha, hacia 1964, nace la Tercera Generación de Computadoras que utiliza los circuitos integrados, disminuyendo aún más los tamaños, mejorando potencia y velocidad y aumentando el tiempo medio entre fallas. La velocidad de proceso orilla el nanosegundo (una mil millonésima de segundo). Representantes de esta generación son las series 360 y 370 de IBM, UNIVAC 1108 y 1110, HONEYWELL 600 y la serie 5700 de BURROUGHS. Los circuitos integrados LSI y VLSI (Large Scale Integration y Very Large Scale Integration) nos introducen en la Cuarta Generación de Computadoras en la que los tamaños y costos han descendido tanto que las ponen al alcance de casi todo el mundo. En Japón se están construyendo máquinas de quinta generación, de procesamiento en paralelo y flujo de datos y ya se habla de nuevas generaciones con la sustitución del electrón por el fotón y utilización de biointeligencia.

Unidad temática: Hardware - Página 2

Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002

??

Influencia actual de la informática

La computadora es una herramienta de cálculo capaz de procesar cualquier clase de información y realizarlo a velocidades realmente muy elevadas, por consiguiente es aplicable a la solución de problemas en cualquier rama del conocimiento humano. De esta manera, actualmente forman parte indispensable de gran número de industrias, centros de educación, de investigación, bancos, centros administrativos, etc. A pesar de ser un invento relativamente reciente, ha penetrado en nuestras vidas hasta tal punto, que pocas cosas existen en este momento que, en mayor o menor grado, no necesitan tras de sí una computadora. Cuando preguntamos cuáles son las aplicaciones de las computadoras?, su respuesta implica elaborar una clasificación que estrictamente hablando no existe. Sin embargo, las aplicaciones en base a su objetivo y sus funciones se pueden dividir en dos: Técnicas (o Científicas) y Administrativas, aunque entre ellas siempre hay una interacción mutua. Ninguna de las dos categorías agota todas las áreas posibles relacionadas con el manejo de la información, el que siempre será una función del ingenio y habilidad del hombre que la utiliza. Las aplicaciones técnicas, fundamentalmente, comprenden la solución de problemas matemáticos, la solución de problemas de ingeniería, la simulación de sistemas y el control de procesos. Las aplicaciones administrativas, por su parte, abarcan el procesamiento de grandes cantidades de información como: cuentas corrientes de bancos o comercios, control de stock, facturación, contabilidad y, en general, gestión empresaria. La ciencia moderna usa las matemáticas como lenguaje para expresar leyes en términos exactos. La computadora digital electrónica es una herramienta valiosa para estudiar las consecuencias de estas leyes. Una vez que se ha encontrado el procedimiento exacto para resolver un problema, el tiempo requerido para ejecutar manualmente los cálculos necesarios lo puede hacer prohibitivo y también, algunas veces, es necesario resolver el mismo problema en repetidas ocasiones usando diferentes series de parámetros o datos de entrada. La computadora no sólo es capaz de evaluar expresiones matemáticas a altísimas velocidades, sino también puede efectuar cálculos tantas veces como se desee con diferentes series de valores numéricos, comparar los resultados y encontrar los valores óptimos que se emplearon. Considerando todo lo expresado anteriormente, la gente a menudo se pregunta: Puede una computadora hacer cualquier cosa? Pueden las computadoras pensar?. A pesar de sus increíbles posibilidades, las computadoras tienen sus limitaciones, pero es difícil predecir cuales de estas limitaciones serán superadas en el futuro. Por lo tanto no hay acuerdo entre los expertos sobre lo que las computadoras serán o no dentro de 100 años. Es difícil aún predecir lo que las computadoras harán dentro de 5 o 10 años. Lo más importante a aprender es qué tipos de tareas puede hacer una computadora, eficientemente, rápido y a bajo costo. Por el momento, pensar en forma parecida a un ser humano, no es una de esas tareas. En general, una forma de saber si un problema puede ser resuelto por una computadora es asignar ese problema a una persona o grupo de personas, sin preocuparse cuanto tiempo llevará a las personas hacer esa tarea, 100 ó 1000 años, si no puede ser realizado de ninguna manera por las personas, es muy probable que la computadora tampoco pueda hacerlo ahora, ni en un futuro próximo. Los adelantos tecnológicos favorecieron, en principio, a las actividades técnicas, debido fundamentalmente a los requerimientos de equipos necesarios en esta categoría. Las computadoras para usos técnicos se requieren, generalmente, para realizar grandes cantidades de cálculos sobre cantidades pequeñas de datos. La gestión administrativa, usualmente, trabaja sobre mayor cantidad de datos, realizando operaciones menos complejas. El abaratamiento de los equipos, la mayor perfomance de los mismos y la más reciente reducción del valor de las memorias de trabajo y de almacenamiento masivo, permiten cubrir con facilidad las necesidades de casi cualquier aplicación, poniendo la computación al alcance de prácticamente todo el mundo. Lo mencionado precedentemente permite, en las empresas, descentralizar muy convenientemente los equipos. Un ejecutivo de una importante firma fabricante de microprocesadores, se refería a esta situación haciendo una analogía con lo sucedido en los albores de la revolución industrial, en la que los grandes motores eran la pieza más importante de los talleres ya que todas las máquinas estaban acopladas a un eje común, el del gran motor, que en caso de avería detenía toda la producción. Con los avances tecnológicos se abarató la producción de motores de menor potencia, dotándose a cada máquina de su correspondiente motor, lográndose mejores aprovechamientos y menores trastornos en casos de falla. Con el aprovechamiento de la computadora está sucediendo una situación muy parecida.

Unidad temática: Hardware - Página 3

Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002

B.- CLASIFICACION DE COMPUTADORAS Existen distintos puntos de vista para encarar una clasificación de computadoras. Desde la óptica de sus principios de funcionamiento, tenemos tres tipos principales: Digitales (que son el objeto de este curso); Analógicas e Híbridas. NOTA TECNICA: Clasificación por principio de funcionamiento Sus principales características son las siguientes: - Computadoras Digitales: Son las que operan realizando los cálculos con los que estamos familiarizados, es decir operan en forma discreta obteniendo los resultados por aplicación de métodos numéricos, proporcionando los resultados en forma de números o bien en forma de gráficos discontínuos. - Computadoras Analógicas: estas máquinas resuelven problemas de sistemas físicos mediante analogías eléctricas de los mismos, operando de acuerdo con las leyes del cálculo infinitesimal en forma contínua. Proporcionan la solución en forma de funciones de una variable independiente, el tiempo, que pueden visualizarse mediante dispositivos adecuados, como osciloscopios y graficadores, etc. Las computadoras digitales son mas versátiles, permiten su utilización en las ramas más dispares del conocimiento, son extremadamente rápidas y permiten el almacenamiento o memorización de los datos. Las computadoras analógicas tienen un área de aplicación mas restringida, la simulación y resolución de ecuaciones íntegro-diferenciales fundamentalmente, pero son muy eficientes. Su mayor desventaja es su elevado costo, debido a la necesidad de elementos más precisos. Esta desventaja está haciendo que su uso disminuya, siendo sustituidas por computadoras digitales adecuadamente programadas. - Computadoras Híbridas: son combinaciones de computadoras digitales y analógicas que permiten usufructuar las ventajas de ambos sistemas. Por lo tanto la primera clasificación posible de computadoras será: DIGITALES CLASIFICACIÓN POR PRINCIPIO DE

ANALÓGICAS

FUNCIONAMIENTO HÍBRIDAS

Una vez determinado el tipo de computadora del cual nos ocuparemos, es decir las computadoras digitales, podemos hacer una nueva clasificación, esta vez en base a la tecnología empleada en su construcción. Si en este estudio sólo tenemos en cuenta las computadoras digitales electrónicas, hasta el momento existen cuatro generaciones de computadoras, como vimos anteriormente. Es de destacar que esta clasificación evoluciona con el tiempo y con los avances tecnológicos y se puede graficar de la siguiente forma:

1ra. Generación: 1946 - válvulas

CLASIFICACIÓN

2da. Generación: 1956 - transistores

EN BASE A TECNOLOGÍA

3ra. Generación: 1964 - circ. integrados 4ta. Generación: 1975 - circ. integr. VLSI

Hasta hace 10 años el término computadora comprendía a cualquier equipo dedicado al proceso de datos; actualmente podemos distinguir tres clases de computadoras, también denominadas ordenadores, claramente diferenciados: la maxicomputadora o computadora clásica, la minicomputadora y la microcomputadora, todo ésto teniendo en cuenta la capacidad y potencia.

Unidad temática: Hardware - Página 4

Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002

A medida que descendemos en esta escala, nos encontramos con equipos menos potentes aunque más baratos y versátiles. En general cada uno de ellos tiene características ideales para un tipo especial de usuario, por lo tanto ninguno anula a los anteriores, aunque existe la tendencia a la sustitución de los grandes equipos por sistemas de miniordenadores o micro-ordenadores distribuidos, con lo que se gana en autonomía sin perder cohesión. Existe una clasificación más amplia que los divide, de mayor a menor en: supercomputadora, maxi, media, mini, mili, micro y nano. Aparecen además las de bolsillo; las home computers y las personal computers y a éstas, en unidades de escritorio, laptops, notebooks y palmtop, pero consideramos que todas éstas están, mas o menos, incluídas en la clasificación. Trataremos de clarificar los alcances y características de los tipos principales: - Maxi-computadora: son equipos necesarios para el proceso de datos a gran escala, tanto en su componente de gestión comercial como científica. Normalmente la adopción de grandes computadoras obliga a realizar fuertes inversiones, tanto por lo oneroso que resultan los equipos, como por las instalaciones auxiliares que necesitan: aire acondicionado, locales diáfanos y amplios, etc. El equipo humano dedicado a su explotación debe ser numeroso y de alta especialización. Por todo ello, sólo es recomendable su implementación si la complejidad o características de las aplicaciones no se adaptan a sistemas mas asequibles. - Mini-computadoras: estos equipos son "mini" sólo en tamaño y precio, prestando servicios muy importantes, incluso, si se distribuyen convenientemente y se conectan entre sí las minicomputadoras pueden sustituir con éxito a un equipo grande, evitando la centralización y acercando los equipos al usuario final. Sus principales aplicaciones son: el control de procesos; comunicaciones y sistemas de información. - Microcomputadoras: En la actualidad constituyen uno de los sectores más importantes del mercado informático, haciéndose cargo de muchas de los áreas que anteriormente se cubrían con minicomputadoras. Sus principales aplicaciones son: control de procesos; control de periféricos de computadoras mayores; toma de datos y computadoras personales, cuyo bajo costo y la posibilidad de introducir la informática en el hogar, ha permitido que su popularidad haya crecido espectacularmente.

MAXICOMPUTADORAS CLASIFICACIÓN POR POTENCIA Y

MINICOMPUTADORAS

CAPACIDAD MICROCOMPUTADORAS

C.- PRINCIPIO DE FUNCIONAMIENTO Y ELEMENTOS FUNDAMENTALES. Un sistema de computación está formado por dos partes claramente diferenciables, indispensables ambas, para un adecuado funcionamiento del mismo. Una de ellas, que es la que describiremos en este punto, está formada por el medio físico o tangible, compuesta por el equipo y sus accesorios, es decir: los circuitos, teclado, monitor, cables, etc. La otra parte, de la que hablaremos en la próxima unidad, es la que comprende toda la información complementaria que el equipo necesita para su normal funcionamiento: el sistema operativo, intérpretes, compiladores, programas, etc. La parte física se suele denominar con el término inglés "hardware" y la parte no-física con un término derivado de aquél: "software". También algunos autores los denominan anatomía y fisiología de las computadoras, respectivamente. Partiendo de una definición de la función general de una computadora llegaremos a un detalle de los elementos fundamentales de la misma: podemos decir que la función principal de una computadora es la obtención de resultados a través de la información dada por el hombre en forma de instrucciones y datos:

INSTRUCCIONES

DATOS

COMPUTADORA

RESULTADOS

Unidad temática: Hardware - Página 5

Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002

Esta sencilla definición permite clarificar que aún el hardware de una computadora estará compuesto principalmente por dos partes: un lugar donde se desarrollan todos los procesos que se denomina CPU y los elementos que la rodean y le permiten comunicarse con el exterior, llamados dispositivos periféricos. La CPU -sigla inglesa de Unidad Central de Proceso- es el corazón de la máquina y está formada por la unidad de control, la unidad aritmético-lógica y la unidad de memoria. Los dispositivos periféricos se dividen en unidades de entrada, unidades de salida y unidades de almacenamiento. - Unidad de Control: es la encargada de interpretar y seleccionar las distintas instrucciones que forman el programa y que se encuentran almacenadas en la memoria. Esta unidad interpreta, de entre los datos introducidos a la memoria, aquellos códigos que significan instrucciones, generando señales que envía a las otras unidades de la máquina que son las encargadas de ejecutarlos. - Unidad Aritmético-lógica: Es la que lleva a cabo todos los cálculos y comparaciones (decisiones) que forman el programa. Durante la ejecución del mismo fluyen entre esta unidad y la memoria los diferentes datos, indicándole la unidad de control el tipo de operación a realizar con estos datos. - Unidad de Memoria: Es la parte de la computadora en la que se introducen y almacenan los datos e instrucciones que forman el programa. De ella extraen, la unidad de control y la unidad aritmético-lógica, la información que necesitan para ejecutar los programas y deposita los datos intermedios que se generan. Una vez finalizada la ejecución del programa, quedan almacenados en esta unidad los resultados para ser extraídos por la unidad de salida.

C.P.U. Unidad de Control

Unidad Aritmetico-lógica

Unidad de Entrada

MEMORIA

Unidad de Salida

Flujo de Control Unidades de Almacenam.

Flujo de Datos

- Unidad de Entrada: Es el sistema mediante el cual se introducen en el ordenador los datos y las instrucciones que forman el programa que se habrá de ejecutar. Son los elementos de comunicación entre el hombre y la máquina. Ejemplos de periféricos de entrada son: ? ? ? ? ? ? ? ? ?

Teclados. Tarjetas de cartón perforado o magnéticas. Lápices ópticos. Lector de códigos de barras. Joysticks y ratones. Digitalizadores y scanners. Convertidores analógico/digital. Micrófonos Sensores (auditivos, de movimiento, ópticos, etc.) Unidad temática: Hardware - Página 6

Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002

- Unidad de salida: Es el sistema que toma de la memoria la información codificada y la convierte en un formato que, o bien puede ser directamente interpretado por el hombre, o trasladado a otra máquina de procesamiento. En general son los instrumentos de comunicación entre la máquina y el hombre. Ejemplos de periféricos de salida son: ? ? ? ? ? ? ?

Monitores (tubos de rayos catódicos) Impresoras. Plotters. Convertidores digitales a analógicos. Displays de cuarzo líquido o leds. Parlantes. Indicadores luminosos.

- Unidades de almacenamiento: Son aquellas unidades que utilizando algún elemento de soporte (generalmente magnético), como memorias auxiliares de almacenamiento, permiten la entrada o salida de información de la Unidad Central de Proceso. Ejemplos de periféricos de almacenamiento son: ? ? ? ?

Unidades de disco magnético. Unidades de cinta. Unidades de disco óptico.

Unidades de Medida.

El propósito principal de las computadoras es el procesamiento de números; que esos números pueden significar letras, símbolos u otra información es algo aparte: las computadoras procesan números. Por razones técnicas, las computadoras electrónicas digitales tienen facilidad para reconocer sólo dos estados posibles: hay tensión o no hay tensión. La pregunta es, por lo tanto, si con esta limitación la computadora puede sernos útil. En principio parecería que no, debido a que el hombre maneja su actividad con un sistema numérico que reconoce 10 símbolos distintos, es decir tiene base diez. Este sistema se denomina sistema numérico decimal. Su base proviene de la cantidad de dedos que los seres humanos tienen en sus manos, con las que se ayuda naturalmente a contar. Qué sucede entonces con un equipo que sólo reconoce dos estados posibles?. Pues en realidad es muy simple: cuenta hasta dos. Existe un sistema de numeración que tiene base dos y se denomina sistema binario. Las computadoras manejan su información con este sistema de numeración. Sistema numérico binario Como dijimos anteri/rmente, este sistema tiene base dos y reconoce sólo dos símbolos: el cero (0) y el uno (1). A esta mínima unidad de información se la denomina BIT (Binary Information digiT, dígito de información binario). Generalmente la información que manejan las computadoras está formada por cadenas de bits de longitud constante, denominadas palabras de procesamiento, existiendo máquinas de 1, 4, 8, 12, 16, 32, 64 y más bits. Las microcomputadoras utilizan palabras de 8 y 16 bits mientras que las grandes computadoras procesan palabras de 32 y 64 bits. Como se utiliza mucho la configuración de 8 bits o múltiplos de 8, se denomina "byte" a esa configuración. También se le suele denominar "caracter" ya que con las 256 combinaciones posibles de 8 bits (2^8), se pueden almacenar todos los caracteres utilizables: mayúsculas, minúsculas, números, signos, caracteres extranjeros, etc. Por otra parte 1.024, (2^10) -la potencia entera de dos más cercana a 1.000- se emplea como múltiplo, notándose como Kilo. Es decir cuando decimos: 1 Kbyte, hablamos de 1.024 bytes o de 8.192 bits. Análogamente, 1.048.576, (2^20) -la potencia entera de dos más cercana a 1.000.000- también se emplea como múltiplo, notándose como Mega. Otros múltiplos son el Giga para representar los 1.000.000.000 (miles de MegaBytes) y el Tera para representar los billones de Bytes o millones de MegaBytes. A pesar de que esos múltiplos son bastante impresionantes, ya están prepartados los que seguirán la secuencia: Peta, Exa, Zetta y Yotta, hasta el momento. ? Sistemas

de Codificación.

La posibilidad que tienen los hombres y las computadoras para comunicarse se sustenta en que puedan manejar un lenguaje común; el caso es totalmente análogo al de cualquier par de personas que intenten entrar en diálogo: deben utilizar un lenguaje que resulte comprensible por ambas. La serie de acuerdos que representan los elementos de una convención para establecer una comunicación entre un Unidad temática: Hardware - Página 7

Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002

hombre y una computadora, o entre dos computadoras, se conoce con el nombre de código. El hombre ha utilizado símbolos y códigos desde hace mucho tiempo. Un ejemplo muy conocido es el código Morse, en el cual los números y las letras del alfabeto son simbolizadas mediante puntos y rayas para permitir su transmisión. Otro ejemplo es el código Braile que permite leer a los ciegos. Las señales de tránsito también forman un código compuesto de una serie de acuerdos sobre el comportamiento del tráfico. Volviendo a los códigos para computadoras debemos destacar que es sumamente importante que la simbología empleada debe tener exactamente el mismo significado para ambas partes a fin de evitar cualquier confusión o interpretación errónea. La elección de un código para una aplicación determinada depende de varios factores. Uno de ellos es su facilidad para efectuar cálculos aritméticos y otro su facilidad para detectar errores y corregirlos. Los ordenadores modernos sólo reconocen los símbolos 1 y 0, ya que son manejados muy fácilmente por los equipos electrónicos, en este punto trataremos de mostrar algunas de las formas en que puede representarse una gran cantidad de información, haciendo uso solamente de unos y ceros. Existen códigos que permiten convertir datos numéricos en información binaria. Esos códigos se denominan códigos ponderados. Por tratarse de conversiones muy internas al equipamiento no serán tratados aquí. Existen también códigos que se utilizan para la conversión de letras y otros signos a códigos binarios. Estos códigos se denominan códigos no ponderados y por su importancia, se estudiará brevemente el denominado Código ASCII. ASCII (se pronuncia aproximadamente como: asji) es acrónimo de American Standart Code for Information Interchange. Es de hecho una versión americana del código internacional ISO con algunos agregados para la utilización de símbolos especiales. El código ISO no es muy popular a diferencia del ASCII que es prácticamente el sistema de codificación universal en pequeñas y grandes computadoras. Los caracteres permitidos en código ASCII incluyen el alfabeto inglés, tanto en mayúscula como en minúscula, los números, signos de puntuación, operadores matemáticos, el espacio (ESP), algunos signos de utilización especial y caracteres de control. Estos caracteres de control son códigos no imprimibles (es decir que no se ven) e incluyen información para manipular periféricos como retorno de carro en una impresora, avance de línea, tabulación vertical y horizontal, etc. Los caracteres ASCII de control cubren los primeros 32 códigos (del 0 al 31) y el 127. El Código ASCII es un código de 7 bits, pero en los sistemas modernos se amplia al octavo bit, hasta completar el byte y así incluir gráficos, letras griegas, símbolos matemáticos, letras de distintos idiomas no incluidas en el inglés, etc. A continuación se presentan los primeros 128 caracteres correspondientes al código ASCII convencional: 000 = NUL

001 = SOH

002 = STX

003 = ETX

004 = EOT

005 = ENQ

006 = ACK

007 = BEL

008 = BS

009 = HT

010 = LF

011 = VT

012 = FF

013 = CR

014 = SO

015 = SI

016 = DLE

017 = DC1

018 = DC2

019 = DC3

020 = DC4

021 = NAK

022 = SYN

023 = ETB

024 = CAN

025 = EN

026 = SUB

027 = ESC

028 = FS

029 = GS

030 = RS

031 = US

032 = ESP

033 = (!)

034 = (")

035 = (#)

036 = ($)

037 = (%)

038 = (&)

039 = (')

040 = (()

041 = ())

042 = (*)

043 = (+)

044 = (,)

045 = (-)

046 = (.)

047 = (/)

048 = (0)

049 = (1)

050 = (2)

051 = (3)

052 = (4)

053 = (5)

054 = (6)

055 = (7)

056 = (8)

057 = (9)

058 = (:)

059 = ( )

060 = ()

063 = (?)

064 = (@)

065 = (A)

066 = (B)

067 = (C)

068 = (D)

069 = (E)

070 = (F)

071 = (G)

072 = (H)

073 = (I)

074 = (J)

075 = (K)

076 = (L)

077 = (M)

078 = (N)

079 = (O)

080 = (P)

081 = (Q)

082 = (R)

083 = (S)

084 = (T)

085 = (U)

086 = (V)

087 = (W)

088 = (X)

089 = (Y)

090 = (Z)

091 = ([)

092 = (\)

093 = (])

094 = (^)

095 = (-)

Unidad temática: Hardware - Página 8

Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002

096 = (`)

097 = (a)

098 = (b)

099 = (c)

100 = (d)

101 = (e)

102 = (f)

103 = (g)

104 = (h)

105 = (i)

106 = (j)

107 = (k)

108 = (l)

109 = (m)

110 = (n)

111 = (o)

112 = (p)

113 = (q)

114 = (r)

115 = (s)

116 = (t)

117 = (u)

118 = (v)

119 = (w)

120 = (x)

121 = (y)

122 = (z)

123 = ({)

124 = (|)

125 = (})

126 = (~)

127 = DEL

D.- DESCRIPCION DE LOS ELEMENTOS FUNDAMENTALES. ? Unidad

de Control y Unidad Aritmético Lógica

La unidad de control y la unidad aritmético-lógica, en las primitivas computadoras estaban formadas por una gran cantidad de circuitos lógicos convenientemente distribuidos. En la actualidad una gran parte de estas funciones han sido reemplazadas por un minúsculo circuito integrado: el microprocesador. Este increíble proceso de miniaturización es el que ha permitido este enorme avance y tener en una sola plaqueta los elementos necesarios para configurar una computadora. Precisamente se denominan microcomputadores a los equipos basados en microprocesadores. El circuito integrado que constituye un microprocesador, también denominado CHIP (en inglés, brizna, astilla), está formado por una base plástica o cerámica de unos 20 cm2 y más o menos cuarenta patitas (denominadas pines), que se unen a través de hilos muy delgados al verdadero corazón del microprocesador: una pastilla de silicio de unos pocos milímetros cuadrados de superficie, que puede contener miles de transistores. Existen en la actualidad una gran cantidad de microprocesadores con distintas características que los identifican y los hacen más apropiados para ciertas aplicaciones. NOTA TECNICA - Bloques internos de los microprocesadores. En general los bloques internos que constituyen un microprocesador, abreviado µP son: - Unidad Aritmético-Lógica: En donde se efectúan las operaciones aritméticas (sumar y restar) y lógicas (AND, OR, NOT, etc.) . - Decodificador de instrucciones: En donde se interpretan las instrucciones del programa que va llegando. - Bloque de registros: Los registros son celdas de memoria en donde queda almacenado un dato temporalmente. Existe un registro especial llamado registro de estado (en inglés, Status) , en donde se refleja el estado operativo del microprocesador. - Stack: Bloque de registros en donde quedan anotados ciertas direcciones que necesita el microprocesador. - Contador de Programa (PC): En dónde se refleja la dirección de la instrucción del programa que el µP está ejecutando. - Señales de control: comprende las señales de reloj, señales de acceso a memoria, señales de interrupción, etc. - Buses: Existen tres buses: el Bus de Datos, por donde entran y salen datos, el Bus de Direcciones, por donde salen direcciones de memoria y el Bus de Control, que controla la comunicación con los elementos periféricos. Un microprocesador se caracteriza por una serie de cualidades que lo definen, estas principalmente son: longitud de palabra, capacidad de direccionamiento, número de instrucciones y velocidad de proceso. Estas características no se presentan en forma independiente pues se relacionan entre sí mediante la tecnología de fabricación, existiendo procesadores que pueden operar a distintas velocidades, respondiendo a idénticas características y por otra parte, dos procesadores de distinta tecnología operando a igual velocidad de proceso pueden registrar distinta perfomance por su modo de funcionamiento. NOTA TECNICA - Características técnicas de los microprocesadores. - Longitud de palabra: es la cantidad de bit que el µP puede tratar simultáneamente, es decir en paralelo, en el bus de datos. Atendiendo a esta característica, los principales son:

Unidad temática: Hardware - Página 9

Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002

- µP de 1 bit, para aplicaciones muy concretas como por ejemplo el MC14500 que es una unidad de control industrial. - µP de 4 bits, los pioneros de los microprocesadores, actualmente en desuso; por ejemplo Intel 4004 y 4040. - µP de 8 bits, los más comunes en la actualidad; por ejemplo Intel 8008, 8080, 8085; Motorola 6800, 6802, 6809; Mos Technology 6502 y 6510; Zilog Z-80. - µP de 16 bits de procesamiento y 8 bits de bus datos como el Intel 8088 y el NEC-V20. - µP de 16 bits de procesamiento y 16 bits de bus de datos como el Intel 8086, el Intel 80286 aunque debe destacarse que este último es mucho más sofisticado y rápido. - µP de 32 bits de procesamiento y 32 bits de bus de datos como el Intel 80386, 486 y PENTIUM. -

Capacidad de direccionamiento: la capacidad de direccionamiento de memoria de los µP anteriormente citados son de 2^16 (64 Kb), 2^20 (1Mb), 2^24 (16 Mb), 2^32 (4 Gb).

- Número de instrucciones: el número de instrucciones que es capaz de comprender y manejar un µP determina su potencia y facilidad de manejo. El número de instrucciones depende de cada µP, pero éstas generalmente comprenden los siguientes tipos: ? ? ? ? ?

Instrucciones de transferencias de datos. Instrucciones de transformación de datos. Instrucciones de ruptura de secuencia. Instrucciones de entrada/salida. Instrucciones de control.

- Velocidad de un µP: los microprocesadores ejecutan sus instrucciones secuencialmente, en forma sincrónica con un reloj que fija el ritmo. La velocidad de este reloj será la que determinará la cantidad de instrucciones que un µP puede realizar en la unidad de tiempo, pero los µP tienen un techo máximo de frecuencia. Las frecuencias del reloj (clock) interno del µP van desde 1 MHz, y han evolucionado desde 4.77 MHz en 1980 a 1000 MHz en el año 2000, en los microprocesadores Intel. Como opera un microprocesador?: Un microprocesador opera básicamente fijando el comienzo de la dirección de memoria desde donde se va a ejecutar el programa, cargando dicho valor en el contador de programa (PC) e interpretando y ejecutando secuencialmente las instrucciones, incrementando el PC y buscando una nueva instrucción. De acuerdo con las características de las instrucciones su decodificador de instrucciones le permitirá diferenciar instrucciones de datos, según corresponda. ?

Memorias RAM y ROM

Se denomina "elemento de memoria" a cualquier dispositivo que tenga capacidad de "recordar" información almacenada en el mismo durante un intervalo de tiempo relativamente grande. El elemento básico de información es aquél cuya capacidad es la de recordar un bit de información, es decir, almacenar un cero o un uno hasta tanto esa información sea modificada desde el exterior. La necesidad de contar con elementos capaces de almacenar grandes cantidades de información lleva al desarrollo de distintos tipos de almacenamiento masivo, pasando de las antiguamente populares memorias de núcleos magnéticos a los modernos medios semiconductores de almacenamiento de información, favorecidos en gran medido por los avances en las técnicas de integración a gran escala. Tipos de memoria Pueden establecerse distintas clasificaciones de acuerdo al criterio adoptado, consideraremos la clasificación según la persistencia de la información almacenada. Dentro de esta clasificación debe tenerse en cuenta una subclasificación, según se tome como referencia la tensión de alimentación del sistema de memoria, o la reacción del mismo a la lectura de la información almacenada. Si se toma como referencia la tensión, las memorias serán: no volátiles o muertas (ROM) y volátiles o vivas (RAM). NOTA TECNICA - Memorias No Volátiles (ROM) Se denominan memorias no volátiles a aquellas en las que la información almacenada no se pierde aún cuando desaparezca la tensión de alimentación. Esto significa que al volverse a alimentar el sistema, la información almacenada será la misma que existía antes de desaparecer la tensión. Dentro de esta división existen: Unidad temática: Hardware - Página 10

Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002

- Las memorias ROM (Read Only Memory: memorias sólo de lectura), son grabadas por el fabricante del CHIP, con los datos proporcionados por el usuario y es imposible alterar su contenido; por lo tanto sólo es posible leerlas. A esta categoría pertenecen los intérpretes y sistemas operativos integrados, los generadores de caracteres y toda otra información convenientemente depurada y que por ser necesarias en grandes series hagan económico su uso. - Las memorias PROM (Programables Read Only Memory). Estas memorias pueden ser grabadas por el propio usuario; pero una vez grabado, su contenido permanece inalterable, ya que su grabación se realiza fundiendo unos fusibles internos integrados. Su utilización está restringida a aplicaciones finales de pequeñas series. - Las memorias EPROM (Erasable Programable ROM). Este tipo de memorias pueden ser también programadas por el usuario, con la particularidad de que pueden ser borradas hasta unas quinientas veces. Existen dos tipos: los llamados simplemente EPROM, cuyo contenido puede ser alterado aplicándoles un fuerte campo de radiación ultravioleta durante unos minutos, contando para ello con una ventana de cristal de cuarzo que hace visible el CHIP desde el exterior. Son los más utilizados en la actualidad y su capacidad aumenta de año en año; como referencia diremos que existen EPROM de 64 bytes, es decir, más de 512.000 celdas. - El otro tipo existente se denomina EEPROM (Erasable Electricaly PROM), cuyo contenido puede alterarse eléctricamente. Actualmente se encuentran en expansión y su capacidad es pequeña todavía, pero son las memorias del futuro. Tanto las EPROM como las EEPROM tienen su aplicación en sistemas de desarrollo no totalmente depurados o aplicaciones de muy pequeñas series (aplicaciones personales). Memorias Volátiles (RAM) Se denominan memorias volátiles a aquellas que pueden ser grabadas y leídas un número indefinido de veces, a este grupo pertenecen las memorias RAM (Random Access Memory). El contenido de estas memorias permanece mientras permanece la tensión que las alimenta, la desaparición de la tensión produce la pérdida completa y definitiva de la información almacenada. Este tipo de memoria se utiliza para almacenar información y programas de usuario, se las denomina memoria de trabajo. Las memorias RAM varían entre 64 KB, pasando por 256, 512, 640, 1024, 2048 y 4096 en los equipos chicos y medianos, mientras que en equipos de mayor envergadura se pueden tener valores de memoria RAM de hasta 4 GB. ?

INTERFACES SERIE Y PARALELO

Las interfaces constituyen el medio por el cual los periféricos se conectan a la CPU. Existen interfaces de aplicación general para distintos usos (serie y paralelo) aunque muchos periféricos requieren de interfaces específicas. Las interfaces series generalmente responden a una especificación estándar denominada RS-232C, son muy comunes y permiten la conexión de terminales, ratones, lápices ópticos, scaners, modems, sistemas de adquisición de datos, impresoras y plotters. Por el tipo de periférico que pueden admitir se deduce que son tanto de entrada como de salida. Un mismo equipo puede contar con una o varias de ellas, identificándose como COM1:, COM2:, etc. Su principal característica es que la información se transmite, básicamente, por un sólo conductor o cable (uno para los datos de entrada, otro para los de salida y un cable común) es decir que los datos se transmiten uno a continuación del otro, en un modo denominado asincrónico en que se debe establecer la velocidad de comunicación y una convención respecto de la información que se envía o recibe. Las interfaces paralelas generalmente responden a una especificación estándar denominada CENTRONICS, permiten la conexión, principalmente, de impresoras y plotters. Estas interfaces son de salida. Un mismo equipo puede contar con una o varias de ellas identificándose como LPT1:, LPT2:, etc. Su principal característica es que la información se transmite, básicamente, por varios conductores simultáneamente (en paralelo) en un modo denominado sincrónico. Existe también una interfase de alta perfomance –que podría considerarse como interfase de tipo paralelo- denominada SCSI (Small Computer System Interface), que se pronuncia “scasi”, incluye una tarjeta que se instala dentro de la computadora y puede conectar hasta siete periféricos tales como: Discos rígidos de alta velocidad, grabadoras de CD-ROM, Scanners, etc. La desventaja de esta interfase es que requiere abrir la PC para instalar la controladora y son bastante caras. La ventaja es el alto rendimiento en velocidad que se obtiene con esta conexión.

Unidad temática: Hardware - Página 11

Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002

Las computadoras más modernas incluyen un nuevo tipo de interfase serie, denominada USB (Universal Serial Bus) que puede conectar hasta 127 dispositivos externos en total, tales como cámaras web, scanners, impresoras, etc. La interfase USB soluciona las confusiones que tienen algunos usuarios con las interfases serie y paralelo, usando un unico tipo de conector para todos los periféricos, pudiendo conectar un dispositivo USB a otro como si se tratase de una cadena. No requieren reiniciar la computadora para que el sistema reconozca los nuevos dispositivos, gracias a una nueva tecnología de conexión. Sólo debe conectarse y el equipo detectará automáticamente el nuevo dispositivo y comenzará la instalación del software necesario.Tampoco en necesario apagar la computadroa para desconectar un periférico ? Periféricos

de entrada

La CPU es incapaz, por sí misma, de comunicarse con el medio exterior, ya sea para recibir información como para devolverle información al usuario. Se denominan periféricos a las unidades exteriores a la CPU y que permiten su comunicación para el usuario. Los periféricos de entrada son los que permiten al hombre dialogar con el equipo, ingresando información: instrucciones, comandos, programas, datos, elecciones, etc. Debemos tener en cuenta, antes de comenzar una pequeña descripción de los principales periféricos, que toda la información que maneja una computadora es de tipo digital o discreta (ceros y unos). En cualquier caso la información a recibir, sea digital o analógica, debe ingresar por los correspondientes convertidores, adaptadores o interfaces.

-Teclados Los teclados son actualmente el medio de entrada por excelencia. A pesar de que en éstos el principio de funcionamiento se basa en interruptores, existen decodificadores, teniendo la CPU una información que depende de la posición que este interruptor (tecla) ocupa dentro del teclado. Existen teclados decimales, hexadecimales y alfanuméricos. La disposición de las teclas en los teclados alfanuméricos es parecida a los de las máquinas de escribir, existiendo dos configuraciones principales: la conocida como QWERTY (la más popular) y la conocida como ASERTY, correspondiendo la sigla a las primeras cinco teclas de la segunda fila de caracteres. Las principales características que definen un teclado para su utilización en informática son: - Tipo de Tecla: ésta es una de las características más importantes ya que determina la profesionalidad y el precio del teclado. Existen modelos denominados Soft-touch (toque suave) en las que los interruptores son láminas metálicas blandas recubiertas de una membrana plástica. Su utilización es incómoda pero son muy baratos y se emplean en sistemas de seguridad ya que al ser impermeables y herméticos no corren riesgos (por ejemplo: derramamientos accidentales sobre el teclado, polvo, etc.). A continuación de los teclados de toque suave, vienen los tipos calculadora, que representan una pequeña mejora respecto de los anteriores y luego de éstos, los teclados de teclas móvi les o de gran recorrido, que son los preferidos para aplicaciones profesionales, tratamientos de textos, etc. - Cantidad de teclas: en este punto lo importantes es la cantidad de teclas con que cuenta el teclado, además de las alfanuméricas correspondientes, es decir teclas de funciones, teclado numérico separado también llamado Key-Pad, teclas especiales para otros lenguajes como acentos y ñ, recordando que el teclado universal de computación es de sistema anglo-sajón. El primitivo teclado de la IBM/PC contaba con 83 teclas; los más modernos tienen 101 y hasta 103 teclas y se denominan "enhanced" (mejorados) ya que tienen mayor cantidad de teclas de función y teclas separadas para el control del cursor. Estos teclados se impusieron con la aparición de las IBM/AT. Actualmente y a pesar de la supremacía del teclado como medio de entrada de información, han aparecido otros medios que lo sustituyen o complementan.

-Raton (Mouse) Otro medio de ingreso de información muy difundido es el llamado ratón (mouse) que permite desplazar el cursor en la pantalla del monitor en forma continua y simple, deslizando un dispositivo pequeño que está unido al ordenador mediante un cable, sobre una superficie cualquiera. Este movimiento acciona una esfera que modifica la posición de unos potenciómetros dentro del mismo, generando una señal analógica que es convertida a digital dentro del ordenador. Cuando el cursor se encuentra en la posición apropiada, se acciona una tecla, sobre el mismo dispositivo, llevándose a cabo la acción deseada. Los primeros equipos en utilizar en forma estándar este dispositivo fueron el Lisa y el Macintosh de APPLE. Actualmente, cualquier equipo IBM o compatible, con una interface serie, puede utilizar un ratón. Debe tenerse presente que los programas deben estar preparados para utilizar este medio alternativo de ingreso de información.

Unidad temática: Hardware - Página 12

Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002

-Lápiz Optico Otro medio de entrada de datos muy utilizado es el lápiz óptico el cual permite al operador trabajar directamente sobre una pantalla, indicando posiciones o dibujando sobre la misma, según el programa que se esté ejecutando. El lápiz óptico trabaja con un detector de luz muy sensible que permite al ordenador determinar la posición que esté señalando el lápiz, por comparación con el barrido horizontal del monitor.

-Lector de Código de Barras Otro dispositivo de entrada de gran proyección en la actualidad es el lector de código de barras que puede determinar, por las variaciones de la luz que se refleja en barras negras y espacios blancos (verticales), información codificada. Es de fácil empleo para la toma de información con un grado de error muy inferior al ingreso manual y mucho más rápido. Los lectores de códigos de barras pueden tener la forma de un lápiz, donde la técnica de lectura es óptica, mientras que otra posibilidad son las denominadas pistolas laser, las cuales emiten un haz que lee el código de barras. Estas, si bien son mucho más onerosas que los lápices, son a menudo la única solución cuando la cantidad de lecturas es importante.

-Pantallas sensibles al tacto Existen las pantallas sensibles al tacto, que están constituídas por hileras de emisores infrarrojos y los correspondientes sensores que pueden detectar cuando un haz de radiación infrarroja se corta y pueden determinar la coordenada horizontal y la vertical, obrando a consecuencia. Este sistema no llegó a imponerse y era empleado en los equipos Hewlett-Packard HP-150.

-Digitalizador Otro sistema menos conocido, pero de gran aplicación en el tratamiento de imágenes mediante ordenador es el "digitalizador" o "tableta gráfica": se trata de una superficie plana, generalmente de plástico rígido, sobre la que se puede trazar cualquier cosa que se necesite, o bien, por ejemplo, apoyar un dibujo para calcarlo mediante un elemento específico que incorpora. Para dibujar sobre esta "tableta" se utiliza un dispositivo similar a una pluma que tiene un cable que lo une a la tabla; trazando con la pluma un dibujo sobre el plano, la tablilla va transmitiendo al ordenador las sucesivas posiciones que va adoptando la pluma en forma de los valores de sus coordenadas X-Y sobre la tabla. El ordenador está en condiciones de utilizar solamente las informaciones numéricas, es decir, que cualquier información (incluyendo los dibujos) debe traducirse a números para que el ordenador pueda entenderla. Otro principio de funcionamiento del digitalizador consiste en un brazo articulado, fijado a una mesa de trabajo; en las articulaciones existen resistencias variables (potenciómetros) los que una vez decodificados permitirán encontrar las coordenadas que indica el punto de trabajo; éste puede ser una aguja o una retícula con una lente de aumento. Cuando el punto de trabajo está convenientemente localizado se envía una señal del ordenador para que determine la posición y la almacene.

-Scanners Estos dispositivos pueden leer, en modo semejante al de una fotocopiadora, información gráfica por rastreo. Existen en distintos tamaños, precio y prestaciones. Es de resaltar que aún los más económicos, denominados manuales y de media página (el ancho que pueden leer de una sola pasada), pueden solapar información y reproducir imágenes de ancho mayor al físico. Otra característica muy importante de estos dispositivos es que no se limitan solamente a la reproducción gráfica: con los programas apropiados pueden convertir la información gráfica correspondiente a un texto, en un texto editable, es decir modificable mediante una sofisticada técnica de reconocimiento gráfico de caracteres (OCR). Los scanners pueden ser de media página o de página completa de acuerdo al ancho de papel barrido. Los de media página generalmente se deben desplazar en forma manual, mientras que los de página completa se desplazan sobre un rodillo en forma automática. La otra especificación que se debe tener en cuenta es si el scanner es color o blanco y negro. En ambos casos además de ello, se debe determinar cual es la reolución, entendiendose como resolución la cantidad de puntos que definen una unidad de medida (denominada DPI: Puntos por Pulgada.)

-Joystick Finalmente describiremos el Joystick, el medio de entrada por excelencia en cuanto a juegos se refiere; éste consiste de cuatro contactos (interruptores o microswitch) dispuestos en forma de cruz y accionados a través de una palanca permitiendo seleccionar las cuatro direcciones básicas (adelante, atrás, izquierda y derecha) y cuatro direcciones auxiliares cuando hacen contacto dos direcciones principales simultáneamente, es decir direcciones intermedias. Los joysticks o palancas de mando siempre cuentan Unidad temática: Hardware - Página 13

Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002

también con un pulsador, generalmente de disparo o acción. La información de interruptores y pulsador es leída digitalmente por la CPU, que obra en consecuencia. ? Periféricos

de salida

En el apartado anterior vimos los dispositivos que permiten al hombre comunicarse con una computadora. Ahora haremos una breve descripción de los principales periféricos que permiten al usuario recibir información desde una computadora.

-Teleimpresor El teleimpresor fue uno de los pioneros de los periféricos de comunicación hombre-máquina. Servía para introducir información a través de un teclado y editarlo gracias a una impresora. Normalmente dispone de un lector-perforador de cinta, útil para introducir programas previamente grabados o crear bandas perforadoras. Generalmente se conocen como teletipos (Teletype es una marca registrada). Su velocidad máxima es de 10 caracteres por segundo. Actualmente están en desuso.

-Monitores Los monitores o terminales con pantallas de rayos catódicos reemplazaron a los teleimpresores por ser un excelente medio de comunicación hombre-máquina. En los computadores domésticos u hogareños se sustituyen los monitores por televisores convencionales, en los que la definición de la imagen se empobrece bastante en comparación con un monitor, debido a las transformaciones a que se somete la señal generada por la CPU hasta que es visualizada, muchas de estas transformaciones se evi tan en los monitores, generando una imagen mejor definida que las hace imprescindibles en las aplicaciones comerciales o científico-gráficas. Las propiedades que definen las características de los sistemas de pantalla no son una propiedad del monitor de vi deo propiamente dicho, sino también es un atributo del controlador de vi deo que está en la computadora y que se debe complementar con el monitor. Los parámetros básicos que definen las características de un terminal de video que trabaja en "modo texto" son: cantidad de caracteres por renglón (23, 32, 40, 64, 76, 80, 132) y la cantidad de renglones por pantalla (16, 24, 25, 43, 50). Cuando se trabaja en "modo gráfico" el parámetro principal es la cantidad vertical y horizontal de puntos que pueden visualizarse en la pantalla (resolución). Estos puntos se denominan pixels (del inglés: picture celds). Un atributo inherente al monitor es su tamaño, dado en pulgadas de su diagonal (5", 9", 10", 12", 14", 15", 17" 20"). Los monitores de 5" a 10" son para aplicaciones especiales, no siendo recomendados para tareas normales y habituales. Lo ideal, teniendo en cuenta confort y costo, es un monitor de 14", excepto cuando de deba trabajar con alta resolución gráfica, en cuyo caso se hace necesario un monitor de mayor tamaño, aunque los costos son bastante superiores. También se hacen diferenciaciones, por supuesto, entre los monitores color y los monocromáticos (de fósforo blanco, ámbar o verde). Los de fósfora ambar y verde se han dejado de fabricar, ya que no sólo cansan la vista, sino que se "quema" la misma pantalla del monitor con la emisión de la imágen. Existen en la actualidad una gran variedad de adaptadores de video que proporcionan diferentes resoluciones y distintas prestaciones respecto del uso del color. La mayoría de los adaptadores responden a estandarizaciones realizadas por la empresa IBM. Los primeros PC estaban equipados con un adaptador MDA (Monocromo Display Adapter) que no permitía el modo gráfico ni el color, a pesar de que su modo texto era de muy buena resolución. Posteriormente aparecieron los adaptadores CGA (Color Graphic Adapter), estas tarjetas con su correspondiente monitor, permitían una utilización limitada del color, un modo texto con definición muy pobre y un modo gráfico de hasta 640 x 200 pixels con 2 colores y 320 x 200 con 4 colores. Para suplir las deficiencias de ese adaptador apareció en el mercado, aproximadamente en 1982, el adaptador HERCULES comercializado por Van Suwannukul, que permitía un modo texto de calidad igual al MDA de IBM y una resolución gráfica de 720 x 348 pixels, a pesar de ser monocromo, con un precio muy accesible. En 1984 IBM lanza al mercado el adaptador EGA (Enhanced Graphic Adapter) que permitía un modo texto de buena definición y modos gráficos que llegaban a 640 x 350 pixels con hasta 16 colores. Este adaptador no se popularizó porque su tecnología resultaba demasiado cara para las prestaciones que ofrecía. A posteriori, en 1987, IBM presenta la norma VGA (Video Graphic Array) con una resolución de 640 x 480 pixels con hasta 16 colores o 320 x 200 con 256 colores a precios muy inferiores a los correspondientes a la norma EGA por emplearse distinta tecnología. Actualmente el máximo está representado por los adaptadores Súper VGA o VGA Plus (SVGA) que permiten resoluciones de 800 x 600 y hasta 1024 x 768 con una cantidad de colores simultáneos limitados por la cantidad de memoria presente en el adaptador. Lamentablemente, debido a que el desarrollo de los Súper VGA fueron realizados en forma independiente Unidad temática: Hardware - Página 14

Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002

por varios fabricantes, no existe una normalización o estándar en esta tecnología, por lo que cada fabricante debe suministrar los recursos específicos para que el adaptador funcione con distintas aplicaciones. Las tarjetas de video más limitadas tienen 256 KB de memoria (prácticamente no se consiguen en el mercado) las tarjetas actuales tienen una base de 1 ó 2 MB de memoria, generalmente expansibles a 4 u 8 MB. Para una buena resolución (800x600) y alta densidad de colores 16 o 32 bits, se debe considerar un mínimo de 2 MB. Las ultimas novedades en el mercado de las tarjetas de video corresponden a las aceleradoras gráficas 2D y 3D, indispensables para programas muy exigentes como los juegos de alta resolución y el software de diseño gráfico. Estas tienen cantidades de memoria muy elevadas (8, 16 y hasta 32 MB) y procesador propio. Las tarjetas se conectan a través de los slots de expansión de las computadoras. Las primeras se conectaban mediante slots denominados ISA de 16 bits. Las más recientes lo hacen mediante slots PCI de 32 bits, por lo que son más rápidas. La última generación de tarjetas de video para las máquinas más modernas utilizan un puerto especial de las computadoras denominado AGP (Advanced Graphic Port) que permite una mayor velocidad en la transferencia de la información gráfica. Cuando se trabaja interactivamente, los monitores o display de video son el medio más adecuado; cuando se necesita tener documentación de un resultado de un programa o un listado del mismo se debe recurrir a una impresora.

-Impresoras Existen en la actualidad una gran cantidad de tipos de impresoras e innumerables formas de clasificarlas. Podemos decir que hasta hace poco tiempo las im presoras más comunes eran las impresoras matriciales, en las que los caracteres o formas nacen de una matriz de puntos o agujas (8 ó 9 agujas como mínimo y 24 como máximo, dependiendo de la calidad y precio) que golpean una cinta entintada sobre un papel. Existen impresoras matriciales que no trabajan por impacto sino por temperatura operando sobre papel termosensible especial, aunque el principio es el mismo que para las de papel común. Las impresoras matriciales pueden ser mono o bidireccionales (es decir que imprimen al ir y al volver) con arrastre de papel por tracción (formularios continuos perforados) o por fricción (hojas sueltas); la velocidad de operación varía entre 80 y 300 o más cps (caracteres por segundo); el ancho del carro de las impresoras determina la máxima cantidad de caracteres por línea que pueden imprimir, siendo los valores convencionales los de 80 caracteres para impresores de 9 pulgadas de ancho y 132 caracteres en las de 15 pulgadas. Debe tenerse presente que estos valores corresponden a 10 caracteres por pulgada (CPI), que es el valor estándar aunque estas impresoras pueden reducir o aumentar esa densidad de caracteres entre límites bastante amplios: 5 CPI o menos y 16 CPI o más dependiendo de la impresora. Las impresoras matriciales se prestan para todo tipo de aplicaciones, son muy robustas, rápidas y económicas. La calidad de impresión de este tipo de impresoras no siempre reúne los requisitos de presentación que son deseables en cartas y documentos, aunque en la actualidad las impresoras matriciales de bajo precio, disponen de tipos de letra de alta calidad a velocidades de impresión más baja. También existen impresoras matriciales que pueden imprimir en distintos colores. De todos modos, hoy en día sólo se usan en aplicaciones especiales o cuando se requieren duplicados al carbónico. Actualmente, otro tipo de impresora denominada chorro de tinta ha tomado el liderazgo del mercado. Estas impresoras son muy versátiles al poder generar cualquier caracter y son sumamente silenciosas, lo que las hace atractivas en algunas aplicaciones. Su principio de funcionamiento consiste en disparar gotas de tinta para modelar el caracter a imprimir. La tinta es conducida a través de una boquilla que la dispersa en gotas diminutas, estas gotas atraviesan luego un electrodo y reciben una carga eléctrica. Un par de placas metálicas desvían luego las gotas en distintas direcciones, para modelar la forma del caracter. Obviamente pueden trabajar con distintos colores de tinta. Un segundo mecanismo se denomina de burbujas y consiste en que el cabezal de impesión incorpora una serie de inyectores con un pequeño dispositivo calórico que, al calentarse, forma diminutas burbujas de vapor. Debido a la variación de volumen que sufre la tinta en los tubos al recibir una corriente eléctrica de muy corta duración mediante un electrodo, estas burbujas estallan y provocan el chorro de tinta. Es la propia contracción de la burbuja la que impulsa la tinta hacia el inyector. En ambos mecanismos la proyección de la gota sobre el papel forma la imágen. El cabezal tiene un número de tubos montados que avanzan sobre la línea a imprimir, de modo que al expulsar cada tubo una gota, el carácter o la imágen se forma por medio de una matriz de puntos. A mayor número de tubos, mayor será la resolución. Los modelos de 24 inyectores, considerados de gran calidad, han sido superados por los de 48 y 64 inyectores que alcanzan resoluciones de 640, 720 y hasta 1440 puntos por pulgada a costos realmente muy bajos. Unidad temática: Hardware - Página 15

Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002

Para trabajo muy pesado se utilizan las impresoras de líneas en las que la impresión no se hace caracter a caracter, sino línea a línea, es decir, se prepara el renglón completo de escritura y se imprime de una sola vez, su velocidad se mide en líneas por minuto. Para trabajos mayores aún se emplean las impresoras láser o impresoras de página que trabajan por un proceso semejante al fotocopiado. Consta básicamente de un motor que contiene un tambor fotosensible cubierto por una película de carga eléctrica balanceada. Cuando se expone a la luz, la carga en la superficie cambia, determinando un área de exposición en la cual la imagen se pinta sobre el tambor por medio de un haz laser u otra tecnología. Además el sistema tiene un dispositivo revelador que contiene unas pequeñas bolillas de plástico que transmiten carga eléctrica a las partículas del toner y las transportan al tambor, donde son atraídas por los puntos de la superficie del tambor que deben ser impresos. Simultáneamente, el papel, pasa por una película que cubre el tambor, lo cual le da sufucuente carga eléctrica como para atraer el toner. A medida que el papel pasa por el tambor, el toner se adhiere al papel. Luego se limpia el tambor de cualquier exceso de toner yla película que o recubre borra la imagen para permitir que llegue otra. El papel continúa avanzando y pasa entre dos cilindros giratorios que lo someten a presión y calor durante una décima de segundo para que el toner se derrita y adhiera al papel. De esta manera se obtiene la impresión que pasa por la bandeja. Las impresoras laser ofrecen la máxima calidad de impresión, la resolución llega a ser de 600 o más dpi (puntos por pulgada). Además existen modelos que incorporan distintos tipos de bandejas, impresión en ambos lados del papel, mayores tonalidades intermedias y utilización de tamaños de papel de hasta 11 x 17 pulgadas. La velocidad de impresión varía, pudiéndose imprimir desde 4 a 7 páginas por minuto en las de tamaño escritorio de bajo costo y hasta 96 o más páginas por minuto en las impresoras centrales.

-Plotters Si bien gran cantidad de impresoras posee órdenes que permiten obtener una copia del contenido gráfico de una pantalla de visualización, los ingenieros, científicos y diseñadores requieren que ésto se realice con un grado de precisión que no puede suministrar una impresora convencional. El único dispositivo que puede crear estas imágenes es un trazador de gráficos o plotter. Los trazadores de gráficos funcionan de una forma completamente distinta a las impresoras: trazan líneas entre dos puntos en lugar de partir de formas preestablecidas o modelos de puntos. El principio básico con el que funcionan es un sistema de coordenadas X,Y. Trabajan utilizando plumas intercambiables, pudiendo por lo tanto cambiar el espesor del trazo para dibujos de planos o utilizar diferentes colores. Sus costos se han reducido lo suficiente como para que los usuarios de microcomputadoras dispongan de esta facilidad que antes estaba limitada a aplicaciones de gran presupuesto. Los plotters varían esencialmente de acuerdo a su tamaño, siendo éstos coincidentes con los tamaños de planos normalizados por las normas IRAM. Así están los plotters A4 (297 x 210 mm), A3 (420 x 297 mm), A2 (768 x 420 mm), A1 (1024 x 768 mm) y A0 (1268 x 1024 mm). Obviamente que el costo está en relación directa al tamaño del plotter. Otro factor a tener en cuenta son la cantidad de plumas que pueden imprimir en forma simultánea.

-Demoduladores de voz A pesar de que por el momento el reconocimiento de voz como entrada de información aún no está lo suficientemente desarrollado, la síntesis de voz es más sencilla y muchos equipos disponen de sintetizadores de voz para exteriorizar información o instrucciones.

-Modems Son de gran importancia para la transmisión de datos a distancia. La denominación de modem deriva de la función que desempeña este dispositivo: MOdulador-DEModulador. Los modems acondicionan la información binaria del ordenador para que pueda ser transmitida a través de la línea telefónica. Concretamente el modem recibe los datos del ordenador (por ejemplo, en formato paralelo), los transforma en datos serie y, mediante una codificación determinada, los envía por la línea de comunicación telefónica. En el sentido opuesto, el modem recibe los datos a través de la línea en serie y los transforma al formato adecuado para suministrarlos al ordenador. Los modems son por lo tanto periféricos de salida en su zona de modulación y periféricos de entrada de datos en su zona de demodulación. Los modems han adquirido una gran importancia, por el auge de las comunicaciones remotas, ya sea a BBS (sistema donde existen diferentes tipos de información) o a redes internacionales como por ejemplo la denominada INTERNET.

Unidad temática: Hardware - Página 16

Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002

Los modems pueden ser internos o externos. En el primer caso, internos, se conectan en el interior de la computadora, de modo, que sólo sirve para ese equipo, mientras que los externos se conectan con el puerto serie de la computadora, pudiendo ser usado en ditintos equipos. Entre las características salientes de los modems figuran: velocidad de transmisión de datos: esta velocidad se mide en una unidad llamada bps (bits por segundo). En la actualidad los modems transmiten a 4800, 9600, 14400, 28800, 33600 y 56000 bps, entre las velocidades más utilizadas. Hay que tener en cuenta que la velocidad depende también de que el tráfico en la línea telefónica lo permita. Protocolos de corrección de errores: Su funcionamiento consiste en enviar un paquete de información y preguntar al otro modem si la cantidad de información recibida es igual a la enviada. De no ser así el modem reenviará dicho paquete. El protocolo de corrección de errores más difundido es el reconocido por las normas CCITT. (Comité Consultivo Internacional para la Telegrafía y Telefonía). Protocolos de compresión de datos: se usa para ganar velocidad. El modem antes de transmitir comprime la información, de manera tal que la información a transmitir es menor, realizando el otro modem el proceso inverso. El modem debe trabajar con culaquiera de los dos protocolos más recomendados: el MNP (Microcomm Networking protocol) y el LAPM (Link Access Procedure for Modems). Soporte de fax: Tienen la posibilidad de enviar y recibir faxes y comercialmente se los denomina modemfax. Todos los modelos nuevos tienen la posibilidad de enviar, pero no todos tienen la posibilidad de recibir. No siempre un modem transmite a la misma velocidad datos y fax. NOTA TECNICA: Interfaces industriales. A medida que los procesos industriales se van haciendo cada vez más complejos, la automatización y el control de los mismos requiere el empleo de ordenadores. En estas aplicaciones el ordenador tiene que comunicarse no sólo con el operador sino, además, con otros elementos del sistema que le van a suministrar los datos (elementos de entrada), o que van a recibir las órdenes (elementos de salida). Normalmente los elementos de entrada, denominados sensores, pueden ser: Termopares o termorresistencias para medir temperatura, Medidores de presión, Medidores de humedad, Medidores de caudal, Medidores de nivel, Señales de contactos abiertos o cerrados procedentes de interruptores y Todo tipo de elementos que suministren una señal analógica en forma de tensión o intensidad, proporcional a una medida. Como elementos de salida tenemos: relés, electroválvulas, motores, lámparas. Entre estos elementos y el ordenador hay que colocar un periférico que traduzca sus señales de tipo analógico a señales de tipo digital, de forma que puedan ser procesadas por el ordenador. Este tipo de periféricos se denominan tarjetas de interface industrial. ? Unidades

de almacenamiento

En los primeros tiempos de la informática se consideraba memoria masiva a prácticamente cualquier soporte capaz de registrar información con persistencia (incluidos medios perforables). Más adelante se exigieron otras características, referidas básicamente al volumen y a la posibilidad de acceso a la información; estas propiedades sólo las cumplían ciertos tipos de soportes magnéticos como los tambores, las cintas y los discos. Actualmente se están realizando investigaciones para llegar a nuevas memorias de masa que resulten más productivas que las actuales. En algunos casos el estado de las investigaciones está produciendo resultados importantes que permiten predecir como serán las memorias de masa del futuro, teniendo en cuenta que el futuro en esta disciplina es dentro de cinco o seis años, poco más.

-Unidades de disco Actualmente los discos son el principal medio del almacenamiento para aplicaciones que requieren un acceso rápido a los datos en forma aleatoria (es decir en cualquier orden). Al hablar de discos hay que hacer una primera clasificación: ? ? ?

Discos rígidos, duros o fijos. Discos flexibles. Discos ópticos.

Unidad temática: Hardware - Página 17

Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002

- Discos rígidos Los discos rígidos suelen estar constituídos a partir de una base de aluminio recubierta de un material magnético sobre el que se graban los datos. Los tamaños normalizados que se emplean en microcomputadoras son de 5.25 y 3.5 pulgadas, siendo éstas las medidas de su diámetro. Los discos rígidos pueden ser fijos o removibles. Los discos fijos vienen ya en su unidad de lectura y escritura y no pueden extraerse de la misma. Las capacidades más comunes de los discos fijos en la actualidad son de más de 4 a 6 GB, existiendo discos de 10, 20 y hasta 30 GB a precios accesibles. Los discos removibles vienen normalmente en un contenedor especial para facilitar su manejo, denominado diskpack. Los discos rígidos suelen ser de tecnología Winchester (lanzada por IBM en el año 1973), caracterizada porque la cabeza de lectura no toca físicamente al disco, sino que, por el efecto aerodinámico de rotación del disco a una velocidad de unos 3500/4500 r.p.m. el aire arrastrado hace que la cabeza de lectura permanezca suspendida a unas micras de distancia del disco, distancia suficientemente pequeña para que los datos puedan leerse y escribirse. Actualmente existen discos rígidos que giran a 7200 r.p.m.

- Discos flexibles Los discos flexibles están hechos de material plástico de Mylar, recubierto de una capa de óxido magnético. Poseen un agujero central que les sirve para encajar en el mecanismo de rotación y un pequeño agujero de control en sus proximidades, que sirve como índice para referenciar el comienzo de cada pista. El disco se protege mediante una cubierta de plástico cuyo interior es antiestático y autolimpiante. Una abertura en este envoltorio de protección, permite a la cabeza lectora tener acceso a los datos. Existían tres tamaños de discos flexibles: ? ? ?

8 pulgadas. 5 y 1/4 pulgadas. 3.5 pulgadas.

Actualmente sólo se comercializan los de 3,5” que, a pesar de su tamaño, debido a la densidad de grabación tienen mayor capacidad que los discos más grandes. Las capacidades de los discos flexibles se encuentran es de 1,44 Mb. La lectura de la información contenida en el disco flexible se realiza mediante la cabeza lectora que entra en contacto directo con el disco a través de la ranura practicada en la funda de protección. Hay que abstenerse, por tanto, de tocar los discos sobre dicha ranura. Los discos deben ser protegidos del polvo, cenizas y partículas en general, así como de las temperaturas elevadas que pueden causar su deformación, induciendo a errores en la lectura de los datos. La información se graba en el disco sobre pistas circulares, no en forma de espiral como ocurre en un disco de música. Para pasar a leer la información de una pista a otra, la cabeza lectora debe desplazarse concéntricamente. El disco se considera dividido en varias secciones llamados sectores. Un sector es la parte mínima de disco que el sistema es capaz de leer o escribir. Un sector de una pista contiene 256 bytes de información en un disco flexible, y 256 ó 512 bytes de información en un disco rígido. NOTA TECNICA - Características de los discos magnéticos - Capacidad total de almacenamiento: Es la cantidad de bits de información que puede almacenar el disco y, por tanto, una de sus características más importantes. Los discos rígidos tienen mayor capacidad que los flexibles, debido a su propia tecnología; el aluminio tiene menor deformación con los cambios de temperatura que el material plástico y, por tanto, sus pistas pueden estar más próximas unas de otras. La capacidad, además de depender del tamaño del disco, está condicionada también por otras características que se verán a continuación. - Número de pistas: Es el número de pistas circulares en las cuales se almacena la información. Normalmente se indica como característica la densidad de pistas; ésto es el número de pistas por pulgada (TPI). - Número de caras: Los discos pueden estar grabados por una sola cara o por las dos caras, con lo que aumenta la capacidad de almacenamiento.

Unidad temática: Hardware - Página 18

Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002

- Número de cabezas (o discos montados sobre un mismo eje): En el caso de los discos flexibles depende del número de caras, en los discos rígidos generalmente se montan más discos sobre un mismo eje, existiendo una cabeza lecto-grabadora para cada superficie útil. - Simple, doble o alta densidad: Los discos pueden estar grabados con distinta densidad de información. - Grabación vertical o longitudinal: Los bits de información pueden estar orientados en el material magnético de forma vertical o de forma longitudinal. La tecnología de grabación vertical actualmente sólo es posible en los discos rígidos, pero con esta tecnología se puede llegar a conseguir en el futuro un gran aumento de la densidad de información por pulgada en los discos flexibles. - Velocidad de rotación: Se expresa en r.p.m. y es la velocidad de giro del disco alrededor de su eje. - Tiempo de acceso: Es el tiempo que tarda en pasar de una pista, a posicionarse y empezar a adquirir datos en la pista contigua. - Tiempo medio de acceso: Es el valor medio de los tiempos que tardan las cabezas en distintos movimientos aleatorios entre distintas pistas. - Velocidad de transferencia de datos: Es la velocidad a la que se comunican los datos al ordenador una vez que las cabezas están posicionadas en la pista. Se expresa en baudios o en Kbaudios. Depende de la velocidad de rotación del disco. - Método de grabación: Debido a que actualmente las unidades de disco están controladas electrónicamente por medio de un microprocesador, se incorporan en la propia unidad los sistemas de codificación y decodificación de la información.

- Discos flexibles de alta capacidad Se están comenzando a imponer algunos discos flexibles no estandarizados con una capacidad que va de 100Mb (cuya marca comercial es IOmega Zip) a 120 MB (comercializados por 3M bajo la denominación Superdisk) y hasta 250 MB (el modelo de IOmega llamado SuperZip). Estos discos ofrecen una interesante relación de costo por MB de almacenamiento y son muy confiables para la realización de resguardo o duplicados de información (Back-Ups). Los denominados Superdisk permiten la utilización, en el mismo dispositivo, de discos de 3,5” convencionales de 1,44 MB de capacidad. Los Iomega necesitan de un dispositivo lectograbador espacial que puede ser interno o externo.

Comparación entre discos rígidos y flexibles Los discos rígidos tienen una mayor capacidad de almacenamiento que los flexibles, debido al hecho esencial de la mayor densidad de pistas por pulgada. Sin embargo, los discos flexibles son mucho más manejables que los discos rígidos, siendo su precio muy inferior, así como el costo de la unidad correspondiente de lectura y escritura. De todos modos, actualmente los paquetes de aplicación comercial (programas) imposibilita la utilización de microcomputadoras equipadas sólo con discos flexibles. Estos se emplean más como soporte de transferencia de información y resguardo o duplicados de la información que se almacena en los discos rígidos que incorporan los equipos.

- Discos ópticos Los discos ópticos o láser son el medio de almacenamiento masivo de mayor desarrollo e investigación en este momento por la densidad de información que pueden albergar. Para dar un ejemplo, una cara de un disco compacto que permite grabar una hora de música puede contener 650 MB de datos. Lamentablemente, como en el caso de los "compact disk" musicales, los CD-ROM convencionales no pueden ser borrados y regrabados ya que su proceso de grabación consiste en quemar la superficie del disco por medio de un haz láser. Por el momento se utilizan principalmente para leer información grabada por terceros como enciclopedias, imágenes gráficas y catálogos (se debe tener en cuenta que, por la cantidad de información que pueden contener, los modos de acceso a la información que contienen mediante referencias cruzadas y multi-indexadas, son sumamente sofisticadas). También están disponibles CD-R que pueden ser grabados (una sóla vez) por el usuario mediante lectograbadoras sumamente económicas. Adicionalmente existen los CD-RW que pueden se regrabados un número limitado de veces, aunque el proceso es lento. Actualmente los CD-Rom son superados por un nuevo dispositivo denominado DVD (Digital Video Disk) que permite almacenar desde 4 a 17 GB, abriendo una nueva etapa el las posibilidades de las computadoras . Por ejemplo pueden almacenar una película con traducción simultanea a varios idiomas, con posibilidad de ver escenas desde distintos ángulos o finales interactivos. Y esto es sólo un ejemplo.

Unidad temática: Hardware - Página 19

Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002

E.- Computadoras Personales Por ser uno de los tipos de computadoras de mayor difusión en la actualidad, y además al alcance del gran público, es que este curso está orientado fundamentalmente a las computadoras personales, microcomputadoras o PC. La historia de las computadoras personales se remonta a mediados de la década del setenta, cuando la integración en alta escala posibilitó la fabricación de los microprocesadores. A partir de allí, aparecieron algunas computadoras menores hoy llamadas hogareñas, como Radio Shack, Commodore, etc. En esa época, la firma IBM, ocupada sólo del sector alto del mercado, detectó una importante tendencia hacia los equipos más pequeños y comenzó a trabajar en el desarrollo de una computadora monousuario (personal), pero con prestaciones superiores a las computadoras hogareñas. El resultado fue el IBM PC (Personal Computer). Inusualmente para esa compañía, el equipo no fue desarrollado íntegramente por la empresa IBM, sino que utilizó un arquitectura abierta y componentes de otras empresas, como el microprocesador de Intel, modelo 8088 y un sistema operativo diseñado especialmente para este equipo por la firma MicroSoft, llamado MS-DOS (MicroSoft Disk Operating System). La IBM/PC fue lanzado al mercado en 1980, y su repercusión fue tal que superó ampliamente las expectativas de los propios fabricantes. A partir de allí comenzó a girar en torno del equipo IBM PC, toda una industria de producción de hardware y software, lo que hizo que se convirtiera en el estándar de facto del mercado. Esto trajo aparejado que las demás firmas fabricantes de equipos comenzaran a fabricar computadoras que pudieran operar con el software desarrollado para estos equipos, generando la aparición de las denominadas máquinas compatibles o clowns, que en lo único que se diferenciaban a la IBM PC era en la marca y en el precio. Esta irrupción del PC marcó a fuego la historia de la informática moderna, porque a partir de allí, el desarrollo tanto a nivel hardware como software fue vertiginoso y los precios fueron disminuyendo, lo que contribuyó a la popularidad de las PCs. La IBM PC original tenía una memoria RAM de 64 Kb y una o dos unidades de diskette de 160 ó 180 Kb cada una, operando a una frecuencia de reloj de 4.77 MHz. En 1982, IBM lanza al mercado un nuevo modelo de la línea PC, la PC/XT (eXtended Tecnology), cuya versión estándar tenía una configuración básica de 256 Kb de memoria RAM, una o dos unidades de diskettes de 320 ó 360 Kb de capacidad cada una y permitía la conexión de un disco duro de hasta 32 Mb. Este modelo, al igual que el PC, estaba equipado con el microprocesador 8088 y permitía operar en dos velocidades: la original de 4.77 MHz (para mantener compatibilidad) y otra de 8, 10 ó 12 MHz. En 1984 es lanzada comercialmente la IBM/AT (Advanced Tecnology), equipo basado en el microprocesador 80286 de Intel, que permitía una mayor velocidad de procesamiento que el 8088, y además dos modos de trabajo: el normal, que permite operar como una PC, y el modo protegido, el que permite -con el software necesario- convertir al equipo en multiusuario. Además la configuración básica de este equipo era de 640 Kb de memoria RAM, una o dos disketteras de 1,2 Mb de capacidad, y mayor capacidad en disco rígido. La velocidad de procesamiento era de 6, 8, 10, 12 ó 16 MHz, dependiendo de los equipos. En 1986, IBM lanza al mercado una nueva línea de microcomputadoras, denominada PS/2 (Personal System/2), que se componía originalmente de cinco modelos, el 25, 30, 50, 60 y 80. Con esta línea IBM introdujo una nueva forma de fabricación interna denominada de tecnología cerrada, en contraposición con la tecnología abierta de la línea PC, a efectos de evitar la proliferación de los clowns. Los modelos 25 y 30, en características y prestaciones son similares a las XT; los modelos 50 y 60 equivalentes a las AT; y el modelo 80, equipado con el microprocesador 80386 de Intel, de mayor potencia que el 80286, permitiendo hasta 16 Mb de memoria RAM, una diskettera de 3.5" de 1.44 Mb, capacidad de almacenamiento en discos rígidos de hasta 628 Mb y velocidad de procesamiento de 16, 20 o 25 MHz. En 1988 aparecieron equipos compatibles de la línea PC, equipados con el microprocesador 80386, y en 1990 tuvieron su lanzamiento comercial los primeros equipos basados en el microprocesador 80486 de Intel, que permiten direccionar hasta 4 Gb de memoria RAM, mayor capacidad de direccionamiento de memoria en discos, y operar a una velocidad de 33 MHz. Algunos equipos se basaban en el microprocesador 80386 SX que, con arquitectura interna equivalente al procesador original (que debían llamarse más propiamente 80386 DX), externamente trabajan con canales de comunicación menos complejos que estos, permitiendo la fabricación de equipos que pueden usufructuar modalidades de trabajo propias de los procesadores de 32 bits a precios bastante inferiores, con un pequeño sacrificio de perfomance. También se comercializaron equipos basados en el microprocesador 80486 SX, que es equivalente al microprocesador 80486 DX, pero que no cuenta con coprocesador matemático como este último, siendo Unidad temática: Hardware - Página 20

Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002

por lo tanto más económico y conveniente para aplicaciones que no requieran esta complementación. También existen equipos 80486 denominados DX2 y DX4 que obtienen velocidades dobles a la señalada. La oferta de equipos PS/2 se amplió con equipos basados en el microprocesador 80486, bajo la denominacion de Model 90, y con equipos basados en microprocesadores SX. También ha aparecido en el mercado una línea denominada PS/1, que corresponde a equipos de gama baja, para liberar la línea PS/2 de equipos con prestaciones limitadas, como son el Model 25 y 30. En 1993 hizo su aparición comercial un nuevo microprocesador de Intel, bajo la denominación de PENTIUM, microprocesador con buses de datos externo y de direcciones externas de 64 bits y ancho de palabra de 32 bits. Este componente desarrolla una gran performance manteniendo la compatibilidad con los modelos anteriores. Los prototipos de máquinas basadas en este chip tienen en la actualidad una velocidad de procesamiento de 166, 200 y 233 Mhz. También en 1993 una sociedad formada por IBM, Apple y Motorola produjo un microprocesador denominado PowerPC, como competencia directa al PENTIUM, pero con tecnología distinta (RISC: Reduced Instruction Set Computer) desarrollando una performance similar, con un costo y consumo de energía muy bajo. Este chip no es compatible a nivel de hardware con la línea Intel pero por emulación puede correr el software (programas) desarrollado para aquellos. En 1995 la firma Intel comenzó a comercializar un nuevo microprocesador, correspondiente a la línea P6 (80686 en la identificación numérica), bajo la denominación de PENTIUM PRO. Esta estrategia comercial capitalizó el prestigio de la línea PENTIUM para entregar un chip mucho más poderoso, destinado a estaciones de trabajo de gran envergadura, con velocidad de procesamiento de 150 Mhz llegando hasta 300. Debe destacarse, en ese momento, la presencia en el mercado de los procesadores de 5ta. y 6ta. generación (equivalentes a 80586 y 80686) de productos desarrollados por competidores de Intel como son Cyrix y AMD que competían no sólo en precio sino en calidad y prestaciones, fabricando chips que resultaron alternativas sumamente convenientes al PENTIUM de Intel. Los últimos desarrollos estuvieron orientados a mejorar la perfomance de las computadoras personales en lo que se denomina multimedia. Las aplicaciones que tiene que ver con grandes utilizaciones de sonido de alta calidad, despliegues gráficos como videos y programas de diseño o la utilización de Internet, muestran las mayores falencias de los equipos; debido a esto Intel a desarrollado una extensión específica para sus microprocesadores denominada MMX (multimedia extensions) que optimiza la ejecución de este tipo de aplicaciones. La identificación comercial de estos productos es PENTIUM MMX para los Pentiums tradicionales con esta extensión y PENTIUM II para los Pentiums Pro con extensión MMX que llegan a velocidades de hasta 400 MHz. AMD (American Micro Devices) y CYRIX también entraron en esa variante, comercializando microprocesadores optimizados para multimedia, ya sea bajo licencia Intel o con desarrollos propios. A partir de 1999 Intel inundó el mercado con su microprocesador INTEL PENTIUM III que desarrollaba velocidades de procesamiento de 400, 450 y 500 MHz en los primeros modelos (actualmente esas velocidades arrancan de 550 MHz y llegan hasta 1000 MHz). También la competencia tradicional de Intel, AMD -Cyrix desapareció del mercado- ha evolucionado ofreciendo procesadores con prestaciones semejantes a precios inferiores como el AMD DURON e incluso un procesador totalmente revolucionario, denominado ATHLOM (que fue el primero en superar la barrera mítica de los 1000 MHz). Por otra parte, Intel incursionó en el mercado del bajo precio con el procesador CELERON que tiene características parecidas al Pentium II pero con performance menor pero precio muy competitivo. Actualmente Intel comercializa principalmente su procesador más evolucionado, el PENTIUM 4, (abandonando la numeración romana) basado en nueva tecnología, denominada P7 (desde 1995 utilizaba la tecnología P6). Estos modernos micros están especialmente diseñados para altas velocidades de operación, tanto es asi que el modelo inicial trabaja a 1.2 y 1.4 GHz, esperándose que los saltos de velocidad sean de 100 MHz. Tendrá un bus de operaciones de 400 MHz (hay que tener presente que los PENTIUM III tienen un bus de 100 ó 133 MHz, dependiendo del modelo y aún el velocísimo ATHLON de AMD tiene un bus de 200. Los equipos que se ofrecen en la actualidad, además de un procesador como los que acabamos de mencionar, normalmente utilizan al menos 64, 128 ó 256 MB de memoria RAM y discos rígidos de 20 GB o superiores, diskettera de 3.5”, kit multimedia de velocidades de CD-ROM superiores a 50x y tarjetas de sonido de 16 y 32 bits, placas de video 3D con aceleradores gráficos y modem de 56 Kb. Debe tenerse en cuenta que los programas y sistemas operativos más modernos requieren de la mayor potencia que proveen las plataformas de 32 y 64 Bits, es decir de la línea 80486 y superiores, por lo que no resulta conveniente la adquisición de equipos de bajo nivel. Si bien los modelos más altos de cada línea son siempre muy honerosos, no siempre conviene adquirir los modelos económicos como el CELERON o al AMD K6-2 ya que por diferencias de precio poco sustanciales, se puede acceder mejores plataformas. Unidad temática: Hardware - Página 21

Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002

F.- Redes Las computadoras personales, como su nombre lo indica proveen, en principio, capacidad de trabajo para un único y aislado usuario. A pesar de esta característica, existe la posibilidad de interconectar varias PC para compartir información y recursos, potenciando aún más las prestaciones de este tipo de máquinas. En este punto se verán los distintos tipos de redes así como también los estándares existentes. Se mostrarán, además, distintos casos de aplicación y se verá de qué manera se debe optar entre una implementación u otra, dependiendo del problema a resolver. No es un tema sencillo ya que, como todo lo relacionado con la computación, el tema redes de comunicación avanza día a día. Una red permite a muchos usuarios compartir e intercambiar información. El diseño y la implementación de una red debe contemplar una variedad de parámetros, como la cantidad de usuarios, el volumen de la información, los costos, la confiabilidad y los ámbitos de instalación. Una red sirve a muchos usuarios, pero no necesariamente a todos al mismo tiempo. Los usuarios de una red pueden estar todos bajo un mismo techo o distribuídos en grandes áreas, separados por grandes distancias (aún alrededor del globo terrestre). De ahí que el tema redes sea tan amplio y variado. Las redes de comunicación deben dar solución a problemas tales como: - Una pequeña empresa que desea que todos sus directores puedan acceder a información financiera en forma inmediata; - Una compañía multinacional con filiales en todo el mundo que debe consolidar en la casa matriz la información de las operaciones de todas ellas. Estos dos problemas, tan diferentes entre sí, tienen solución instalando una adecuada red de comunicación. Podemos distinguir tres tipos de redes de comunicación: - Redes globales: son aquellas que se extienden a lo largo de grandes distancias y sirven a gran cantidad de usuarios. - Redes Locales: son redes que dan servicio a usuarios que se encuentran separados por no más de unos cientos de metros entre ellos. - Redes de campo: un tipo muy particular de red que conecta dispositivos de control. Por ejemplo, la computadora de un avión que constantemente está verificando el funcionamiento de los dispositivos. En general, se implementan en tiempo real. Se debe aclarar que para dar solución a algunas situaciones, se pueden combinar los tipos de redes antes mencionados a través de puentes (bridges). Las redes pueden ser agrupadas en abiertas y cerradas. - Las redes abiertas son públicas y están potencialmente a disposición de cualquiera. En este tipo de redes se debe poner especial atención en el control de acceso y de la información, para evitar pérdidas. - Las redes cerradas son privadas de una empresa. En este caso, el control es mucho más sencillo, ya que sólo los conectados físicamente pueden ingresar al sistema.

Aspectos técnicos de las redes Una red es mucho más que la simple conexión física entre todos los usuarios. Puede un usuario hablar con muchos otros? Cómo se asegura la integridad de la información? Cómo evitar que un usuario provoque la caída de la red?. Estos y otros muchos interrogantes deben plantearse y resolverse antes de la implementación de la red. Hay que definir un conjunto de controles que resuelvan situaciones como las mencionadas. Cuáles son, entonces, los aspectos técnicos que se deben analizar? Estos son: - TOPOLOGIA DE LA RED: es el plano de conexión entre los usuarios de la misma; - PROTOCOLOS: el modo de conversación entre los usuarios; - INTERFACE ELECTRICA: RS-232, RS 422, etc. - TIPO DE MODULACION: amplitud, frecuencia, tiempo; - MEDIO DE COMUNICACION: cable, fibra óptica. Debemos aclarar antes de analizar en detalle cada uno de esos aspectos, que no existe una solución ideal, sino que para cada situación existe una red que se adapta mejor a los requerimientos. Unidad temática: Hardware - Página 22

Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002

- Topología: Es un término matemático que se refiere a la manera de conectarse entre nodos. - Conexión completa: como primera solución podría considerarse la conexión entre todos los usuarios. Aunque puede ser efectivo es bastante costoso, ya que la cantidad de conexiones necesarias crece mucho a medida que aumenta la cantidad de usuarios. Pensemos que, matemáticamente por medio de combinatoria, para 10 usuarios se necesitan 45 conexiones y para 20 se necesitan 190 conexiones. Esta topología puede ser efectiva para pocos usuarios, pero en la práctica no se usa. El costo de agregar un usuario es altísimo. - Estrella: la topología estrella consiste en un nodo central y todos los usuarios conectados a él. El límite para la cantidad de usuarios es el máximo que pueda manejar el nodo central. Nótese que la confiabilidad de la red depende exclusivamente de la del nodo central. Cualquier falla en un usuario no afecta el funcionamiento de la red. El funcionamiento es el siguiente: un usuario envía información al nodo central (dedicado o server) y éste se encarga de dirigirla al destinatario. Para agregar un usuario, simplemente se agrega una conexión hasta el nodo central (incluso en el caso que haya un usuario cerca del nuevo), lo que en la práctica puede ser muy caro. Cuándo podemos usar esta topología?. Se usa cuando los usuarios de la red están dentro de un área predeterminada y no demasiado grande (por ejemplo, dentro de un edificio o una fábrica). Una de las características más importantes es que varios usuarios puedan transmitir datos simultáneamente. - Bus : la topología de Bus consiste en un camino común compartido por todos los usuarios. Estos pueden estar conectados al bus en cualquier punto. El problema de agregar un usuario se reduce a conectarlo al bus. En esta topología debe haber un nodo dedicado al control de la red. Además, si la implementación es buena, cualquier falla en un usuario no afectará el funcionamiento de la red. Por las razones anteriormente expresadas es una topología muy popular. Lógicamente, dada su sencillez, se aumentará la complejidad del control de las comunicaciones. Puesto que existe un único camino compartido por todos, existirá un protocolo que decida quien puede transmitir y dejar que los demás sólo puedan "escuchar". Además, todos los mensajes de control se hacen a través del bus, hecho que reduce la eficiencia de la red. La segunda desventaja importante es que dos usuarios no puedan transmitir simultáneamente. Sin embargo, para algunas situaciones ésta puede ser una ventaja, ya que en un determinado instante sólo un usuario trasmite y los demás "escuchan". Esto provoca que si se desea mandar un mensaje a varios usuarios no se lo deba transmitir para cada uno de ellos. Sobre esta topología se han implementado varias redes comerciales como AppleTalk y EtherNet. - Anillo : la topología de anillo (Ring) conecta a todos los usuarios en un gran anillo. Para agregar un usuario simplemente hay que integrarlo al anillo. Sin embargo ésto, que parece tan sencillo, implica un corte en el cable y la conexión del nuevo usuario. Analicemos cómo opera una red de este tipo. Los mensajes son pasados de un nodo al siguiente hasta que el destinatario recibe el mensaje y envía una señal de recibido. Nótese que el protocolo será mucho más simple que en el caso de la topología de bus. Nodo 1

Nodo 4

Nodo 2

Nodo 3

Nodo N

TOPOLOGIA DE BUS

Nodo 1

Nodo 4

Nodo 2

Nodo 3

Nodo N

TOPOLOGIA EN ANILLO

Una gran desventaja de este tipo de topología es que cualquier falla en algún nodo o en la conexión entre ellos provocará la salida de servicio de la red. Por este motivo, a veces se habilitan dos anillos, uno para uso normal y otro como respaldo (backup) ante fallas del primero.

Protocolos Dado que una red está compuesta de muchos usuarios deben ser definidas reglas de comunicación entre ellos, ésto se denomina acceso a la red. Unidad temática: Hardware - Página 23

Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002

Hay cuatro tipos de protocolos considerados estándar, que pueden ser usados con cualquier topología de las mencionadas: maestro-esclavo; manejado por interrupciones; manejado por "marcas" (o pase de cospel); y por detección de colisiones. - Maestro-Esclavo (Command-Response): existe una sola estación maestra y todas las demás son esclavas. Una estación sólo puede enviar información cuando la maestra le envía una señal. Si bien este protocolo es muy simple, es poco eficiente, debiendo pasar toda la información a través de la maestra lo que produce gran sobrecarga. Sólo resulta aplicable cuando existen muy pocos usuarios y no se requiere tiempo de respuesta muy rápido. - Protocolo Manejado por Interrupciones (interrupt driven): es una mejora sobre el anterior; la esclava genera una señal a la maestra, indicándole la procedencia, quien, si se encuentra desocupada recibe también la información que se le envía. El inconveniente sigue siendo la sobrecarga de la maestra, si el volumen de información es muy grande. - Protocolo Manejado por "Marcas" (token passing): en este sistema todos los usuarios de la red, a su turno, reciben una marca o cospel que los habilita para controlar la red. Este sistema es bastante eficiente y se aplica en situaciones donde se debe garantizar un determinado tiempo de respuesta. - Protocolo de accesos múltiples con sensado de portador y detección de colisiones (CSMA/CD Carrier sense multiple access with collision detect): en este sistema, distinto a los anteriores, cualquier nodo puede transmitir en cualquier momento, luego de verificar que la red no está en uso. en este último caso se limita a esperar a que se desocupe. La detección de colisiones se implementa para evitar que dos usuarios transmitan simultáneamente.

CARACTERISTICAS DE LOS PROTOCOLOS Protocolo

Command/response

Interrupt driven

Token passing

csma/cd

Concepto

Simple

Simple

Media

Complejo

Eficiencia

Baja

Baja

Media

Media-alta

Predictibilidad de tiempo de respuesta

Predecible

Relativamente

Predecible

Dificil de predecir

Confiabilidad

Alta

Alta

Media

Media

Medios de comunicación La intercomunicación entre los usuarios de la red se puede producir a través de distintos medios: A) Alambre: par simple, par trenzado, cable coaxil, cable plano multiconductor B) Aire o vacío: Microondas, Radio-enlace, Satélite C) Fibra óptica Los factores que intervienen en la decisión son: la distancia a cubrir, costos, cantidad de usuarios, facilidad de instalación y sensibilidad al "ruido" externo (influencia de campos electromagnéticos que pueden producir alteración de la información transmitida. Si la red debe cubrir una distancia importante -cientos de kilómetros- se debe utilizar la red telefónica, radio-enlace o microondas. Si la distancia es aún mayor, se debe pensar en la transmisión vía satélite. Para el caso más común, en donde la red a instalar está dentro de un área no mayor a unos cientos de metros (red de área local o LAN - Local Area Network), se utiliza la conexión física por alambre o fibra óptica dependiendo de las distancias características de "ruido" presente, etc, para una mejor relación precio/perfomance.

Redes Comerciales Las redes nacieron por la necesidad de los grandes usuarios de interconectar nodos. Más tarde, y a partir de esos desarrollos, se generalizaron para servir a todo tipo de usuario. Existen redes comerciales cuyos desarrollos originales recibieron el aporte de usuarios, mejorando las especificaciones y quedando, con protocolo difundido, a disposición de productores y usuarios. Otras en cambio, se denominan redes propietarias y no difunden su protocolo de comunicaciones, ya que están diseñadas específicamente para un determinado tipo de máquinas.

Unidad temática: Hardware - Página 24

Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002

Una red propietaria muy importante es la AppleTalk de Apple Computer para la línea de computadoras Macintosh. Esta red implementa una topología de BUS, admitiendo hasta 32 nodos con un alcance máximo de 300 metros, se utiliza para que varios equipos compartan impresoras de grandes prestaciones y discos de alta capacidad externos. Su protocolo de comunicaciones es secreto. Otro ejemplo de red, en este caso de protocolo difundido, es la ETHERNET, desarrollada originalmente por Xerox para interconectar dispositivos de oficina. Trabaja sobre una topología de BUS con protocolo CSMA/CD y se le puede conectar hasta 1024 usuarios por medio de cable coaxil o fibra óptica. Esta red se adecua a sistemas donde no es necesario un tiempo de respuesta determinado, como por ejemplo, en control de procesos. Como último ejemplo consideraremos la MAP (Manufacturing Automation Protocol), diseñada para controlar procesos en fábrica, orientada a minimizar el tiempo de respuesta. Está implementada sobre topología de BUS con protocolo Token Passing utilizando cable coaxil.

Redes de Area Local Comerciales Las LANs (Local Area Networks, redes de área local) permiten conectar cierta cantidad de computadoras, con la finalidad de compartir información, aplicaciones o recursos a nivel de periféricos. Hace un tiempo, muchos hubiesen deseado instalar una red, pero el tiempo, costo y complejidad para mantener una red tradicional lo hacían dificil. En las redes tradicionales, existe una computadora central que provee los servicios a otras máquinas que ofician de clientes de la misma. Estas redes se denominan redes tipo client-server y el equipo central debe ser un equipo basado, como minimo, en microprocesadores PENTIUM. El costo del software necesario para conectar un número de máquinas determinado (10, 20 50 o más de 100 usuarios) resulta también bastante oneroso. Esto es así ya que se requieren los programas para poner en marcha la red, donde entre otras cosas es posible definir derechos de acceso, periféricos comunes, nivel de interrelación, etc. El mercado de las redes cliente-servidor se divide prácticamente entre Novel y Windows NT (o 200 en su última versión). Progresivamente, Linux, un nuevo sistema operativo de distribución gratuita está comenzando a ganar posiciones, sobre todo como servidor de internet. En contraposición a las redes client-server, comenzaron a comercializarse las denominadas peer-topeer (par a par), en las cuales todas las máquinas están a un mismo nivel de jerarquía, pudiendo cada una de ellas funcionar como server, o como PC "standalone", es decir independiente. Esta es una alternativa simple y barata para interconectar computadoras. Peer-to-peer significa que cada computadora conserva su independencia, pero eventualmente puede compartir sus recursos con las otras, sin la necesidad de un equipo central dedicado, y además corren directamente sobre MS-DOS (el sistema operativo de las PC). En una red peer-to-peer, desde una computadora se puede utilizar programas instalados en otra, si así se desea, o bien, se puede enviar información a través del correo electrónico (E-mail). Esto permite enviar o recibir información o mensajes a través de la red. Existe también la posibilidad de conectar paquetes de sonidos, para digitalizar la voz y almacenarla en la red. Cualquier computadora conectada a la red puede ser utilizada luego para reproducir el mensaje y realizar la transcripción si es necesaria. Hasta la aparición de Windows para Trabajo en grupos, Windowes 95 y 98, el lider del mercado de las LANs peer-to-peer era Artisoft, para su línea LANtastic que permiten comunicar hasta 300 nodos. Actualmente los usuarios de Windows 95 o 98 resuelven sus necesidades de red peer-to-peer (sin grandes pretensiones) en forma automática ya que el sistema operativo incluye las prestaciones necesaria Para armar la red, se deben instalar los cables en la plaqueta o tarjeta de red, la cual a su vez se conecta a la computadora. Se pueden utilizar conexiones por cable coaxil o por medio de cable trenzado, necesitándose para esto ultimo un dispositivo adicional denominado “hub” que recibe todas las conexiones.

Conclusiones Las redes permiten el intercambio de información entre usuarios y compartir periféricos de gran capacidad y alto costo por parte de equipos más modestos. Casi siempre se debe dedicar un "server" de alta performance (arquitectura PENTIUM como mínimo) para controlar la red. Como beneficio se tiene la posibilidad de acceder por parte de varios usuarios a una misma información y poder de esa forma utilizar prestaciones propias de los sistemas multiusuarios, bajo la plataforma MS-DOS extendiendo de esta forma las limitaciones de este sistema monousuario y monotarea. Toda este avance ha sido posible gracias a la disminución de los costos del hardware de redes, como así también a la incorporación de prestación de administración de redes en el sistema Windows 95 y 98 que equipa a la mayoría de las computadoras personales. Unidad temática: Hardware - Página 25

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.