Story Transcript
• Conceptos básicos 3 • El software y el hardware 3 • El sistema operativo 3 • La CPU 4 • Dispositivos de almacenamiento no volátiles. 5 • Dispositivos de almacenamiento volátiles. 8 • Servidor de red 9 • Red informática 11 • Protocolos 12 • Protocolo TCP/IP 12 • Topología de red 13 • Topología en estrella 14 • Topología en anillo 15 • Topología en bus 16 • Clases de redes 17 • Ethernet 18 • Token ring 20 • Arcnet 21 • Windows NT vs. Linux 22 • Historia, evolución y características básicas de Windows NT 22 • Historia, evolución y características básicas de Linux 33 • Ventajas y desventajas de Windows NT frente a Linux al gestionar una red informática escolar. 41 • ¿Cuál de los dos sistemas operativos sería mas practico para gestionar una red local escolar? 47 • Conclusión 48 • Bibliografía 48 1.− Conceptos básicos. En este apartado hablaremos sobre las partes más importantes e imprescindibles para entender este documento: • Software y hardware. • La parte del ordenador que integra el hardware es aquella en engloba todo lo relacionado con lo físico. Es decir, los periféricos de entrada como el teclado, el ratón, los periféricos de almacenamiento como el CD−ROM, el disco duro, disquetes, etc... • La parte del ordenador que integra el software es aquella en engloba todo lo que no es físico como los programas, el sistema operativo, los juegos, etc... • Sistema operativo. • El sistema operativo es la parte del software que se encarga de interconectar el usuario con la maquina. Esto quiere decir que la función del sistema operativo es traducir las instrucciones que el usuario manda al ordenador en el lenguaje básico de la maquina, que es el código binario. El código binario simplemente consiste en cadena de 1 y 0. Por eso el sistema operativo es muy importante, ya que sin este precisaríamos de altísimo nivel informático para ejercer cualquier rutina. También cabe destacar que el centro de todo sistema operativo se llama Kernel que es como el cerebro donde integra las funciones más básicas del sistema operativo. Un ejemplo de sistema operativo es MS−Dos, Windows 98, Linux, Windows NT... • La CPU. 1
• La CPU (Central Process Unit) o también llamada microprocesador, es la parte del hardware que se encarga de distribuir y procesar todos los datos que le envían desde diferentes puntos del ordenador. Dentro de la CPU esta el Co−procesador matemático que sirve para calcular procesos matemáticos complejos y así liberar trabajo a la CPU. La velocidad de la CPU se indica en Mhz. Actualmente una de las compañías que fabrican CPUs más importantes del mundo es Intel y su rival más directo AMD.
• Dispositivos de almacenamiento no volátiles • El disco duro. El disco duro (Hard Disk) es la parte del hardware encargada de almacenar todos los datos del ordenador de una forma no volátil; se quedan permanentemente grabados hasta que el usuario los borra. El disco duro simplemente consta de varios discos puestos unos encima de otros que dan vueltas sobre un mismo eje y de una aguja que va leyendo los datos. Estos datos están divididos por sectores (pequeñas celdas) de diferentes tamaños, dependiendo del sistema operativo que utilicemos y el sistema de archivos e incluso de la funcionalidad del mismo. Los discos duros se dividen según la velocidad de transferencia o la capacidad: ♦ Velocidad: La velocidad se mide en Mega bites por segundo (Mb/s). Un byte esta formado por 8 bits, que es la unidad de información mas pequeña que se puede almacenar, como por ejemplo un digito. Luego la combinación de 1024 bites forma un Kilo bite (Kb.), 1024 Kb. forma un Mega bite o vulgarmente llamado megas (Mb.), 1024 Mb. forma un Giga bite (Gb.) y 1024 Gb. forma un Tera bite (Tb.) que es muy poco usual verlo. Hay dos sistemas de transferencia muy importantes: ◊ Sistema IDE: Es el sistema mas extendido, y admite tasas de transferencia que rondan entre los 33 Mb/s y los 66 Mb/s ◊ Sistema SCSI: Es un sistema mas avanzado que admite tasas de transferencia mucho mas altas que las de IDE, llegando a alcanzar los 160 Mb/s ◊ Sistema de Fibra óptica: Es un sistema muy avanzado que se suele utilizar en grandes computadoras que requieran mucha velocidad de transferencia. La velocidad suele rondar sobre las 1 o 2 Gb/s ♦ Capacidad: La capacidad de un disco duro se mide en Mb. o en Gb. La capacidad de un disco duro puede variar desde las 21 Mb. o incluso menos en las maquinas mas viejas, hasta varios Gb., en las maquinas más potentes, pero la capacidad de un disco duro de un usuario cualquiera suele rondar las 6−10 Gb. Si quieres sabes mas sobre como funciona un disco duro consulta la pagina http://www.howstuffworks.com/hard−disk.htm en Internet.
2
• CD/DVD−ROM. El CD−ROM (Compact disc − read only memory) y el DVD−ROM (Digital Video Device− read only memory) son dos sistemas de almacenamiento muy populares y más rentables de utilizar ya que la calidad precio del dispositivo es muy buena. Un DVD o un CD están fabricados por una base circular de unos 11,5 cm de diámetro y recubiertos por un fina capa metálica, eso hace que su fabricación sea muy barata. También la calidad en muy buena ya que la transferencia de los datos es totalmente digital, cosa que hace que por mucho que lo utilices nunca perderá calidad ya sea de audio, video o otros datos. También es un buen factor la capacidad, de unos 640 Mb para un CD y de unas 3 Gb en un DVD. El problema esta en que la información no se puede modificar a menos que no tengas una grabadora de CDs que ronda sobre las 40.000 Ptas. o una grabadora de DVD que ahora mismo rondará las 150.000 Ptas. aproximadamente.
• La memoria Bios La memoria Bios esta dividida en la parte que es modificable y la parte que no los es. La Bios se encarga de guardar la configuración del hardware básica ( tipo de disco duro, cantidad de memoria RAM, tipo de CPU, etc...) para iniciar la computadora. La Bios reside en un pequeño chip que esta en la placa base del ordenador. • Dispositivos de almacenamiento volátiles. • La memoria RAM. La memoria RAM (Read Acess Memory) es la parte del hardware encargada de almacenar datos pero de forma volátil, esto quiere decir, que cada vez que apagamos el ordenador estos datos se eliminaran. La 3
memoria RAM tiene una gran importancia ya que todo dato antes de pasar por la CPU debe ser almacenada en memoria RAM. La memoria RAM se mide en Mb., según su capacidad. La cantidad de memoria RAM puede ir desde los 64 kb en los ordenadores antiguos o calculadoras nuevas, hasta el Gb de memoria para procesos que lo requieran, aunque un ordenador normal suele tener unas 32−64 Mb. Si quieres saber mas sobre la memoria RAM puedes visitar esta pagina http://www.galiciacity.com/servicios/hardware/memoria.htm en Internet.
• La memoria Caché. La memoria caché se aloja dentro de la CPU. Es la memoria mas rápida ya que se encarga de copiar los pasos que sigue la maquina para ejecutar una aplicación para después, si se desea ejecutar esa misma aplicación, la lea directamente de la Caché, sin tener que hacer todo el proceso de nuevo y así ahorra tiempo. La memoria Caché suele rondar sobre los 512 Kb y 1 Mb. de capacidad. • Servidor de red. • El servidor es aquel o aquellos ordenadores que van a compartir sus recursos hardware y software con los demás equipos de la red. Es empleado tanto por su potencia de cálculo, como por la información que gestiona, y los recursos que comparte. Los ordenadores que toman el papel de estaciones de trabajo aprovechan o tienen a su disposición los recursos que ofrece la red así como los servicios que proporcionan los servidores a los cuales pueden acceder. El diseño de la infraestructura de una red de ordenadores es una de las labores más importantes que debe llevar a cabo el ingeniero que la esté montando para una empresa. La red más pequeña puede constar de un único servidor y unas cuantas estaciones de trabajo conectadas mediante tarjetas de red y cable coaxial, redes más grandes pueden estar constituidas por varios servidores y una gran cantidad de estaciones de trabajo con sedes distribuidas alrededor de todo el mundo, lo cual conlleva el empleo de redes de comunicación (la red telefónica, Internet, etc..) para interconectar entre sí los equipos de todas las sedes. Una vez diseñada la infraestructura que va a tener una red de comunicación de ordenadores hay que implementarla. Para ello es necesario instalar en cada ordenador la tarjeta o circuito integrado necesario para la comunicación y establecer el camino físico que una todos los ordenadores de la red. También hay que tener en cuenta la potencia del servidor. Si se quiere administrar una red pequeña (5−10 estaciones de trabajo) seria recomendado un ordenador no muy potente, dependiendo del sistema operativo y el rendimiento que obtenga, pero si es un servidor que va a controlar un gran numero de estaciones de trabajo (100−200 estaciones) habría que instalar un servidor mucho más potente. • Red informática • Una red es la conexión de dos o más ordenadores entre ellos por un medio físico capaz de transmitir datos. Los datos son transmitidos por paquetes. Un paquete es una parte de la información total, es 4
decir, que si queremos transmitir un fichero, la maquina lo dividirá en diferentes paquetes de igual tamaño y los irá enviando de uno en uno hasta que la maquina receptora los tenga todos y reconstruya de nuevo el fichero. ¿Pero como sabe la maquina como tiene que orden tiene que poner los paquetes? Los paquetes están divididos en dos partes principales: ♦ El encabezado: Es la parte donde se indica toda la información del paquete para poder ser reconstruido. A parte también esta la dirección en la cual tiene que ir el paquete, el tipo de protocolo utilizado, etc... ♦ Los datos: En esta parte esta toda los datos de la porción de fichero que hemos enviado. También hay que decir que en una red cada ordenador tiene una identificación o IP. Esta IP se configura en la maquina misma o es dada por el servidor. La IP consta de varios dígitos separados por punto: Ej. 192.168.1.1 Con este tipo de identificación podríamos tener miles de configuraciones, y en una red muy extensa es muy difícil acordarse de la IP de alguna maquina importante. Por eso se inventó el DNS (Sistema de Nombres de Dominio) que lo que hace es darle un nombre a un IP: Ej. 192.168.1.1 => p1.force.net. Hay que diferenciar el tipo de red según su longitud: • LAN (Local area network): es una red pequeña de una longitud menor a los 100m. Normalmente utilizada en pequeñas redes. • MAN: es una red mediana de una longitud entre los 100 y los 1000 metros. Utilizada en redes más extensas que puedes abarcar todo un edificio o varios interconectados. • WAN (Wide area network): es la red más grande y suele ser superior a los 1000m hasta incluso miles y miles de kilómetros. Su longitud puede conectar países enteros entre si. Internet es un ejemplo. • Protocolos. • El protocolo es el lenguaje en el que los ordenadores hablan. Así, cuando se forma una red, los ordenadores tienen que interpretar por igual los datos que se les envía, porque sino cada uno haría una cosa diferente o no funcionarían, entonces, tienen que tener un mismo protocolo. En definitiva, un protocolo es un conjunto de reglas establecidas entre dos dispositivos para permitir la comunicación entre ellos. 1.7.1.1 Protocolo TCP/IP • Se han desarrollado diferentes familias de protocolos para la comunicación por red de datos para diferentes sistemas operativos. El más ampliamente utilizado es el Internet Protocol Suite, o mas vulgarmente dicho, TCP/IP. Es un protocolo que proporciona una transmisión fiable de paquetes de datos sobre redes. El nombre TCP/IP proviene de dos protocolos importantes de la familia, el Transmisión Control Protocol (TCP) y el Internet Protocol (IP). Todos juntos llegan a ser más de cien protocolos diferentes definidos en este conjunto. El TCP/IP es la base de Internet que sirve para unir computadoras que utilizan diferentes sistemas operativos, incluyendo PC, mini computadoras y computadoras centrales sobre redes de área local y área extensa. TCP/IP fue desarrollado y demostrado por primera vez en 1972 por el departamento de defensa de los Estados Unidos, ejecutándolo en el ARPANET, una red de área extensa (WAN) del departamento de defensa. • Topología de red • En este apartado explicaremos las diferentes formas de construir una red y la diferencia entre conectarlas de una forma u otra. Pero antes hay que explicar los componentes físicos que hacen que dos o mas ordenadores se conecten. • En primer lugar necesitaremos una tarjeta de red, que es simplemente un circuito integrado que se coloca en el interior del ordenador y que tiene, dependiendo de la placa, una o dos entradas, la de 5
cable coaxial y cable RJ45. El cable coaxial es bastante parecido al cable que utilizamos para conectar el televisor a la antena parabólica y el cable RJ45 es muy parecido al cable del teléfono pero mas grueso. Ambos aceptan una transferencia máxima de 100 Mb/s. • En segundo lugar está el concentrador o mas vulgarmente dicho, el HUB. El concentrador, como su nombre dice, sirve para concentrar ordenadores, es decir, que cada ordenador se conecta al concentrador y así están todos conectados entre si. Pero mas adelante veremos que en según que topologías no es necesario el HUB o concentrador. • Topología en estrella • La topología en estrella es una de las más antiguas, en ella, todas las estaciones están conectadas a un ordenador central que actúa a modo de servidor. Todas las comunicaciones entre las estaciones se realizan a través del ordenador central, que es le que controla la prioridad, procedencia y distribución de los mensajes. El ordenador central será normalmente el servidor de la red, aunque puede ser un dispositivo especial de conexión. Esta configuración presenta una buena flexibilidad a la hora de incrementar el número de equipos además, la caída de uno de los ordenadores periféricos no repercute en el comportamiento general de la red. Sin embargo, si el fallo se produce en el ordenador central, el resultado afecta a todas las estaciones. El diagnóstico de problemas en la red es simple, debido a que todos los ordenadores están conectados a un equipo central. No es una topología adecuada para grandes instalaciones, ya que al agruparse los cables un la unidad central crea situaciones propensas a errores de gestión, precisando, además, grandes cantidades de costosos cables. Esta configuración es rápida en comunicaciones entre los ordenadores periféricos y el central, pero lenta en comunicaciones entre ordenadores periféricos. Por otro lado, la capacidad de la red es elevada si el flujo de información es entre ordenadores periféricos y central, dependiendo muy poco la velocidad de la red del flujo de información que circula por la misma.
• Topología en anillo • Todas las estaciones están conectadas entre sí formando un anillo, de modo que cada estación tiene conexión directa con otras dos. Los datos viajan por el anillo de estación en estación siguiendo una única dirección, de manera que todas las informaciones pasan por todas las estaciones hasta llegar a la estación de destino, en donde se quedan. Cada estación se queda con la información que va dirigida a ella y retransmite al nodo siguiente las que tienen otra dirección. Este tipo de redes permite aumentar o disminuir el número de estaciones sin dificultad. Por otro lado, la velocidad de respuesta de la 6
misma irá decreciendo conforme el flujo de información sea mayor ; cuantas más estaciones intenten hacer uso de la red, más lenta irá esta, pero en todo caso siempre se puede averiguar el tiempo máximo de respuesta en el peor de los casos. Este tipo de red es muy apropiada para el entorno industrial. En una estructura en anillo, un fallo en cualquier parte de la vía de comunicación deja bloqueada a la red en su totalidad, mientras que un fallo en cualquiera de sus estaciones no necesariamente implica la caída de la totalidad de la red. El coste total del cableado será menor que en una configuración en estrella.
• Topología en Bus • Todas las estaciones están conectadas a un único canal de comunicaciones, toda la información circula por ese canal y cada estación se queda solamente con la información que va dirigida a ella. Estas redes son sencillas de instalar y poseen una gran flexibilidad a la hora de aumentar o disminuir el número de estaciones. La cantidad de cable que utilizan es mínima, sobre todo si la comparamos con la cantidad necesaria para la topología en estrella, ya que el cable no tiene que ir desde el servidor a cada una de las estaciones de trabajo. El fallo de una estación aislada no repercute en la red, aunque la ruptura del bus dejará la red totalmente inutilizada. Esta es la topología de red más extendida. El inconveniente de esta red es el control del flujo, ya que aunque varias estaciones intenten transmitir a la vez, como sólo existe un bus, únicamente una de ellas podrá hacerlo, por lo que el control de flujo será más complicado cuantas más estaciones tenga la red, ya que se pueden producir más intentos simultáneos (colisiones). Además, es difícil aislar los problemas de cableado y determinar que estaciones o segmentos del cableado lo producen, ya que todas las estaciones pasan su información por el mismo cable.
7
• Clases de redes • La oferta de redes de área local es muy amplia, existiendo soluciones casi para cualquier circunstancia. Podemos seleccionar el tipo de cable, la topología e incluso el tipo de transmisión que más se adapte a nuestras necesidades. Sin embargo, de toda esta oferta las soluciones más extendidas son tres : Ethernet, Token Ring y Arcnet. • Ethernet ◊ Esta red fue desarrollada originalmente por Xerox y Dec como forma de solucionar el problema del cableado de redes. Sus inventores fueron Robert Metcalfe y David Boggs. Según Robert Metcalfe, el nombre Ethernet proviene de la palabra Ether (éter), la cual denomina poéticamente a un material inexistente que, según algunas antiguas teorías, llenaba el espacio y actuaba como soporte para la propagación de la energía a través del universo. En un principio se pensó en utilizar el cable coaxial para el cableado de este tipo de redes, aunque hoy en día se pueden utilizar otros tipos de cables. La velocidad de transmisión de la información por el cable es de 10 Mb/s. Si se utiliza cable coaxial grueso, se pueden hacer hasta 4 tramos de cables (unidos con repetidores) de un máximo de 560 metros cada uno. Los ordenadores se conectan al cable mediante transceptores, siendo la distancia máxima entre el transceptor (tarjeta de red) y el ordenador de 15 metros. Sólo puede haber ordenadores en tres de los cuatro tramos, siendo el número máximo de estaciones de trabajo de 100 por tramo. Si se utiliza cable coaxial fino, no hacen falta dispositivos transceptores, pudiendo conectarse el cable del ordenador al cable de la red con simples conectores en T. El número máximo de tramos en este caso es de 5, siendo la longitud máxima de cada tramo de 305 metros. Los tramos se unen mediante el empleo de repetidores de señal. Sólo puede haber ordenadores en tres de los tramos, siendo el número máximo de estaciones de trabajo de 30 por tramo. La redes Ethernet emplean una topología en bus con el método CSMA/CD (Carrier Sense Multiple Access with Collision Detection) para acceder al medio. Eso significa que cualquier estación puede intentar transmitir datos en cualquier momento, pero como todas ellas están conectadas a un único cable común, solo una estación puede estar transmitiendo por el cable (bus) en un momento dado. Para solucionar los problemas de colisiones en la transmisión existen una serie de normas como son : antes de transmitir comprobar que no haya otra estación transmitiendo, o que en caso de colisión hacer que una estación espere un margen de tiempo aleatorio antes de volver a intentar el envío de datos. Todas estas tareas son realizadas automáticamente por el software de red a unas velocidades tan elevadas que el usuario no se da cuenta de las colisiones. • Token ring ◊ Aunque IBM ya había comercializado anteriormente las redes de área local llamadas Cluster (en banda base, con cable coaxial, a 375 Kb/s y para un máximo de 64 ordenadores) y PC Network (en banda ancha, a 2Mbps y para un máximo de 72 ordenadores), no fue hasta el año 1985 cuando IBM anunció su red local más sofisticada : la Token Ring. Token Ring es una red en anillo con paso de testigo. Eso significa que los ordenadores conectados a la red se van pasando un testigo de unas a otras de forma secuencial y cíclica, de modo que sólo puede transmitir información aquel ordenador que posea el testigo en un momento dado. Como la velocidad de transmisión de este tipo de redes puede ser hasta 16 Mbps, el usuario no se da cuenta del tiempo que tiene que esperar su ordenador antes de recibir el nuevo testigo para poder empezar a transmitir. 8
Los distintos ordenadores de la red se conectan a las unidades de acceso multiestación, MAU (Multistation Acces Unit), dentro de las cuales está formado el anillo. A cada MAU se pueden conectar hasta 8 estaciones de trabajo, pudiendo tener como máximo 12 MAU, por lo tanto un máximo de 96 estaciones. La distancia máxima entre el ordenador y la MAU es de 50 metros (aunque se podría llegar hasta los 350 metros con cables de mayor calidad), y entre MAU es de 135 metros (pudiéndose llegar a los 215 metros). El cable que se emplea normalmente es el par trenzado, con o sin blindaje, aunque también se puede utilizar el cable coaxial o la fibra óptica. • Arcnet ◊ Es una red en banda base que transmite a una velocidad de 2.5 Mbps, con una topología híbrida estrella / bus. Este sistema fue desarrollado en 1978 por la empresa Datapoint, aunque fue potenciado en el mundo de los microordenadores por la empresa Standard Microsystems. Todos los ordenadores de la red se conectan en estrella a un distribuidor central denominado HUB activo. La distancia máxima entre el ordenador y el HUB activo debe ser de menos de 660 metros. A los HUB activos también se puede conectar HUB pasivos, conectándose un máximo de 3 ordenadores a cada HUB pasivo. La distancia máxima entre una estación de trabajo y un HUB pasivo es de 17 metros. Se puede conectar más de un HUB activo, distanciándose entre ellos un máximo de 660 metros. En total, el número máximo de estaciones de trabajo no debe ser superior a 255. • Windows NT vs. Linux • Historia, evolución y características básicas de Windows NT. Hace ya algo más de quince años, concretamente en 1985, que la primera versión de Windows (la 1.0) vio la luz. Aunque tuvo escasa relevancia en el mercado, fue la primera piedra de lo que años después se ha convertido en un universo de ordenadores personales gobernados por el sistema operativo de Microsoft. Fue con las siguientes versiones (Windows 2.0, Windows/386) con las que se empezó a abrir camino, al ser adoptado como sistema operativo principal por parte de diversas compañías. No será, sin embargo, hasta la versión 3.0, presentada en 1990, cuando Windows comienza a tener un verdadero impacto en la informática personal Windows 3.0 contaba con un interface de usuario mejorado y, sobre todo, podía gestionar más de un mega de RAM, lo cual siempre ha constituido uno de los mayores lastres del DOS. No puede decirse que Windows fuese, ni en ese momento ni tan siquiera ahora, un sistema operativo por sí mismo, en realidad constituía una extensión gráfica del DOS. El extensor de DOS incorporado podía administrar hasta un total de 16 Mb de RAM, cantidad nada despreciable para la época. Incorporó los conceptos de multitarea cooperativa, el Cortapapeles que permitía utilizar las técnicas de cortar y pegar, ampliamente difundidas en el entorno Macintosh años atrás, gestión centralizada de las impresoras, etc. En poco tiempo el nuevo entorno gráfico se convirtió en un verdadero estándar mundial. En el año 1992 se presentó la archiconocida versión 3.1, que mejoró el entorno de usuario y la velocidad de ejecución. También introdujo conceptos hoy tan imprescindibles como OLE, acrónimo de Object Linking and Embedding (vinculación e incrustación de objetos), soporte para fuentes TrueType y comenzó con el tema de multimedia.
9
La versión 3.11 para Trabajo en Grupo permitía a los PC compartir datos a través de una red. Paralelamente, a finales de los años 80, Microsoft inició el desarrollo de un nuevo sistema operativo. Fue David Cutler, antiguo empleado de Digital y desarrollador del sistema VMS para estaciones Digital VAX, el encargado de la dirección del nuevo proyecto. Así, en el mes de julio de 1993 veía la luz la primera versión de Windows NT, la 3.1, numeración que intentaba corresponderse con la ya existente versión del Windows estándar. Entre los objetivos iniciales en el desarrollo de Windows NT estaban el conseguir un sistema operativo totalmente independiente de 32 bits, robusto, fiable, multiusuario y orientado a redes. Asimismo, una premisa de diseño fue la portabilidad del sistema, es decir, que su funcionamiento fuera independiente de la plataforma hardware elegido De esta forma, Windows NT podía funcionar en máquinas PC con procesadores Intel de la familia x86, y en costosas Workstations con procesadores RISC, como los Alpha de Digital (cosa lógica, teniendo en cuenta la experiencia previa de Dave Cutler en esta plataforma, que era muy superior en prestaciones a los PC convencionales de aquella época). También se añadieron los requisitos de multitarea apropiativa (real, no como la de Windows 3.1) y de multiproceso (soporte de varios procesadores simultáneos) y, cómo no, la compatibilidad con aplicaciones DOS y Windows de 16 bits. Queda claro que las pretensiones iniciales de NT eran, desde un principio, mucho más elevadas e interesantes que las de los otros componentes de la familia Windows. Sin embargo, no todo era tan sencillo. Los requerimientos de hardware para que NT funcionase eran muy superiores a lo habitual, y existían muy pocos programas específicamente diseñados para aprovechar las prestaciones superiores que ofrecía. Esto ocasionó que esta primera versión pasase más bien desapercibida. NT 3.5 se presentó en septiembre de 1994, incluyendo una versión servidora (Server) y otra para estaciones de trabajo (Workstation). Windows NT 3.5 Server mejora con mucho las prestaciones de su predecesor, además de requerir menos memoria. Es con esta nueva versión cuando comienza a mostrarse la potencia y capacidad de Windows NT, así como su flexibilidad e idoneidad para entornas empresariales, científicos y técnicos, aunque lejos todavía del usuario personal. Este último debe conformarse con Windows 3.1 o el posterior 3.11 y esperar el inminente lanzamiento de Windows 95, que se estaba anunciando como el fin de las limitaciones propias del DOS y que todavía, debido a diversos problemas, tardaría alrededor de un año en comercializarse. En septiembre de 1995 tiene lugar la mayor campaña publicitaria de la historia de la informática. Se está anunciando Windows 95, el sistema operativo para PC compatibles más esperado de los últimos años. Sus cartas de presentación parecen inmejorables. Un sistema de 32 bits con un nuevo entorno de usuario mucho más atractivo y efectivo, mejoras sustanciales en el funcionamiento en red y en todo lo relacionado con las comunicaciones, soporte muy ampliado de dispositivos y aplicaciones multimedia, Plug and Play, compatibilidad total con aplicaciones DOS, Win 16 y las nuevas Win 32 y unos requisitos de hardware bastante comedidos. Sin embargo, tras el "boom" inicial, muchos usuarios se dan cuenta de que no todo es exactamente como se ha anunciado: el viejo DOS sigue estando por debajo, bastante escondido, pero presente, y con todas sus ya conocidas limitaciones. Aún así, el nuevo sistema se impone rápidamente y el mundo PC se ve afectado por una guerra de precios imparable que ocasiona bajadas tan impactantes como puede haber sido la que ha afectado a la memoria RAM. Un mes antes, en agosto de 1995, se había lanzado la versión 3.51 de NT, en el que se incluía el soporte de las nuevas aplicaciones de 32 bits propias de Windows 95, a pesar de mantener el clásico "Administrador de Programas" y el entorno de Windows 3.1. Esta versión mantiene unas cotas altísimas en lo que se refiere a 10
fiabilidad, estabilidad, seguridad y rendimiento. La inminente aparición de Windows 95 va a convulsionar el mercado PC, obligando a unos usuarios, ansiosos por experimentar sus mejoras, a la ampliación de su hardware (pues los requisitos del 95 son claramente superiores a los de las versiones anteriores). Todo ello va a afectar de manera muy positiva a NT, que pasa a ser un sistema también apto para usuarios exigentes que no se van a conformar con las novedades de Windows 95 y necesitan las cualidades de un producto mucho más avanzado, como ha demostrado ser Windows NT 3.51. Aproximadamente un año después de estos eventos, en el mes de agosto de 199ó, nace la versión 4.0 de Windows NT. Lo más destacable es la adopción del entorno Windows 95, lo que facilita mucho su manejo y establece además una uniformidad muy interesante en lo que se refiere a sistemas operativos para PC Los que llevan ya un año trabajando con Windows 95 se sentirán cómodos con NT 4.0 desde el principio. En los últimos tiempos, la versión Server de NT se ha afirmado básicamente como servidor de archivos, impresoras y aplicaciones, en perjuicio de Novell Netware, que ha ido viendo como Microsoft gana cuota de mercado con su sistema. NT Server también ofrece servicios para Internet, pudiendo convertirse en un servidor Web, FTP y Gopher con las facilidades que el nuevo interface aporta. La aversión Workstation es muy empleada como estación gráfica de altas prestaciones en aplicaciones técnicas (CAD, diseño 3D, etc.), habiéndose convertido en una gran competidora de las estaciones UNIX. Sin embargo, NT Workstation 4.0 puede ser también una alternativa a muy seria ante Windows 95 para uso personal, principalmente por sus características de estabilidad, seguridad y rendimiento. Sus principales características son las siguientes: • Protección de la memoria Todos conocemos los frecuentes errores de las distintas versiones del tradicional Windows. Estos suelen estas motivados principalmente por el peso que supone mantener la compatibilidad con el viejo DOS, que sigue siendo una parte fundamental del sistema operativo Windows. Las aplicaciones necesitan memoria RAM para funcionar y cuando lo arrancamos, éstas buscan los bloques de memoria necesarios. Si el sistema operativo no se encarga de la separación o protección de estos bloques, cabe la posibilidad de que dos programas se interfieran intentando utilizar un mismo espacio en la memoria de nuestro ordenador. Esto da lugar a los típicos errores de protección general o a los del tipo "El programa ha efectuado una operación no valida se apagará", propios de Windows 95/98. Contra este problema, NT incorpora un modelo plano de memoria de 32 bits (esto permite gestionar un espacio de direccionamiento de 4 Gb sin necesidad de parches, contra los 640 Kb de MS−DOS) con protección entre aplicaciones y procesos. Esto implica que no pueden existir violaciones de áreas de memoria entre distintos procesos. Cuando un programa genera algún error, no afecta a las demás, ni a la integridad del sistema operativo, pudiendo cerrarse y continuar trabajando como si nada hubiera ocurrido. • Sistema de archivos avanzado Frente al tradicional sistema de archivos FAT (File Allocation Table o Tabla de Asignación de Archivos) propio de DOS y Windows, NT incorpora el sistema NTFS (NT File System o Sistema de Archivos propio de NT) que cuenta con características avanzadas que lo hacen muy superior al FAT, entre las cuales destacan su estabilidad, autorrecuperacion ante errores, tamaño de clusters más pequeño, soporte para discos duros mayores de 2.1 Gb, etc.
11
• Rendimiento El rendimiento viene marcado por las siguientes características: ♦ Diseño de 32 bits real Windows NT, a diferencia de Windows 95, es un sistema operativo totalmente desarrollado en 32 bits. Esto le va a proporcionar un mayor rendimiento, pues aprovecha plenamente las capacidades de los microprocesadores de 32 bits (80486, Pentium, Pentium II, etc.) ♦ Multitarea y multisubproceso (multithreading). Windows NT utiliza el modelo de multitarea prioritaria (preemptive) o real. De esta manera, varios, procesos pueden ejecutarse simultáneamente con diferentes prioridades. Por ejemplo, podemos estar formateando un disquete, descargando un archivo de Internet y seguir trabajando con nuestro procesador de textos. En muchas ocasiones la multitarea por si sola no es suficiente para asegurar un funcionamiento óptimo del sistema. La complejidad de muchas aplicaciones actuales hace que un mismo programa pueda requerir la ejecución de diversas tareas, denominadas subprocesos o threads. Con la simple multitarea estos subprocesos están englobando dentro de una misma tarea principal y se ejecutaran uno tras otro. Windows NT soluciona este inconveniente con el multisubproceso, mas conocido como multithreadig, que permite la ejecución simultanea de varios subprocesos, incrementando el rendimiento del sistema. • Portabilidad y compatibilidad Windows NT tiene mucha facilidad para conectarse con otras redes y sistemas operativos. • Interconexión con otras redes Windows NT Server es un sistema operativo de red muy flexible, diseñado para interactuar con los sistemas de red actualmente más comunes. Esto permite a los usuarios seguir trabajando con sistemas que ya conocen. • Compatibilidad del software Para que Windows NT pueda convertirse en un sistema operativo ampliable aceptado debe guardar compatibilidad con las aplicaciones software existentes. De nuevo la arquitectura modular ha permitido la compatibilidad con otros programas mediante la implementación de distintos subsistemas. Así, Windows NT soporta aplicaciones MS−DOS, Windows 3.x (16 bits), Windows 95 (32 bits), POSIX y OS/2 1.x, que se ejecutará en sus propios espacios de memoria, protegidos del resto. • Compatibilidad del hardware Windows 95 ofrece un extenso soporte de controladores de dispositivo (device driver) para el distinto hardware PC existente en la actualidad. Para mantener la compatibilidad anterior sigue soportando antiguos controladores de 16 bits que se cargan desde los archivos CONFIG.SYS y AUTOEXEC.BAT durante el inicio de la máquina y corren en memoria convencional, comunicándose directamente con el hardware. Este sistema asegura una compatibilidad enorme, pero resulta muy inseguro, pues deja el sistema vulnerable ante posibles conflictos entre dispositivos. Para paliar esta situación, Windows 95 incluye nuevos controladores (drivers) de 32 bits que proporcionan mayor rendimiento y seguridad para dispositivos como lectores de CD−ROM, tarjetas de sonido, ratones, etc. 12
Windows NT es radical. Sólo admite drivers específicamente diseñados para NT. El soporte de dispositivos hardware no es tan grande como el de Windows 95, aunque con la versión 4.0 se ha visto muy ampliado. • Escalabilidad La escalabilidad de Windows NT está asegurada por el soporte de varios procesadores simultáneos, trabajando en multiproceso simétrico (SMP, Simetric MultiProcessing). La versión 4.0 de Windows NT Workstation soporta de serie un máximo de 2 procesadores, mientras que el Server admite de serie 4, que pueden ampliarse a 32 mediante soluciones especificas de los fabricantes del hardware y software adicional suministrado por Microsoft. El soporte de multiproceso amplia enormemente las posibilidades de Windows NT y es otra de las características que marca las distancias con sistemas como Windows 95. • Seguridad Las características de seguridad son de gran importancia en un sistema operativo con la orientación de Windows NT, ya que ha de ser capaz de asegurar la protección de datos en complejos entornos de red. Estas características deben afectar a todo sistema y particularmente al sistema de archivos, el directorios de cuentas de usuario, el sistema de autentificación de usuarios, la gestión de la memoria, además de los distintos subsistemas del entrono y otros componentes. Windows NT cumple con todos estos requisitos con soluciones como el sistema de archivos NTFS, especifico de Windows NT o aplicando un gran tolerancia a fallos del sistema o de disco duro. • Historia, evolución y características básicas de Linux Linux es un clónico de UNIX desarrollado por Linus Torvalds mientras estudiaba en Finlandia que enseguida colocó en Internet para que todos los programadores aficionados del mundo le ayudaran a desarrollarlo. Como clónico utiliza la misma estructura que Unix, con lo cual cuenta con todas sus ventajas y una más: es de libre distribución. Unix fue desarrollado en los primeros años de la década de los 70, en los Laboratorios Bell en EE.UU. Sus creadores, con la intención de combatir los sistemas operativos complicados e inmanejables. Intentaron diseñar y construir un sistema que hiciese disfrutar a quien lo utilizase. Mucha gente diría que el intento tuvo éxito. Varias versiones de Unix se pusieron a disposición de las universidades, donde el software se hizo muy popular y disfrutó de un elevado estatus en varios sitios. La versión 7 de Unix de 1978 y el Sistema III de 1982 marcaron el comienzo de la utilización masiva de Unix en aplicaciones no académicas. ¿Por qué esta popularidad? Hay dos razones. La primera es la portabilidad de Unix, el hecho de que este pueda ser soportado por tantos modelos diferentes de computador. Si escribe sus programas en un lenguaje portable Como Cobol, Fortran o C (lenguaje en el que esta escrito Unix), y conseguimos ejecutarlos bien bajo la supervisión de Unix, podemos estar seguros de que funcionara correctamente bajo cualquier otro ordenador Unix sin tener que realizarse ninguna modificación. El entorno software es el mismo para toda la gama de grandes ordenadores y para los más pequeños procesadores: es un sistema estándar. Basta aprender a manejar uno y ya sabemos manejar cualquier otro. La segunda razón para la popularidad es lo bueno que es. Es el primer sistema operativo flexible, simple, modular y bien estructurado que pudo ser soportado por un pequeño computados. Existe una amplia gama de aplicaciones. Las herramientas de ayuda, el sistema de ficheros, el sistema E/S y el poderoso lenguaje de comandos (que lo convierte en un verdadero lenguaje de programación) son los elementos que se combinan 13
para conseguir que Unix sea agradable y sea un inmejorable entorno para el desarrollo de software. Este texto esta extraído de un libro de uso de Unix. Basta cambiar UNIX por LINUX para entender porque Linux es tan bueno. La filosofía de Linux es la misma que pensó su creador: un sistema operativo robusto, estable y libre. Con Linux no existe el pirateo (¿...?). Lo que existe es toda una comunidad de programadores aficionados dispuestos a dar su tiempo para el desarrollo de este sistema y que hoy por hoy ya es una alternativa seria a otros sistemas comerciales muy conocidos, lo que está empezando a crear algún dolor de cabeza a mas de un magnate del software. Como ya he dicho antes, Linux es un clónico de Unix que mantiene el 99% de las características de aquel. Si bien Unix es un sistema para redes, Linux funciona perfectamente en un PC compatible y sin necesidad de estar conectado a una red. También se está portando a otros sistemas, como Sun, Apple, Sparc, etc... para así conseguir que todos los ordenadores del mundo sean compatibles. Las utilidades corren mucho mejor y más rápido bajo Linux que sus equivalentes en Windows. Pero hay que dejar una cosa clara: NO SON SISTEMAS COMPATIBLES. Ojo, no alarmarse por esto porque muchas de las aplicaciones de Windows tienen alguna equivalencia y muchas compañías están portando sus programas más conocidos a Linux. Sirva como ejemplo Corel que ha realizado WordPerfect 8 para nuestro sistema favorito. Otro motivo para no alarmarse es que no tenemos que renunciar a las cosas que hayamos creado en Windows: podemos editar, crear y todo lo que se nos ocurra hacer en nuestros textos, páginas web, dibujos, composiciones musicales, etc... Esto se debe a que este sistema operativo entiende todos los formatos de ficheros que tengamos (MS−DOS, Windows, Mac, etc..). En un principio, lo único que teníamos era un sistema poco amigable con una consola de texto esperando a que le dijésemos que debía hacer. Esto se que no asusta a los viejos usuarios del DOS ya que estamos ante, básicamente, lo mismo. Pero para los nuevos usuarios de ordenadores que no entienden para que sirve ni que diablos es el MS−DOS, que les basta con Windows, puede ser un serio problema pasarse a Linux. Afortunadamente para todos, esto ya no ocurre desde la aparición de los gestores de ventanas al más puro estilo Windows, salvando las distancias, a favor de Linux claro. Se pueden destacar como características más importantes las siguientes: • Seguridad Otros sistemas operativos para computadores de escritorio simplemente dejan que cualquier usuario borre programas esenciales para el funcionamiento del sistema si así lo desea. Linux tiene avanzadas características de seguridad que protegen a su sistema, no solo de esto, sino también de ataques desde Internet, acceso sin autorización a los equipos, monopolio de recursos del sistema por parte de algún usuario o aplicación y además es invulnerable a los virus. • Estabilidad Otros sistemas operativos se vuelven cada vez más lentos en su ejecución, cada vez que se inician o cierran programas. Es necesario reiniciarlos incluso varias veces al día y además su sistema de archivos tiene que ser defragmentado periódicamente. También es común que tengan errores graves que bloqueen el sistema con una pantalla azul, haciendo perder tiempo y datos a los usuarios. Linux no tiene ninguno de estos problemas, y varias personas han reportado que han mantenido a Linux funcionando continuamente por varios meses, incluso años. No es necesario detener los programas que están en ejecución o reiniciar el sistema para instalar nuevos programas. Esto es muy importante para los servidores en empresas y en Internet.
14
• Portabilidad Linux corre en casi todas las plataformas de hardware conocidas. Actualmente hay versiones de Linux para la familia 80x86, los PowerPC, Alpha, Sparc, ARM, Power Mac, incluyendo además arquitecturas de 64 bits como DEC Alpha e Intel Merced. • Compatibilidad POSIX Linux sigue el estándar POSIX para aplicaciones de UNIX, por lo tanto para usar un programa POSIX en Linux, casi siempre, solamente es necesario recompilarlo. Virtualmente el 99.9% de los programas UNIX tienen una versión para Linux. • Compatibilidad con otros sistemas Linux puede ser instalado en una partición MS−DOS, y puede coexistir junto con MS−DOS, OS/2, Windows 95, Windows 98, Windows NT y cualquier sistema operativo que use este tipo de particiones. También puede leer y escribir datos en particiones DOS, OS/2 y FAT32. Además usando los emuladores DOSEMU y WINE (o algún otro) se pueden ejecutar la mayoría de los programas de DOS y de Windows en un sistema Linux. Linux no necesita estos sistemas para funcionar, es un sistema operativo completo y puede ser usado sin necesidad de ningún otro sistema operativo. • El sistema de archivos El sistema de archivos de Linux, llamado ext2fs, no necesita ser defragmentado como los sistemas de archivos de otros sistemas. Incluso si esta lleno a más del 95% y con alta carga del sistema (leyendo y escribiendo continuamente archivos) la fragmentación de los archivos se mantiene por debajo del 10%. También permite nombres muy largos de archivo, que pueden contener signos de puntuación. Y el límite del numero de directorios que pueden estar uno dentro de otro es suficientemente amplio. • VFS (Virtual File Sistema) Linux puede ``montar'' sistemas de archivos diferentes en su directorio de archivos, incluyendo particiones de otros sistemas operativos, sistemas de archivos de red, disquetes, CD−ROMs, e incluso un sistema de archivos que representa información en memoria. Los dispositivos de hardware también se representan como archivos. De esta manera las aplicaciones no tienen que preocuparse por como comunicarse con otros sistemas de archivos, unidades de disco, dispositivos de hardware, ni con el propio Kernel, solo necesitan saber leer y escribir archivos normales. • Java y ELF El Kernel de Linux tiene soporte para ejecutar programas en Java, incluso puede ejecutar applets como si fueran aplicaciones, aunque para esto último necesita tener instalado el JDK (Java Developer Kit). También soporta ELF (Executable and Linking Format) que es el último estándar para ejecutables en UNIX. • 32 y 64 bits con multiprocesamiento Linux usa extensamente el procesamiento de 32 bits de los micro−chips 80386 y superiores. Además puede usar todas las características adicionales de los últimos Pentium y AMD (que incluyen el uso de la instrucción halt para ahorro de energía e incremento de la vida útil del procesador), así como soporte para cualquier cantidad de procesadores que soporte el hardware en el mismo computador. En arquitecturas de 64 bits Linux es un sistema operativo que soporta todas las características del hardware, y ya funciona como sistema operativo para los nuevos procesadores Intel Merced de 64 bits. 15
• TCP/IP (Transmission Control Protocol / Internet Protocol) Es el protocolo de Internet. Linux existe gracias a Internet. Servicios como el correo electrónico, el chat y los grupos de noticias son elementos estándar en UNIX y Linux tiene las implementaciones más seguras y estables de estos protocolos. • El sistema X Windows Es un sistema gráfico poderoso y completo, con muchas aplicaciones. Tiene a su vez la posibilidad de usar varios sistemas administradores de ventanas, cambiando totalmente la apariencia del escritorio de Linux con sólo cambiar el administrador y se puede configurar para que se vea como cualquier otro sistema operativo. • StarOffice Esta suite de aplicaciones permite leer y escribir los documentos de otras suites como Microsoft Office y funciona muy bien con Xfree86. StarOffice no es parte de las distribuciones, excepto Caldera, pero se puede bajar gratuitamente de la red. • Software Comercial Disponible Actualmente hay gran cantidad de software comercial para Linux disponible, algunos de los más importantes son: INFORMIX y ORACLE que son administradores de bases de datos SQL, BB Stock para análisis del mercado de valores y bolsa, MAPLE V, Mathematica, Mathlab y Symulink para análisis matemático y complejas manipulaciones simbólicas, SPICE, herramienta para diseño y análisis de circuitos, y finalmente Corel WordPerfect 8, ApplixWare Office Suite y Axenne Office, que son Suites de aplicaciones de oficina. • Continuo desarrollo Es la más importante característica de Linux, que le permite evolucionar al mismo tiempo y tal vez más rápido que otros sistemas operativos. Hay aproximadamente una versión nueva del Kernel cada mes y medio, e incluso una versión cada semana, en algunas ocasiones. • Ventajas y desventajas de Windows NT frente a Linux al gestionar una red informática local. − En este apartado hablaremos de las ventajas y desventajas de utilizar los dos sistemas operativos para gestionar una red escolar: − Primero hablaremos de la cantidad de dinero que nos gastaremos en cada sistema operativo y el dinero que tendremos que invertir en nuestro servidor analizando los requisitos mínimos recomendados. Sistema operativo Windows NT 4 .0 Server Windows NT 4 .0 Server Windows NT 4 .0 Server Linux Linux Linux
Característica CPU (procesador) Memoria RAM Disco Duro CPU (procesador) Memoria RAM Disco Duro
Mínimo recomendable Pentium 200Mhz 64 Mb de RAM 400 Mb Pentium 75 Mhz 8−16 Mb. RAM 250 Mb
Tabla 1
16
En la tabla 1 se puede apreciar los pocos requisitos que Linux necesita para gestionar todos estos servicios respecto a Windows NT. Esto implica que el gasto en un servidor será mucho menor. Coste de Windows NT Windows NT 4.0 Server "" Enterprise Edition ""
5 usuarios 10 usuarios 25 usuarios 50 usuarios
$ 809 US $ 1,129 US $ 3,999 US $ 4,799 US
Tabla 2 Coste de Linux Linux
Infinitos usuarios
Gratis o $49.95 US
Tabla3 1 Dólar americano = ±185 Ptas. En las tablas 2 y 3 podemos ver que Linux es mucho mas barato que Windows NT que esto implica que el gasto también será mucho mas reducido con Linux que con Windows NT. − Ahora analizaremos el soporte de serie que tienen los dos sistemas operativos: Componente Soporte técnico gratis en línea Fuentes del Kernel Servidor Web Servidor FTP Servidor Telnet Servidor SMTP/POP3 DNS Sistema de archivos de red Servidor de News Número de sistemas de archivo posibles Cuotas de Disco Número de GUI's a escoger
Sistema Operativo Linux Si, Linux Online o Redhat Si Apache Web Server Si Si Si Si NFS y SMB Si
Windows NT Server 4.0 No No MS IIS Si No No Si NetBios No
32
3
Si 4
No 1
Vamos a explicar algunas cosas de esta tabla: • El soporte para las fuente del Kernel sirve para poder configurar a tu gusto el Kernel. Esto es posible gracias a que Linux es open−source, que quiere decir que todo se puede configurar o retocar sin necesidad de tener ninguna licencia especial ni tener que pagar mas. Esto en Windows NT 4 Server ni en ningún otro producto de Microsoft es posible porque no están los códigos fuente para los kernels de Microsoft al público. • El servidor web sirve para poner una pagina web a la vista de los usuarios de Internet. Esto requiere una conexión permanente a Internet ya que la pagina web reside en el servidor. Hay que decir que el 17
servidor Apache Web Server de Linux es totalmente gratis mientras que para conseguir el IIS de Windows NT 4 Server hay que comprarlo a Microsoft. • El servidor FTP sirve para que diferentes usuarios de Internet puedan coger o bajar los ficheros de su disco duro. Claro esta, usted puede configurar que usuarios quiere que puedan acceder a su servidor y que ficheros se pueden bajar. • El servicio de Telnet sirve para que diferentes usuarios puedan entrar al servidor para administrarlo remotamente, es decir, configurar aspectos del servidor desde otro ordenador conectado a Internet. Como puede ver, Linux ya tiene de serie este servicio mientras que con Windows NT 4 Server debería instalarse un programa a parte para dar este servicio. • El servicio SMTP/POP3 es para el correo electrónico. Esto sirve para tener una cuenta de correo en el servidor sin tener que contratarla a otro servidor extranjero. • El servicio DNS, como hemos explicado antes, sirve para asignar un nombre propio a un IP, es decir, en vez de escribir una serie de números para referirnos a una maquina, por ejemplo 192.1683.1.4, pues pondremos p4.dominio.com. Esto es muy útil cuando hay muchas maquinas en una red, como por ejemplo en Internet, que para ir a la pagina web de Hotmail no ponemos su IP sino que ponemos www.hotmail.com. • El servicio para sistemas de archivos de red sirve para compartir unidades con las maquinas que nosotros queramos o para tener un directorio común. Este servicio es muy útil cuando queremos compartir ficheros con otras maquinas o ejecutar un programa sin necesidad de instalarlo en cada una de ellas. • El servicio de News, como la palabra indica en castellano, sirve para que a cada dirección de correo que lo desee le lleguen las noticias que haya seleccionado. Este servicio solo esta disponible para Linux, ya que si lo quieres tener en Windows NT deberías instalarte un programa especial que de este servicio. • Como ya hemos hablado antes, cada sistema operativo distribuye el disco duro de una manera diferente. La forma de distribuir los archivos es muy extensa, por ejemplo Windows NT utiliza por defecto NTFS y Linux ext2, y la gran mayoría de veces son incompatibles. Algunos sistemas operativos soportan alguno sistemas de archivos diferente al suyo. Como podemos ver en la tabla Linux soporta hasta 32 tipos diferentes mientras que Windows NT solo 3. • El servicio de cuotas de disco sirve para restringir la capacidad de las cuentas de los usuarios. Esto es útil cuando nuestro disco duro no es muy grande o queremos controlar la cantidad de disco utilizado. • Las siglas de GUI (Graphical user interface) significan en castellano Entorno de Usuario Grafico. Esto quiere decir que el usuario puede gestionar el servidor de forma grafica como estamos acostumbrados en Windows 98. Windows NT solo posee un solo tipo de GUI, que es muy parecido al de Windows 98, pero Linux, en cambio, posee 4 o incluso mas GUI con la posibilidad de actualizarlas. Ahora veremos unas graficas que demuestran el rendimiento de Linux/UNIX frente a Windows NT 4 Server:
18
El eje de las X indica el numero de peticiones de los usuarios y el eje de las Y indican lo procesos de la CPU. Como podemos ver, estos dos gráficos se contradicen totalmente. Pese a que fueron medidos con el mismo programa y con las mismas condiciones, en el primero Linux aventaja a Windows NT 4 Server y sin en cambio el segundo dice todo lo contrario. La verdad es que creemos que el primero es mucho mas fiable que el segundo. • ¿Cuál de los dos sistemas operativos sería mas practico para gestionar una red local escolar? • Como hemos visto, Linux puede hacer lo mismo e incluso mas que Windows NT con un presupuesto muchísimo mas bajo. Ahora, el problema esta en saber funcionar bien el sistema operativo. La experiencia requerida para configurar Linux es bastante mas alta que para Windows NT, aunque el problema no es tan grande porque compañías como KDE, GNOME, etc... están haciendo mucho mas ameno Linux gracias a sus entornos gráficos, que son muy fáciles de configurar. Por lo tanto, yo preferiría un Linux como sistema operativo para el servidor en vez de Windows NT. • Conclusión • Tengo que decir que este trabajo me ha enseñado mucho sobre este tema y me he dado cuenta de las ventajas y desventajas de cada sistema operativo que antes no conocía. • Bibliografía. Toda la información aquí expuesta ha sido extraída en su totalidad de Internet. Kernel: El Kernel es el cerebro del sistema operativo. En él residen las funciones mas básicas para su funcionamiento.
19