LA DIRECCION DE PROTECCION CIVIL Y BOMBEROS DEL ESTADO DE NAYARIT, ES UNA INSTITUCION DEPENDIENTE DE LA SECRETARIA GENERAL DE GOBIERNO Y FUNCIONA MEDI
Story Transcript
GiGA
No. 2 / 2006
Director: Ing. Jorge Bolaños [email protected] Editora: Lic. Vilma Simoneau [email protected] Diseño: D.I. Humberto Becerra [email protected] D.I. Vianys Zamora [email protected] Redacción y corrección: Lic. Norma Márquez [email protected] Director de Marketing y Comunicación: Eviel Ramos [email protected] Economía y Finanzas: Elisa García [email protected] Consejo Editorial: Adolfo Cepero, Ramón Torres, Renaldo Velázquez, David Friedman, Ricardo Rey, Jorge Bolaños, Eviel Ramos, Vilma Simoneau. Pre-P Prensa Digital: Mandarina Diseño S.A. San José, Costa Rica. Impreso por: Impresión Comercial, Grupo Nación GN S.A. San José, Costa Rica. ¿Cómo contactar con GiGA? Edificio Miramar Trade Center, Ave. 3ra. y 78, 3er. piso, oficina 308, Miramar, Playa, Ciudad de La Habana, Cuba. Telefax: 204 7819 WEBsite: http://www.copextel.com Editada por: Dirección de Marketing y Comunicación, COPEXTEL Frecuencia trimestral
P
rimero nos llegó la computadora, pero no nos bastó. Luego vino la necesidad de extraer sus datos, cintas, discos, disquetes. No fue suficiente. Más tarde el requisito inaplazable de intercambiar información entre dos de ellas. PClink, Norton Commander, Qlink. Quisimos más. Llegaron las primeras redes locales: Novell, protocolo IPX, Windows 3.11 para trabajo en grupo. Nada, seguimos buscando. Las redes evolucionaron de pequeñas a medianas, de medianas a grandes, de área local a área amplia, de privadas a públicas… Y con ello apareció el nuevo reto: ¿cómo hacer para que ese mundo que nuestra propia evolución informática venía "enredando" funcionara eficientemente? Éste no es el primer artículo que nuestra revista dedica al importante tema de la gestión de redes. Devenidas una constante en nuestros días, las redes precisan una detallada planificación, un cuidadoso despliegue y una adecuada gestión. ¿Pero qué es la gestión de las redes? El término refiere a una gran variedad de aspectos relacionados con la administración de las redes. Una definición simple y bastante general, pero que permite hacernos una idea de la importancia vital de este asunto, puede ser la siguiente: servicio que utiliza una gran diversidad de herramientas, aplicaciones y dispositivos que nos permiten monitorear y dar mantenimiento a las redes. A destacar tres aspectos primordiales: Seguridad: Controlar el acceso no autorizado a la información. Yo accedo, él accede, y... ¡Tú no! Rendimiento: Algo así como que Juan esté copiando las tres partes del Señor de los Anillos. Pepe indexando una base de datos remota, y Julia esté accediendo al servidor de streamming para ver Bolek y Lolek que dan la vuelta al mundo en 80 días, sin que tengamos una hecatombe ofimática o que esperar por las calendas griegas para enviar un
simple correo electrónico de la PC en el buró de la derecha a la del buró de la izquierda. Disponibilidad: Asegurarnos que la red esté disponible a sus usuarios y accionar sobre los problemas de hardware y software. Ahora tengo correo, pero no Internet; ya llegó Internet, pero no veo el servidor; veo el servidor, pero no la red; ya veo la red, son las 5:00 pm y me tengo que ir... Nagios, es uno de los softwares, que entre muchos de su tipo, está diseñado para ayudar a los administradores y detectar cualquier problema en la red con la misma rapidez que se creó. Qué es, características principales, su estructura, áreas funcio-nales que abarca, dependencia de servicios, etc,son algunas cuestiones que trata este artículo. Invitación que GiGA les pone a su consideración, para juntos transitar por esta ancha avenida, donde en estos instantes después de parpadear la luz amarilla y la roja ha quedado atrás con este comentario, la verde nos da paso para que conozcamos que dentro de esta indumentaria tecnológica, no somos los únicos enredados en la red. Como ven en sólo unas cortas líneas hemos resumido el intríngulis de lo que puede ser una terrible pesadilla para nosotros, mortales usuarios de las redes, sin su adecuada gestión. Ello, por supuesto, no evita que alguna que otra vez alcemos los brazos ante el informático de la oficina, devenido gurú todopoderoso, mientras maldecimos secretamente: "…¿qué cambio habrá estado haciendo éste en el servidor hoy?", palabrotas mediante.
El Director [GiGA 2 / 2006]
1
contenido
La publicidad abre nuevas puertas Se ha hablado de la tendencia cada vez más acentuada en el mundo de la publicidad a la fuga de los capitales de medios tradicionales y reaparecer en nuevos escenarios: teléfonos móviles y videojuegos. Estos últimos han abierto un filón de oro para la publicidad, y valga repetir el dato: ese negocio mueve hoy 60 millones de dólares anuales y se prevé llegue a 2 500 en el 2010. De cómo se abre espacios la publicidad en el entretenimiento trata esta entrega.
[8]
Proyecto Origami, la cara al Ultra-Mobile PC Como parte del amplio espacio que ocupan los dispositivos portátiles, llega el Proyecto Origami en su nueva era: los Ultra-Mobile PC que pretenden mezclar las funcionalidades de una Tablet PC con la movilidad de una PDA. La innovación de Microsoft es una versión modificada de Windows XP Tablet PC Edition 2005 que incluye un teclado virtual a desplegarse en las esquinas de la pantalla y pueda ser ocupado con los dedos. Vea también origen y ventajas.
[ 10 ] Entre pantallas planas: LCP o PDP Dentro del mercado, existe hoy una pugna entre pantallas planas: nuevas generaciones representadas por las de display de cristal líquido (LCD) y las de panel-display de plasma (PDP). Así podrá conocer que una nueva generación de hardware de televisores se impone a nivel mundial paralelo a la renovación en la forma y contenido de la transmisión de televisión. Ventajas de unas y otras, así como especificaciones técnicas, conforman este trabajo.
[ 14 ] Gusanos que se hospedan en la Red Los especialistas de Segurmática vuelven con los peligros que pululan por la Red: los códigos maliciosos. Se trata de una variedad de gusano que no necesita el correo electrónico para autopropagarse, no dependen de la acción del usuario para moverse de PC a PC y se caracterizan por su rápida dispersión a partir de la explotación de vulnerabilidades presentes en aplicaciones y componentes de sistemas operativos instalados fundamentalmente en servidores.
[ 26 ] Enseñar utilizando la multimedia Las transformaciones que se suceden en el Sistema Nacional de Educación y que se extiende a todos los niveles, exigen que el proceso de enseñanza-aprendizaje dé paso a un profesor que dirija la actividad de aprendizaje de los estudiantes sin ocupar el lugar de alumnos, y que promueva la búsqueda, indagación, cuestionamiento y reflexión, a partir del empleo armónico y efectivo de los diferentes medios de enseñanza y aprendizaje que tiene a su disposición.
[ 46 ]
2
[GiGA 2 / 2006]
Nagios, una herramienta de gestión de redes Un producto probado, muy escalable y con grandes posibilidades de ampliación es Nagios, una herramienta de monitorización completa y potente que cualquier administrador de red debería conocer. Nuestra Corporación y Correos de Cuba la emplean para la monitorización de los equipos y servicios telemáticos y ambas entidades están satisfechas por el nivel de gestión que ofrece. Este sistema de código abierto, que constituye una alternativa económica a productos comerciales, de difícil adquisición y que supone un ahorro en licencias de software para las organizaciones que lo usen, es el tema central de este número.
sumario
[ 30 ]
Bajo las dunas del tiempo 4 8 10 14 18 22 24 26 30 34 38 40 44 46 49 52 54 58 61 62 63 64
Entrevista Camino a la informatización MarketingOnline La publicidad abre nuevas puertas Hardweriando Proyecto Origami, la cara al Ultra-Mobile PC Entre pantallas planas: LCP o PDP Por favor, uno por vez Notihardware Softweriando ¿Gnome o KDE? Gusanos que se hospedan en la Red Enredados Nagios, una herramienta de gestión de redes El mundo de XML Las ideas se comparten... ¿el autor se desprotege? Joystick Bajo las dunas del tiempo A fondo Multimedia Enseñar utilizando la multimedia perroWEBero Wikipedia, la enciclopedia libre Ctrl+H Pulsando teclas Doble click Elemental W… GiGAntes Grace Hopper Cartas y A punta de cursor Screen saver cruciGiGA
[ 40 ]
Para el mágico universo de los videojuegos, tampoco el tiempo se detiene y muchos sistemas que vieron la luz un día y parecen olvidados, no lo están del todo. A sacar del baúl de los recuerdos esos juegos, dedicamos el espacio de Joystick.
Wikipedia, la enciclopedia libre
[ 49 ]
Seguramente, en algún momento que has precisado una determinada información en Internet, has sido remitido a www.wikipedia.org, pues bien, la curiosidad y lo interesante que resulta ese sitio han hecho que hoy aparezca en esta Sección.
[GiGA 2 / 2006]
3
Lic. Norma Márquez González [email protected] Dirección de Marketing y Comunicación GiGA, Copextel
C
4
on el afán de continuar conversando con Directivos de la Corporación, hoy traemos el intercambio que sostuvimos con uno de los primeros conocedores y guías de esta publicación, el Vicepresidente que atiende la Unidad Estratégica de Negocios Ingeniería y Sistemas Automatizados (UEN # 3), de Copextel, el ingeniero Ramón Torres Gutiérrez. Esta Unidad tiene la misión de comercializar productos y servicios vinculados con la informática, la automatización y las comunicaciones, combinados con un alto valor agregado de ingeniería, de forma tal que lleguen a los clientes como soluciones integrales que satisfagan sus necesidades.
Y a la pregunta de cuáles son los objetivos de la UEN para su desarrollo, el Ingeniero Torres los sintetiza en las siguientes líneas de trabajo: • Redes informáticas de área local. • Equipamiento para el control en los puntos de venta y otras aplicaciones de registro y control de procesos. • Comercialización de literatura técnica y licencias de softwares, así como la administración de proyectos de desarrollo de softwares. • Suministros para la industria en sectores de gran importancia como el níquel, petróleo, la electricidad y el azúcar, entre otros. • La ejecución de proyectos para reforzar la imagen y la entidad empresarial.
A modo de introducción, el Vicepresidente precisó: "Con los cambios en el entorno económico registrados en el país durante los últimos años, en nuestra Unidad de Negocios se han operado procesos de reorganización y redistribución de los recursos humanos y materiales, que nos han permitido dar una mejor respuesta al proceso de informatización, a las necesidades y prioridades de hoy, sobre todo de los proyectos librados al calor de la Batalla de Ideas, en importantes sectores como la salud, la educación y la economía en sentido general".
El trabajo de redes informáticas
[GiGA 2 / 2006]
"La UEN por medio de su División Comercial PCmax y sus estructuras en las provincias ha desempeñado un significativo papel en el aseguramiento de suministros y la ejecución de importantes proyectos de redes informáticas de área local, como por ejemplo en la Universidad de Ciencias Informáticas, escuelas de formación de médicos latinoamericanos, otros centros universitarios, politécnicos de Informática, hospitales, la empresa de cítricos de Jagüey Grande, el turismo y Correos de
Cuba, entre otros. Para ello se han combinado soluciones tecnológicas de cableado estructurado en las categorías 5e y 6, soluciones inalámbricas en las bandas de 2,4 y 5 GHz y de acuerdo con los estándares 802.11 a/g/b, logran anchos de banda de hasta 54 Mb por segundo con una gran reducción de tiempo y recursos necesarios para su despliegue, y servidores de las gamas baja, media y alta que permiten brindar soluciones de respaldo y almacenamiento de datos para ambientes de grupos de trabajo, departamentales y corporativos", explica el Vicepresidente.
MaXso hoy: crecimiento y garantía A propósito de la línea de trabajo dirigida al equipamiento para el control en los puntos de venta y otras aplicaciones de registro y control de procesos, Ramón Torres especificó que esta labor la desarrolla la División Comercial Maxso, y es una actividad que en los dos últimos años registró un sostenido crecimiento en todo el país en la comercialización de puntos de venta: cajas registradoras y los PC-POS, estos últimos con tecnología de computadoras. Esos equipos tienen un gran mercado en el sector del turismo, específicamente en la compañía Palmares, las cadenas de tiendas TRD Caribe y CUBALSE, y
entrevista importante mantenerse informados y capacitados para poder sacar el máximo provecho a esas herramientas. Toda esa labor se realiza con un gran esfuerzo porque algunas de las medidas del bloqueo de Estados Unidos contra Cuba están especialmente diseñadas para dificultar y prohibir nuestro acceso a estos tipos de productos".
PC POS Dell comercializado por MaXso
La relación con la industria
DigiPOS comercializado por MaXso
Por medio de su División Comercial DAISA, esta UEN tiene la función de desarrollar relaciones comerciales con sectores relevantes de la industria a los que garantiza suministros diversos de instrumentación y control en la ejecución o mantenimiento de proyectos de automatización, así como válvulas de diversos tipos y conexiones para líneas de conducción de fluidos. La tarea más importante desempeñada por DAISA en los últimos dos años ha estado directamente relacionada con la División Tegos Industrial, también de nuestra Corporación, en los suministros de los sistemas ingenieros, las soluciones y el control automático para los sistemas de clima central que se instalan, por ejemplo, en los salones de operaciones de hospitales que se han remodelado al calor de la Batalla de Ideas.
fue muy preciso al afirmar: "Es satisfactorio llegar al año 2006 con una red de servicios técnicos para garantizar el adecuado soporte de mantenimiento a esos equipos en todos los territorios, con personal debidamente capacitado y entrenado que dispone de las herramientas necesarias y piezas de repuesto. Esto nos permitirá asegurar una óptima explotación durante toda su vida útil y contribuir a incrementar la eficiencia económica de la gestión de nuestros clientes teniendo presentes las importantes inversiones hechas por ellos".
Tecnologías de rápida evolución Un complemento para los clientes de las dos líneas anteriores y para las empresas que desarrollan software, desempeña la División Comercial SIS con el suministro de literatura técnica especializada en las áreas de informática, así como licencias de softwares. Al respecto acotó Torres: "SIS se convierte en un ente que propicia el trabajo de las empresas relacionadas con la informática y la producción de software, o sea, llena un vacío que existe en el mercado nacional en el suministro de literatura actualizada sobre informática, debido a que la tecnología se renueva y evoluciona constantemente y es
6
[GiGA 2 / 2006]
público objetivo como por las autoridades de control". Ya en los párrafos del cierre, el ingeniero Ramón Torres puntualiza al afirmar: "El objetivo de esta UEN es contribuir a dar una adecuada respuesta a las necesidades que en materia de informática, automatización y transmisión de datos presentan tanto las empresas como los proyectos que se hacen al calor de la Batalla de Ideas. Alcanzar esos fines no sólo requiere estar informados acerca de la última tecnología que irrumpe en el mundo, sino también analizar el grado de estandarización que éstas posean, el respaldo industrial por parte de los fabricantes, la posibilidad de adquirir los productos a precios razonables, formar y capacitar los recursos humanos y garantizar su asistencia técnica y piezas de repuesto". Y concluimos este recorrido de la Entrevista luego de conocer parte de toda la actividad que realiza la UEN # 3 por medio de sus Divisiones Comerciales y las representaciones
Garantizando la imagen y la identidad En este sentido, el Vicepresidente expreSegún estadísticas nacionales, la División Comercial PCmax es só: "Hemos tenido la el mayor comercializador de servidores en el país. responsabilidad de la ejecución de importantes proyec- territoriales de la Corporación en el tos de señalización, tanto interior interior del país, con una oportuna como exterior, en la educación, la invitación que hiciera nuestro entresalud y otros sectores, y en esa vistado para conocer más acerca de línea trabaja hoy la División Gong, las labores que desarrolla esta que se moderniza tecnológicamen- Unidad de Negocios y en general de te para mejorar la calidad de los la Corporación a visitar la página soportes informacionales acordes web http://www.copextel.com y tamcon las técnicas avanzadas actua- bién ampliar el contacto con les. Es igualmente significativo Copextel y sus Divisiones. Y una este tratamiento en el sistema sugerencia: si es de su interés profeempresarial cubano, para que las sional, le recordamos que el encuenentidades, sus productos y servi- tro Técnico Comercial Señal 2006 se cios puedan identificarse y recono- efectuará en el mes de octubre. cerse con facilidad tanto por el Contáctenos.
marketingonline
E
n números anteriores se ha hablado acerca de la tendencia cada vez más acentuada en el mundo de la publicidad a la fuga de los capitales de medios tradicionales para reaparecer en nuevos escenarios de Internet: teléfonos móviles y videojuegos. Así como el cine y la televisión lo hicieron una vez, el videojuego se ha abierto camino como una de las industrias de mayor auge en el sector del entretenimiento durante los últimos 15 años. Este singular medio ha colmado la imaginación de los fanáticos de la consola al darles la oportunidad de participar en las más emocionantes aventuras, vivir experiencias increíbles desde la piel de criaturas galácticas, seres mitológicos o encarnando a sus héroes preferidos dentro de los personajes más tradicionales, que de otra manera sólo podrían conocer como simples espectadores. Para encontrar el primer prototipo de videojuego en ordenador, Spacewar de Steve Russell, hay que
8
[GiGA 2 / 2006]
MsC. María del Pilar Herrera Puertas [email protected] Dirección de Marketing y Comunicación Copextel
remontarse al año 1961. En esa época, Steve era sólo un joven estudiante del Instituto Tecnológico de Massachussets y junto a un colega creó el primer videojuego de la historia. Poco tiempo más tarde, Nollan Bushnell, alumno de ingeniería en la Universidad de Utah, realizó junto con su compañero Ted Dabney una adaptación para que pudiera usarse en un televisor. En 1972, Bushnell y Dabney fundaron la empresa Atari para comercializar videojuegos en los bares y salones recreativos. Es probable que estos pioneros no imaginaran ser luego los padres de todo un sector empresarial y mucho menos el fuerte impacto que eso produciría en el futuro. Ya en 1992, la industria del videojuego superó la recaudación de las salas de cine en Estados Unidos y de ahí en adelante
la curva de crecimiento del sector cada vez expone valores más espectaculares. Estados Unidos, Japón y el Reino Unido mantienen los tres primeros lugares en el ranking, tanto en materia de producción como de consumo. Un reciente sondeo de The Associated Press y AOL, basado en las respuestas de 3 024 adultos estadounidenses, incluidos 1 046 jugadores, reveló que hoy el 40% de los estadounidenses participan en juegos de computadora o de consola. El año pasado, Microsoft facturó ventas mundiales de 5 billones de dólares en videojuegos y accesorios de entretenimiento, cifra que representa el 15% del total de la facturación de la compañía. Mientras, en España el sector registró 863 millones de euros de facturación en el 2005, un 16,4% más que en el 2004, para cubrir el 35% del consumo de productos de ocio. Para que se tenga una idea de las dimensiones de este mercado, es
marketingonline interesante revisar que el juego Halo (exclusivo de X-Box) en sus inicios vendió cinco millones de copias en tres años. Y su segunda versión, que salió en el 2004 y que cuesta 50 dólares, ha sido capaz de venderse con cifras de 2 millones de copias en un solo día en Estados Unidos y Canadá, lo que supera las recaudaciones de un fin de semana de los estrenos de El Hombre Araña 2 y Shrek 2, las películas más taquilleras de la historia. La investigación de The Associated Press y AOL, reveló también que los juegos más populares son los de mesa o de cartas, seguidos por los de estrategia, deportes extremos, aventuras, tiro al blanco y simulaciones. Otro dato importante es el hecho de que el grupo de adeptos se ha ampliado a segmentos que no se limitan a personas jóvenes. Plantean los investigadores que en la década del 90 la mayoría de los fanáticos del videojuego eran quinceañeros del sexo masculino; hoy los promedios de edad se mueven entre 25 y 30 años, mientras las mujeres ya representan el 47% del total del grupo.
Una estrategia para el desarrollo Si se observa el filón de oro abierto por los videojuegos para la industria de la publicidad, es obvio que en esta estrategia lo novedoso se logre a costa del propio medio. Pero en esencia, se puede decir que se trata de más de lo mismo: no es de despreciar que el negocio mueve ya 60 millones de dólares anuales y se prevé alcance 2 500 para el año 2010. En abril del 2004 se celebró en el Metropolitan Pavilion de Nueva York, una feria que se ha conocido como la primera dedicada al tema de la publicidad en los videojuegos. A esta cita inicial acudieron profesionales de la industria de la publicidad y ejecutivos de diversas compañías de juegos, buscando puntos en común para que la publicidad se convirtiera en el futuro en una de las principales fuentes de financiamiento en el desarrollo de los juegos. Aunque no deja de ser una vieja fórmula que ya ha tenido su historia en
otros medios como la TV, utilizar la publicidad para cubrir los gastos de desarrollo en una industria con marcado ascenso y en la que abunda la piratería, sin duda es una estrategia válida que ya comienza a materializarse con resultados muy prometedores para ambas partes. La idea es que la publicidad se integre de la manera más natural posible en la aventura que se desarrolla en el juego. Por ejemplo, los jugadores de Tom Clancy's Splinter Cell: Chaos Theory encuentran máquinas expendedoras de bebidas con el logo de Sprite que deben usar para continuar, mientras en el juego en red Anarchy aparecen vallas publicitarias con anuncios que cambian con intermitencia, como en la vida real.
Otras ventajas del medio Massive Incorporated, una de las principales agencias estadounidenses del sector, con clientes como Nokia o Paramount Pictures, opina que este tipo de anuncios será la principal forma de publicidad en un futuro próximo y afirma que presenta muchas ventajas. "En los juegos en red, por ejemplo, nuestros anunciantes pueden dirigirse a los jugadores con mensajes distintos basados en la zona geográfica o el momento del día en que se encuentran", explicó Amanda Bird, portavoz de Massive Incorporated. A diferencia del product placement tradicional, este tipo de publicidad permite modificar los anuncios con rapidez o medir detalles como el número de impresiones por anuncio. En breve, un jugador podrá probar el último modelo de Porsche en un rally virtual o aumentar los poderes de su personaje gracias a la adquisición de una determinada marca de zapatillas.
Y ¿cómo reaccionan los jugadores ante la intromisión publicitaria? Según un estudio de la consultora Nielsen Interactive Entertainment, la mayoría de los usuarios de videojuegos opina que la publicidad hace que éstos sean más realistas. También Massive Incorporated se pronunció al respecto y plantea que la acogida es generalmente buena porque los anuncios respetan la estética de los juegos. Los estudios
muestran que a un 90% de los jugadores no les molesta la publicidad siempre que se adapte al ambiente del entretenimiento, afirma Bird y puntualiza: "En último caso, beneficia a los jugadores, porque los ingresos que generan para los productores se invierten en mayor creatividad". Sin embargo, ya es amplio el debate sobre el tema y otros expertos se muestran escépticos sobre su éxito a largo plazo y recuerdan que los primeros correos basura que se recibieron también parecieron una novedad interesante. Desde esta Sección en números anteriores, se ha reflexionado acerca de la amenaza que significa el intrusismo para el desarrollo del comercio electrónico y en general para las nuevas herramientas del marketing en Internet. Muchas veces ha ocurrido que la rentabilidad que alcanza la publicidad al invadir nuevos medios se convierte en un arma de doble filo para todos. Se hace necesario no olvidar las consecuencias vividas por el destructivo mecanismo que se ha desatado con el uso de los llamados correos spam y del problema que significa hoy detener una maquinaria publicitaria, que sin dejar de ser muy rentable a mediano plazo, a la larga amenaza con afectar sensiblemente la efectividad de todo el sector. Ahora cabría preguntarse si algo así puede pasar con la publicidad en los videojuegos. Por otra parte, muchos usuarios se cuestionan la posibilidad de que todo esto le reporte algún beneficio directo y palpable a los videojugadores. ¿Bajarán los precios de los videojuegos debido al ingreso extra que obtienen las empresas por la publicidad? Hoy, sin ir muy lejos: ¿cree que si Microsoft incluyera publicidad en su consola Xbox Live, ésta bajará de precio?... Al observar el gran negocio que hay en todo esto, cabe la duda de que ocurra. Y es posible pensar que Usted tendrá que acostumbrarse a ver letreros de Coca Cola y McDonalds en sus FPS favoritos y lidiar con sus efectos sin recibir en lo personal algún otro saldo que valga la pena agradecer. [GiGA 2 / 2006]
9
hardweriando
D.I. Humberto Becerra López [email protected] Dirección de Marketing y Comunicación GiGA, Copextel
E
l 7 de noviembre del 2002 Microsoft daba a conocer un avance tecnológico: las Tablet PC, de las que se habló en el número 4, bajo el título El futuro de la PC móvil, y en él se reflexiona acerca de la tecnología de reconocimiento de voz y escritura y si lograrían sustituir al teclado. Lo que en aquel entonces parecía ser la sustituta de las PC móvil no fue más que un fracaso de mercado. A sólo tres años y medio, Microsoft presenta, precedido por una intensa campaña de marketing el Origami Project (Proyecto Origami). Éste no es más que un señuelo para anunciar una nueva era en los dispositivos móviles, llamados Ultra-Mobile PC (UMPC). La idea es mezclar las funcionalidades de una Tablet PC con la movilidad de una PDA. Algo que ya se había visto en el Nokia 770, pero esta vez con una versión modificada de Windows XP Tablet PC Edition 2005, que incluye entre otras cosas, un teclado virtual que se despliega en las esquinas de la pantalla y pueda ser ocupado con los dedos.
Un poquito de historia Para hablar hoy de los UMPC, se debe remontar en el tiempo unos cuantos años atrás... En la década de los años 60, concretamente en 1963, Ivan Sutherland habla en su tesis doctoral sobre la creación de un dispositivo para elaborar dibujos de ingeniería con un lápiz óptico utilizando su ordenador, pero es en 1964, cuando la empresa RAND Corporation construye el dispositivo RAND Tablet, conocido también como Grafacon. Su precio era extraordinariamente elevado. En esa década, Alan Kay se aproximó en el '68 a augurar un futuro en el que un dispositivo de lápiz óptico, podría permitir a una persona tomar notas y trabajar interactivamente mediante comunicaciones inalámbricas.
10
[GiGA 2 / 2006]
En la década de los 70, la evolución de dispositivos de lápiz óptico estaba en una fase primaria y aún no se habían creado las bases adecuadas para que fuera un éxito. El SRI (Stanford Research Institute) trabajó en aquellos años en la transformación de un ordenador de sobremesa a uno portátil, que hoy es comúnmente utilizado. El SRI aventuró una década llena de lanzamientos de dispositivos tecnológicos, lo cual ha sido una realidad. De esta manera, SRI comenzó a trabajar en temas relacionados también con los lápices ópticos, desarrolló el primer software para el uso de éstos y añadió alternativas al teclado del ordenador. Resumen del avance tecnológico hasta el año 2005: •1989 - GRID Computing introduce
el primer ordenador portátil con una pantalla táctil y un teclado. A este dispositivo se le conoció con el nombre de GRIDPAD y estaba basado en una versión de MSDOS. •1991 - GO Corporation desarrolla un entorno operativo completo con el empleo del lápiz óptico, y que recibirá el nombre de GO PenPoint, el cual será introducido en los dispositivos personales de nombre EO. Pero, la empresa presentó problemas financieros para desarrollar su propio hardware y esa iniciativa fracasó. •1992 - Representantes de Microsoft acuden a las oficinas de GO para convencerles de desarrollar sus dispositivos con el uso del sistema operativo Microsoft Windows. La reunión no terminó como se esperaba y resultó que en ese año,
hardweriando Microsoft implantaría capacidades de uso de lápiz óptico para sus propios SO, y surge el Pen Windows. La primera versión de éste era una modificación de Microsoft Windows 3.11 y más tarde se denominó Microsoft Windows for Pen Computing versión 1. •1993 - Apple desarrolla el Apple Newton MessagePad de la mano de John Sculley, quien acuñara el término de PDA (Personal Digital Assistant) al referirse a Newton. •1994 - Palm Computing sacaría Graffiti, un nuevo método de reconocimiento de escritura con lápices ópticos, pero esta solución requería que el usuario adaptase su método de escritura al dispositivo, por lo que aunque fue un paso muy importante en el avance de este tipo de dispositivos, no tendría el impacto esperado.
•1996 - Aparece el Palm Pilot, el PDA de bolsillo. Este pequeño dispositivo consiguió elevadas ventas y se afianzó en el mercado de agendas portátiles en el que ocupó primer lugar en ventas. •1999 - Llega el Microsoft Pocket PC, con sistema operativo Microsoft Windows CE. Ofrecía muchas más posibilidades que la actual Palm Pilot, que era una agenda electrónica en blanco y negro. El Pocket PC brindaba mayor resolución gráfica y aplicaciones en colores. •2000 y 2001 - Surgen otros tipos de dispositivos como el Gateway Connected Touch Pad (2000), el Sony Vaio Slimtop Pen Tablet (2001), IBM TransNote (2001) y el Intel Web Tablet (2001). •2002 - Aparece el Microsoft Tablet PC después de largos años. Sus comienzos se recuerdan por el año 1998 cuando SGI (Silicon Graphics Inc.) ofreció a Microsoft esta idea, y fue rechazada por los principales fabricantes de este tipo de dispositivos. Actualmente, el Tablet PC posee increíbles capacidades: una casi per-
fecta ingeniería de reconocimiento de escritura con un software de reconocimiento basado en millones de ejemplos de escritura de todas las partes del mundo, tecnología inalámbrica, y se dota al dispositivo de la última tecnología en sistemas operativos, el Windows XP.
Peculiaridades de los nuevos UMPC Entre las peculiaridades de los nuevos UMPC se encuentra la tecnología Touch Pack, desarrollada por Microsoft y está destinada a mejorar la interfaz de la pantalla táctil. De ella nace el concepto DialKeys, que reproduce un teclado curvo y partido en dos, situado en los extremos inferiores del monitor, que invita al usuario a teclear con los dedos pulgares, iconos más sencillos, y en general, adaptaciones pensadas para usar el aparato sin teclado ni ratón, pero tampoco sin perder los nervios. Disponen de Windows XP Tablet PC Edition 2005, pantalla táctil de 7 pulgadas o menor, resolución mínima de 800x480, WiFi, Bluetooth, posibilidad de añadir módulos de GPS, televisión digital, etc. Los procesadores serán Intel Celeron M, Pentium M ó VIA.
Primeros fabricantes de UMPC En la pasada feria de CeBIT 2006 fueron mostrados varios prototipos que causaron la admiración de los asistentes. Apadrinados por Microsoft, los primeros Ultra-Mobile PC han descubierto su rostro. Cuatro firmas asiáticas: Samsung, Asus, Founder y PaceBlade Japan dieron cuerpo a este nuevo concepto de ordenador portátil en el que se dan cita pantallas táctiles de 7 pulgadas, tecnología inalámbrica y una versión adaptada del sistema operativo Windows XP. Entre los prototipos presentados se encuentran: Samsung Q1
Éste cuenta con un procesador Celeron M a 900 MHz de Intel, un disco duro de 40 Gb y 512 Mb de memoria RAM. En el capítulo de la conectividad, aparte de las tecnologías inalámbricas, Wi-Fi (802.11b y g) y Bluetooth 2.0, dispone de una ranura para tarjetas de memoria SD Card y de un par de puertos USB. La pantalla de 7" ofrece una resolución de 800 x 480 píxeles y el peso del conjunto no supera -asegura Samsung- los 780 gramos. Como todos los UMPC opera bajo una versión especial de Windows XP. Asus R2H
El UMPC fabricado por ASUS llegará al mercado en dos versiones, según informó la compañía taiwanesa. El R2H destaca frente a sus "hermanos UMPC" por la inclusión de un navegador GPS y por un sistema de identificación mediante huella dactilar. Su pantalla de alta resolución es de 7" e incorpora una cámara digital, con capacidad de grabación de vídeo o webcam, de 1,3 megapíxeles. Además de ser compatible con las tecnologías inalámbricas WI-FI y Bluetooth, dispone de una ranura de extensión SDIO SD/MMC y un puerto USB. El miniportátil de Asus entró en producción en el mes de mayo. Founder Mini-note
Es el primer UMPC fabricado por China, esta vez por la firma Founder. Sus principales características son pantalla de 7" WVGA, disco duro de 1,8" entre 30-60 Gb, tecnologías [GiGA 2 / 2006]
11
hardweriando inalámbricas WiFi y Bluetooth y dos puertos USB, con un peso aproximado de 800 gramos. Smart Caddie
La compañía japonesa PaceBlade Japan (PBJ) no quiere quedarse atrás en el mercado de los Origami y por eso presenta su modelo bajo el nombre de Smart Caddie con características muy parecidas a sus homólogos. El UMPC de PBJ presenta un procesador Intel Celeron Via C7M a 1 GHz, con Windows XP Tablet PC Edition 2005, con 7", display de 800x480, su forma es al estilo Mac-like. Compatibilidad con tecnología WiFi y Bluetooth, con una batería de 2,5 horas. Las dimensiones son de 228x146x25.1mm y un peso de 860g. Este modelo estará disponible en Japón desde mediados de abril. TabletKiosk V700
Presenta un procesador Intel Celeron Via C7M a 1GHz, con el sistema operativo Windows XP Tablet PC Edition 2005, con 7", display de 800x480. Compatibilidad con tecnología WiFi y Bluetooth. Las dimensiones son de 228x146x25mm y un peso de 900g.
Juntos, pero no revueltos El Intel Developer Forum (IDF), fue el marco inaugural de los primeros UMPC, los promotores de esta nueva especificación de dispositivos son Intel (proveedora de los chips) y Microsoft (suministradora del sistema operativo). Los primeros dispositivos saldrán al mercado a un elevado pre-
12
[GiGA 2 / 2006]
cio, aunque se espera que en el 2007 un UMPC esté cerca de los 500 dólares. Se prevé consuma apenas 0,5 vatios, pero hasta entonces montará procesadores Dothan de ultrabajo voltaje y un chipset 915GM. También
trabajan para mejorar la parte técnica con el fin de aumentar la autonomía a 24 horas y reducir el peso. En Cebit 2006 ocurrió algo que Intel no esperaba: Microsoft lanzó lo que ellos pretenden sea el estándar de UMPC, y se dijo que los procesadores podrían ser Celeron M, Pentium M y VIA C7-M. En otras palabras, el TabletKiosk y Smart Caddie no son un clon del UMPC Intel, sino una versión más del UMPC Microsoft, por lo que cumple con todas las especificaciones. Partiendo de la base que VIA va a competir en precio, la maniobra de Microsoft no sólo insertó un jugador adicional al mercado, sino que le
hardweriando
regaló el concepto UMPC que Intel tanto gastó en promocionar.
Chirrín, chirrán… Es bueno destacar que el hecho de que las Tablet PC no triunfaran en el mercado, no necesariamente será igual para su hermano más pequeño: el UMPC. Quizás sea éste el momento para un portátil sin teclado y pantalla táctil. Resulta un hecho a considerar que la tecnología Touch Pack y el concepto DialKeys mucho van ayudar a que estos dispositivos logren imponerse en el mercado. No se debe dejar de mencionar la amenaza que representan las PDA y Smarphone que a
pesar de ser más pobres en cuanto a prestaciones, son mucho más económicas y han demostrado su potencial, ya que los UMPC tienen aún mucho que enseñar. Otro punto que no se debe dejar de mencionar es la pobre duración de las baterías las cuales no pasan las tres horas y lo óptimo sería 8 horas o más. Cuando se conoció el Proyecto Origami se decía que sería un equipo pequeño portátil con autonomía para 24 horas, pero eso es algo que está por lograrse. Aunque se sabe que esto no es la consola portátil de juego de Microsoft, debe tenerse en cuenta para el futuro la posibilidad de que se puedan correr
juegos de gráficos complicados al estilo Halo, que hoy no es posible. Aunque la idea del proyecto Origami no está del todo mal, se puede apreciar que Microsoft busca aún un nicho en el mercado para colocar sus productos y hacer correr su sistema operativo insignia. Es penoso que después de tres años de avances tecnológicos, sea una variante mejorada y reducida de una Tablet PC lo que presente, en realidad se esperaba más. Bien pudo ser una actualización del sistema operativo para las Tablet PC y haber centrado los esfuerzos en un portátil de juego que le hiciera frente al PSP y al NDS. [GiGA 2 / 2006]
13
hardweriando
Ing. Juan Carlos García
U
na nueva generación de hardware de televisores se está imponiendo a nivel mundial paralelo a la renovación en la forma y contenido de la transmisión de televisión. Los grandes fabricantes de paneles para televisores de pantallas planas, concentrados en Japón, Corea del Sur y China, han realizado millonarias inversiones en las diferentes líneas de ensamblaje, con el objetivo de elevar las producciones hasta niveles que permitan gradualmente abaratar los precios de mercado de dichos productos (Fig.1), grandes emporios de la electrónica de consumo, realizan fusiones estratégicas para tratar de "marcar la punta" de la carrera y llevarse el mayor porcentaje de mercado y ganancias posibles. Si bien es cierto que las marcas japonesas (Sharp, Panasonic, Sony, Fujitsu, Pioneer, etc.) inicialmente constituían las de mayores niveles de ventas, amparadas por su experiencia, calidad y el prestigio que las precede, sus rivales surcoreanos (Samsung y LG, fundamentalmente), les han dado alcance de manera muy rápida al potenciar la investigación de estas nuevas tecnologías, diseñando productos con excelente calidad y prestaciones, también las empresas chinas comienzan a hacerse sentir en los grandes mercados con sus productos de menor precio y excelente calidad: Top Victor Electronics (AOC), Chi Mei Optoelectronics Corporation (CMO), TTE Corporation (TCC), etc., constituyen opciones muy "llamativas" para los consumidores.
14
[GiGA 2 / 2006]
Existe una variedad de conceptos, tecnologías aplicadas, siglas y nombres técnicos que anteriormente no se veía en la literatura técnica ni comercial de los televisores, y que ahora inundan las noticias en este campo, aparecen en catálogos comerciales, y se destacan como características esenciales al comparar y definir cuál producto adquirir. Tales son los casos de: LCD, PDP, LCOS, OLED, TFT, ASPECT RATIO, PIXELS, HDMI, HDTV, HDTV Ready, HDTV Compatible, tiempo de respuesta, resolución máxima y resolución ade-
cada a los dispositivos de visualización: cámaras, televisores, monitores, etc., su efectividad para mostrar los parámetros de la televisión estándar SDTV (Standard Definition TV), en cualquiera de las normas de televisión actualmente en vigor, son insuperables por cualquier otra tecnología, incluso, se han creado nuevas técnicas para mejorar su rendimiento y lograr mayores resoluciones, colores más vívidos, etc., tal es el caso de las pantallas: Wega (Sony), Tau (Panasonic), Tantus (Samsung), Flatron (LG), etc., en cada una de las
Fig. 1: Nuevas líneas de ensamblaje en Corea del Sur. (LCD Y PDP) Area de Control de Calidad.
cuada, TDT, DTV, ATSC, DVI, BURN-IN, y muchas más que llevarían gran parte del texto enunciarlas y siempre faltaría alguna, pudieran traer confusión, duda o resultar ambiguas para los amantes de la alta tecnología.
Pasado, presente y futuro inmediato Realmente, la tecnología del Tubo de Rayos Catódicos (TRC) luego de pasado más de un siglo de su implementación por el científico alemán Ferdinad Braun (1897), sigue constituyendo la principal tecnología apli-
cuales se han introducido modificaciones en los hardwares de los televisores para obtener una calidad de imagen excelente de las señales de baja-media resolución. Permiten buenos ángulos de visualización (campo visual efectivo para apreciar de manera clara la imagen a ambos lados del centro-frente de la pantalla) alrededor de 150 grados. Se alcanzan niveles de contraste (relación existente entre la intensidad del punto más claro y la del punto más oscuro de la pantalla, valor mínimo: 100:1) y brillo (intensidad lumi-
hardweriando nosa de una fuente de luz en un área, cd/m2, valor mínimo: 150 cd/m2) muy altos, mientras más focalizada se hace el área de impacto de los haces de electrones sobre las superficies fosforescente, y por encima de todo, debido a la longevidad de dicha tecnología existe mucha madurez y experiencia en su implementación productiva, por lo que los costos se han abaratado notablemente y ello permite una considerable reducción de los precios de mercado en todos los tamaños de pantalla. ¿Cuáles son entonces las deficiencias de esta tecnología que la harán desaparecer en un futuro mediato? •Gran Peso y Volumen: Por ejemplo: un TV Wega de Sony de 29" pesa alrededor de 80 kg (176 lb) y ocupa un volumen de 0,37 metros cúbicos. •Alto Consumo energético: Tomando el mismo ejemplo del de 29" Wega Sony, el consumo promedio desde los 225 W. •El Campo Eléctrico de alto voltaje, los Campos Magnéticos de baja frecuencia y los Rayos X, todas estas emisiones son nocivas para el ser humano. •La tecnología de barrido entrelazado con refrescamiento de pantalla produce parpadeo de las imágenes con el consecuente sobreesfuerzo y fatiga visual. •Su resolución análoga, dada por la cantidad de líneas de escaneo, no permite el adecuado aprovechamiento de la señal de HDTV (High Definition TV-televisión de alta definición), en ninguno de sus tamaños de resolución (720p/1080i/1920x1080i). Al aproximarse la mayor transformación de la televisión desde que el color sustituyó al blanco y negro, los grandes productores de aparatos telerreceptores muy tempranamente se volcaron hacia la implementación de productos que fueran compatibles con las resoluciones de las imágenes a transmitir, y a su vez, eliminaran los inconvenientes que persisten de la vieja tecnología TRC. Han surgido diferentes variantes, algunas más recientes y otras de mayor experiencia desde su fase de diseño e implementación, tal es el caso de DLP (Digital Light Processor procesamiento Digital de la Luz), ya con cierta experiencia en proyectores
digitales, histórico competidor de los paneles LCD (Liquid Cristal DisplayDisplay de Cristal Líquido), en la cual se logran tamaños muy reducidos y de bajo peso, con altos niveles de respuesta en la transición de las imágenes, pero que no alcanza los niveles de viveza del color de alto rango que genera el LCD, OLED (Organic Light Emission Diode-Diodo Emisor de Luz orgánico), una de las más recientes y de mayor interés por el grado de saturación de color que logra, al igual que el alto nivel de brillo y contraste que genera, no necesita fuente de luz trasera como el LCD, pero presenta el inconveniente actual de tener poca vida útil comparado con el resto de las tecnologías, los sistemas de proyección (rear proyection), opción bastante barata para grandes pantallas al alcance de los consumidores, y otras como la Lcos, proyección frontal, etc., pero no cabe duda de que las más aventajadas en alcanzar el objetivo de la compatibilidad con el nuevo sistema de TV y mostrar un diseño ultramoderno de grandes pantallas son la tecnología LCD y la PDP (Plasma Display Panel-Panel Display de Plasma). La LCD, tecnología basada en las propiedades moleculares de las sustancias de "cristal líquido", y su incidencia sobre la orientación de la luz al paso de la corriente eléctrica, surge en los inicios de la década de los 70, de la mano de la marca japonesa Sharp. Posteriormente se fue ampliando su implementación al resto de las grandes marcas de la electrónica de consumo y hoy muchas de ellas muestran los avances obtenidos en las séptimas generaciones de estos monitores-televisor con grandes mejoras en relación con sus inicios. Otras marcas de menor incidencia en los mercados también exponen sus productos dentro de la misma tecnología al alcanzarse mayor experiencia en su implementación. Las sustancias más comúnmente utilizadas en este tipo de tecnología son las termotrópicas nemáticas (TNTwisted Nematic), la cual es muy susceptible al paso de la corriente eléctrica y provoca su orientación molecular de forma predecible. Si dicha sustancia se coloca entre dos filtros polarizados perpendicularmente alineados, anexos a sendos
vidrios y no se le somete a campo eléctrico alguno, las moléculas "rotan" de tal forma que cambian el ángulo de incidencia de la luz procedente de una lámpara blanca colocada detrás del primer filtro polarizado, haciendo que coincidan en alineación con el segundo filtro polarizado, dejando pasar la luz. Por el contrario, cuando se le somete a un campo eléctrico energizado a través de electrodos transparentes que alimentan toda la matriz de píxeles, las moléculas de cristal líquido se alinean de tal forma que no producen la rotación de la luz, bloqueándola, creando en la pantalla imágenes nítidas conformadas por cada píxel o subpíxel que se ilumina o permanece oscuro. Los niveles de grises se logran modulando el nivel de campo eléctrico aplicado sobre la matriz, en el caso de las pantallas en colores, cada subpíxel representa un color RGB (redrojo/green-verde/blue-azul) y los diferentes tonos de colores se logran con la misma modulación. (ver Fig. 2) Para hacer más rápido el proceso de transición de una imagen a otra (velocidad de refrescamiento), la tecnología LCD se ha apoyado en una variante de ésta que es conocida como TFT o matriz activa (TFT: thing film transistor-Transistor de capa delgada o fina). Una matriz de transistores y capacitores colocados en la red de cada píxel o subpíxel permite el mejoramiento sustancial del color, el contraste y la velocidad de respuesta de la pantalla eliminando los molestos "fantasmas" o imágenes difusas que se perciben en LCD de matriz pasivas que no presentan estas redes. Para seleccionar el píxel adecuado por cada color se "activa" la red en cuestión y el capacitor mantiene la carga eléctrica energizante hasta el próximo refrescamiento del píxel. Los paneles PDP basan su tecnología en la utilización de millones de pequeñas cámaras de vidrio, dentro de las cuales gases inertes a baja presión (xeón/neón, son los más utilizados), pasan al estado de "plasma" como consecuencia de la aplicación sobre ellos de una carga eléctrica o voltaje aplicado. Cada pequeña cámara representa un píxel del panel, al energizarse el gas emite una luz ultravioleta que incide sobre las sustancias fosforescentes que se encuentran detrás de cada cámara [GiGA 2 / 2006]
15
hardweriando
Fig.2 Principio de trabajo de las sustancias TN (LCD).
(tres fósforos, representando los colores RGB), muy similar a los fósforos descritos en la tecnología TRC, logrando imágenes de alto nivel de contraste y gran riqueza de colores (ver Fig.3).
Fig. 3. Principio de trabajo de los paneles PDP.
Esta tecnología tiene sus raíces desde la década de los 60 en estudios realizados en Estados Unidos, en la Universidad de Illinois, pero técnicamente tuvo que esperar 35 años para poder implementarse a escala de mercado. A continuación se relacionan las ventajas y desventajas de una respecto a otra y dónde está realmente la lucha "encarnizada". 1)La tecnología LCD presenta la ventaja de tener muy bajos consumos energéticos durante su funcionamiento, ya que requiere niveles bajos de corriente para lograr los comportamientos deseados de las sustancias que la componen. Los paneles LCD representan cerca del 40% del consumo promedio de uno PDP de iguales dimensiones, además, la emisión de calor de un panel LCD es casi nula,
16
[GiGA 2 / 2006]
mientras en los PDP hay un desprendimiento de calor (mucho menor que en los TRC), pero puede provocar un leve zumbido similar a la afectación que se sufre con la altura y la presión. Los PDP están limitados en su colocación física a no más de 6500 pies de altura sobre el nivel del mar, mientras que los LCD pueden alcanzar el doble en su colocación. Todas estas limitaciones hacen que la probabilidad de fallos en los PDP sea más alta que en los LCD. 2)También se logra niveles de brillo superiores en los LCD con respecto a los paneles PDP, sobre todo, niveles de brillo medio, medidos en ambientes de luz natural o artificial en condiciones normales de visión, el valor de brillo de los LCD bajo estas condiciones puede oscilar entre los 430 y 500 cd/m2 en dependencia del tipo de panel (marca), mientras que en los PDP los valores reales de brillo medio pueden decaer bajo las mismas condiciones alrededor de los 100 a 250 cd/m2, esto se debe a que la mayoría de los fabricantes de paneles de plasmas (PDP), maximizan el brillo, bajo condición de poca luz ambiente y midiendo sólo una porción determinada de la pantalla y no la media en varios puntos en condición de iluminación exterior. 3)En cuanto a la resolución digital, establecida por la cantidad de píxeles que conforman las matrices de filas y columnas de cada panel (número de puntos en la horizontal x la de pun-
tos en la vertical) los paneles LCD muestran resoluciones mucho más altas que los PDP. Cuanto mayor es la relación de filas x columnas, mayor será la calidad de la imagen y podrá adecuarse mejor a la señal recibida, incluyendo la transmisión en alta definición, es por ello, que los fabricantes generalmente exponen un valor de resolución máxima y otro de resolución óptima, además de que la resolución puede limitar el número de colores que pueden apreciarse en la pantalla. Casi todos los televisores de pantallas planas de hoy, en cualquiera de sus tecnologías enunciadas anteriormente, presentan resoluciones óptimas de 720 p (720 filas de píxeles con visualización secuencial de puntos, vídeo progresivo), pero ya algunos fabricantes incursionan en modelos de 1080 p. Estos paneles tendrán la ventaja de visualizar a todo esplendor las señales de HDTV como las generadas por el próximo formato de vídeo óptico que se imponga en los reproductores de DVD, sea el blue-ray o el HD-DVD. Muy pocas emisiones de HDTV se realizan actualmente con esa resolución, pero sí a 1080 i (1080 filas de píxeles de vídeo entrelazado) y ese contenido se verá mucho mejor en paneles ya previstos con resoluciones de 1080 p, ya que la imagen deberá adaptarse mejor, en cambio si el contenido es de 720 p tendrá que ser ampliado en pantallas de 1080 p. 4)En cuanto a peso y volumen, los televisores LCD son más livianos y menos profundos que los de plasma, por lo que se pueden colocar con
hardweriando mayor facilidad en soportes de pared o bases de pedestal. 5)Durabilidad o vida útil del panel: el efecto "Burn-in" (quemado interno), implícito en toda tecnología que use sustancias fosforescentes está presente, por tanto, en los PDP y no en los LCD, a pesar de la implementación de una serie de novedosas técnicas tanto en el hardware como en el software de los plasmas. Este efecto está latente desde el mismo momento en que se energiza por primera vez el panel, quizás de manera más acelerada si se muestran en la pantalla imágenes fijas por un largo período o con alta frecuencia de persistencia, tales como logos de emisoras televisas, etc., el efecto físico es la visión de una "imagen fantasma" que permanece en determinada área del panel aun cuando ya no están siendo transmitidas. Sin embargo, los actuales modelos, mediante el uso de nuevas mezclas de gases y sustancias fosfóricas, calculan la vida útil de un panel de plasma sobre las 30 000 a 50 000 horas de uso, lo que equivale, si se mantiene energizado un tiempo promedio de 6 horas al día, los 365 días del año, entre 15 y 20 años (suficiente tiempo), no obstante, los LCD muestran tiempos de durabilidad de unas 60 000 horas de uso, por lo que tienen un tiempo mayor de uso efectivo manteniendo su plena capacidad de parámetros. 6)Colorimetría: los niveles de saturación que se alcanzan con los paneles de plasmas (PDP), son incomparablemente superiores a los logrados en paneles LCD, colores muy reales y vívidos se muestran con incomparable realidad en las pantallas plasmas en relación a los LCD. 7)Angulo de Visión: inicialmente, los paneles de plasma alcanzaban ángulos de visión de alrededor de 170 grados con respecto al centro-frente de la pantalla, mientras que los LCD sólo llegaban a cubrir 150 grados. Hoy este parámetro es muy similar para ambas tecnologías. 8)Tiempo de respuesta: anteriormente se había descrito que en este tipo de tecnologías no se utiliza el principio de escaneo de líneas de barrido aplicado en los TRC, por lo que no se necesita del "gap" de refrescamiento de pantalla, pero sí existe un tiempo sumamente pequeño, aunque no por eso importante, de "reactivación" de la matriz de píxeles, dados en los LCD
por la ya descrita red de transistorescapacitores (TFT), en los cuales ese tiempo es del orden de los milisegundos, y en los plasmas del orden
que altas, formato de visualización de la HDTV y los DVD, comparados con los 4:3 de los televisores TRC estándares (Fig.4).
Plasma mas grande del mundo: 82” de SAMSUNG SDI
Stand de SHARP en la Feria CES (Consumer Electronic Show), gama de TV LCD serie AQUOS 2006
Fig.4 Tamaños de pantallas de LCD y PDP.
de los nanosegundos, por lo que en este último es prácticamente indetectable, pero en los LCD requiere tiempos de respuesta entre los 6 y 8 milisegundosa para obtener imágenes verdaderamente nítidas, sobre todo cuando se trata de imágenes en movimiento o con alto "bit rate" (tasa de transferencia de datos digitales, en el orden de los Mbits x seg para vídeo y kbits x seg para el audio). 9)Inmunidad al campo magnético: Al no utilizar haces de electrones como la tecnología TRC, la LCD y la PDP, son totalmente inmunes a los efectos de campos magnéticos, por lo que se pueden colocar cercanos a estos paneles, sistemas de bocinas con grandes imanes sin provocar decoloraciones en las imágenes que se visualizan. 10)Tamaño de pantallas: este punto es decisivo en el campo de aplicación de ambas tecnologías, por eso se ha dejado casi para el final de este análisis. Los paneles LCD cubren casi la totalidad de las aplicaciones en pantallas planas desde 2" hasta 37" y las pantallas de plasma cubren el rango entre 50" y 82". Visto así, no hay pugna de mercado entre ellas, ya que están limitadas las áreas para los consumidores, sin embargo, con el desarrollo de las nuevas generaciones de LCD, ya han comenzado a alcanzar tamaños cercanos a las 60", pero la "guerra" se muestra más cruenta en el rango de 40" a 47", donde ambas presentan disímiles modelos con similares características. Ambas tecnologías utilizan la relación de "aspect ratio" de 16:9, o sea, 1, 78 más anchas
11)Costos de producción-mantenimiento: Los costos de producción en paneles LCD se elevan mucho cuando se implementan pantallas de gran tamaño comparados con esos mismos costos en paneles PDP de iguales tamaños, sin embargo, los costos de mantenimiento-reparación de los paneles LCD son mucho más bajos que los de paneles PDP. Un panel de plasma es prácticamente irreparable comparado con las posibilidades de reparación o sustitución de componentes en LCD en los cuales un defecto muy común es el fallo de la lámpara de luz trasera (backlight), que queda resuelto con la sustitución de este componente. 12)Precios de mercado: Por último, la decisión final para el consumidor está siempre sujeta a la relación de precios entre una u otra tecnología, a pesar de la caída sustancial de los precios a nivel mundial (más del 10% anual), siguen alejadas de los niveles de consumo que ostenta su predecesor, la tecnología TRC, no obstante, los paneles de LCD, por abarcar un sector de mercado mucho más extenso que los de plasma presentan niveles de ventas superiores, y en iguales tamaños de pantalla, la relación de venta entre ellas es 2:1 a favor de los LCD. Aunque pasará un buen tiempo antes de que la HDTV se imponga en todo el mundo, ya muchos están cada vez más interesados en adquirir los televisores de pantallas planas, al menos para estar listos ante la próxima generación de lectores de DVD que de seguro se implementará más rápidamente. [GiGA 2 / 2006]
17
hardweriando
Por favor, uno por vez
U
na de las características destacables que diferencia a una computadora de cualquier otra máquina, es la variedad de tareas diferentes que realiza: permite escribir un texto, reproducir música, realizar cálculos, observar una fotografía, etc., etc., incluso muchas de ellas al unísono. ¿Cómo es posible que esto ocurra?, ¿cómo se logra que además de lo ya planteado, la computadora sea capaz de controlar el trabajo del monitor, el teclado, el mouse, la impresora y un gran etcétera?; sobre eso trata el presente artículo.
Las interrupciones Desde que las computadoras surgieron los diseñadores se vieron en una encrucijada. Por una parte se deseaba que el procesador, su elemento más importante, dedicara la mayor parte del tiempo de trabajo a atender las tareas que se le encomendaban, y por el otro que respondiera con la mayor premura las solicitudes de atención que le hiciera un periférico, por ejemplo el teclado. Un ejemplo de la vida cotidiana que ilustra la situación planteada es el funcionamiento del teléfono, equipo que permite que dos personas se comuniquen en cualquier momento. Pero, suponga por un momento que el teléfono no diese timbre cuando una llamada desea entrar: se tendría que estar levantando constantemente el auricular para saber si alguien llama por lo que esa persona no realizaría otra tarea a lo largo del día que levantar el auricular. Evidentemente es un sinsentido. La solución a esta situación es que el timbre del teléfono avisa solamente cuando una llamada desea entrar; es decir se interrumpe la tarea de la
18
[GiGA 2 / 2006]
MSc. Carlos del Porto Blanco [email protected] Oficina para la Informatización
El romper de una ola no puede explicar todo el mar. Vladimir Nabukov
persona a cargo sólo cuando suena el timbre.
que ejecutaba para atender otra tarea.
Este es el mecanismo en el que se basa el trabajo de la computadora, las interrupciones, el procesador no tiene que invertir tiempo en averiguar si algún periférico necesita su atención, sólo se le interrumpe cuando un periférico solicita se le atienda, no en otro momento. Un concepto de interrupción podría ser el siguiente: señal que recibe el procesador y le obliga a abandonar el proceso (programa en ejecución)
El procesador al ser interrumpido almacena el estado del proceso que se ejecutaba en la pila y una vez que culmina la ejecución de la interrupción se restablece el proceso original en el mismo punto en que había sido interrumpido. Un programa, por su parte, puede acceder a las funciones de bibliotecas, rutinas del sistema operativo y hardware para realizar una tarea que implica el manejo del hardware.
hardweriando Cuando un programa ejecuta una llamada al sistema, interrumpe al procesador. Éste dejará de hacer su tarea para ejecutar la rutina del sistema deseada y posteriormente regresará a la que ejecutaba antes de ser interrumpido. La estructura de una rutina del sistema es igual a la de servicio a interrupciones. Las rutinas de servicio a interrupciones y las del sistema son en esencia procedimientos, y difieren de los procedimientos normales en el mecanismo empleado para llamarlas, en el de retorno y en ciertas consideraciones que hay que tener en cuenta si se desea que el procesador acepte una interrupción mientras ejecuta una rutina de servicio a interrupción. Las rutinas del DOS utilizan a las rutinas del BIOS para hacer su trabajo y en algunas ocasiones proveen el mismo servicio que éstas.
Cada componente de la computadora que puede necesitar la atención del procesador tiene su propio número de interrupción asociado y esto hace que cada vez que se pulse o libere una tecla en el teclado, el procesador de la computadora sabe quién solicita su atención. La arquitectura Intel permite 256 interrupciones, lo que no significa que todas se usen. El mecanismo de interrupciones en la arquitectura Intel funciona de la siguiente manera: cada interrupción tiene asignado un número y mediante él se define la dirección de entrada a una tabla que se encuentra almacenada al inicio de la memoria de la computadora, dirección 0 (Tabla de Vectores de
Interrupciones), esa tabla como su nombre indica, contiene las direcciones de memoria en las que se encuentra el programa que atiende a cada interrupción, por ejemplo, el programa que se ejecuta cada vez que se pulsa o libera una tecla. Cada entrada en esa tabla ocupa 32 bits, 16 para la dirección del segmento de memoria donde está localizado el programa de atención a la interrupción y 16 indicando su desplazamiento dentro del segmento. De aquí se puede deducir que la dirección en la que se encuentra el programa que atiende a la interrupción 0, es la dirección 0, la interrupción 1, en la dirección 4 y así sucesivamente. Cuando la interrupción X ocurre, el procesador: •Termina de ejecutar la instrucción
del programa activo (proceso) que en ese momento se ejecutaba. •Se almacenan en la pila las direcciones de segmento y desplazamiento del programa que estaba en ejecución (proceso) y otros valores que determinan su estado. Esto permite retornar al programa una vez que se culmina de ejecutar el de atención a la interrupción. •Se toma del bus de datos el número de la interrupción que solicita atención. Ese valor se multiplica por cuatro y se usa para acceder a la entrada correspondiente de la Tabla de Vectores de Interrupciones de la que se toman las direcciones de segmento y desplazamiento del programa de atención a la interrupción. •Se ejecuta la interrupción. •Una vez concluida la ejecución del
programa de atención a la interrupción, se recuperan de la pila los valores que determinaban el estado del programa que se ejecutaba al momento de producirse la interrupción y las direcciones de segmento y desplazamiento. •Se reanuda la ejecución del programa. Existen ocasiones en que no conviene interrumpir el trabajo del procesador debido a que éste realiza una operación crítica, que de detenerse podría afectar la estabilidad del trabajo del procesador. Sin embargo, la inhabilitación de las interrupciones por mucho tiempo también tendría afectaciones, por lo que debe producirse por períodos muy pequeños. También existen instrucciones del Lenguaje Ensamblador para deshabilitar y habilitar las interrupciones, CLI y STI. Las interrupciones son clasificadas en tres tipos: •De hardware •Lógicas •De software Si bien no se diferencian por su funcionamiento, si lo hacen por su uso: Interrupciones de hardware, son las encargadas de atender los periféricos de la computadora. Entre éstas se encuentran las llamadas interrupciones no enmascarables (NMI), que son aquellas que siempre deben ser atendidas por su importancia, incluso, cuando las interrupciones están deshabilitadas. Se producen en los siguientes casos: •Error en memoria •Requerimientos del coprocesador •Requerimientos del canal de entrada salida Interrupciones lógicas, las genera el propio procesador en las siguientes situaciones: •División por cero (0) •Ejecución paso a paso •Puntos de ruptura •Overflow Interrupciones de software, solicitan a otro programa que tome el control para realizar una tarea, son ejemplos la socorrida interrupción 21H del DOS y las del BIOS. Este es el mecanismo clásico de las interrupciones trabajando en el [GiGA 2 / 2006]
19
hardweriando en el modo protegido del 286/386 (o el virtual-86 del 386) la tabla de vectores de interrupción es sustituida por otra de descriptores, aunque el funcionamiento global es similar.
Antes del final
modo real, pero con el advenimiento del modo protegido con el procesador 286 de Intel y la masificación de su uso con Windows, primero como entorno operativo y a partir de Windows 95, como sistema operativo, se modificó este mecanismo.
¿Cómo se ve esto en la arquitectura Intel? Las computadoras PC/XT venían equipadas con un chip 8259 (controlador de interrupciones). En las computadoras AT y superiores, se colocó un segundo 8259 conectado en cascada a la línea IR2 del primero. La asignación de líneas IR (solicitud de interrupción) para los diversos periféricos del ordenador es la siguiente (por orden de prioridad): • • • • • • • • • • • • • • • •
La colocación de IRQ0-IRQ7 en el rango INT 8 - INT 15 no fue feliz por parte de IBM, al no considerar la especificación de Intel que reservaba las primeras 32 interrupciones para el procesador. En modo protegido a algunas de esas excepciones es estrictamente necesario controlarlas. Por ello, los sistemas operativos que trabajan en modo extendido y ciertos extensores del DOS (como las versiones 3.x de Windows, ya no usados hoy) se veían obligados a mover de sitio estas interrupciones. En concreto, Windows 3.x las colocaba en la INT 50h - INT 57h (por software, las máquinas virtuales 8086 emulan las correspondientes INT 8 - INT 15). Además,
Temporizador Teclado En los PC/XT: canal E/S Reloj de tiempo real Simulación de IRQ2 Reservado Reservado Reservado Coprocesador aritmético Controlador de disco duro Reservado COM2 COM1 Disco duro PC/XT (LPT2 en el AT) Controlador de disquetes LPT1
Los microprocesadores a partir del 286 podían operar en modo protegido, que además de las características mencionadas en otros artículos publicados en esta revista, tiene un modo peculiar de tratar a las interrupciones. Se debe señalar que para gestionar las interrupciones se cuenta con otros vectores de interrupción, ya que éstos son utilizados en la gestión de interrupciones que se originan en condiciones que sólo se producen al trabajar en modo protegido.
Concluyendo Las interrupciones son el mecanismo que permite que las computadoras puedan trabajar en varias tareas al unísono, así como atender la solicitud de atención de los periféricos que están conectados a ella. Es decir, sin la presencia de este mecanismo, el trabajo, estudio y ocio, no serían tales y como se conocen hoy, incluso quizás pocos se acercarían a ella. (INT (INT (INT (INT (INT (INT (INT (INT (INT (INT (INT (INT (INT (INT (INT (INT
Curiosidades de la informática .............................................................
R
ecientemente una tienda británica que vende computadoras, realizó una encuesta a 4 200 personas y una de cada cuatro respondió y admitió haber atacado físicamente a su computadora, en momentos de desesperación. Hubo quien, incluso, rompió su monitor y por ende se dañó la mano, pero lo peor del caso es que muchas fallas no se debieron a cuestiones técnicas, si no, simple y llanamente a que no estaba conectado el cable, ¡no pases por esta situación y ten paciencia!
...............
D
ejamos a un lado la agresión y pasamos a la medicina. Actualmente los veterinarios pueden diagnosticar al momento toda información de peligro inminente del corazón de los delfines, así como su ritmo respiratorio, alimentación y otros factores, ya que son animales con un alto índice de mortalidad. Ello es posible mediante una palm y aplicaciones especializadas vinculadas a una base de datos Microsoft SQL7.
U
na novedad en el aspecto monetario, es que se desarrolló un chip llamado "miau" y puede integrarse en los billetes. En principio es para identificar la moneda falsa, sin embargo, estos chips de tan sólo 0,4 milímetros se tejen en los billetes y se conectan de forma inalámbrica con la red, de tal manera que las autoridades sean capaces de rastrear el movimiento del dinero. No a todos les va a parecer color de rosa, ya que muchos pelearán su privacidad, porque si pagan ciertos "caprichitos" no habrá argumento que valga a la hora de hacer el recuento en casa, así que ¡cuidado con lo que hagas!
notihardware Televisión portátil para el ordenador
L
a Cinergy A USB XS de TerraTec es un sintonizador de televisión portátil analógico en estéreo que se conecta al ordenador por el puerto USB 2.0. Al igual que una tarjeta de TV de última tecnología incluye calidad de imagen cristalina, grabador de vídeo digital, teletexto y gestión avanzada de tiempo (función "time shifting"). La función "time-shifting" permite poner en pausa los programas y seguir viéndolos más tarde desde el
mismo punto. El grabador de vídeo digital integrado viabiliza grabar los programas mediante la función de programación o en directo.
DocuPen RC800, bolígrafo-escáner en colores
L
a empresa norteamericana PlanOn lanzó al mercado el DocuPen RC800 un bolígrafo que permite escanear en colores una hoja en tan sólo 4 segundos y con la posibilidad de transferirlo a una computadora mediante el puerto USB. Puede escanear en tres estilos de colores: monocromático, color 12 bits y color 24 bits. Además, posee un software de reconocimiento óptico de caracteres (OCR) para
poder editar el texto obtenido. Cuenta con 8 Mb de memoria, lo cual asegura el almacenamiento de varios cientos de páginas en blanco y negro.
Un DVD del tamaño de la mano
E
l DVD Portable PET 320 de Philips presenta una pantalla de cristal líquido LCD de 9 cm para visualizar DVD, DVD +R, DVD +RW pero no sólo permite ver películas, también imágenes en JPG y reproducir música, empleándolo como reproductor de MP3, WMACD, CD y CD-RW. Integra además parlantes de alta calidad que garantizan un excelente sonido. Es redondo, de pequeño tamaño y compacto y puede funcionar hasta 2 horas y media de forma continua. Sus baterías son recargables.
22
[GiGA 2 / 2006]
Proyector digital inalámbrico más pequeño del mundo
B
enQ ha presentado su primer proyector digital inalámbrico, CP120. Con un peso de 1,3 kg., conectividad inalámbrica, tamaño aproximado al de una hoja A5 y con carcasa de aleación de magnesio y aluminio. La tecnología inalámbrica que Incorpora es la 802.11 a/b/g, que simplifica la instalación haciéndolo compatible con la mayoría de los portátiles. Evita los problemas causados por el ajuste manual mediante la función de corrección trapezoidal automática en tiempo real, que comprueba el ángulo de inclinación y corrige la imagen proyectada de inmediato.
Nuevo concepto en el almacenamiento de datos
D
isponible en ricos y vibrantes colores y con una capacidad de 16Mb, el FlashDisc de Verbatim puede ser utilizado exactamente igual que una memoria Flash USB, pero es mucho más barato y está pensado para aplicaciones más informales. Su diseño recuerda al de un disco tradicional, tiene una capa externa de plástico muy resistente que incluye una zona con una etiqueta en la que se puede escribir, y un tapón fácilmente removible que protege el
dispositivo. Es respetuoso con el medio ambiente e incluye una interfase compatible ubicua USB 2.0 que permite conectar y usar al igual que las memorias USB. Es regrabable, por tanto los archivos pueden ser borrados. También es compatible con los sistemas operativos 2000SP2/ME y XP así como con Mac OS 9.x, 10.x y Linux kernel 2.6x y sistemas más avanzados (Windows 98SE requiere un acceso a Internet para la instalación del driver).
Control remoto con pantalla en colores
K
eyspan ha anunciado su nuevo control remoto que permite controlar el iPod e iTunes de manera remota. Dispone de conectividad de radiofrecuencia (RF) y en su pantalla LCD se puede visualizar el contenido de la biblioteca de musical del iPod e iTunes. el nuevo mando a distancia permite reproducir/pausar, ajustar el volumen y cambiar de pista, pero además, ver los contenidos del iPod. Dicha base es compatible con cualquier iPod con conector para dock, mientras que si se utiliza junto al
adaptador USB TuneView de Keyspan, el control remoto permite gestionar a distancia la biblioteca de iTunes. El adaptador TuneView se conecta a un puerto USB y es compatible Mac OS X.
Tarjeta SD combina USB y memoria flash
S
anDisk Ultra II SD Plus es una exclusiva tarjeta que al doblarla por la mitad aparece un conector USB 2.0 de alta velocidad que se acopla a cualquier puerto USB, lo que permite transferir fotos u otros datos fácil y rápidamente a un ordenador sin necesidad de tener un lector de tarjetas separado. Su velocidad es de 9 Mb/s y lee a una velocidad de 10 Mb/s lo que la hace ideal para cámaras digitales, teléfonos con cámara y cámaras de vídeo digital. Está dirigida a fotógrafos digitales entusiastas y a un nivel de consumidor semiprofesional con cáma-
Impresora exclusiva para móviles
F
ujifilm ha presentado en el mercado japonés una impresora exclusiva para teléfonos móviles destinada al mercado juvenil, Pivi Hello Kitty. La impresora se conecta mediante el puerto de infrarrojos con el móvil y en apenas 20 segundos ya se tiene la foto en papel, en tamaño 10x15 centímetros.
Memoria flash de 32 Gb amsung desarrolló un chip para memoria flash que posibilitará el desarrollo de tarjetas de memoria de 32 Gb. El chip NAND de memoria flash de 16 Gb de Samsung, se fabricará mediante un proceso de producción de 50 nanómetros. Este nuevo chip permitirá a los fabricantes de tarjetas de memoria diseñar tarjetas con capacidad de 32 Gb.
S ras digitales de 5 megapíxeles o mayor resolución, que requieren tarjetas para películas de memoria flash considerablemente más rápidas.
Batería con dos días de duración
Red doméstica por el enchufe eléctrico
C
on los nuevos sistemas PLC de Rimax se puede establecer comunicación entre dos o más ordenadores de una forma realmente rápida y sencilla: basta con conectar un dispositivo PLC a la corriente y a cada ordenador que se quiera integrar en la red (uno por cada equipo) ¡y la red quedará establecida! Limpio, fácil y cómodo, sin instalaciones ni elevadas inversiones de tiempo y dinero. Según el tipo de conexión que se quiera utilizar se puede elegir entre dos modelos diferentes: PLC USB y PLC Ethernet, así como de un pack que incluye un modelo de cada tipo: el Rimax
L Soho PLC USB & Ethernet. Ahora hasta los usuarios menos expertos podrán ser capaces de crear su propia red doméstica o en la oficina sin problemas.
a propuesta de Ultracell para que por fin se disponga de una batería de portátil en condiciones es la XX25. La autonomía de la PC portátil es el gran quebradero de cabeza de los usuarios, más que otros factores. La batería, basada en una pila de combustible de metanol, ofrece dos días de autonomía y gran resistencia al calor y los golpes, no en vano está diseñada pensando en un uso militar. [GiGA 2 / 2006]
23
softweriando
Michel Hernández Rodríguez [email protected] Universidad de las Ciencias Informáticas
L
os entornos gráficos de escritorio en las distribuciones de Linux constituyen un tema muy polémico hoy día, incluso entre los linuxeros más avanzados, ya que existen muchas especulaciones acerca de éstos, sobre todo de los dos más populares: Gnome y KDE, los cuales han alcanzado cierta fama en los últimos tiempos. Y es casi seguro que cuando alguien quiere instalar alguna distribución, la primera pregunta que se haga sea: ¿con qué entorno será mejor Gnome o KDE? Para contestar esta pregunta traemos al lector algunas cuestiones relacionadas con el tema.
¿Qué es un entorno de escritorio? Su historia Un entorno de escritorio, en inglés Desktop Environment, es un conjunto de software para ofrecer al usuario de un ordenador un ambiente amigable y cómodo. El software es una solución completa de interfaz gráfica de usuario, ofrece iconos, barras de herramientas, programas e integración entre aplicaciones con habilidades como arrastrar y soltar ventanas, etc. En general cada entorno de escritorio
24
[GiGA 2 / 2006]
se distingue por su aspecto y comportamiento particulares, aunque algunos tienden a imitar características de otros ya existentes. El primer entorno moderno de escritorio que se comercializó fue desarrollado por Apple en la pasada década de los 80, pero actualmente el entorno más conocido es el ofrecido por la familia Windows aunque existen otros de código abierto como Gnome y KDE de los cuales se explicarán algunas cosas necesarias para un mayor entendimiento.
Gnome Este entorno se caracteriza por ser simple y sencillo de manejar. Sus colores son pastel opaco que da una sensación antiestrés que muchos usuarios aprecian. Además, es altamente configurable ya que entre otras cosas permite configurar los menús, iconos, tipo de letra, el fondo, protector de pantalla, el tema, el administrador de ventanas, sonido, la interacción con las ventanas y muchos otros detalles de acuerdo con su gusto. Para hacer algunas de las configuraciones puede em-plear opciones de los menús Gnome, el ratón -por ejemplo, para administrar los iconos que hay sobre el escritorio- el programa "Centro de control Gnome", que
brinda una variedad de ventajas al usuario como la de personalizar el aspecto del escritorio y hacer adaptaciones y configuraciones a su gusto, además de soportar gran cantidad de idiomas sin cambiar el software. Por otro lado, el gestor de sesiones de Gnome recuerda la configuración previa y mantiene las preferencias establecidas. El navegador de archivos que utiliza es el Nautilus, bastante cómodo para los usuarios y permite usar varios espacios de trabajo, cada uno como un escritorio independiente de los demás, aunque es fácil pasar aplicaciones de un espacio de trabajo a otro, pues basta arrastrarlas con el ratón. Presenta también ventajas para los programadores ya que no necesitan comprar una licencia de software para hacer compatibles las aplicaciones comerciales generadas por ellos. Sus aplicaciones se pueden desarrollar en varios lenguajes de programación, por lo que el programador no tiene esta limitación. Uno de los grandes avances ha sido la incorporación de un control central del aspecto global del escritorio, de forma que es posible configurar la apariencia del gestor de ventanas, iconos y los controles de la interfaz gráfica de forma centralizada.
softweriando Criterios y conclusiones Los criterios son muchos y muy variados, pues las personas manejan muchos términos no concretos y llegan a conclusiones apresuradas sobre el tema.
KDE Este es un sistema sobrecargado de opciones y botones, algo que en ocasiones puede asustar o confundir o, incluso, desilusiona a aquellas personas que lo usan. Trae también, gran número de programas (más que Gnome), y todo ello hace que tenga un gran impacto visual para quienes lo utilizan. Está escrito casi exclusivamente en C++, derivado del lenguaje de programación C, con algunas funcionalidades añadidas, en especial en cuanto a la programación orientada a objetos. A pesar de las críticas en contra de este lenguaje (inicialmente menos maduro), su adopción por el proyecto KDE ha resultado en un desarrollo más dinámico y ciclos de lanzamiento breves a la vez que ha permitido producir programas eficientes en menor cantidad de líneas de código que las requeridas para iguales tareas con el empleo de lenguajes de programación estructurados (por ejemplo: C). KDE está construido sobre la biblioteca Qt para programación de aplicaciones gráficas. Qt facilita la programación orientada a objetos y la creación de componentes, igualmente ofrece sólidos cimientos para la construcción de cualquier tipo de aplicación gráfica. Se caracteriza además por ser muy integrado (más que el Gnome). Presenta como navegador de archivos al Konkeror, que es muy vistoso y un tanto amigable (menos que Gnome) con aquellos usuarios no tan experimentados, pero sí suficiente
como el Nautilus de Gnome ya que el Konkeror tiene tantas opciones y variantes que en no pocas ocasiones atormentan a quien lo usa.
A tener en cuenta Como ya se ha visto, ambos entornos presentan un número no pequeño de aplicaciones y posibilidades de configuración, que los hacen bastante completos, pero a la vez cargados de funcionalidades que hacen que no presenten igual eficiencia en todas las PC. Se recomienda el uso de modelos de PC potentes, ya que de lo contrario se verá a estos magníficos entornos más que como una ventaja como un estorbo y un martirio puesto que en caso de que corrieran sin problema en la distribución seleccionada, se tornarían bastante lentos y pesados de manipular.
Los datos procedentes de diversos informes indican que KDE es más usado en Europa, y Gnome en Estados Unidos. La existencia de KDE y Gnome sugiere que sirven a distintos grupos de usuarios. KDE proporciona más opciones de configuración y control, mientras Gnome es más fácil de usar aunque cabe la posibilidad de una pérdida de control. Algunas personas opinan que KDE es mucho más rápido que Gnome, otras dicen lo contrario, y la realidad es que la diferencia (en las últimas versiones) no es mucha ni abismal, pero hay algo que sí influye en ese sentido y es que KDE,
como ya se ha visto, está mucho más cargado, por ello Gnome tiende a ser más ligero y rápido que KDE, pero se reitera que no hay grandes diferencias. Por todo lo analizado, no se debe afirmar que uno es mejor que el otro, pues cada uno tiene sus características comunes y su propia presencia. En la selección de uno de ellos lo más determinante es el gusto o el objetivo personal del usuario, aunque se recomienda si se es principiante o quiere facilitar su trabajo usar Gnome ya que es más fácil de manipular y entender. [GiGA 2 / 2006]
l trabajo que le traemos hoy, tiene como objetivo hablar acerca de la propagación de los gusanos de redes con el apoyo de imágenes tomadas en la red virtual, implementada en el Laboratorio Antivirus de Segurmática, a partir de la captura realizada con ayuda del Ethereal -herramienta disponible libremente en Internet- para monitorear el tráfico en la Red. A diferencia de otros tipos de gusanos, como aquellos que viajan por medio del correo electrónico, los conocidos como NetWorm no dependen de la acción del usuario para propagarse de computadora a computadora. Se caracterizan por su rápida dispersión a partir de la explotación de vulnerabilidades presentes en aplicaciones y componentes de sistemas operativos instalados fundamentalmente en servidores. Lo anterior va acompañado de la localización de posibles víctimas a las que intentarán atacar y desde las cuales, una vez comprometidas, pretenderán difundirse. Este fenómeno que se inició en 1988 a partir de la difusión del gusano Morris -explotó múltiples huecos de seguridad en versiones 4.2 ó 4.3 de
26
[GiGA 2 / 2006]
UNIX BSD y logró afectar en pocas horas unas 6000 computadoras-, tomó una mayor connotación desde el año 2001 y es en la actualidad uno de los mayores peligros potenciales en el ambiente de las computadoras conectadas a las redes, como se demostró a partir de esa fecha.
2001 Dos variantes (CRv1 y 2) de la familia CodeRed fueron las responsables. La primera comenzó a propagarse el 12 de julio, o sea, 24 días después de haber sido liberado el parche para solucionar un hueco de seguridad por un desbordamiento de buffer en el Microsoft Internet Information Service (IIS), reportado en el boletín (MS01-033) de Microsoft. La segunda, detectada una semana más tarde, fue más efectiva en la localización de víctimas potenciales y logró afectar 359 mil computadoras en menos de 14 horas. Ambas son residentes en memoria, no dejan huellas en los discos y colocan el mensaje "Welcome to http://www.worm.com ! Hacked By Chinese!" en páginas web de algunos servidores (Fig. 1). De manera general, la propagación ocurre cuando el gusano toma el control en una PC comprometida, crea
varios hilos de ejecución destinados a escanear futuras víctimas a partir de encuestas -con la utilización de paquetes TCP SYN-, que realiza al puerto 80 de máquinas, cuyas IP genera al azar, y en caso de una respuesta satisfactoria, envía un requerimiento de HTTP que contiene el "exploit" (código que ocasiona el desbordamiento del buffer y toma el control al generarse el error) y su código agregado. Una vez explotada la vulnerabilidad, el gusano toma el control en este nuevo servidor y el proceso se repite. Además, fue creado para realizar un ataque de denegación de servicios al sitio de la Casa Blanca www.whitehouse.gov Oportunamente los responsables del sitio cambiaron la dirección IP del servidor. El 4 de agosto se inició la transmisión del CodeRed II, que sólo se asemeja a las anteriores en la vulnerabilidad explotada, pues no se queda residente en memoria, no modifica las páginas webs e instala un caballo de Troya en las computadoras afectadas. Esta última funcionalidad es muy peligrosa debido a que las computadoras comprometidas quedan a merced de las intenciones de un atacante.
softweriando durante la ejecución del "exploit", el sistema muestra una ventana (ver Fig. 4) en la que advierte que se va a reiniciar. Un ataque de denegación de servicio lanzado por el Blaster al sitio en Internet, donde se puso a disposición de los usuarios el parche de seguridad, impidió la actualización de la protección durante varias horas.
2004
Fig. 1. Página web modificada por CodeRed.
2003 En enero del 2003, el gusano Slammer explotó una debilidad (MS02-039) presente en Microsoft SQL Server 2000, basada en un desbordamiento de buffer. Logró afectar entre 100 mil y 200 mil PCs en 10 minutos, para duplicar la cantidad de comprometidas en pocos segundos. En esta ocasión el código maligno se autopropaga en paquetes UDP de 376 bytes que envía al puerto UDP/1434 de las computadoras, cuyas IP previamente genera de forma azarosa. Si el paquete es recibido por una computadora vulnerable, el gusano toma el control y el proceso se repite. La transmisión en paquetes UDP es más eficiente, pues la conexión no requiere la espera de una respuesta como en el caso de TCP. La difusión comenzó transcurridos 183 días a partir de la liberación del parche de seguridad. Ese propio año, el Blaster explotó un hueco de seguridad basado en un desbordamiento de buffer (MS03026), presente en el Distributed Component Object Model (DCOM) de Windows 2000 y XP, cuya solución fue publicada sólo 26 días antes de su propagación. Cuando el gusano se ejecuta, busca sistemas vulnerables indagando por el puerto TCP/135 de aquéllas cuyas IP genera de manera aleatoria. En la figura 2 se ejemplifica el envío del código que explota la vulnerabilidad desde la computadora con IP 172.16.1.91, donde se ejecuta el Blaster hacia la
vulnerable con IP 172.16.1.111.
Witty y Sasser por su parte, comenzaron su propagación en el año 2004. El primero, altamente destructivo, se valió de una vulnerabilidad (CAN-2004-0362) en el Internet Security Systems Protocol Analysis Module (PAM), cuya solución fue puesta a disposición de los usuarios sólo un día antes. El segundo se aprovechó de un des-
Fig. 2. Captura del envío, por el Blaster, del código que explota la vulnerabilidad (MS03-026).
En los casos exitosos crea una "shell" (intérprete de comandos) remota (ejecutando CMD.EXE), en el puerto TCP/4444 de la máquina infectada, con el fin de enviarle instrucciones (comando TFTP) para la descarga de su código desde la PC en la que se ejecuta hacia aquella que acaba de comprometer. Es decir, quien solicita la descarga del fichero que contiene el gusano es el nuevo sistema donde se ejecutó el "exploit" (Fig. 3). Debido a un error que puede ocurrir
bordamiento de buffer en el servicio LSASS (MS04-011), provocando que en ocasiones se muestren mensajes de error como el de la figura 5 (Windows XP). Este método de ataque fue empleado posteriormente por otras familias de gusanos como Mytob. El parche fue liberado 17 días antes. La búsqueda la realiza basándose en direcciones IP que crea al azar e indagando por el puerto TCP/445. Si el ataque resulta exitoso, en la computadora se inicia una "shell" mediante [GiGA 2 / 2006]
27
softweriando por un programa maligno -incluso se reportaron algunos, como el del Fever, cuyo creador se adelantó a la solución-, y fue ésta una de Fig. 3. Empleo de la "shell" abierta para ordenar la descarga desde la nueva computadora vulnerada. las situaciones más peligrosas y una de las causas en la que sus autores basan el éxito en los altos niveles de difusión de sus códigos. El gusano Dasher.B detectado el 17/12/2005 explota, por sí solo, las vulnerabilidades: MS05-039, M S 0 2 - 0 5 6 (02/10/2002), MS04045 (14/12/2004) y M S 0 5 - 0 5 1 (11/10/2005). Finalizado el año 2005, resultan alarFig. 4. Ventana que se muestra por error en la Fig. 5. Error por ejecución del "exploit", enviado por el Sasser, mantes las estadísticas ejecución del "exploit" enviado por el Blaster. en Windows XP. elaboradas por el Laboratorio Antivirus un puerto TCP no estándar. Por liberado con 5 días de anterioride Kaspersky [1] sobre las diez vulmedio de éste le ordena al nuevo dad. La localización de las posinerabilidades más atacadas duransistema comprometido que descar- bles víctimas la realiza enviando te el pasado año, pues en el listado gue su código desde la computado- paquetes SYN al puerto TCP/445 se pueden apreciar varias de las ra donde se originó la búsqueda, de las direcciones IP generareferidas: (ver Tabla pág. 29). es decir, desde donde se ejecutó das también de forma aleatoria. Así como otras reportadas en los inicialmente. El protocolo emplea- En los casos en que explote la boletines, MS01-059 (20/12/2001), do para realizar la transmisión es vulnerabilidad ejecuta un shell MS02-061 (28/02/2003), MS03-007 (cmd.exe) para enviar comandos ( 1 7 / 0 3 / 2 0 0 3 ) , M S 0 4 - 0 0 7 el FTP. En la captura simplificada del que garanticen su descarga desde ( 1 0 / 0 2 / 2 0 0 4 ) , M S 0 4 - 0 4 5 Ethereal (fig. 6) se ejemplifica el la computadora donde se ejecuta ( 1 4 / 1 2 / 2 0 0 4 ) . momento en el cual Sasser, ejecu- hacia la recientemente comprotándose en la computadora con IP metida. Tal como afirma Costin Raiu, la 172.16.1.92, envía el código que explo- En la figura 7 se muestra el envío del mayoría de sus soluciones se ta la vulnerabilidad presente en la fun- código que explota la vulnerabili- encuentran disponibles antes del ción (DsRolerUpgradeDownlevelServe) dad desde la computadora con IP 2004, lo cual pone de manifiesto del LSASS que corre en la computa- 172.16.1.94, hacia la vulnerable con una despreocupación y desconociIP 172.16.1.91. dora con IP 172.16.1.94. miento por parte de personas que 172.16.1.92 172.16.1.94 172.16.1.92 172.16.1.92 172.16.1.92 172.16.1.94 172.16.1.94 172.16.1.92
Fig. 6. Envío, por el Sasser, del "exploit" desde la computadora comprometida a la nueva víctima.
28
2005
Situación alarmante
En el transcurso del año 2005, la familia de los gusanos Zotob comenzó su propagación y se valió de la vulnerabilidad en Plug and Play (MS05-039), cuyo parche fue
Como puede comprobarse, en la mayoría de los casos mencionados, existió poco tiempo entre la liberación de los correspondientes parches de seguridad y su explotación
[GiGA 2 / 2006]
interactúan con computadoras conectadas a Internet.
Conclusión Se puede deducir, sin mucha dificultad, que existe una amplia plataforma
Fig. 7. Envío, por el Zotob, del "exploit" desde la computadora comprometida a la nueva víctima.
de computadoras inseguras que pueden ser blanco de ataques de códigos malignos y hackers, así como su posterior empleo en otras acciones peligrosas, por lo que no debe sorprender el hecho de que tres personas en Holanda llegaran a controlar 100 000
computadoras destinadas a realizar una extorsión a una compañía estadounidense. El interés de los creadores de programas malignos en la propagación de sus códigos, bajo estas condiciones, es evidente y aunque las aplicaciones de Microsoft son las más atacadas, en los últimos meses se han reportado gusanos, como los miembros de la familia Lupper, que explotan la vulnerabilidad XML/RPC for PHP PHP code execution, de sistemas UNIX.
Recomendación Debido a que con mayor frecuencia que la esperada se reportan nuevas vulnerabilidades en los sistemas de amplio dominio público, no queda otra alternativa que estar al tanto de ellas y proceder a la inmediata actualización de los parches de seguridad liberados, aun cuando para sorpresa de la mayoría no siempre son ciento por ciento efectivos. En el sitio de la Empresa Segurmática http://www.segurmatica.cu, se encuentra disponible información sobre los códigos malignos reportados en el país así como de los servicios y productos ofrecidos por la empresa.
Referencias [1] Internet Attacks 2005. http://www.viruslist.com/en/analysis?pubid=180 265451
ste trabajo tiene como objetivo ofrecer una visión rápida y general de la herramienta de gestión de redes y servicios Nagios. Nagios fue confeccionado por Ethan Galstad en el año 2002 e inicialmente pensado para correr sobre Linux, pero también puede funcionar en la mayoría de los Unix. Su nombre inicial fue NetSaint, más adelante pasó a llamarse Nagios. En la actualidad es utilizado en todo el mundo, gracias a sus excelentes prestaciones y por estar licenciado bajo los términos GNU de la Fundación de Software Libre, que se nutre de la gran comunidad mundial de código abierto. Se pretende que el lector pueda conformar una idea de las posibilidades que brinda esta herramienta en diferentes escenarios, incluido el ámbito nacional, y llegue a sacar conclusiones acerca de lo factible que puede resultar la implementación de Nagios, en cuanto a relación costo/beneficio, flexibilidad, potencialidad y facilidades que posee por ser un sistema de tipo software libre y de código abierto.
30
[GiGA 2 / 2006]
¿Qué es Nagios? Características principales Es una herramienta de monitorización de equipos y de servicios de red, creada para ayudar a los administradores a tener siempre el control de qué está pasando en la red y conocer los problemas que ocurren en la infraestructura que administran, mediante la combinación de una gestión proactiva y reactiva. Es un sistema complejo y completo en cuanto a sus características, que además hace uso de diversos sistemas tales como: gestores de bases de datos de la familia SQL, servidores Web, etc. Entre los rasgos más distintivos se pueden citar: • Monitorización de servicios de red (SMTP, POP3, HTTP, NNTP, PING, etc.). • Monitorización de recursos de equipos (uso de procesador, capacidad de disco, etc.). • Utiliza ficheros ejecutables compilados o scripts (plugins) para chequear y determinar el estado y servicios de la red. Nagios es inoperable sin ellos. • Posibilidad de definir jerarquía de
equipos. Permite la detección al distinguir entre los que están fuera de servicio y aquellos inalcanzables. • Sistema de notificaciones vía correo electrónico, beeper u otros métodos definidos por el administrador. • Capacidad de definir manejadores de eventos para la solución de problemas de forma proactiva. Es bueno destacar que Nagios no está diseñado para la administración basada en SNMP, a diferencia de otras herramientas como HP OpenView, pero se puede configurar para que se permita la captura de paquetes SNMP Trap para notificar sucesos y también chequear vía SNMP cualquier parámetro de un equipo remoto, siempre que éste se halle ejecutando un agente SNMP interno. Dicha herramienta realiza su labor basándose en una gran cantidad de pequeños módulos de software que realizan chequeos de parte de la red.
Estructura del Sistema Nagios Básicamente consta de los siguientes elementos (ver figura 1). Un núcleo de la aplicación que forma
enredados
Figura 1. Estructura de Nagios
la lógica de control de negocio de la aplicación, contiene el software necesario para realizar la monitorización de los servicios y equipos de la red. Con éste interactúan Extensiones (Addons) oficiales y de terceros que aumentan las funcionalidades del Sistema. Muestra los resultados de la monitorización y del uso de los diversos componentes en una interfaz web por medio de un conjunto de CGI's y de páginas HTML incorporadas, que permiten al administrador una completa visión, por medio de la mayoría de los navegadores, de qué ocurre, dónde y en algunos casos, por qué. Se debe tener correctamente instalado, configurado y activo un Servidor Apache para el servicio WWW. Nagios guardará los históricos en un Sistema de Gestión de Bases de Datos (usualmente MySQL), para que al detener y reanudar el servicio de monitorización, todos los datos sigan como iban, sin cambios. Áreas funcionales de Gestión que engloba Nagios Este sistema abarca las áreas de Configuración, Prestaciones y Fallos. Por defecto, Nagios recolecta datos sobre la configuración de la red de forma manual, y por esa razón hay que notificar nuevos cambios periódicamente para que el Centro Gestor
actualice su base de datos, aunque existe un módulo llamado NagMIN, desarrollado por terceros, que se integra al comando NMAP de Linux, y que permite añadir a Nagios capacidades de reconocimiento automático de nuevos objetos incorporados a la red. Utiliza bases de datos para almacenar la configuración empleada por el resto de las áreas funcionales. Permite al administrador conocer en todo momento, mediante una interfaz web muy flexible e interactiva, las características de los recursos sin tener que desplazarse hacia cada uno de ellos. Supervisa la disponibilidad de servicios que la red ofrece y verifica en todo momento la operación eficiente de ésta. Toma de los recursos, aquellos parámetros relacionados con los indicadores de prestaciones definidos, como por ejemplo: uso de CPU, capacidad de disco duro, memoria física, cola de mensajes, calidad de recepción en equipos de radio, UPS, etc. Los parámetros que se analizan, así como el estado de éstos se pueden visualizar de diversas formas para su mejor comprensión. Existe la posibilidad de procesamiento de datos recogidos para obtener el valor de los indicadores de prestaciones definidos y poderlos analizar. El resultado de esa operación se gra-
fica por medio de los histogramas. Nagios detecta, identifica y localiza fallos en tiempo real (gestión reactiva), para que el personal técnico solucione el problema, ya sea de forma remota o yendo al lugar donde se localiza el equipo o servicio con problemas. Por otra parte, por medio de los manejadores de eventos, el software analiza el comportamiento anormal de parámetros y estados, emite avisos y alarmas para que los administradores logren solucionar un posible y futuro fallo (gestión proactiva). El Centro de Gestión detecta las fallas mediante supervisión visual de las alertas (notificaciones), alarmas visuales y sonoras, chequeo del Log de eventos y por reclamaciones de los usuarios. Se crean umbrales que caracterizan circunstancias bajo las cuales se tiene que producir alguna alarma y éstas se envían generalmente a los responsables de la red (contactos) para que sean notificados cuando ocurre algún suceso en la red.
Dependencias de servicios y equipos Una dependencia de servicio (equipo) es una característica avanzada de Nagios que permite que en una jerarquía donde unos servicios (equipos) dependen de otros, al fallar uno del que dependen varios, se supriman las notificaciones ocurridas por el mal funcionamiento de estos últimos ya que se deben a que ha fallado aquel del que dependen, y no ellos. Está especialmente indicado para expertos que tienen que monitorizar instalaciones excesivamente complejas. También se puede especificar que los servicios dependientes no sean comprobados inútilmente en esta situación. Un ejemplo de jerarquía de equipos se puede observar en la figura 2. En el caso A, el equipo marcado con un punto rojo no es accesible porque está caído, entonces se notifica[GiGA 2 / 2006]
31
enredados
Figura 2. Dependencia y jerarquía de equipos (servicios).
ría al administrador que el equipo marcado en rojo está con problemas. En el caso B, el estado del equipo no se sabría, pues la caída de uno superior impide su monitorización, pero Nagios no tiene problemas en este aspecto, porque permite establecer jerarquías de equipos y en ese caso se indicaría al administrador que el equipo marcado con verde ha caído.
Comandos incorporados en Nagios Nagios es fácilmente ampliable al poder diseñar comandos específicos para comprobar, monitorizar equipos y servicios, además, el propio sistema incorpora un gran número de comandos ya diseñados y funcionales que se pueden utilizar. Algunos de ellos hacen uso de bibliotecas y paquetes que deben estar instalados en el sistema.
Conclusiones Nagios es una herramienta de monitorización muy completa y potente que cualquier administrador de red debería conocer. Es un producto probado, muy escalable y con grandes posibilidades de ampliación que realiza perfectamente su labor. Se considera un sistema de gestión de código abierto y constituye una alternativa económica a productos comerciales caros y de difícil adquisición. Supone un ahorro importante en licencias de software para las organizaciones que lo usen. La configuración y puesta a punto de Nagios no es trivial, se requiere conocimientos de programación en Perl, Shell o C/ C++ para la creación de ficheros scripts, dominio de sistema operativo Linux (Unix) y saber sobre Gestión de redes, este último es un aspecto esen-
cial para lograr la satisfacción creciente de los clientes y, además, asegurar el retorno adecuado de las inversiones. La Corporación Copextel, S.A. y la Empresa de Correos de Cuba utilizan esta herramienta para la monitorización de los equipos y servicios telemáticos. Ambas entidades están satisfechas por el nivel de Gestión que ofrece Nagios, aunque es necesario destacar que se emplean otras herramientas complementarias como el MRTG, SNORT, entre otras, para garantizar se complete el análisis de las áreas funcionales de Contabilidad y Seguridad las cuales no están contempladas en Nagios. Para que todas las herramientas de Gestión funcionen de forma óptima, debe existir un adecuado Proyecto de Gestión, cosa que está un tanto lejos de la realidad en las entidades cubanas, debido a disímiles factores que se escapan del objetivo de este artículo, pero siempre se debe ser consecuente con los principios básicos y generales que plantea el tema de la gestión de redes, así se puede organizar cada día más esta tarea en nuestro entorno de trabajo y comenzar a confeccionar un buen proyecto.
Referencias bibliográficas Ejemplo de algunos comandos que vienen con la herramienta.
32
[GiGA 2 / 2006]
• Evaluación de Nagios para Linux (2003). Manuel Domínguez Dorado y
enredados José A. Zarandieta Morán. • Nagios® Version 1.0 Documentation (2002). Ethan Galstad. • Sitio central de Plugins y Addons: http://www.nagiosexchange.org • Sitio de Nagios How to en español: http://nagios.linuxbaja.org • Sitio oficial de Nagios: http://www.nagios.org • Colaboración del Gerente del Grupo de Operaciones, Ingeniero Alexis Castro Soto del Valle. División Tecnostar/Corporación Copextel, S.A.
Glosario de términos y acrónimos GNU: Proyecto creado por Richard Stallman y su Fundación de Software Libre. Sus siglas en inglés significan "not Unix", un chiste recursivo, típico de programadores. CGI: En inglés Common Gateway Interface es de las primeras formas de programación Web dinámica. SNMP Trap: Evento que notifica un dispositivo cuando es administrado por un equipo gestor. HP OpenView: Herramienta de gestión y optimización de los servicios,
infraestructura fundamental de voz, datos y TI. SSH: Siglas en inglés de Secure Shell. Protocolo seguro de comunicación Cliente-Servidor
Protocol. Protocolo utilizado para encaminar el correo electrónico en una red.
SNORT: Analizador de paquetes y un detector de intrusos.
POP3: Del inglés Post Office Protocol Version 3. Protocolo diseñado para permitir a un cliente descargar correo electrónico almacenado en un servidor.
MRTG: Siglas en inglés de "Multi Router Traffic Grapher". Herramienta para supervisar la carga de tráfico en los enlaces de red.
HTTP: Siglas en inglés de Hyper Text Transfer Protocol. Protocolo de la WWW, usado en cada transacción con los sitios Web.
Perl: Lenguaje de programación inspirado en otras herramientas de UNIX.
NNTP: Siglas en inglés de Network News Transport Protocol. Protocolo de transferencia de noticias.
Shell: Interfaces de línea de comandos del mundo Unix. C++: Lenguaje de programación orientado a objetos basado en el lenguaje C. Scripts: Es un tipo de programa que consiste en una serie de instrucciones que serán utilizadas por otra aplicación. Log: Archivo (bitácora) diario que registra eventos diversos. SMTP: Del inglés Simple Mail Transfer
PING: Utilidad que comprueba el estado de la conexión con uno o varios hosts remotos. CPU: Unidad donde se ejecutan las instrucciones de los programas y se controla el funcionamiento de los distintos componentes de la computadora. Suele estar integrada en un chip denominado microprocesador. UPS: Siglas en inglés de Uninterruptible Power Supply. Sistema de alimentación ininterrumpida.
enredados
Ing. Frank Pompa Sourd Lic. Alfredo Rodríguez [email protected] CEDISAP
D
esde los albores de la Humanidad, el hombre se ha enfrentado al problema del intercambio de información, pues los conocimientos adquiridos durante la vida diaria de forma individual o debido al roce con sus semejantes, es decir, la experiencia acumulada debía ser legada, transmitida, intercambiada, ya fuese de padre a hijo, de maestro a aprendiz, o en general de una generación a otra. Además, para poder realizar cualquier actividad de carácter económico, político o social entre diferentes pueblos, siempre aparecían las diferencias establecidas por las barreras idiomáticas, culturales, religiosas, generacionales, etc. Para lograr el intercambio de información, el hombre se ha valido a lo largo de la historia de disímiles medios, desde los primitivos sonidos guturales que después se convertirían en el lenguaje articulado, pasando por la piedra, el papiro, el humo y por el papel hasta las modernas y sofisticadas transmisiones vía satélites. El mundo de la informática, no ha estado ajeno a estas vicisitudes porque el intercambio de información siempre ha sido un grave problema cuando se utilizan lenguajes y siste-
34
[GiGA 2 / 2006]
mas operativos diversos e incompatibles, lo que se agudizó aún más con el surgimiento de Internet, la torre de Babel digital. Incluso, previa aparición de la Red de Redes fueron creados "lenguajes" para lograr el intercambio fluido de información entre diferentes sistemas. Por otra parte, en los comienzos del Tercer Milenio, el mundo se encuentra inmerso en una nueva y profunda revolución tecnológica e industrial, la que a su vez es liderada por el desarrollo vertiginoso de las nuevas Tecnologías de la Informática y las Comunicaciones (TICs) a tal punto que se hace difícil encontrar alguna actividad del quehacer humano en la que no se constate de forma directa o indirecta su influencia. Las dificultades de los países subdesarrollados para asimilar y utilizar las nuevas tecnologías, abarcan desde la educación e infraestructura industrial hasta el acceso a los mercados y el desarrollo de capital humano y financiero. La eufemísticamente llamada, en nuestro criterio personal "brecha digital" entre el Primer y el Tercer Mundo se ensancha y profundiza a diario. Mas no queda otro camino que dejar de mirar desde abajo al cielo gris de ceros y unos y
en aras del esfuerzo y el conocimiento, remontar el abismo que nos empequeñece. La informática es una industria estratégica porque es generadora de tecnologías susceptibles de ser aplicadas para potenciar el desarrollo de cualquier rama de la actividad humana. Por ello, en este trabajo se analizan el surgimiento y desarrollo del lenguaje XML como una de las respuestas al intercambio de información entre sistemas diferentes, así como la influencia y perspectivas que ha provocado en la informática actual.
XML, su ascendencia y origen A finales de los años 60 del siglo XX, los especialistas de la empresa IBM Charles F. Goldfarb, Ed Mosher y Ray Lorie, ante la necesidad de almacenar grandes volúmenes de información y documentación que utilizaban diferentes sistemas de descripción, crearon un lenguaje único de marcado al que denominaron GML, acrónimo inglés de General Markup Language (Lenguaje de Marcación General), con el cual pretendían clasificar todo tipo de información y escribir cualquier documento para su posterior procesamiento. Se destaca
enredados como una curiosidad que las siglas GML coinciden con las iniciales de los apellidos de sus creadores. GML es un lenguaje de marcación que fue diseñado para componer estructuras de datos descriptivas, es decir, aquellas que describen a otras estructuras de datos, o sea, GML es un meta-lenguaje, que permite reunir en una misma etiqueta el formato y la descripción del contenido. En 1986 la Organización Internacional de Estándares, ISO, por sus siglas en inglés (International Standards Organization) normalizó dicho lenguaje y creó un estándar el SGML (Standard Generalized Markup Language) que fue adoptado como "Estándar Internacional para el Intercambio y Almacenaje de Información" (ISO 8879). A pesar de que SGML es un lenguaje de marcación muy "poderoso", que permite especificar las reglas de etiquetado y la organización de documentos, capaz de adaptarse a un amplio número de problemas, su forma es un tanto compleja y por ende costosa de desarrollar. En 1989, el investigador del CERN (Organización Europea para la Investigación Nuclear), Sir Timothy (Tim) John Berners-Lee crea un nuevo lenguaje llamado HTML, acrónimo inglés de Hyper Text Markup Language (lenguaje de marcación de hipertexto), que fue utilizado para un nuevo servicio de Internet, el World Wide Web más comúnmente llamado Web, WWW o Telaraña Mundial. Él fue también el creador de URL (Uniform Resource Locator, Localizador Uniforme de Recursos) y HTTP (HyperText Transfert Protocol, Protocolo de Transferencia de HiperTexto) El lenguaje HTML es originariamente un subconjunto del SGML, diseñado para estructurar textos y presentarlos en forma de hipertexto (documento digital que se puede leer de manera no secuencial), que es el formato estándar de las páginas web. Contrariamente a otros lenguajes de programación, el HTML utiliza etiquetas o marcas (tags), que consisten en breves instrucciones o directivas, mediante las cuales se determina la forma de representar el texto, así como también las imágenes y demás elementos en la pantalla del ordenador con el empleo de un navegador. Las etiquetas permiten describir documentos de texto y
vínculos de hipertexto que hacen posibles el desplazamiento en forma jerárquica entre diferentes documentos, siempre con independencia de la computadora. Las etiquetas básicas de HTML de obligada presencia en todo documento son: • : Es la etiqueta que define el inicio del documento HTML, le indica al navegador que todo lo que viene a continuación debe tratarlo como una serie de códigos HTML. • : Define la cabecera del documento HTML. Esta cabecera suele contener información sobre el documento que no se muestra directamente en el navegador. • : Define el contenido principal o cuerpo del documento. Es la parte del documento HTML que se muestra en el navegador y dentro de esta etiqueta pueden definirse propiedades comunes a toda la página, como color de fondo y márgenes. Gracias a Internet y a los navegadores, el HTML se convirtió en uno de los formatos más populares que existen para la construcción de documentos. Este lenguaje fue adoptado rápidamente por la comunidad, y varias organizaciones comerciales crearon sus propios visores de HTML (navegadores), pero estos desarrollos se realizaron al libre albedrío, en el que cada cual, en aras de lograr el navegador más versátil y por ende el más exitoso comercialmente, creaba juegos de etiquetas particulares que sólo funcionaban con sus respectivos navegadores y provocaba que algunos visores no "comprendieran" en su totalidad el contenido de un documento, lo que atentaba contra la posibilidad de obtener un estándar. Desde 1996, una entidad llamada World Wide Web Consortium, abreviadamente W3C, organización también creada y dirigida actualmente por Berners-Lee, que produce estándares para la World Wide Web y que actúa no sólo como depositario de información sobre la red, sino también como su guardián al defender su carácter abierto frente a empresas que tratan de introducir software sujeto a derechos de propiedad, trató de poner orden en el HTML y establecer reglas y etiquetas para lograr convertirlo en un estándar. Entre 1997 y 1999, el W3C estableció varias recomendaciones (equivalente
a un estándar) para el HTML, hasta concluir con la versión 4.01 en diciembre de 1999, a partir de la cual decidieron no seguir desarrollando el HTML, pues se enfocarían en el XHTML, el cual reformula al HTML 4.01 en XML. Sin embargo, y a pesar de su popularidad y desarrollo, el HTML no resolvió todos los problemas y expectativas que planteaba la sociedad global de Internet. Siempre ha existido una diferencia en la forma de tratar los documentos que depende de lo que a más importancia se dé: al formato o al contenido. Un ejemplo de HTML:
EL REINO DE ESTE MUNDO Autor: Alejo Carpentier Precio: 20 pesos
¿Qué problemas tiene HTML? • Define más la presentación que el contenido. No identifica lo que está representando, ya que se preocupa principalmente de que eso tiene que ir en un color o con un tipo de letra determinada, pero no dice que lo que está mostrando es el título de un libro o el precio de un artículo. El XML hace precisamente lo siguiente: describe el contenido de lo que etiqueta, sin tener en cuenta en un principio la forma de presentarlo. • Fuerte vínculo entre contenido y forma. El contenido se mezcla con los estilos que se le quieren aplicar. • No es fácilmente "procesable" por máquinas. • Su estructura es "caótica". • Su interpretación es ambigua, según el software utilizado. La presentación en pantalla depende del visor o navegador que se utilice. • Solo tiene un uso: páginas webs. • No permite compartir información con todos los dispositivos, como pueden ser ordenadores o teléfonos móviles. Suponga que se halla a cargo del sitio web de la empresa en que trabaja y se pretende crear en éste una sección con las noticias más recientes del mundo. Una solución, pudiera ser llegar diariamente una hora antes al trabajo y acceder a las páginas webs de uno o varios periódicos digitales, leer las noticias y copiarlas en nuestro sitio para que estén disponibles a la hora en que lleguen los demás trabajadores. Esta solución mantendrá, sin duda, actualizado su sitio, pero [GiGA 2 / 2006]
35
enredados desde el punto de vista práctico es poco viable porque supone un desgaste físico personal elevado y fallará el día en que por alguna razón llegue tarde o no pueda asistir al trabajo. Otra solución pudiera ser confeccionar un programa de computadora que intentará "analizar" y procesar las páginas webs de los periódicos digitales para tratar de extraerles la información y colocarla en su sitio. Esta solución, menos manual, tendrá que sortear un duro escollo: nuestro viejo amigo el HTML, lenguaje con el cual están confeccionadas las páginas webs y que debido a las características antes mencionadas, fundamentalmente su fuerte vínculo entre contenido y forma, harían muy difícil saber dónde está realmente la información buscada, siempre mezclada entre etiquetas ,
,
, etc.... por lo que sería muy difícil y engorrosa la tarea propuesta, además de que su programa fallaría en cuanto cambie el diseño de alguna de las páginas webs analizadas. Estas carencias del HTML en lo que respecta al tratamiento de la información y los inconvenientes de implementación del SGML debido a su complejidad, en cierta medida provocaron que en 1996 el W3C creara un grupo de trabajo llamado "XML Working Group" originalmente conocido como "Web SGML" y liderado por Jon Bosak de Sun Microsystems, el cual obtuvo luego de once semanas de trabajo, la primera versión del lenguaje XML (eXtensible Mark-up Language, en español algo así como Lenguaje de Marcado Extensible), que fue publicada en 1998. Jon Bosak es el padre del XML. No sólo fue el que tuvo las ideas originales y seleccionó el equipo de trabajo, sino que organiza y dirige actualmente el grupo de trabajo de XML del W3C. Al igual que el HTML, se basa en documentos de texto llano en los que se utilizan etiquetas para delimitar los elementos de un documento. Sin embargo, XML define las etiquetas en función del tipo de datos que está describiendo y no de la apariencia final que tendrán en pantalla o en la copia impresa, además de permitir definir nuevas etiquetas y ampliar las existentes. La
36
[GiGA 2 / 2006]
idea es que los tags "hablen" sobre la información y no sobre cómo presentarla. Una ventaja sobresaliente de XML es su extensibilidad, o sea, que los tags a usar son definidos por el usuario (digamos que no existe un juego de tags definido como en HTML), y esto nos permite almacenar datos estructurados de manera muy sencilla.
EXtensible Markup Language Analicemos qué significan estas palabras en el contexto del lenguaje: • Language: XML es un lenguaje. En realidad debería ser llamado metalenguaje, ya que permite describir lenguajes que hablen de temas en particular adecuados a usos determinados. • Markup: El XML es un lenguaje de markup. Como HTML, los archivos XML son texto plano con markups intercalados con el texto. Estos markups se escriben, al igual que en HTML, de la siguiente manera:
les Braille, etc.), pero también XML no es difícil, es fácilmente procesable tanto por humanos como por software. Resulta fácil de leer y de entender por las computadoras. XML es la solución a un problema de comunicación entre programas de ordenadores. La información suele quedar fuertemente ligada al programa con que fue creada, y es así como se pierde mucho tiempo en pasar de un formato a otros formatos de definición de documentos. A pesar de su sencillez aparente, XML está transformando completamente la creación y el uso de software. El Web revolucionó la comunicación entre usuarios y aplicaciones. XML al ofrecer un formato de datos universal que permite adaptar o transformar fácilmente la información revoluciona la comunicación entre aplicaciones o de forma más general, la comunicación entre equipos.
Mareos
donde estamos diciendo que "mareos" es un síntoma. Al ser texto plano, los archivos XML pueden ser vistos y entendidos tanto por computadoras (por medio de parsers) como por humanos con cualquier editor de texto. • Extensible: El XML tiene como gran ventaja por sobre el HTML que es extensible por definición. O sea, que es posible agregar todos los tags que se considere necesarios para incrementar la información sobre la información contenida. El concepto de información sobre la información es uno de los ejes de todo este tema. Es decir, documentos que se describen a sí mismos (self-describing), datos que se autodefinen exclusivamente. XML es un nuevo estándar con una funcionalidad similar a la del SGML aunque más sencillo: es un subconjunto de SGML simplificado y adaptado a Internet. XML no es una versión mejorada de HTML ni un lenguaje para hacer mejores páginas webs. Es un estándar internacionalmente reconocido que no pertenece a ninguna compañía y su uso es libre. Permite la utilización efectiva de Internet en diferentes alfabetos y hardwares (teléfonos celulares, PDAs, termina-
Una propuesta en XML: EL REINO DE ESTE MUNDO Alejo Carpentier 20
Cada día aparecen nuevas propuestas para estandarizar formatos basados en XML. Ya existen muchas herramientas de programación preparadas para trabajar con formatos basados en XML. Queda claro que XML es ya un formato universal adoptado por multitud de programadores, puede abarcar cualquier caso de intercambio de información y permite transmitirla con estructura. Las marcas sirven para estructurar la información: separar el título del contenido, por ejemplo. XML es una generalización de este proceso. En XML se marca TODO. Cualquier información transmitida por un XML está perfectamente estructurada. Como XML es un formato universal, y no puede limitarse a saber describir sólo páginas webs, por ejemplo, las marcas no son fijas, sino variables según el subformato, lo que se llama DTD. Usar sólo texto sería perder información sobre dónde está cada cosa en el documento.
enredados Creative Commons:
las ideas se comparten... ¿el autor se desprotege?
C
on la idealización de un revolucionario intercambio creativo y cultural en la era de la Sociedad de la Información, Creative Commons intentó hacer lo que el Free Software hizo en el desarrollo, la distribución y el uso de aplicaciones informáticas... ¿lo logró? Creative Commons es una iniciativa que podría describirse como el intento por llevar las filosofías del Free Software a la cultura social, rompiendo de esta forma con los límites tecnológicos a los que se enfoca exclusivamente GNU GPL. Creative Commons busca impulsar el intercambio de ideas y enriquecimiento del contenido de Internet, protegiendo a los creadores. Se trata de una alternativa al Copyright, a las tradicionales leyes de protección de autor, donde se da prioridad a la obra en sí misma y a su amplia difusión más allá de quien la haya hecho. Pensado a partir de las revolucionarias ideas y logros de la Fundación del Software Libre, que llevó adelante Richard Stallman, nació cuatro años atrás esta iniciativa: Creative Commons. Detrás del proyecto, se posicionan al día de hoy las Universidades de Derecho de Harvard y Stanford, y lo sustenta el Center for the Public Domain, institución que tiene como presidente al reconocido investigador Lawrence Lessing, y a otros expertos de diversas áreas legales y profesionales en tecnología.
Derechos dinámicos para un mundo dinámico Se busca un modelo acorde con los tiempos que vivimos. El uso de la computación y el cada vez más fácil acceso a Internet, permiten que cualquier persona sea capaz de crear un mundo innovador y darlo a conocer en segundos, por medio de la ruta
38
[GiGA 2 / 2006]
digital. En este contexto, es cuando falla el sistema de Copyright y trata de imponerse Creative Commons, también conocido como Copyleft. Mientras el viejo modelo, que tiene más de veinte años, se basa en el previo consentimiento del autor para la reproducción de la obra, acción que debe realizarse caso por caso, Creative Commons agiliza dicho proceso con una simple aprobación en la que el creador da permiso a la total distribución de su trabajo. El Copyright es un modelo que lleva la frase "todos los derechos reservados". Por su parte, Creative Commons cita "algunos derechos reservados". Así se describe perfectamente la gran diferencia en el modo de aplicación de cada uno. En algunos casos, el Copyright permanecerá como la opción más conveniente; en otras situaciones, las ventajas y facilidades del Copyleft resultarán más valiosas. Sin embargo, Creative Commons se impone como una filosofía de "hacer lo correcto" para el beneficio de la sociedad, y esta visión viola las estructuras económicas. Es por eso, que muchos investigadores rechazan esta ola de libertades, porque consideran que al aceptar sus reglas están regalando sus trabajos.
Un problema en la falta de ética y desinterés Es en la práctica donde se ve claramente la problemática que hoy afrontan los sistemas de derechos de autor, y es Internet el espacio propicio para accionar sin escrúpulos sobre el trabajo de otros. La tecnología proporciona un lugar al que se acerca cada sociedad y que se provee de una interminable sucesión de obras de todo tipo. Tomar un trabajo y quitarle los créditos correspondientes es una acción que suele carecer de consecuencias legales, simplemente por el hecho de la dificultad
de tomar medidas contra una persona o empresa que está del otro lado del mundo, por lo que una simple comunicación electrónica se convierte generalmente en el único medio para llegar al punto del conflicto. Porque es posible, incluso, que aquel que haya reproducido la obra y que ha sido descubierto por su creador original, no haya sido testigo de los derechos establecidos sobre ésta, tal vez porque la copió de otro lugar que la presentó sin calificación alguna. Es la interactividad en el mundo de Internet y el a veces desinterés por incluir los datos del autor, la problemática que hoy se está tratando de enfrentar. Es un caos que afrontan aquellos autores de poco reconocimiento que no tienen los recursos ni tiempo para dedicarse a analizarlos. En este sentido, ambos modelos son vulnerables.
Cómo funciona y aplica Creative Commons El público y las áreas culturales cubiertas por Creative Commons son realmente muy amplios, sin embargo se distinguen ventajas evidentes para los pequeños autores, y más aún en el caso de aquellos que producen sitios web, debido a que es este último el ámbito idóneo para su desarrollo. Pero, el aparente simple modelo de aplicación que se presenta desde el sitio de CC, no aclara en grandes términos la necesidad de registro previo en la Propiedad Intelectual, para que las creaciones sean protegidas legalmente. Generar una licencia en Creative Commons no da lugar a ningún tipo de registro de la obra, y en este marco, es un trámite simple y gratuito. Por lo tanto,
enredados Creative Commons se aplica sobre las propiedades de autor, incluso por encima del Copyright, y su vigencia nunca acaba una vez que una persona ha tomado la obra del autor. Sí genera en la práctica, y sin consideración de los aspectos legales, una especie de clave en la comunidad online, de modo tal que sea observado un interés por parte del autor en la distribución de sus obras. Lo que se crea y promueve en la obra es un símbolo que impulsa el intercambio de ideas. Y es recomendable un registro en la Propiedad Intelectual antes de ir a buscar una licencia CC. El modo en el que se genera una licencia, como ya se comentó, es extremadamente sencillo. Basta responder a unas preguntas para seleccionar el tipo de licencia que uno desea incorporar a su trabajo, y el resultado es un código que muestra el logo de Creative Commons y un vínculo a la información correspondiente al licenciamiento que gira en torno a la obra. De forma paralela existe un buscador de CC que recoge aquellos contenidos online, lo cual es un sistema de búsqueda que hoy ya ha incorporado Google a sus opciones avanzadas basado en la fuente original. También, las obras offline pueden hacer uso de una licencia Creative Commons. El caso más notable y que mayor impulso le ha dado a estos nuevos términos, es el del diario español 20 Minutos, que desde principios de año reproduce en la última página de cada edición, su interés por la libre distribución de sus notas periodísticas. "Creemos en la libre circulación de las ideas y, como prensa libre, nos hemos sumado a un movimiento internacional imparable: el de multitud de músicos, científicos, escritores, blogueros y profesores de universidad que ya están utilizando este tipo de licencias Creative Commons u otras similares para proteger sus obras a la vez que las comparten con los demás", expresó a los lectores el Director de 20 Minutos, Arsenio Escolar.
Las cuatro variables de Creative Commons Las licencias CC se basan en cuatro parámetros que por combinatoria se transforman en once modalida-
des, y permiten la elección de los términos en los que se quiere distribuir la creación. A diferencia del estricto modelo del Copyright, aquí se entiende el uso de la frase "algunos derechos reservados". • Atribución: permite a otros copiar, distribuir, mostrar y ejecutar el trabajo y/o trabajos derivados de éste, sólo si ellos dan al creador el crédito correspondiente. • No comercial: permite a otros copiar, distribuir, mostrar y ejecutar el trabajo y otros trabajos derivados basados en éste sólo para propósitos no comerciales. • Sin trabajos derivados: permite a otros copiar, distribuir, mostrar y ejecutar sólo copias literales del trabajo, no trabajos derivados basados en éste. • Compartir bajo condiciones similares: permite a otros distribuir trabajos derivados sólo bajo una licencia idéntica a la que reguló su trabajo. Por combinatoria, uno puede marcar como pautas de distribución, por ejemplo Atribución (para no perder el crédito del trabajo) --- No comercial (para que la obra no sea vista en entornos comerciales, para lo cual sí se va a requerir de la autorización del autor, quien puede convenir un beneficio económico a partir de ello) --- Sin trabajos derivados (para que el trabajo original no sea modificado). Este ejemplo se sintetiza como la licencia by-nc-nd (por sus siglas en inglés). También, puede optarse por elegir la licencia de Dominio Público, que bajo la frase "ningún derecho reservado", es la máxima expresión de CC. No obstante, esta última opción, que consiste en liberar por completo una obra, es criticada por varios expertos en el sentido de cuestionar ¿para qué uno va a regalar su trabajo? ¿No está también una obra con todos o ciertos derechos en el dominio público? Más allá del debate, el objetivo es plantear y evidenciar los dos extremos, en lo que se refiere a las restricciones del Copyright tradicional y a las libertades del Copyleft.
¿Qué tan libre es Creative Commons? Creative Commons proyecta una filosofía con orígenes en la Free
Software Foundation, observando la necesidad por implementar nuevas reglas en la protección y distribución de creaciones culturales (que abarcan proyectos en educación, música, cine, literatura, arte, fotografía, etc.). Es un organismo aún muy joven y con mucho interés en cambiar las cosas. En un principio, el proyecto Creative Commons contó con el apoyo de Stallman, pero más tarde, el interés del mayor exponente del movimiento del software libre cambió. Porque el mensaje que presenta Creative Commons no tiene claro las libertades en las que basa sus licenciamientos, y es flexible en cuanto a la relación con otros modelos de protección de los derechos de autor. Stallman nos explicó que "la idea básica del movimiento del Free Software es que a los usuarios se les tienen permitidas ciertas libertades esenciales. Preparamos GNU GPL para defender esas libertades. Aprobamos todas las licencias que las respetan; condenamos aquellas que las pisotean. Las ideas de Creative Commons no se parecen en nada a esto. Creative Commons no dice que ciertas libertades son esenciales, o que ciertas licencias están mal". Es la especificación de las libertades básicas en las que deben distribuirse las obras lo que no tiene Creative Commons, lo cual lo convierte en una mejora a los tradicionales sistemas, ya que se apoya en ellos. Stallman, de acuerdo con la libertad para la distribución no comercial de copias literales, se opone a la reciente incorporación de las licencias Developing Nations y Sampling. ¿Es una iniciativa libre? Puede ser que no, al menos Stallman no lo considera así, pero sí es una propuesta diferente, innovadora para el contexto en el que se aplica que ha iniciado un fuerte debate y que tiene mucho futuro. David Alejandro Yanover Director y fundador de MasterMagazine, revista digital líder en Informática que colabora con GiGA, con referencia en www.MasterMagazine.info
[GiGA 2 / 2006]
39
joystick
Luis Yasser Vila Cabrera
A
lo largo de su corta existencia, los videojuegos han sido blanco de los más retorcidos y malintencionados calificativos. De cualquier modo y contra todo pronóstico lo cierto es que han logrado crecer desde sus incipientes raíces hasta transformarse en una megaindustria, a cuya vera han surgido terminologías, personalidades, eventos, íconos y tanto más que no podríamos imaginarnos hoy la civilización sin esta polémica forma de ocio y diversión. Pero si algo marcó verdaderamente la evolución ascendente de este mundo fue el afán de los creadores por innovar, desde los aspectos más conceptuales, como el diseño de los personajes o el contenido de las historias, hasta el soporte técnico y los modos de control, todo con una clara finalidad: buscar nuevas experiencias de entretenimiento. Sin embargo, es bueno recordar que este "boom creativo" tuvo lugar gracias al gran desarrollo que experimentaron los programas de diseño, los formatos de almacenamiento y la informática en general. Pero el tiempo no se detiene ni en el mágico universo de los videojuegos: sistemas que vieron la luz del pasado descansan hoy en la memoria de muchos o quizás en el olvidado rin-
40
[GiGA 2 / 2006]
cón de un viejo escaparate. Disímiles eran sus colores, incontables los accesorios, aparatosamente utópicas las formas y unas alcanzaron más popularidad que otras, pero ahora todas tienen algo en común: son consolas anegadas bajo las dunas del tiempo. Nuestra misión arqueológica será precisamente la de buscar y desempolvar estos fósiles del entretenimiento digital, ¿están preparados para la aventura?, pues que comience la travesía. Philips CD-i, el eslabón perdido Corrían los primeros años de la década de los noventa cuando la tecnología CD-ROM y su nuevo formato comenzaban a ver la luz. Philips, uno de sus padres, decidió darles un empujoncito y con este fin lanza al mercado el primer modelo de la CD-i (Compact Disc Interactive), una máquina difícil de clasificar ya que no era exactamente una consola de 32 bits, sino una plataforma multimedia que incorporaba dos procesadores independientes de 16 bits, capaces de reproducir discos CD-i, CDs de audio, Karaoke CDs y VCDs con la ayuda de una tarjeta descompresora adicional. Además, contó con un buen número de periféricos entre los que destacaban un ratón, un TrackBall y mandos inalámbricos.
Al principio aparecieron pocos juegos, de hecho la mayoría consistía en películas interactivas o enciclopedias educativas con personajes de dibujos animados, mientras que otros eran versiones de clásicos como Tetris o PacMan. Rápidamente, Philips comprendió que el camino para atraer al público sería el de los videojuegos y aprovechó un acuerdo con Nintendo para programar varios títulos basados en dos de sus franquicias más populares: Mario y Zelda. Así nacieron Hotel Mario, Mario's Wacky World, Link:Faces of Evil, Zelda:The Wand
Philips CD-i modelo 450
of Gamelon y Zelda's Adventure, que a pesar de tener buena "pinta" dista-
joystick
ban mucho de sus populares primos: los juegos de la gran N. El CD-i 470 mini, el CD-i 615 con disquetera incluida, el CD-i 130 equipado con un TV de serie e incluso una versión y el CD-i 370 muy similar a los actuales reproductores DVD portátiles, fueron algunos de los nuevos modelos que hasta el año 1998 y a duras penas lograron germinar. La necesidad del cartucho adicional MPEG, el reducido número de fabricantes, el alto precio de las películas, el boom de Internet (a la que no tiene forma de conexión, a diferencia de otros equipos multifunción) y la aparición del DVD constituyen los motivos de su fracaso. Atari Jaguar, la potencia incomprendida
Atari Jaguar, la primera consola de 64 bits
Diseñada por Flare Technology sale a la venta en 1993 la Atari Jaguar, bautizada como la primera consola de 64 bits. Una capacidad que muchos ponían en tela de juicio alegando que la CPU principal era de 16 bits. Por su parte, los defensores afirmaban que el bus principal de datos y algunos procesadores funcionaban a 64.
Lo cierto es que en principio la Jaguar iba a ser lanzada un par de años después que la Atari Phanter, una consola de 32 bits cuyo destino era hacer la competencia a los 16 bits de Sega y Nintendo. Esto hubiese sido lo normal y quizás lo conveniente, ya que para la gran mayoría de los usuarios, 64 bits sonaban a "calendas griegas". No obstante, Atari optó por abandonar el proyecto Phanter y lanzar su flamante y novedosa Jaguar. La consola contaba con cuatro procesadores, un bus y un chip gráfico de 64 bits cada uno, 2 megas de RAM, un despliegue de 16,8 millones de colores, entre otras particularidades técnicas. Como formato de almacenamiento, la felina utilizaba unos cartuchos de sólo 6 Mb, que gracias a la encriptación podían almacenar más de 80. También cabe subrayar que los juegos detectaban automáticamente si el sistema era NTSC o PAL y se adaptaba a la pantalla. Posteriormente, Atari lanzó multitud de periféricos, entre los que figuraba un adaptador llamado JagLink, que posibilitaba la conexión con otra consola, un dispositivo para CDs y un casco de Realidad Virtual del que se fabricaron poquísimas unidades y tan sólo un juego compatible (una versión del Missile Comander). Los principales factores para que la Jaguar se hundiera en la ruina fueron el desastroso marketing de Atari, el hecho de que sus primeros juegos fueran mayormente conversiones mejoradas de los 16 bits y lo difícil que era su lenguaje de programación.
Virtual Boy, los anteojos de Nintendo
Virtual Boy
Uno de los pocos fracasos que la todopoderosa Nintendo ha tenido en su historia se llama Virtual Boy y sólo apareció en Japón y Estados Unidos en 1995. En un inicio, el peculiar aparatico iba a ser un casco de realidad virtual con CPU de 32 bits, pantalla a todo color y libertad de movimiento. Pero como reza el refrán: del dicho al hecho, hay un buen trecho. La maravillosa idea se materializó en unas "gafas" con dos pantallas (una para cada ojo) que a través de un grupo de lentes ofrecía juegos con apariencia 3D. Tecnológicamente, la consola poseía dos sistemas: uno de 224 LEDs por ojo y otro de espejos, encargado de recrear la resolución total de la pantalla (384 × 224 píxeles). Contaba con un procesador NEC V810 a 20 MHz, un 1 Mb de RAM y una paleta de 4 colores, variantes del rojo y el [GiGA 2 / 2006]
41
negro. Aunque sólo pesaba 760 gramos, la experiencia de juego era incómoda y limitada, pues la altura del visor era estándar y frecuentemente producía dolores de espalda. En cuanto a la goma que bordeaba las gafas, ofrecía un apoyo perfecto para la cabeza, sin embargo como recomendaba su manual de instrucciones, había que hacer reiteradas pausas, de lo contrario se podía sufrir daños en la vista y dolores de cabeza, algo que con razón, asustaba bastante a los padres. Sólo llegaron a presentarse unos 20 títulos y los más destacados fueron Wario Land, Mario Tenis, Mario Clash, Golf, Tetris y Galactic Pinball. Fue Gumpei Yokoi, padre de Game Boy, el encargado de crear la Virtual Boy, de ahí que sus cartuchos de juego sean tan parecidos a los que emplea la portátil. Los factores más fulminantes de su fracaso fueron precisamente sus características y el poco apoyo que le dio la propia Nintendo. Para empezar, las dos pantallas independientes, necesarias para conseguir el efecto 3D impedían hacer fotos de los juegos, lo que provocaba que el público no supiese cómo eran. Además, si había dos personas jugando el que esperaba no veía cómo iba la partida y se aburría (Nintendo intentó solucionar este problema con un cable link, pero no funcionó). Hoy, es una de las consolas más difíciles de encontrar y es considerada por los coleccionistas como una joya sobre todo en Europa donde nunca se distribuyó.
Atari 2600, la que más… La primera incursión mundial de Atari,
42
[GiGA 2 / 2006]
en el mercado de las consolas caseras, fue la Atari 2600, llamada en un principio Atari VCS y pionera en el uso de cartuchos intercambiables. Su primera versión, la 2600 Junior, poseía una carcasa superior que imitaba la madera y es una de las más reclamadas actualmente por las personas que gustan de coleccionar estos equipos.
les de calidad y cualquiera podía crear un juego, lo que provocaba un índice de piratería tan elevado que era común ver cartuchos con 64 ó 128 juegos. En cuanto a periféricos, el más destacable fue el CVC GAMELINE, un terminal que se adelantó años a su tiempo, pues ofrecía un servicio de juegos por medio de la línea telefónica (este sistema también fue usado por la Colecovision y la Intellivision). Con la excepción del mercado asiático, la Atari 2600 gozó de un éxito internacional. Su sucesora fue la 5200.
SNES CD, el embrión de Play Station
Así eran los gráficos de Atari 2600
Su conjunto técnico estaba compuesto por una CPU MOS Technologies 6507 a 1,19 MHz, una memoria principal de 128 bits VLSI, un procesador gráfico Atari TIA, una resolución en pantalla de 169 x 102 píxeles que desplegaba 16 colores con 8 niveles de intensidad cada uno, sonido monofónico de dos vías, dos puertos DB9 para joysticks y otros periféricos, y seis interruptores (en la versión original): encendido, apagado, tipo de televisor (blanco y negro o en colores), dificultad para cada jugador (llamados A y B), selección de modo y Reset. La 2600 ha sido una de las consolas más "reversionadas" y longevas de la historia: se vendió desde 1977 hasta 1990. Su catálogo de juegos es uno de los más amplios con clásicos como Donkey Kong, Asteroids o Pacman, pero también considerado uno de los más mediocres ya que Atari daba poca importancia a los programadores, tanto suyos como del resto de las compañías. Además, no existían los contro-
Retrocedamos en el tiempo a 1988. La NES de 8 bits es la líder indiscutible a nivel global en el mundo de las consolas. Su sucesora, la Super NES era todavía un proyecto, pero ya se planeaba utilizar un sistema que le permitiera acceder a la tecnología CD-ROM. La gran N negocia con Sony, la cual accede a desarrollar el chip de sonido de la nueva Nintendo a cambio de diseñar la futura unidad de CD y obtener los derechos para fabricar y explotar su propia consola compatible con la Super y el mencionado dispositivo.
Esta es la única imagen que mostraba un prototipo del SNES CD
Así nace lo que llamaron entonces SNES CD, sin saber que se convertiría en el periférico más influyente de la historia de los videojuegos y el embrión de Play Station. Pasó el tiempo, la Super Nintendo fue lanzada y se convirtió en un rotundo
éxito en los cinco continentes. Era la máquina más potente. Sin embargo, Sega y Nec, los rivales más directos de Nintendo guardaban un as bajo la manga: ambas compañías trabajaban para incluir en sus plataformas el CD como formato de almacenamiento. No se podía esperar, había que ir por todas y aprovecharon la cobertura del CES (Consumer Electronics Show) de 1991: Nintendo y Sony develaron el SNES Play Station Project, accesorio que permitiría a SNES leer múltiples formatos de CD. Sin embargo, habían pasado los años y el antiguo trato ponía en desventaja a Nintendo, que dependería totalmente de Sony para fabricar su SNES CD. Sin consulta previa, Nintendo pasó página y entabló conversaciones con Philips, y llegaron a un convenio mucho más beneficioso: ellos producirían el ansiado accesorio de la Super a cambio de poder utilizar alguno de los personajes más carismáticos de Nintendo, razón por la que en varios sistemas CD-i de Philips aparecieran juegos de Mario y Zelda. Como era de esperar, Sony no tardó en poner una demanda por incumplimiento de contrato. Nintendo estaba contra la espada y la pared: de renunciar a su acuerdo con Philips se quedaba sin CD y de mantenerlo Sony la llevaba a los tribunales. Bajo tal circunstancia y para evitar complicaciones, Nintendo propuso una negociación que a finales de 1992 concluyó con un nuevo compromiso: las tres compañías desarrollarían en conjunto el SNES CD y su formato estándar el CD-ROM XA, un CD revestido con una funda de plástico y un chip de memoria incorporado para salvar partidas. También se le conoció como ND (Nintendo Disk) e incluso llegaron a anunciarse juegos como el 7th Guest y nuevos episodios de SuperMario, Zelda y Final Fantasy. La idea comenzaba a tomar forma (o al menos eso parecía). Nintendo obtiene la patente del HANDS (Hyper Active Nintendo Data-transfer System), componente que uniría la Super NES con el SNES CD. Al tiempo que Philips y Sony adquirían la posibilidad de usar varias licencias de juegos de Nintendo y los derechos de algunas marcas. Ahora Sony se hace propietaria del sello Play
Station. Todo estaba listo para el lanzamiento, las especificaciones técnicas fueron dadas y la fecha de presentación se previó para el CES de 1993. Pero llegó el día y Nintendo no mostró nada. La extensión del CD-ROM para Super Nintendo había muerto. ¿Por qué? Realmente nunca lo sabremos. Unos rumores cuentan que Nintendo abortó el proyecto debido al Chip FX que era un dispositivo de su propia factoría que alargó la vida de la Super y mejoró la calidad de sus juegos, mientras otros aseguran que Nintendo no quería seguir gastando grandes sumas cuando ya trabajaban en la Virtual Boy y el entonces proyecto Reality (finalmente Nintendo 64) herederas de los 16 bits. De cualquier modo, los motivos no fueron tan trascendentales como la fatal consecuencia de dejar el camino libre a Sony, la cual lanzó su Play Station de 32 bits en un momento en que la única competencia era la difunta Sega. Virtual Boy no fue rival y para cuando llegó la Nintendo 64, era demasiado tarde: el mercado ya estaba copado por la máquina de Sony.
hermana mayor la Commodore 64, una especie de ordenador que ya tenía un repertorio muy considerable. Igual se realizaron juegos para ella con muy buenos resultados. Contaba con una CPU de 8 bits a 1 MHz, 64 kb de RAM, 20 de ROM, 8 sprites simultáneos en pantalla, una resolución de 320 x 200 píxeles y 16 colores en pantalla. Debido a la fuerte competencia y a que por igual precio se podía adquirir a su hermana (que utilizaba, además, juegos en cinta), la consola fue un rotundo fracaso.
Twin Famicom, el poder de la fusión
Twin Famicom, sólo se distribuyó en Japón
Commodore 64 Game System
Fabricada por Sharp bajo licencia de Nintendo aparece en 1986 la Twin Famicom, una consola que vio la luz sólo en tierras japonesas y que en realidad no es más que una fusión entre la NES (Famicom en Japón) y el Famicom Disk System, (algo similar al SNES CD, pero con disquetes de 3 pulgadas). Se comercializaron dos versiones: una negra y otra en color rosa. Esta especie de máquina admitía cartuchos y disquetes con una compatibilidad ciento por ciento, con la diferencia de que los juegos almacenados en disquetes eran mucho más baratos que los cartuchos, y su tiempo de carga muy rápido, ya que los juegos tenían pocos kb de memoria. Además, este formato ofrecía la opción de salvar las partidas, algo que en el cartucho requería baterías y chips específicos. Debemos reflejar que esta maravilla, con la excepción de su tierra de origen, se encuentra entre las rarezas más arduas de encontrar.
Esta es una de las pocas consolas que, en lugar de Japón, fue Europa de donde nunca salió. Lanzada en 1987 en un intento por entrar en el mercado de los 8 bits, la Commodore 64 GS venía en serie con un joystick, dos juegos y era compatible con los cartuchos de su
Conclusiones Buscando y removiendo hemos llegado a una conclusión: una expedición no basta para conocer tantos fósiles, por eso hemos decidido volver, realizar un segundo viaje y seguir hurgando bajo las dunas del tiempo.
Un dato curioso: La última vez que se supo de este accesorio fue en el Tokio International Electronic Show de 1993, cuando Sony lo presentó bajo el nombre que final y supuestamente llevaría: Nintendo Play Station. Salvo un detalle histórico "el SNES CD de esa ocasión se había convertido en el primer prototipo de Play Station"
Commodore 64 GS, la que no viajó
[GiGA 2 / 2006]
43
joystick Lanzamientos de Nintendo España A fondo
V
uelve A fondo nuestro espacio más joven, que en esta ocasión estará enfocado al lanzamiento de dos juegazos para Nintendo DS, Animal Crossing Wild World y Residen Evil: Deadly Silence, títulos que sin temor a equívocos, se antojan como indispensables en el catálogo de la portátil. El primero fue presentado en una acogedora rueda de prensa realizada en marzo pasado en Nintendo Friends. Mientras que Resident Evil lo hacía en abril, pero en el fantasmagórico Caserón del Parque de Atracciones de la Casa de Campo de Madrid. Ambas reuniones estuvieron amenizadas por Nicolás Wegnez, jefe de Marketing de Nintendo España, Manuel Curdi, jefe de Prensa, y personal de la Compañía. Gracias a la invitación realizada por Nintendo España pudimos estar presentes en ambos acontecimientos.
Residen Evil: Deadly Silence
Animal Crossing Wild World
S
alió al mercado japonés en noviembre y se coronó como juego más vendido del 2005 (incluso por encima del Gran Turismo 4 para Play Station 2 que quedó en segundo lugar) y logró distribuir la astronómica cifra de un millón ciento sesenta y nueve mil setecientas cincuenta y nueve unidades. El juego está clasificado como un simulador social en el que los jugadores deben realizar tareas de la vida cotidiana para logar sus objetivos los cuales son particulares y determinados por el usuario. Es decir, habrá que comer, dormir, trabajar, coleccionar objetos y lo más importante: relacionarse. ¿Cómo? Mediante la conexión Wi-Fi de Nintendo, una vía gratuita que permite a un jugador de Brasil, por ejemplo, comunicarse con otro de China. De esta forma los jugadores pueden entablar una amistad, intercambiar cosas, visitar pueblos, en fin, toda una experiencia jugable. De hecho, el máximo responsable del juego, Katsuya Eguchi, diseñador y director de títulos tan importantes como SuperMario World o Star Fox 64, reveló que una de las finalidades de este videojuego es precisamente reunir a gente de todo el mundo y lograr que se sientan familiarizados. Según ha comentado Eguchi, se dedicaron varios meses a estudiar los gustos y aficiones de todas las culturas, por lo que en el juego es posible encontrar objetos tan variados como un cuadro de Goya, un candelabro judío y hasta el mismísimo Arco de Triunfo. Como cierre de este brevísimo repaso se destaca la iniciativa que Nintendo ha desarrollado contra intrusos, los cuales podrían aprovechar el sistema de chat con fines ajenos a los del juego. Por eso para que dos usuarios se comuniquen entre sí, necesitan primero intercambiar sus códigos de amigo, de lo contrario un simpático perro guardián, llamado Vigilio impedirá la comunicación.
44
[GiGA 2 / 2006]
P
ara celebrar el décimo aniversario de su saga más terrorífica, Capcom escogió la plataforma más innovadora del momento: Nintendo DS. Y aunque el juego es un remake del primero que apareció en Play Station, ofrece nuevas sensaciones de tensión gracias a las características especiales de DS. Utilizar el Stylus como puñal o ayudar a un moribundo compañero con respiración boca a boca, gracias al micrófono integrado, son algunas de las novedades jugables que ofrece. Concluimos mencionando que debido al maquillaje utilizado por el personal de Nintendo se sintió algo de miedo, no obstante y para calmar el susto, los "nintenzombis" obsequiaron un ejemplar del juego a cada invitado. Nota: Si quieres saber más sobre Resident Evil: Deadly Silence, busca el número anterior y consulta esta Sección, en la que comentamos sobre este juego y sus peculiaridades.
Y desde este pequeño rincón agradecemos a los amigos de Nintendo España por su invitación a participar en estos importantes lanzamientos. Les deseamos sigan cosechando éxitos.
joystick Tras la ruta arqueológica llega la hora de ponerse al día con lo último del universo consolero. Sin embargo, la mejor noticia es que en nuestro próximo número les ofreceremos el especial sobre lo acontecido en la feria más importante de los videojuegos: el E3. No puedes perdértelo.
De Revolution a Wii
M
ediante un vídeo transmitido por Internet, el gigante de Kyoto develó de forma inesperada el nombre final de su consola de próxima generación. Conocida hasta la fecha por su nombre clave, Revolution, la nueva Nintendo se llamará simplemente Wii. La noticia suscitó una gran polémica a nivel global, no obstante, la gran N ha señalado que Revolution expresa la dirección de la consola, mientras Wii representa la respuesta que borrará la distancia entre los jugadores y el resto
de las personas, porque Wii pondrá a la gente más en contacto con los juegos… y con los demás. En cuanto al origen del peculiar vocablo Nintendo resaltó la similitud sonora de Wii con we (nosotros en inglés), algo que enfatiza el objetivo de la compañía, ya que según ellos no se trata ni de ti y de mí, sino de Wii. Además, al ser un monosílabo tiene la ventaja de que cualquier persona, sin importar el idioma que hable, puede recordarlo y pronunciarlo fácilmente.
Con esta maniobra Nintendo fue clara: quiere que su producto tenga identidad propia, algo similar a lo conseguido por Apple con el iPod o el Mac.
El octavo arte
La secuela de una guerra
l Museo de la Imagen en Movimiento, enclavado en la ciudad de Nueva York abrió una exposición permanente sobre la historia de los juegos electrónicos. No obstante, Carl Goodman, responsable del área digital, recordó que desde 1989 el prestigioso centro realiza muestras temporales sobre videojuegos, por considerarlos una auténtica expresión artística. Para concluir el MOMI, como popularmente se conoce al museo, dedicó la exposición al octogenario Ralph Bauer, "padre de los videojuegos domésticos".
E
S
Vuelve Crash Bandicoot
Virtua Fighter esclusivo de PS3
V
ivendi Games anunció el desarrollo de Crash Boom Bang, un divertido título del peculiar zorrillo, que permitirá a los jugadores zambullirse en 40 minijuegos, así como comunicarse con sus oponentes y apostar contra ellos gracias a una novedosa característica denominada "Pantalla Táctil de Comunicación". Su lanzamiento está previsto para octubre venidero en exclusiva para Nintendo DS.
ony anunció el lanzamiento de God of War II. El juego saldrá exclusivamente para PlayStation 2 a principios del 2007 y mantendrá el estilo de su predecesor: una aventura de combate y acción basada en la mitología griega, en la que los jugadores retomarán el personaje de Kratos, pero ahora utilizará nuevas magias y movimientos de combate con el fin de avanzar por escenarios repletos de míticos enemigos y complicados puzzles. El creador del primer God of War, David Jaffe, quien supervisará también el desarrollo de esta entrega comentó: "En el mundo de los videojuegos es raro encontrar una secuela que mejore al original, pero creo que ésta va a ser la excepción que confirme la regla en términos de calidad, estilo de juego e historia".
S
ega anunció el desarrollo de la quinta entrega de la saga Virtua Fighter que llegará exclusivamente a PlayStation 3 a partir de la primavera del 2007. El juego presentará a más de quince personajes diferentes extraídos de las anteriores entregas y dos nuevos: Eileen (china, estilo de lucha Monkey Kung-Fu) y El Blaze (mexicano, estilo lucha libre). Además, se incluirá un sistema de recompensas mediante el cual los jugadores podrán comprar ítems para personalizar la apariciencia de los personajes.
La Curiosa
C
on motivo del lanzamiento de Tomb Raider Legend en Alemania, las oficinas de marketing de Microsoft y Eidos tuvieron una peculiar iniciativa. Cubrieron una Xbox 360 con 43 000 pequeños cristales de colores y los agruparon hasta formar una carcasa inspirada en la carátula original del juego. La consola, valorada en unos 9000 euros, fue sorteada en un concurso. [GiGA 2 / 2006]
45
multimedia
Dr. Estrella Velázquez Peña Dr. Jorge L. Hernández Mujica Lic. Luis G. Ulloa Reyes [email protected]
L
as transformaciones que se suceden en el Sistema Nacional de Educación, que incluyen todos los niveles de enseñanza, exigen como nunca antes que el proceso de enseñanza-aprendizaje dé paso a un profesor que dirija la actividad de aprendizaje de los estudiantes sin ocupar el lugar de éstos, y que promueva la búsqueda, la indagación, el cuestionamiento y la reflexión, a partir de la utilización armónica y efectiva de los diferentes medios de enseñanza y aprendizaje que tiene a su disposición. Dentro de esos medios un lugar privilegiado lo tiene la computadora. Su rapidez para solucionar cualquier tarea y la posibilidad que ofrece de integrar otros medios, hacen posible que cada día se reafirme su empleo para mejorar la calidad de la enseñanza y el aprendizaje en cualquier nivel y en las diferentes asignaturas del currículo que se trate. Hoy se traen algunas consideraciones acerca del uso de la computadora como procedimiento metodológico para estimular el aprendizaje reflexivo de los estudiantes.
Procesar y elaborar información en la computadora Entre los diferentes componentes del proceso de enseñanza-aprendizaje
46
[GiGA 2 / 2006]
existe una relación dialéctica que favorece su carácter dinámico. A partir de esa consideración se asume que los procedimientos son la expresión de la relación que existe entre qué y cómo se enseña, y qué y cómo aprenden los estudiantes, o sea, una relación entre contenido y método guiado por el objetivo y que, en una estructuración lógica, comprende la organización que se da a la actividad docente, los medios utilizados para enseñar y aprender, así como el trabajo de orientación para promover el desarrollo cognoscitivo, afectivo y valorativo de los estudiantes. De esta manera ha sido considerado el procesar y elaborar información en la computadora, como procedimiento para lograr la apropiación de los contenidos de manera reflexiva. Su utilización permite: • Elevar el nivel intelectual de los estudiantes y sus posibilidades de aprender en varios campos, si se logran apropiadas situaciones de aprendizaje. • Trabajar con información conocida o desconocida, ayudar a investigar y autodisciplinarse. Este aspecto es decisivo para poder trabajar y emplear todas las posibilidades que brinda la computadora. • Una comprensión global de los procesos de procesamiento de la infor-
mación por medios informáticos. • Sensibilizar a los estudiantes con las implicaciones éticas, educativas, cognoscitivas y sociales de la utilización de las computadoras y el uso de los productos informáticos. • Preparar a los estudiantes, sobre todo, para la función de usuario de la Informática, la comprensión intuitiva de su potencial y la puesta en práctica de alternativas creativas. • Promover el acercamiento a la computadora, desestimando la falsa creencia de que "lo puede todo" y "lo soluciona todo", pero considerar que puede optimizar tiempo y recursos y facilitar el aprendizaje. • Despertar el interés por seguir aprendiendo. La dinámica de los contenidos informáticos asegura la necesidad de actualización constante, por la rapidez con que dichos contenidos se vuelven obsoletos. • Sensibilizar y familiarizar a los estudiantes con sistemas basados en computadoras, con diferentes perspectivas, pero con elementos comunes, como la exploración, la visualización de posibilidades actuales y futuras, y su empleo reflexivo. • Facilitar la comunicación oral y la escrita, ya que el empleo de una computadora y de un software apropiado, como puede ser el tratamiento de textos, permite la producción
multimedia de textos escritos, modificarlos, realizar ampliaciones, cambios de estructura y el uso de los signos de puntuación, entre otros. Este procedimiento en el proceso de enseñanza-aprendizaje ofrece grandes posibilidades al profesor y a los estudiantes para alcanzar mejores resultados en su aprendizaje y, además, lograrlo con actividad reflexiva. Numerosos son los softwares (con diferentes propósitos) que pueden ser utilizados para adquirir, ampliar, relacionar, elaborar, modelar y procesar información. Existen procesos y fenómenos naturales que se modelan en la computadora y, de esta forma, pueden ser estudiados hasta el detalle, que de otra forma sería prácticamente imposible analizarlos en su manifestación concreta. Se pueden realizar experimentos en laboratorios virtuales que en ocasiones son imposibles de realizar por peligrosidad, escasez de recursos materiales y otras limitaciones. En ese sentido, permite que los estudiantes realicen y se involucren en el procesamiento, la elaboración y la comunicación de la información, y no sean simples receptores de soluciones dadas por otros. El trabajo con las enciclopedias especializadas y otros softwares educativos es sumamente interesante y necesario para lograr el aprendizaje reflexivo. Por sus características, fácil manejo e información esencial recogida, pueden ser utilizadas y resultar de gran interés para los estudiantes, pero no sólo por lo que pueden aprender, sino cómo lo pueden aprender y por la motivación que despierta en ellos.
En práctica el procedimiento Para la puesta en práctica de este procedimiento, es necesario tener en cuenta lo siguiente: • Determinar los objetivos que se persiguen con cada actividad docente. • Dominar el contenido que se enseña y la manera en que aparece en los diferentes softwares educativos que se encuentran a disposición de profesores y estudiantes. • Establecer las potencialidades de los diferentes softwares educativos
y las posibilidades de los estudiantes para interactuar con ellos. • Determinar las tareas docentes que pueden ser ejecutadas con ayuda de la computadora, pero que deben estar dirigidas a la solución de problemas docentes. • Saber utilizar la computadora, para explotar todas sus potencialidades. En ocasiones, el no saber utilizarla se convierte en un factor limitante de consideración para obtener los resultados esperados. • Ofrecer a los estudiantes la orientación necesaria para que puedan lograr el objetivo, y no se desvirtúe la utilización de la computadora. Analizar cuándo, cómo y en qué momento se justifica su utilización. • Aprovechar al máximo sus posibilidades y que sean los estudiantes los que realicen demostraciones, experimentos, simulen procesos naturales, creen esquemas, elaboren resúmenes y, de esta forma, pongan en práctica sus procedimientos para alcanzar las metas propuestas. • El alto poder de interacción que ofrece la computadora exige que el profesor considere la manera en que los estudiantes interactúan con ella, mediante el software educativo que se utiliza. • Que las actividades realizadas con ayuda de la computadora sean analizadas y discutidas en colectivo. • Se estimule la autovaloración y la valoración colectiva que, en ocasiones, puede transcurrir en un ambiente lúdico.
A manera de ejemplo En cualquiera de los contenidos biológicos que se estudian, ya sea en primaria, secundaria, preuniversitario o en la universidad, se puede utilizar la enciclopedia de los Seres Vivos en correspondencia con los objetivos que se persigan en la actividad docente: mostrar un proceso, simularlo, estudiar una curiosidad, profundizar en determinados contenidos, ejemplificarlos, realizar una excursión imaginaria o realizar un experimento. De igual forma pueden ser utilizados otros softwares educativos que están a disposición de profesores y estudiantes.
Conclusiones Así para poder lograr que la computadora ayude y facilite el aprendizaje, se necesita no sólo que esté al alcance de profesores y estudiantes, sino que los primeros, en su condición de máximos responsables del proceso de enseñanza-aprendizaje, estén lo suficientemente preparados para hacer de la computadora un poderoso medio que mejore la calidad del aprendizaje de los estudiantes. [GiGA 2 / 2006]
47
Wikipedia, la enciclopedia libre
S
in duda, una de las herramientas más potentes de apoyo en la realización de las Secciones de GiGA, es Internet. Cuando acudimos a los buscadores para encontrar alguna información de cualquier tema, en muchas ocasiones Internet nos remite a www.wikipedia.org. La curiosidad y lo interesante que resulta ese sitio han hecho que hoy aparezca en esta Sección. No vamos a hablar de los detalles de su forma, ya que lo que nos ocupa hoy es enfatizar en su estructura que es el mayor mérito de esta publicación digital. En su portada, aparece la interrogante de ¿Qué es Wikipedia? Y para comenzar traemos la respuesta a esa interrogante tal y como aparece descrita en el sitio. "Wikipedia es una enciclopedia escrita por la colaboración de sus lectores. Hay mucha gente mejorando Wikipedia constantemente, con cientos de ediciones por hora que son
mediante un navegador web. El 15 de enero del 2001, este proyecto dio sus primeros pasos como complemento de la enciclopedia escrita por expertos Nupedia y hoy cuenta ya con más de 3 210 000 artículos, un millón de ellos corresponden a su edición en inglés. A finales de febrero de este año alcanzó la cifra de 1 000 000 de usuarios registrados. Wikipedia está editada en más de 200 idiomas, de los cuales solamente 100 están activos. Doce ediciones superan los 50 000 artículos: inglés, alemán, francés, japonés, polaco, italiano, sueco, danés, portugués, español, chino y ruso. La versión en alemán ha sido distribuida en DVDROM y se tiene la intención de elaborar una inglesa en DVD y en papel. Muchas de sus otras ediciones han sido replicadas por Internet (mediante "espejos") o se han creado enciclopedias derivadas (forks) en otros sitios webs. Como objetivo principal, Wikipedia
registradas específicamente en el historial y generalmente en los cambios recientes. Las ediciones que consisten en vandalismo o disparates son revertidas rápidamente." Este hecho la convierte en una enciclopedia libre multilingüe basada en la tecnología wiki. Sus escritos son hechos por colaboradores y permite que la gran mayoría de éstos pueda ser modificada por cualquier usuario
busca recopilar todo el conocimiento de la humanidad y ponerlo al mismo tiempo al alcance general como un derecho inalienable, tanto para su consulta como para su elaboración y mejora continuadas. Desarrollada en el sitio web wikipedia.org, emplea un software wiki, término originalmente usado para el WikiWikiWeb y que proviene del hawaiano wiki wiki, que significa
"rápido". Se pretende que Wikipedia alcance a la Britannica o la supere en calidad y se lleve a formato impreso. En enero del 2006, Wikipedia englobaba 123 ediciones "activas" (con más de 100 artículos) en distintos idiomas. Las cinco ediciones con más artículos son, en orden descendente: inglés, alemán, francés, polaco y japonés. En total, Wikipedia contiene 211 ediciones de idiomas en varios estados que suman 3,2 millones de artículos. Toda esta cifra demuestra el cúmulo de información que el sitio recoge, a la cual se puede acceder mediante los distintos links que aparecen en su portada, pero también cuenta con un buscador que facilita la navegación. La diversidad de temas que podemos encontrar, sin desplegar páginas y páginas en nuestra PC, es otro de los logros de este sitio, que sin derroche de colores e imágenes cumple con su función principal: la de recopilar y distribuir la mayor cantidad de información desde su ubicación en el ciberespacio. Es reconfortante saber que existen sitios en Internet que apuestan por el conocimiento y sabiduría humana y se encuentran allí para ampliar el universo. Wikipedia es uno de esos sitios que contribuyen a conocer que la diversidad inunda también su espacio y hace que se convierta en eso que la distingue: una enciclopedia libre. [GiGA 2 / 2006]
49
U
n periférico es un dispositivo de soporte físico conectado a una computadora, que le permite interactuar con el exterior por medio de la entrada, salida y el almacenamiento de datos, así como la comunicación entre PCs. El término suele aplicarse a los dispositivos que no forman parte indispensable de una computadora y que son en cierta forma, opcionales. Es habitual utilizarlo para definir a los elementos que se conectan externamente a un puerto de ésta, aunque muchos de ellos se han vuelto tan indispensables para las computadoras personales de hoy día que ya son integrados desde la fabricación en la tarjeta principal. Dentro de dicha denominación, el teclado es uno de los más utilizados y conocidos. Su función es la de introducir órdenes y datos en una PC. Muchas veces no tenemos idea de que ese objeto que usamos cotidianamente tiene también su historia.
Origen Aunque el teclado es el dispositivo fundamental de entrada del ordenador, su forma de operarlo no ha sufrido prácticamente cambios desde la aparición del IBM PC hasta nuestros días. Sólo pequeñas modificaciones de detalles para consolidarse en cuatro tipos que pueden considerarse estándares, tres de ellos introducidos por IBM y el cuarto concebido por Microsoft para las distintas versiones de su sistema operativo Windows. • Teclado PC XT de 83 teclas (en desuso) • Teclado PC AT de 84 teclas (en desuso) • Teclado extendido de 101 teclas • Teclado extendido Windows de 104 teclas.
52
[GiGA 2 / 2006]
Además de éstos, se han utilizado otros tipos no estándares, en especial los portátiles pequeños, en los que el tamaño no permite una distribución convencional de las teclas. En lo sustancial, todos han empleado la disposición clásica de las teclas de la máquina de escribir (tipo QWERTY), que se ha mantenido hasta nuestros días, aunque han existido también otros diseños, como es el caso de la disposición Dvorak.
(mayúsculas), Alt y Ctrl que se encuentran duplicadas a ambos lados del teclado. • Teclas de conmutación permanente. Tienen un efecto análogo a las anteriores y cambian el sentido de otras teclas, pero su efecto se mantiene una vez liberadas. Son Caps Lock, ScrLk, NumLk e Insert. Su acción es tipo ON/OFF, para cambiar el efecto es necesario volver a pulsar/liberar.
Disposición de las teclas Los teclados de PC tienen su ascendiente directo en los de máquinas de escribir. En concreto, la disposición QWERTY se remonta al año 1868 cuando fue patentada por Christopher Sholes. En 1873 vendió la patente a Remington, que resultó ser la primera máquina de escribir con este tipo de teclado Destacamos que las primeras no disponían de teclado como tal, sino ruedas y otros artificios para introducir los caracteres. Existen varias teorías sobre el porqué de la disposición QWERTY, entre las que se incluye las que sostienen que fue un intento deliberado de hacer difícil teclear los caracteres más frecuentes, de modo que los mecanógrafos no las atascaran, algo muy frecuente en las antiguas máquinas de escribir mecánicas, si se escribía demasiado rápido. Algunos especialistas sostienen que este diseño es poco funcional, razón por la que se han ideado otras disposiciones. El teclado Dvorak es uno de esos diseños fundamentados en consideraciones ergonómicas. Antes de continuar profundizando en este tema, les adelantamos que todas las teclas de una PC producen una señal al ser pulsadas: make code y otra distinta al ser liberadas: break code. De acuerdo con el uso que el sistema hace de ellas, existen tres tipos: • Teclas normales: Producen las señales correspondientes al ser pulsadas y liberadas. No generan otro efecto adicional. • Teclas de conmutación momentánea: Cambian el sentido de otras teclas mientras se mantienen pulsadas, pero el efecto desaparece en cuanto se liberan. Existen tres de esta clase: Shift
Como ya hemos señalado, la disposición de las teclas se remonta a las primeras máquinas de escribir. Aquéllas eran enteramente mecánicas. Al pulsar una letra en el teclado se movía un pequeño martillo mecánico que golpeaba el papel mediante una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su sitio antes de que se moviesen los siguientes, de forma que se encallaban. Para que esto no ocurriese, el diseñador del teclado QWERTY distribuyó las letras de forma contraria a lo que hubiese sido lógico, basado en la frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más lenta y los martillos se encallaban menos. Cuando aparecieron las máquinas de escribir eléctricas, y después las computadoras con sus teclados también eléctricos, se consideró seriamente modificar la distribución de las letras colocando las letras que más se emplean en la zona central. El nuevo teclado ya estaba diseñado y los fabricantes preparados, pero el proyecto se canceló debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo teclado y que ello perjudicara la introducción de las PCs que por entonces se encontraban en pleno auge.
Estructura Un teclado está realizado por un microcontrolador, normalmente de las familias 8048 u 8051 de Intel, los cuales ejecutan sus propios programas que están grabados en sus respectivas ROMs internas. Estos programas hacen la exploración matricial de las teclas para determinar cuáles están pulsadas.
Para lograr un sistema flexible, los microcontroladores no identifican cada tecla con su caracter serigrafiado en la misma, sino que se adjudica un valor numérico a cada una de ellas que sólo tiene que ver con su posición física. Si no se hiciera así, ese sistema sería muy dependiente de cada idioma. Debe tenerse en cuenta que idiomas como el francés tienen teclados AZERTY en lugar del que se tiene en Estados Unidos QWERTY. Los teclados usados en América Latina y España extienden la configuración básica del QWERTY con el fin de incluir la letra eñe y facilidades para letras acentuadas. Como el teclado español debe servir para las diversas lenguas de la Península Ibérica se facilita sobre todo la escritura de distintos acentos, incluidos los no utilizados en el castellano. El teclado latinoamericano sólo da soporte con teclas directas a los caracteres específicos del castellano, que tienen dos tipos de acento, la letra eñe y los inicios de exclamación e interrogación. El resto de combinaciones de acentos se obtienen usando una tecla de extensión de grafismos (). Por lo demás, el teclado latinoamericano está orientado hacia la programación, con fácil acceso al juego se símbolos de la norma ASCII. Por cada pulsación o liberación de una tecla el microcontrolador envía un código identificativo que se llama Scan Code. Para permitir que varias teclas sean pulsadas simultáneamente, el teclado genera un código diferente cuando una tecla se pulsa y cuando dicha tecla se libera. En los teclados AT los códigos generados son diferentes y por razones de compatibilidad es necesario traducirlos. De esa función se encarga el controlador de teclado que es otro microcontrolador (normalmente el 8042), ya situado en la PC. Este controlador recibe el Keyboard Scan Code (Kscan Code) y genera el propiamente dicho Scan Code. En cualquier caso, ya sea teclado PS/2 ó AT, el Scan Code es entregado a la BIOS de la PC para identificar la tecla pulsada. La comunicación del teclado es vía serie. El protocolo de comunicación es bidireccional, por lo que el host puede enviar comandos al teclado para configurarlo, resetearlo, diagnósticos, etc.
Algo para mencionar Como hemos visto según su evolución, han sido concebidos diferentes diseños y tipos de teclados, desde los más convencionales hasta los más revoluciona-
rios, y cuando nos encontramos con una noticia como: "Lanzan el primer teclado virtual para PDA y PC", no dejamos de asombrarnos. Sin embargo, cuando recordamos cuánto se ha desarrollado la tecnología digital, nos damos cuenta de que todo es posible. Y por ello, para cerrar traemos a modo de comentario algunas curiosidades sobre estos periféricos. • El primer teclado virtual anunciado por la compañía iBiz Technology, llamado Virtual Keyboard, consiste en un pequeño aparato parecido a un mechero que proyecta sobre nuestra mesa de trabajo la silueta de un teclado. El invento, que ya ha hecho acto de aparición en varias ferias internacionales es un proyector del tamaño de un mechero que dibuja sobre cualquier superficie un teclado de ordenador estándar, pero virtual. Gracias a la tecnología del láser y los infrarrojos, el aparato es capaz de detectar las coordenadas en las que se encuentran nuestros dedos para reflejar en pantalla lo que estamos tecleando. Con un diseño futurista, funciona con pilas recargables y es extremadamente portátil. El nuevo dispositivo, por cierto, es compatible con varias PDA de palmOne, Sony, HP y Dell. Sólo tiene un punto negativo: no se puede utilizar en exteriores, pues la proyección atenúa sus contrastes. En otras palabras, no se ve nada.
• También han sido concebidos teclados en lenguaje Braille para PC. Fue desarrollado por Investigadores de la Universidad Autónoma de Barcelona y de la Organización Nacional de Ciegos Españoles, único en el mundo, que es muy útil para invidentes con problemas motores en las manos. Entre las facilidades que ofrece este teclado Braille se destaca que se conecta al ordenador por medio de una llave
USB y puede funcionar a la vez que el teclado ordinario sin necesidad de reiniciar el equipo cada vez que se conecta. El teclado está diseñado para que las personas con problemas visuales y motores en las manos puedan escribir con facilidad y agilidad en un ordenador y solucionar así las disfunciones de otros teclados, sobre todo para la resolución de fórmulas matemáticas, químicas o notas musicales. • Entre otros de estos dispositivos que han llegado al mercado y que presentan un revolucionario diseño se cuenta el teclado flexible realizado con tela. El concepto es similar al de los teclados de silicona, pero tiene algunas variaciones interesantes. Por ejemplo, es Bluetooth y se puede conectar a una amplia variedad de dispositivos como PDA, portátiles y teléfonos. También se destaca que tiene la propiedad de ser impermeable.
No queremos dejar de mencionar los teclados para equipos portátiles o de bolsillo cuyos primeros pasos se remontan a 1989 cuando GRID Computing introduce el primer ordenador portátil con una pantalla táctil conocido con el nombre de GRIDPAD. A diferencia de los tradicionales, éstos son parte del sistema operativo y se manipulan con un stylus en el caso de los PDA y con los dedos en las Tablet PC y las recientes UMPC. Para ésta se desarrolló el DialKeys una manera innovadora de introducir texto utilizando los pulgares, diseñado e implementado por una pequeña compañía llamada Fortune Fountain LTD. La funcionalidad de este dispositivo aunque a lo largo de su evolución no ha tenido muchos cambios, sí ha sido objeto de estudio y desarrollo de muchos, no sólo para mejorar su ergonomía y función, sino para hacerlos más útiles y mejorar nuestro necesario interactuar con ese dispositivo. [GiGA 2 / 2006]
53
Doble clicK Alerta ante virus que infecta a Windows y Linux
E
l virus fue detectado por la firma de seguridad rusa Kaspersky Lab y según los investigadores, se podría estar ante el inicio de una nueva oleada de código maligno que sería ejecutada tanto en Windows como en otros sistemas operativos hasta ahora no tomados en cuenta por los hackers. Según Kaspersky, el virus es muy simple, pero lo interesante está en que es capaz de infectar diferentes archivos utilizados por Linux y Windows, los formatos ELF y PE, respectivamente. La empresa rusa asegura que el virus parece no tener aplicación práctica, pero aunque es el típico código sin concepto, escrito sólo para demostrar que es posible desarrollar un virus multiplataforma, la experiencia indica que una vez que se muestra este tipo de códigos, sus desarrolladores suelen apurarse para copiarlo y adaptarlo a sus propósitos. Este código maligno puede ser una señal de alerta para aquellos usuarios de Linux y Mac OS X que se creían invulnerables a las amenazas de virus.
Incorporarán un tercer procesador a las PCs
L
as PCs actuales contienen dos procesadores: un chip principal fabricado por AMD o Intel, y un procesador gráfico, igualmente avanzado, de entidades como NVidia o ATI. Hoy la compañía estadounidense Ageia distribuye un nuevo procesador, "el tercero", denominado Physx. ¿Qué hará? Aliviar a los otros dos en operaciones de cálculo, y en especial la ejecución de juegos. ¿Por qué? Para dar total libertad al jugador, los entretenimientos incorporan sistemas de cálculo físico, donde todos los objetos pueden trasladarse según su peso, gravitación, transparencia, etc. Por ejemplo, las explosiones pueden mover otros objetos, el humo
trasladarse y disiparse, y algunos cuerpos pueden ser volcados, flotar en el agua, hundirse. ¿Qué ocurre? Este tipo de funcionalidad recarga considerablemente el sistema. ¿Y? Se necesita de uno especial para procesos físicos. Consecuencia: Ageia lanzó su procesador físico Physx, elaborado por la fábrica de tarjetas y computadoras Asus. Y aunque el inicio de la comercialización del producto ya da pasos, primero será necesario escribir juegos que aprovechen el nuevo chip.
Cinco años cumple el Laboratorio UH-SIS
U
n sencillo laboratorio de microcomputadoras, montado en la Facultad de Matemática y Computación de la Universidad de La Habana, y que entre los estudiantes universitarios y los trabajadores de SIS se identifica como Laboratorio UH-SIS, cumple en este 2006 cinco años de creado. El objetivo que se persiguió con su creación fue vincular a los estudiantes desde los primeros años de la carrera a proyectos de desarrollos reales y hoy ya es posible evaluar los resultados y medir su impacto. En este período, los estudiantes no sólo han participado en más de cinco creaciones de multimedias educativas destinadas a satisfacer necesidades del mercado nacional e internacional, sino que también
54
[GiGA 2 / 2006]
han realizado aplicaciones de gestión empresarial con alto grado de complejidad, han elaborado aplicaciones web no menos complejas y han participado en proyectos de desarrollo tan importantes para el país como Multisaber. Todas han tenido un factor común: satisfacer al cliente no sólo por la calidad, sino por la profesionalidad del trabajo realizado hasta lograr un equipo de trabajo de especialistas consagrados, dedicados y responsables. Otro elemento a su favor, y digno de resaltar, es que se cuenta con un importante grupo de asesores entre los miembros del equipo UH-SIS que con soluciones inteligentes, rápidas y efectivas han ayudado a eliminar problemas técnicos sur-
gidos en equipos de desarrollos de nueva creación ubicados a todo lo largo del país. Esa primera experiencia se generalizó después a otros centros de Educación Superior que también participaron en la elaboración de Multisaber, y no se puede dejar de mencionar a la UCI, donde miles de estudiantes producen soluciones informáticas de calidad profesional en un esquema semejante al de UH- SIS. La División SIS, de Copextel aprovecha para felicitar a todos los que han formado y forman parte del equipo UH-SIS y los invita a seguir adelante con la entrega, dedicación, entusiasmo y sencillez que los han caracterizado hasta el momento. Para ellos: ¡Feliz 5to. Aniversario! (Reportó: Vilma González, SIS, Copextel)
Doble clicK Presentan singulares discos duros
E
n los últimos años se imponen los dispositivos que permiten almacenar grandes cantidades de datos y de fácil transportación entre diferentes PCs, tales como memorias flash USB y discos duros extraíbles, entre otros. Seagate, una de las marcas líderes en el mercado de discos duros para ordenadores, lanza un innovador modelo que se conecta a la PC por medio de la WiFi y tiene las mismas dimensiones que los usados por las PCs portátiles: 2,5 pulgadas, tan pequeño como para ser transportado con facilidad. Pero esta firma ha creado también otros discos duros, entre los que se destacan el Momentus 5400 FDE que lleva una encriptación especial y hace de él una verdadera
S caja fuerte con datos, o el considerado de mayor capacidad hasta hoy: 750 Gb, con un sistema de grabación perpendicular que logra escribir una mayor cantidad de información en los platos: hasta diez veces más en comparación con el tradicional método longitudinal y una velocidad de giro de hasta 10 000 RPM (el estándar actual es 7200).
Nuevo dispositivo para conversión de audio y vídeo
A
DS Tech, una de las principales compañías especializadas en soluciones de entretenimiento digital y convergencia para el gran público, presenta el DVD Xpress DX2, un dispositivo externo certificado DivX USB 2.0 de captura de audio y vídeo que hace muy fácil la conversión de vídeos analógicos a formato digital. Es compatible con todos los formatos de vídeo más populares y puede utilizarse para crear vídeos de alta cali-
E
e prevé que para septiembre de este año lleguen al mercado los primeros periféricos que incorporen la nueva tecnología USB inalámbrica y de esta forma se podrá conectar todo tipo de dispositivos (impresoras, cámaras digitales y discos externos) sin necesidad de usar algún tipo de cableado. La nueva tecnología USB inalámbrica permitirá la misma tasa de transferencia de datos que el actual sistema USB 2.0, es decir, 480 megabits por segundo. La estandarización del nuevo sistema estará regulada por el grupo de estándares USB, que aprobó la Wireless Association Specification, la cual asegura que sólo se produzcan conexiones autorizadas entre la PC y los dispositivos. Esta especificación regula la manera en que la tecnología USB inalámbrica conecta hasta 127 dispositivos simultáneos.
Reino Unido crea banda ancha muy rápida dad que pueden verse con reproductor DVD o disfrutarlos hasta en la calle. Porque incorpora un potente codificador de hardware, el nuevo dispositivo de captura de audio y vídeo hace todo el trabajo de la PC.
Google adopta el nombre chino "GU GE"
l popular buscador de Internet, Google ha decidido rebautizarse en el mercado chino y adoptó el nombre "Gu Ge", en un intento por atraer a un mayor número de usuarios del país asiático.
Llega el USB inalámbrico
El nombre, cuyo significado es "canción de la recogida del cereal", fue revelado durante la apertura del nuevo centro de investigaciones que el gigante informático ha establecido en Beijing. China sobrepasó a Estados Unidos y se convirtió en el país con mayor número de usuarios de Internet. (Fuente: Xinhua)
a mayoría de las conexiones a Internet disponibles hoy en Gran Bretaña funcionan a una velocidad de 2 megabits por segundo, pero el llamado proyecto Shoreditch permite acceder a imágenes y contenidos a una velocidad de 2 000 millones de bits por segundo (2 gigabits). Esa alta velocidad de conexión a Internet, diseñada por expertos del Reino Unido, permitirá descargar las 32 640 páginas de la Enciclopedia Británica en menos de siete segundos, dicen sus creadores... y afirman: "Es la velocidad más alta del mundo", pero... ¿cuántas veces hemos escuchado esa expresión y caduca al mes siguiente? Muchas. Sea o no, por ahora los expertos de la ribera del Támesis, disfrutan su innovación.
L
[GiGA 2 / 2006]
55
Doble clicK Un probador inteligente para perezosos osas singulares se pueden hallar en ferias tecnológicas como Cebit, que se celebra en la ciudad alemana de Hannover, donde no todo lo que se exhibe son megateléfonos o UMPC. Allí la empresa alemana German Metro Group muestra un probador inteligente que es capaz de ponerse la ropa por la persona que la usará.
C
¿Cómo funciona? Cuando el comprador se para frente al probador, se realiza un escáner de su cuerpo (medidas) y coloca virtualmente la ropa en la pantalla, de manera que éste puede ver cómo le queda lo escogido o incluso seleccionar otro tipo de indumentaria. Para perezosos, pensamos que estas innovaciones resultan ideales.
Mítico hacker habla de seguridad informática en Colombia evin Mitnick, considerado tras su detención en 1995 por el FBI como el pirata informático más hábil de su tiempo, y de quien habláramos recientemente en la Sección de GiGAntes, dictó en Bogotá una conferencia sobre "el arte del engaño", en un foro sobre seguridad informática. Mitnick, más conocido como el Cóndor -su nombre clave en Internet- pasó cinco años en prisión por entrar en las computadoras de varias empresas y dependencias oficiales estadounidenses, entre ellas el Pentágono y la Oficina Federal de Investigaciones (FBI). Actualmente, Mitnick imparte conferencias en todo el mundo y tiene su propia empresa de Consultoría y Seguridad (Mitnick Security Consulting LCC), además, vende en línea sus dos libros El arte de la decepción y El arte de la intrusión.
K
Internet roba taquilla a Hollywood
E
l veloz desarrollo de Internet y la implantación de la línea de banda ancha para la transmisión rápida de imágenes y todo tipo de archivos de gran volumen han extendido al cine definitivamente el problema de la piratería y las copias ilegales de grandes estrenos. El saldo económico de este hecho empieza a cobrar dimensiones alarmantes. Basado en un informe de la consultora LEK Consulting para la Motion Pictures Association of America los grandes estudios de cine estadounidenses pierden al año nada menos que 6 000 millones de dólares (casi 4 700 millones de euros) por piratería, ya sea mediante la grabación de vídeos o DVD con la descarga de películas por Internet. Es un 50% más de lo que se había calculado y, por primera vez, la piratería de películas por Internet se convierte en un gran problema.
56
[GiGA 2 / 2006]
Compactas sin CD... Sin Yahoo! podrá anunciarse Y dentro del "rapaz" mundo de las competencias se halla una vez más Microsoft, la Gigante del Software, compañía que declaró que potenciará su propio servicio de mediación de anuncios online llamado adCenter, y así los interesados pueden colocar directamente sus anuncios en los sitios de búsqueda del fabricante de software en vez de hacerlo mediante Yahoo!.
Desinterés por nueva generación de DVDs Una encuesta a grandes consumidores de DVDs realizada por la compañía de venta online Peerflix mostró que sólo una de cada cinco personas tienen pensado comprar reproductores o discos DVD de alta definición en el 2006, que comparado con números de años anteriores resulta muy inferior.
Blu-Ray y HD-DVD en un solo dispositivo Por estos días, serán lanzados tanto los discos Blu-Ray como los HD-DVD, y es por ello que los fabricantes se apresuran y presentan nuevos productos: lectores, grabadores, reproductores de salón… Y uno de los más curiosos viene de parte de LG, pues se trata de un lector compatible tanto con discos Blu-Ray como con los HD-DVD. Ahora, este lector se ofrece como la mejor alternativa, principalmente por la posibilidad de comprar una única unidad lectora para ambos dispositivos ópticos.
Los Gates reciben el Principado de Asturias de Cooperación La Fundación Bill y Melinda Gates, nacida del creador de Microsoft y su esposa, fue galardonada con el Premio Príncipe de Asturias de Cooperación Internacional 2006 por su contribución a la salud global de la humanidad y ser ejemplo de generosidad y filantropía.
Doble clicK Lanzan software que abre los Mac al Windows
ras 30 años de historia, Apple decidió abrir al fin su ventana a Windows. La compañía informática presentó una aplicación -disponible en versión beta- para máquinas Mac basadas en plataforma Intel que hace que éstas puedan correr indistintamente Windows XP y
T
el propio de Apple, el Mac OS X. El software se denomina Boot Camp e irá incorporado en la próxima versión del sistema operativo de Apple, Mac OS 10.5 Leopard, de la que se mostrará un avance el próximo agosto en la reunión mundial de desarrolladores de la compañía. Pero la empresa de Steve Jobs aclaró que no venderá ni dará soporte a Windows, aunque se conoce que muchos clientes han expresado su interés en utilizar el sistema de Microsoft ahora que sus Mac emplean procesadores de Intel. Se considera ésta una jugada maestra para ganar cuota en el mercado de las PCs, ya que elimina el miedo de mucha gente a ser diferente o incompatible con Windows, el sistema operativo que corre en el 90% de los ordenadores personales del mundo.
Anuncian velocidad extrema para Bluetooth
B
luetooth SIG optó por usar la versión multibanda OFDM de UWB (Ultra Wideband), que aumentará cien veces la velocidad de la próxima generación del estándar Bluetooth. Con ello, la velocidad de transferencia de datos de esta plataforma inalámbrica superará los 100 Mbits. Se espera su presentación para el año 2008 con transmisión y visualiza-
ción en tiempo real de vídeo y audio. Aunque la capacidad será fuertemente incrementada, la tecnología continuará empleando poca corriente eléctrica lo que permitirá se siga usando en teléfonos móviles y unidades de manos libres. La velocidad del nuevo estándar también podrá competir con WiFi aunque su alcance será mucho menor.
Para servidores: chips más rápidos dvanced Micro Devices (AMD), el segundo mayor fabricante del mundo de procesadores para PCs, presentó unos chips muy rápidos para servidores y con éstos espera ampliar su liderazgo sobre su mayor rival: Intel. Serán desde 4 a 15% más rápidos que las ofertas actuales y conse-
A
guirán ese incremento de velocidad sin consumir más energía. El anuncio de la llegada de los nuevos chips se realizó un día antes de que Intel presentara sus productos actualizados, particularmente procesadores de servidores, en su foro bianual para desarrolladores.
Más compactas sin CD... China crea robot personal hogareño China ha construido su primer "robot personal" que puede proporcionar servicios en el hogar y, entre otras habilidades, está la de conectarse a Internet y contarles a sus dueños las noticias y el tiempo, informó la agencia de noticias Xinhua.
Los CDs pierden primacía Según noticias tomadas de Internet, los consumidores de todo el mundo prefieren copiar la música a los nuevos reproductores MP3 y otros formatos más flexibles de almacenamiento. Se estima que sólo en Gran Bretaña hay CDs sin vender por un valor de mil millones de euros. La investigación agrega que la colección promedio de un usuario británico es de 164 CDs.
Caimán, nueva distribución de Linux para Cuba A partir de Debian, especialistas del Ministerio de Educación y de la Oficina de Informatización de la Sociedad elaboran una nueva versión del software libre con 200 aplicaciones útiles en la docencia y la gestión de información en escuelas o estructuras educacionales. La creación cubana se denominará Caimán.
TV online congestionaría Internet Se cree que la TV online se convertirá en poco tiempo en la alternativa real a la actual analógica. Pero..., un peligro acecha esa posibilidad: la red, dicen los expertos, no está preparada para soportar un tráfico continuo de datos y puede quedar congestionada.
Casi 700 millones navegan por Internet Unos 694 millones de personas mayores de 15 años navegan por Internet en todo el mundo y ello representa casi el 14% de la población en esa franja de edad, según estudios divulgados. [GiGA 2 / 2006]
57
Y tomamos de la amiga y vecina Sección de Cartas, muchas de las cuestiones que solicitan los giganautas para, como decimos casi siempre, "cacharrear" en las PCs. Ocurre que cuando casi ya tenemos completas las dos páginas de lo que consideramos "elemental", una tecnología se nos adelantó tanto que nos hace pensar que lo que publicamos hoy resulta ser "agua muy pasada". Pero, no es así, porque siempre lo que podemos traerles, mueve algunos molinos que no están dentro de lo que se considera última generación, así que la invitación de este número, como las anteriores, tiene futuro, aunque sea pasado.
¿Cómo crear una barra de herramientas con los elementos que yo quiera? Liberar espacio si borras .dll Al desinstalar programas o juegos, la mayoría de las veces, quedan instalados unos archivos llamados .DLL, los cuales sin utilidad al borrar sus respectivos programas, ocupan espacio y ocasionan problemas. Por lo que se deben eliminar, y la forma más segura es con un software automático preparado especialmente para tal función llamado Clean System Directory que se puede obtener gratis del sitio www.ozemail.com.au/~kevsol/sware.html y para los avanzados uno manual llamado Reg Cleaner que lo pueden encontrar en www.vtoy.fi/jv16/, y en el caso de que estas páginas no estuvieran activas, se pueden bajar de cualquier otro buscador. OJO, ES IMPORTANTE SABER QUE: los archivos .dll son imprescindibles para hacer funcionar todo en nuestra PC, por lo que se recomienda sólo utilizar estos programas para eliminar los que ya no nos sirvan.
Cómo deshacernos de los temporales Del tema ya hablamos, pero las preguntas se reiteran por parte de los principiantes. Cada vez que creamos un archivo o corremos ciertos juegos, automáticamente la máquina crea archivos temporales llamados .TMP. Estos archivos quedan guardados en el disco sin poseer ninguna utilidad y pueden perjudicar en el futuro si se acumulan muchos. En el período de un año, pueden llegar a acumularse unos 800 archivos o más. La forma de eliminarlos es la siguiente: 1. Ir a [Inicio] [Buscar archivos o carpetas...] 2. En "nombre" escribir *.tmp y en "Buscar en" seleccionar C: 3. Presionar [Buscar ahora] 4. Seleccionar todos los archivos .tmp y eliminarlos presionando la tecla "Supr" o "Delete".
¿Cómo alinear los iconos del escritorio? Pulsa con el botón derecho del mouse sobre el escritorio "Organizar Iconos" y selecciona cómo los quieres alinear: por nombre, tipo, tamaño, por fecha u organización automática. Esta última es la mejor, ya que se organizarán en el orden que queramos y siempre van a quedar alineados.
58
[GiGA 2 / 2006]
Da click con el botón derecho del mouse sobre la barra de abajo del escritorio y selecciona [Barras de Herramientas] - [Nueva Barra de Herramientas...]. Luego escoge los componentes que quieras agregar a la barra y los arrastras hasta donde te queden más cómodos. Se elimina de la misma manera que la anterior.
Crear barra en el escritorio con el contenido de Mi PC Da click sobre el icono de Mi PC y sin soltar el botón del mouse, arrastra hacia la derecha del escritorio todo lo que se pueda. Cuando sueltes el botón, automáticamente se va a crear una barra para acceder con rapidez al disco, disquete, CD, panel de control, impresoras, etc. Para eliminarla, lo único que debes hacer es "clickear" con el botón derecho del mouse en la parte superior de la barra y presionar [cerrar].
Cambiar las imágenes de cierre del sistema Si quieres cambiar las imágenes que aparecen cuando se cierra Windows: "Espere mientras se apaga el equipo" y "Ahora puede apagar el equipo", deberás proceder así: 1. Crea las dos imágenes a utilizar con cualquier programa de dibujo 2. Preferentemente han de tener el tamaño: 320 x 400. 3. Guarda las imágenes como tipo BitMAP (.bmp) en tu directorio C:\Windows, con los nombres logow.sys para la de aviso de espera y logos.sys para la de fin de cierre del sistema.
Para cambiar la imagen de inicio del sistema Para cambiar la imagen que aparece cuando se inicia Windows, haz lo que se describe: 1. Crea la imagen a utilizar con cualquier programa de dibujo. 2. La imagen ha de tener el tamaño de 320 x 400, con 8 bits de color (256 colores). 3. Guárdala como tipo BitMAP (.bmp) en tu directorio C:\, con el nombre logo.sys
No suena la música de fondo en los juegos, pero sí los efectos de sonido Para resolverlo haremos: 1. Click en [Inicio] [Ejecutar] 2. Escribimos "msconfig" (sin las comillas) y pulsamos OK. 3. En la pestaña del System.ini, doble click en Drivers para expandir la rama. 4. Click para desmarcar las casillas en: midi1=sxgb.drv wave1=sxgb.drv 5. Click OK 6. Y reiniciar la PC.
Para duplicar el disco duro Si quieres reemplazar el disco duro con Windows 9x instalado por otro (por ejemplo, uno de mayor tamaño y más velocidad), y deseas conservar todos los programas instalados tal cual los tenías, puedes proceder de la siguiente manera: 1) Luego de preparar el nuevo disco duro, es decir, particionarlo y formatearlo (comandos fdisk y format mediante), copia todas las carpetas y archivos desde el Explorador de Windows. 2) Debes tener una sola precaución cuando copias la carpeta WINDOWS: no copiar el archivo win386.swp, pero sí todos los demás archivos y carpetas. 3) Una vez concluida la copia, transferir el sistema desde una memoria externa con el comando sys, es decir, sys c: al nuevo disco rígido.
¿Olvidaste la contraseña de Windows? No hay porqué preocuparse. Windows sólo utiliza estas contraseñas para identificar a usuarios individuales y así personalizar varios aspectos del sistema. Afortunadamente, olvidar el password no es problema. Cuando te lo solicita, da click en [Cancelar], ve a [Inicio/Buscar/Archivos o Carpetas] y busca archivos con la extensión PWL. Esto se hace escribiendo *.pwl y presionando el botón [Buscar ahora]. Dichos archivos son listas de contraseñas y cada usuario tiene su propio archivo fácilmente reconocible. Puedes borrar este archivo o moverlo a una ubicación distinta. Ahora bien, cuando reinicias, simplemente deja la contraseña en blanco y presiona [Aceptar]. Así, eliminas el password para ese usuario. PERO CUIDADO porque con estos pasos también se borrarán las contraseñas de tus accesos telefónicos a redes, por lo que tendrás que ingresarlas manualmente la próxima vez que desees conectarte.
Tabla ASCII extendida Estas funciones son muy útiles cuando instalamos programas y se nos cambia la configuración del teclado o al ejecutar comandos en DOS que tampoco respondan a ciertas letras o símbolos. Alt Alt Alt Alt Alt Alt Alt Alt Alt Alt Alt Alt Alt Alt Alt Alt Alt
Hasta el 57 todos los números. Alt + 58 : Alt + 59 ; Alt + 60 < Alt + 61 = Alt + 62 > Alt + 63 ? Alt + 64 @ Alt + 65 A Hasta el 90 todos las letras mayúsculas. Alt + 91 | Alt + 92 \ Alt + 93 ] Alt + 94 ^ Alt + 95 _ Alt + 96 ` Alt + 97 a Hasta el 122 todas las letras minúsculas. Alt + 123 { Alt + 149 Alt + 124 [ Alt + 150 Alt + 125 } Alt + 151 Alt + 126 ~ Alt + 152 Alt + 127 &127 Alt + 153 Alt + 128 Ç Alt + 154 Alt + 129 ü Alt + 155 Alt + 130 é Alt + 156 Alt + 131 â Alt + 157 Alt + 132 ä Alt + 158 Alt + 133 à Alt + 159 Alt + 134 å Alt + 160 Alt + 135 ç Alt + 161 Alt + 136 ê Alt + 162 Alt + 138 è Alt + 163 Alt + 137 ë Alt + 164 Alt + 139 ï Alt + 165 Alt + 140 î Alt + 166 Alt + 141 ì Alt + 167 Alt + 142 Ä Alt + 168 Alt + 143 Å Alt + 169 Alt + 144 É Alt + 145 æ Alt + 170 Alt + 146 Æ Alt + 171 Alt + 147 ô Alt + 172 Alt + 148 ö Alt + 173
ò û ù ÿ Ö Ü ø £ Ø × ƒ á í ó ú ñ Ñ ª º ¿ ® ½ ¼ ¡
[GiGA 2 / 2006]
59
Grace Hopper
L
a contralmirante Grace Murray Hopper fue una mujer admirable que acometió los retos de la programación de los primeros ordenadores y obtuvo logros de gran magnitud. Durante su vida, como líder en el campo de los conceptos de desarrollo de software contribuyó a la transición desde las técnicas de programación primitivas a la utilización de sofisticados compiladores. Ella pensaba que el "siempre se ha hecho así" no era razón para continuar haciendo las cosas de igual forma. Nació en Nueva York el 9 de diciembre de 1906. En 1928, se licenció en Matemáticas y Física en el Colegio Vassar e ingresó luego como profesora de éste. Mientras impartía clases allí continuó sus estudios de Matemáticas en la Universidad de Yale y obtuvo el título de Master of Arts en 1930 y se doctoró en 1934. Era una de las cuatro mujeres que formaban parte del programa doctoral integrado por diez estudiantes, el cual resultaba un título poco común en aquellos tiempos. Permaneció en Vassar como profesora hasta 1943, año en el que entró a formar parte de la Reserva Naval de Estados Unidos en los desafíos técnicos que la guerra imponía. Después de estar en la escuela de Midshipman, perteneciente a la Reserva Naval de Estados Unidos, fue destinada al Departamento de Proyectos de computación de artillería de la Universidad de Harvard, donde trabajó con los ordenadores Mark en los Laboratorios Cruft. En 1946 se convirtió en miembro investigador en Ingeniería y Física Aplicada en el Laboratorio de Cálculo de Harvard. En 1949, ingresó en la Eckert-Mauchly Computer Corporation como Matemático adjunto. Durante todos sus años dedicados a la enseñanza y a la industria fue asesora y conferenciante de la Reserva Naval de Estados Unidos. En 1967, después de un retiro de siete meses, regresó al servicio activo en la Marina como dirigente del Comando de Automatización de Datos de la Marina. Después de retirarse de ésta en 1986 con el grado de Contralmirante, se convirtió inmediatamente en asesora superior de Digital Equipment Corporation, hasta bien entrados sus ochenta años de vida. Murió mientras dormía, en Arlington, Virginia, el 1 de enero de 1992.
En el ejercicio profesional en la enseñanza, en la industria y en el ejército se hicieron patentes sus numerosos talentos. Poseía aptitudes técnicas extraordinarias, habilidades para el marketing, demostró en repetidas ocasiones su visión para los negocios y la política, y nunca desistió ante alguna de sus ideas. La perseverancia fue uno de los rasgos de su personalidad que hizo de ella una líder. A su llegada al Laboratorio Cruft se encontró con el ordenador Mark I. Para ella, se trataba de un artilugio simpático, parecido a los despertadores de su juventud. Estaba impaciente por desarmarlo y descubrir cómo funcionaba. La contralmirante Hopper se convirtió en la tercera persona en programar el Mark I. Recibió el Premio al Desarrollo de la Artillería de Marina por su precoz éxito en la programación de aplicaciones en los ordenadores Mark I, Mark II y Mark III. Hopper opinaba que el principal obstáculo para los ordenadores, en las aplicaciones no científicas y en las empresas, era la escasez de programadores para dichas máquinas que distaban mucho de ser de difícil manejo. La clave para abrir nuevos mundos a la computación era el desarrollo y la mejora de los lenguajes de programación, lenguajes que pudieran ser entendidos y utilizados por personas no expertas en Matemáticas y tampoco en ordenadores. Le llevó varios años demostrar que esta idea era posible. Dedicó gran cantidad de su tiempo a convencer a los directores de empresas de que los compiladores de lenguajes en inglés, como FLOW-MATIC y COBOL, eran factibles. Participó en una demostración pública de compiladores COBOL realizada por la Sperry Corporation y RCA, donde quedaba probada la independencia de la máquina. Después de su breve retiro de la Marina, la Contalmirante dedicó sus esfuerzos a estandarizar COBOL y convencer a toda la Marina para que utilizara este lenguaje de programación de alto nivel. Con sus aptitudes técnicas, llevó a su equipo a desarrollar útiles manuales y herramientas COBOL. Bajo su dirección, la Marina desarrolló una serie de programas y procedimientos para validar los compiladores COBOL. Este concepto de validación ha tenido amplia repercusión en otros lenguajes y organizaciones de programación. Acabó
dando lugar a estándares nacionales e internacionales y a funciones de validación para la mayoría de los lenguajes de programación. Recibió gran cantidad de premios y distinciones por sus logros. En 1969 se le concedió el primer Man Of The Year Award en Ciencia Computacional de la Data Processing Management Association. En 1971, la Sperry Corporation creó un premio anual en su nombre, como reconocimiento a los profesionales jóvenes de la programación por su contribución significativa a la investigación respecto a ordenadores. En 1973, se convirtió en la primera estadounidense en ser galardonada con el título de Distinguished Fellow (miembro distinguido) de la British Computer Society. Tras cuatro décadas de trabajar como precursora, Hopper consideró que su mayor contribución había sido "toda la gente joven que he formado". Fue una profesora de enorme talento y como conferenciante, siempre estuvo muy solicitada. En pocos años impartió más de 200 conferencias y en sus discursos utilizaba a menudo analogías y ejemplos que llegaron a ser toda una leyenda. Su extraordinaria contribución a la investigación sobre ordenadores benefició a la enseñanza, la industria y al ejército. Su trabajo abarcó los lenguajes de programación, conceptos de desarrollo del software, la verificación de compiladores y el procesamiento de datos. Su reconocimiento del potencial de las aplicaciones comerciales de los ordenadores y su liderazgo y perseverancia en hacer de esta visión una realidad, prepararon el camino para el procesamiento de datos moderno. Por estas connotaciones, para muchos estudiosos, la contralmirante Grace Hooper es considerada la primera hacker de la era de la computación. Y hasta hoy es la primera y única mujer con tan alto grado en la Marina de Guerra de su país. [GiGA 2 / 2006]
61
Como para no pecar de repetirnos y leyendo casi todas, las Secciones de Cartas que hemos publicado, nos dimos de cara con una aclaración de la entonces Redacción, en la que acertadamente aclaraban nuestros antecesores y amigos: "nosotros no podemos decir, como otros medios, que tenemos miles de cartas, porque no es así". Y nos sorprendió recordar que sí lo hemos dicho y que ahora no contamos con miles de cartas, sino muchos correos electrónicos y llamadas telefónicas, que sumados son bastantes, pero no alcanzan el "mil".Y aunque no tenemos que contestar esas "miles", hay una que deseamos compartir con los giganautas, así que adelante, que ésta nos enseña en lugar de hacerlo nosotros.
Y dice así (más o menos) Estimada Norma: soy Lázaro Blanco Encinosa, y es poco probable que me recuerdes, porque hace mucho tiempo que no publico nada en GIGA ni paso por allá. No obstante, te aseguro que sigo siendo un buen amigo de ustedes, un lector fiel de la publicación y su promotor constante, pues siempre la recomiendo a alumnos y amigos. Los felicito a todos por el contenido y formato de la revista. Las secciones de entretenimiento y noticias son buenas, aunque quisiera que no se "pasaran", y no olviden que GIGA es un gran foro sistemático que tienen los informáticos para difundir sus logros y aprender un poco. Veo que has ampliado tus funciones, y que además de entrevistas y de las secciones acostumbradas, has asimilado artículos de difusión científica, como el reciente "Por la amnesia...", el cual quedó magnífico (entre paréntesis, gracias de la autora). Los crucigiga están buenos (aunque el último era muy fácil), no así el superespecializado en Informática y largo que no era de tu autoría, de uno o dos números anteriores. Pero tu artículo de la memoria me recordó una historia que quiero compartir contigo (nosotros, la sacamos a la luz, perdona Lázaro), aunque es altamente probable que la conozcas. Es sobre el origen de la palabra ordenador, que como bien dices, procede del francés ordinateur. Se cuenta que allá por los cincuenta (tú no habías nacido) (¡!), cuando IBM planeó vender computadoras en Francia, se percató que la palabra computer no era la más adecuada. Pero no había otro término en francés para designar a aquel novedoso artilugio. Contrató a un lingüista para que buscara una palabra adecuada para el nuevo producto, el cual estudió computación, analizó las funciones de la computadora, lo que podía hacer, etc., y se puso a pensar. Recordó que a Dios, en el Medioevo le decían el ordenador del mundo, y como él opinaba que esa maquinita contribuía a "ordenar"
62
[GiGA 2 / 2006]
cosas, empresas, etc., propuso ordinateur. A IBM le gustó, la asimiló, pagó al lingüista y... la patentó para que nadie más pudiese usarla en la venta de computadoras. Comenzó la venta, se popularizaron las máquinas de IBM, y con ellas el término, pues en definitivas no existía otra. Así nació todo. Pero la historia no termina ahí. Cuando Francia crea su Plan Cálculo y comienza a hacer sus máquinas, la SEA, la IRIS, etc., encontró que no podía nombrarlas, pues la palabra designada adecuada no le pertenecía. ¡Tremendo potaje, ¿verdad?! porque no podía cambiar algo que ya era parte de la cultura popular. No podía inventar otra palabrita ni nada de eso. Las cosas se pusieron feas y llegó todo hasta el presidente Charles de Gaulle. Éste, que era un poco singular para esas cosas no acogió bien la situación y en un gran acto nacionalista, acusó a los americanos y a la IBM de "imperialismo cultural" y allí, frente a todo el mundo, rompió el documento que avalaba la concesión de la patente de la palabra a IBM, y autorizó a todo el mundo a utilizarla. Y colorín, colorao... Bueno, es todo, perdona el teque y le envío un abrazo cordial al colectivo. Y así termina la carta que nos alegró y provocó que dejemos para la próxima salida la respuesta a otros amigos. Ah... a los "nuevos" gigadeptos les recordamos que Lázaro Blanco Encinosa es profesor de la Facultad de Economía de la Universidad de La Habana... sí ésa misma que está cerquitica de Coppelia. Bueno, antes de cerrar damos gracias a todos los que recordaron que cumplimos 10 años el pasado marzo y nos hicieron llegar su felicitación... que SON UN GIGAMONTON... Y otro colorín colorao para ustedes que esperamos nos llenen de misivas que traeremos a esta Sección. Y para no variar, ni repetirnos, como siempre les decimos, chao giganautas. Colectivo de GiGA
A punta de Cursor... Por Norma Márquez Glez
Amigos, redactar la columna de este número me ha robado tiempo de cabeza y no de máquina. Quería hablar acerca de lo que nos ocurre cuando en nuestra memoria coexisten más de 7 u 8 contraseñas, claves o passwords, pues suceden cosas que ¡ralentizan la punta de nuestro cursor! Y no me apena confesarlo: por ejemplo si la clave del setup (también conocida como password negro) es digamos decada60 y la de Windows octubre12ciclón y la del correo sabado23 y la de Internet es desayuno16 y así y así y así, y que luego tenemos que teclear otra en un chat, más otra para acceder a alguna Intranet o a un documento y pusimos contraseña porque conviene mantener la privacidad y otra para leer un correo del Yahoo, pues ¿qué creen? que luego de todo eso, simplemente en nuestras cabezas queda esta significativa e indefinida palabra: ¡/@%&%%%=(! Me ha ocurrido unas cuantas veces: me quedo mirando a la nada porque si nada inspira, al menos me puede hacer recordar uno u otro password olvidado. Sucede y en ocasiones ni cuenta nos damos. Pone la tapa al pomo a este tema de tanto martirio (para mí todas las cerraduras son un martirio) una auditoría informática que nos deja "en rojo" porque las claves no son las correctas... No fechas, aniversarios, amores, amigos, hijos, dulces, recuerdos, películas, poetas, comidas, maderas, perfumes, flores, marcas, lugares y en fin, amigo, no debes escoger lo que recuerdas con facilidad. Les agradeceré me escriban para sugerirme alguna que otra clave, porque las de mi producción personal se agotaron ya, pero antes del cierre una pregunta: ¿también han sentido el deseo de contestarles a estos supervisores informáticos con un: ¿¡Pero, chico qué $#(/&*=@)6&% es lo que tengo que poner!? Nada, que aunque parezca duro, es así. Los veo en la tercera GiGA del año, por cierto, año que va que corre. Bibliografía: */?=)(@¿&%%(/.com
La relación con el usuario es siempre difícil para los informáticos. Hoy traemos lo que leímos en un letrero colgado en la oficina de "cierto servidor", idea de un especialista que según nos dijo es para que los usuarios la lean y coadyuven a una mejor comprensión de ambas partes. Créalo o no, es verdad... aquí van 11 (no nos gustan los números redondos), pero hay más... Sr. Usuario, siga las siguientes reglas que son sólo algunas formas de hacer feliz al soporte técnico: 1) Cuando el técnico le dice que ya está saliendo para atenderlo, váyase a tomar un café. Para él no es nada tener que recordar 481 contraseñas, es más, así desarrolla su memoria. 2) Cuando llame para arreglar una PC, asegúrese de dejarla debajo de media tonelada de tarjetas postales, fotos de los niños, animales de peluche, flores secas, trofeos y arte pop. Nosotros no tenemos una vida propia y sólo nos sentimos vivos cuando profundizamos en el conocimiento de la suya. 3) Cuando llame al servicio técnico, sólo diga lo que usted desea hacer y no qué es lo que se lo impide. Nosotros no necesitamos saber que usted no puede entrar a su e-mail porque su máquina no tiene corriente en el toma. 4) Cuando el operador de soporte técnico está comiendo, entre y exíjale algo. Existimos sólo para darle servicio. 5) Si un e-mail es urgente, mándelo en mayúsculas. El servidor de correo se da cuenta y lo marca como "alta prioridad" automáticamente. 6) Si la fotocopiadora no le anda llame a Atención a usuarios. ¿O acaso no es electrónica? (lo mismo puede decirse del
microondas, el marcapasos o la maquinita de pelar). 7) Cuando está en la casa y el módem le dice que no hay línea telefónica, llámenos de inmediato. Podemos arreglar su línea desde aquí. 8) Cuando algo no le ande, deje sobre nuestros escritorios un papelito sin nombre, sin teléfono y sin descripción del problema. Nos encanta la investigación paranormal. 9) Si no le gusta su mouse, consiga un TrackBall nuevo, infrarrojo, automático y tire el manual y el disquete que le acompaña. Nos sabemos de memoria todos los aceleradores de teclado y siempre tenemos los drivers adecuados. 10) Cuando le decimos que a su monitor no se le puede haber acabado el cartucho de tinta, discuta. Nos encanta una buena discusión en horas pico. 11) Cuando reciba un mensaje de error diciendo que el espacio en disco es insuficiente, borre el directorio Windows. Total, para lo único que sirve es para crear problemas y generar mensaje de error.
Frases y frases todas sueltas... Disco Duro: Cualquier disco de Heavy Metal. Zip: Lo contrario de nop. Ratón: Medida de tiempo breve: "Te veo al ratón". Quemador de CD's: Persona que gusta de poner el mismo CD una y otra vez. Inyección de Tinta: Lo que hacen los pulpos. No break: Prohibición de un tipo de baile ochentero. Fuera de Registro: Persona que no tiene inscripción de nacimiento o carné de identidad. Foto Digital: Poner el dedo en el lente de la cámara. Mouse: Apellido de Mickey. Macromedia: Prenda para gorditas. Ilustrator: Primo de Terminator a quien le gusta dibujar.
HORIZONTALES 1.Uno de los primeros y más usados códigos de caracteres (en la Sección Elemental lo puedes ver). 6. Computadora portátil. 12. Del verbo ver (ahora y yo). 13. Antónimo de llorar. 14. Marca de auto. 15. Moverse de un lugar a otro. 16. ¿Cómo están las sábanas de la canción de Andar La Habana? (Sing). 18. Bebida alcohólica. 19. Cuatro en números romanos. 20. Sílaba del nombre de la fruta que nadie sabe cómo le entra el agua (inv.). 22. Utensilio de cocina que compra Catalina para rallar la yuca. 23. Versión de Windows muy empleada en servidores. 24. Preposición gramatical que denota lugar (inv.) 25. Palabra que sigue a "Escriba y ...". 26. Novecientos noventa en números romanos. 28. Palo donde se pone una bandera (inv.). 30. Prefijo que significa tres. 32. Cine del municipio de Marianao. 35. Relativo a la vía. 37. Corte de pelo al máximo. Se dice que es hecho de prisa y sin cuidado. 39. Ultima letra del alfabeto hebreo y también la decimonovena del griego que corresponde a la t del latino (enredo que por suerte no es en chino). 40. Sílabas de agujero. 41. Cincuenta en números romanos. 42. Tomar con la mano. Prender. 44. Terminación verbal (amar la tiene). 45. Especie semejante a la higuera (tenemos una provincia que sin el artículo y el plural es lo mismo. 46. Capitán de la nave de "Veinte mil leguas de viaje submarino". 47. WEB sin una letra. 48. American Association Against Acronym Abuse (Asociación Americana Contra el Abuso de Siglas), pero sin una de ellas. 50. Integración para animar o estimular. Una vez más, el estribillo de La Chambelona, pero al revés. 51. De unir (lo hice yo). 52. Anterior nombre del Instituto Cubano de Radio y Televisión (sig.). 54. Forma de pronombre personal (sílaba de nostalgia). 56. Tipo de código malicioso que puede destruir parte del disco duro. 57. Que no está completo, o que está llegando a completarse.
64
[GiGA 2 / 2006]
VERTICALES 1.Formato de Microsoft para archivos de audio y vídeo. 2. Proveedor de servicios y programas para computadoras conectadas. 3. Lenguaje de programación (acrónimo de Common Business-Oriented Language, traducido: Lenguaje Común Orientado a Negocios). 4. Abreviatura usada en chateos de Internet. Más fácil: In Real Life (en la vida real). 5. Vocales de dice. 6. Sistema operativo que se simboliza con el pingüino. 7. Embarcación de Noé en la que hubo suficientes "datos" para hacer una gran "base". 8. Unido a plug & significa enchufar y usar. 9. Baraja de 78 naipes que se usa en cartomancia y con esas predicciones hacemos GiGA. 10. Se llama así a los servidores de Internet y correo electrónico (inv.), también es ¡¡¡ cada uno de los dos puntos opuestos en que la órbita de un astro corta a la elíptica!!! 11. Lo que se mira en una PC y nos permite ver cacharritos y caracteres. 17. Oficial del ejército turco (¡a pensar!). 19. Red interna a la que acceden clientes o
usuarios de una empresa. 21. Microprocesador de la familia Intel menos caro que la Pentium. 27. Dispositivo que ha de sufrir el peso de nuestra mano si queremos mover el cursor. 28. Representación de una persona que se conecta al mundo virtual de Internet. Fase, cambio. 29. Baño de vapor dentro de un recinto de madera a muy alta temperatura con fines higiénicos o terapéuticos. 31. Y una vez más: Protocolo de Internet. 33. País europeo peninsular. 34. Apellido de Charles Robert (1809-1882), científico británico que sentó las bases de la teoría de la evolución de las especies. 36. Reptil parecido al lagarto, generalmente poseen gran papada y una cresta espinosa a lo largo de su dorso. Su carne y huevos son comestibles. 38. Limpiar. 43. Novecientos noventa y nueve en números romanos. 49. De esta manera. 51. Vocales de mundo. 53. Igual a la 20 horizontal, pero al derecho. 55. Forma de pronombre personal, o para terminar ya, sílaba de oscilar.