Colectivo de GiGA

GiGA No. 1 / 2007 Editor Jefe: Lic. Vilma Simoneau [email protected] Diseño: D.I. Humberto Becerra [email protected] D.I.

13 downloads 99 Views 8MB Size

Recommend Stories


CONTRATO COLECTIVO DE TRABAJO CONTRATO COLECTIVO DE TRABAJO
CONTRATO COLECTIVO DE TRABAJO 2007-2009 CONTRATO COLECTIVO DE TRABAJO Contrato Colectivo de Trabajo que celebran por una parte Caminos y Puentes Fede

CONVENIO COLECTIVO DE TRABAJO
Convenio Colectivo de Trabajo 2012 - 2016 CONVENIO COLECTIVO DE TRABAJO 2012 - 2016 En Santiago de Chile, a 11 de Agosto de 2012, entre, por una par

2006 CONVENIO COLECTIVO DE
CERVECEROS, EMPLEADOS Y OBREROS CONVENIO COLECTIVO CONVENIO COLECTIVO 363/2003 VIGENCIA: DESDE EL 1/5/2002 HASTA EL 30/4/2006 CONVENIO COLECTIVO DE TR

Story Transcript

GiGA

No. 1 / 2007

Editor Jefe: Lic. Vilma Simoneau [email protected] Diseño: D.I. Humberto Becerra [email protected] D.I. Vianys Zamora [email protected] Redacción y corrección: Lic. Norma Márquez [email protected] Director de Marketing y Comunicación: María del Pilar Herrera [email protected] Economía y Finanzas: Elisa García [email protected] Consejo Editorial: Adolfo Cepero, Ramón Torres, Renaldo Velázquez, Ricardo Rey, Eviel Ramos, María del Pilar Herrera, Vilma Simoneau. Pre-P Prensa Digital: Mandarina Diseño S.A. San José, Costa Rica. Impreso por: Impresión Comercial, Grupo Nación GN S.A. San José, Costa Rica. ¿Cómo contactar con GiGA? Edificio Miramar Trade Center, Ave. 3ra. y 78, 3er. piso, oficina 308, Miramar, Playa, Ciudad de La Habana, Cuba. Telefax: 204 7819 WEBsite: http://www.copextel.com Editada por: Dirección de Marketing y Comunicación, COPEXTEL Frecuencia trimestral

L

legamos a la primera edición del 2007 y nuevamente el mes de marzo para satisfacer nuestro quehacer. Mes de celebración y aniversario en el colectivo de la revista GiGA que de forma ininterrumpida continúa su labor en el agitado y revolucionario mundo de los avances tecnológicos. Y qué mejor ocasión para dedicar estas líneas del editorial a la XII Feria y Convención Internacional Informática 2007 que se celebró durante el mes de febrero en el Palacio de Convenciones, el más trascendente evento de las tecnologías de la información y las comunicaciones que se realiza en suelo patrio, y con el que se enlaza indisolublemente nuestra publicación. Y no lejos de este espíritu podemos ver la portada, que de conjunto con las casi primeras páginas de la revista resume (comprimido por un lógico espacio) lo acontecido en tal significativo encuentro. Un vivo ejemplo del esfuerzo que realiza el país para el desarrollo de una sociedad culta e informatizada lo constituyen, sin duda, las muestras tanto expositivas como teóricas, de la cita que este año marcó pautas y cobró fuerzas. GiGA no escapa a los éxitos que se cosechan en la rama, respira con sumo gusto los aires que soplan en estos intercambios. Y crean, amigos lectores, que lo hace con doble satisfacción ¿por qué? Pues hace 11 años atrás lanzamos su primer número en un stand de la V edición de la Feria, allá por el año 1996 continuando su presencia de manera incondicional en posteriores encuentros lo que propicia un intercambio y calor humano que

sólo se recibe en grandes acontecimientos como éstos. Y con el propósito de seguir adelante con la información bien actualizada, que no es tarea nada fácil en estos temas, aparecen nuestras secciones de siempre. Acerca de la presentación del tan esperado iPhone, que según Steve Jobs ha dado en llamar “la reinvención del teléfono celular”; un resumen realizado por los colaboradores de Segurmática sobre los virus que más afectaron a Cuba en el 2006; la presencia ya familiar de los muchachos de la UCI y sus conocimientos de Linux, que en esta ocasión demuestran la necesidad de nuestro país de pasar al software libre que lejos de brindar molestias, al final dará tranquilidad para nuestra Sociedad y sus usuarios; la habitual multimedia de la División de Sistemas Informáticos y Software, de Copextel, tratando esta vez el contenido en la web enfocado en el uso y trabajo con las imágenes, y un nuevo tema: la Bioinformática aplicada a la creación de vacunas, son un adelanto de lo que traemos para abrir el 2007. Esta edición se cierra ¡¡y ya son 53 salidas!! (“tremendo gigazo”) con la misma energía que nos dejó Informática 2007 y el compromiso colectivo de continuar en el empeño de aportar a la Sociedad nuestro granito de arena en forma de papel y tinta, y poder seguir siendo parte de la gran fiesta de la tecnología cubana que en el 2009 abrirá sus puertas cuando también se festejará un año más de nuestro nacimiento. Grata coincidencia, gigadeptos como para no quejarnos…

Colectivo de GiGA

[GiGA 1 / 2007]

1

contenido

iPhone, la reinvención del teléfono celular El iPhone será a la telefonía móvil lo que el iPod ha representado y representa en el mundo de la multimedia y también sus características podrían hacer desaparecer a los iPods o a una parte de ellos, como se conocen hoy. De esta novel tecnología dentro del espectro de los teléfonos celulares inteligentes, el iPhone incorpora una pantalla táctil y... ¿más? en estas páginas.

[ 10 ]

La interfaz eléctrica del USB Los inconvenientes y problemas que presentaban los puertos clásicos de comunicación: el paralelo, serie y el bus SCSI, hicieron surgir el Bus Serie Universal o USB. Todos en algún momento hemos necesitado emplearlo, y en este artículo se habla de sus características en general, un tema que recomendamos.

[ 17 ] Programas malignos en el 2006 De los virus y otros demonios, al parecer nunca se dejará de hablar en computación. El análisis enviado por los amigos y especialistas de Segurmática, resume que el pasado 2006 fue pródigo en códigos maliciosos: 175 caballos de Troya, 77 gusanos, 10 virus, 1 joke y 6 exploits. Para librarnos de ellos y de cómo atacan, sirve este trabajo.

[ 27 ] La informática en el diseño de vacunas El empleo de vacunas para enfrentar las enfermedades infecciosas ha mostrado su eficacia desde la antigüedad. Hoy, el uso de la Bioinformática para obtener candidatos vacunales ha mostrado ser una poderosa herramienta que acelera y optimiza el proceso. Con el ejemplo de una novedosa experiencia se manifiesta la importancia del uso de las tecnologías.

[ 32 ] Contenidos en la Web El desarrollo y publicación de contenidos educativos en Internet resulta importante por sus ventajas sobre los tradicionales papel y CD-ROM, pues a la Red puede accederse desde cualquier lugar donde exista una conexión. De cualquier forma, el reto de la ya conocida gerencia SIS se dirige a lograr productos que cumplan las condiciones técnicas requeridas y satisfagan las necesidades del público receptor.

[ 47 ]

2

[GiGA 1 / 2007]

Información y comunicaciones:

riqueza para los pueblos Hubiéramos dedicado todo el número a la XII Edición de la Convención y Exposición Informática 2007 y no nos habrían alcanzado las 68 páginas para hablar de todo lo ocurrido en el encuentro, pero una revista no se realiza en una semana. En los espacios del Palacio de Convenciones, tanto en las salas como en el área expositiva, los temas y muestras resultaron de mucho interés para los asistentes. El evento ya cerró sus puertas, pero los conocimientos que allí alcanzamos servirán de guía para futuras ediciones. Atrás quedan esas conferencias magistrales y los productos que las hicieron reales, y en esta edición traemos un resumen para todos los seguidores de la Informática. Sin duda, y con el lema "Las Tecnologías de la Información y las Comunicaciones como fuente de riqueza de los pueblos" nos veremos en Informática 2009.

sumario

[4]

4 10 17 22 26 27 30 32 36 39 40 42 46 47 50 55 56 59 60 64 66 67 68

Informática2007 Información y comunicaciones: riqueza para los pueblos Hardweriando iPhone, la reinvención del teléfono celular La interfaz eléctrica del USB El que da primero… notihardWare Softweriando Programas malignos en el 2006 Linux: Un futuro para Cuba La informática en el diseño de vacunas Enredados Comunicaciones inalámbricas OFDM Google earth, el mundo desde el cielo ¡Genial! El blog: un complemento del periodismo Joystick Wii, la revolución prometida Joystick Noticias Multimedia Contenidos en la Web La estrategia del uso de juegos educativos perroWEBero Opus Habana en Internet Ctrl+H Emoticonos: el invento que humanizó el Chat GiGAntes Marc Andreessen Doble click Elemental W… Cartas y A punta de cursor Screen saver cruciGiGA

Opus Habana en Internet

[ 55 ]

Opus Habana es una revista dedicada a la restauración y la vida cultural en La Habana Vieja. Para los que admiramos esta publicación, una buena noticia: por Internet podemos ahora también llegar a ella. ¿Más? En perroWEBero.

Emoticonos: el invento que humanizó el Chat

[ 56 ]

De esas caritas o símbolos que empleamos en los chats para expresar sentimientos o "humanizar" nuestras conversaciones, de su historia, lo que expresan y surgimiento, trata el historial que en esta oportunidad trae el Ctrl+H.

[GiGA 1 / 2007]

3

informática2007

Lic. Norma Márquez González [email protected] Dirección de Marketing y Comunicación GiGA, Copextel

E

n las páginas de esta Sección en el número anterior, el trabajo publicado abarcó un resumen de la historia y objetivos de las 11 ediciones anteriores de los encuentros de Informática, y también sirvió para llevar al lector los objetivos y programa del XII encuentro que se celebraría en febrero en el Palacio de Convenciones. Ahora cuando acaba de ser clausurada esta XII Convención y Expo Internacional Informática 2007, que sesionó bajo el lema "Las Tecnologías de la Información y las Comunicaciones y su contribución a un mundo mejor" y que fue dedicada a nuestro Comandante en Jefe por ser el impulsor principal del desarrollo tecnológico y de la informatización en el país, estas páginas tratarán de ser un recuento de la importante cita de La Habana, ya que durante los cinco días que sesionó fue tratada una gran cantidad de temas en forma de congresos, conferencias, talleres, seminarios y encuentros, así como un evento virtual en el que se participó desde la red cubana a las ponencias online, todos en estrecha relación con los actuales e importantes desarrollos relacionados con las Tecnologías de la Informática y las Comunicaciones (TIC), con la participación de delegados procedentes de 58 países y más de 800 cubanos representativos de diversos sectores de la sociedad. De igual forma, este recorrido también abarca el área de la Exposición donde estuvieron expuestas las realidades de lo que en las salas plenarias se trataba.

4

[GiGA 1 / 2007]

La Convención abrió sus puertas con dos conferencias magistrales en su primera sesión del lunes 12, mientras la inauguración oficial del

un panorama de los estudios superiores en la Isla desde 1959 hasta la actualidad, y se refirió a los orígenes de la introducción de la informática en el

encuentro quedó marcada cuando el Comandante de la Revolución y Ministro de la Informática y las Comunicaciones, Ramiro Valdés Menéndez, cortó la cinta de apertura en el Stand Cuba y pronunciara un discurso de bienvenida que devino denuncia internacional al bloqueo digital. Momentos después se realizó la cancelación del Sello Postal Conmemorativo del evento que se obsequió a todos los delegados.

sector. Igualmente, enfatizó que la universidad cubana asumió los cambios que imponen las TIC a pesar de las dificultades provocadas por el férreo bloqueo de Estados Unidos que también se manifiesta en lo tecnológico y que aún así, siempre prevaleció la voluntad del Estado cubano de impulsar y financiar los proyectos de informatización de la educación cubana, convencido de la importancia de las TIC como un poderoso aliado en las vías para alcanzar el conocimiento. El Dr. Vela Valdés destacó la creación de la Red Nacional Universitaria a la que están conectadas 12 mil computadoras de todas las universidades cubanas y los centros de investigación adscritos a ese Ministerio.

De la Convención El Dr. Juan Vela Valdés, Ministro de Educación Superior, durante el desarrollo de su conferencia magistral "La Educación Superior en Cuba", brindó

informática2007 Esta conferencia magistral central del Dr. Juan Vela Valdés fue ampliamente aplaudida, y dio respuesta a las interrogantes de los presentes.

como "La Juventud y su rol en la Sociedad de la Información"; "Las nuevas Tecnologías de la información y las Comunica-ciones en el desarrollo de la niñez y la juventud", y la relacionada con las TIC en función de personas con alguna discapacidad, entre otros temas. La clausura del simposio estuvo a cargo de Julio Martínez, primer secretario de la Unión de Jóvenes Comunistas, quien en nombre de la organización que preside se comprometió a lograr en los próximos cuatro años duplicar la cifra de un millón de personas que se han capacitado en los cursos impartidos en los 600 Joven Club de Computación que existen en el país. Otras disertaciones destacadas resultaron la del coordinador del Grupo de Voluntariado Civil, Organización No Gubernamental radicada en Bologna, Italia, que calificó de excelente el desarrollo de Informática a pesar del bloqueo de Estados Unidos, así como la del Sr. Wang Shi Jie, director general de Feng Huo Co. Ltd. China, quien destacó los diferentes contactos que realizaron durante la cita, y la calificó de muy satisfactoria. Activa fue también la presencia de PDVSA con la presentación de su conferencia "Soluciones de Automatización, Informática y Telecomunicaciones", impartida por el Sr. Gerardo Antoni, Gerente Corporativo de Automatización, Informática y Telecomunicaciones de PDVSA.

“Con la premisa de que el conocimiento es patrimonio de toda la humanidad, se impone democratizar la presencia y distribución del capital informacional y el acceso a la misma. "Cuba no se rinde. En más de 45 años de bloqueo hemos aprendido a sortear con ecuanimidad e inteligencia los más diversos obstáculos. Un precepto ha caracterizado al Estado socialista: la distribución social de forma creativa, justa y equitativa de cada recurso escaso. "En este sentido, el país ha organizado el uso racional y eficiente de los recursos, tanto de equipamiento como de conectividad, de forma social masiva. Así se priorizan sectores claves como la salud, la educación, los centros científicos, instituciones culturales y empresas, opción que ya es reconocida universalmente como alternativa válida para los países eufemísticamente llamados “en desarrollo” y que los expertos han dado en llamar apropiación social de las Tecnología de la Informática y las Comunicaciones. (Tomado del discurso del Comandante de la Revolución Ramiro Valdés, en la inauguración de la XII edición de Informática 2007)

De magistral fue también calificada la intervención del representante de los Laboratorios Kaspersky, Costin Raiu, Director de Investigación y Desarrollo para Rumania, que bajo el nombre "Situación Internacional de los programas malignos", habló de los programas maliciosos que más se propagan hoy y realizó un análisis de éstos por año, tipo y forma de atacar a las computadoras. El Sr. Raiu fue preciso al afirmar que la lucha contra los virus se puede ganar, no así la de los troyanos debido a que estos programas malignos se hacen cada día más complejos y porque la mayoría de la invasión de los códigos maliciosos ocurre generalmente con el consentimiento "inconsciente" del usuario. Es de destacar que en el marco de esta XII edición de Informática se presentó el software Antivirus Edición Kaspersky, que incorpora las facilidades de uso de las versiones anteriores del producto Segurmática Antivirus y proporciona seguridad al motor de búsqueda para una detección y descontaminación de códigos malignos. Segurmática es el distribuidor oficial de Kaspersky en Cuba.

mada ponencia con una reflexión importante resumida cuando afirmó que los ciudadanos del mundo tenemos que migrar hacia un nuevo contexto de libertad y solidaridad en el ciberespacio y que Cuba tiene derecho a obtener software libre en cualquier país del mundo. Stallman es el presidente de la Fundación del Software Libre. El auditorio de esta conferencia magistral estuvo atento todo el tiempo durante la ponencia que culminó en una familiar charla con los presentes y con énfasis especial cuando el ponente manifestó su oposición al bloqueo de Estados Unidos contra Cuba y a cualquier manifestación privativa de la libertad de conocimiento u otro derecho humano.

Acerca del problema actual que se presenta hoy con la energía y su uso, fue impartida la conferencia "Energía y preservación del medio ambiente: articulación escabrosa del Siglo XXI" por el Dr. Fidel Castro Díaz Balart, asesor científico del Consejo de Estado de Cuba, quien empleó en su exposición la sabia cita del Quijote: "Buen natural tienes Sancho, sin el cual no hay ciencia que valga". Al término de su ponencia, Castro Díaz Magistral intervención de Costin Raiu, representante de los Balart contestó las preguntas de Laboratorios Kaspersky los presentes, algunas relacionaAtentos los participantes estuvieron en das con el actual tema del calentamienla conferencia que impartiera el Sr. to global teniendo en cuenta que en las Richard Stallman figura central del manos de los que hoy poblamos la Tierra movimiento del software libre, y desa- depende la vida del mañana. rrollador del sistema operativo GNU, Otra intervención de gran interés resulcompatible con Unix, pero con código tó el Primer Simposio Internacional fuente abierto y gratuito. La conferen- Informática y Comunidad que versó cia del Sr. Stallman, resultó ser una ani- sobre temas de vital importancia

Participación de ETECSA

Con el lema "Las comunicaciones al servicio de la sociedad", la Empresa de Telecomunicaciones de Cuba S.A. realizó el Seminario Internacional de Telecomunicaciones. Conectividad social, Mercadotecnia en los servicios y Próxima Generación de Redes fueron temas del seminario con el fin de debatir e intercambiar sobre el desarrollo de esta disciplina en el mundo y la experiencia cubana dentro del programa de informatización de la sociedad. Interesante y provechosa fue la conferencia "AHCIET en convergencia", impartida por el Sr. Francisco Gómez Alamillo, secretario general de la Asociación Hispanoamericana de Centros de Investigación y Empresas de Telecomunicaciones (AHCIET), con sede en España. Otras no menos importantes conferencias y debates se sucedieron en [GiGA 1 / 2007]

5

informática2007 tiempo una amplia concurrencia de delegados e invitados cubanos y extranjeros y cabe destacar entre los stands, el del Instituto Central de Investigaciones Digitales (ICID), Combiomed dedicada a la producción de equipos médicos, Cubatel, Copextel, Radiocuba, Avante y Desoft, con muestras de gran atracción para los participantes en el encuentro. el Palacio de Convenciones, al respecto la Secretaria Ejecutiva de la Convención, Dalia Nápoles del Toro, expresó: "Durante la Convención sesionó un encuentro de negocio en el que participaron más de 25 empresarios visitantes. Se hicieron propuestas de negocios y se firmaron Cartas de Intención. Todo ello trae aparejado un trabajo para este año y a su vez concreta algunos negocios con empresas, y alianzas estratégicas entre entidades cubanas y las que nos visitan."

Por su parte, la juventud se hizo sentir en la Expo con la muestra que llevó la Universidad de Ciencias Informáticas (UCI), la cual presentó más de 20 productos de software, y diversos sistemas informáticos, así como otros proyectos de

Acerca del efecto que la muestra expositiva dejó en esta XII edición de Informática, expresó su Secretario Ejecutivo, Eviel Ramos Pérez: "La Expo, al igual que la Convención, ha dejado en los visitantes la satisfacción de haber recuperado un espacio que en Informática se encontraba algo apagado. La idea de hacer un Stand Cuba en el que se mostraron los logros de la Revolución en temas como la ciencia, la educación, la salud, la electrónica, las telecomunicaciones, las aplicaciones en todas las tareas de la Batalla de Ideas que se vienen realizando, la considero fructífera. Ha contado con una participación y visita constantes, donde se muestra todo lo que se está haciendo en estos campos. Resultó ser el complemento que necesitaba la Convención para hacer del evento Informática 2007, un encuentro exitoso."

De la Exposición La Exposición Comercial Tecnológica resultó un espacio para el intercambio de experiencias y prácticas científico-profesionales que ofrecen soluciones y bases para la cooperación e integración en un clima de camaradería y solidaridad. En 981 metros cuadrados del Palacio de Convenciones estuvieron representados 12 países con predominio de China y Venezuela, con 4 y 2 pabellones, respectivamente. Por Cuba se montaron 19 stands correspondientes a empresas o entidades procedentes de diversos sectores. El Stand Cuba, de mayor área dentro de la muestra, estuvo inspirado en las ideas, principios y frases sobre el tema de la informatización, tratados en diversas ocasiones por el Presidente Fidel Castro. El recinto reflejó todo lo que se hace en la Isla en materia de las TICs, desde sus diversas áreas, así como la interrelación entre éstas y su tributo social. El Stand Cuba expuso un panorama de las novedades científicas de las empresas nacionales presentes en la Convención. El área de la Expo mantuvo todo el

6

[GiGA 1 / 2007]

Declaración del representante de la UIT

colaboración con la empresa venezolana PDVSA, un sistema de excelente calidad y complejas aplicaciones para el tratamiento de imágenes médicas alcanzadas por los novedosos equipos que como parte de los nuevos programas de la Revolución se instalan en policlínicos y hospitales.

En un momento del desarrollo del encuentro, el Sr. Fabio Leite, Vicedirector de la Oficina de Radiocomunicaciones de la Unión Internacional de Telecomunicaciones (UIT), condenó la agresión radioeléctrica de Estados Unidos hacia Cuba y se comprometió a que esa entidad de la ONU retome el asunto, tema sobre el cual la UIT se ha pronunciado en ocasiones anteriores por constituir una violación de las normas internacionales. El representante especial de la UIT dijo que regresa a Ginebra con un mensaje muy positivo del Comandante de la Revolución Ramiro Valdés y del pueblo de Cuba, y con el deseo de trabajar juntos para solucionar el problema que afecta el desarrollo del país y en particu-

informática2007 lar a la radiodifusión cubana. Al finalizar sus palabras a la prensa, el Sr. Leite destacó la gran importancia que representa la celebración de la Convención y Exposición Internacional.

Fue presentado buscador cubano en Internet El buscador cubano en Internet 2 por 3, en su versión Beta, fue presentado como

que desarrolla la Oficina para la Informatización de la Sociedad (INFOSOC). La labor de INFOSOC se inserta en la cotidianidad para satisfacer las necesidades de las esferas productivas y de servicio, en un esfuerzo por lograr cada vez más eficiencia en todas las ramas, y una mayor producción de riqueza para el incremento en la calidad de vida de los ciudadanos. Según se conoció, lo novedoso de este buscador es centrar su accionar en la localización específica de las informaciones del dominio .cu y sus resultados sólo son de contenidos generados en páginas cubanas. Aunque el producto está aún en fase de prueba se ha alcanzado un empleo óptimo en los últimos seis meses.

Se convocó a Informática 2009 Buscador cubano 2x3 en fase beta

parte de la muestra del Stand Cuba. Este producto digital www.infosoc.cu/buscador/ opera bajo el dominio .cu en la red de redes y forma parte de los proyectos

La convocatoria a la XIII Convención y Feria Internacional Informática 2009, que se efectuará del 9 al 13 de febrero de ese año en el Palacio de Convenciones de La Habana, se hizo ya al finalizar la XII edición, y enarbolará el lema "Las

Tecnologías de la Información y las Comunicaciones como fuente de riqueza de los pueblos", que será un llamado a propiciar el intercambio entre representantes, principalmente, de los sectores gubernamental, académico y empresarial. Las sesiones centrales de ese foro tendrán como propósito reflejar cómo las infraestructuras de las TICs se disponen al servicio social y de la riqueza cultural de los pueblos. Los softwares y las soluciones digitales, los dispositivos de telecomunicaciones y la electrónica, los equipos médicos y la automática estarán entre los productos que se mostrarán en la Feria Comercial Expositiva del 2009. Y cuando aún no estaban del todo cerrados los salones donde se desarrolló la Convención, ni tampoco se había desmontado el área expositiva, todos los que de una u otra forma hicieron posible la realización de este encuentro para que pase a la historia de las convenciones y ferias de Informática como satisfactorio, ya hablaban de cómo trabajar para dentro de dos años, superar la calidad de la XII edición que de por sí, fue un éxito.

hardweriando

D.I. Humberto Becerra López [email protected] Dirección de Marketing y Comunicación GiGA, Copextel

D

espués de varios meses de rumores y especulaciones acerca del esperado iPhone de Apple, el cual se pensaba fuera una versión más avanzada de su popular iPod con telefonía celular integrada, fue presentado en la MacWorld Expo de San Francisco por Steve Jobs lo que han dado en llamar “la reinvención del teléfono celular”, el tan esperado iPhone. Como la mayoría de los teléfonos inteligentes basados en Palm OS, Windows Mobile y Symbian del mercado, el iPhone incorpora una pantalla táctil, pero no utiliza un pequeño teclado en la parte inferior del dispositivo, tan sólo tiene un botón Home en la parte frontal además de otros en los laterales. Todo se controla mediante botones intercambiables que se reproducen directamente como iconos

10

[GiGA 1 / 2007]

sobre la pantalla táctil, y no se emplea lápiz, sino que se controla con el dedo. En lugar de utilizar una versión reducida de un sistema operativo, funciona con Mac OS X optimizado para el hardware del iPhone.

Steve Jobs presentando el iPhone

El nuevo teléfono móvil incorpora las capacidades del reproductor de música y vídeo del iPod; la conexión inalámbrica de banda ancha a

Internet, y las funciones de telefonía de tercera generación más avanzadas, con prestaciones nunca vistas hasta la fecha. Su pantalla es multitáctil una tecnología de Multitoque patentada por Apple, que además de permitir hacer "tap" sobre los iconos permite usar el dedo para realizar una escritura bastante precisa, ignorando toques no intencionados y realizar gestos basados en el uso de múltiples dedos. Presenta correo electrónico con un sistema semejante a la Blackberry, programas de oficina bajo sistema operativo Mac OS X, y sincronización con la PC para descargar todo lo que se pueda poner en un iPod (desde fotos, vídeos, películas o juegos), con la ventaja de que se pueden ver en una pantalla panorámica de 3,5 pulgadas, algo menos que una Playstation Portátil (PSP), de 4,3 pulgadas.

Especificaciones técnicas En cuanto a sus especificaciones técnicas es posible apreciar unas medidas de 115 x 61 x 11,6 mm, no tiene antena externa y pesa 135 gramos.

hardweriando iPhone se encuentra la aplicación de teléfono. Un "tap" con el dedo sobre este icono activa las características de llamada del iPhone e indica un número sobre el teclado virtual que aparece en la parte inferior de la pantalla o bien elige un número directamente en la lista de contactos, favoritos o llamadas recientes. El iPhone permite poner una llamada en espera o unir dos en un modo de conferencia, todo con un solo toque sobre la pantalla.

iPhone de Apple

Se comercializará en dos versiones: un modelo de 4 Gb y otro de 8 Gb, con unos precios de 499 y 599 dólares respectivamente. Dichas capacidades de almacenamiento se refieren al volumen total disponible para las aplicaciones, fotografías, música y vídeos. La pantalla es realmente brillante y con buena definición, gracias a la elevada densidad de 160 píxeles por pulgada (como referencia, el MacBook Pro tiene una densidad de 110 ppp, el MacBook de 113 ppp y el Apple Cinema Display de 23 pulgadas de 98 ppp). La pantalla es de 320 x 480 píxeles, lo que significa que tiene el doble de píxeles que el iPod vídeo, y que se reparten sobre una superficie con el 88 % más larga. La "pantalla panorámica" no mantiene la misma relación de aspecto de una pantalla 16:9 convencional; es 3:2, que significa que las películas panorámicas se recortarán o bien se mostrarán con algún tipo de efecto de letterbox. Tiene también cámara de fotos de dos megapíxeles, bluetooth, calendario para citas, organizador de contactos y programas de oficina. Pero lo que más llama la atención es el uso que hace del teléfono, porque permite videoconferencias a tres bandas, más allá de la tradicional entre dos terminales. Y seleccionar de un listado en pantalla los mensajes de voz que se quiera escuchar y cuáles no. Para hacer una llamada se da un click en el botón Home que lleva a la ventana principal, y situada en la parte inferior izquierda del

También utiliza un sistema moderno de mensajes de voz, el buzón de voz visual que en vez de acceder a un sistema de buzón de voz y escuchar todos los mensajes uno a uno, muestra un listado con los disponibles, incluyendo el nombre de la persona

sor táctil cuando el teléfono es llevado a la oreja (esto ya se conocía de la cámara digital Canon XTi), de modo que se logra prevenir así la activación accidental de los botones. También hay un sensor de luz ambiente que ajusta el brillo de la pantalla en función del entorno en el que se utilice el dispositivo, así como un acelerómetro que detecta cuándo se cambia la orientación del iPhone. El iPhone es un teléfono GSM de cuatro bandas, lo que significa que puede funcionar en varios países. Para el uso de datos inalámbricos, puede acceder al correo electrónico y conectarse a Internet mediante una conexión de 802.11b/g (y red EDGE de AT&T/Cingular en EE.UU.) También incorpora conectividad Bluetooth

Variantes de cómo se esperaba que fuera el iPhone de Apple

que lo envió y cuándo lo hizo. Al hacer "tap" sobre uno de estos elementos se reproducirá el mensaje y también permite borrarlo uno a uno. El efecto global no es muy diferente al de un cliente de correo electrónico aplicado al buzón de voz. En cuanto a los sensores, presenta el de proximidad que apaga la pantalla y el sen-

2.0/EDR. Sin embargo, aún no está claro si la conexión Bluetooth se utilizará sólo para los microauriculares o se podrá emplear para sincronizar datos con el ordenador, o incluso se sincronizará mediante la conexión WiFi. Algo que ha planteado Apple es que no podrá usarse como módem inalámbrico Bluetooth e [GiGA 1 / 2007]

11

hardweriando

Pantalla multitáctil patentada por Apple

Acelerómetro al girar el teléfono

La controversial marca iPhone A solo dos días de presentarse el teléfono de Apple en el MacWorld Expo, el fabricante de equipos de redes más grande del mundo Cisco Systems Inc., demandó a Apple en el

14

[GiGA 1 / 2007]

Modelos de teléfonos iPhone de Cisco Systems Inc.

Linksys WIP330

igualmente indicaron que lanzarán modelos con capacidades inalámbricas de tercera generación (3G). Una de las claves de utilizar el iPhone consiste en comprender que no se trata de una interfaz de "Pulsar y mantener pulsado", sino que puede controlarse con diversos gestos, la mayoría de ellos bastante intuitivos. Cuando se navega por un listado largo (como puede ser el de los artistas de iTunes), basta con sólo correr el dedo por la pantalla para que el listado se desplace con rapidez. Para desbloquear el iPhone y comenzar a utilizarlo, hay que desplazar el dedo sobre su superficie en un movimiento que hace sentir como si realmente se estuviese desbloqueando el teléfono. Para hacer un zoom sobre una imagen o una página web es cuestión de golpear con dos dedos sobre el área que se desee ampliar y separarlos con un movimiento bastante natural.

Linksys WIP320

Teclado virtual en la pantalla del iPhone

Tribunal Federal de San Francisco, afirmando que el iPhone de Apple viola su marca registrada. El registro de la marca iPhone por parte de Infogear se remonta al 20 de marzo de 1996 luego de haber comercializado productos con este nombre es adquirida Infogear por Cisco Systems que el 18 de diciembre del 2006 lanzó su modelo de móvil e Internet integrados iPhone que utilizan el sistema VoIP (Voice over Internet Protocol), ante el temor de que Apple pudiera adelantársele y ampliar así los productos ofrecidos por esta marca. En aquel momento, el intento de Apple de crear una combinación entre el 'iPod' y el teléfono móvil no pasaba de rumores basados en el registro ante la oficina de patentes de Estados Unidos por parte de la compañía de Jobs, de un aparato informático portátil capaz

de establecer conexiones de comunicación de wireless. Apple afirma que tiene derecho a usar el nombre iPhone porque los productos son esencialmente diferentes. Una portavoz, dijo que la demanda de Cisco es absurda y que ya hay varias compañías que usan el nombre iPhone para productos como el de Cisco, que utiliza la cada vez más popular voz sobre protocolo de Internet o VoIP. Los ejecutivos de Cisco afirman que a pesar de las actuales diferencias entre el iPhone de Cisco y el de Apple, ambos teléfonos podrían agregar nuevas prestaciones o funcionar en redes diferentes a las actuales. Lo que sí está claro es que después de 30 meses y millones de dólares invertidos en secreto, Apple difícilmente renunciará a la marca, ya que el iPhone es una de sus mayores apuestas para el futuro, aunque podría obligarle a pagar una indemnización millonaria a Cisco.

Linksys WIP300

Navegador Safari de Mac OS X

hardweriando Aspectos negativos en el iPhone A pesar de que el iPhone presenta la más revolucionaria interfaz hasta ahora vista en un teléfono móvil, así como su sistema operativo y posibilidades de tener tres dispositivos en uno: teléfono, iPod y PDA, existen aspectos negativos en este terminal, como son: 1. No es 3G, es EDGE, o sea 2.5G, de forma que la mayor velocidad que puede alcanzar es sobre 100 kbps. 2. Vida de la batería de 5 horas (hablando/buscando/enviando correo electrónico) ó 16 horas de reproducción de audio. 3. Batería fija: a diferencia de otros móviles del mercado, iPhone no cuenta con una batería fácilmente reemplazable. Es un gran fallo si hay que enviar el iPhone al servicio técnico de Apple cuando necesite una nueva batería. 4. Uso masivo de conexiones de datos. El iPhone usa métodos tradicionales de correo electrónico, POP3 o IMAP, así el teléfono comprobará cada equis minutos si hay nuevo correo electrónico y descargará los emails completos y sin activar otras opciones como widgets y demás. 5. Una cámara de sólo 2 megapíxeles: ya existen modelos de 3,2 megapíxeles. 6. Productos promocionales propietarios. Es una práctica habitual de las compañías de teléfono móvil, incluir sus propias características y que incapaciten las de los fabricantes para que los usuarios se vean obligados a emplear menos servicios útiles y más caros. La duda es si Apple también lo aplicará al iPhone. 7. Sin iChat vídeo y móvil. Apple desperdicia una increíble base de clientes con cámaras integradas. 8. Apple elige el operador de telefonía y ha anunciado que su socio de ventas exclusivo en EE.UU. será la red móvil Cingular. Probablemente, ocurra lo mismo en otros países donde algunas compañías tengan opción preferente para ofrecer el iPhone. 9. Sólo 8 Gb de almacenaje: a pesar de que sea la capacidad de almacenaje más grande de cualquier teléfono en el mercado. Sólo serían 8 vídeos de un 1Gb de iTunes. 10. iPhone es incapaz de sincronizar vía WiFi o Bluetooth y sólo podría hacerse la sincronización vía el dock. 11. No existe la posibilidad de tarje-

tas de memoria, tipo SD, MMC o similares. 12. No habrá la posibilidad de incluir software de terceros porque la API del sistema operativo será cerrada. 13. El precio de 599 dólares por el modelo de 8Gb, más un contrato de 2 años con el operador, es excesivo.

Modelos similares y más prestaciones El iPhone de Apple se convertirá en el móvil de referencia para millones de usuarios: las ventas del iPod en el mercado de los reproductores multimedia confirman esa idea, ya que con más de un 60% de cuota de mercado sostenida durante años, Apple ha convertido sus iPods en los reproductores que todo el mundo quiere tener. Con sus virtudes y sus defectos, que también los tiene. El iPhone será a la telefonía móvil lo que el iPod ha representado y representa en el mundo de la multimedia. No sólo eso, sino que sus características podrían hacer desaparecer a los iPods (al menos una parte de ellos) tal y como se conocen hoy. Cuando Steve Jobs presentó el dispositivo lo hizo afirmando que en realidad se trataba de tres soluciones distintas: un teléfono móvil, un iPod y un dispositivo conectado. Y no mentía, ya que el nuevo iPhone une en un diseño sencillamente prodigioso esas tres funciones. Pero existen modelos de teléfonos con características similares al iPhone como es el KE850 de la firma coreana LG que el 15 de diciembre del 2006 ganó el iF Product Design Award 2007. Estéticamente es casi igual al iPhone de Apple, que tiene los bordes curvos, y el LG es cuadrado. El iPhone sólo tiene un botón en su cara "Home", mientras el KE850 tiene "Send" y "End", más una serie de botones en los costados. Pero esta idea tan revolucionaria de tener una gran pantalla touchscreen en lugar de botones tampoco es tan original. La tienen los iMate, los XDA y varios otros celulares/PDA incluyendo el antiguo y fiel Sony Ericsson P800 y P900. Lo poco que se conoce es que su pantalla tiene una resolución de 240×400, que LG lo comercializará bajo la marca Prada (igual que la de ropa), y que tendrá un valor entre

400 y 500 dólares. Al parecer, LG ha estado trabajando en este celular por largo tiempo, aunque de forma bastante sutil y sin llamar la atención (compárese con las hordas que esperaban el iPhone y especulaban todas las semanas de sus características), pero el KE850 no representa un salto tan grande como el iPhone, y es más limitado en su funcionalidad. No obstante, se espera que LG tenga listo su modelo para marzo o abril, si realmente la empresa puede lanzar el producto y atacar la "innovación" que representa la pantalla táctil del iPhone que podría minar indirectamente su popularidad. También está el Nokia N95, que saldrá en pocas semanas al mercado para personas de negocios, que hacen más que el iPhone de Apple. Algunas de las funciones del N95 son, entre otras: 3G, 3,5 G y casi 4 G; conexión Wi-Fi, Bluetooth, comunicación HSDPA que logra 4 Mbps, unas 30 veces más de velocidad que la conexión EDGE que tiene el iPhone de Apple; cámara de 5 megapíxeles, pantalla de 2,6 pulgadas QVGA, GPS incluido, radio FM, 150 Mb de memoria interna, capacidad de TV y de enviar señal a la TV, conector de audífono de 3,5 milímetros, ranura para tarjeta microSD retirable en

caliente; permite conectarse con Outlook y otras aplicaciones de correo y agenda. En ejecución y [GiGA 1 / 2007]

15

hardweriando

LG Prada (KE850)

Nokia N95

reproducción de multimedia, el N95 es muy superior a lo anunciado sobre el iPhone de Apple. El Samsung SCH-W559, primer móvil con pantalla táctil que vibra (Immersion VibeTonz), la tecnología de vibración se ha usado para las llamadas entrantes o bien para los juegos, pero Samsung reinventa su uso mediante una pantalla táctil que vibra al tacto, con la idea de crear la sensación de botón físico. La idea consiste en crear un feedback que dé la sensación de que se toca un botón y no una superficie plana. Es el primer móvil en el mundo en ofrecer una pantalla táctil que vibra al tocarla. No tiene teclado numérico, sólo los botones clásicos de navegación y para recibir y hacer llamadas. Este móvil, que será estrenado en China, tiene una cámara de 1,3 megapixels, reconocimiento de escritura, Bluetooth, reproducción de audio y vídeo, etc. Todo parece indicar que no sólo Apple revoluciona la telefonía móvil. Al igual que sucedió con el iPod, el iPhone ya tiene su primer "clon" el Meizu M8; fabricado por una empresa China. Lo cierto es que Meizu siempre ha gozado de una larga dinastía de productos asombrosamente parecidos a iPods entre los que se destaca su reproductor de MP3 Mini Player, sus similitudes son amplias y abarcan mucho más que lo puramente estético. Decenas de denuncias de Apple dirigidas a la compañía China así lo confirman. No hay duda de que gracias al éxito que logran conseguir los productos de Apple, sirven como base para "imitadores" o al menos,

16

[GiGA 1 / 2007]

el diseño para evitar demandas, ¿cómo es que se sigue pareciendo tanto, iconos e interfaz incluidos? ¿Y por qué no cambiarlo de verdad la primera vez para evitar cambiarlo dos veces? Lo que podemos dejar pasar por alto son las características de este M8: pantalla táctil de 3,3 pulgadas con una resolución de 720 x 480 píxeles, Bluetooth, una cámara de 3 Samsung SCH-W559 Meizu M8 MPM megapíxeles, un tamaa nuevos dispositivos inspirados en ño muy parecido al del iPhone (57 x ellos. En el caso del iPhone no podría 105 x 11,5 mm) y un procesador capaz ocurrir de otro modo y es que la apa- de registrar video a 30 frames por riencia del nuevo Meizu M8 no da segundo a máxima solución, CPU lugar a dudas. El presidente de Meizu ARM11, además de WinCE 6.0, frente ha declarado en uno de los foros de la al procesador Marvell y la versión compañía que no han copiado a embebida de MacOSX del iPhone. Apple, aunque el diseño es muy simi- Esta será la primera de las numerosas lar, ellos lo anunciaron el 5 de enero, tentativas por parte de compañías chicuatro días antes que el iPhone. Sin nas de "inspirarse" en el iPhone. Hasta embargo, añade que aunque el diseño un monstruo como Apple puede verse original se mostró públicamente contra las cuerdas cuando se trata de durante el 2006, cuando vieron el telé- defender patentes y diseños en profono de Apple decidieron cambiarlo ductos extranjeros. para que el parecido fuera menor y así evitar que les demandaran. Y aún Concluyendo así, termina: “si les demandan, lo a la manera de Apple cambiarán otra vez”. Lo que no queda Como siempre, Apple ha hecho suya claro es si Meizu lo presentó antes, una idea general, pero con su encan¿quién les va a reclamar? to, el sex appeal de la manzana y su Y si han cam- magia, lo han convertido en algo biado espectacular con un diseño cuidado con algunas cosas que mejorar y que seguramente traerá también mejoras para los equipos con que contamos en la actualidad. Una de estas mejoras es que los iPod de sexta generación adopten este formato de pantalla táctil e incluyan discos duros y memorias flash de gran tamaño, y otra es que desaparezcan del mapa gradualmente en favor de estos iPhones, que poco a poco irán ganando en prestaciones y funcionalidades. De hecho, los primeros iPod tenían 5Gb de capacidad, una pantalla monocromática y unos extras prácticamente inexistentes. Actualmente hay que ver hasta dónde han llegado. El tiempo dirá si Apple considere utilizar ese concepto "todo en uno" para los futuros iPods, o sea el iPhone, el futuro previsto para éstos.

Damilé Ferro Martínez [email protected] Reydel Tabares Castro [email protected] ISPJAE

H

oy día resulta muy interesante observar cómo los avances tecnológicos sorprenden por la evolución tan rápida que presentan y algo que gusta es lo fácil que resulta su uso para cualquier persona, es decir, se vuelven muy amigables y no se necesita ser experto para comprender su funcionamiento, usarlos o instalarlos. Éste es el caso del Bus Serie Universal, más conocido por sus siglas en inglés: USB, y que hizo su primera aparición en 1995. Todos los protocolos y códigos de programas en el mundo no son útiles si las señales no mantienen el cable en buenas condiciones. La interfaz eléctrica juega un papel fundamental en hacer que un USB sea confiable para transmitir información. Desde el punto de vista práctico, si se emplean componentes y cables dóciles, no es necesario saber mucho acerca de la interfaz eléctrica. Se pueden usar los productos y confiar que los diseñadores hayan hecho un buen trabajo. Pero si se diseña transceptores USB o cables, pizarras con circuitos impresos con interfaz USB o un analizador protocolar tiene que monitorear el circuito, si se necesitara entender la interfaz eléctrica y cómo se aplica al proyecto.

Nociones sobre el funcionamiento del USB Un sistema USB tiene un diseño asimétrico, que consiste en un solo servidor y múltiples dispositivos conectados en una estructura de árbol que utiliza concentradores o Hub especiales. El estándar incluye la transmisión de energía eléctrica al dispositivo conectado. Algunos dispositivos requieren una potencia mínima, por lo que se pueden conectar varios sin necesitar fuentes de alimentación extra. La mayoría de los concentradores incluyen fuentes de alimentación que brindan energía a los dispositivos conectados a ellos. El bus USB es síncrono, y emplea el algoritmo de codificación NRZI (No Retorno a Cero Invertido). En este sistema existen dos voltajes opuestos, una tensión de referencia corresponde a un "1", pero no hay retorno a cero entre bits, de forma que una serie de "unos" corresponde a un voltaje uniforme, en cambio los ceros se marcan como cambios del nivel de tensión, de modo que una sucesión de ceros produce sucesivos cambios de tensión entre los conductores de señal. El controlador USB instalado en el ordenador, denominado controlador

Host o Concentrador Raíz, proporciona un enlace entre el bus de la placabase y una o más conexiones iniciales con el exterior. A partir de éstas, utilizando concentradores adicionales, pueden conectarse más dispositivos. El bus USB soporta intercambio simultáneo de datos entre un ordenador anfitrión y un amplio conjunto de periféricos. Todos éstos conectados comparten el ancho de banda del bus por medio de un protocolo de comunicación de Testigos. El controlador USB distribuye testigos por el bus y el dispositivo, cuya dirección coincide con la que porta el testigo, responde aceptando o enviando datos al controlador. La topología del bus USB adopta forma de estrellas apiladas y se organiza por niveles, lo que permite el funcionamiento simultáneo de 127 dispositivos que incluyen los Hubs. En la raíz o vértice de las capas, está el Host. Dicha topología permite a muchos dispositivos conectarse a un único bus lógico sin que los que se encuentran más abajo en la pirámide sufran retardo. A diferencia de otras arquitecturas, USB no es un bus de almacenamiento y envío, de forma que no se produce retardo en el envío de un paquete de datos hacia capas inferiores. En la figura 1 se puede ver la estructura del bus. [GiGA 1 / 2007]

17

hardweriando El controlador se comporta como un bus maestro PCI (Conector de Componentes Periféricos) multicanal programable para dar soporte a las necesidades de transf e r e n c i a de datos de múltiples dispositivos conectados al bus USB. En la figura 2 se muestra un esquema del controlador del Host.

tivos), y de un Controlador que incorpora un juego de registros mediante los cuales el Controlador USB configura el Hub, controla y monitoriza los puertos de bajada. En la figura 3 se muestra un Hub.

Fig.1 Estructura de capas del bus USB

El sistema USB consta de tres componentes fundamentales: el Host, los Hubs o Concentradores, y los Periféricos o Funciones.

Host Procesa y gestiona los cambios de configuración que puedan ocurrir en el bus durante Fig. 2 Vista conceptual del controlador de bus USB su funcionamiento. Éste gestiona el sistema y los recursos del bus, tales como el Analizando la figura 2 se plantea que uso de la memoria del sistema, la la parte del programa consiste en el asignación del ancho de banda del Controlador de Dispositivos (Driver) bus y su alimentación. También del Controlador del Host (HCD). Este ayuda al usuario con la configuración programa interactúa con la parte físiautomática de los dispositivos conec- ca del Controlador del Host por tados y reacciona cuando son desco- medio de la interfaz. nectados. Puede soportar uno o más La parte física del controlador del buses USB, y estarán conectados al Host consiste en un Hub raíz que Host por medio de un Controlador proporciona los puertos USB y los buffers de datos donde son almacedel Host. nados cuando son movidos hacia y El controlador del Host Comienza las transferencias en el desde memoria. bus y es el maestro en un bus USB. En la arquitectura USB sólo hay un Los Hubs controlador del Host por cada bus Un bus tradicional puede ser dividido USB y por eso no hay arbitrariedad en segmentos de bus individuales conectados por puentes. Los Hubs para el acceso al bus. Las funciones básicas del controla- son elementos claves en la arquitectura del USB, ya que incrementan los dor del Host son: •Detectar la inserción o desco- puntos de conexión por medio de puertos adicionales, detectan la nexión de dispositivos USB. •Gestionar el flujo de control y el conexión y desconexión de dispositiflujo de datos entre el Host y los vos y generan alimentación hacia los dispositivos. dispositivos. •Coleccionar estadísticas de activi- El Hub dispone de un Repetidor, para pasar información entre el puerto de dad y estado. •Proveer una cantidad limitada de subida (hacia el ordenador) y los energía a los dispositivos conectados. puertos de bajada (hacia los disposi-

18

[GiGA 1 / 2007]

Fig. 3 Representación del Hub

La arquitectura interna de un Hub USB 1.x consta de un Repetidor Hub y un Controlador del Hub, mientras que para la versión USB 2.0 hay un tercer elemento: traductor de transacciones que proporciona los mecanismos que dan soporte a los dispositivos de media y baja velocidad por el Hub, mientras se transmiten todos los datos entre el Host y el Hub en el modo de la alta velocidad. Interfaz eléctrica Para que el USB realice correctamente su función, la interfaz eléctrica debe cumplir ciertos requerimientos. Tranceptores y Señales Las propiedades eléctricas de las señales cargadas por un cable USB varían al depender de la velocidad del segmento del cable. Cada señal de baja, media y alta velocidad tiene un coeficiente de canto diferente, que es una medida de las veces que se eleva o disminuye, o la cantidad de tiempo requerido para que una salida cambie. Los transceptores y los circuitos de apoyo que producen, detectan las señales del bus y también varían al depender de la velocidad. A cualquier velocidad, los componentes que se conectan a un cable USB tienen que ser capaces de resistir el corto circuito de cualquier línea a cualquier otra línea o la protección del cable sin dañar los componentes.

hardweriando Segmentos de cable Consiste en un cable físico simple que conecta un dispositivo (puede ser un Hub) a un Hub de corriente arriba (puede ser el Hub raíz en el Host). La velocidad, el coeficiente de canto y la polaridad de los datos en un segmento dependen si el segmento tiene baja, media o alta velocidad. En la figura 4 se muestra esa relación.

Los segmentos de alta velocidad existen sólo donde el dispositivo de corriente arriba sea un Hub de 2.0 y el dispositivo de corriente abajo sea de alta velocidad. Cuando el dispositivo de corriente abajo es un Hub, el segmento puede también cargar datos hacia y desde dispositivos de baja y media velocidades que sean corriente abajo desde ese Hub. Los datos en el segmento de alta velocidad viajan a alta velocidad, y el traductor de la transacción en el Hub corriente abajo se transforma entre la velocidad baja o media y la alta como se necesite. En la unión, todos los dispositivos tienen que comunicarse a baja o media velocidad. Cuando es posible, un dispositivo de alta velocidad transita de media a alta durante una vibración Fig. 4 La velocidad de los datos en un segmento depende de de alta velocidad. la capacidad del dispositivo y de su Hub corriente arriba Los segmentos de baja velocidad existen sólo entre los dispositivos de baja velocidad y sus Hubs. Un segmento de baja velocidad carga únicamente datos de baja velocidad con el empleo del coeficiente de canto de baja velocidad y la polaridad invertida comparada con la media velocidad. Un segmento de media velocidad existe cuando el dispositivo de corriente abajo es de media velocidad. El dispositivo de corriente arriba puede ser un Hub de 1.x ó 2.0. Cuando el dispositivo de corriente abajo es un Hub, el segmento puede también cargar datos hacia y desde dispositivos de baja velocidad que son corriente abajo desde ese Hub. Cuando esto ocurre, los datos de baja velocidad en el segmento de la de media emplea coeficiente bit de baja. El Hub que se conecta a un dispositivo de baja velocidad se transforma entre la polaridad de la baja y media velocidades y los coeficientes de canto. Los segmentos de media velocidad nunca cargan datos de velocidad alta. Si un dispositivo de alta velocidad se conecta a un Hub de 1.x, las comunicaciones estarán a velocidad media. Los dispositivos de alta velocidad tienen al menos que responder a una petición de numeración a media velocidad.

Identificación de la velocidad del dispositivo Para poder iniciar cualquier tipo de transacción cuando se conecta el dispositivo al Host, es necesario que éste conozca la velocidad a la que trabaja. Con esa finalidad existe un mecanismo a nivel eléctrico. La diferencia entre los dispositivos de velocidad media y los baja, es que en la media tiene una resistencia conectada al D+, en velocidad baja la misma resistencia se encuentra en D- como se puede observar en la figura 5.

cidad. En el caso de dispositivos de alta velocidad lo que se hace es que en un principio se conecta como un dispositivo de velocidad media y más tarde por medio de un protocolo se pasa a velocidad alta. Alta Velocidad A alta velocidad existe un Diferencial 1 en el driver cuando la salida D+ sea al menos 0.36 V y la salida D- no sea mayor que 0.01 V, referido a la señal a tierra del driver. Existe un Diferencial 0 en el driver cuando D- sea al menos de 0.36 V y D+ no sea mayor que 0.01 V, referido a la señal a tierra del driver. En un receptor de alta velocidad, la entrada tiene que encontrar las exigencias mostradas en las plantillas modelos en la descripción. Los modelos especifican los voltajes máximos y mínimos, los tiempos de elevación y de disminución, el jitter máximo en una señal transmitida y el máximo que un receptor tiene que tolerar (ver Tabla 1). La descripción muestra también los detalles de cómo hacer las mediciones.

Cables y conectores Para facilitar la conexión de dispositivos de cara al usuario, USB utiliza dos tipos de conectores totalmente diferentes: los de serie A y los de serie B, que se muestran en la Figura 6 con sus medidas en milímetros. Los conectores de serie A permiten la conexión directa de dispositivos USB con el Host o con el puerto de bajada de un Host, y es obligatoria su presencia en todos los dispositivos y Hubs USB. Los conectores de Serie B no son obligatorios y sirven para conectar un cable USB con el puerto de subida de un dispositivo, permitiendo por parte de los fabricantes de dispositivos la utilización de cables estándar USB.

Fig. 5 Detección de la velocidad del dispositivo

De forma que después del Reset, el estado de reposo de la línea es diferente si se trata de baja o media velo-

El cable USB consta de cuatro conductores: dos de potencia y dos de señal, D+ y D-. Los cables de media y alta velocidad [GiGA 1 / 2007]

19

hardweriando do por dispositivos tanto de velocidad alta y media, como de baja. En el caso que se emplee para un dispositivo de velocidad baja deberá cumplir todos los requisitos propios de esta velocidad.

Fig. 8 Cable fijo de velocidad alta y media y de velocidad baja.

Tabla 1. Parámetros del modelo.

cantes de dispositivos crearlos sin cable y al usuario le facilita la sustitución del cable en caso de que se estropee. Es un requisito que los dispositivos que lo utilicen sean de velocidad alta o media, pues el correcto funcionamiento del cable con dispositivos de velocidad baja no está

Fig. 6 Tipos de conectores.

están compuestos por un par trenzado de señal, además de GND (Tierra) y Vbus (ver la Tabla 2).

Fig. 7 Cable estándar "de quita y pon".

garantizado ya que podría superar la longitud máxima del cable de velocidad baja.

Cable fijo de velocidad baja Al igual que el cable fijo de alta y media velocidad tiene un conector macho de Serie A en un extremo, mientras que el otro depende del fabricante. La diferencia es que este tipo de cables sólo funciona con dispositivos de velocidad baja. En la figura 8 se muestra su representación.

Asegurando la calidad de la señal Las descripciones para los drivers, receptores y diseño de cables aseguran que virtualmente todos los datos y sus transferencias ocurran sin errores. Las exigencias que ayudan a asegurar la calidad de la señal incluyen el empleo de líneas balanceadas y cables protegidos, partes torcidas requeridas para cables de media/alta velocidad y coeficiente de canto más lento para los drivers de baja velocidad.

Fuentes de ruido

Tabla 2. Descripción física del cable USB.

Existen tres tipos de cables USB: estándar (comúnmente llamado "de quita y pon"), fijo de media y alta velocidad, y cable fijo de baja velocidad. Cable estándar "de quita y pon" Se trata de un cable de velocidad alta y media, con un conector macho de Serie A en un extremo y un conector macho de Serie B en el otro extremo (Figura 7). Esto permite a los fabri-

20

[GiGA 1 / 2007]

Cable fijo de velocidad alta y media La denominación de fijo se refiere a los cables que son proporcionados por el fabricante del dispositivo fijos a éste, o bien sin ser fijos, con un conector específico del fabricante (ver figura 8). Es obligatorio que en un extremo tenga un conector macho de Serie A. Dado que lo suministra el fabricante, puede ser utiliza-

El ruido puede entrar en un alambre de varias formas, incluso mediante el acoplamiento conductivo, magnético, capacitivo, electromagnético y de impedancia común. Si un voltaje de ruido es lo suficientemente grande, y si está presente cuando el receptor intenta detectar un bit transmitido, el ruido puede causar que el receptor lea inapropiadamente el nivel lógico recibido. El acoplamiento conductivo y la impedancia común requieren contactos óhmicos entre la señal del alambre y el alambre que es la fuente de ruido. El acoplamiento conductivo ocurre cuando un alambre trae el ruido de otra fuente al circuito. El acoplamiento de impedancia

hardweriando común sucede cuando dos circuitos comparten un alambre, como el de regreso a tierra. Los otros tipos de acoplamiento de ruido resultan de la interacción entre los campos eléctricos y magnéticos de los alambres mismos y las señales que acoplan dentro de los alambres desde las fuentes exteriores, incluyendo otros alambres en la interfaz. El acoplamiento capacitivo e inductivo puede causar cruzamiento de las informaciones, donde las señales en uno de los alambres entran en el otro. El acoplamiento capacitivo, también llamado eléctrico, ocurre cuando dos alambres se cargan con diferentes potenciales y resulta un campo eléctrico entre los alambres. La intensidad del campo y del resultado del acoplamiento capacitivo, varía con la distancia entre los alambres. El acoplamiento inductivo o magnético sucede porque la corriente en un alambre causa que éste emane un campo magnético. Cuando los alambres son mayores que 1/6 de longitud de onda, se aparta el acoplamiento capacitivo e inductivo y se considera junto como uno electromagnético. Un ejemplo de acoplamiento magnético es cuando un alambre actúa como antena receptora para ondas de radio. Líneas Balanceadas Una vía que emplea el USB para eliminar el ruido es con las líneas balanceadas que cargan las señales diferenciales del bus. Las líneas balanceadas están sosegadas eléctricamente. Cualquier ruido que acople en la interfaz es probable que también lo haga en ambos alambres de señales, pues el receptor detecta sólo la diferencia entre los voltajes de los dos alambres y cualquier ruido común a ambos se anula. Por el contrario, en líneas no balanceadas con terminales simples empleadas por un RS-232 y otras interfaces, el receptor detecta la diferencia entre un alambre de señal y una línea a tierra compartida por otros circuitos. La línea a tierra es probable que esté cargando ruidos desde un número de fuentes, y el receptor vea este ruido cuando detecta la diferencia entre la señal del voltaje y de tierra.

Protección La protección es más efectiva al bloquear el ruido debido a acoplamientos capacitivos, electromagnéticos y magnéticos de alta frecuencia. La especificación 2.0 requiere que ambos cables de baja velocidad y de media/alta estén protegidos, aunque las exigencias se diferencian para cada una de ellas. En un cable de media/alta velocidad una protección de aluminio poliéster metalizada cubre los cuatro conductores. Los rodea una protección exterior de alambre tejido de cobre estañado. Entre las protecciones, y en contacto, hay un alambre de cobre. La capa exterior es de cloruro de polivini. La protección termina en el conector. El cable de baja velocidad posee las mismas exigencias, excepto que la protección exterior tejida se recomienda, pero es requisito. Las exigencias de protección se añadieron a la versión 2.0 no porque la interfaz USB sea ruidosa en ella misma, sino porque los cables sean probablemente anexados a las computadoras que son enteramente ruidosas. La protección ayuda a que los cables no emitan este ruido. Los cables dóciles de baja velocidad son más costosos de fabricar y físicamente menos flexibles. La descripción deja al usuario los detalles sobre la conexión a tierra con el consejo de que el método conexión a tierra tiene que ser consistente con prácticas industriales aceptadas y regulaciones con respecto a la seguridad, la interferencia electromagnética, la interferencia radio-frecuencia y la descarga electrostática. En un diseño típico, la protección es corriente alterna acoplada a una referencia local a tierra en cada terminación, con el empleo de un capacitor cerámico de 0,01 microfarad entre la protección y la tierra.

Aislamiento El aislamiento galvánico puede ser útil para prevenir el ruido eléctrico y la energía que surge del acoplamiento de un circuito. Los circuitos que son aislados galvánicamente uno con el otro no tienen conexión óhmica. Los métodos típicos de aislamiento incluyen el uso de un transformador que

transfiere la energía por medio del acoplamiento magnético y los opto-aisladores que transfieren las señales digitales por el acoplamiento óptico. Un USB está diseñado como un bus de mesa y no requiere protección adicional en ambientes típicos. Las exigencias de tiempo del USB y el empleo de parejas simples de cables para ambas direcciones hacen que sea difícil aislar completamente un dispositivo USB de su Host. Sin embargo, es más fácil aislar el circuito que el controlador periférico conectado con el empleo de métodos convencionales. Por ejemplo: en un motor controlador con una interfaz USB, el motor y el circuito motor pueden ser aislados del controlador USB y del bus. Un Hub típico tendrá un receptáculo serie B en su puerto de corriente arriba. El receptáculo acepta el conector serie B en un cable que se conecte con la raíz del Hub o a otro corriente arriba. Un Hub con puertos abajo externos tendrán una o más series A de receptáculos. Estos aceptan el conector serie A en los cables que conecten a los dispositivos u otros Hubs corrientes abajo.

Conclusiones El USB ha resultado ser un gran avance tecnológico, gracias a sus características, sus potencialidades y a su facilidad de uso. Es un estándar que se ha apoderado del mercado con su mejor característica: sencillez. Ha alcanzado el éxito de modo que son muchos los periféricos que lo utilizan para comunicarse. Pero es importante que cada diseñador o persona que desee utilizar este bus para un proyecto determinado, conozca su funcionamiento y especificaciones eléctricas, para garantizar su correcto funcionamiento y aprovechar todas las ventajas que brinda.

Referencias Disponible:http://usuarios.lycos.es/kurganz/dato s_tecnicos/electrica.html Disponible:http://usuarios.lycos.es/kurganz/dato s_tecnicos/topologia.html Axelson, Jan: "USB Complete",2001,USA, p28, p231-254, p492. Disponible:http://usuarios.lycos.es/kurganz/dato s_tecnicos/mecanica.html [GiGA 1 / 2007]

21

La originalidad es la vuelta a los orígenes. Antonio Gaudí

T MSc.Carlos del Porto Blanco [email protected] Oficina para la Informatización

oda persona que trabaja con una computadora habrá notado que en ocasiones ésta comienza a ralentizar su funcionamiento, fenómeno generalmente asociado con un incremento del acceso a los discos. Lo primero que dicen los garúes de la oficina, es que hay algún código maligno, y en muchas ocasiones ése no es el problema, sino que hace mucho tiempo que no se desfragmenta el disco y una vez hecho esto, con garantía por medio de que no falle el fluido eléctrico, el problema se resuelve. Ahora bien: ¿qué hay detrás de todo eso? Un acercamiento a dicha cuestión es la entrega en este número.

¿Cómo se relaciona el sistema operativo con el asunto? Los dispositivos de Entrada y Salida (discos, mouse, impresora, etc.) se catalogan en mecanismos de almacenamiento, dispositivos de comunicación y de interfaz con humanos. Además, se pueden clasificar como dispositivos de bloques (discos) o de caracteres (mouse). Las unidades de Entrada y Salida constan normalmente de una parte mecánica y una electrónica conocida como controlador de dispositivos. El sistema operativo sólo se comunica con el controlador, y la parte del sistema operativo encargada

22

[GiGA 1 / 2007]

de ello es el manejador o driver del dispositivo. La interfaz entre el controlador y la parte mecánica es de muy bajo nivel y normalmente su programación es considerada obra de "ratones de laboratorio" por la laboriosidad y el nivel de detalle que requiere. La Entradas y Salidas se pueden estructurar de forma eficiente y modular usando capas, cada una de las cuales se encarga de una tarea específica, y ofrece una interfaz bien definida a la capa superior. Éste es un modelo universalmente utilizado, entonces ¿por qué no usarlo en un sistema operativo?

hardweriando

Los drivers contienen todo el código que depende del dispositivo y cada uno requiere de un driver propio. La tarea de éste es aceptar órdenes abstractas (independientes del dispositivo) de la capa superior (como por ejemplo, leer el sector de disco n), traducirla a órdenes concretas (dependientes del dispositivo) y dar esas órdenes al controlador correspondiente. Las tareas del subsistema de Entrada y Salida de un sistema operativo son las siguientes: •Planificación: Ejecutar las solicitudes de Entrada y Salida en el mismo orden en que el sistema operativo las recibe de los procesos (programa en ejecución) y no siempre es lo más eficiente. Muchas veces conviene usar otros criterios para escoger la siguiente solicitud a ejecutar, de entre aquellas pendientes para un determinado dispositivo. •Buffering: Un buffer es un espacio de memoria reservado para almacenamiento temporal de datos, que permite acomodar disparidades entre las velocidades de un dispositivo productor de datos y otro consumidor, o diferencias en tamaños de bloques. •Caching: Una caché es una región de la memoria que contiene copias de datos que residen en dispositivos más lentos. Cuando se requiere un dato que está en la caché, el acceso es más rápido porque no es necesa-

rio acceder al dispositivo lento. •Spooling: Un spool es un buffer que contiene la salida para un dispositivo de caracteres, tal como una impresora, en el cual no se pueden mezclar las salidas de varios procesos. Mediante spooling, los procesos tienen la ilusión de imprimir simultáneamente, pero en realidad el sistema operativo almacena la salida de cada proceso para imprimirla de una sola vez cuando el proceso termine. •Manejo de errores: Parte del manejo de errores la realiza el subsistema de Entrada y Salida. El manejo de errores se hace principalmente en el driver, pues la mayoría de los errores son dependientes del dispositivo (y por ende, sólo el driver podría saber qué hacer, sobre todo si el error es transitorio). Por ejemplo, si el driver recibe un mensaje de error del controlador al intentar leer un sector del disco, reintentará varias veces antes de reportar el error a la capa superior. Entonces el subsistema de Entrada y Salida decide qué hacer en una forma independiente del dispositivo. En un ambiente de multiprogramación (cuando se encuentran en ejecución varios trabajos al unísono) existe para cada dispositivo una cola de solicitudes de Entrada y Salida pendientes de atención, lo que obliga a la existencia de un "ente" que se encargue de planificar este trabajo. En los sistemas operativos a éstos

entes se les denomina planificador y es el que decide qué solicitud es la más conveniente a atender en cada instante.

Acercándonos al disco Debe recordarse que en los discos magnéticos la información se almacena en sus caras y por ello el primer valor necesario para localizar una información será éste, pero para mejorar la organización de la información en las caras se utilizan anillos concéntricos, pistas, y constituye la segunda coordenada de la dirección de la información. Debido a que las unidades de disco duro de las computadoras poseen varios discos unos sobre otros, entonces al conjunto de pistas que quedan en la misma posición se les denomina cilindro (no aporta ninguna nueva dirección, es la misma de las pistas involucradas), por la similitud que tendrían con esa figura geométrica. Se toma una pista de cada uno de los discos. Por último, el espacio de cada pista se divide en bloques o sectores. La identificación de cada uno de éstos aporta el tercer elemento de la dirección y queda entonces la dirección de un dato en el disco, determinada por tres valores: cara, pista y sector, lo que obliga a que los bloques lógicos (secuenciales) que ve el Sistema de Archivos de un sistema operativo, deben traducirse a la triada antes mencionada. [GiGA 1 / 2007]

23

hardweriando •La suma del tiempo de búsqueda y el retardo de giro da como resultado el tiempo de acceso (access time). Es decir, el tiempo que se tarda en llegar a la posición de lectura o escritura. •Por último, se realizará la transferencia de la información entre el disco y la memoria. El tiempo que toma esta operación se denomina de transferencia (transfer time). •El tiempo de búsqueda se calcula como el número de pistas recorridas multiplicado por una constante que depende de la unidad de disco más el tiempo de comienzo. •El tiempo de transferencia se calcula como el número de bytes a transferir dividido por la velocidad de rotación del disco (en revoluciones por segundo) multiplicado por el número de bytes por pista.

Retardos que influyen en los tiempos de Entrada y Salida a disco

Estructura física del Disco Duro

Normalmente existe un cabezal de lectura/escritura por cada cara del disco, que permiten la transferencia de información desde o hacia cualquiera de los sectores existentes en ella. El cabezal de lectura/escritura deberá moverse hacia adentro y hacia afuera con vistas a posicionarse en la pista deseada. En el caso de los discos duros que poseen varias superficies, los cabezales se moverán al unísono al estar montadas en un brazo común.

Algunas características de los discos a considerar en este análisis: •Debido a que el disco es por lo menos cuatro veces más lento que la memoria principal, el rendimiento del sistema de almacenamiento del disco es vital en el del sistema de cómputo.

24

[GiGA 1 / 2007]

•La operación de Entrada y Salida del disco depende de la computadora, del sistema operativo, del canal de Entrada y Salida y del controlador de disco. •El disco rota a una velocidad constante. Hoy día a 7 200 revoluciones por minuto, RPM. •Para leer o escribir el cabezal debe posicionarse en la pista deseada. El tiempo que tarda el cabezal en ubicar la pista deseada se denomina tiempo de búsqueda (seek time). •Una vez que se seleccionó la pista, el controlador del disco esperará hasta que el sector pase por debajo del cabezal en su rotación. El tiempo que tarda el comienzo del sector en llegar hasta el cabezal se conoce como retardo o latencia de giro (rotational delay).

•Cuando un proceso (programa en ejecución) emite una petición de Entrada y Salida, debe esperar en una cola a que el dispositivo esté disponible. •Si el dispositivo comparte un solo canal de Entrada y Salida puede producirse una espera adicional hasta que el canal esté disponible. •A veces se usa la técnica de detección posicional de giro (RPS). Cuando se ejecuta la orden de búsqueda se libera el canal para que pueda realizar otras operaciones de Entrada y Salida. Cuando la búsqueda termina, el dispositivo debe averiguar el instante en que el sector en que se encuentran los datos deseados va a pasar bajo el cabezal. A medida que el sector se aproxima al cabezal, el dispositivo intenta restablecer la vía de comunicaciones con la computadora, si la unidad de control o el canal siguen ocupados con otra operación de Entrada y Salida, el intento de reconexión no tendrá éxito y el dispositivo debe dar otra vuelta completa antes de intentar la reconexión, lo que se denomina falla de RPS. De los tres factores antes indicados, el que resulta imprescindible optimizar es el tiempo de búsqueda (ya que es el que tiene un peso mayor) y por ello los algoritmos de planificación tienen como objetivo disminuir esta componente.

hardweriando Cada solicitud contiene las siguientes informaciones: •Tipo de operación (entrada o salida) •Dirección en el disco (cara, cilindro y sector) •Dirección de memoria en la computadora •Cantidad de bytes de memoria a transferir

Algoritmos de planificación más comunes Random o aleatorio: Este algoritmo elige los elementos de la cola en un orden aleatorio. Por ello, se puede esperar también que las pistas recorridas sigan un orden aleatorio y se obtendría el más bajo rendimiento. Se desperdicia mucho tiempo en búsquedas, y el resultado es el menos provechoso de todos. FCFS o FIFO (First Come First Served), Primero que arriba, Primero que se atiende: Es el algoritmo más simple de planificación de los discos y consiste en atender las solicitudes en el orden de llegada. Es simple, pero no se hace nada por la eficiencia y es malo si las solicitudes se alternan entre cilindros exteriores e interiores. Si hay varios procesos compitiendo por el disco otras técnicas serían de mayor ayuda. Suponga que en un momento dado se tienen solicitudes de transferencia a las siguientes pistas: 1, 36, 16, 34, 9, 12 y que el cabezal se encontraba en la pista 11. Entonces la cantidad de pistas recorridas en las búsquedas será: 10, 35, 20, 18, 25, 3 para un total de 111. Este algoritmo tiende a ir en forma consecutiva de un extremo a otro del disco. Priority (PRI) Prioridad: No intenta optimizar la utilización del disco, pero sí congeniar con el sistema operativo. Le da mayor prioridad a los trabajos cortos y permite que una gran cantidad de éstos sean procesados rápidamente ahorrando un tiempo considerable. La desventaja es que los trabajos largos tendrán una espera excesiva. LIFO: (Last In First Out), Último que arriba, Primero que se atiende: Al dar el control del dispositivo al usuario más reciente se evita un movimiento de brazo en la fila secuencial que reduce el largo de las colas.

SSF (Shortest Seek First) o SSTF (Shortest Seek-Time First), Primero la búsqueda más corta: Es un algoritmo muy eficiente que consiste en atender la solicitud cuya pista esté más cerca de la actual posición del cabezal de lectura/escritura. Este algoritmo tiene la dificultad de crear inanición (es decir, las solicitudes más alejadas de la posición inicial del brazo tienden a no ser atendidas, pues siempre se atendería la más cercana). Para comprender esa situación sólo hay que pensar en que exista un flujo continuo de nuevas solicitudes, muchas de ellas cercanas a la posición actual En el ejemplo anterior se tendría entonces la siguiente secuencia de atención: 12, 9, 16, 1, 34, 36, por lo que la cantidad de pistas recorridas en las búsquedas sería: 1, 3, 7, 15, 33, 2 que suman 61 y 50 menos que en el caso anterior. La problemática de la planificación de los accesos a un disco puede ser analizada de la misma forma que la del ascensor de un edificio. El reconocimiento del carácter dinámico de la cola lleva al algoritmo conocido como SCAN o del elevador. En éste, los cabezales de lectura/escritura comienzan en una de las pistas extremas (la inicial o la última) y se mueven hacia la otra, brindando servicio a todas las solicitudes que existan. Al llegar al otro extremo, invierte el sentido del movimiento y se repite toda la operación. Una variación del SCAN se conoce como C-SCAN (scan circular) y siempre presta servicio en el mismo sentido, es decir se mueve el cabezal de un extremo al otro y después regresa, sin atender solicitudes, al inicio para repetir la operación. El C-SCAN parte de la premisa de que las nuevas solicitudes en el extremo inicial deben ser las que más tiempo deben llevar esperando y de que en esta área es donde debe haber una mayor concentración de solicitudes pendientes. En la descripción de ambos algoritmos, SCAN y C-SCAN, se planteó que los cabezales van desde un extremo (pista cero) hasta el otro (pista n). En la práctica estos algoritmos no

son instrumentados en esa forma. Normalmente el cabezal se mueve en un sentido hasta la última solicitud en dicho sentido. Tan pronto como no hay otra, se invierte el sentido del movimiento o se reinicia en la primera de las solicitudes. A estos algoritmos se conocen como LOOK y C-LOOK. Si se aplica el algoritmo LOOK al ejemplo que se ha venido trabajando se tendría la siguiente secuencia de atención: 12, 16, 34, 36, 9, 1. Entonces, la cantidad de pistas recorridas en las búsquedas sería: 1, 4, 18, 2, 27, 8 para un total de 60, más eficiente que el algoritmo anterior. SCAN de N pasos: Segmenta la cola en subcolas de largo N. Las subcolas se procesan una a una usando SCAN, mientras otros pedidos que llegan se van amontonando en otras colas. FSCAN: Utiliza dos subcolas. Cuando comienza el SCAN todos los pedidos están en una de las colas y la otra permanece vacía, que se va llenando con los nuevos pedidos que entran. Permite que la cola de nuevos pedidos sea atendida luego que los viejos hayan sido procesados. Todas las variantes del algoritmo del elevador combinan eficiencia y equidad.

Finalizando Se ha tratado de mostrar las complejidades con que debe lidiar un sistema operativo a la hora de atender las solicitudes que le haga un disco y como se puede apreciar, existen varias políticas para implementar esto. Queda en manos de los desarrolladores cuál de los algoritmos utilizar. También quisiera señalar que dichos algoritmos pueden ser utilizados en muchas otras situaciones, por lo que no está de más tenerlos a mano, pues cuando menos uno lo imagina, salta la liebre Referencias •Tanenbaum Andrew S. "Sistemas Operativos Modernos". •Tanenbaum Andrew S. "Operating systems: Design and implementation". •Peterson and Silberchats. "Operating System Concepts". •"Sistemas Informáticos". ww.monografias.com

[GiGA 1 / 2007]

25

notihardware Este año notihardware pretende dar a conocer los equipos que más se destacaron en el CES 2007 el show de la tecnología, que celebró sus 40 años de vida, con ni más ni menos que 2 700 expositores cubriendo más de 30 áreas de productos desde el mundo de las TV, Internet, Gaming, HiFi, etc…

Teléfono VoIP del tamaño de una tarjeta PCMCIA

Samsung SCH-i760

T

eléfono presentado por Samsung con Windows Mobile que dispone de dos teclados. El clásico de la mayoría de móviles y otro extraíble y más completo que se esconde en la parte inferior del teléfono. Dispone de conectividad a través de EV-Do y de Wi-Fi, además de una cámara de 1.3 megapíxeles y un reproductor de MP3.

HP TouchSmart, el centro multimedia

E

l HP TouchSmart es un ordenador con pantalla táctil de 19 pulgadas, que pretende ser el centro multimedia de la casa. Para ello, incorpora sintonizador de radio Fm, de HDTV, grabadora de DVD con LightScribe, teclado y ratones inalámbricos, lectores de tarjetas y salidas de todo tipo. Equipado con un AMD Turion, 2 GB de RAM, disco duro de 320 GB y una tarjeta gráfica Nvidia GeForce Go 7600, las opciones de conexión son Bluetooth y Wi-Fi.

L

a compañia Kensington diseñó el teléfono Vo200 Bluetooth Internet Phone, que tiene el tamaño para entrar en la ranura PCMCIA del portátil, en la que también se cargará la batería. Tiene una autonomía de 30 horas en conversación, funciona con tecnología Bluetooth y utiliza cualquier servicio de VoIP (ya sea Skype o cualquier otro).

Sintonizador digital ATI para la TV

Discos duros externos de Seagate

S

eagate presentó su gama de discos duros externos que son unas joyitas. La primera de las gamas mostradas es la FreeAgent Pro, con capacidades entre 320 y 750 Gb, con la posibilidad de conectarse mediante SATA. Los segundos son los FreeAgent Go disponibles con 80 y 120 Gb de capacidad y se conectan a través del puerto USB 2.0, también dispone de un modelo mucho más pequeño con capacidad de 12 Gb y se puede guardar en un bolsillo.

LCD Sharp de 108 pulgadas

A

solo unos momentos de que la empresa coreana LG presentara un LCD de 100 pulgadas, Sharp presentó un LCD de 108 pulgadas, el más grande hasta el momento. Se trata ni más ni menos de un televisor FullHD, con resolución 1 920 x 1 080.

26

[GiGA 1 / 2007]

A

Ti presentó en la feria el TV Wonder Digital Cable Tuner, un sintonizador de televisión digital, el primero compatible con CableCARD, una tecnología que permite la grabación digital de contenidos de televisión por cable sin mayor necesidad que una tarjeta, un aparato compatible y una televisión (con los contenidos digitales, claro). Con el TV Wonder, se podrá sintonizar y grabar todo tipo de programas en alta definición, en sistema NTSC y ATSC (un nuevo estándar de televisión digital), pero únicamente será compatible con Windows Vista en sus diferentes ediciones.

softweriando

Ing. Edgar Guadis Salazar [email protected] Empresa Segurmática

E

l 2007 llegó y en este primer número se aprovecha la ocasión para hacer un resumen de lo ocurrido en la temática de los códigos malignos durante el año anterior, cuya característica principal fue la disminución notable en cuanto a los niveles de propagación alcanzados respecto al 2004 y el 2005 por cualquiera de las variantes nuevas o conocidas reportadas a nivel internacional. Sin embargo, no por ello disminuyó el nivel de peligrosidad que representa una PC comprometida.

Situación internacional La organización MessageLabs, por medio de sus servicios para el filtrado del correo electrónico detectó un decremento en la cantidad de programas malignos que viajan por esta vía. En el 2006 la relación entre los mensajes que portaron código maligno respecto al total de los revisados fue de 1 cada 67.9, mientras que en el 2005 resultó ser 1 cada 36.1, no obstante, se duplicó la cantidad de muestras (caballos de Troya) destinadas al robo de información. Precisamente, éste fue uno de los vaticinios hechos por los expertos para

el 2006: •Mayor predominio de los caballos de Troya. •Disminución de las epidemias ocasionadas por los gusanos que se propagan vía correo electrónico que afectan gran cantidad de computadoras en períodos breves, y su sustitución por los ataques dirigidos. •Creciente explotación de vulnerabilidades. •Desarrollo de pruebas de concepto para buscar nuevas vías de propagación, teniendo como blanco principal las plataformas que ganan presencia en el mercado internacional.

Predominio de los caballos de Troya Lejos parecen los tiempos cuando los creadores de estos códigos se limitaban a implementarles funcionalidades localmente destructivas tales como el borrado de la información almacenada en un disco o su formateo, por citar las más repudiadas por los usuarios de una computadora comprometida. Actualmente, las acciones que pueden realizar sin ser advertidos, permiten a

los atacantes convertir a las computadoras afectadas en herramientas para realizar acciones fraudulentas, de espionaje e incluso crear ejércitos para realizar ataques remotamente dirigidos. Estadísticas obtenidas por la empresa antivirus Kaspersky Lab, durante el primer semestre del año, mostraron que la cantidad de nuevos códigos del tipo caballo de Troya (incluidas sus modificaciones) se incrementó mensualmente en 8 % comparado con similar período del 2005. Los clasificados como Puertas Traseras (abren puertos de comunicación para la recepción de órdenes enviadas remotamente por un atacante), los Descargadores (una vez ejecutados por el usuario intentan descargar otros códigos desde Internet), Robadores de palabras claves (usurpan contraseñas empleadas en los sistemas comprometidos) y Programas espías (que auditan las acciones realizadas en los sistemas afectados) fueron a su vez los más distinguidos entre ellos. Existe todo un mercado negro que favorece el florecimiento en la crea[GiGA 1 / 2007]

27

softweriando ción de estos programas. Según Raimund Genes, director de sistemas de Trend Micro, un código maligno que permita el envío de los mensajes no deseados tipo “spam” cuesta unos 5 000 dólares, mientras que uno elaborado para crear las redes "zombies" se vende entre 5 000 ó 20 000 dólares. Así fue factible enviar información publicitaria de manera masiva a muy bajo costo para sus distribuidores, pues los recursos empleados fueron fundamentalmente los que utilizaron las propias computadoras comprometidas en su funcionamiento y los gastos en comunicación los pagaron sus propietarios ya que desde sus ordenadores se enviaron los mensajes. De ahí que los reportes publicados durante el 2006 mostraran que el 80% de los “spam” que circularon vía correo electrónico fueran generados desde redes de computadoras robots. Además, se observó un mayor empleo de imágenes en el cuerpo de los mensajes con el fin de dificultar el trabajo de las aplicaciones anti-spam que en su mayoría los identifican analizando el contenido de los textos. Un boletín emitido por Technoworld a finales del año 2005 informó que en diciembre había siete millones y medio de computadoras afectadas con este tipo de código. Aunque resulte sorprendente, las redes robots no sólo se venden sino que se alquilan, y su costo depende del tiempo, uso y cantidad de computadoras comprometidas que forman la red. Por tal motivo, también son robadas. Existe un producto, y la ley de la oferta y la demanda entra en juego. Otro tanto sucede con los troyanos utilizados en el robo de información con un precio que varía de 5 000 a 20 000 dólares. Los programas espías no sólo son usados para robar información almacenada y/o procesada en las computadoras, sino que también constituyen otra forma de conocer los gustos de los usuarios que las emplean, los cuales pueden ser blanco posteriormente de “spam” dirigidos a compradores potenciales. La situación es preocupante, a finales del 2006 la Comisión Europea hizo un llamado a sus miembros para que mejoraran los resultados en su lucha contra el “spam”, los programas es-

28

[GiGA 1 / 2007]

pías y los maliciosos, a la vez que ejemplificó como un resultado alentador la labor realizada por los Países Bajos donde se redujo la difusión de estas misivas en un 85%. Las principales vías por donde llegaron estos códigos a las PCs fueron fundamentalmente durante la descarga de ficheros desde Internet, ya sea de manera consentida por los usuarios al acceder a determinados sitios y aceptar cuando desde una página web se les recomendó la descarga de una aplicación que supuestamente ampliaba las funcionalidades del sistema, o cuando visualizaron una web preparada al efecto. En este último caso de manera oculta ocurre la descarga y/o ejecución de los códigos malignos mediante la explotación de vulnerabilidades presentes en los navegadores de Internet. Muy de moda estuvieron los mensajes de correo electrónico y de mensajería instantánea con textos que invitaron a sus receptores a acceder al enlace presente en el cuerpo de la misiva. También, el envío de Adjuntos a correo electrónico fue otra forma con la que continuaron su propagación.

Disminución de virus y gusanos Según Kaspersky Lab, durante los seis primeros meses del pasado año, los virus y gusanos tuvieron un decremento del 1% de las nuevas muestras mensuales respecto a igual intervalo del año 2005, y resultó apreciable también la disminución de epidemias globales causadas por los que se propagan por el correo electrónico. Entre los gusanos más reportados internacionalmente, de manera general, se encuentran: Sober.y, Nyxem.e (inicios del año), Netsky.q o Nestsky.p (según lo reconozca la empresa antivirus), Zafi.B y variantes del Bagle y Mytob. A finales de octubre comenzó la propagación más importante del año. Se trató de una familia de códigos malignos llamada Warezov que viajó por e-mail y al ser ejecutados por el usuario receptor intentaron la descarga de otros componentes desde Internet. El aspecto más interesante fue la cantidad de nuevas variantes diferentes distribuidas en pocas horas.

Interés creciente en la detección y explotación de vulnerabilidades La explotación de vulnerabilidades en sistemas operativos y aplicaciones de amplio uso continuó en la mirilla de los creadores de programas malignos. La práctica ha demostrado que entre el momento en que se libera un parche de seguridad y aquel en el que se protege a la computadora, transcurre un tiempo suficientemente grande como para que se desarrollen códigos malignos que valiéndose de ellas logren comprometerlas. Por otra parte puede mediar otro tiempo entre el momento en el que se conoce la vulnerabilidad y aquel en el que libera el parche, proceso que generalmente ocurre cuando un especialista en el tema reporta la dificultad al fabricante del software tan pronto la detecta y comprueba. Sin embargo, el peligro es mayor cuando el propio atacante es quien conoce la debilidad y por supuesto la explota malévolamente, lo que se conoce como vulnerabilidad de “día cero”. Entre las más llamativas del 2006 se encontraron las asociadas a los productos de Microsoft Office distribuidos a partir del año 2000. Esta empresa tiene una política de liberación de parches que cumple una frecuencia determinada (el segundo martes de cada mes), y las nuevas vulnerabilidades fueron atacadas pocos días después, es decir, casi un mes antes de que su solución fuera puesta a disposición de los clientes. Lo anterior no tiene en cuenta que en ocasiones una nueva solución introdujo otra vulnerabilidad como lo ocurrido con el boletín MS06-042 de Microsoft. Para paliar esta situación, un grupo de especialistas, por iniciativa propia, crearon el “Zeroday Emergency Response Team (ZERT)” con el fin de elaborar parches temporales capaces de resolver problemas de seguridad clasificados como críticos mientras no esté disponible la solución oficial. Entre los ataques más detectados en Internet, debido a códigos malignos, según Kaspersky Lab, se encontraron: variantes de Rbot y IRCbot (2005) que explotan una vulnerabilidad en la interfaz RPC de Microsoft; gusano Slammer (2003) que explota

softweriando vulnerabilidad de Microsoft SQL; gusano Lupper (2005) que utiliza vulnerabilidad en PHP/CGI, y gusano Blaster (2003) que emplea una vulnerabilidad en Microsoft RPC.

Evolución técnica Unido a lo anterior se evidenció creatividad por parte de algunos autores de códigos malignos, aunque en algunos casos se retomaron experiencias de otros anteriores y se hizo evidente el interés en la telefonía inteligente. Entre ellos se pueden citar: •Linux.Bi.a, capaz de infectar tanto en Windows como en Linux. •Leap e Inqtana, gusanos elaborados para propagarse en el sistema operativo Mac OS X. •StarDust, virus macro que contamina documentos creados con el paquete StartOffice. •CxOver, gusano que se propaga tanto en Windows (PC) como en Windows Mobile (PDA o teléfono). •RedBrowser, desarrollado para actuar en Windows Mobile. •Varias pruebas de concepto empleando la tecnología de los “Rootkits”, códigos que obtienen máximo derecho de administración, con el fin de ocultar las modificaciones en disco y en los registros de sistema, así como la presencia en la memoria de la computadora.

Situación nacional En el transcurso del 2006, la cantidad de nuevos programas malignos diferentes recibidos por la cuenta [email protected], y/o entregados por otros grupos técnicos de la empresa al Laboratorio Antivirus de Segurmática, fue de 269. Según su clasificación se distribuyeron en 175 caballos de Troya, 77 gusanos, 10 virus, 1 joke y 6 exploits. Los primeros continuaron afianzándose como los más reportados en cuanto a cantidad de nuevas muestras, tendencia observada desde el 2003 (Fig. 1) en la que predominaron los subclasificados como: Puertas traseras y Descargadores. Los ejemplares más recibidos por medio de la cuenta virus, correspondieron a los gusanos Netsky.q, Bagle.ai, Mydoom.M, Mytob.u y Nyxem.E. Desde 1988, cuando fue detectado el primer programa maligno en Cuba, hasta la fecha, la cantidad total de los que han afectado a entidades

Fig 1. Relación anual entre diferentes clasificaciones de nuevos programas malignos desde el 2002.

nacionales es de 1 487 diferentes: 656 caballos de Troya, 393 gusanos, 390 virus, 25 exploits y 23 jokes. Precisamente a finales del 2006 los virus ocuparon por vez primera el tercer lugar histórico. Los productos antivirus desarrollados por Segurmática fueron actualizados para combatir a estos códigos malignos y prevenir la propagación de otros no reportados por entidades nacionales.

Recomendaciones Tal y como se ha explicado anteriormente, se reitera la necesidad de mantener actualizados los sistemas con los últimos parches de seguridad liberados para los sistemas operativos y aplicaciones utilizadas. Esta acción es sumamente importante tanto para administradores de redes como para usuarios finales. Igualmente, deben aplicarse los máximos niveles de seguridad que brindan aplicaciones tales como los clientes de correo y los navegadores de Internet, y establecer políticas de seguridad a nivel de los servidores de correo que ayuden a limitar la propagación de programas malignos. En cuanto a los usuarios finales, éstos no deben abrir anexos ejecutables que se reciban en los mensajes de correo electrónico si no tuvieran conocimiento de su autenticidad, así como de otros servicios de Internet que permitan este tipo de transferencia de ficheros. También se debe tener actualizados

los antivirus y estar conscientes de que aunque no son la solución final para prevenir la propagación de programas malignos, sí muy útiles. En cada PC sólo debe estar activado un monitor o centinela antivirus. Es importante mencionar que en muchas ocasiones las computadoras son afectadas a partir de la ejecución de aplicaciones presentes en dispositivos externos de almacenamiento como disquetes y memorias flash. ¡¡¡Ojo!!! Existen programas malignos que modifican el fichero “autorun” de una memoria flash y logran ejecutarse con sólo acceder a ella, aun cuando ésta parezca vacía. ¿Alguna vez se ha detenido a pensar en el daño que puede ocasionar la acción de un programa maligno en una PC? No se debe olvidar que una PC comprometida puede convertirse en una "esclava" para un atacante y desde ella realizar acciones dañinas a terceras. Al analizar la fuente de un ataque: ¿De cuál(es) de ella(s) se originó y quién(es) su(s) usuario(s)? En el sitio web de la Empresa de Consultoría y Seguridad Informática Segurmática www.segurmatica.cu se puede consultar información sobre los programas malignos analizados en el Laboratorio Antivirus, y conocer los productos, servicios y cursos sobre el tema de la Seguridad Informática en general que brinda la empresa. [GiGA 1 / 2007]

29

softweriando Michel Hernández Rodríguez [email protected] Ing. Abel Meneses Abad [email protected] Universidad de las Ciencias Informáticas

G

NU/Linux es una familia de sistemas operativos desarrollada por comunidades libres y empresariales que en los últimos años se ha alzado como una alternativa ante los sistemas propietarios imperantes en el mercado mundial. En la actualidad, varios países, incluido el nuestro, han iniciado un proceso de cambio y desarrollo de este sistema operativo para así contribuir a la progresiva eliminación del software propietario. Este proceso de migración de software incluye un análisis de las soluciones existentes y la búsqueda de aplicaciones equivalentes en el área de software libre (SWL), para así brindar nuevas características a dicho sistema en conjunto con nuevas comodidades y facilidades para el ulterior uso por usuarios finales.

30

[GiGA 1 / 2007]

¿Por qué la migración a SWL? Hoy, nuestro país hace un uso bastante elevado del software propietario, específicamente de Windows y de los programas o aplicaciones que suelen acompañarlo, los cuales en su inmensa mayoría también son propietario. Como bien se conoce, cada programa o aplicación de este tipo tiene asociado un precio o costo inicial, sin contar lo que se cobra por un posterior mantenimiento en caso de ser necesario, o simplemente por el valor de otras aplicaciones, quizás necesarias, para un mejor rendimiento o eficiencia del programa inicial. Y se analiza esa situación de forma singular, ya que si una misma aplicación o programa se usa, por ejemplo, en diez computadoras diferentes, su precio será diez veces mayor, porque para su empleo corporativo se analiza cada distri-

bución del programa por separado y, por tanto, se cobra por cada PC en que se instale. Este fenómeno resulta muy costoso, incluso, para los países más desarrollados, además, por cada día que transcurre, los grandes monopolios de las telecomunicaciones y la informática aumentan su presencia en el llamado Primer Mundo, lo que provoca a los países más pobres mayor dependencia de las grandes potencias. Al analizar esta situación con gran perspectiva, se concluye que no sólo sería de mucha utilidad el uso del software libre para Cuba, sino también su producción, de manera que dé la posibilidad de establecer convenios con otros países, incluso la venta de estas distribuciones o aplicaciones soportadas en Linux, lo que traería consigo la necesidad por parte del comprador o cliente de hacer uso de nuestro soporte y servicios técnicos y propiciaría una fuente de ingreso para la Mayor de las Antillas.

softweriando Algunas ventajas y motivos Desde hace algunos años en nuestro país se vienen desarrollando algunas distribuciones de Linux, tales como Nova, Caimán y Linux UH, e incluso variados programas para facilitar el uso y manejo de este sistema operativo, con el propósito de llevar a cabo un proceso migratorio hacia el software libre a todos los niveles por las múltiples ventajas y facilidades que ofrece, algunas de éstas pueden verse a continuación: - Todo software libre está bajo los efectos de algunas licencias como la GPL, que en este caso se orienta a proteger y garantizar su libre distribución, modificación y uso. Su propósito es declarar que el software cubierto por esta licencia es libre y quede protegido de intentos de apropiación que restrinjan libertades a los usuarios, lo que permite modificar una copia o copias del programa o de cualquier porción de él y formar de esta manera un trabajo basado en el programa, así como copiar y distribuir esa modificación o trabajo bajo los términos de la GPL. Téngase en cuenta que cuando se habla de software libre, se refiere a libertad y no a precio. Solamente con esta ventaja, el país se ahorraría o evitaría el pago de miles de millones de dólares que tendría que abonar en caso que se eliminara el bloqueo a Cuba, y a continuación se amplía en el siguiente ejemplo: A finales del año 2006, el país contaba con un potencial tecnológico de 6000 computadoras asignadas solamente para los Joven Club de todos los municipios del país. Si cada una de estos equipos tuviera instalado software propietario, significaría una media de $90 dólares por cada distribución de Windows XP por PC, para un total de $ 540 000 de dólares como mínimo, únicamente tomando en cuenta el precio del sistema operativo, además, un promedio de $112 dólares mínimos por cada distribución del paquete de Office 2003 para $ 672 000 de dólares. Y así se estaría hablando de $1 212 000 millones invertidos en el software básico para estos equipos, sin analizar el costo de otras muchas aplicaciones necesarias en dependencia de su uso, así como también programas necesarios para los diferentes periféricos o dispositi-

vos para los que se calcula más de 12 millones de dólares. Finalmente, si a todos esos equipos de cómputo se les instalara una distribución de Linux, la mayor parte de estas cifras se ahorraría al país. Se sugiere al lector realizar este cálculo en las más de 300 000 computadoras que existen en nuestro país.

Es más seguro Ya que la gran mayoría de los ataques de hackers son dirigidos a servidores Windows, así como los virus que se enfocan principalmente a servidores con este sistema operativo. La plataforma Linux es más robusta y eso hace más difícil que algún intruso pueda violar su sistema de seguridad.

Más rápido Al contar con una plataforma más estable se favorece el desempeño de aplicaciones tales como base de datos, aplicaciones XML, multimedia, etc., y la eficiencia de su código fuente hace que la velocidad de las aplicaciones Linux sea superior si se compara con las que corren sobre Windows.

Más económico Requiere menor mantenimiento, lo que en servidores Windows es más costoso por la necesidad de una frecuente atención y monitoreo contra ataques de virus, hackers y errores de código, instalación y actualización de parches y service packs. Tanto Linux y otras muchas aplicaciones de código abierto no requieren supervisión tan estrecha ni pagos de pólizas de mantenimiento necesarias para obtener los service packs.

Flexibilidad y capacidad de adaptación del código abierto Una de las principales ventajas del código abierto es su gran capacidad de adaptación. A nivel de kernel éste se puede optimizar para que dé un mayor rendimiento como sistema de red. A su vez, las utilidades del sistema operativo pueden ser recompiladas para un mejor uso del procesador y eliminar servicios innecesarios para aumentar el rendimiento. A su vez, contar con una gran comunidad de desarrolladores de GNU/Linux es una garantía de seguridad de que seguirá en expansión para convertirlo cada día en una plataforma más potente.

Tal propiedad es muy valorada por los usuarios, ya que permite que éstos hagan cambios y configuraciones a sus aplicaciones, sin tener que contar con alguien o requerir permisos para ello.

Es austero Linux funciona en cualquier equipo, incluida, por ejemplo una PC 386 con alguna de sus mejores ventajas, aplicaciones y desarrollos más actuales

Gran variedad Hay muchos programas libres para Linux, adaptados a muy diversos propósitos y disponibles en Internet para ser usados con GNU/Linux, además de muchos programas propietarios adaptados a Linux, por ejemplo: Zend Studio, Visual Paradigm, MatLab, entre muchos otros.

Facilidades Aunque no como Windows, Linux ya no está restringido a personas con grandes conocimientos de informática: sus desarrolladores han hecho un gran esfuerzo para dotar al sistema de asistentes de configuración y ayuda, además de un sistema gráfico muy potente. Distribuciones Linux como Red Hat/Fedora tienen aplicaciones de configuración similares a las de Windows.

Conclusiones Como se ha podido constatar, el software libre más que brindar molestias, al final dará tranquilidad para nuestra Sociedad y para sus usuarios, ya que la robustez, la flexibilidad de configuración, capacidad de adaptación del código abierto, la seguridad y rapidez, dentro de muchas otras, son propiedades de gran peso al hacer una valoración sobre GNU/Linux. Y no siempre debe primar el criterio de que porque Windows sea más cómodo, es la mejor solución para nuestro país. Siempre las fuerzas tendrían que estar divididas entre Windows y Linux, pues así se garantizaría el conocimiento de ambos y no se verían las cosas de manera unipolar. En otras palabras, además de posibilitar el conocimiento de ambos sistemas, permitiría a cualquier empresa productora de software estar preparada para realizar aplicaciones por solicitudes de cualquier cliente sobre una u otra de las dos plataformas. [GiGA 1 / 2007]

31

softweriando

Dra. Nesty Olivares Arzuaga [email protected] Lic. Ailín Vila Granda Lic. Juan Carlos Ramírez Gómez Dr.C. Norazmi Mohd Nor Dra.C. Maria Elena Sarmiento San Miguel Dr.C. Armando Acota Domínguez Instituto Finlay

E

l empleo de procedimientos para obtener estados de protección específica frente a las infecciones, vacunación, en humanos, se remonta al año 1000 a.n.e. en China. Estos antiguos reportes describen cómo el material obtenido de lesiones de enfermos afectados por la Viruela, fue utilizado para inocular a individuos sanos y conferirles un estado de resistencia frente a esta enfermedad. Posteriormente durante los siglos XVI y XVII se efectuaron prácticas similares en la India, Suroeste de Asia y África del Norte. En 1721 Lady Mary Wortley Montagu introdujo este procedimiento en Inglaterra, pero no fue hasta el año 1796 que se difundió por Edward Jenner considerado "el padre de la vacunación". A pesar de los éxitos en el control de la Viruela, se necesitó un siglo para poder tratar y comprender la esencia de la vacunación. En 1885, Pasteur, quien había demostrado el origen biológico de las enfermedades infecciosas, probó que se podía proteger contra ellas a

32

[GiGA 1 / 2007]

los individuos sanos por medio de la inyección de gérmenes atenuados, ya que este procedimiento provocaba una reacción benigna que confería inmunidad sólida y duradera contra la enfermedad. Hoy las vacunas han probado ser una herramienta muy efectiva en la prevención de las enfermedades infecciosas. Sin embargo, aún existen microorganismos que causan enfermedades y contra éstos no se han descubierto vacunas, un ejemplo muy conocido es el del Virus de la Inmunodeficiencia Humana (VIH). Por otra parte, enfermedades que se creían vencidas, como la Tuberculosis, han reemergido y su control ha vuelto a ser un reto para la ciencia y en especial para la Vacunología. De esta forma, en los comienzos del tercer milenio, las enfermedades infecciosas continúan siendo la principal causa de muerte en todo el mundo. Para la obtención de vacunas contra las enfermedades que hoy constituyen un reto, es lamentable que las

metodologías tradicionales han mostrado ser inefectivas. Sus limitaciones están determinadas fundamentalmente por la necesidad de consumir como mínimo 10 años en los ensayos de prueba y error, durante el proceso de aceptación y eliminación de los candidatos vacunales. Sin embargo, con la aplicación de las técnicas informáticas a la Biología, se han ofrecido nuevas y excitantes oportunidades para la investigación en esta área. En las últimas décadas del siglo pasado ocurrió una revolución en la Vacunología motivada por el advenimiento de las técnicas de Biología Molecular, que hicieron posible aislar y manipular la molécula que porta la información genética de los organismos, el ADN. Esta molécula determina las características de todo el universo de proteínas que se sintetizan en los organismos y con ello la función que desempeñarán en el sistema biológico. Tal acontecimiento propició la secuenciación del ADN de varios organismos con inte-

rés vacunal, es decir, se determinó el orden exacto de su composición y la información resultante se integró utilizando una complicada red de computadoras. La primera secuencia completa de un organismo vivo se publicó en 1995 y actualmente se encuentran disponibles en Internet los genomas de 242 organismos, además de una lista de otros 832 que están siendo secuenciados. La bioinformática es un término acuñado en los años 90 en respuesta al aumento de los volúmenes de datos biológicos y la facilidad de compartir esta información por Internet. Es definida como "una disciplina científica que abarca todos los aspectos acerca de la adquisición, procesamiento, almacenamiento, distribución, análisis, e interpretación de información biológica, y combina las herramientas y técnicas de las matemáticas, las ciencias computacionales y la biología con el objetivo de entender el significado biológico de una variedad de datos". A la cabeza de la disciplina de la bioinformática existe el concepto de que las entidades biológicas están compuestas por patrones. Estos patrones pueden ser identificados y la información que brindan puede entonces ser aplicada para dar solución a problemas biomédicos. La sintonía entre la biología y las herramientas computacionales ha permitido el análisis integrado de la secuencia de ADN y la expresión de los genes según las informaciones que existan en bases de datos. De esta forma si conocemos un gen, es posible determinar con probabilidad la localización en la célula de la proteína para la cual él da origen, la función de ésta, su talla molecular, solubilidad, etc. Consecuentemente la

34

[GiGA 1 / 2007]

información sobre las posibilidades teóricas que tiene una proteína presente en un organismo patógeno, para conferir protección contra la enfermedad infecciosa que causa, se encuentra contenida en la molécula de ADN. El desarrollo de una vacuna es el proceso de identificar aquellas estructuras únicas capaces de generar protección inmunológica cuando son inoculadas a un organismo. En buena medida, el éxito de cada candidato vacunal, está determinado por el agente infeccioso, el tipo de respuesta inmune que es requerida para proteger al individuo, así como sus características genéticas. Los investigadores tienen la hipótesis de que la respuesta inmune protectora hacia un patógeno puede ser generada por el reconocimiento de un repertorio de elementos derivados de las proteínas del mismo. Hoy día, con el auxilio de la bioinformática, el investigador desde su computadora puede modificar el proceso de descubrimiento de vacunas y general rápidamente un grupo de candidatos potenciales para ser analizados. Esta metodología llamada vacunología reversa, tiene como ventaja adicional la posibilidad de tener en cuenta aquellos elementos de los patógenos que normalmente se encuentran en cantidades limitadas en los cultivos de laboratorio y que es posible se omitan si se utilizara la metodología tradicional de descubrimiento de vacunas.

¿Cómo se obtiene un candidato vacunal fuera del tradicional laboratorio científico? Uno de los campos más promisorios y con mayor desarrollo en

los últimos años, ha sido la creación y aplicación de bases de datos y herramientas bioinformáticas especializadas para la modelación de los eventos del Sistema Inmune. Éstos y otros recursos se encuentran disponibles y son en su mayoría de acceso público en Internet, lo que permite su empleo en un gran número de aplicaciones. Particularmente, en lo relativo a enfermedades infecciosas, una de las mayores expectativas se enfoca hacia la Vacunología. Para la identificación de candidatos vacunales, mediante el análisis por computadora (in silico), inicialmente se accede mediante Internet al genoma del organismo patógeno contra el cual se quiere dirigir la vacuna, se analiza y se identifican todos los genes que codifican para sus proteínas, a las que además se les asigna una función probable en el sistema biológico. El segundo paso se relaciona con la determinación de la localización que tendrían esas proteínas en el agente infeccioso, es decir si se ubican en el interior o exterior de la célula. El lugar donde se localiza la proteína en cuestión, determina la efectividad de los anticuerpos que se producirían como respuesta a la vacunación. En Internet existen varios programas que integran diferentes algoritmos capaces de predecir las variantes antes mencionadas para los organismos de diversos reinos. Algunas Bases de Datos y Servidores disponibles en Internet:

softweriando Nuestra experiencia

Bases de datos de secuencias genómicas •http://www.ncbi.nih.gov/Genomes/ •http://www.ebi.ac.uk/embl/index.html •http://www.ddbj.nig.ac.jp/ Servidores para la predicción de localización de proteínas •http://www.psort.org/psortb/index.html •http://www.imtech.res.in/raghava/pslpred/ •http://www.cbs.dtu.dk/services/SignalP/ Servidores para el análisis de similitud de secuencias •http://www.ncbi.nih.gov/BLAST/ •http://www.ebi.ac.uk/fasta33/ •http://www.sanger.ac.uk/Software/ACT/ Servidores para la predicción de moléculas inmunoestimulantes •http://mif.dfci.harvard.edu/Tools/rankpep.html •http://www.jenner.ac.uk/mhcpred/ •http://imtech.res.in/raghava/im.html Algunos sitios cubanos: •http://www.bioinfo.cu/ (Centro Nacional de Bioinformática) •http://fbio.uh.cu/bioinfo/ (Facultad de Biología de la Universidad de La Habana) •http://www.biocomp.cigb.edu.cu/ (Colaboratorio de Bioinformática del Polo Científico)

Finalmente, gracias a que existe un gran número de agentes infecciosos con sus genomas secuenciados, también es posible hacer comparaciones y monitorear la variabilidad genética de diferentes organismos de una especie y seleccionar las proteínas potencialmente responsables del proceso infeccioso para utilizarlas como blanco para el diseño de vacunas.

selección de los candidatos potenciales mediante la bioinformática constituye una herramienta muy poderosa con la que se reduce potencialmente el tiempo necesario para la obtención de una vacuna. Pero de cualquier forma, independientemente de la vía por la que haya sido obtenido un candidato vacunal, éste necesita ser evaluado mediante los experimen-

Actualmente existen varios candidatos vacunales cuyo descubrimiento se basó en técnicas computacionales aplicadas a la biología y que en estos momentos son evaluados en ensayos clínicos. Una línea muy particular y en auge dentro de las estrategias vacunales, es utilizar varias estructuras identificadas como protectoras por la bioinformática y colocarlas una a continuación de otra, como cuentas en un collar, y ese diseño permite optimizar las posibilidades que la bioinformática brinda. Específicamente en tal sentido en nuestro país se trabaja en el Centro de Ingeniería Genética y Biotecnología en el diseño de candidatos vacunales contra el VIH. En el Instituto Finlay, el grupo de investigación que labora en el desarrollo de vacunas contra la Tuberculosis también utiliza una metodología bioinformática similar para la obtención de candidatos vacunales contra esta enfermedad. Sus resultados serán debatidos en una de las sesiones del simposio sobre Vacunas contra la Tuberculosis que se realizará durante el mes de mayo próximo en Varadero (http://www.bvv.sld.cu/tbvaccines07/ ). La Bioinformática nos ha dado alguna ventaja en la lucha frente a los organismos que causan enfermedades infecciosas y tiene un valor inestimable, pero sólo si se utiliza combinada con los otros métodos de obtención y evaluación de vacunas.

Bibliografía

El proceso de obtención de una vacuna se acelera al emplear en lugar de los métodos tradicionales (izquierda), las nuevas herramientas bioinformáticas (derecha).

¿Dadme la bioinformática y moveré el mundo? En la investigación de vacunas, la

tos de laboratorio (análisis in vitro) y de los experimentos en seres vivos (análisis in vivo). De cualquier modo, esta etapa del proceso podría consumir unos 10 años y sus resultados son los que definen en última instancia la utilidad o no del candidato vacunal desarrollado.

•Benton D. Bioinformatics principles and potential of a new multidisciplinary tool. Trends Biotechnol 1996; 14: 261-72 •Brusic V, Bajjic VB, Petrovsky N. Computational methods for prediction of T-cell epitopes, a framework for modeling testing, and applications. Methods 2004; 34:436-443 •De Groot AS, Berzofsky J. From genome to vaccine, new immunoinformatics tools for vaccine design. Methods 2004; 34:425-428 •Norazmi MN, Sarmiento ME, Acosta A. Recent Advances in Tuberculosis Vaccine Development. Current Respiratory Medicine Reviews 2005;1: 109-116 •Rodríguez EG, Vázquez DM, Herrera AM, Duarte CA. Enhanced cell-mediated IFNgamma-secreting activity against the HIV-1IIIB V3 peptide of the TAB9 multiepitope after DNA vaccine backbone engineering. Biochem Biophys Res Commun. 2003; 308: 713-8 •Yero D. De la secuencia de un genoma bacteriano a la identificación de candidatos vacunales. VacciMonitor 2006;15:23-29 •Zagursky R. Vaccine discovery research by reverse engineering. Drug Discov Today. 2003; 8: 972-3 [GiGA 1 / 2007]

35

enredados

Ing. Victor Román Sanz Fajardo [email protected] ETECSA Ing. Osmany Vera Carballés [email protected] PcMax - Copextel

E

n un enlace de comunicaciones donde esté presente la técnica OFDM, los bits son modulados sobre las subportadoras de alguna forma, más frecuente en PSK o QAM. Para estimar los bits en el receptor, se requiere conocer acerca de la fase y amplitud de referencia en la constelación de cada subportadora, en la que se muestra un desplazamiento de fase aleatorio y una amplitud cambiante, causados por los corrimientos de frecuencia y tiempo, así como el desvanecimiento selectivo de frecuencia. Para seguir estas variaciones de fase y amplitud existen dos métodos diferentes. El primero es la detección coherente que usa la estimación de las fases y amplitudes de referencia para determinar la mejor decisión posible dentro de la constelación de cada subportadora. El principal problema de este método está en cómo encontrar los valores de referencia sin introducir demasiadas cabeceras de los símbolos de adaptación. El segundo método es la detección diferencial, el cual no usa los valores de referencia, solamente mira la diferencia de fase y/o amplitud entre dos valores QAM. La detección diferencial puede ser implementada tanto en el dominio del tiempo como en el de la frecuencia. Para el primer caso, cada subportadora es comparada con la subportadora del símbolo OFDM anterior. En el caso de la detección diferencial implementada en el dominio de la frecuencia, cada subportadora es comparada con la adyacente con el mismo símbolo OFDM. La detección diferencial implica codificación diferencial, que no se recomienda en el estándar.

Detección coherente En la figura 1 se muestra el diagrama en bloques de un receptor OFDM simple, con una etapa de detección coherente. Después de la recepción y selección de la señal, se realiza la conversión de formato analógico a digital, la transforma-

36

[GiGA 1 / 2007]

da rápida de Fourier (FFT) se usa para la demodulación en N subportadoras que conforman la señal OFDM. Para cada símbolo, la FFT a su salida entrega N valores QAM. Sin embargo, estos valores contienen variaciones en sus amplitudes y desplazamientos de fase aleatorios causados por la respuesta del canal y corrimiento en la frecuencia del oscilador local, entre otras. La tarea del bloque estimador de canal es aprender las amplitudes y fases de referencia para todas las subportadoras, de forma tal que los valores QAM puedan ser convertidos a decisiones binarias favorables. (Ver figura 1)

tadoras y también entre símbolos de la señal piloto. Pero si se escoge un espacio mucho más pequeño que el mínimo requerido se puede hacer un buen estimado con un algoritmo relativamente fácil. Mientras más señales pilotos se usen, más disminuirá la relación señal/ruido (SNR). La densidad de señales pilotos es una relación de compromiso entre la respuesta de la estimación del canal y la disminución de la SNR. Para determinar el mínimo espaciamiento entre las señales pilotos, tanto en tiempo como en frecuencia, se necesita encontrar el ancho de banda de la variación del canal en tiempo y en fre-

Figura 1. Diagrama en bloque de un receptor simple OFDM con detección coherente.

Estimador de canal de dos dimensiones Los canales de radiocomunicaciones generalmente tienen desvanecimientos, tanto en tiempo como en frecuencia. Por ello, es necesario un estimador de canal para calcular las amplitudes y fases de las subportadoras del sistema. Una de las formas para lograr esta tarea es la estimación en dos dimensiones, que se realiza mediante la apreciación de los valores de referencia. En este caso, la señal tiene cuatro subportadoras que contienen los valores conocidos para la estimación. Para lograr la interpolación en el proceso de estimación, tanto en tiempo como en frecuencia, los espacios entre subportadoras pilotos deben cumplir con el teorema de muestreo de Nyquist. El intervalo de las muestras debe ser más pequeño que el inverso del doble del ancho de banda de la señal muestreada. Para el caso de OFDM, significa que existe un mínimo espacio entre subpor-

cuencia, el cual es igual al error producido por el efecto Doppler y se conoce como esparcimiento Doppler Bd en el dominio del tiempo, la máxima demora de este esparcimiento en el dominio de la frecuencia se denota como τmax. De aquí que los requerimientos de los esparcimientos entre las señales pilotos en tiempo y frecuencia estén dados por:

Estas simples ecuaciones pueden emplearse para estimar el límite teórico del sistema propuesto en el estándar. En términos de efecto Doppler, y considerando que las señales pilotos son transmitidas continuamente, el espacio entre éstas no tiene un límite.

enredados El espaciamiento en frecuencia impone un límite debido al esparcimiento sufrido. Las señales pilotos son las subportadoras -21, -7, 7 y 21, lo que significa que el espacio entre éstas es 4,375 MHz debido a (21x0,3125 MHz), en estas condiciones, el máximo τmax será permitido hasta 228 ns. En la literatura son varios los algoritmos para estimar el canal OFDM. Este algoritmo puede usarse con los parámetros indicados por el estándar y de acuerdo con lo anterior, las señales pilotos deber ser moduladas en BPSK por una secuencia pseudobinaria para evitar la generación de líneas espectrales. La contribución de las subportadoras pilotos para los N símbolos OFDM es producida por la secuencia de la serie de Fourier dada a continuación:

La polaridad de las subportadoras pilotos es controlada por la secuencia pn, la cual es una extensión cíclica de los 127 elementos de secuencia, pn está dada por:

La secuencia pn puede ser generada por el circuito mostrado en la figura 1. El estado inicial en todos es "1" y para remplazarlos con "-1" y todos los "0" con "1", cada elemento de la secuencia es usado para un símbolo OFDM. (Ver figura 2) Las técnicas de estimación de canal fueron diseñadas para estimar un canal cambiante en tiempo y frecuencia y son especialmente apropiadas para sistemas de transmisión continua como los

de audio y vídeo digital, tanto junto como por separado, y ello se tuvo en consideración en el estándar. De acuerdo con la referencia número 2 se reconoce que esos sistemas no son muy recomendables para transmisiones de paquetes por dos razones. • La primera: en muchos sistemas de transmisión de paquetes, como el caso WLAN, las longitudes de los paquetes son muy cortas para considerar el canal constante durante la longitud de un paquete. Esto significa que no hay necesidad de estimar el tiempo de atenuación, lo cual simplifica grandemente la problemática de estimación del canal. • En segundo lugar, usan pilotos espaciados sobre varios símbolos OFDM de datos, que introduce una demora de varios símbolos antes de que la primera estimación del canal sea calculada. Un retardo siempre es indeseable en transmisión de paquetes como es el caso del estándar 802.11a para WLANs, que requiere un reconocimiento, ACK, después de cada paquete transmitido. Cualquier demora en la recepción de un paquete, también retardará el ACK y comienza a disminuir la tasa de transferencia efectiva del sistema. Una desventaja es que el receptor necesitará almacenar varios símbolos OFDM, y ello implica que el receptor requiera circuitos adicionales para esa función. Sin embargo, en las aplicaciones con atenuaciones y errores provocados por efecto Doppler, como la señal entre un punto de acceso (AP) y un suscriptor colocado en un automóvil moviéndose por una autopista, las señales pilotos pueden ser convenientes para mejorar la relación bits/error (BER). Los canales móviles introducen distorsión por multitrayectorias, la amplitud y fase de la señal se degradan y las características del canal cambian debido al movimiento del subscriptor, en este caso un auto. A menudo, el problema radica en decidir cuándo y cómo se insertan los símbolos pilotos. El espaciamiento entre los símbolos pilotos será el más pequeño posible para permitir una apreciación confiable del canal y lo suficientemente espaciado para no aumentar demasiado las cabeceras.

Figura 2. Generador de secuencia para las subportadoras pilotos

El impacto de los símbolos pilotos fue estudiado por Carvers, quien hizo un exhaustivo análisis teórico para sistemas de una sola portadora y puntualiza en su análisis que el 14% de los símbolos enviados sean del tipo piloto para hacer viables y manejables grandes valores de Doppler (fdTs=0,05), lo que significa que el esquema estándar de símbolos pilotos pudiera ser redundante. Asimismo, F. Tufvesson y T. Maseng analizaron varios esquemas de símbolos pilotos para sistemas OFDM, y llegaron a la conclusión de que la habilidad más confiable para estimar el canal cuando esté cambiando, por ejemplo, un auto en movimiento, depende en gran medida del esquema de símbolos pilotos usado. Si se reestructura el esquema de símbolos pilotos es, en algunos casos, posible manipular hasta 10 veces la mayor frecuencia Doppler y reducir el número de símbolos necesarios para esta frecuencia, manteniendo constante el BER. Alternativamente, se pueden usar nuevos esquemas de símbolos pilotos para variar el BER y con ellos la tasa efectiva de transferencia de datos. El método de estimación del canal es una función muy importante en los receptores OFDM porque lo hacen más resistentes al desvanecimiento y al efecto Doppler, sobre todo en sistemas móviles. Los sistemas WLANs son una aplicación muy importante para OFDM y el desarrollo del estándar promete tener no sólo un gran mercado, sino también varias aplicaciones en ambientes muy diversos.

El problema de los picos de potencia en OFDM Uno de los problemas más serios en las transmisiones de OFDM es que tiene una relación de potencia pico promedio muy elevada. En otras palabras: el problema aparece cuando las amplitudes de la señal transmitida se hacen extremas. La señal OFDM es básicamente la suma de N variables aleatorias complejas, cada una de las cuales es una señal compleja modulada en diferentes frecuencias. En algunos casos, todos los componentes de la señal se pueden sumar en fase y producen una salida prolongada. En otros, las señales se cancelan y producen un cero a la salida. Debido a esto, la relación de potencia pico contra potencia promedio (PAR) en los sistemas OFDM es muy grande. Se han realizado muchas investigaciones referentes a la problemática del PAR en los sistemas OFDM (ver [GiGA 1 / 2007]

37

enredados Referencias). En las siguientes secciones se verá algunas de las más comunes e importantes técnicas para erradicar esta problemática.

Linealidad de los amplificadores En la práctica, los amplificadores reales poseen un rango de entrada sobre el cual tienen una curva de transferencia lineal. Normalmente la linealidad de los amplificadores no ideales se mide usando el punto de compresión a 1dB, que se define como: La potencia de entrada a la cual la potencia de salida del amplificador es menor de 1dB que la potencia de salida obtenida con un amplificador ideal. Este problema de la PAR se debe tener en cuenta mucho más en el transmisor. Para evitar los recortes en la forma de onda transmitida, los amplificadores que componen toda la estructura del transmisor deben tener un gran intervalo dinámico, de forma que incluyan en su respuesta de frecuencia los picos de las formas de onda transmitidas, que encarece considerablemente el sistema y requiere un gran consumo de energía. Los conversores digitales a analógicos (DAC) y los analógicos a digitales (ADC) que posea el sistema deben tener también un gran intervalo dinámico.

Recorte Una característica importante de la PAR en OFDM es el hecho de que el promedio de símbolos OFDM transmitidos con gran PAR es pequeño y disminuye con el aumento del número de subportadoras. Por lo tanto en este caso, una solución simple al problema de la PAR podría ser el recorte, limitando los picos de las amplitudes a un nivel máximo. Aunque esta solución presenta algunas desventajas: • El recorte produce un tipo de autointerferencia que provoca una degradación del BER. • La distorsión no lineal provocada por el recorte aumenta la radiación fuera de banda. El aumento de la radiación fuera de banda ocurre porque la operación de recorte es una multiplicación del símbolo OFDM con una función rectangular que vale 1, si la amplitud está por debajo del umbral, y un valor más pequeño si la amplitud está por encima. Esta forma de onda rectangular aumenta la radiación fuera de banda y como resultado el espectro tiene un comportamiento en forma roll-off que es inversamente proporcional a la frecuencia.

38

[GiGA 1 / 2007]

El problema del espectro roll-off se puede superar en alguna medida aplicando el mecanismo de ventana a la forma de onda rectangular recortada. Varios mecanismos de ventana son propuestos en la literatura, los más comunes resultan el Gausiano, Coseno alzado, Hamming y Kaiser. Estudios de simulaciones han demostrado que una ligera degradación del BER ocurre con el recorte. Cuando se aplica el mecanismo de ventana, el comportamiento del BER es peor que aplicando solamente el recorte ya que una gran porción de la señal es más afectada por este mecanismo que por el recorte. El backoff requerido por el amplificador de potencia puede ser determinado por la relación entre la atenuación de las componentes espectrales fuera de banda y las componentes espectrales en banda. Se ha demostrado que el mecanismo de ventana ofrece 3 dB de ganancia en el backoff requerido cuando se compara con el recorte.

Control de errores mediante codificación Uno de los problemas del recorte es la degradación del BER. Específicamente, los símbolos que tienen una PAR elevada son vulnerables a errores. Para reducir este efecto se puede aplicar la codificación de los símbolos mediante un codificador que utilice la técnica FEC. Cuando la codificación se aplica, los errores pueden ser corregidos por los símbolos circundantes.

Cancelación de picos Otro método para eliminar los picos en una señal OFDM es restando una función de referencia ajustada y de duración cambiante de forma tal que cada sustracción reduzca el pico de potencia de al menos una muestra de la señal. Esta función es escogida de forma tal que tenga aproximadamente el mismo ancho de banda que la señal transmitida. La función de cancelación de picos más usada es la función sin c(x) por tener buenas propiedades en el dominio de la frecuencia para el objetivo que se desea alcanzar. La función sin c(x) se puede limitar en tiempo multiplicándola con una ventana de coseno alzado. Se ha demostrado que la técnica de cancelación de picos genera menos interferencia fuera de banda que las técnicas de recorte y el mecanismo de ventana. Otra ventaja importante de

la técnica de cancelación de picos es que puede implementarse digitalmente mediante la IFFT en el transmisor.

Empleo de código para reducción de PAR Una buena solución para disminuir el problema de la PAR es el uso de técnicas de codificación. La PAR puede reducirse con el uso de un código que solamente produzca símbolos OFDM, los cuales tendrán una PAR reducida a un nivel deseado. La relación entre la PAR y la codificación es que mientras mayor sea la reducción de la PAR se necesitará una velocidad de código más baja. Se ha demostrado que es posible construir códigos R=3/4 que proporcionan una PAR máxima de 3 dB. Otro resultado interesante es que las propiedades de correlación de secuencias complementarias pueden traducirse en una pequeña relación PAR de -3dB cuando estos códigos son usados para modular un símbolo OFDM. Estos resultados se basan en el empleo de las secuencias complementarias de Golay para la generación de dichos códigos. Las secuencias complementarias de Golay son pares de secuencias para las cuales la suma de la función de autocorrelación es cero, para todos los retardos que no son cero. Se han publicado muchas investigaciones sobre el uso del código Golay para las transmisiones de OFDM que tratan sobre la generación eficiente de estos códigos y el óptimo proceso de decodificación entre otras propiedades interesantes.

Técnica de cifrado de símbolos La idea básica de esta técnica es que, para cada símbolo OFDM, la secuencia de entrada es cifrada para un cierto número de secuencias cifradoras. La señal de salida lograda se transmite con una pequeña PAR. Si la PAR para un símbolo OFDM tiene una probabilidad de excederse p un cierto nivel sin cifrado, este mismo símbolo tiene la probabilidad de excederse pk un cierto nivel con cifrado, donde la secuencia de cifrado tiene k códigos cifradores. Como pk > p se puede inducir que el cifrado reduce la probabilidad de ocurrencia de símbolos con PAR elevada.

Conclusiones En términos de inconvenientes OFDM, tiene: • En la creación de los símbolos OFDM se puede generar ruido con un intervalo dinámico muy amplio, que requiere en el sistema amplificadores de potencia de radio frecuencia (RF) con una relación máxima pico de potencia contra potencia promedio (PAR) muy grande. • Es más sensible al desplazamiento y fluctuación en frecuencia de las subportadoras que los sistemas FDM convencionales debido a un pequeño error de escape en la DFT.

Referencias 1. Proakis, J. G: "Digital Communications", Prentice Hall, 3rd edition, 1995. 2. Van Nee, R., Prasad R: "OFDM for wireless Multimedia Communications". Artech House, Boston, pp 80-81, 2000. 3. Cavers, J. K: An Analysis of Pilot Symbol Assisted Modulation for Rayleigh Fading Channels, IEEE Trans. Vehic. Tech, vol 40, no 4, pp 686-693, noviembre de 1991. 4. Tufvesson, F, Maseng, T: Pilot assisted channel estimation for OFDM in mobile cellular systems, IEEE 47th Vehicular Technology Conference Technology in Motion, Phoenix, AZ, USA, 4-7 May 1997, vol.3 pp.1639-43, 1997. 5. May T., Rohling H: "Reducing the Peak to Average Power Ratio of OFDM Radio Transmission Systems", Proceedings of IEEE VTC '98, Ottawa, Canada, pp. 2474-2478, del 18 al 21 de mayo de 1998. 6. Li X., Cimini L. J: "Effects of Clipping and Filtering on the performance of OFDM", Proceedings of IEEE VTC '97, pp. 1634-1638, 1997. 7. Wilkinson T. A, Jones A. E: "Minimization of the Peak-To-Mean Envelope Power Ratio of Multi-Carrier Transmission Schemes by Block Coding", Proceedings of the IEEE VTC, Chicago, pp. 825-829, julio de 1995. 8. Davis J. A., and Jedwab J: "Peak-toMean Power Control and Error Correction for OFDM Transmission Using Golay Sequences and Reed-Muller Codes", Electronics Letters, Vol. 33, pp. 267-268, 1997. 9. Bruce Carlson A: "Comunication Systems", Tomado de la edición original de 1968 por el Instituto Cubano del Libro, 1971. pp 56-60.

Google earth, el mundo desde el cielo ¡Genial!

A

hora viajar por todo el mundo se puede hacer con solo jugar con el ratón de la PC. El motor de búsqueda Google dispone de una nueva herramienta que ofrece imágenes satelitales de todo el planeta. También tiene un banco de fotos aéreas de los países. Google Earth (Google Tierra) es el nuevo programa gratuito del ya famoso buscador, y es seguro que en muy poco tiempo se hagan exclamaciones de elogio. Y es que Google Earth muestra el mundo como nunca antes lo hizo programa alguno. Transfiera Google Earth (http://earth.google.com) y, a los pocos minutos después de la instalación, estará viendo desde el espacio exterior esa pequeña bola azul que llamamos Tierra. Debe escribirse una ubicación en la ventanilla titulada "fly there" ("volar allí") y descenderá con el zoom desde el espacio exterior, para ver ante sus ojos la topografía, países y ciudades. Pero la magia llega al pulsar de nuevo el zoom y Google Earth dará aún más detalles. El programa usa imágenes de alta resolución sacadas de numerosas fuentes, incluyendo aquellas hechas desde satélites y aviones en los últimos tres años, para dar al espectador una representación del lugar que se desea ver o identificar. Pero no se inquiete por anticipado: lo que usted ve en Google Earth no son datos a tiempo real, aunque lo que se puede ver es ya mucho. Una lista completa de las regiones cubiertas en alta resolución se encuentra disponible en la Lista de Cobertura (Coverage List). El viaje se puede comenzar, por ejemplo con lugares como Nueva York, París o el Gran Cañón en Arizona para conocer el detalle increíble

que puede exhibir este programa. En Nueva York, es posible mirar la ciudad desde una altura de 330 metros, y "volar" sobre toda la isla de Manhattan y sus alrededores. Estando en Nueva York, al buscar Medellín, se iniciará un nuevo "vuelo" sobre el océano Atlántico a una altura aproximada de 800 kilómetros para "aterrizar", en pocos segundos, sobre la capital antioqueña, la cual puede verse en detalles desde una altura aproximada de 14 mil metros. Pero esta herramienta tiene características particulares. Una misma panorámica de un lugar puede estar compuesta de dos a cinco imágenes, que se apreciarían realizando un acercamiento. Pero hay más: ¿Se quiere saber cómo ir de Nueva York a las cataratas del Niágara? Simplemente se escribe el punto de origen y el de destino, y además de una ruta detallada, se visualizará en el mapa el recorrido correspondiente. Los halagos llegan desde todas partes incluidos los expertos en el tratamiento de imágenes capturadas por satélites que reconoce que este servicio es bueno, llamativo y rápido. Google Earth, aparte de la diversión que significa el recorrer todo el mundo desde la PC, permite una amplia utilización tanto para usos empresariales como personales. Es una herramienta ideal para planificar viajes y rutas turísticas o también para acudir a tiendas al unir la información cartográfica con los servicios que se ofrecen en los alrededores del lugar que estamos observando. Además, y ya en un entorno más profesional, se puede usar para estudios regionales de bosques, zonas erosionadas, planificación urbana, entre otras. La aplicación depende de su creatividad. [GiGA 1 / 2007]

39

enredados

B

log, weblog, bitácora… sin duda una palabra de moda, uno de esos términos que de la noche a la mañana hemos comenzado a ver repetido en todas partes. Aunque aparecieron a finales de los años 90 se puede considerar el 2004 como su año de explosión en la red de redes anglosajona, pero no fue hasta los últimos meses del 2005 cuando el fenómeno irrumpió definitivamente en el mundo hispanohablante. Veamos cómo se define Pero ¿qué es exactamente un blog? ¿Qué lo distingue de cualquier otro tipo de sitio web? Se puede resumir que un weblog es una publicación online con historias publicadas con mucha periodicidad que son presentadas en orden cronológico inverso, es decir, lo último que se ha publicado es lo primero que aparece en la pantalla. Es muy habitual que dispongan de una lista de enlaces a otros weblogs (denominada blogroll) y suelen disponer de un sistema de comentarios que permite a los lectores establecer una conversación con el

40

[GiGA 1 / 2007]

autor y entre ellos acerca de lo publicado. Es propio de los weblogs hacer un gran uso de los enlaces a otros blogs y páginas para ampliar información, citar fuentes o hacer notar que se continúa con un tema que empezó otro weblog. Pero eso no es todo. ¿Se trata de un formato de página y algunos enlaces? Entonces, ¿qué hace de los blogs el fenómeno más interesante de la Web en los últimos años? Grupo o comunidad Alrededor de un blog se forma una comunidad de lectores. Así, si estamos en un blog sobre cine, es fácil reconocer entre sus lectores a los mayores aficionados al Séptimo Arte de la red enfrascados en mil y un debates. Y es más, muchos de esos lectores serán a su vez editores de otro blog y probablemente continúen las historias que leen en sus propios weblogs, aunque conviene destacar que estas bitácoras son esencialmente diferentes de los foros: sólo los editores comienzan la conversación y ellos definen la temática y el estilo del sitio. Ésta es una característica muy

enredados que favorecen este tipo de relaciones, en los blogs se escribe con un estilo directo, cercano. Se conversa. No se trata de encontrar una fría crónica de un articulista que preferiría, es escuchar la opinión de alguien apasionado por un tema y con el que se habla desde hace tiempo.

importante: un weblog es también la página donde su creador (o creadores) recogen lo más interesante de lo publicado en Internet relacionado con la temática que trate y actúa a modo de filtro para sus lectores. Además, contrario a los foros, los blogs están volcados hacia afuera, no hacia adentro: quedan muy bien situados en los resultados de los buscadores y enlazan y son enlazados mucho más. Simplicidad Crear y editar un blog básico es tan sencillo como acceder al correo electrónico. Los deseos o interés de contar historias, opinar y conversar están ahí, los weblogs se han erigido en la herramienta asequible que buscan muchas personas. Hacer un buen blog teniendo en cuenta los mecanismos que subyacen en el género es cuestión de conocimiento y talento. Cuestión de familiaridad Otro aspecto fundamental para entender el fenómeno blog es que se crean relaciones de confianza. Hay aspectos éticos que inciden: citar fuentes, reconocer cuando uno se ha equivocado al corregir a un lector e indicar los cambios que se realicen luego de la edición original; también hay rasgos de estilo

Cómo difundirlos El auge de los blogs es un hecho sin precedentes. Todos los grandes de Internet, con la excepción de algunas empresas pioneras, han presentado tecnologías para la edición de blogs. Se estima que el número total de blogs se dobla cada cinco meses. Durante el primer trimestre del 2005, el 30% de los internautas estadounidenses leía algún blog (unos 50 millones de lectores de blogs) y la cifra en los últimos meses ha ido aumentando. Pero, además, 8 de cada 10 periodistas leen blogs, lo que también ayuda a explicar su enorme influencia indirecta. En la Internet hispanohablante, las cifras son más humildes, pero la tendencia es idéntica. En Microsoft, Sun o Intel lo usan como medio de comunicación de sus empleados o con sus clientes. Unos 2 800 trabajadores de IBM, por ejemplo, tienen su blog, mientras Amazon los utiliza para hacer que los escritores de los libros que venden, conversen con sus lectores. Numerosos medios de comunicación, aunque a veces de forma poco acertada, se han subido al carro y han añadido weblogs a su versión digital. Y numerosas empresas van más allá y los ven como un efectivo soporte publicitario: Sony, Nokia, Nike, Sanitas o Amazon ya se anuncian en varios blogs. Para crearlo y mantenerlo: herramientas Existen diferentes herramientas de mantenimiento de blogs que permiten, muchas gratuitas, sin necesidad de elevados conocimientos técnicos, administrar todo el weblog, coordinar, borrar o reescribir los artículos, moderar los

comentarios de los lectores, etc., de una forma casi tan sencilla como administrar el correo electrónico. Hoy su modo de uso se ha simplificado a tanto que casi cualquier usuario es capaz de crear y administrar un blog. Las herramientas de mantenimiento del blog se clasifican principalmente en dos tipos: las que ofrecen una solución completa de alojamiento, gratuita (como Blogger y LiveJournal), y aquellas que consisten en software que, al instalarse en un sitio web, permiten crear, editar y administrar un blog directamente en el servidor que aloja el sitio (como es el caso de WordPress o de Movable Type). Este software es una variante de las herramientas llamadas Sistemas de Gestión de Contenido, y muchos son gratuitos. La mezcla de los dos tipos es la solución planteada por la versión multiusuario de WordPress (WordPress MU) a partir de la cual se pueden crear plataformas como Rebuscando.INFO o Wordpress.com. Las herramientas que proporcionan alojamiento gratuito asignan al usuario una dirección web (por ejemplo, en el caso de Blogger, la dirección dada termina en "blogspot.com"), y proveen de una interfaz, con la que puede añadir y editar contenido. Sin embargo, la funcionalidad de un blog creado con una de estas herramientas se limita a lo que pueda ofrecer el proveedor del servicio u hosting. Un software que gestione el contenido, en tanto requiere necesariamente, de un servidor propio para ser instalado, igual a como se hace en un sitio web tradicional. Su gran ventaja es que permite control total sobre la funcionalidad que ofrecerá el blog, permitiendo así adaptarlo totalmente a las necesidades del sitio, e incluso combinarlo con otros tipos de contenido. En definitiva, los blogs han venido para quedarse. Más que como competencia del periodismo tradicional, como complemento. (Tomado y reelaborado de Internet por Norma Márquez). [GiGA 1 / 2007]

41

joystick Luis Yasser Vila

N

adar contra la corriente no es muy aconsejable, eso suelen decir cuando se intenta efectuar cambios o reformas. Sin embargo, existen los valientes que se enfrentan a la furia de las críticas y alcanzan su objetivo. Esa ha sido, es y será parte de la filosofía de Nintendo, una compañía que generación tras generación ha marcado pautas en la manera de hacer y controlar los videojuegos. Desde su funcional control para Nes, la innovación es la materia prima de la gran N, un ingrediente que al parecer termina cuajando y marca la tendencia a seguir por la industria. Basta con recordar cómo los botones L y R (Left y Right) se estandarizaron en la mayoría de los controles existentes hasta la fecha, o cómo el sistema de cámaras utilizado en Super Mario 64 se consolidó como base en los posteriores juegos tridimensionales de plataforma. No obstante, como complemento a sus propuestas Nintendo suele echar mano de contenidos didácticos, a la par que divertidos, y fórmulas de sencillez en el manejo, comúnmente interpretadas como infantiles, pero que en realidad buscan la proximidad de esas personas que jamás, por temor o desconocimiento, han tenido contacto con el fantástico universo del entretenimiento digital. Éste fue uno de los objetivos del proyecto Revolution, hoy una realidad bajo el nombre Wii, que en menos de dos meses ha cautivado a 4 millones de usuarios. De cómo se originó la idea, su lanzamiento, prestaciones, futuro y más se comentará en este trabajo, porque sin lugar a duda es Wii, la revolución prometida.

42

[GiGA 1 / 2007]

Revolution la célula de Wii Justo después que GameCube irrumpiera en el mercado, el gigante de Kyoto comenzó a trabajar en su heredera, una consola cuyo concepto no estuvo claro hasta casi un año más tarde, cuando se decidió utilizar la tecnología en función del juego y convertir el mando en una extensión del jugador. Abandonar el camino de los supergráficos y la potencia, significaba tomar una dirección inversa a la competencia, reinventando la forma de jugar. Pero Nintendo decidió arriesgar y comenzó a materializar su idea. En el año 2005, tras varios años de labor, un primer prototipo de Revolution fue mostrado en la feria del E3. En aquella ocasión, la ausencia del mando despertó toda clase de especulaciones sobre sus características.

inicios como una idea alocada, la nueva y revolucionaria consola de Nintendo estaría en los comercios estadounidenses el 19 de noviembre, mientras que en Japón y Europa la verían en el 2 y el 8 de diciembre respectivamente.

Una consola poderosa

Esta base permite a Wii permanecer en una posición vertical

En mayo del 2006, el gigante de Kyoto comenzaría a desvelar los misterios de su consola a cuentagotas. Lo primero fue su verdadero nombre: Wii. Le siguió el turno a las funciones Virtual Console, WiiConnet 24 y por fin el esperado control: Wii Remote. De este modo, a cinco años de sus

Incluye 4 puertos para controles de GameCube y dos ranuras para sus tarjetas de memoria

Aunque muchos la consideran una GameCube avanzada, lo cierto es que Wii esconde un gran potencial. Técnicamente este sistema cuenta

joystick con 512 Mb de memoria flash interna, aumentables, una CPU basada en Power PC bautizada como Broadway y desarrollada en conjunto con IBM, un procesador gráfico diseñado por Ati, también con nombre artístico: Hollywood, dos puertos USB 2 y una ranura de tarjetas SD. Como es lógico, al ser retrocompatible con los juegos de GameCube, incluye cuatro puertos para los controles de esta consola y dos ranuras para sus tarjetas de memoria. Además, Wii opera una tecnología avanzada de semiconductores que reduce al mínimo el uso de engría, que posibilita la recepción de nuevos contenidos e información, aun cuando la consola esté apagada, y es lo que se conoce como WiiConnet 24. En cuanto a las funciones online, la consola viene preparada para conectarse a Internet vía Wi Fi, pues incorpora una conexión estándar de este tipo.

nantes. Su señal inalámbrica tiene un alcance de diez metros, distancia que disminuye en los juegos dónde es necesario apuntar. Se alimenta de dos baterías AA y tiene una autonomía de 60 horas o menos, según el juego y los complementos que se le incorporen. Esta maravilla del ingenio cuenta también con efecto de vibración, una memoria interna de 6 kb para guardar preferencias y un altavoz para reproducir sonidos independientemente. Es decir, si se jugase al béisbol, serían escuchados los batazos en el control, una particularidad que imprime realismo a la experiencia de juego.

Para jugar con la izquierda

Así se fusionan Wiimote y Nunchako

Concebido por un equipo de diseñadores e ingenieros de altísimo nivel, el Wii Remote o Wiimote, como se le conoce popularmente, es fruto del estudio, la experimentación y por supuesto, la más avanzada tecnología. Sencillo y cómodo para cualquier mano, su secreto reside en un sensor de movimiento con seis ejes capacitado para interactuar con la consola mediante tecnología Bluetooth en un entorno tridimensional. Esta técnica, conocida como "acelerómetro", determina, incluso, si el mando está en posición vertical u horizontal, reproduciendo cualquier maniobra con una fidelidad y rapidez impresio-

Nunchako, etc.) destacan la disposición de sus botones, y la comodidad de su manipulación, así como la elección del color blanco para el modelo estándar. El azul galáctico que emana su ranura para discos imprime un toque moderno y diferente que es válido reseñar. Se debe mencionar que bajo su aparente fragilidad, Wii es una máquina resistente, que superó los rigurosos controles de calidad a que se someten todos los productos de Nintendo.

Uno para los de siempre

La verdadera revolución

Visión panorámica el Wiimote.

Así se presenta Wii

El Nunchako, complemento del Wiimote, va conectado a éste por medio de un cable, pues no puede usarse solo. Al igual que su hermano derecho, cuenta con la tecnología de acelerómetro para controlar la acción basándose en el movimiento. Su joystick analógico ofrece un diseño muy trabajado, parecido a los de GameCube. En la parte inferior, el Nunchako tiene dos botones, C y Z, este último con una estructura en forma de gatillo. Como no utiliza baterías (se alimenta del Wiimote) su peso es sorprendentemente ligero.

Un diseño futurista Con unas dimensiones de 44 mm de ancho, 157 de alto y 215,4 mm de largo, Wii hace galas de estar entre las consolas de sobremesa más reducidas de la historia. Su compacto diseño de estética futurista prescinde de tapas o bandejas que limiten su espacio, que convierte el rincón más estrecho, ya sea vertical u horizontal, en el sitio idóneo para su colocación. En cuanto a sus componentes (Wiimote,

Por supuesto que Nintendo no iba a decepcionar a sus files seguidores, más cuando Wii ofrece 20 años de clásicos por su sistema Virtual Console. Para esos usuarios, se diseñó el mando clásico: un híbrido entre el joypad de Super Nes y el de GameCube, pero con una estética depurada y completamente moderna.

El mando clásico una creación del presente para disfrutar el pasado

Este control de pequeñas dimensiones (65,7mm x 135mm x 26mm) cuenta con los tradicionales select, star, X, Y, A y B, una cruceta direccional, dos joysticks, los botones superiores L y R, más un Z1 y Z2 entre ambos. Y como el Nunchako, sólo funciona si se conecta al Wii Remote.

La magia de una barra Colocada junto al televisor, bien encima o debajo de la pantalla, la barra sensora (como se denomina) maneja las acciones realizadas desde el control por medio de un receptor situa[GiGA 1 / 2007]

43

joystick do en cada uno de sus extremos. Con unos 20 cm de largo, su presencia no estorba, ni siquiera llama la atención, pues su estilo es deliberadamente discreto. Su fiabilidad está comprobada, aunque su rendimiento puede fallar en caso de estar expuesta directamente a luces halógenas intensas.

La barra sensora recepciona la señal del Wiimote

Los periféricos Actualmente los periféricos disponibles para Wii se pueden contar con los dedos de una mano, no obstante, son muchos los inventos que pronto acompañarán a los jugadores en sus partidas. El Zapper Style, por ejemplo, trasformará el Wiimote en una especie de pistola muy semejante a la antigua usada para Nes.

diversas herramientas, al más puro estilo photoshop. Del tiempo: Posibilita conocer la previsión del tiempo desde y en cualquier lugar del mundo. Su actualización es permanente. De Internet: Permite la navegación por Internet con el empleo de las mismas opciones y disposición de contenido que una computadora. Mii: Sus aplicaciones posibilitan modificar desde los ojos hasta la estatura, e incluso agregar complementos como gafas o gorras con el fin de crear un Mii, una especie de avatar personal, utilizable para ciertos juegos como Wii Sports. De Noticias: Es una especie de boletín informativo que refleja los últimos acontecimientos de todo el mundo. Su contenido está a cargo de la CNN y se renueva frecuentemente como el canal del tiempo. Posibilita seleccionar los temas por preferencia: deportes, cultura, etc. Canal Juego: Su función reproduce el juego introducido en la consola y detecta si es un mini disco para GameCube o un disco para Wii. De Compras: Básicamente se trata de una tienda. Su contenido permite la compra de los Wii point (puntos Wii) y la descarga de juegos clásicos disponibles en la consola virtual. Canal Mensajes: Con un sistema muy similar al de los correos electrónicos admite el envío y recepción de mensajes, ya sea de consola a consola, de ordenador a Wii, etc.

un acuerdo con otros estudios, de modo que no sólo títulos de NES, Super Nes y Nintendo 64 están disponibles, también TurboGrafx y Sega Megadrive han aportado los suyos. Si a esto se suma que Wii es directamente compatible con los discos de 8 cm del cubo, se tendrá una "retrocompatibilidad" sin precedentes en la historia de las consolas. Entre las joyas disponibles el primer día para Virtual Console brillaron: Baseball, Super Mario Bros, The Legend of Zelda, todos para Nes. Donkey Kong Country, Sim City y F-Zero para SuperNes y el veterano Super Mario 64. En el listado de Megadrive destacaron Sonic de Hedgehog, Gunstar Heroes y Golden Axe Columns. Mientras que Turbografx sumó a Bomberman, Bonk's Aventure, Dungeon Explorer y Super Star Soldier.

Los que vendrán Con una alineación de salida envidiable (Twilight Princess, Red Steel, Excite Trucks, Rayman, Call of Duty 3, Cars) Wii ha despegado como pocas consolas lo han hecho, sin embargo sus pesos pesados están por llegar: Super Mario Galaxy, Battalion Wars 2, Super Smash Bros Brawl, Metroid Prime 3, Projet Hammer, Dragon Quest, Resident Evil Chronicles y Final Fantasy: The Cristal Bearers, son sólo una muestra de ese huracán de ocio que se avecina.

El clásico Zapper de Nes El clásico Metroid

Más allá del juego Otra de las singularidades de esta consola radica en sus canales interactivos, agrupados bajo el nombre de Wii Channel. Este software especial, visible desde que la consola es encendida, despliega en pantalla un menú con todas las posibles acciones a realizar, desde escoger el título a jugar, hasta retocar fotos, pasando por conocer las últimas noticias o saber el estado del tiempo en cualquier lugar del mundo. Para detallar mejor cada canal se relaciona brevemente su función: De Fotos: Tras insertar una foto, ésta puede modificarse con el uso de

44

[GiGA 1 / 2007]

Conclusiones Una muestra del menú Wii Channel

Mucho más que 20 años Sin temor a equivocaciones, es posible afirmar que dotar a Wii con el sistema Virtual Console, estuvo entre las decisiones más acertadas de Nintendo. Brindar un catálogo con los títulos de más de 20 años no sólo despierta el deseo de nostálgicos, sino que anima a las nuevas generaciones a conocer el pasado de los videojuegos. Para aumentar la retroemoción la Compañía nipona llegó a

No hay dudas de que Nintendo ha despertado y de que Wii es la prometida revolución hecha realidad. Sus peculiares características, aplicaciones multimedia y un extenso catálogo de juegos, convertirán a esta consola en la estación de ocio ideal para todos los miembros de la familia sin importar edad o sexo. Con su forma de jugar se rompe la imagen del chico que pasaba horas sentado tranquilo frente al televisor, ahora hay que moverse, saltar y activar los músculos si se quiere ser un héroe como Link, o un gran espía como James Bond.

joystick En esta edición estamos de aniversario porque "A fondo" cumple un año y como Lara Croft cumplió sus 10, hemos decidido celebrarlo juntos, echándole un repaso a los orígenes de esta atractiva figura.

El nacimiento de Lara Croft a fondo En octubre de 1996 una compañía británica llamada Core, volvió famosa a una arqueóloga de curvas imposibles e increíbles habilidades. "Lara Croft", la aventurera por excelencia, se convirtió en el primer sex-symbol digital, y con el tiempo en icono de los videojuegos. Pero los orígenes de esta muchacha se remontan a 1993, cuando Core recibió los primeros kits de desarrollo para Sega Saturn y PlayStation. Por entonces Jeremy Smith, director del estudio tenía en mente crear un título de aventuras protagonizado por un tipo duro, al estilo de Indiana Jones. Cuando aún no se había decidido qué tipo de juego iba a ser Tomb Raider, Toby Gard, entró en escena. Se trataba de un diseñador revolucionario que había ingresado en la compañía con sólo diecinueve años, pero que muy pronto había demostrado sus excepcionales dotes para el dibujo y el diseño de niveles. Después de varios debates sobre el estilo y la mecánica, la decisión fue programar un juego donde los saltos, puzzles y la exploración como ingredientes principales, sustituyeran a los tradicionales pasillos llenos de enemigos. Bajo este concepto, Gard puso manos a la obra y comenzó a diseñar bocetos, siempre con la idea de crear un personaje alejado del realismo y fácil de reconocer. Así fueron apareciendo detalles como la trenza o los pantalones cortos. Cuando la creación estuvo cercana a lo que hoy se conoce, comenzó la elaboración de su historia.

Supuestamente, Lara había nacido el día de San Valentín de 1968 en Wimbledon, en el seno de una familia rica. Desde muy pequeña recibió un entrenamiento que incluía todas las habilidades imaginables, pero no decidió convertirse en aventurera hasta que sufrió un accidente de avión en el Himalaya y tuvo que atravesar las montañas para volver a la civilización. A partir de entonces, Lara Croft se dedicó a buscar antiguas reliquias por todo el mundo. Pero la joven de labios carnosos aún tenía que superar un obstáculo: la aprobación de los responsables de Core. Algunos ni siquiera imaginaban que una mujer sería la protagonista de su próxima inversión. Después de la sorpresa, llegó el debate y luego la luz verde. Sin embargo, programar las habilidades de Lara se hizo tan complejo que fue necesario hacer todas las animaciones a mano, un detalle que imprimió más personalidad al juego. En cualquier caso, nadie dentro de las oficinas se percató del bombazo que tenían entre manos, así que el proyecto se mantuvo casi en secreto de manera inconsciente. De hecho, los responsables de publicidad ponían trabas al personaje alegando que "las chicas no vendían". Pese a esos escollos el proceso de marketing comenzó con la distribución de los primeros diseños de Lara en actitud desafiante. Horas más tarde, el Financial Times, periódico económico más importante de Inglaterra, solicitó nuevas imágenes para encabezar un artículo, a partir de ese momento la popularidad de la aventurera creció como la espuma. Le siguieron el Sunday Telegraph, la revista Face y muchas otras. La demanda fue tal que Core se vio obligada a duplicar el número de grafistas que plasmaban a la nueva estrella en primeros planos, montando en moto e incluso con un vestido de noche. Para dar más bombo a su protagonista, se tomó la decisión de promocionar el juego con una Lara de carne y hueso. La primera afortunada fue Natalie Cook, una azafata del

Karina Adebibe, esta inglesita de 20 años es la nueva imagen de Lara Croft.

European Computer Trade Show. Este trato a su creación desilusionó tanto a Gard que terminó abandonando la compañía. No obstante, la tradición se mantiene y cada nueva entrega de Tomb Raider es acompañada por una modelo o actriz que calza las botas de la heroína más sexy y popular de los videojuegos: Lara Croft. Para celebrar el décimo aniversario de

La primera afortunada: Natalie Cook

Lara, Eidos, por medio del estudio de programación Crystal Dynamics, desarrolla un remake del primer Tomb Raider que salió en 1996, pero utilizando el motor gráfico de Tomb Raider Legends, la última entrega de la saga. A pesar de ser el mismo juego de hace una década, éste incluirá nuevas posibilidades y mejoras, además de contar con Toby Gard en el proyecto, un regreso que fue posible gracias a una petición de Crystal Dynamics. [GiGA 1 / 2007]

45

joystick Cómo ayuda un videojuego a combatir el cáncer, el Wiimote tiene un abuelo, Alien regresa al mundo de las consolas. Esto y mucho más aquí, en las Joystick-Noticias.

Un E3 para todos

Un rayo de esperanza

R

ealmente fue perfecto. Me ayudó a comprender las cosas que estaban sucediendo en mi cuerpo -así describe Saif Azar, un enfermo de cáncer, su experiencia con Re-Mission. Un videojuego programado para PC, cuyo objetivo es controlar un nanorobot dentro del cuerpo humano con el fin de buscar y destruir células cancerígenas.

A Según afirmó el joven "este juego le dio ánimos para combatir su padecimiento".

Vampiros, luces y acción

R

ogue Pictures y Crystal Sky Entertainment han decidido apoyar el debut cinematográfico de Castlevania, la saga de videojuegos más vampiresca, famosa y veterana de Konami. La película que deberá estrenarse a finales de este año se rodará en Hungría y Rumania bajo la dirección de Paul Anderson, más conocido por filmes como Mortal Kombat o Resident Evil. Ambientada en la Transylvania del siglo XV, la trama contará con elementos clásicos como el látigo y se basará en los primeros capítulos de la serie, integrando el origen de Drácula y la familia Belmont.

unque el E3 haya dicho hasta siempre en su pasada edición, en este 2007 no se podía quedar sin reportaje especial. Y es que la feria de las tres E será sucedida por el "E for All Expo", un nuevo encuentro que tendrá lugar del 18 al 20 de octubre en la ciudad de Los Ángeles y permitirá el acceso de público corriente. Una decisión muy acertada y esperada, si se recuerda que sólo profesionales del medio o prensa disfrutaban del difunto E3.

La noticia TNT

E

l rumor desató nuevamente la alarma del universo consolero, y es que Link vivirá una nueva aventura tras el abrumador éxito de Twilight Princess. Al parecer, este proyecto diseñado en exclusiva para Wii, ha estado desde hace un año en desarrollo, algo lógico si se tiene en cuenta que la actual entrega era en realidad un título para GameCube. Nada más se ha comentado al respecto, no obstante se seguirá la información.

El bicho regresará

Contra el hambre

L

os videojuegos no sólo promueven comportamientos violentos, también pueden utilizarse para concienciar sobre problemas mundiales, como el hambre. Éste es el caso Food Force, un título que en poco más de un año supera los cuatro millones de usuarios en todo el mundo. Creado por el Programa Mundial de Alimentos, con la colaboración de Ubisoft, Konami y la Comisión Europea para Asuntos Humanitarios, entre otros, el objetivo fundamental del juego es sensibilizar a los adolescentes sobre el flagelo de las crisis alimentarias y la importancia de las organizaciones humanitarias que lo combaten. Food-Force está disponible en más de siete idiomas y puede descargarse de www.food-force.com.

G

racias a un acuerdo entre Sega y 20th Century Fox, Alien, clásico por excelencia dentro de la ciencia ficción, regresará para plagar la nueva generación de consolas. Hasta la fecha sólo se conoce que será una aventura de rol programada por la compañía Obsidian, responsable de éxitos como Neverwibtwr Nights 2 ó Caballeros de la Antigua República, ambos para PC.

¿!La Curiosa!?

E

so de: "ya todo está inventado" va a ser cierto y si no, miren la foto. El parecido del control con un Wiimote es evidente, y tanto que fue creado por la propia compañía en 1993 para el Nintendo Gateway System, un sistema diseñado exclusivamente para líneas aéreas y hoteles. Es obvio que sus prestaciones eran distintas, pero se nota que son de la misma familia.

46

[GiGA 1 / 2007]

multimedia

Ing. Vilma González Pérez [email protected] SIS, Copextel

P

ara los seguidores de esta Sección y para los nuevos que se interesan en el tema, han sido actualizadas informaciones sobre los desarrollos de Sistemas Informáticos y Software, una de las Divisiones de Copextel, que trabaja bajo el Convenio Integral de Colaboración Cuba-Venezuela desde el año 2005 en el Desarrollo de Contenidos Educativos. En el número anterior se explicó que se desarrolla un grupo de portales temáticos con el objetivo, entre otros, de difundir el saber popular y ponerlo a disposición de toda la población venezolana. Para ello se había puesto en funcionamiento una estrategia cada vez más abarcadora que involucrara a especialistas en contenidos de las partes más intrincadas de la geografía de la República Bolivariana de Venezuela. Una de las características que hace tan popular a la tecnología Web es su facilidad para mostrar contenidos de manera gráfica y vincular fácilmente documentos de diferentes orígenes. No obstante, para que esta simpleza pueda procurarse efectivamente, es necesario que los desarrolladores de contenidos en esta plataforma, cumplan con ciertos estándares que ase-

guren que la mayor parte de los usuarios puedan ver lo que se publica. Para ello, es de suma importancia que los sitios que se construyan cumplan ciertas características de publicación que permitan conseguir dos objetivos muy concretos: • Que las páginas se desplieguen rápidamente y sin dificultades técnicas en las computadoras de los usuarios • Que las páginas puedan ser visualizadas por los usuarios de la misma manera en que sus autores las han construido Para conseguir ambos objetivos, es imprescindible que quienes se encarguen de elaborar contenidos Web empleen un conjunto de buenas prácticas que se han obtenido de la experiencia en la construcción de este tipo de contenidos digitales, y también, se aseguren de cumplir con estándares mundiales en este ámbito.

Peso de las páginas En este sentido, lo "razonable" dependerá directamente del tipo de sitio que se desarrolle y de la conexión con que cuente la mayor parte de los usuarios. La pregunta que debe hacerse cualquier desarrollador de contenidos, es si sus usuarios estarán dispuestos a esperar todo el tiempo que se demora una página Web en

bajar completamente. Por lo general, el usuario esperará 5 segundos para que aparezca algo visible en la pantalla, 10 para que aparezca algo legible en ésta y 30 segundos hasta hacer un click hacia otra parte del contenido o a otro sitio.

Presentación de los contenidos en la página Al respecto se recomienda construir una estructura de presentación de los contenidos que se pueda fragmentar en varias tablas. Así, cuando el sitio se presente en el programa visualizador del cliente siempre mostrará la primera tabla (que normalmente llevará el logotipo y la identificación del sitio) de manera rápida que da al usuario la sensación de haber llegado al destino elegido. Luego en las siguientes tablas se van poniendo los restantes elementos del sitio.

Trabajo con imágenes y elementos multimedia Para evitar que su peso afecte el desempeño de la página cuando sea solicitada por los usuarios se deben tener en cuenta aspectos tales como: [GiGA 1 / 2007]

47

multimedia • Optimizar el peso de las imágenes: Se debe bajar al máximo posible el peso de las imágenes y cuando no sea posible hacerlo debido a su tamaño, se debe reducir el número de colores disponibles y la resolución. • Elegir el formato adecuado: Normalmente se usa el formato GIF (Graphic Interchange Format) para cualquier imagen pequeña como un icono o una imagen con colores planos. Para fotografías e imágenes de mayor tamaño y cantidad de colores es preferible el formato JPG o JPEG. • Uso de imágenes de fondo: Salvo casos en que sea estrictamente necesario, esta práctica debe dejarse a un lado porque su único efecto es el de agregar un paso excesivo a los sitios, afectando el tiempo de descarga y acceso a la información.

Además de lo antes mencionado y teniendo en cuenta que SIS desarrolla hoy 75 contenidos concebidos por diversas entidades, que conllevan desiguales propuestas de interfaces, metáforas y modos de navegación, entre otras diferencias, y con el objetivo de economizar

recursos, códigos y mecanismos que permitan al usuario una mejor ubicación, identificación y reconocimiento de éstos se hace necesaria la estandarización en elementos de funcionamiento y aspectos técnicos.

Aspectos funcionales • Eficacia: En la medida en que facilite a sus destinatarios el acceso a los contenidos y logre sus propósitos será más eficaz. • Facilidad de uso: Las páginas web que muestran los contenidos deben resultar agradables, fáciles de usar y autoexplicativas, de manera que los usuarios puedan utilizarlas sin dificultad y ver realizados sus propósitos de localizar información, obtener materiales, archivarlos e imprimirlos, encontrar enlaces, consultar materiales didácticos, realizar aprendizajes, etc. El trabajo por parte de los usuarios con estos contenidos no debe requerir una curva de aprendizaje alta. Cada una de las páginas de los contenidos debe tener elementos consistentes, con el fin de ofrecer al usuario una experiencia similar en cualquier contenido. Por nombrar sólo tres aspectos: lo anterior implica que los menús deben aparecer siempre en el mismo lugar, los listados estar diseñados de similar manera en todos los casos y que los colores y formas de uso de las interfaces deben ser similares a lo largo de las páginas. • Créditos: Los materiales deben indicar claramente la fecha de su última actualización, autores y los editores o patrocinadores. Todo ello es muy importante para que el usuario pueda valorar la información que proporcionan. • Ausencia de Publicidad: Si tiene publicidad debe ser la mínima y sin interferir significativamente en el uso del material. • Fuente de múltiples enlaces: Uno de los aspectos que aumenta la utilidad de los espacios web es que aprovechen las funcionalidades de Internet y aumenten su hipertextualidad y su capacidad informativa, proporcionando al usuario múltiples enlaces relacionados con su temática.

Aspectos técnicos y estéticos • Calidad del entorno audiovisual: Se

48

[GiGA 1 / 2007]

pretendió realizar una presentación atractiva con un diseño claro y atrayente de las pantallas, sin exceso de texto, pero destacando lo importante. Por otro lado, se intentó lograr una adecuada integración de medias, al servicio del aprendizaje, sin sobrecargar la pantalla, bien distribuidas y con armonía. • Calidad y cantidad de los elementos multimedia: Estas facilidades se introducen para apoyar los textos y enriquecer el contenido, pero si no cumple con los requerimientos de calidad técnica y estética, entonces pueden echar a perder la aplicación. • Calidad en los contenidos: La información que se presenta es correcta en extensión, rigor científico y actualidad, la información, organizada en bloques y páginas, etc.

• Navegación: Se intentó lograr una estructuración del espacio web que permite acceder bien a los contenidos, secciones, actividades y prestaciones en general, uso de metáforas intuitivas y adecuadas a los destinatarios, velocidad cómoda en las animaciones, lectura de datos, ejecución del programa fiable y que detecte la falta de periféricos necesarios, entre otras. Además, los contenidos se identificarán a sí mismos

multimedia en la navegación a partir de elementos gráficos o ilustraciones específicas desarrolladas según el tema específico que se trate. Debe ser similar en todos los contenidos, en lo referido a su ubicación y disposición en las páginas. Como elementos más relevantes del sistema de navegación que se utilizan se cuentan: • Menú General: siempre presente en todo el sitio, permite el acceso a cada uno de los elementos de cada contenido. • Pie de Página: usualmente ubicado en la parte inferior de cada página, indica el nombre de la institución, teléfonos, dirección física y de correo electrónico. • Botón Inicio: para ir a la página de inicio. • Botón Mapa del sitio: para ver el mapa del Sitio Web. • Botón Ayuda: para recibir ayuda sobre qué hacer en cada pantalla del sitio. • Ejecución fiable: La aplicación debe visualizarse bien en los distintos navegadores y sistemas operativos, presentar una adecuada velocidad de respuesta a las acciones de los usuarios al mostrar informaciones, vídeos, animaciones, etc. Por otra parte y en concordancia con los elementos propuestos en cada contenido se propone una diagramación general que se pueda graficar de la siguiente forma:

Hasta aquí se ha hablado sobre elementos generales de diseño gráfico, diagramación de la interfaz y propuesta de navegación, pero otro elemento fundamental en estos desarrollos es la fase de programación, que se basó en la aplicación de estándares. Los estándares proporcionan un conjunto de ventajas que se reflejan en el producto final: 1. Se logra independencia de una aplicación concreta, los contenidos podrán ser intercambiables entre distintos LMS. 2. Se obtiene independencia de la plataforma concreta, de modo que se podrá cambiar de equipo informático o de sistema operativo sin problemas. 3. Se obtiene una garantía en la durabilidad en los contenidos, ya que al seguir un estándar logra la seguridad de que perduren a lo largo del tiempo. Hasta hoy ha sido frecuente que contenidos educativos excelentes, desarrollados con enorme costo para una tecnología concreta, se hayan perdido cuando se ha cambiado de plataforma o se ha producido un cambio tecnológico (por ejemplo, la evolución del CD-ROM a Internet, la consolidación de Linux como sistema operativo, etc.). Para minimizar o resolver este problema, todos los especialistas implicados en la elaboración de contenidos edu-

cativos han tratado de sistematizar la creación de materiales educativos de calidad tratando de que cumplan una serie de características concretas, como son: • Tener un sentido completo de la información • Ser expresiva su didáctica • Adaptabilidad a los distintos contextos y/o usuarios • Capacidad de reutilización, para lo cual debe ser interoperable Después de explicar cuáles fueron nuestras principales restricciones, análisis del entorno y necesidades, las especificaciones técnicas empleadas en nuestros desarrollos fueron las siguientes: • Herramientas de programación: HTML, Java Script, XML, PHP • Gestor de base de datos: MySql Server • Contenidos empaquetados con tecnología SCORM • Deben ejecutarse satisfactoriamente sobre Linux, Mac y Windows

Conclusiones El desarrollo y publicación de contenidos educativos por medio de Internet ofrecen importantes ventajas frente a otros medios más tradicionales como el papel y el CD-ROM. Entre estas ventajas se puede mencionar que son accesibles desde cualquier lugar donde exista una conexión a Internet, que no existen costos añadidos para su reproducción, que se pueden actualizar más fácilmente, permiten la navegación no secuencial y soportan la integración de recursos multimedia e interactivos. Nuestro reto va dirigido a lograr productos que cumplan estas condiciones técnicas y que satisfagan, además, las necesidades del público receptor. Para llevar a cabo este proyecto de desarrollo hemos contado en nuestro equipo de desarrollo con los estudiantes de la Facultad 8 de la UCI y el Departamento de Diseño Gráfico de la misma Universidad. [GiGA 1 / 2007]

49

multimedia

Dr. C. Luis G. Ulloa Reyes [email protected] Dra. C. Estrella Velázquez Peña Dr. C. Carlos Expósito Ricardo

L

a palabra estrategia aparece en la literatura como el arte de dirigir y coordinar acciones y operaciones, plan, programa, conjunto de objetivos, conjunto de acciones, pauta de acción. A. Alfonso (1997), la define como la proyección prospectiva de la organización para alcanzar cambios cualitativos hasta lograr la misión. F. Addine Fernández (1998) plantea que si la enseñanza es concebida como proceso y como producto, entonces a ella está asociado el término estrategia, y define como estrategias de enseñanza-aprendizaje a secuencias integradas, más o menos extensas y complejas, de acciones y procedimientos seleccionados y organizados, que atendiendo a todos los componentes del proceso, persiguen alcanzar los fines educativos propuestos Como consecuencia del trabajo de producción de juegos educativos por computadora y las ediciones realizadas por el Ministerio de Educación, conjuntamente con la entidad de Sistemas Informáticos y Softwares de Copextel, se logró elaborar y poner en práctica una estrategia para la utilización de estos juegos en el proceso de enseñanza-aprendizaje del primer grado de la educación primaria con el establecimiento de un conjunto de potencialidades didácticas, premisas y requisitos:

50

[GiGA 1 / 2007]

Potencialidades de la estrategia didáctica • Propicia estimular el aprendizaje como condición para alcanzar el desarrollo de los alumnos. • Posibilita que el contenido que se desarrolle, como objeto de aprendizaje, se consolide y despierte el interés y la necesidad de solucionar problemas. • Facilita la búsqueda y puesta en práctica de tareas por parte de los alumnos para encontrar la solución. • Fomenta el vínculo de lo teórico con lo práctico, en que se considera la actividad como elemento fundamental. • Convierte la actividad con la computadora en escenario para la reflexión, el intercambio, la toma de decisiones y la generación de ideas nuevas. • Permite que los alumnos se relacionen, consoliden y dominen los contenidos esenciales, amplíen su vocabulario y el conocimiento del mundo en que viven.

Premisas de la estrategia didáctica • Considerar a los alumnos como centro mismo, actores principales del proceso de enseñanza-aprendizaje. • Crear en los maestros una disposición favorable para la incorporación de los recursos informáticos en su

actividad pedagógica. • Organizar las actividades docentes, en las que se seleccionen adecuadamente los diferentes juegos que integran la colección.

Requisitos de la estrategia didáctica • Tener creadas las condiciones necesarias en cuanto a la disponibilidad de computadoras y colecciones de juegos educativos por equipo. • Entrenar a los maestros en procedimientos metodológicos para el uso adecuado de los juegos por computadora con fines didácticos. • La existencia de un clima educativo favorable que estimule el aprendizaje de los alumnos mediante el juego educativo por computadora por parte de los alumnos. • Reconocer la importancia y beneficios que la estrategia didáctica aporta para la inserción de la computadora en la escuela con un beneficio en el orden educativo, personal y social en general. La estrategia se ha estructurado según la actividad del juego por computadora. Para su instrumentación en la práctica se proponen cuatro etapas:

Etapa 1: Diagnóstico de los alumnos Objetivo: • Comprobar la situación del apren-

multimedia dizaje en los alumnos. Acciones fundamentales: • Elaboración y realización del diagnóstico. • Análisis de los resultados. • Identificación de las necesidades que tienen los alumnos en el orden cognitivo y afectivo.

Etapa 2: Preparación de las condiciones previas Objetivos: • Preparar las condiciones en tres direcciones principales: didáctica, informática y organizativa, a partir de los resultados de la etapa de diagnóstico. • Seleccionar los juegos disponibles que responden a los objetivos propuestos para el grado y la actividad en específico. • Comprobar el estado y disponibilidad de los recursos técnicos que exigen los juegos. Acciones fundamentales: • Preparación de los maestros en lo distintivo de la estrategia y su marco teórico-conceptual. • Análisis de los objetivos y contenidos del grado para la determinación de los juegos educativos a utilizar. • Determinación y planificación de los momentos pre-lúdico, lúdico y post-lúdico para utilizar cada juego seleccionado. • Preparación de los cuentos para emplearlos en la etapa de preparación de las condiciones iniciales para trabajar con cada juego educativo por computadora seleccionado. • Revisión de los juegos para realizar las comprobaciones correspondientes para su ejecución. • Verificación del estado técnico de las computadoras.

Etapa 3: Implementación Objetivo: • Ejecutar los momentos pre-lúdico, lúdico y post-lúdico en la práctica escolar, según lo planificado en la etapa de preparación de la estrategia. Acciones fundamentales: • Realización de actividades para crear la situación inicial antes de la actividad con el juego educativo por computadora, de forma tal que se preparen las condiciones previas para una correcta orientación y estimular la imaginación y la fantasía. • Ejecución de los juegos educativos por computadora, en colaboración con el maestro de Computación,

según la preparación realizada y garantizar los momentos pre-lúdicos y post-lúdico. • Valoración del trabajo que se realiza en la búsqueda de la solución de las tareas docentes que contienen los juegos educativos por computadora.

Etapa 4: Evaluación Objetivo: • Valorar la marcha de la estrategia y realizar correcciones. Acciones fundamentales: • Análisis del desenvolvimiento de los alumnos en los indicadores determinados. • Valoración del trabajo de los alumnos con el juego y su desenvolvimiento en los diferentes momentos definidos en la etapa anterior, para conocer la forma en que los alumnos aplican lo aprendido y de qué manera lo hacen. • Reajuste de la estrategia, de acuerdo con los resultados obtenidos por los alumnos. La evaluación y el control deben estar presentes en todas las etapas de la estrategia. A manera de ejemplo: Etapa de preparación de las condiciones previas: En la etapa de aprestamiento, uno de los principales objetivos formulados para el primer grado de la educación primaria está relacionado con el desarrollo del lenguaje, a partir de que los alumnos realicen cuentos, historietas, conversaciones y juegos, lo que también ayuda a estimular la imaginación, la fantasía, curiosidad y la creatividad. Una de las opciones que tiene el maestro para dar cumplimiento a este objetivo es la utilización de los juegos educativos por computadora. Se sugiere, por sus características y contenido, el juego "¿A dónde voy?", concebido de manera que como juego inicial, permite relacionar al niño con la computadora y en particular con los periféricos más utilizados en su trabajo, es decir, el monitor y el ratón (mouse), a la vez que facilita el trabajo de desarrollo del lenguaje, entre otros aspectos que el alumno puede consolidar de etapas anteriores. Para esto, tiene cuatro niveles de dificultad, que puede seleccionar mediante un configurador, para hacer un uso gradual del juego, en función de los contenidos que trata.

Nivel 1: Asociar imágenes a su silueta. En este caso se muestran ocho siluetas distribuidas en pantalla, y van saliendo al azar las imágenes que con ellas deben hacerse coincidir. Estas imágenes deben ser manipuladas con el uso del ratón, procedimiento presente en cada uno de los niveles del juego.

Nivel 2: Asociar imágenes por parejas. A partir de la distribución en la pantalla de ocho imágenes, deben ser asociadas convenientemente las figuras que irán apareciendo, teniendo en cuenta dife-

rentes criterios que pueden relacionarlas. Nivel 3: En este nivel aparecen parejas desordenadas, las cuales deben ser ordenadas. Con la ayuda de una ventana vacía situada en el centro de la pantalla, pueden intercambiarse las imágenes hasta que se considere estar ordenadas. Para evaluar la respuesta ofrecida se debe seleccionar cualquiera de los dos ratones que aparecen en pantalla y que comparten el juego con el niño.

[GiGA 1 / 2007]

51

multimedia Nivel 4: Asociar imágenes a sus nombres. Al igual que en el nivel uno, se muestran ocho nombres a los que debe asociarse la imagen que le corresponde.

En los niveles uno, dos y cuatro, la imagen que se ofrece para colocar en su lugar, una vez fijada, no puede ser manipulada nuevamente; en caso de existir alguna equivocación, cuando se evalúa la respuesta hay una nueva oportunidad para que sean reubicadas las imágenes incorrectamente situadas. En una segunda ocasión, de continuar los errores, se da la respuesta correcta.

Momento pre-lúdico En este momento se presenta la actividad del juego a los alumnos, se utiliza la situación inicial para el juego (cuento) que permita la orientación a la actividad de los alumnos para estimular la imaginación y la fantasía y jugar con la computadora para la actividad de aprendizaje. Esta fase el maestro la realiza de forma grupal y constituye una etapa de orientación para el trabajo que desarrollarán. Este importante momento garantiza la preparación inicial del niño para llevar a cabo la actividad; se realiza mediante el cuento llamado ¿A dónde voy?, que se describe a continuación y que está estrechamente relacionado con el juego: Propuesta de cuento para el juego ¿A dónde voy? Este era un ratón muy travieso llamado Miguel, al que le gustaba mucho ayudar a todo el mundo, tanto a sus amigos como a otros animales no conocidos que encontraba en su camino.

52

[GiGA 1 / 2007]

Un día el ratón Miguel se despertó muy temprano, desayunó, se lavó los dientes y salió de su casa para dar un paseo, pero muy preocupado se paró junto a un árbol, ¡porque había olvidado a dónde iba! Miró a todos lados y comenzó a repetir: ¿A dónde voy?, ¿A dónde voy? Un niño que pasaba casualmente por allí le dijo: - No te preocupes, yo te diré: tú vas a ayudar a algunos niños a jugar y a aprender, y ellos te recibirán con mucha alegría. Entonces el ratón Miguel sonrió y dijo: - Ya sé a dónde voy: ¡Voy a jugar con los niños!, pero ¿ellos querrán jugar conmigo? Una vez narrado el cuento, el maestro debe realizar algunas preguntas que le permitan conocer la interpretación que han realizado los niños, como por ejemplo: ¿Quiénes son los personajes del cuento?, ¿Quién es el personaje principal del cuento?, ¿Cómo se llama este personaje?, ¿Qué hizo Miguel al levantarse? y ¿Qué olvidó Miguel? En el proceso de la motivación, una vez conocido el cuento por los niños, éstos deben narrarlo también. El maestro reforzará los aspectos necesarios, enfatizando en la pronunciación de determinadas palabras o frases que presentan dificultad. En la medida que los niños trabajen con el juego, es posible incorporar otras variantes que contribuyan a cumplir los objetivos propuestos. En el aspecto relacionado con el vocabulario se puede utilizar el trabajo con adivinanzas sencillas cuyas respuestas se correspondan con las figuras que los niños utilizan.

Momento lúdico El alumno debe trabajar con el juego en forma independiente, interactuando con el software, tratando de dar solución a las tareas docentes que se le plantea, a partir de disponer con las orientaciones que el maestro le ha dado en el momento pre-lúdico. Por ejemplo, en el nivel 1 del juego educativo por computadora "¿A dónde voy?", los alumnos a partir de ocho siluetas que tienen en pantalla deben ir situando las diferentes imágenes que van saliendo en el centro de la pantalla mediante el movi-

miento del ratón. Los alumnos tienen que explorar el entorno de la pantalla en la que realizarán las tareas docentes que se le plantean aleatoriamente. Para la solución de la tarea tendrán que identificar la imagen que se le presenta, compararla y hacerla coincidir con la silueta correspondiente. De acuerdo con los resultados que tenga, tendrá que realizar valoraciones de cada una de sus respuestas a partir de la evaluación que realiza el software y hacer las correcciones adecuadas. En caso de que la respuesta sea incorrecta, es lógico que el alumno consulte, pregunte al alumno que tiene al lado o consulte al maestro. Estos comportamientos pueden ser aprovechados para posteriores generalizaciones del trabajo con el juego educativo por computadora. El maestro debe estar interactuando con los alumnos en aras de poder atender cada uno de los problemas detectados durante la aplicación del juego. En dependencia del nivel escogido será el nivel de complejidad de las tareas que se plantea a los alumnos. Para esto es necesario que el maestro tenga dominio de la caracterización psicopedagógica individual de los alumnos, que le permita situar a los alumnos ante tareas docentes acordes con el desarrollo alcanzado.

Momento post-lúdico A continuación se relacionan algunas de las actividades que pueden ser realizadas para desarrollar el lenguaje, con posterioridad a las actividades realizadas en el momento post-lúdico. En el primer nivel. • Una vez apagados los monitores de las computadoras, se debe pedir a los alumnos que mencionen la mayor cantidad de imágenes posibles con que trabajaron durante el juego. • De acuerdo con las imágenes mencionadas, preguntar por su utilidad. • Preguntar, en caso que sea posible, a qué reino pertenecen (animal o vegetal). • A partir de la impresión de las imágenes de las figuras utilizadas en el juego, repartir algunas de las que identifican las repuestas a las adivinanzas, para una vez que el maestro

diga la adivinanza, el niño que tenga la imagen que da respuesta la muestre. En el segundo y tercer niveles. • Mencionar imágenes para que los niños recuerden su pareja. • Construir frases sencillas que relacionen las parejas formadas: El hilo y la aguja, la flor y la mariposa, la gallina y los pollitos. • Con la impresión de las imágenes del juego realizar la actividad: "Buscando mi pareja", que consiste en: se reparten varias parejas entre los niños, luego van mencionando el nombre de la imagen que cada uno tiene y debe salir el que forma la pareja de éste. Si el número de alumnos en la clase es impar, entonces uno quedará sin pareja. • Preguntar por qué una imagen se relaciona con otra. Por ejemplo: ¿Por qué se relacionan el hilo y la aguja?, ¿Por qué se relacionan el pez y el anzuelo? El momento post-lúdico es la oportunidad de generalizar el trabajo de los alumnos en la actividad que han realizado mediante el juego educativo por computadora "¿A dónde voy?", los alumnos pueden, a su nivel, contar sus experiencias, realizar valoraciones sencillas acerca del trabajo realizado por sus compañeros, analizar dónde han estado las principales dificultades durante el

desarrollo del juego o cuáles han sido los aspectos positivos. Este momento puede ser utilizado por el maestro para indicar a los alumnos la realización de historias, cuentos, relatos y dibujos a partir de de las vivencias con el juego.

Conclusiones • Los juegos educativos por computadora elaborados e introducidos en la práctica escolar por el Centro de Estudios de Juegos Instructivos y Softwares de la Universidad Pedagógica "José Martí" en el proceso de enseñanza-aprendizaje del primer grado, constituyen medios de enseñanza para los maestros y de aprendizaje para los alumnos, los

que contribuyen a obtener mejores resultados en el aprendizaje al permitir la implicación productiva de estos escolares en su proceso de aprender. • La estrategia didáctica diseñada para la utilización de una colección de juegos educativos por computadora, constituye una novedad para el primer grado de la educación primaria, sin entrar en contradicción con la concepción que hoy se aplica como resultado de los Programas de la Revolución. Esta estrategia enriquece esa concepción para contribuir a mejorar la calidad del aprendizaje y alcanzar el nivel de desarrollo que exige este nivel de enseñanza.

O

pus Habana es una revista dedicada a la restauración y la vida cultural en La Habana Vieja. Historia, arquitectura, arqueología, y museografía. Para los que admiramos esta publicación en su formato impreso y se hace difícil que llegue a nuestras manos, conocer que por Internet, podemos tener acceso a ella mediante su versión digital, ha propiciado el comentario que llega a esta Sección.

Desde la Redacción de GiGA queremos agradecer la llegada de esta versión y tenemos la certeza de que la propuesta de aparecer en el ciberespacio será bien recibida por los seguidores de Opus. Puede encontrarse en la dirección: www.opushabana.cu. Esta publicación digital desarrolla su amplia temática en una serie de secciones que ilustran sus artículos y comentarios que mediante vínculos nos muestran el interior de cada una de éstas, y abren el amplio espectro que cada Sección tiene para mostrarnos. Es un viaje a esa Habana Vieja, que tanto cautiva. Y navegar por estas páginas es pasear desde nuestras PCs por ese maravilloso lugar. Con un diseño limpio y sencillo que recuerda a su formato impreso, lo más significativo del sitio, en nuestra opinión, es el contenido de información que brinda. Desde artículos que hacen sonreír, meditar con un alto contenido educativo y con entrevistas a personalidades de la cultura y el arte hasta la acostumbrada cartelera que en sitios con este formato no podía faltar. Más allá de todo el fascinante encuentro con la historia, es un recorrido por la más antigua

Opus Habana en Internet parte de la ciudad. Esta publicación la muestra, mediante el decir de la imagen y las palabras. Si bien su formato impreso mantiene un exquisito diseño, esta otra cara, además de hacer añorar el papel, es una expresión de que asumiendo el uso de la tecnología, la otra forma no está exenta de encanto. El espacio digital, además de contar con un formato clásico dentro de ese tipo de publicación, tiene un buscador que facilita y hace noble la navegación, porque permite suscribirse a un semanario digital, que por medio del correo electrónico, informa sobre la actualidad cultural de La Habana Vieja. Otra buena opción para los que no cuentan con la herramienta de Internet y sí con mensajería nacional. Tomar las posibilidades que ofrece la tecnología digital para hacer llegar toda la amplia información que recorre, es una idea inteligente, y sobre todo, agradecida. Estamos seguros de que nuestros lectores también siguen esta revista y recorren las calles de la ciudad en busca de la Opus Habana. Los realizadores de GiGA también queremos compartir con nuestros lectores habituales el regalo de consultar a Opus en el ciberespacio, por medio de esta Sección. Este otro soporte permite hojear sus páginas desde nuestras PCs, y ya sea a miles o a sólo unos metros de esa Habana tantas veces contenida en canciones, unirnos en ese deseo de cuidar este patrimonio cultural, mediante el conocimien-

to de lo que se hace día a día, de sus museos, su música o artes plásticas recreadas dentro de sus ya legendarias paredes. Y así, desde una de las páginas de su colega, traemos esta propuesta y los invitamos a conocer el sitio, del que supimos hace sólo algunos días y es de interés para los que asumen esta herramienta de comunicación masiva para expandir su quehacer. Queremos cerrar la propuesta con el agradecimiento a aquellos que dedican su trabajo en cualquiera de sus formatos, para recrear la vida, incentivar el amor por la ciudad vieja, y a los que con dedicación, trabajan hoy para mantenerla restaurada. [GiGA 1 / 2007]

55

D

esde la creación de Internet, el chat se ganó una merecida popularidad. Capaz de comunicar en tiempo real a dos personas (o más) a miles de kilómetros y a costos muy inferiores al del teléfono, este sistema de comunicación logró reducir las distancias en el mundo. Novedoso a la hora de conocer gente, encontrar filiaciones, gustos comunes o mantenerse en contacto con las personas queridas, el chat tenía, sin embargo, una desventaja con respecto a otras formas de comunicación visual: la imposibilidad de expresar sentimientos o estados de ánimo. Escribir suele ser un proceso frío, por más calor que uno ponga a las palabras. Siempre hay riesgos de mala interpretación o de no poder expresar con fuerza o exactitud lo que uno quiere transmitir y que se logra usualmente en el contacto directo por medio de los gestos de la cara. Todo ello cambió definitivamente con el nacimiento de los "emoticonos", protagonistas actuales del chat, que son más viejos en realidad de lo que uno podría suponer. Un emoticono (a veces conocido en inglés como smiley, si bien no significa exactamente lo mismo) es una secuencia de caracteres ASCII que representa una cara humana y expresa una emoción. Expresa alegría u otras emociones positivas, y se clasifican normalmente como smileys (del verbo to smile, "sonreír"). Se emplea frecuentemente en mensajes de correo electrónico, en foros, SMS y en los chats.

Un poco de historia Hace 20 años, cuando Internet era todavía un proyecto precario y antes de que se popularizara el chat, era muy común que se utilizaran foros

56

[GiGA 1 / 2007]

electrónicos para intercambiar mensajes. Sin embargo, en el ir y venir de notas, muchas veces se malinterpretaban los conceptos, sobre todo cuando se utilizaba la ironía o el sarcasmo. El científico estadounidense Scott Fahlman creó una manera de expresar los estados de ánimo en la Red sin herir susceptibilidades. El 19 de setiembre de 1982, tipeó la tecla de dos puntos, la del guión y la del paréntesis y así, con sólo inclinar la cabeza de costado hacia el hombro izquierdo, se pudo vislumbrar una cara sonriente :-) Nació el primer emoticon. Los primeros emoticonos conocidos no basados en ASCII fueron empleados en el programa PLATO IV, que permitía a los usuarios escribir múltiples caracteres "encima" de otros, en 1972. Numerosas combinaciones de caracteres producían patrones que se asemejaban a caras humanas, y que por tanto, fueron empleadas como emoticonos. Éstos se han ido desarrollando a lo largo de los años para imitar las expresiones faciales y las emociones, y así vencer las limitaciones de tener que comunicarse sólo en forma de texto, sin errores de interpretación debidos a la falta de información. Se han escrito libros sobre el tema, con listas interminables de emoticonos. Ésa era la vida diaria.

En los foros de Internet, los emoticonos suelen reemplazarse automáticamente por las imágenes correspondientes. En algunos editores de texto (como el Word), la opción de "corrección automática" reconoce emoticonos básicos como :) y :(, cambiándolos por el carácter correspondiente.

¿Qué son? Estas formas se hacen mediante la combinación de caracteres sencillos tales como signos de dos puntos, paréntesis, punto y coma, letras, números que vistos de costado forman una carita. De tal modo, una persona que escribe un correo electrónico que realmente está contenta y quiere demostrarlo, formará una cara feliz con los símbolos de dos puntos y un paréntesis :) En programas de chat y mensajeros instantáneos al escribir los distintos símbolos, los caracteres se transforman automáticamente en una carita con el gesto deseado, lo que hace más fácil y agradable entender los mensajes. Los e-mails no cuentan

con esta ayuda, pero pueden administrarse bastante bien con los caracteres. ;) Los emoticonos no se reducen sólo a expresiones de felicidad o tristeza. La originalidad de los internautas permite que toda una gama de expresiones puedan ser expresadas con total fidelidad con unos pocos símbolos, como el aburrimiento, decepción, confusión, escepticismo, complicidad o todo lo que pueda imaginarse. Estilo occidental Para reconocer los emoticonos más fácilmente, gire la cabeza hacia la izquierda o hacia la derecha, en dependencia de si la parte superior del emoticono está a la izquierda o a la derecha (aunque normalmente está a la izquierda).

Ejemplos básicos

ducción significa conversar, pero a esta altura se convirtió en un término específico para designar el encuentro entre dos o más personas en Internet que mantienen una conversación en tiempo real. Para chatear debe haber: una PC con conexión, elegir un apodo o nick e ingresar en alguna sala. El chat fue evolucionando y pasó desde los precarios BBS (Bulletin Board System, una de las formas más primitivas de establecer conexiones entre computadoras) a los universos virtuales, que incluyen audio y vídeo. En poco tiempo se convirtió en una verdadera pasión de multitudes. ¿Por qué? Probablemente porque reúne las tres características del éxito: es fácil, divertido y gratis. Además, el chat es útil para crear un espacio de reunión entre personas con los mismos intereses con la posibilidad de contactar a las personas que están a

Funciona del mismo modo que la mayoría de los servicios en Internet, ya sea la web, el e-mail o los mensajeros instantáneos tipo ICQ. Este esquema se conoce con el nombre cliente/servidor. Cada uno de los integrantes de una sala se conecta mediante un programa que recibe el nombre de "cliente". Todos los clientes, a su vez se conectan a un servidor que muestra toda la información de los otros en línea. El estilo del chat al que se ingresa depende del tipo del cliente que se utilice. Si el cliente elegido es un browser o navegador (como el Internet Explorer o el Netscape) con acceso a un chat en el que la web es un tablero de operaciones, y si se opta por los llamados clientes IRC (como el mIRC, el Pirch, etc.) se tiene acceso a lo que se conoce como chat vía "IRC puro". También se pueden usar los mensajeros instantáneos como el ICQ o recurrir a los "mundos virtuales" y videoconferencias.

Web Chat

Variantes Hay posibilidades ilimitadas, dada la habilidad de la gente de crear e interpretar dibujos como caras. Los emoticonos suelen estar girados a la izquierda. Sin embargo, algunos los giran a la derecha para crear "zurdos". En general, los que se comunican mucho mediante ellos piensan subconscientemente "Paréntesis de cierre = alegría, paréntesis de apertura = tristeza".

Un aparte sobre el chat Chat es una palabra en inglés cuya tra-

mucha distancia por bastante menos que una comunicación telefónica. Contra lo que muchos suelen creer, el chat no es una característica más de Internet, sino que es un servicio. La diferencia es que Internet es la red pura y exclusivamente la red física de computadoras conectadas, mientras que el chat, la web y el correo electrónico son servicios montados sobre esa red. Al chat se lo conoce también como IRC, siglas de Internet Relay Chat, las normas técnicas que regulan su uso.

El Web Chat es la modalidad de conversación en tiempo real por la red que permite acceder a una sala mediante un navegador (previo ingreso a un sitio). Es el estilo de chat que más atrae a la gente. Se podría decir que los portales son canales de contenidos y de servicios mezclados entre salas de chat. Aunque poco apreciado por los anunciantes, el chat es el servicio que más tráfico brinda a los sitios. Se podría decir que para medir él trafico de gente basta con entrar a las salas de chat. Según la tecnología sobre la cual estén construidas, existen dos tipos de salas de Webchat: las HTML (una referencia al lenguaje en el que se construyen las páginas web) y las Java Chat (como las que tiene, por ejemplo, Terra). Para poder chatear en las salas con Java es necesario que el navegador esté preparado para recibir esa clase de información. Para eso se necesita una PC con las versiones instaladas de Internet Explorer o del Netscape Navegator. El funcionamiento del Webchat es sencillo. Basta con entrar a un sitio, dirigirse a la zona dedicada al chat y elegir una sala y un nick, e ingresar. El tablero de operaciones es fácil de maniobrar. Lo básico del sistema son tres ventanas: la primera, y la más grande, muestra a los diálogos de los usuarios; la segunda, la lista de personas conectadas (ubicada generalmente a la derecha), y la tercera es un espacio donde se debe escribir lo que se quiera decir al resto de las personas que ingresaron a ese Webchat. (Tomado de Internet) [GiGA 1 / 2007]

57

Marc Andreessen

M

arc Andreessen (26 de abril de 1971, Iowa, EE.UU.) es el cofundador de la famosa empresa Netscape Communications Corporation y coautor de Mosaic, uno de los primeros navegadores web con interfaz gráfica. Andreessen creció en New Lisbon, Wisconsin. Su padre era vendedor de semillas y su madre trabajaba para una compañía de ventas por catálogos. Andreessen recibió su Licenciatura en Informática de la Universidad de Illinois Urbana-Champaign. Como estudiante trabajó un verano en la IBM de Austin, Texas. También colaboró en el centro nacional de aplicaciones para supercomputadoras, donde se familiarizó con los estándares abiertos de Tim Berners-Lee para la WWW. Durante ese período, él y su compañero de trabajo Eric Bina trabajaron para crear Mosaic. Mosaic fue creado en 1993 cuando aún era un estudiante de 22 años en la universidad y del National Center for Supercomputing Applications (NCSA), que permitía que la Red pudiera ser explorada mediante simples clicks del ratón (los navegadores anteriores eran en modo texto y se usaban con el teclado), y la incorporación de imágenes al texto no sólo introdujo el concepto de multimedia en Internet, sino que también permitía algún tipo de diseño gráfico en el recién nacido medio: la Web. Mosaic es el navegador gráfico que se distribuyó gratuitamente entre la comunidad científica y contribuyó a la rápida expansión del World Wide Web. Un navegador no es más que un programa informático que interpreta HTML, es decir, que va cumpliendo las órdenes establecidas en un fichero con el formato HTML. Después de conocer el trabajo de Tim Berners Lee, y luego de su graduación en 1993, se mudó

a California para trabajar en "Enterprise Integration Technologies". En 1994 se unió a James Clark, ex-presidente de Silicon Graphics, para formar la empresa Netscape Communications Inc. En 1995 era el programa utilizado por cerca del 90% de los usuarios, pero esta supremacía de Netscape duró hasta que llamó la atención de Microsoft, que reconoció el potencial de la empresa y trató de ponerse al frente de la revolución de Internet. Microsoft licenció el código fuente de Mosaic y lo convirtió en Internet Explorer, de manera que ganó la batalla en 1999 y Netscape fue adquirido por AOL. Hoy menos del 5% de los internautas utiliza Netscape. También Apache, un proyecto de software libre, adelantaba a Netscape en el campo de los servidores. Pero Netscape fue, junto con Yahoo!, la pionera en las fulgurantes salidas a bolsa que hicieron de personas como Andresseen los primeros "millonarios de Internet". En el año 2001, Andreessen fundó Loudcloud, una compañía basada en servicios de web-hosting. Loudcloud vendió su negocio a Electronic Data Systems (EDS) y cambió su nombre a Opsware en el año 2003, donde Andreessen continúa actualmente de ejecutivo. Mosaic significó para Internet lo que la Macintosh fue para la PC: volverla amigable. En poco tiempo ya un millón de personas tenían Mosaic instalado en su PC, pues se distribuía gratuitamente. Marc Andreessen es también el diseñador del SSL, Secure Socks Layets, el sistema de seguridad que ha servido para lanzar el comercio electrónico permitiendo el uso seguro de las tarjetas de crédito.

Mosaic fue el primer navegador gráfico disponible para visualizar páginas web. Fue creado en el NCSA (Centro Nacional de Aplicaciones de Supercomputación) en enero de 1993 por Marc Andreessen y Eric Bina. La primera versión funcionaba sobre sistemas Unix, pero fue tal su éxito que en agosto del mismo año se crearon versiones para Windows y Macintosh. Mosaic fue la base para las primeras versiones de Mozilla y Spyglass (más tarde adquirido por Microsoft y renombrado Internet Explorer).Era capaz de acceder a servicios web mediante HTTP, en su versión primitiva (HTTP 0.9) como la concebió Tim Berners-Lee, el cual desarrolló parte del código (acceso mediante protocolo file://, entre otros), aparte de Gopher, FTP y Usenet News mediante NNTP. Mosaic era software copyright de The Board of Trustees of the University of Illinois (UI). Su última versión windows, NCSA Mosaic v3.0, data de 1996. Nunca llegó a ser capaz de renderizar imágenes PNG, aunque si era capaz de hacerlo en los muy comunes JPEG y GIF. El lenguaje para documentos web que interpretaba se corresponde con HTML2. En enero de 1997 se abandonó oficialmente el desarrollo de este navegador.

[GiGA 1 / 2007]

59

Doble clicK Dispositivos electrónicos pueden causar dolores

D

olores en los pulgares, codos inflamados y hombros agarrotados son algunas de las lesiones vinculadas con el uso excesivo de juegos de alta tecnología y otros dispositivos. Éste es un asunto bastante serio, porque cada vez son más las personas que los usan. Así, ese tipo de lesiones por esfuerzo repetitivo (RSI, por sus siglas en inglés) son muy perjudiciales para todo el organismo, y una vez que aparece una RSI, es difícil librarse de ella, según comentan pres-

tigiosos especialistas de la Medicina. Hace algunos años, las RSI sólo afectaban a los trabajadores que pasaban horas repitiendo el mismo movimiento una y otra vez y hoy se pone de manifiesto que mientras la mayoría de los usuarios de las tecnologías de la información no sufren las RSI, cada vez hay más afectados, incluso hay niños de sólo siete años que desarrollan síntomas, informó el grupo británico de concientización sobre esta enfermedad, RSI Action (www.rsiaction.org.uk).

La inteligencia artificial ya rastrea olores

R

obots y otros sistemas automáticos eran hasta ahora incapaces de seguir un rastro olfativo debido a que las pistas "olorosas" del mundo real no forman trayectorias continuas, sino que el viento las fragmenta, las esparce y las desordena, problema que acaba de ser resuelto por científicos franceses y estadounidenses. Para ello, un rastreador macroscópico debe orientar su movimiento basándose en trazas esporádicas y una información muy parcial. Estos investigadores decidieron imitar

a los insectos para resolver el enigma por medio de la infotaxis, un algoritmo que no busca la máxima concentración de la sustancia, sino la máxima información sobre su fuente, justo al contrario que lo que hacía la quimiotaxis, método empleado hasta el momento, consistente en medir la concentración de la sustancia olorosa en dos puntos cercanos, dirigiéndose hacia el que da un nivel más alto. La quimiotaxis es un sistema simple y fácil de programar en un robot, pero no válido en las situaciones interesantes del mundo real.

Symantec alerta de un nuevo troyano en Word

L

a vulnerabilidad de "día cero" es la cuarta detectada en el programa de ofimática Word 2000 de Microfot, que aún no ha sido parcheada según fuentes de Symantec (fabricante de seguridad), mientras otras empresas de seguridad la han calificado como "extremadamente crítica" y la sitúan en el nivel más alto de peligrosidad. El ataque se produce por medio de un documento Word infectado, un método cada vez más usado por los hackers para ataques dirigidos. Si el usuario abre dicho documento, se instala un troyano, denominado Trojan.Mdropper.W, en el equipo. Además, el troyano también coloca

60

[GiGA 1 / 2007]

otros archivos en la PC que permiten que ésta sea controlada por el hacker. Por el momento, Microsoft no se ha pronunciado al respecto, pero aún se recuerda que fue el pasado enero cuando la compañía lanzó tres paquetes de parches para Outlook, PowerPoint y Windows, pero no para Word. No obstante, desde Symantec aconsejan que se puede evitar el problema obviando la apertura de aquellos documentos Word adjuntos en correos electrónicos. A menudo, los hackers envían cientos de mensajes con archivos nocivos anexados como programas troyanos y esperan que la víctima no sospeche nada y los abra.

Los disquetes, ¿han muerto?

C

uando salieron en su momento, los disquetes eran un sistema de almacenamiento importante. Aunque ahora 1,44 Mb sea una capacidad muy limitada, en su momento fue toda una revolución. Pero poco a poco se han ido quedando obsoletos, sustituidos primero por los CDS, poco después por los DVDs y ahora por las Memorias USB. Primero fue Apple, cuando anunció en 1998 que sus nuevos iMac no incorporarían lectores de disquete y le siguió Dell en el 2003. Ahora la macrotienda PC World ha decido dejar de vender ordenadores con lectores de disquete. Y así, poco a poco las tecnologías obsoletas dejan paso a las más modernas: el módem dejó paso al router y los disquetes a los CDS. Pero como destaca el Director Comercial de PC World, el sonido de los módems al conectarse a Internet o los disquetes formarán parte para siempre de la historia de la informática.

Televisión portátil con mal humor

I

ncorpora un sistema de navegación con voz que se enfada con el usuario, pero se vuelve más amable con el uso, y es la empresa de juguetes Takara Tomy que ha presentado una televisión portátil capaz de sintonizar emisiones de televisión terrestre digital one-seg (emisiones TDT para dispositivos móviles como PDAs y teléfonos). El receptor, llamado Segnity, incorpora un sistema de navegación con voz que informa al usuario sobre las funciones del aparato.

Doble clicK Los programadores de códigos Mil gigas en el disco duro maliciosos van hacia las web

U

na simple e inocente descarga de un vídeo o de cualquier otro archivo o aplicación de una página web puede traer "de regalo" un virus informático sin que el internauta se percate de ello, porque la estrategia de los programadores de aplicaciones maliciosas está cambiando: en lugar de crear gusanos que se propagan de forma masiva vía correo electrónico para infectar los equipos, ahora la tenden-

cia es enviar los e-mail personalizados al buzón del usuario invitándole a visitar una web donde hay "una oferta especial". Pero en realidad lo que persiguen es que el internauta descargue un software malicioso del tipo troyano, según informa la compañía Sophos. Los troyanos infectan las computadoras de forma subrepticia y facilitan el control remoto de éstas sin el consentimiento del usuario.

Intel fabrica transistores de 45 nanómetros

L

a compañía anunció el desarrollo de una nueva generación de transistores en la que ha añadido dos capas, conocidas como High-K y Metal gate. La implementación de este tipo de transistores ofrece, según Intel, hasta un 20% de mejora en el rendimiento, una baja en el consumo de 5% y una reducción de óxido del 10%. Para la elaboración de este nuevo transistor, Intel ha tenido que sustituir varias capas, o puertas lógicas, de sus transis-

tores tradicionales MOS, que se introdujeron a finales de la década de los 60, y por los que fluye el voltaje. Estos nuevos transistores harán su debut oficial con los primeros procesadores de 45 nanómetros de la compañía, cuya producción comenzará a finales de este año. Estos procesadores, conocidos como Penryn, contarán con 410 millones de transistores, en su versión de doble núcleo, y con 820 millones en la de cuatro.

E

n 1996, los ordenadores utilizaban un disco duro con un giga de memoria para guardar datos. Actualmente los nuevos equipos de sobremesa usan discos duros que sobrepasan los 100 gigas. Y ahora, Hitachi y Seagate, que emplean un nuevo sistema de grabación de datos, anunciaron la comercialización de los primeros discos duros con 1 000 gigas (1 terabyte) dirigidos al mercado de consumo (un giga equivale a mil megas y un tera, a mil gigas). La clave de las ofertas de estas entidades reside en un sistema de grabación perpendicular que mejora las prestaciones del sistema horizontal tradicional y mantiene las dimensiones y el peso habituales de estos elementos. Los nuevos discos duros son de 3,5 pulgadas (8,9 centímetros), como los que hay en millones de PCs, y pesan unos 700 gramos. La grabación perpendicular de datos es una técnica nueva, pero contrastada.

Windows Vista podrá bajarse directamente de Internet

S

e trata de la primera vez que Microsoft ofrece acceso electrónico íntegro a su sistema operativo, que hasta ahora se vendía preinstalado en las PCs nuevas o en un paquete de discos. La decisión de la compañía, que también venderá online su software Office 2007, muestra hasta qué punto la entrega electrónica se ha convertido en un método habitual para los usuarios informáticos que optan por este método para hacerse con todo tipo de programas informáticos. La compañía con sede en Redmond,

en el estado de Washington, señaló que el software está disponible desde enero, cuando se hizo su lanzamiento en los comercios. Uno de los directores del Gigante del Software señaló que aunque se prevé que la mayoría de los usuarios no optará por ese método para adquirirlo, la decisión de colocarlo en la red será un importante antecedente para futuras ventas online y especificó ser el comienzo de algo que será mucho más grande. Microsoft lleva años vendiendo copias online de su software para finanzas, juegos y otros programas

informáticos, pero hasta ahora no había considerado la distribución electrónica como un método suficientemente seguro o apropiado para su producto estrella, de manera que utilizará la tecnología de "cerrojo digital" para solucionar el problema de la seguridad, que entre otras cosas permite mantener a salvo las claves que dan acceso a su programa informático. Se destacó en esta información que Microsoft ofrecerá nuevas vías para que los consumidores actualicen sus sistemas operativos, entre ellas la llamada Windows Anytime Upgrade.

[GiGA 1 / 2007]

61

Doble clicK Internet revolucionará la televisión en cinco años

L

a red de redes puede revolucionar la televisión en cinco años, debido a la explosión de contenidos de vídeos presentes en Internet y a la alianza entre PCs y televisores, según expresó el presidente de Microsoft, Bill Gates. Según Gates, el aumento de las conexiones de banda ancha a Internet y la popularidad de páginas web como YouTube, propiedad de Google, provocaron ya un declive en el número de horas que los jóvenes pasan delante del televisor. Argumentó que se avizora que cada vez son más los espectadores que añoran la flexibilidad que ofrece el vídeo online y abandonan las emisiones televisivas con-

vencionales, compuestas por programas o anuncios que los interrumpen, y citó como ejemplo las interrupciones por publicidad en medio de transmisiones de procesos de elecciones y Juegos Olímpicos cuando el espectador está ansioso. Por su parte, el cofundador de YouTube, Chad Hurley, dijo que el impacto en la publicidad va a ser profundo, con un futuro que promete ir más allá acercándose y elaborando anuncios según el perfil de cada espectador, pero... los anunciantes no se quedan a la zaga, pues ya trabajan para adaptar sus estrategias al creciente poder de la Red.

Con la computación autónoma: software se arregla solo

I

BM comenzó a vender una nueva versión de su software de base de datos, DB2 Version 8, y pronto lanzará su producto WebSphere Version 5, software que forma la base sobre la que los programadores construyen y administran sus aplicaciones. Ambos productos se incorporan a los objetivos de Autonomic Computing (informática autónoma), que pretende crear sistemas de computación que necesitan menos intervención humana. Según IBM, un equipo de tecnología de la información (IT por sus siglas en inglés) de esta compañía se concentrará en la administración de operaciones

diarias y la tecnología - servidores y productos de software y almacenamientopodrá arreglarse por sí misma y mantenerse operando. "Todo lo que hace el equipo es definir estos reglamentos de negocios y los sistemas se desempeñarán de acuerdo con esos reglamentos y asegurar que todas las cosas ocurran correctamente", expresó uno de sus directivos. Pero además de arreglarse por sí mismos y funcionar, la computación autónoma incluye la capacitación de sistemas para que operen de forma eficiente y permanezcan funcionando, reparándose por sí mismos cuando ocurran errores.

Crecen otras amenazas informáticas en Internet

L

a compañía de seguridad Aladdin dio a conocer el estudio anual que realiza su equipo y que pone de manifiesto un crecimiento espectacular de 1300% de amenazas por medio de la Web en el 2006. Dichos ataques ascendieron de 7188 en el 2005 a 98 020 en el 2006, encabezados por el spyware y los troyanos como las amenazas más peligrosas. El 60% del robo de información por

62

[GiGA 1 / 2007]

spyware y troyanos en el 2005 fue catalogado como "amenaza menor" (información comercial privada comprometida), mientras que en el 2006 las variantes detectadas de estos ataques fueron calificadas entre "medias" (sistemas operativos y programas privados de ordenador) y "críticas" (invasión de la privacidad del usuario final y robo de información privada comprometida).

Compactas sin CD... Cada día se crean 80 000 weblogs nuevos Technorati informó que en la actualidad existen en la red unos 13,3 millones de weblogs y que diariamente se escriben en esos lugares 900 000 noticias o comentarios. El agregador de contenidos también dijo que la cantidad de weblogs se dobla cada cinco meses, mientras que el número de posts cada tres meses. Se especificó que la creación de nuevos weblogs ya alcanza un ritmo de 80 000 diarios en los últimos meses.

eBay prohíbe vender bienes o personajes virtuales El portal de subastas en Internet, eBay, decidió prohibir en su página web las ventas de personajes virtuales y otros accesorios de juegos en red, salvo los que se refieran al mundo virtual Second Life.

YouTube planea repartir parte de sus ingresos El sitio de vídeos en Internet YouTube planea repartir parte de sus ingresos publicitarios entre los usuarios que contribuyan con sus creaciones a alimentar el portal, aseguró el cofundador de la empresa, Chad Hurkley, durante el Foro Económico Mundial, celebrado en la localidad suiza de Davos.

Para evitar ataques de phishing El 91 % de los usuarios de la banca online está dispuesto a utilizar sistemas de autentificación más fuertes, de manera que vayan más allá del estandarizado usuario y contraseña para incrementar la seguridad en los bancos, y evitar los continuos ataques de phishing que ya han hecho sus estragos en muchas de las sedes importantes financieras en todo el mundo.

Doble clicK Publican herramienta para instalar Linux desde Windows

Más compactas sin CD...

E

Evitan el suicidio de un joven tras 14 horas de juego en la red

l nuevo Debian-Installer Loader se presentó oficialmente en la lista de correo de la distribución más libre de su página web, y aparece plasmado un estilo minimalista, con sólo aquello que se necesita para descargar y utilizar el sistema operativo Linux. La descarga del software consiste en un solo fichero llamado debian.exe de 503 kb. No se necesita nada más aparte de una conexión a Internet mediante la cual el software descarga los paquetes que componen la distribución. La instalación se ejecuta en dos pasos: primero, la descarga y ejecución de debian.exe, que lleva al segundo que consiste en el rearran-

que de la máquina y la instalación de la distribución propiamente dicha, que se realiza por la red. La información de Linux ya instalado se guarda en un fichero en la partición de Windows, instalando una versión especial del gestor de arranque Grub que permite escoger entre Windows y Linux. Esa forma evita reparticionar el disco duro, un paso peligroso para usuarios sin experiencia ni conocimientos técnicos. Pese a que muchos seguidores de Linux no lo consideran una instalación en toda la regla del sistema del pingüino, este tipo de soluciones puede ayudar a dar a conocer el Linux al público en general.

No te acerques demasiado a las PCs porque...

L

as computadoras se han convertido en el centro vital de miles de estadounidenses, que dedican más tiempo a navegar por Internet que a sus parejas, lo que hace peligrar cada vez más relaciones sentimentales, así el 65 % de las parejas en ese país presta a diario mayor atención a la pantalla de su ordenador que a las necesidades de sus seres queridos, según ha revelado una encuesta realizada por la firma Kelton Research. Este factor comienza a destacar como una importante fuente de riñas familiares y rupturas sentimentales. Lo cierto es que la investigación muestra que el 84 % de los estadounidenses ha desarrollado en los últimos tres años una dependencia cada vez mayor de sus máquinas domésticas, y los expertos apuntan que esta creciente dependencia, unida al sentimiento de frustración que se produce cuando aparecen averías en la PC, puede generar en el usuario un estrés similar al que aparece en las discusiones conyugales. Pero no todo está dicho porque... no

todo es negativo en la relación del hombre y el chip: las PCs han abierto nuevas posibilidades sentimentales a los más de 90 millones de solteros de ese país gracias a las páginas de citas en Internet. Pero también... cada vez se ventilan más casos de clientes insatisfechos con los servicios prestados por empresas para "conocerse en vivo" y de divorcios de parejas unidas por Internet, lo que hace que muchos se replanteen su manera de afrontar las relaciones y vuelvan a confiar en el factor humano, es decir, el cara a cara.

Un joven que amenazó con suicidarse tras ser expulsado de un videojuego en Internet en el que estuvo 14 horas consecutivas fue el inicio de una búsqueda frenética por parte de las autoridades de su país. El jugador de 19 años, dijo en un chat que se suicidaría después de que un "maestro del juego" le negara su petición tras su maratónica participación. Mientras, la compañía francesa que proporciona el servicio y la atención al cliente del juego en línea, informó a los agentes la amenaza de suicidio, pero sólo facilitó el nombre con el que se identificaba el jugador.

Un acusado de piratería contraataca Un joven de Nueva York, acusado de piratería por la industria musical demandó a varias empresas por difamación, violación de leyes del copyright, conspiración para estafar a los juzgados y amenazas de extorsión. ¿La noticia? Pues los documentos responden a la demanda que cinco sellos musicales realizaron contra el joven, que tenía 11 años cuando se supone que pirateó la música. Pero el chico negó haber utilizado servicios P2P para conseguir música y afirmó que es imposible que estas discográficas puedan demostrar que lo hizo.

Microsoft compite con Skype y crea un sistema de llamadas gratis Skype tiene un nuevo competidor: Microsoft, que ha comenzado a realizar pruebas para hacer llamadas gratuitas o de bajo costo por medio de la red de redes. Aunque de momento se trata de un proyecto, este sistema podría revolucionar el mundo de las telecomunicaciones en Internet, un mercado en plena expansión y con múltiples posibilidades, y, sobre todo, crear nuevos problemas de competencia a la compañía informática. [GiGA 1 / 2007]

63

Y como hemos explicado, esta Sección que está calificada por la letra W que puede atribuirse a la www, a Windows o Watson si retomamos aquella aplastante sentencia de "Elemental, querido Watson,..., elemental", que expresara el increíble Holmes en sus continuas y reveladoras indagaciones. Pero hoy debía llevar una L, ya que complacemos a algunos lectores que nos sugieren en sus mensajes, cartas y llamadas telefónicas ceder este espacio al sistema operativo del pingüino Tax. Y comenzamos a hablar de Linux, ¿qué les parece? Veamos algo de lo que pudimos aprender cuando empezamos nuestro "cacharreo" con este sistema operativo.

Al principio no es fácil... Cuando comenzaste a usar Windows, seguramente fue para ti algo desconocido. Igual sucede hoy con Linux, pero paso a paso veremos algunas de sus características. Si ya has usado GNU/Linux y tienes conocimientos básicos, estos pasos te pueden parecer simples, pero... primero hay que andar despacio para luego poder correr.

Diferencias entre GNU/Linux y Linux Linux es sólo el corazón del sistema operativo, mientras que GNU se refiere a las herramientas de software libre con licencia GNU GPL que conforman el sistema operativo, en realidad sólo Debian es estrictamente GNU/Linux, ya que todas las demás incluyen softwares con otros tipos de licencias. Un programa licenciado con GPL, significa en pocas palabras, que: • Tiene código abierto. • Es de libre distribución, para ser copiado, modificado, revendido, etc. • No puede redistribuirse bajo otra licencia. Recuerda que Libre NO es sinónimo de Gratis. Y que se ha decidido llamar GNU/Linux para hacer justicia a todos los programadores de software libre y no sólo al creador del núcleo (Linus Torvalds).

Al encender la PC Si sólo posees Linux espera a que termine el proceso de arranque, pero si además tienes Windows en tu PC, deberás prestar atención al programa Lilo, que te permite elegir cuál sistema operativo queremos iniciar y éste puede ser gráfico o de texto. Seguramente tendremos una opción que corresponde a Windows y otra a Linux (puede haber otras). Emplea las flechas del cursor y luego da Enter, entonces puedes hacer ya tu elección. La opción que se encuentra primero es la que se carga de manera predeterminada. Si usas la tecla Tab, verás qué opcio-

64

[GiGA 1 / 2007]

nes tienes para arrancar y se detendrá la cuenta regresiva. En el caso que Lilo sea gráfico, se usará Esc para pasar el Lilo en modo texto.

Cómo empiezo a usar GNU/Linux Para los que no lo sabían: en GNU/Linux es obligatorio registrarse para poder utilizar el sistema. Es decir, debes tener el permiso para hacerlo, y para registrarte deberás contar como mínimo de dos cosas: • Nombre de usuario. • Contraseña. Tienes que saber el nombre de usuario (login) y la contraseña. El proceso de registro se llama login. Hay cuatro tipos de Login: Modo texto: Se introduce el nombre de usuario y luego la contraseña. Atención: Para GNU/Linux "A" no es lo mismo que "a", es decir se diferencia entre mayúsculas y minúsculas. Aquí se presenta una interfaz de texto puro. Para pasar al modo gráfico, se debe ingresar el comando startx. Modo gráfico XDM: Es para entrar al entorno gráfico. Aquí se ingresa también el nombre de usuario y la contraseña. Es probable que el teclado numérico esté desactivado. Si el usuario o la contraseña poseen números, usa los que están ubicados en línea horizontal. KDM: Se procede de manera similar a la anterior. El teclado numérico está disponible. Tenemos una lista desplegable desde la cual se puede elegir el entorno de escritorio o el administrador de ventanas. GDM: Es similar al anterior, sólo que ingresa el nombre de usuario y la contraseña en dos pasos distintos.

Cómo leer un CD o un disquete Los discos y particiones se montan. Montar un sistema de archivos significa básicamente unir un sistema de archivos al árbol de directorios. Todo se maneja como archivos, se puede montar y desmontar (sacarlo o agregarlo al árbol de directorios). Es

decir, tenemos algo que se monta y un punto de montaje, el cual es siempre un directorio. Los entornos gráficos GNOME y KDE en el escritorio poseen íconos correspondientes a la unidad de CD y a la disquetera que al hacer click para abrirlos monta automáticamente el dispositivo. Si queremos montar un CD desde una terminal es sencillo: mount /dev/cdrom /mnt/cdrom o bien mount /dev/cdrom /cdrom según la distribución que tengas. Es decir de acuerdo con el primer ejemplo, los archivos de un CD estarán en /mnt/cdrom Atención: Los CD de audio NO hace falta montarlos.

Cuál entorno gráfico escoger Recuerda que en GNU/Linux es posible elegir varios entornos gráficos. Los principales son: KDE: Es un entorno de escritorio muy parecido al de Windows con muchas funcionalidades incorporadas. Ideal para PCs con un mínimo de 64 Mb de memoria RAM. GNOME: Es otro entorno de escritorio más complejo en comparación con KDE para quienes están acostumbrados a Windows. Window Maker: Administrador de ventanas liviano y con amplias funcionalidades. Si usaste Windows mucho tiempo requerirá tiempo habituarte, pero además de ser bastante liviano, posee atajos de teclado y menús flotantes que le dan una excelente funcionalidad. XFce: Este es un entorno de escritorio mucho más simple que KDE y que GNOME, pero excelente para PCs que no poseen la memoria suficiente como para usar KDE o GNOME. BlackBox: Un entorno de ventanas austero y elegante. Usa estrictamente lo necesario. Al igual que Windows Maker requiere una adaptación mayor para aquellos que emplearon el entorno gráfico de Windows, pero si has usado DOS, o

otras herramientas menores.

Programas para editar imágenes Sin duda, una de las herramientas más destacadas en GNU/Linux para manipular imágenes es GIMP. Si bien posee una interfaz bastante atípica (se maneja principalmente con menús contextuales) posee alta funcionalidad, gran cantidad de filtros, y manipula muchos formatos. Otras herramientas interesantes son: gqview: Un excelente visualizador de imágenes ideal para buscar imágenes en nuestros directorios. Capturador de Pantalla (ksnapshot): Una aplicación que permitirá tomar instantáneas de la pantalla para luego guardarlas y eventualmente editarlas. kontour: Programa para realizar dibujos vectoriales.

Los programas de oficina que brinda Cuenta con StarOffice que se puede emplear para uso personal o internamente en una empresa. StarOffice cuenta con: StarWriter: Es el análogo al Word de Windows. StarCalc: Programa de planilla de cálculo ideal para reemplazar en forma gratuita a Excel. StarImpress: Aplicación para realizar presentaciones en pantalla o en otro medio. Además cuenta con StarWriter Web (para hacer páginas web), StarDraw (herramienta para dibujos) StarOffice Image (para editar fotos), StarMail (enviar y recibir e-mails), StarBase (para hacer bases de datos), StarSchedule (un buen organizador personal), y

Qué programa para correo eléctrónico es el mejor

XMMS: Este programa es principalmente un reproductor de archivos de audio MP3. Posee una interfaz amigable y se le pueden cambiar "skins" ("pieles" aspecto visual del programa). Reproductor de Medios KDE: Llamado noatun, tiene la capacidad de reproducir MP3 y otros formatos de archivo de sonido. Al igual que XMMS es fácil de usar y permite cambiar su interfaz. Sintetizador Midi: También llamado Kmidi, es un muy buen reproductor de archivos midi, posee la capacidad de aplicar efectos, un monitor de canales y visualizador de notas. aktion: Es un buen reproductor de archivos de vídeo que soporta varios formatos encontrados habitualmente en Internet.

En cuanto a programas para correo electrónico se recomienda: Mozilla: Esta aplicación forma parte del conjunto de aplicaciones para Internet Mozilla. Además de enviar y recibir mensajes, posee filtros, libreta de direcciones, posibilidad de enviar mensajes en HTML, y otras características que lo hacen un buen producto, pero tiene como desventaja que es algo lento para abrir ventanas. Evolution: La mejor opción para quienes se han acostumbrado a usar Microsoft Outlook, y además de las funcionalidades que posee Mozilla, cuenta con un organizador personal que lo hace ideal para el trabajo en oficina. Sylpheed: Es un programa de correo electrónico recomendable para equipos viejos, ya que abre ventanas con bastante rapidez. No posibilita escribir mensajes formateados en HTML, pero tiene todas las funcionalidades imprescindibles.

El navegador más conveniente

Terminamos con la papelera de reciclaje

Y para la multimedia qué posee

Windows recientemente y posees una PC con poca RAM, BlackBox es tu mejor opción.

(por lo tanto debe estar instalado), pero se focaliza exclusivamente en la función de navegador. El resultado es muy bueno ya que toma excelentes herramientas de Mozilla, por ejemplo: puede ir deslizando automáticamente una página para leerla en forma cómoda y se caracteriza porque puede guardar una página web completa. Konqueror: Además de navegador es un administrador de archivos y facilita pasar de un directorio local a una página web. Es probable que algunas páginas no se vean correctamente, pero es un navegador veloz con amplias funcionalidades. Links: Es de texto puro y se ejecuta en terminales virtuales. Posee menús desplegables. Si sólo interesara el texto de las páginas web, o posees un equipo poco moderno o tienes una conexión lenta a Internet, es la opción recomendable.

Podrás elegir entre varias posibilidades: Mozilla: Es un conjunto de programas para Internet, entre los que se destacan el propio Navegador y su mensajero de correo electrónico. Si estás habituado a usar Netscape, es una opción recomendable. Galeón: Éste utiliza como base a Mozilla

XFce, GNOME y KDE poseen sus propias papeleras. Y si eliminas un archivo sin hacerlo pasar a la Papelera, se debe pensar bien antes de hacerlo, pues prácticamente es imposible recuperarlo. Triturar un archivo (opción que aparece en KDE) es un medio para estar bien seguros de la eliminación de un archivo. [GiGA 1 / 2007]

65

Hola giganautas, como siempre, tratamos de dar respuesta a todos los que se toman el trabajo o el placer de enviarnos sus cartas o correos y nos hacen llegar sus criterios. Para esos amigos son estas dos columnas, pero antes un llamado: escríbannos contáctennos que es la mejor forma de ayudarnos.

GiGA es como el elefante Brian Rodríguez, quien tiene 17 años y estudia Informática en el Politécnico "Mártires de Girón", es seguidor de nuestros números. Nos habla de un sinnúmero de esfuerzos que realiza para "empatarse" con las diferentes ediciones que han visto la luz. Brian, esa revista azul que es la 4 del 2006 es la anterior a ésta. Recuerda que la salida es trimestral, por lo que cada una de ellas debe llegar a estanquillos comenzando el siguiente período de tres meses. No estás tan atrás. Con el CruciGiGA que envías también te convertirás en uno de nuestros colaboradores, sólo que hay que hacerle algunos arreglos para publicarlo. Pero adelante amigo, sigue con esa iniciativa que este colectivo te lo agradecerá siempre y con la misma buena voluntad que tú nos contactas. Éxitos en tus estudios de Informática.

Le debemos el medio ambiente "El que les escribe es un fiel lector de la GiGA, aunque no la recibo directamente, soy jefe de cátedra de Informática en la Escuela Nacional de Cuadros de los CDR, productor de multimedia y cursante de una maestría en Gestión Ambiental. Necesito documentación acerca de la influencia del uso de computadoras en el medio ambiente, ya sea en la naturaleza o en el recurso humano, ése el tema de mi maestría y me está resultando muy difícil acceder a la información." Estas son las palabras textuales, del amigo [email protected] quien olvidó escribir su nombre. Si a nuestras manos llega algo relacionado con la computación y el medio ambiente, lo publicaremos, pero ahora trata de contactar con los especialistas de esa rama, porque no contamos con colaboraciones relacionadas. Luego, cuando te hayas informado sobre el asunto, nos envías tus experiencias. Serán interesantes, seguro que sí.

La Nanotecnología prende Nos contacta Eliud Suárez Zamora, sin otros datos. Del primer tema que habla, veremos qué otras cosas nuevas podremos publicar y se lo comu-

66

[GiGA 1 / 2007]

nicaremos al amigo que escribe en la sección de Joystick. Y con respecto a la novísima Nanotecnología... tu e-mail es casi una clase sobre el tema. Te aconsejamos y agradeceremos que reúnas más datos con toda la explicación que nos hiciste llegar sobre la importancia de esta tendencia que "camina a lo pequeñito" y quizás puedas conformar un artículo de su aplicación en la Medicina. Como Calviño, volvemos a expresar: "Créenos, vale la pena".

Llegó de su puño y letra Se trata de una carta muy cariñosa que hizo que este colectivo agradeciera mucho. El giganauta es Adalberto Viñale Pérez, quien hoy tiene 15 años y desde que tenía 10 es nuestro lector. Nos engrandecen tus gigapalabras y enviamos saludos a tu Mamá que cacharreando ya es también nuestra lectora. Los temas que solicitas, no son tantos, no te asustes, pero sí servirán para que otros colaboradores los desarrollen como artículos. Otra cuestión que nos alegra cuando leímos tu carta, fue saber que conoces bien el sistema operativo Linux, pues en este número, como verás, Elemental W... deja de serlo para complacer a los linuxeros y cambiamos la W por la L. De que somos tenaces no tengas dudas, pero de ser ese metal dorado... sí las dudas son nuestras. Gigagracias, chico. Ah... Adalberto vive en calle A # 54 e/ San Miguel y San Cristóbal, Rpto, Raúl Sancho, en Santa Clara, VC.

La multimedia gana adeptos Su nombre es Ericnell y estudia Licenciatura en Informática, en el municipio de Bartolomé Masó en la provincia de Granma. Estamos contactando a nuestros colaboradores para lo del tema de la Multimedia, y de seguro pronto publicaremos lo que solicitas. La suscripción es únicamente para centros de trabajo o de estudios, pero de cualquier forma si necesitas alguna ayuda en tus estudios, escríbenos que si por esta vía es posible, te tendremos en cuenta. Y por hoy nos vamos. Pero, paren... que antes falta despedirnos, chao giganautas... Colectivo de GiGA

A punta de Cursor... Por Norma Márquez González

Y miren, como en cada salida de nuestra GiGA hay cosas y COSAS. La semana anterior había cubierto por la redacción la XII Convención y Feria Informática 2007. Quedaba entonces redactar el texto que saldría en la Sección de la Entrevista. Y por la importancia de todo el material que había reunido busqué un espacio tranquilo para dar forma de reportaje a "mi materia prima". Y ahí surgió el problema. Había redactado la introducción desde la PC en la Redacción, y mi compañero Rubén me envió por correo hacia la otra máquina "del lugar tranquilo" como dato adjunto, esos párrafos del comienzo. Y abriendo documentos de Internet y pasándolos a Word, reuniendo boletines para organizarme no me di cuenta que redactaba mis cuatro páginas de entrevistas, opiniones y recorridos en ese anexo del e-mail. Terminé tarde en la noche y salvé. ¿¿¿Salvé??? Nada. No quiero recordar. Como no tenía activado en Opciones de Herramientas del Outlook Express la salva de documentos, perdí todo mi trabajo de un día y quedé entre suspiros, impotente y con la boca abierta. De pronto recordé lo que me había dicho en Informática el Sr. Richard Stallman (creador y desarrollador del sistema operativo GNU, compatible con Unix, pero con código fuente abierto y gratuito), quien en medio del encuentro, con su laptop en las piernas, me pidió lo ayudara a encontrar "un pajarito de muchos colores que habla". Y yo ¿un loro? Me explicó entonces que es un buen refrescador cuando se trabaja con la computadora. ¡Y no le creí! Ejemplo es la foto cuando exclamé. ¿Un loro? "Sí", afirmó. Y hoy, luego de haber tenido que volver a redactar mis cuatro páginas para la Sección de la Entrevista, me digo que no por gusto Stallman necesitaba una cotorra. ¡Vaya si yo también necesitaba un loro que me ayudara a recomponer todo lo perdido y que cobró 16 horas de mi trabajo! De nuevo para mí, la naturaleza desplazó al desarrollo. Y ahora salvo estas líneas antes de que algo raro ocurra y pierda mi A punta... Nos vemos. Bibliografía: porfavorunloro.com

Definición de Virus: Creencia de usuarios inexpertos de que una fuerza maligna exterior es la causante de sus errores en la computadora. ---Usuario: Necesito pasar esta imagen a mi cuenta para un trabajo. Informático: Eso está hecho, te la paso por FTP en un momento. Usuario: No, no puede ser, la imagen tiene que ser JPG. Moderador: ¡/&%/((/&/! ----Ahorro (que conste que no tenemos nada contra uno u otro Sistema Operativo) Tres ingenieros de Linux y tres de Microsoft se disponían a viajar en tren para ir a un congreso. En la estación, los de Microsoft compraron sus pasajes y observaron que los de Linux sólo compraban uno... • ¿Cómo van a viajar tres personas con un solo pasaje?, les preguntó uno de los empleados de Microsoft. •¡Ahora verás!, respondió uno de Linux. Subieron todos al tren y los de Microsoft vieron cómo los tres ingenieros de Linux entraron juntos al baño. Luego de arrancar el tren, pasó el inspector pidiendo los pasajes, tocó la puerta del baño y dijo: "Ticket por favor"... la puerta se abrió lo suficiente como para que saliese un brazo con el pasaje en la mano, el revisor lo marcó y siguió su camino. Al ver esto, los de Microsoft acordaron que era una idea genial y que copiarían el truco a la vuelta del congreso para ahorrar unos pesitos.

De regreso, en la estación, los empleados de Microsoft compraron un solo pasaje, y se quedaron atónitos al ver que los linuxeros no sacaban ninguno... •¿Cómo van a viajar sin pasaje?, preguntó perplejo uno de los de Microsoft. • ¡Ahora vas a ver!, respondió uno de los de Linux. Al subir al tren, los de Microsoft entraron a un baño y los tres de Linux en otro... Arrancó el tren, y rápidamente uno de los linuxeros salió del baño, se dirigió al de los empleados de Microsoft, tocó la puerta y dijo: "Ticket por favor"... -----Usuario: La PC me dice que pulse OK, pero no encuentro esa tecla por ningún lado. Informático: ¡Ni siquiera se le ha ocurrido pulsar la "O" y luego la "K". -- - - Sexo entre ordenadores: Un ordenador macho le dice a uno hembra: • ¡Oye!, ¿quieres que hagamos el amor? • Y ella responde: No, no, me apetece. • Pues qué pena, ¡ahora que tenía el disco duro! Solución del cruciGiGA

[GiGA 1 / 2007]

67

HORIZONTALES 1. Mecanismo de seguridad de Internet que impide el acceso a una red. Cortafuegos. 9. En computación: la unión de 8 de ellos da lugar a un byte. 12. Es un sistema operativo que puede funcionar con gran variedad de hardware. Se caracteriza por permitir interactuar a programadores y usuarios. 13. Famoso músico y compositor cubano, autor de una destaca cantidad de obras musicales para el cine. 14. Repetición del sonido. 15. Árbol exótico de madera muy negra por el centro y blanquecina por la corteza. 16. No, al revés. 17. Prefijo que significa un milmillonésima parte, muy aplicado hoy a la tecnología. 19. Frecuencia Modulada (sig). 21. Relación entre dos magnitudes. Acompaña a transferencia cuando queremos saber la velocidad a que estamos conectados a una red. 25. Terabyte, unidad de medida que equivale a 240 bytes. 27. Pronombre personal de 3ra. persona singular y femenino. 28. Época. 30. De ver. Pretérito. 31. Terminación verbal. 32. Sílaba repetida para significar los golpes que se dan en la puerta para llamar, 33. De acopar. 35. Nueve en números romanos. 36. Computadora en la red. 38. Abreviatura de Señor. 39. Porción indeterminada de un todo. 41. Al revés: la red y sin la 1 final. 42. Ciento uno en números romanos. 43. Apellido del Dr. de la serie que está pasando la TV por Arte 7. 46. Artículo determinado de 3ra. persona. 47. Igual a la 38, pero invertido. 48. Apodo o sobrenombre. 51. Nombre de enfermedad inflamatoria que dificulta la respiración. 53. Nombre de letra y es la infusión que asociamos a la puntualidad de los ingleses. 54. Artículo que emplean los pintores 56. Consonantes de tapete. 58. Relativo a los riñones. 59. De crecer. VERTICALES 1. Variedad completa de caracteres de imprenta de determinado estilo... si el cántaro va mucho a ella se puede romper. 2. Se dice de los habitantes del Cuzco

68

[GiGA 1 / 2007]

Elaborado por: Ene Eme Ge [email protected]

y sus alrededores. 3. Corriente de agua dulce. De reír. 4. Que fue y ha dejado de serlo. 5. World Wide Web. 6. Nombre de la primera programadora, hija de Lord Byron que ya estuvo en la Sección GiGAntes. 7. Objeto transparente, generalmente de vidrio que se emplea en instrumentos ópticos. 8. Consonantes de los. 9. En computación es el sistema básico de entrada/salida. Basic InputOutput System. 10. En Química: átomo o molécula cargada eléctricamente por ganar o perder electrones de su rotación normal. 11. Ni muy, muy... ni... 15. Nombre que se da a los productos de la sábila (inv.). 18. Navegador desarrollado en 1995 por un equipo liderado por Marc Andreessen, creador del Mosaic. 19. Tarjetas de memoria, presentes en dispositivos electrónicos como cámaras digitales. Es también programa de la empresa Macromedia que sirve para diseñar webs y banners con animación. 20. Significa grande. Conjunto de expresiones o instrucciones tales como "borrar archivo", "añadir registro", etc. 22. Advanced Research Proyectos

Agencia, la red que dio origen a Internet. También es instrumento musical. 23. Formato de Microsoft para archivos de audio y vídeo. 24. Combinación de "picture" y "element". Elemento gráfico mínimo con el que se componen las imágenes en la pantalla de una PC. 26. Navegador web. 29. Importante río del centro y Norte de Suiza. 34. Obra que se resume con relación al conjunto de la producción de un compositor y es también parte del nombre de la revista de la que se habla en la Sección PerroWebero. 36. Unidad de frecuencia electromagnética. Equivale a un ciclo por segundo. 37. Sonido de las campanas. 40. Es una carpeta que guarda archivos con extensión .tmp. 44. Cloruro de Sodio. 45. Punto cardinal. 49. Sufijo que forma sustantivos femeninos que indican acción súbita y compleja. 50. Corriente alterna (sig). 52. De atar. 55. Nombre de la 3ra. letra del abecedario (inv.). 57. Última letra del abecedario (la del Zorro).

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.