El Editor. discos rígidos portátiles o cualquier otro dispositivo transportable de lectura-escritura

GiGA No. 2 / 2009 Editor Jefe: Lic. Vilma Simoneau [email protected] Diseño: D.I. Humberto Becerra [email protected] D.I. Vianys

17 downloads 22 Views 8MB Size

Story Transcript

GiGA

No. 2 / 2009

Editor Jefe: Lic. Vilma Simoneau [email protected] Diseño: D.I. Humberto Becerra [email protected] D.I. Vianys Zamora [email protected] Redacción y corrección: Lic. Norma Márquez [email protected] Director de Marketing y Comunicación: María del Pilar Herrera [email protected] Economía y Finanzas: Elisa García [email protected] Consejo editorial VM Alberto Rodríguez Arufe, VM Boris Moreno, VM Jorge Luis Perdomo, Asesor Rafael Galindo, VP Eviel Ramos, María del Pilar Herrera, Vilma Simoneau Pre-P Prensa Digital: Fotomecánica Da Vinci. Impreso por: Empresa Ediciones Caribe. ¿Cómo contactar con GiGA? Centro de Negocios Miramar, edificio Habana, Ave. 3ra. e/ 78 y 80, 3er. piso, oficina 308, Miramar, Playa, Ciudad de La Habana, Cuba. Teléfono: 204 7819 Editada por: Dirección de Marketing y Comunicación, COPEXTEL Frecuencia trimestral

Y

llegamos a la segunda edición del 2009, con las mismas aspiraciones de siempre apartando tropiezos y en busca de soluciones para que no les falte, ésta, su revista GiGA. En este número ofrecemos trabajos refrescantes para estar a tono, más bien, para atenuar el apogeo de este verano, que si que llegó bien ¡caliente…! Temas tan interesantes como el de los gabinetes integrales de los compañeros de ETECSA, otro sobre la evolución de la tecnología y los servicios de fibra óptica de los amigos de la ISPJAE, la gustada sección de Fotografía digital con nuevas enseñanzas, la multimedia y sus ventajas, el CtrlH dedicado a la Telemática y muchos más detalles que serán de su agrado y provecho. De los amigos de la Oficina para la Informatización es nuestro artículo de portada, seleccionado por su actualidad y utilidad en el mundo, ventajas y demás facilidades que conocerá en estas páginas, de primera mano. ¿Su título? Software de bolsillo. Si creías que los discos USB (de Universal Serial Bus o Puerto de Serie Universal) servían sólo para almacenar archivos, estás muy equivocado. Gracias a una serie de interesantes desarrollos, esta tecnología ha evolucionado en dispositivos que permiten llevar contigo sus aplicaciones favoritas e incluso proteger sus datos. El software es cada vez más complejo y "pesado" nadie puede dudarlo, por eso es necesario contar cada día con una computadora más potente para no quedarse rezagado. Sin embargo, alguien tuvo la brillante idea de aligerar esas mismas aplicaciones (procesador de textos, navegador web, cliente de correo, y otras) para que pudieran ser corridas desde un simple pendrive (o llavero USB), un reproductor MP3, un iPod,

discos rígidos portátiles o cualquier otro dispositivo transportable de lectura-escritura de datos. Las posibilidades de esta tecnología son infinitas. No sólo porque no requiere instalación alguna, ni se modifica ninguna configuración en la máquina a la que hayas conectado el dispositivo, sino porque tampoco se deja el menor rastro de las tareas realizadas, ya sea la navegación por Internet como la edición de un texto o chequear el correo electrónico. Este sistema, que se extiende con rapidez, permite, por ejemplo, que uno lleve a todos lados su navegador, con sus favoritos, mensajes de correo, agenda, contactos y música, por ejemplo, en el bolsillo. Y, lo mejor de todo, mediante aplicaciones gratuitas. ¿Qué son las Aplicaciones Portables? Sus características, principios generales de funcionamiento, diferentes tipos, ventajas y desventajas, sitios donde descargar algunos Portables encontrarás en este contenido. En el ámbito del desarrollo actual de la informatización de nuestro país y la utilización de las computadoras sin disco duro como estaciones de trabajo se viene practicando el uso de estas aplicaciones, pues son ideales además para aquellos puestos no permanentes como son por ejemplo los Joven Club de Computación en los cuales no es posible contar con todas las aplicaciones necesarias. Demos entonces la bienvenida a esta novísima tecnología que como hemos dicho: cabe todo en un bolsillo. ¡Enhorabuena!

El Editor

[GiGA 2 / 2009]

1

contenido

Idea inteligente con gabinetes Un recorrido por diferentes municipios de la capital y la labor que se realiza en la instalación de gabinetes integrales nos entregan los compañeros de ETECSA. Se trata de una nueva tecnología que sirve para potenciar los servicios telefónicos con una especie de módulos o unidades remotas de abonados en los que parte de la inteligencia necesaria está en sus propios sistemas. Pero dejamos al lector que se sume a este recorrido y reconozca esa labor que aúna a los capitalinos por mejorar el acceso telefónico.

[4]

¿Mambrú se va nuevamente a la guerra? Recomendamos este artículo con el propósito de que el lector comprenda cómo el desarrollo tecnológico de las redes ha estado vinculado con las carreras armamentistas y sus estrategias. Y hoy, y para mal de la humanidad, Estados Unidos recurre a términos tan tristes como ciberguerra, cibervirus, cibermercenarios, ciber… en fin. Es mejor que concluyamos esta sugerencia con el final de la canción que le da título: ¡ay qué dolor, qué dolor, qué pena!

[6] Evolución de la tecnología y servicios de Fibra Óptica En la actualidad hay dos razones principales que motivan una utilización cada vez mayor del recurso de ancho de banda: el aumento de los servicios de datos, en especial los relacionados con Internet, y la existencia de diversos protocolos de comunicación incompatibles entre sí. De la evolución de la fibra óptica y la relación entre ésta y el ancho de banda, tema de gran importancia hoy, nos hablan los autores.

[ 32 ] TIC: ¿Un nuevo modelo de aprendizaje o medios para la enseñanza y el aprendizaje? El empleo de las nuevas Tecnologías de la Información y la Comunicación (TIC) en el proceso de enseñanza-aprendizaje exige pensar y desarrollar las relaciones que en él se dan y dejar atrás una enseñanza tradicionalista en la que el profesor es el centro del proceso, y los estudiantes simples receptores de conocimientos. Una vez planteada así esa verdad, la invitación es obvia: continúe la lectura de estas páginas.

[ 50 ]

...De la cámara al papel Muchas personas desconocemos que las instantáneas que tomamos en un momento determinado pueden no ir directamente al laboratorio fotográfico, pues antes pasan por programas informáticos que permiten manipular, transformar y utilizarlas de maneras diferentes, además de almacenarlas digitalmente, sin necesidad de imprimirlas todas, y con la posibilidad de utilizarlas en diferentes aplicaciones. Súmate al seductor mundo de las imágenes impresas con este artículo.

[ 48 ]

2

[GiGA 2 / 2009]

Software de bolsillo Si crees que los USB (Universal Serial Bus o Puerto de Serie Universal) sirven sólo para almacenar archivos, estás equivocado, pues gracias a una serie de interesantes desarrollos, esta tecnología ha devenido dispositivos que permiten llevar contigo tus aplicaciones favoritas e incluso proteger tus datos. Ese fue el comienzo para el parto de lo que conocerás en el tema principal de este número: Aplicación o Programa Portable. Sus características, funcionamiento, diferentes tipos, principales ventajas entre otras el empleo sin permisos de administración, ejecución sin instalación ni configuración y mostrar trabajos en su archivo nativo en máquinas que no posean tal o más cual programa instalado, son pasos gigantes del desarrollo de esta tecnología…. Y todo, simplemente todo, cabe en un bolsillo.

sumario

[ 26 ]

4 6 12 19 24 26 29

32 39 43 46 47 48

50 52 54 57 58 60 64 66 67 68

Entrevista Idea inteligente con gabinetes Hardweriando ¿Mambrú se va nuevamente a la guerra? Carrera de Alta Velocidad Nettop Acer AspireRevo, el nuevo mediacenter notihardWare Softweriando Software de bolsillo TAIPS-net: Sistema centralizado para la recolección de alertas y análisis de incidencias Enredados Evolución de la tecnología y servicios de Fibra Óptica Contaminación electromagnética: Mitos y realidades Joystick Wii Fit, diversión sana en cuerpo sano Joystick noticias Project Natal, la invasión de Microsoft A fondo Multimedia TIC: ¿Un nuevo modelo de aprendizaje o medios para la enseñanza y el aprendizaje? Mis imágenes … De la cámara al papel Zoom Ctrl+H Las Telecomunicaciones y la Informática perroWEBero Debate y reflexión en www.latecla.cu GiGAntes Allen Newell Doble click Elemental W… Cartas y A punta de cursor Screen saver cruciGiGA

Wii Fit, diversión sana en cuerpo sano

[ 43 ]

Entérese de la aparición de esta nueva consola que como su título indica ha levantado a todos del sofá con propuestas divertidas y saludables. Disfrute de esta cara más actual del entretenimiento digital.

Las Telecomunicaciones y la Informática

[ 54 ]

Breve historia sobre la Telemática presentamos en su sección Ctrl H, información fresca de esta rama que aún le falta mucho por andar.

[GiGA 2 / 2009]

3

entrevista

MSc. Vianka Govín [email protected] MSc. José Antonio Roche [email protected] ETECSA

S

omos más de dos millones de personas los que habitamos la capital del país, y quienes piensen que La Habana es La Rampa o El Vedado, o la renovada Habana Vieja, se sorprenderán tal vez si les decimos que hay cientos de pequeños agricultores en las zonas rurales donde gente muy trabajadora se dedica a la siembra y a la ganadería. Como provincia mide de una punta a otra más de 50 kilómetros, de Santiago de las Vegas a Guanabo y de Santa Fé a Parcelación Moderna, a lo que se le suele llamar La Habana profunda. Curiosamente, la gente de esos lugares cuando se dirige a Centro Habana dice: "vamos a La Habana". Quedaron atrás los tiempos en que para comunicar había que descolgar el manófono, esperar media hora y darle la vuelta a ver si tenía tono. Actualmente todas las centrales telefónicas son digitales, están conectadas entre sí por cables de fibra óptica, con anillos redundantes que aseguran sus enlaces en la compleja trama de las redes.

4

[GiGA 2 / 2009]

La cantidad de teléfonos en esta urbe se triplicó desde 1996 a la fecha. La densidad telefónica hoy es de 18,5 equipos por cada cien habitantes, indicador que no se comporta igual en todos los municipios: en Boyeros es de 6,60; en el Cotorro, de 7,55; Arroyo Naranjo, 8,43; en San Miguel del Padrón, 8,66. Estas cifras contrastan con las de Plaza de la Revolución, que es las más alta: 33,70, y a la que sigue Playa con 29,1 y Habana Vieja con 24,60. Aunque no hay zonas de silencio en la capital, el plan de inversiones no se ha comportado de manera armónica. En Calabazar, Boyeros, es donde existe la más baja densidad telefónica (1,6); en lugares como este la urgencia de la comunicación se multiplica por la dependencia de los servicios y la distancia.

Gabinetes, novedad en los barrios

las zonas donde se instalan gabinetes integrales que beneficiarán próximamente a la población de diez de los consejos populares de la periferia de la capital con pobre densidad telefónica, como Parcelación Moderna y el Reparto Eléctrico, en el municipio Arroyo Naranjo; Barbosa, en Playa; Calabazar, en Boyeros; Santa María del Rosario, en San Miguel del Padrón; Valle Grande, en La Lisa; Bacuranao, en Guanabacoa; Alamar, en la Habana del Este; Luyanó Moderno y Tamarindo, en 10 de Octubre. Al finalizar los trabajos, los nuevos servicios sumarán más de seis mil. Aún la cifra es preliminar pues se ultiman detalles de distribución que permitan sustituir en dichas zonas los TFA por fijos, y resolver también necesidades socioeconómicas, dándole prioridad al sector residencial. Esta tarea ha desatado en su colectivo de dirección y demás trabajadores un gran entusiasmo.

La ingeniera Mayra Arevich, vicepresidenta de ETECSA en Ciudad de La Habana, nos invitó a un recorrido por

Para establecer los lugares de ubicación de los gabinetes ha sido valiosa

entrevista la selección previa hecha por los gobiernos municipales, y su conciliación con ETECSA. "El montaje de recursos energéticos alternativos, la edificación de obras civiles, la traza de la fibra óptica, la base del equipo, los sistemas de tierra, los túneles de cables de entrada al gabinete, eran tareas para los que no contábamos con recursos humanos suficientes y por ello convocamos la colaboración del gobierno. La respuesta de las comunidades ha sido inmediata, existe un gran movimiento de masas en torno a todas estas obras porque resolverán un gran problema a nuestra capital", observa la ingeniera Mayra Arevich. María del Carmen Orret Sotolongo, directora de Desarrollo de la Red en la vicepresidencia de Ciudad de La Habana, destaca que: "estos gabinetes van conectados por fibra óptica a las centrales más cercanas. Las labores fundamentales que se realizan son la construcción de la traza del soterrado, la ubicación del equipo, la conexión de la fibra con la central, se hacen pruebas de aceptación y se reejecuta una red de planta exterior que lleva la comunicación hasta la casa del usuario." Estos módulos se usan en el mundo para potenciar los servicios y son como unidades remotas de abonados en los que parte de la inteligencia necesaria está en sus propios sistemas. Cuenta con un módulo para la gestión, que mide los más importantes parámetros para su funcionamiento. Son convenientes tecnológicamente por su modernidad, se les pueden incluir más módulos para crecer en la capacidad de servicios, lo que permite montajes a la medida de las necesidades del lugar y de su desarrollo. Su distribución local se diseña a partir del radio de cobertura de la vecindad, lo cual posibilita que la distancia entre el equipo que ofrece el servicio y el destinatario final sea mínima. El trazado de la planta exterior se realiza de forma protegida y soterrada hasta el gabinete; como la exposición de los cables es menor, esto da garantía de confiabilidad y seguridad. Enlazarlos desde la central telefónica más cercana con fibra óptica,

multiplica la conectividad y elimina las vulnerabilidades que sufriría la instalación si fuese aérea. El gabinete exterior combina la posibilidad de la conducción de señales de voz y de datos. Integra la conmutación y la transmisión telefónica. Si por razones de fuerza mayor el equipo se desconectará de la central principal, el servicio local se mantendría. Este es un elemento importante para la vitalidad de la Zona de Defensa y el Consejo Popular. Lo que le encarece es que deben edificarse pequeñas obras civiles para proteger al equipo; también, que para enlazar los sistemas energéticos hay que hacer soterrados. Con mucho cuidado, apoyados en la ayuda de los vecinos, se han hecho los sistemas de tierra para evitar el efecto nocivo de las descargas eléctricas. La tarea preventiva resulta imprescindible por las características de nuestro clima. "En la ciudad, en estrecho acuerdo con el gobierno provincial y los municipios, se ha perfilado la estrategia de emplazarlos donde haya un grupo electrógeno, como por ejemplo en panaderías o policlínicos, para que cuando falte la corriente eléctrica sea posible la conexión", detalla María del Carmen. Son soluciones que hacen más rentables los recursos de la sociedad.

Apoyo del pueblo En el Consejo Popular Peñalver Bacuranao se sabe que el proyecto es costoso por la distancia que separa a este lugar de la central de Guanabacoa, unos cinco kilómetros. Para Julián Acosta, presidente del Consejo, la inversión responde al reclamo del gobierno y de los electores de estos barrios, donde por años se reiteraron los planteamientos sobre a la necesidad de los servicios de teléfonos públicos y residenciales, sin poder resolverse. "Por eso los vecinos hemos colaborado con los comunicadores en el movimiento de tierra, la apertura de zanjas y en el enterramiento de los cables¨. Valle Grande es un reparto de La Lisa, colinda con la Universidad de Cien-cias Informáticas (UCI) y allí, en otra panadería, se levanta la pequeña construcción que albergará al gabinete. El contingente que construye la UCI ha ayudado en los movimientos de

tierra. Da la mano para abrir las zanjas de los soterrados y el túnel de cables por donde llegará la fibra al gabinete.

La más baja densidad telefónica Oasis Bandera González, presidente del Consejo Popular Calabazar, explica frente al policlínico Mártires de Calabazar donde se ubicó un gabinete para comercializar con una planta exterior de mil 400 pares, que esta obra es verdaderamente popular. El gabinete se ubicó frente al cuerpo de guardia donde están los custodios del policlínico. Así se da garantía de su cuidado, vigilancia que además refuerza el propio pueblo. Oasis resalta que esta inversión tiene un gran impacto en la población. "Calabazar es uno de los poblados capitalinos con menos servicios, no sólo de telecomunicaciones. Así ETECSA cumple las indicaciones del gobierno de la ciudad, de ampliar la telefonía. Incluso los resultados serán superiores a los esperados, pues debíamos ubicar cien teléfonos en el casco de Calabazar, y con la red inteligente hay mayor capacidad, nos vamos a ir un poco más arriba. Esto tiene también impacto político."

Lección para un futuro La buena práctica en Ciudad de La Habana pudiera extenderse a todo el país. ¿Cómo ayudar al resto de las provincias?, es una pregunta que responde la directora de Desarrollo de la Red en la vicepresidencia de Ciudad de La Habana. "Si se trabaja desde el principio en el proyecto, es decir, desde escoger los sitios de conjunto con el gobierno, las administraciones y los consejos municipales, la población se involucra con la tarea y la inversión fluye sola." "Este proyecto -aclara María del Carmen Orret Sotolongo- no entra en contradicción con las inversiones tradicionales de la red fija que hace nuestra Empresa. Nosotros tenemos que seguir con las tareas de fortalecerla, eliminar las vulnerabilidades, garantizar que la red de transporte sea robusta, cambiar las centrales obsoletas. Los gabinetes integrales preparan los soportes para una solución que permite hacer crecer el servicio a nuestra población." [GiGA 2 / 2009]

5

hardweriando

MSc.Carlos del Porto Blanco [email protected] Oficina para la Informatización

Nunca como ahora han dado los descubrimientos científicos lugar a aplicaciones nefastas. En efecto, sabido es que un hombre de ciencia no puede hoy dar un paso en sus investigaciones sin que el ejército trate de apropiarse con fines militares de los resultados de su trabajo. Así, la psicología comparada de los delfines se aplica a la guerra naval; los estudios de antropología son desviados de su finalidad científica en provecho de la lucha "antisubversiva"; y los especialistas en fisiología de los sentidos ven como sus observaciones son utilizadas con una rara crueldad elaborar técnicas de privación de las percepciones sensoriales. Joseph Needham

E

l lector debe tener en cuenta que el 80% del tráfico de Internet mundial pasa por los servidores de EE.UU.; de las decisiones que adopten la Cámara de Representantes y el Senado de ese país, depende que se acorten o se amplíen las brechas en el acceso y capacidad de difusión en la Red de la mayoría de la población del mundo. Durante una declaración ante el subcomité de Política Económica, Comercio y Medio Ambiente de la Cámara de Representantes de EE.UU., el 26 de junio de 1996, Phil Zimmermann dijo, "En el pasado, si el Gobierno quería violar la intimidad de los ciudadanos corrientes, tenía que gastar sus recursos en interceptar, abrir al vapor y leer el correo y escuchar, grabar y transcribir las conversaciones telefónicas. Eso era

6

[GiGA 2 / 2009]

como pescar con caña, de uno en uno. Por el contrario, los mensajes de e-mail son más fáciles de interceptar y se pueden escanear a gran escala, buscando palabras interesantes. Esto es como pescar con red, existiendo una diferencia orwelliana cuantitativa y cualitativa para la salud de la democracia". En EE.UU. la innovación tecnológica ha estado asociada en primer lugar con la guerra, el esfuerzo científico de la ingeniería generado en torno a la Segunda Guerra Mundial fue el ámbito tecnológico que permitió la revolución de la microelectrónica (1948), mientras que la carrera armamentista durante la Guerra Fría favoreció su desarrollo; por lo que se puede afirmar que el nacimiento de Internet no fue un hecho aislado (ARPANET surgió para permitir a los centros de mando de las Fuerzas

Armadas de EE.UU. mantener su capacidad operativa después de sufrir un ataque nuclear, al estar la "inteligencia" de la red descentralizada), ni un experimento fortuito en un laboratorio, sino el resultado de la política tecnológica más innovadora del mundo. Después de la "debacle socialista" de 1989 y 1991 es posible identificar tres desafíos a la hegemonía militar estadounidense, que estuvieron acompañados por el esfuerzo para desarrollar y controlar la Red: •Competencia entre iguales, representada anteriormente por la URSS y que ahora se enfoca en las llamadas Potencias Emergentes y Resurgentes", China y Rusia. •"Estados canallas", países que no se doblegan ante el dominio de EE.UU. •El enemigo no estatal pasó a ocu-

hardweriando par el primer plano a partir del 11 de septiembre del 2001. En el ámbito tecnológico se desarrollan a un altísimo nivel las comunicaciones electrónicas, los sistemas de vigilancia, los aviones no tripulados, los proyectiles dirigidos por satélites y un sofisticado arsenal de aplicaciones híbridas que involucran la nanotecnología, la microelectrónica y la inteligencia artificial, permiten reducir la presencia física de los soldados en los escenarios bélicos.

El Presidente George W. Bush expresó en el discurso de la graduación de cadetes del 2002 de la Academia Militar de Wets Point: "Nuestra seguridad exige disponer del mejor trabajo de inteligencia posible [...] exige modernizar nuestras agencias nacionales, como el FBI". El 17 de septiembre del 2002 se publica el informe "The National Security Strategy of the United States of America" que tuvo como antecedente directo otro elaborado en septiembre del 2000 (vaya fijación con ese mes, ¡qué casualidad!) "Rebuilding America´s Defenses" en el que se planteaba entre otras cosas: "Dominar el ciberespacio y crear las condiciones para la fundación de una nueva fuerza, la fuerza espacial de EE.UU., encargada de controlar el espacio cósmico", entre los redactores de este informe se encontraban nada y nada menos que dos de los más connotados representantes del movimiento neoconservador, Dick Chiney, vicepresidente bajo el mandato de George W. Bush y Paul Wolfowitz, subsecretario de Defensa bajo ese mismo gobierno. La edición del diario The New York Times del 16 de febrero del 2005

planteaba que "el Pentágono predice que los robots serán una importante fuerza de combate en el ejército estadounidense en menos de una década, y que perseguirán y eliminarán a nuestros enemigos en el campo de batalla". Los robots son una parte crucial del esfuerzo en el que está empeñado el ejército para reformarse y convertirse en una verdadera fuerza de combate para el siglo XXI, y el contrato firmado para desarrollar un proyecto valorado en 127 mil millones de dólares, nombrado Sistema de Combate del Futuro, es el contrato militar más importante de la historia americana. Los costos de esa transformación contribuirían a elevar el presupuesto del Departamento de Defensa casi un 20%. El segundo ámbito de la doctrina militar estadounidense en red es tan importante como el anterior. Un nuevo estilo de pensamiento está imponiéndose en los "Think Tank" militares de EE.UU. y la OTAN. Se le conoce como "swarming" (enjambre) y representa un cambio radical frente a las concepciones militares basadas en despliegues masivos de artillería, armamento blindado y grandes concentraciones de tropas. El enjambre es una estrategia militar en la cual se ataca al enemigo desde múltiples direcciones diferentes para después reagruparse.

Pentágono, depende totalmente de un sistema de comunicaciones sólido y seguro, capaz de mantener una conexión constante entre todos los nodos de la Red. La idea de crear un ejército del ciberespacio la tuvo el Secretario de Defensa estadounidense Donald Runsfeld desde el 2001 después del ataque a las Torres Gemelas, en el que Internet fue una importante fuente informativa de los estadounidenses, y el Pentágono no pudo controlarla, como sí pudo hacer cuando la primera Guerra del Golfo. En el año 2003, Runsfeld instruyó en un documento secreto que posteriormente divulgó el Archivo de Seguridad Nacional de la Universidad George Washington en el que "Internet era el nuevo escenario de la guerra contra el terror", para lo cual se creaba el dispositivo para intervenir servidores, espiar la Red, cambiar legislaciones y otras acciones entre las que se encontró el lanzamiento de la bomba electrónica en Bagdag en marzo del 2003 para inhabilitar todos los sistemas electrónicos de una sola vez. La ciberguerra se inició semanas antes del bombardeo sobre Iraq, después de que el presidente George W. Bush firmara una directiva secreta en la que aprobaba el ataque a redes enemigas de un país que en marzo del 2003 tenía apenas 12 000 computadoras conectadas a la Red y eran muy pocas las que se controlaban desde instituciones militares o manipulaban información confidencial. En diciembre del 2005 se le encargó a la fuerza Aérea la inclusión de operaciones en el ciberespacio, además del aire y el espacio. Luego se precisó que sería el Octavo Contingente aéreo el encargado de esa tarea.

Este tipo de guerra no lineal elimina la noción de "frente" y representa una versión de alta tecnología de la guerra de guerrillas. La guerra basada en redes, según la terminología del

Comenzando el 2006 Runsfeld se lamentaba en un artículo de la incapacidad de EE.UU. para convencer a la mayoría del planeta de los objetivos de su guerra antiterrorista. "Estamos teniendo la primera guerra en la era del correo electrónico, los weblogs, los blackberries, la mensajería instantánea, las cámaras digitales, Internet, los teléfonos móviles, las tertulias radiofónicas y los noticieros las 24 horas del día". [GiGA 2 / 2009]

7

hardweriando El 14 de febrero del 2006 el Departamento de Estado anunció la formación de un equipo que monitorearía puntualmente a los países considerados "regímenes represivos que controlan el uso de Internet". El Global Internet Freedom Task Force (GIFTF), subordinado directamente a Condolezza Rice, que se concentraría en "los aspectos de política exterior de la libertad de Internet", que incluye "el uso de tecnología que limite el acceso a contenido político y el impacto de esos intentos de censura en compañías estadounidenses; el uso de tecnología para rastrear y reprimir a disidentes, y" esfuerzos por modificar la estructura de gobierno de Internet que restrinjan la libre circulación de información". En su segunda reunión de trabajo celebrada el 3 de abril del 2006, el GIFTF "discutió la práctica y construcción de estrategias para apoyar la libertad de Internet", según informó la supervisora general del grupo, la subsecretaria de Estado para Economía, Negocios y Asuntos de Agricultura, Josette Shiner, "específicamente nos concentramos en los desafíos de la libertad de Internet en Irán, Cuba y China". En esa época comienzan a aparecer comentarios sobre el establecimiento de una estación del Comando del Ciberespacio de la Fuerza Aérea en Louisiana, la cual es un nuevo ejército que se incorporaría a los ámbitos tradicionales de la guerra (tierra, mar y aire) "se apoyaría en estrategias militares que permitan interrumpir el sistema de comunicación enemigo

con mayor precisión que en Iraq en el 2003, donde logramos intervenir todas las comunicaciones terrestres del Ejército de Saddam Hussein", según el Teniente General Robert "Bob" Elder Jr., Comandante del Comando Estratégico de EE.UU. para la Integración y la Respuesta Global con sede en la base de la Fuerza Aérea Offutt, Nebraska, quien fuera designado Jefe de ese nuevo Ejército. "Nosotros debemos lograr que todo lo que hagamos en la Fuerza Aérea sea integralmente enlazado con lo que hagamos en el ciberespacio", planteó. A diferencia de otros servicios donde se puede caminar hasta las personas y verlas, nosotros hacemos operaciones globales, nosotros somos un servicio global. Y la forma que tenemos para conectar todo esto es a través del ciberespacio. El ciberespacio no es una computadora en su escritorio, es la forma en que nosotros como Fuerza Aérea intentamos volar y combatir. En un artículo sobre esta temática, la periodista e investigadora cubana Rosa Miriam Elizalde, recordaba que toda esta parafernalia tecnológica tiene al final una falla sistémica: la subestimación del ser humano, que a fin de cuentas es quien decide sobre el terreno el éxito o fracaso de una operación militar. En los últimos años se ha visto como la superpotencia tecnológica y militar del Siglo XXI por excelencia, EE.UU., no ha podido vencer la resistencia de un país que casi está en la era feudal, Afganistán. Pero veamos que nos dice el agudo historiador estadounidense Howard

Zinn, "cuando EE.UU luchó en Vietnam fue una confrontación entre tecnología moderna organizada y seres humanos organizados. Y vencieron los seres humanos". Otro elemento a considerar fueron las movilizaciones masivas que se concibieron y organizaron por medio de Internet a partir de 1999 en Seattle, Genova, Porto Alegre, Roma y otras ciudades que tomaron por sorpresa a los estrategas del Imperio, según Mike Davis, experto en ecología urbana y autor del libro "Planet of Slums (Planeta de suburbios)", "las mejores cabezas del Pentágono han aprendido la lección... ahora tienen por blanco las ciudades salvajes, fracasadas del Tercer Mundo -especialmente sus suburbios marginados-, que serán el campo de batalla característico del Siglo XXI. La doctrina bélica del Pentágono está siendo reformulada para apoyar una guerra mundial de baja intensidad de duración ilimitada contra segmentos criminalizados de los pobres urbanos". La Doctrina conjunta de operaciones de Información del Pentágono (febrero del 2006) explica que "para tener éxito, es necesario que las fuerzas armadas estadounidenses obtengan y mantengan la superioridad de información." Las operaciones de información se definen como "el empleo integral de la guerra electrónica (EW), las operaciones de las redes de computadoras (CNO), las operaciones psicológicas (PSYOP), la decepción militar (MILDEC) y las operaciones de seguridad (OPSEC), en conjunto con capacidades específicas de apoyo, para influenciar, interrumpir, corromper, o usurpar las decisiones de los adversarios humanos y automatizados para proteger a las nuestras". Según esa doctrina las operaciones de información están conformadas por las cinco capacidades antes mencionadas, tres de ellas, PSYOP, OPSEC y MILDEC han sido durante siglos parte fundamental de las operaciones militares y en los últimos decenios se les sumó la EW y las CON, concepto que también creó una nueva forma de guerra, la cibernética. Las capacidades de las operaciones de información pueden ser empleadas en operaciones tanto ofensivas

8

[GiGA 2 / 2009]

hardweriando como defensivas de manera simultánea para cumplir con las misiones asignadas, incrementar la efectividad de su fuerza y proteger sus organizaciones y sistemas. La Doctrina articula once objetivos para estas operaciones: 1.Destruir: dañar un sistema o entidad hasta el punto en que ya no pueda funcionar ni ser restaurado a una condición útil sin que lo reconstruyan por completo. 2.Interrumpir: Romper o interrumpir el flujo de información. 3.Degradar: Reducir la efectividad o eficiencia de los sistemas de comunicación del adversario y sus capacidades de recolección de información. También pueden degradar la moral de una unidad, reducir el valor del blanco o disminuir la calidad de las decisiones y acciones del adversario. 4.Negar: Impedir al adversario acceder y utilizar información, sistemas y servicios críticos. 5.Engañar: Provocar que una persona crea algo falso. MILDEC busca engañar a los adversarios mediante la manipulación de su percepción de la realidad. 6.Explotar: Lograr acceso a los sistemas del adversario para recolectar información o sembrar información falsa o decepcionante. 7.Influenciar: Causar a otros comportarse de manera favorable a las fuerzas armadas estadounidenses. 8.Proteger: Tomar acciones para guardar contra el espionaje la captura de equipos e información sensible. 9.Detectar: Descubrir la existencia, presencia o algún hecho que indique una invasión en los sistemas de información. 10.Restaurar: Reponer a la información y sistemas de información a su estado original. 11.Responder: Reaccionar rápidamente a los ataques o invasiones del adversario. La "decepción militar, MILDEC" se describe como "aquellas acciones ejecutadas para intencionalmente engañar a los adversarios sobre las capacidades, intenciones y operaciones de las fuerzas militares estadounidenses y de sus aliados". MILDEC promueve el análisis equivocado, provocando que el adversario llegue a conclusiones falsas, mientras que las operaciones de seguridad (OPSEC) buscan negar información

verdadera a un adversario y prevenir que lleguen a conclusiones puntuales. La guerra electrónica (EW) se refiere a cualquier acción militar que involucra el uso de energía electromagnética para controlar el espectro electrónico o atacar al adversario, e incluye tres subdivisiones principales. El ataque electrónico, la protección electrónica y el apoyo a la guerra electrónica. La primera trata del uso de la energía electromagnética, la energía direccionada o las armas antirradiación para atacar a personas, sedes o equipos con la intención de neutralizar o destruir la capacidad de combate del enemigo; la protección electrónica asegura el uso seguro del espectro electromagnético y el apoyo a la guerra electrónica consiste en acciones bajo el control directo de un comandante operativo para buscar, interceptar, identificar o localizar fuentes de energía electromagnética para el reconocimiento inmediato de amenazas y la planificación y conducción de operaciones futuras. Las operaciones en las redes de computadoras se basan en la utilización de computadoras en red y el apoyo de las infraestructuras tecnológicas e informáticas por parte de organizaciones militares y civiles, se utiliza para atacar, engañar, degradar, interrumpir, negar, explotar y defender infraestructuras e información electrónica. Según la Doctrina, "el incremento en la dependencia de las computadoras y redes por parte de fuerzas militares no sofisticadas y grupos terroristas para pasar información confidencial, refuerza la importancia de este tipo de operaciones en los planes y actividades de las operaciones de información. Mientras que las capacidades de las computadoras y el rango de su empleo se incrementan, nuevas oportunidades y puntos vulnerables se desarrollarán. Esto ofrece oportunidades para atacar y explotar las debilidades de los sistemas de computadoras de un adversario". El 6 de abril del 2006, Robert Elder Jr dijo a la publicación USA Today que el objetivo fundamental del nuevo ejército era "desarrollar estrategias militares que permitieran interrumpir el sistema de comunicación enemigo" y que las capacidades ofensivas de ese Comando han mejorado notable-

mente desde el comienzo de la guerra en Iraq, cuando "se emplearon ataques rudimentarios por parte de EE.UU., como saturar los sistemas iraquíes y el uso de ataques por red para evitar la comunicación de las unidades terrestres entre sí". En junio del 2006, la ley que invalida la llamada "neutralidad en Internet" llegó hasta el Senado, después de ser aprobada por la Cámara de Representantes y apoyada con entusiasmo por el Departamento de Defensa. Se estaba a las puertas de que cada empresa, grupo o individuo, además de los países que EE.UU. decidiera sancionar, debieran pagar un peaje por cada megabit de conexión a la red. Eso introduciría en la práctica dos nuevas reglas que hasta ese momento no estaban reguladas por la legislación estadounidense: 1.Todo el acceso a Internet estaría regulado, y no serían los consumidores, sino el Gobierno, quien escoja qué es mejor para ellos en la Red. •El Gobierno, por medio de unas pocas compañías de telecomunicaciones, regularía o agregaría impuestos al contenido de la Red o al comercio en ésta. 2.Imponer los sistemas con programación de código propietario que permitiesen mayor control del mercado y de los individuos. En ese período se vivió una verdadera agitación mundial desde que el Comité del Senado aprobó un proyecto de ley que permitió realizar investigaciones electrónicas sin control judicial a los estadounidenses; el 17 de agosto del 2006 una jueza federal de Detroit ordenó detener esas investigaciones violatorias de la intimidad de las personas. El secretario de Justicia, Alberto González (el mismo que aprobó las torturas) continuó su cruzada para lograr controlar la información privada que almacenan los proveedores de Internet. En septiembre del 2006, este Secretario de Justicia, exigió al Senado aprobar una ley "para obligar a los proveedores de Internet a conservar registros de las actividades de sus clientes", reconoció que el director del FBI, Robert Muller, se había reunido con varios proveedores de Internet como AOL, Comcast, Google y Microsoft, entre otros, para que [GiGA 2 / 2009]

9

hardweriando guardasen los registros por dos años. Ya se perfilaba que las acciones de la guerra electrónica, antes dispersas entre diez entidades del Pentágono y otros centros de inteligencia, además de la Octava Fuerza Aérea, se articularían bajo un mando único. Donald Runsfeld planteó: "El Departamento luchará contra Internet como lo haría contra un sistema de armamentos." "El cambio cultural es que vamos a tratar Internet como un campo de guerra, y vamos a concentrarnos en él y darle prioridad para acciones en el ciberespacio y acompañarlas si es necesario con acciones en el espacio aéreo y terrestre", dijo Robert Elder Jr en una conferencia de prensa organizada en octubre del 2006 en el Pentágono. Además del Ejército del Ciberespacio, EE.UU. creó en ese año nuevas estructuras para fortalecer los servicios de inteligencia que se nutrirían por la Red. Esos grupos interagencias subordinados al Departamento de Estado, tendrían la capacidad de convocar tanto a expertos del Gobierno como investigadores privados y cibermercenarios. El FBI, por ejemplo, contaba con la colaboración de un grupo de piratas informáticos denominado "Cult of Dead Cow", creador de herramientas de administración remota. El Secretario de la Fuerza Aérea Michael W. Wynne anunciaba oficialmente en septiembre del 2007 el establecimiento provisional del Comando del Ciberespacio, AFCYBER (P) en la base de la Fuerza Aérea de Barksdale, Louisiana, durante un acto celebrado en el Pentágono por el aniversario 60 de la Fuerza Aérea. Este fue un paso más en la preparación de operaciones en el ciberespacio; el tamaño y localización final no fueron especificados. Ese comando contaría con una plantilla de 25 000 personas involucradas en guerra electrónica y defensa de redes. Según el Secretario Wynne, "El ciberespacio es un dominio para proyectar y proteger el poderío nacional, con operaciones estratégicas y tácticas". El 23 de abril del 2008 se anunciaba la convocatoria al II Simposio Ciberespacial de la Fuerza Aérea, que tendría lugar del 17 al 19 de junio en

10

[GiGA 2 / 2009]

Massachusetts, y fue uno de sus objetivos "el control cibernético" y "avanzar en el dominio de ese nuevo territorio de guerra, como mismo controlamos el espacio aéreo". La Visión Estratégica del Comando del Ciberespacio de la Fuerza Aérea detallaba las posiciones y el alcance operacional del comando. El control del ciberespacio se consideraba un elemento fundamental para la seguridad nacional. Fue estructurado con claridad en la Valoración de Amenazas Nacionales para el 2008 del Director de Inteligencia Nacional ante el Comité de Servicios Armados. La supremacía en el ciberespacio se consideraba crítica en todos los dominios de operaciones y estratégicos. Ese nuevo comando se encontraba en proceso de adquisición de un conjunto de capacidades que crearían las opciones flexibles para el personal encargado de la toma de decisiones en el Gobierno y el Ejército. Entre las capacidades que buscaba el cibercomando se encontraban las siguientes, aunque no se limitaba sólo a ellas: •La habilidad de evitar a los adversarios. •La habilidad de negarles a los adversarios el acceso a las operaciones. •La habilidad de interrumpir a los adversarios. •La habilidad de engañar a los adversarios. •La habilidad de disuadir a los adversarios. •La habilidad de vencer a los adversarios. Esto se desarrollaría mediante toda una serie de capacidades ofensivas y defensivas, destructivas y no destructivas, letales y no letales que se estaban desarrollando y desplegando dentro del cibercomando. Un ejecutivo de la Agencia de Seguridad Nacional, la poderosa y supersecreta NSA, aseguraba: "Éste es un momento crítico para EE.UU. Nuestro país, nuestra sociedad, nuestra economía y nuestros negocios todos dependen considerablemente de la conectividad a Internet. El fracaso no es una opción y la Casa Blanca y el Congreso lo saben. Nosotros debemos abordar las ame-

nazas que vienen del ciberespacio". Por esa fecha, el Coronel Charles W Williamson III, de la Agencia de Inteligencia, Espionaje y Reconocimiento de las Fuerzas Aéreas de EE.UU. abogó por la creación de una red robot que pudiera direccionar cantidades masivas de tráfico vía Internet para bombardear a las computadoras y sistemas electrónicos de los adversarios con el fin de que perdieran su capacidad de comunicación y se convirtieran "nada más que en metal y plástico". Esta táctica es denominada "alfombra de bombas" en el ciberespacio. Pero la vida real no es miel sobre hojuelas para los émulos de Rambo, ni tampoco las cosas les salen tal y como los exitosos guiones hollywoodenses, ¡qué injusta es la realidad con estos señores! Resulta que en el año 2005 fue enviado a Taiwán desde una base militar en Wyoming un cargamento de baterías para helicópteros, sin embargo, en realidad lo embarcado eran componentes de misiles, y el 30 de agosto del 2007 un bombardero B-52 partió de la base aérea de Minot, Dakota del Norte, el cual durante más de tres horas y media recorrió todo el territorio estadounidense de Norte a Sur y aterrizó en la de base aérea de Barksdale, Louisiana. Cuando los técnicos de tierra fueron a atenderlo se percataron de que estaba artillado con seis misiles crucero (W80-1) portadores de cinco ojivas nucleares con una potencia de 5 a 150 kilotones. Y entonces se armó la gorda. Esos dos escándalos provocaron movimientos en la máxima jerarquía de la Fuerza Aérea. La nueva jefatura cuando realizó el análisis de las tareas asignadas y a partir de los cambios geoestratégicos que se habían originado a nivel internacional decidió a mediados del 2008 "suspender" la reorganización que se estaba produciendo en lo concerniente a misiones en el ciberespacio. Cuando las fuerzas estadounidenses quisieron poner señuelos a miembros de Al Qaeda para que cayeran en una trampa, hackearon algunas de sus computadoras y alteraron información, provocando que éstos fueran justo a donde las armas estadounidense los esperaban.

hardweriando George W. Bush ordenó nuevas vías para detener el progreso en el desarrollo nuclear iraní y se aprobó un plan para un programa experimental secreto, que buscaba averiar las computadoras y, por tanto, socavar el proyecto, ¿recuerda el lector lo ocurrido en el verano de 1982 en el oleoducto transiberiano? La más colosal explosión no nuclear e incendio jamás visto desde el espacio, que lanzó fragmentos de la tubería a 80 km del lugar, ocasionado a partir de un troyano en las aplicaciones informáticas que lo controlaban e introducido por los servicios de inteligencia estadounidenses. Cualquier semejanza ¿será una coincidencia? El Secretario de Defensa durante el mandato de Bush y que se mantiene durante Obama, Robert Gates, ha creado el National Cyber range, una

réplica de la Internet del futuro altamente clasificada. El objetivo es simular qué podrían hacer los adversarios de EE.UU. para desarticular las redes eléctricas, las telecomunicaciones y los sistemas de aviación del país o detener los mercados financieros, todo esto con vistas a mejorar las defensas contra ataques de ese tipo, así como a la creación de una nueva generación de armas en línea. Esta nueva Internet está encargada a un grupo de contratistas, entre ellos, BAE Systems, el laboratorio de física de la universidad John Hopkins y Sparta Inc. La Agencia de Seguridad Nacional, NSA, ya tiene una versión más pequeña de algo similar, en Millersville, Maryland. En resumen, Cyber Rangers en la era digital, lo que el Atolón Bikini fue en la era nuclear. Pero las pruebas del Atolón de Bikini demostraron al

mundo el imponente poder destructivo de las bombas de hidrógeno, el riesgo del intercambio nuclear era demasiado alto. En el caso de los ciberataques donde el resultado puede variar desde una molestia hasta la devastación. La más exótica innovación que está considerando el Pentágono permitiría entrar subrepticiamente en servidores de otros países (Rusia y China) y destruir un programa maligno, antes que esos países lo pudieran liberar en computadoras de EE.UU. Las agencias de inteligencia estadounidenses podrían activar códigos maliciosos que estarían embebidos en chips de computadoras cuando estos son fabricados, que posibilitaría a EE.UU. controlar de forma remota sobre Internet las computadoras enemigas. En una conferencia celebrada en junio del 2008 la nueva dirección de ese mando, no logró acuerdos en qué tareas debía encarar exactamente el Comando del Ciberespacio; unos decían que sus misiones debían estar enfocadas en la protección y la defensa del Comando de la Fuerza Aérea y sus tareas de control, otros que en el control de la defensa y el ataque en el ciberespacio, otros consideraban que solo debían asumirse tareas relacionadas con las redes de computadoras, y un último grupo planteaba que debía tenerse responsabilidades con todo sistema que se relacionara con el espectro electromagnético, incluido el armamento láser. En octubre del 2009 la Fuerza Aérea anunciaba que alinearía sus misiones nucleares bajo un nuevo comando nuclear y que cancelaba los planes para establecer el Cibercomando. Los líderes de la Fuerza Aérea decidieron que las ciberoperaciones quedarían bajo el control del Comando de la Fuerza Aérea y Espacial en lugar de crear una nueva estructura. Durante unos juegos de guerra en el 2008 los altos oficiales de Inteligencia quedaron sorprendidos por las

vulnerabilidades encontradas que permitirían desactivar las grandes plantas generadoras de electricidad. Otro juego de guerra llevada a cabo por el Departamento de Seguridad de la Patria en marzo del 2008 y llamado Cyber Storm II, simuló un gran ataque coordinado contra EE.UU. el Reino Unido, Canadá, Australia y Nueva Zelanda (¡qué casualidad, los mismos participantes en Echelon!). Aquí se estudió la destrucción de plantas químicas, líneas de ferrocarril, oleoductos, gasoductos y redes privadas de computadoras. Las conclusiones fueron que cuando el ataque es global, las repercusiones económicas potenciales se incrementan de manera exponencial. En abril del 2009, el Congreso discutía una legislación para acelerar las respuestas ante el incremento de las amenazas ciberterroristas. Esa legislación organizaba las respuestas de más de 40 agencias gubernamentales relacionadas con esos asuntos, con el fin de evitar un ciberhuracán Katrina. También aparece la figura del zar del ciberespacio, pintoresca estampa de la política estadounidense, de las que ya existen la de las drogas, de la propiedad intelectual, de los autos y por último, éste. También durante ese mes el oficial del Pentágono, Robert Lenz, daba a conocer que esa institución detectó 360 millones de intentos de penetración a sus redes ese año. En el 2006 habían sido 6 millones y se había invertido más de 100 millones de dólares desde octubre del 2008 para combatir los ataques de Internet. "Lo importante es que reconozcamos que estamos bajo la amenaza de ataques muy sofisticados con ciertos elementos criminales", apuntó el General Kevin Chilton. Durante el 2008 hubo que desconectar 1500 computadoras como consecuencia de ataques y se prohibió el uso de dispositivos externos por su capacidad de infectar virus. El Gobierno de Barak Obama estudia la posibilidad de crear un nuevo cibercomando militar para proteger las redes del Departamento de Defensa y desarrollar capacidades ofensivas para una posible ciberguerra. Ese comando estaría liderado por un general de cuatro estrellas y podría formar parte del Comando Estra[GiGA 2 / 2009]

11

hardweriando tégico del Pentágono. El candidato con más probabilidades era el general Keith Alexander, actual director de la NSA. Esa acción para crear un nuevo cibercomando podría ser una respuesta al número de amenazas, reales y supuestas, que persiguen la redes militares críticas y a sus sistemas. En abril del 2009 aparecía en la prensa que unos hackers habían robado de computadoras del Pentágono varios terabytes de información relativos al diseño del futuro avión de combate Joint Strike Fighter, en cuyo desarrollo se invierten 300 000 millones de dólares.

muertes extrañas y agresión a la economía mundial". 18 de Septiembre del 2007. Reflexiones de Fidel. Tomo 3. Página 125. 5. Daly John C.K., "US Air Force Prepares For Cyber Warfare. ". S pace War. 9 de octubre del 2006. 6. Dreazen Yochi J., "U.S. Caber Infraestructura Vulnerable to Attacks". The Wall Sreet Journal. 6 de mayo del 2009. 7. Elizalde Rosa Míriam; "El ejército de Estados Unidos a la ofensiva en Internet". VIII Encuentro de Corresponsales de Guerra, Ciudad de La Habana. 8 de noviembre del 2006. 8. Elizalde Rosa Míriam; "La Internet cubana en los planes de Donald Runsfeld". Voltairenet. 11 de abril del 2006. 9. Elizalde Rosa Míriam; "Nos pescan con red". Rebelión. 24 de abril del 2008. 10. Elizalde Rosa Míriam; "Un cuartel general para el ejército del ciberespacio". 7 de noviembre del 2006. 11. Golinger Eva; "La Guerra Cibernética".

Ing. Raimner R. Heredia Valle [email protected] Oficina para la Informatización

C Como se dará cuenta el amigo lector, esto tiene tipo de novelón brasileño de las 9:00 pm, y seguramente nos faltan decenas de capítulos para enterarnos que algún adolescente díscolo de algún país, quizás de entre los 60 ó más; o algún órgano de inteligencia de un "nuevo enemigo", hizo que el coro de las vírgenes de la OTAN, desplegaran toda la parafernalia tecnológica de la que aquí se ha hablado. Esperamos que el sentido común prevalezca y todo se quede sin realmente desplegarse, porque si no, debemos recordar el dicho "el último en salir que apague la luz"

Referencias 1. Acosta Matos Eliades, "El Apocalipsis según San George". 2. Bardera Paula, "La administración Obama estudia crear un cibercomando militar". PC World. 23 de abril del 2009. 3. Burghardt Tom, "The penatgon Cyber Command Formidable Infraestructure arrayed againts the American People". Global Research. 26 de abril del 2009. 4. Castro Ruz Fidel, "Mentiras deliberadas,

12

[GiGA 2 / 2009]

Rebelión. 1 de julio del 2008. 12. Hoffman Michael, "Final Word: One nuclear, but not cyber command". Air Force Times. 9 de octubre del 2008. 13. Kravets David, "Vowing to prevent " Cyber Katrina", Senator Propose Cyber Czar". Wired. 1 de abril del 2009. 14. Nasaw Daniel, "US takes steps to create infrastrcture againts cyber attacks". The Guardian. 7 de abril del 2009. 15. Rosine Matthew; "Air Force Cyber Command online for future operations". Air Force News Agency. 17 de julio del 2007. 16. Sanger David E., "U.S. Steps Up Effort on Digital Defenses". The New York Times. 27 de abril del 2009. 17. Shachtman Noah, "Air Force Suspend Controversial Cyber Command". Wired. 13 de agosto del 2008. 18. Vijayan Jaikumar, "New Cibersecurity bill for electric grid readied". ComputerWorld. 2 de abril del 2009. 19. Wolf Jim, "U.S. Air Force prepares to fight in cyberspace". Informationliberation. 4 de noviembre del 2006. 20. Air Force secretary announces provisional Cyber Command". Air Force link. 19 de septiembre del 2007. 21. "El Pentágono gasta más de 100 millones de dólares en prevenir ciberataques". El mundo. 8 de abril del 2009. 22. "Un comando militar protegerá las redes del Pentágono de los hackers". Noticiasdot. 23 de abril del 2009.

on el nombre de superordenadores o mainframe se conoce a aquellas computadoras que requieren arquitecturas muy sofisticadas que las dotan de capacidades de cálculo y almacenamiento muy superiores a los ordenadores personales. Son enormes equipos que ocupan grandes espacios físicos, muy potentes y rápidos, diseñados para el procesamiento de grandes volúmenes de información en poco tiempo, cuentan con controles de temperatura especiales para disipar el calor que emiten muchos de sus componentes. Por su elevado costo, el uso de ellos se limita a organismos gubernamentales, militares, grandes centros de investigación y de corporaciones económicas, aunque su alto por ciento de utilización es en la esfera militar. En el mundo de la investigación, los superordenadores juegan un papel muy importante. El sitio TOP500.org, lista revisada cada seis meses y seguida con detenimiento por profesionales e investigadores de la supercomputación, una recopilación de los 500 sistemas informáticos más potentes del mundo. En noviembre del 2008, IBM se coloca al frente del ranking mundial de los 500 ordenadores más veloces del

hardweriando

orbe. En esta ocasión lo logra con la supermáquina llamada Roadrunner, "Correcaminos", que deja tras sí nuevamente a fabricantes de la talla de CRAY Inc. y Silicon Graphis. El Correcaminos -bautizado así en homenaje al ave muy común del estado de Nuevo México- es una supercomputadora del Laboratorio Nacional Los Álamos en Nuevo México. Fue diseñado conjuntamente por IBM y el personal del laboratorio, y se destinó a trabajos de índole militar, la administración de las centrales atómicas de Estados Unidos y observación de fenómenos vinculados al cambio climático. Para humanizar un poco los términos de velocidad empleados: flops (Floating point Operations Per Second) es la velocidad en que se mide la velocidad de las computadoras que indican las operaciones flotantes por segundo que puede realizar una máquina, unidad de medida similar al metro en nuestro sistema longitudinal o al segundo en medición del tiempo. Este superordenador tiene un rendimiento de 1.105 Petaflops, equipado con más de 12 000 procesadores tipo PowerXCell 8i mejorados, diseñados originalmente para la videoconsola [GiGA 2 / 2009]

13

hardweriando Evidentemente, la localización de los superordenadores es directamente proporcional al grado de desarrollo del país en que se ubican. Suelen estar situados en laboratorios y centros de investigación. En cuanto a los diseñadores de estos equipos, se observa que las empresas HP e IBM con 73%, son los fabricantes de referencia del mercado. El mejor sistema asiático ubicado en la posición 10, es un equipo situado en el Centro de Superordenadores de Shanghai, que

Sony Playstation 3, colocados en paralelo y 6912 procesadores Opteron de AMD (Advanced Micro Devices), y están unidos mediante 92 km de fibra óptica. En total ocupa aproximadamente 1 100 metros cuadrados. El Roadrunner funciona bajo el sistema operativo Red Hat Enterprise Linux y el software de computación distribuida Cluster Instrumental de administración extrema. Con un consumo estimado de 2483 kilovatios, su costo fue de 133 millones de dólares. Para ilustrar, si los más de 6 000 millones de personas en todo el planeta con el empleo de calculadoras durante las 24 horas, los siete días de una semana, les llevaría 46 años hacer lo que la "Correcaminos" realiza en un día. EE.UU. lidera la lista no sólo en las primeras posiciones, con 9 de los 10 primeros, sino también en general, con 298 del total de 500.

En segunda posición aparece el Reino Unido con 46 y el resto de los países para completar los diez primeros se ubican en este orden: Francia con 25, Alemania 23, Japón 17, China 15, Italia 11, Rusia y Suecia ambos con 8 y la India 7.

14

[GiGA 2 / 2009]

de la familia AMD Opteron están como segundos, con un número casi similar: de 60 y 59 sistemas por cada uno (12 % y 11,8 %), respectivamente; aunque entre los primeros 10 superordenadores, 7 utilizan los procesadores de la familia AMD Opteron. Los procesadores basados en sistemas de cuatro núcleos (Quad-Cores) se han hecho cargo del top500 rápidamente, pues ya se emplean por 336 de los sistemas; 153 están usan los de doble núcleo, y sólo cuatro siguen utilizando los sistemas de procesadores de núcleo único. Son ya siete los que usan el procesador avanzado Sony PlayStation 3 de IBM con nueve núcleos. A continuación se habla de algunas de las características de los superordenadores que completan la lista de los 10 más rápidos del mundo.

Jaguar Cray XT5 QC no fue construido por esas grandes empresa, sino por el fabricante chino Dawning, que bien pudiera convertirse en otro de los grandes de este negocio; no obstante IBM es la compañía creadora de 6 de los 10 primeros superordenadores del TOP500. Nueve de los diez primeros superordenadores de esta lista utilizan Linux y de forma general según datos del top500 el 93,8% usa estas distribuciones, exactamente 469 de los 500. Linux crece de manera fuerte en la supercomputación, poca resistencia ha podido hacerle el Sistema Operativo Windows HPC Server 2008 que se emplea por décimo lugar, detrás de 9 superordenadores que corren bajo estas distribuciones de código abierto. Es sobre Linux donde se hacen más avances en supercomputación, así como en la programación de aplicaciones para aprovechar tal cantidad de potencia de proceso. Se destaca en la lista de noviembre pasado que 379 sistemas, para 75,8 %, está usando los procesadores Intel. Esto prácticamente no ha tenido cambios desde hace seis meses. Los procesadores de IBM y los

El fabricante de supercomputadoras Cray ocupa la segunda posición con el superordenador Jaguar -Cray XT5 QC, el cual tiene un rendimiento 1 059 petaflops. Este superordenador es gestionado por el Laboratorio Nacional de Oak Ridge (Oak Ridge National Laboratory), situado en Oak Ridge, Tennesse, Estados Unidos, y utiliza para su explotación 150 152 procesadores AMD x86_64 Opteron Quad Core 2300 MHz (9,2 GFlops), 372 000 gigabytes de memoria RAM DDR3 y un ancho de banda con capacidad de

transferencia de 578 terabytes por segundo. Es la mayor supercomputadora que se usa para fines no militares

hardweriando y presta servicio al Departamento de Energía de EE.UU. y a 30 proyectos de universidades y empresas. Este equipo tiene un consumo de 6 951 KW.

NASA en cuatro grandes misiones: la investigación aeronáutica, exploración de sistemas, la ciencia, y las operaciones espaciales.

lifornia; tiene un alcance máximo de velocidad de 478,2 teraflops, actúa con 212 992 procesadores AMD64. La BlueGene/L ocupó la posición número 1 en la lista de supercomputadoras del TOP500 anunciada en noviembre del 2005. Hoy la BlueGene/L y sus colaboradores exploran una lista creciente de aplicaciones que incluye hidrodinámica, química cuántica, dinámica molecular, modelación del clima y modelado financiero. Tiene un consumo energético de 2 330 KW.

BlueGene/P IBM BlueGene/P es una solución de seguimiento de producto para el éxito de BlueGene/L. En concreto, la familia BlueGene está diseñada para ofrecer un mejor rendimiento en un entorno de programación estándar, además de la eficiencia en la entrega de potencia, la refrigeración y consumo de espacio físico.

Pléyades (Pleiades)

BlueGene/L

La supercomputadora de la NASA en el Ames Research Center, Moffett Field, California, ha obtenido el tercer lugar en la lista Top500 de los más potentes ordenadores. La Pléyades es un supercomputador SGI Altix ICE con 12 800 Intel Xeon de cuádruple núcleo (51 200 procesadores) funcionando a 487 teraflops. El consumo de energía eléctrica es cada día una de las características más importantes en la informática de gama alta. Pléyades es una de las supercomputadoras más eficientes energéticamente en el mundo con un consumo de 2090 kW por hora. Algunos de los proyectos científicos y de ingeniería que desarrolla Pléyades son: •Simulaciones computacionales para resolver problemas en el diseño de futuros vehículos espaciales. •Desarrollo de modelos cada vez más detallados de los grandes halos de materia oscura y evolución de galaxia. •Correr juntos modelos de atmósfera-océano para evaluar la predicción del clima, para el Grupo Intergubernamental de Expertos sobre el Cambio Climático. Además del apoyo a la

BlueGene es el proyecto de Investigación de IBM que se encuentra en las fronteras en la supercomputación, arquitectura de computadora, software requerido para programar y controlar masivamente sistemas paralelos, y uso de computación para adelantar la comprensión de procesos biológicos importantes como plegadura de proteína.

BlueGene/P se dedica a mejorar la funcionalidad y la escalabilidad para optimizar el rendimiento en flop y la gestión de la energía de la

La máquina BlueGene/L está ubicada el Departamento de Energía NNSA (Lawrence Liver-more National Laboratory), en Caarquitectura BlueGene. Como dato curioso: BlueGene/P se encuentra en primer lugar en el departamento de consumo energético dentro de esta gran familia que es la BlueGene con un consumo de 1260 kW por hora. Se utiliza para estudios de investigación en materia de armas, la radioastronomía, plegado de proteínas, investigación sobre el cambio clima, cosmología y el desarrollo de medicamentos. [GiGA 2 / 2009]

15

hardweriando Franklin Cray XT4 QuadCore 2,3 GHz

Especificaciones de la Blue-Gene/P

El Franklin Cray XT4 está ubicado en The National Energy Research Scientific Computing Center (NERSC)/ Lawrence Berkeley National Laboratory (LBNL) en California, y el nombre es en honor a Benjamín Franklin. El sistema tiene 9 660 nodos de cuatro núcleos, que totaliza 38 642 procesadores de la familia AMD Opteron cuatro núcleos dedicados a aplicaciones científicas. El sistema consta de 102 armarios con 77 280 Gb de memoria RAM y un rendimiento de 266.30 teraflops, con un consumo energético de 1150 kW. Este

Ranger Ranger es un clúster informático construido por Sun Microsystems y gestionado por la Fundación Nacional de Ciencias/National Science Foundation (NSF) y el centro de Computación Avanzada de Texas (TACC). Se basa en 15 744 procesadores AMD Opteron de cuatro núcleos, para totalizar 62 976 núcleos de procesamiento y un rendimiento de 433.20 teraflops. •Número de nodos: 3936 •Memoria Ram: 123 terabytes •Disco duro: 1,73 Petabytes

Cabe acotar que esta supercomputadora gigante utiliza Linux y tiene un consumo 2000 kW. Ranger está abierta a la ciencia, dedicada a la investigación de tecnologías de algoritmos paralelos para mejorar la tolerancia a fallos y a nuevos lenguajes de programación.

16

[GiGA 2 / 2009]

contiene un núcleo cuádruple AMD Opteron de 2,1 GHz de procesador y memoria de 8 Gb. El rendimiento del sistema total es de aproximadamente 205 teraflops. Tiene 30 976 procesadores. Corre bajo una distribución Linux diseñada para minimizar el sistema de gastos generales, lo que permite sea escalable de baja latencia de comunicación global. Su consumo energético es de 1581 kW.

Red Strom

superordenador atiende proyectos de investigación tales como: •Modelado de la dinámica y de materiales espaciales complejos. •Desarrollo y prueba de una API para el Modelo Global de Nubes de Resolución. •Turbulencias e interacción químicas en el Lean Premixed Laboratory Flames. •Nuevos enfoques de la teoría funcional de la densidad de la mecánica estadística de sistemas de hidrógeno.

Jaguar Cray XT4 QuadCore 2,1 GHz Su utilización se centra en situaciones reales como el clima, la energía y armas nucleares, para ello cuenta con 7 832 nodos XT4, y cada uno

Fue diseñada para la Administración Nacional de Seguridad Nuclear de Simulación Avanzada y programas de Computación (NNSA). Se emplea para el programa de gestión de existencias del NNSA, lo que ayuda a garantizar que Estados Unidos mantenga su arsenal de armas nucleares seguro y confiable sin la reanudación de ensayos nucleares subterráneos. Este superordenador también ejecuta códigos utilizados para la realización de simulaciones de la ciencia de los materiales fundamentales para la seguridad nacional. Este equipo ha simulado lo que se requeriría para mantener a la Tierra a salvo de la amenaza de choques con asteroides; permitió la simulación de un encuentro físico de una carga nuclear de 10 megatones explotando en el centro de la masa del asteroide Golevka. Tiene un consumo energético de 2506 kW. Red Storm se encuentra actualmente ubicada en los Laboratorios Nacionales de Sandia, Nuevo México, y posee 38 208 procesadores de la familia AMD Opteron y un rendimiento de 204.2 teraflops.

hardweriando Dawning 5000A Se trata del ordenador más potente fuera de EE.UU., pues está ubicado en China, en el Shanghai Supercomputer Center.

Desarrollado en el gigante asiático, el Dawning 5000A es la máquina más poderosa que funciona con el sistema operativo Windows HPC 2008. La supercomputadora, con una capacidad de rendimiento de 180,6 teraflops, utiliza 30 720 chips AMD Opteron. Su costo fue de 200 millones de yuanes (29 millones de dólares). Dawning 5000A ayudará con el pronóstico del clima, la construcción de túneles en el fondo del mar, la protección del medio ambiente, la producción de grandes aviones de pasajeros y el pronóstico de sismos. Dawning 5000A ocupa un espacio de 75 metros cuadrados y consume 700 kW. Fue pagada por el Ministerio de Ciencia y Tecnología y por el gobierno municipal de Shanghai.

¡Los que se incorporan a la carrera! El desarrollo de la tecnología informática cada día sorprende más si se tiene en cuenta el poco tiempo que media entre un avance y otro. Se podría meditar sobre tal ascenso en espiral tomando como ejemplo los ordenadores personales con posibilidades increíbles, sólo piensen en la capacidad actual de microprocesadores con seis núcleos reales, velocidades de la RAM o de intercambio de operaciones en unos ocho gigabytes o discos duros de mil gigabytes o un terabyte.

A manera de ilustración se puede mencionar que actualmente la Administración Nacional de Seguridad Nuclear (NNSA) del Departamento de Energía de EE.UU., anunció

un contrato con IBM para introducir sistemas de supercomputación en su Laboratorio Nacional Lawrence Livermore con el fin de ayudar a mantener la seguridad y confiabilidad del arsenal nuclear de ese país. IBM entregará dos sistemas: Sequoia, un sistema de 20 petaflops basado en la tecnología BlueGene futura, que se entregará a partir del 2011 y se implementará en el 2012, y un sistema de entrega inicial denominado Dawn, un sistema Blue Gene/P de 500 teraflops, cuya entrega se programó para este primer trimestre del 2009. Dawn sentará la base de aplicación para la computación de multipetaflops en Sequoia. Con una velocidad de 20 petaflops, se espera que Sequoia sea la supercomputadora más potente del mundo y aproximadamente 10 veces más veloz que el sistema más potente de la actualidad. Para cumplir tal perspectiva, si cada una de las 6 700 millones de personas del planeta tuviera una calculadora de mano y todas trabajaran juntas en un cálculo 24 horas por día, 365 días al año, tardarían 320 años en hacer lo que Sequoia realizará en una hora. Cada vez que se produce un aumento de la velocidad de estas máquinas, se abren posibilidades en ciencias o tecnologías establecidas o emergentes. Por citar un ejemplo, en los años noventa no se hubiese podido deco-

dificar el genoma humano de no haber existido el equipamiento pertinente. Disponer de equipamiento informático con estas características facilita el procesamiento numérico y permite la simulación de problemas científicos, industriales, ambientales o sociales en modelos complejos, difíciles de abordar desde los mecanismos convencionales. Cuba se ha visto en los últimos cincuenta años como parte del bloqueo impuesto por el gobierno de Estados Unidos, imposibilitado de adquirir, e incluso utilizar, tecnología de este tipo. Un ejemplo es que en enero del 2005 la Universidad Federal de Minas Gerais en Brasil abrió las puertas a los científicos cubanos para usar los servicios de su supercomputadora a partir de un acuerdo gubernamental, sin embargo, otra vez apareció la oreja peluda del bloqueo. Las paranoias intentan frenar el desarrollo debido a que la firma Dell Brasil prohíbe la transferencia, exportación o explotación de sus productos a países que no son del agrado de Estados Unidos, entre los que no escapa Cuba. Nuestro país ha desarrollado como política un potencial humano significativo en el campo de las ciencias, y siempre se ha tratado hasta donde las posibilidades nos permiten, de hacer uso de estas tecnologías para nuestros proyectos de desarrollo económico, científico y sociales. En las décadas de los sesenta y setenta del pasado siglo, el país adquiere computadoras Iris10 e Iris50 francesas y en los setenta y ochenta equipos del Sistema Unificado de Máquinas Computadoras (SUMCE) del campo socialista. A partir de los años noventa con la caída del campo socialista y el recrudecimiento del bloqueo, la posibilidad de utilizar supercomputadoras para las investigaciones del país se hace mucho más difícil, pero no imposible. Por ejemplo, varias instituciones han creado facilidades de supercomputación, a partir de la utilización de clústers de computadoras, entre ellas se pueden señalar el Centro de Ingeniería Genética y Biotecnología (CIGB), el Centro de Bioinformática (BIOINFO) del CITMA, las universidades de La Habana, Las Villas y Oriente, entre otras, así como diferentes instituciones. [GiGA 2 / 2009]

17

hardweriando

D.I. Humberto Becerra López [email protected] GiGA, Dirección de Marketing y Comunicación Copextel

U

no de los productos más interesantes de este año 2009 es Acer AspireRevo, presentado en abril y conocido inicialmente con el nombre de Hornet. Este nettop con atractivo diseño es la nueva serie de ordenadores de escritorio de pequeño tamaño que presentó el fabricante taiwanés y resulta posiblemente un candidato perfecto a mediacenter, reproductor multimedia o como se desee llamar. Se sitúa un paso por delante de los discos duros multimedia, pues además de reproducir contenido multimedia, permite ejecutar prácticamente cualquier tarea que hoy se realice en una PC de escritorio: desde navegar por Internet y aplicaciones de ofimática hasta incluso algunos videojuegos. Quizá se quede algo corto de potencia para los títulos más exigentes, pero debe mover la inmensa mayoría del catálogo actual. Uno de sus atributos interesantes es el de ofrecer una gran potencia en unas dimensiones muy reducidas y con un consumo muy pequeño, que

debe rondar los 50 vatios de potencia. Esta cifra es bastante pequeña en comparación con una computadora actual de características medias, que ronda los 200 vatios, o un televisor LCD cuyo dato se aproxima a los 100.

Qué son los Nettop Después del éxito de los ordenadores portátiles de bajo costo conocidos como Netbook, la industria informática lanzó los primeros ordenadores de sobremesa con un reducido precio. Son los llamados "Nettop". Según la Wikipedia, el término Nettop identifica a los ordenadores de escritorio de bajo costo, bajo consumo y reducidas dimensiones. Están orientados a la navegación y la ofimática, por lo que sus prestaciones son muy reducidas, aunque suficientes para esas funciones. También suelen usarse como centros multimedia, conectados por ejemplo a un televisor. Para que la integración de Intel Atom sea viable, los ordenadores no cuentan con grandes ventiladores, pues el procesador está soldado a la placa y

la caja de alimentación es más pequeña. Las primeras propuestas comerciales fueron: •Asus Ebox: Asus presentó su producto eBox, un ordenador de sobremesa que cuenta con un procesador Intel Atom de 1,6 GHz, un disco duro de 160 Gb, 2 Gb de memoria RAM y conexión Wifi 802.11n. Al principio el sistema operativo fue Xandrox, una distribución de Linux, aunque posteriormente se ofreció una versión con el sistema operativo Windows XP.

[GiGA 2 / 2009]

19

hardweriando •MSI Wind PC: Wind PC es la primera propuesta del fabricante MSI en el segmento de los nettop, equipo que cuenta con un procesador Intel Atom, 160 Gb de disco duro y 1 Gb de RAM. Según el fabricante, sólo consume cuatro vatios de energía, nueve veces menor consumo que un procesador de portátil. .

Características del Acer AspireRevo

•Shuttle X27: la empresa Shuttle, especializada en Barebone (ordenadores semiensamblados para que el usuario termine de configurar el hardware), sacó el modelo X27, un ordenador barato que cuenta con un procesador Intel Atom, cuatro puertos USB, conexiones de audio y salida de vídeo VGA y DVI.

•Dell Studio Hybrid: con un supuesto consumo energético, un 70% inferior al de un ordenador de sobremesa convencional. El fabricante Dell presentó su primera propuesta de un ordenador de bajo costo pensado para navegar y ejecutar aplicaciones multimedia. Debajo de su carcasa cuenta con un procesador Intel Core 2 Duo de 2 GHz, 2 Gb de RAM y un disco duro de 160 Gb. En cuanto a las conexiones, dispone de tres puertos USB y puertos Firewire y Ethernet. También cuenta con salida de vídeo HDMI y DVI, para ser conectado a una pantalla de televisión de alta definición.

20

[GiGA 2 / 2009]

Éste pretende ser un ordenador sencillo para satisfacer necesidades básicas de informática y reproducir ocasionalmente alguna película. En su interior cuenta con un procesador Intel Atom N230/330 a 1.6 GHz., a elegir, e integra la plataforma gráfica de NVidia Ion, que ha conseguido

sacar todo el jugo a los Atom lo que ni la propia Intel ha logrado. Quizá la principal ventaja sea la implementación de una gráfica GeForce 9400M, integrada, pero con un rendimiento muy por encima de las también integradas GMA 4000 Series de Intel, las cuales han estado formando parte de los primeros equipos con Atom. Ahora con la plataforma Ion se podrá

hardweriando •El primer punto en contra es que no ofrece un sintonizador de televisión digital, como podría ser lo ideal dado que estamos hablando de un equipo claramente enfocado al salón. Ofreciendo ese sintonizador podríamos por ejemplo grabar cualquier emisión en el disco duro o dotar de TDT a aquellos televisores que aún no sean compatibles. •El segundo aspecto en discordancia es que no incluye unidades ópticas, algo en parte lógico debido a las diminutas dimensiones del dispositivo. Parece claro que a largo plazo los discos ópticos van a desaparecer, pero quizá aún sea pronto para evitarlos totalmente: una unidad lectora externa hubiese sido perfecta. •El tercer punto es que sólo ofrecerá versiones con Windows Vista, nada de Windows XP o sistemas Linux, por lo que será sensiblemente más caro que si se montara Linux. •El cuarto aspecto es quizá el menos importante de todos: no suele ser común disponer de una cable de red Ethernet en el salón, con lo que WiFi 802.11n debería ser casi una obligación a estas alturas. Además de tener un mayor alcance también permite transferir información mucho más rápido. Por ejemplo, mientras el estándar g se queda algo corto transmi-

reproducir vídeo en 1080p sin ningún tipo de ralentización del equipo, lo que permite, además, la ejecución de otras tareas en segundo plano. La memoria RAM es de hasta 4Gb DDR2. Para el almacenamiento cuenta con un disco duro de 250 Gb SATA de 2,5 pulgadas y puede agregársele un disco SSD, presenta 6 puertos USB y una ranura 5 en 1 para tarjetas de memoria. Incluye conectividad WiFi 802.11, aunque queda en el estándar g en detrimento del n que parece que no termina de arrancar en el mercado, una entrada de red Ethernet y de salidas HDMI y VGA. Uno de los modelos incorpora un

controlador 3D, que puede ser utilizado como ratón o como mando para juegos.

Aunque parezca una maravilla, existen algunos puntos que no terminan de convencer:

tiendo un vídeo en 1080 puntos por DLNA, su sucesor el 802.11n lo mueve sin problemas. [GiGA 2 / 2009]

21

hardweriando El mando Todo lo anterior es ya un gran paso dentro del desarrollo de la tecnología, y más aún lo es la presencia de un mando a distancia muy similar al de la Nintendo Wii. De hecho, se

trata de un controlador que también incorpora acelerómetro para detectar el movimiento, además, de poder usarse como un dispositivo de señalización (ratón aéreo) o un mando a distancia para el centro multimedia. El controlador puede configurarse en

Acer prometió una mini-PC capaz de reproducir vídeo en alta definición y ejecutar juegos modernos con soltura, por desgracia en pruebas realizadas demostró que todo lo que brilla no es oro. Las prestacio-

que Aero Glass y Flip3D funcionan sin dificultad). Cuando ciertamente se hacen evidentes las limitaciones del sistema es navegando por Internet. Y eso es un fallo inadmisible para un nettop. En ocasiones da la impresión de que el equipo tiene problemas de conexión. No es necesario decir que funciona mejor con un cable de red que utilizando WiFi. Firefox funciona mucho mejor que Internet Explorer, y a su vez, Chrome resulta infinitamente más aceptable que el segundo, pese a lo cual la experiencia de navegación sigue siendo pobre. La reproducción de archivos streams Flash es francamente deficiente. Hulu se ve bien a baja resolución y en ventana, pero a pantalla completa funciona a tirones, y YouTube resulta un desastre, lo que pinta un panorama bastante desolador para una PC que a priori quiere traer el mundo multimedia de Internet a nuestros salones. Tanto Nvidia como Adobe están trabajando en una solución a esos problemas de rendimiento, pero está claro que su pobre procesador Atom se ve desbordado sin la asistencia de la aceleración por hardware.

nes de la plataforma Ion son más que aceptables, el procesador Atom supone un inmenso freno para casi todo que no sea ofimática sencilla o multimedia a nivel de usuario puramente doméstico. Con suerte, Windows 7 le dará ese empujón imposible de obtener hoy por hoy con Vista (aun-

La reproducción de vídeo es donde de verdad brilla, las películas a 1080p las reproduce sin complicaciones. El problema es que todo esto lo hace mediante aceleración por hardware, lo que significa que has de utilizar un reproductor multimedia compatible. En otras palabras, los archivos MOV son intolerablemente lentos utilizando Quicktime, mientras que funcionan sin proble-

teoría) jugar un Medal como si estuviéramos en la Wii. No se puede hablar de la sensibilidad de este sistema, pero como funcione bien, le puede dar algunos sustos a la consola de Nintendo, máxime si tenemos

en cuenta que por un poco más que el precio de la blanca de Mario, constituye una PC que también puede servir para navegar, escuchar música o ver una película.

Rendimiento

tres modos de juegos diferentes para utilizarlo como mando de videojuego. El primer modo convierte el mando en un dispositivo tipo volante de avión o auto de carreras para juegos de velocidad. El segundo modo permite empuñar el mando como una raqueta de tenis o bate de pelota. Finalmente, el tercer modo de juego convierte este aspirante a Wiimando en un arma con gatillo integrado. Con esta configuración es posible (en

22

[GiGA 2 / 2009]

hardweriando mas con la versión de PowerDVD incluida. Además del mencionado PowerDVD, también es posible encontrar un software llamado Badaboom que es un transcoder CUDA dedicado a la conversión de archivos para su reproducción en otros dispositivos, labor que realiza con rapidez y eficiencia. En cuanto a los juegos funcionan sin grandes dificultades, siempre y cuando no se exija lo máximo en gráficos. Spore presenta sólo ralentizaciones de escasa importancia, aunque Team Fortress 2 requiere bajar los gráficos hasta niveles paupérrimos si no se quiere que la experiencia sea más parecida a un pase de diapositivas.

Nuevo Nettop de Acer Acer presentó otro modelo de Nettop diferente del AspireRevo, el Acer Veriton N260G. Aunque externamente se pueda parecer mucho a su antecesor, internamente la diferencia es notable, pero tal vez su color gris ya nos daba una pista.

En su interior nos encontramos con un procesador Intel Atom N280 a 1,66 GHz y FSB 667 MHz, dispone de 2 Gb de memoria RAM DDR2 a 667MHz y un disco duro de 160Gb. El factor de forma de este modelo es idéntico a su primera versión y tiene varios puertos USB, salida VGA, HDMI, Ethernet y no tendrá un módulo WiFi. En cuanto al sistema operativo se podrá optar, ya sea por Windows XP o Windows Vista. En una segunda versión siempre se intenta mejorar y aunque este modelo es más barato, al parecer no prima la reproducción en alta definición, como con la nVidia Ion del AspireRevo, que a una pequeña escala

posee toda la funcionalidad de las GeForce más potentes. Esta plataforma es un movimiento muy interesante para reforzar la tendencia de ordenadores baratos basados en Intel Atom. El valor añadido que ofrece este conjunto de chips cuando se ensamblan equipos baratos es que le permite llegar a un escenario hasta ahora vedado para los basados en este procesador: reproducir videos en alta definición. También ayudan cuando se ejecutan juegos aunque

mayoría de usos. Intel ve como Atom se convierte en un producto que comienza a superar al Celeron (Uberbin) y también tiene que anotar como Ion de nVidia se postula como un chipset superior a su Intel 945. Es por eso que Intel pretende usar el mejor chipset para Atom, el nuevo GN40, que permite acelerar la mayoría de contenidos en alta definición y tener un mayor rendimiento gráfico, aunque esto es algo que todavía está por verse. Al parecer el nuevo chipset

Packard Bell imax mini Casi un clón del Acer Aspire Revo, el Packard Bell imax mini la nueva computadora. Formado por el combo Intel Atom y NVidia Ion, disco duro interno de 160 GB y 2 GB de memoria RAM. El sistema operativo se puede elegir entre Windows XP o con Windows Vista. La configuración interna del equipo es fija y no puede modificarse, aunque es bastante completa en prácticamente todos los sentidos. Incluye, además salida HDMI, WiFi, Ethernet, cuatro puertos USB, lector de tarjetas y la posibilidad de añadir un soporte VESA para instalar el equipo en una pared o detrás del monitor. Este Nettop sigue la línea marcada por el Aspire Revo (Packard Bell pertenece a Acer y lógicamente esto habrá tenido mucho que ver) En definitiva ofreciendo conectividad WiFi a mayores, recortando algún puerto USB y por un precio bastante menor. Un ordenador así parece realmente atractivo e interesante para el usuario que quiera tener una mini-pc completa para vídeo en HD.

no hace milagros, RAM y CPU mandan mucho, sin aumentar consumo y ocupando poco espacio, lo que encaja con su uso en ultra portátiles que tengan la autonomía como prioridad y en los Nettop. Pero el Veriton N260G no está basado en la plataforma nVidia Ion, sino que utilizará la tarjeta gráfica Intel GMA X4500 ¿Será que la plataforma Ion no está dando resultados satisfactorios? Aunque pudo ser peor con el GMA 945. El mercado de computadoras personales anda revuelto, no sólo por la tendencia hacia el suficientemente bueno, sino por la amenaza procedente de productos inferiores: procesadores ARM, Android como posible sistema operativo para ultra portátiles, Nokia con productos que se van acercando... los que están apostando por el segmento de "precio bajo, prestaciones suficientes" se están encontrando un público muy receptivo al precio y con una percepción de que equipos muy potentes no justifican hoy en día su precio para la

de Intel no se lleva bien con el sistema operativo Windows XP. No es capaz de sacarle partido a los gráficos 3D y decodificación de vídeo que nos puede llegar a ofrecer el GN40, algo que no sucede con el Windows Vista.

Conclusión El Acer AspireRevo se queda a medio camino y al final no convence al menos en su estado actual. Aunque el rendimiento en juegos y conversión de archivos es sorprendentemente bueno considerando las especificaciones técnicas, resultan chocantes sus problemas con vídeos Flash o trabajando con reproductores sin aceleración por hardware, lo que podría ahuyentar a un buen número de clientes. En relación con el sistema operativo, la integración con Windows Vista puede traducirse en una seria pérdida de velocidad respecto al liviano Windows XP. Por muy sobremesa que sea, sigue estando motorizado por un Atom a 1,6 GHz y Vista realmente necesita de más recursos. [GiGA 2 / 2009]

23

notihardware MP3 player colorido y con altavoz integrado

Un HD player para multitud de formatos on el Mvix Ultio, su fabricante quiere ofrecer uno de los reproductores multimedia con mayor número de formatos de fichero posibles, además de incorporar soporte para la reproducción a alta resolución hasta 1080p. Así, a los más típicos, como DivX, MOV, VC-1 o H.264 le añade otros menos habituales en este tipo de dispositivos, como AVC-HD, que es el que usan muchos modelos de cámaras de vídeo, el muy utilizado MKV o FLV, además de incorporar soporte para ficheros de audio en FLAC, un formato de audio sin pérdidas. La conexión a la red le permitirá funciones adicionales, como la recepción de

C

contenido desde nuestro ordenador, el funcionar como servidor de ficheros, gracias al servidor Samba, o la descarga de ficheros a través de su cliente de Bittorrent. Esta conexión se hace por cable, pero opcionalmente se le puede añadir un módulo Wi-Fi.

E

Graba vídeos en DVD sin usar la computadora

L

a nueva grabadora de DVD multifunción Sony VRD-MC6 puede transferir vídeos caseros de alta definición y fotografías directamente a un DVD sin necesidad de intervención de una computadora. Posee una pantalla color de 2.7 para ver una vista previa del vídeo o bien hasta 6 fotografías a la misma vez. Puede transferir vídeos AVCHD a discos DVD en su resolución nativa 1080i HD cuando están conectados directamente a un disco duro Sony o memoria basada en la videograbadora Sony Handyam. Mantiene la calidad de sonido en Dolby Digital 5.1 así como la compatibilidad con videograbadoras con ratio de

aspecto de 4:3 y 16:9. Permite crear el menú y título del DVD, ofrece también la posibilidad de incorporar fondos de pantalla para el DVD a patir de imágenes, entre otros.

l diseño corrió a cargo de la firma alicantina Energy Sistem, en un intento más por acercarse al público joven y ofrecerles, envuelto en colores, un reproductor de bolsillo con altavoz integrado y una memoria con distintas capacidades. Que van desde los 2 Gigas de los modelos 3010 y 3011 hasta los 16 gigas del Energy 3040. El invento tiene una diminuta pantalla LCD de 1,8 pulgadas y un altavoz integrado para escuchar la música sin auriculares. Los que prefieren guardar las canciones para su disfrute interno, tienen dos entradas de auriculares. Con respecto a la memoria estaríamos hablando de un equipo que puede llegar a los 16 GB, capacidad que nos permitiría almacenar hasta 3.500 canciones. Mide 70 x 40 x 12 milímetros y apenas pesa 40 gramos. El pequeño lector lleva sintonizador de radio FM y es compatible con los formatos MPEG4, MP3, WMA y WAV y lleva ecualizador con los modos habituales predefinidos normal, rock, pop, música clásica y jazz.

Cámaras de 12 megapíxeles en celulares ay dos compañías que lanzaron en los últimos días unos celulares que tienen como característica destacable su cámara fotográfica: tanto el nuevo dispositivo de Samsung como el de Sony Ericsson cuentan con una cámara de 12 megapíxeles. Digamos que es un golpe duro para las cámaras digitales, porque con estos aparatos corren el riesgo de ver reducido sus posibilidades de ventas. En cuanto a la Samsung Pixon 12 o M8910 tiene una pantalla táctil de 3.1 pulgadas (720 x 480 de resolución). Además, viene con radio FM y con un reproductor de música y videos. Con la cámara de 12 megapíxeles también se pueden grabar videos. Su memoria interna es de 16GB.

H

24

[GiGA 2 / 2009]

Tiene compatibilidad con sitios como Facebook, Flickr, MySpace y Picasa, entre otros, de manera que el usuario a través de la conexión Wi-Fi con la que cuenta el celu-

lar, puede subir las fotos a los portales rápidamente. Y, para cerrar con el tema de la cámara, tiene un sistema de galerías de fotos para organizarlas de la manera que el usuario crea más conveniente, por ejemplo nombre, fecha, etiquetas, etc. Por su parte, la Sony Ericsson Satio tiene una pantalla táctil de 3.5 pulgadas (640 x 360 de resolución). También tiene radio FM, reproductor de música, GPS, conexión Wi-Fi y salida de TV, entre otras cosas. Respecto a la cámara de 12 megapíxeles, tiene autofoco con zoom digital, flash y detección de sonrisa; permite eliminar los ojos rojos de la foto, y además, a través del acceso directo, se pueden subir las fotografías directamente a Internet.

Cámara de video HD con disco duro de 240Gb na cámara con la capacidad de grabación en alta definición, fue presentada por Panasonic . El modelo HS350 presenta un disco duro de 240Gb, lo que permite tener una capacidad de poder grabar hasta 31 horas continuas, 40 minutos en modo 1080i formato Widescreen (H.264), así como la posibilidad de grabar en tarjetas de memoria SDHC añadiendo la posibilidad de otros 32Gb de almacenamiento. La batería actual tiene un rendimiento de aproximadamente 1.5 horas en modo de grabación, aumentando en 15 minutos cuando utilizas una tarjeta micro SDHC. La calidad de la imagen cuenta con la ayuda de un estabilizador de imagen, que permite incluso grabación de vídeo en movimiento sin que se vea borroso el vídeo, con 4 000 tomas por

Sintonizador de radio por Internet

U

segundo lo que evita que se vea difuso. Cuenta también con corrección de lentes y un modo para detectar completamente el tipo de escena sin la necesidad de que el usuario sepa configurar o detectar el modo que requiere para la grabación. La lente tiene un zoom óptico de 12X, puede grabar sonido de 5.1 canales, así como tomar imágenes normales con una resolución de 10.6 Megapíxeles.

Proyector en el bolsillo

E

l Samsung MBP200 no es solamente un proyector de tamaño reducido, lo que se viene llamando picoproyector, pues su funcionalidad se extiende un poco más allá de eso y se mezcla con la de un reproductor multimedia portátil. A diferencia de otros modelos similares, en éste se incorpora una pantalla de 2.2 pulgadas con una resolución de 320 × 240 píxeles y con una interface muy similar al de los reproductores del fabricante coreano en el que se podrán ver vídeos y realizar otras funciones sin necesidad de poner en marcha el proyector. Proyecta una imagen de hasta 50 pulgadas con una resolución de 480 × 320 píxeles. Ofrece soporte para la reproducción de vídeo en DivX, Xvid o

MPEG-4 y para documentos ofimáticos, como pueden ser PDFs, DOCs o XLSs, y compatibilidad con tarjetas de memoria de tipo MicroSD. Los controles de este proyector son táctiles e incorpora unos pequeños altavoces, una salida de auriculares de 3.5 milímetros y una entrada de vídeo, todo ello con un peso de 140 gramos. Su autonomía es de una hora y 20 minutos.

no de los productos estrella de Aluratek es el sintonizador de radio AIREC01F, capaz de disponer de hasta 11.000 emisoras de radio de más de 150 países en todo el mundo. La idea de este sintonizador es conectarse a cualquier par de altavoces externos para que se pueda sacar todo el provecho del mismo. Tiene que estar conectado al router para dotarlo de conectividad inalámbrica, que puede ser WiFi o vía cable. Permite hacer búsquedas por género entre los 50 que incorpora de serie o también geográfica: continente/país/ciudad y por supuesto también han pensado en que puedas guardar emisoras favoritas para un acceso más rápido en el futuro. También reproduce de otras fuentes de audio como el almacenado en el PC o incluso desde un reproductor MP3 o memoria USB. Se puede utilizar como Acces Point WiFi, herramienta que es de utilidad como amplificación de la red inalámbrica.

U

Memoría USB de 128 Gb

Bowlingual: traductor de perro

L

a característica que distingue a los seres humanos de los animales es la capacidad de hablar, Científicos japoneses han tratado de solucionar las diferencias entre los seres humanos y los perros con Bowlingual, un traductor perrohumano. Se trata de un dispositivo de TakaraTomy y está compuesto de un collar para perros con un traductor incorporado y un mando donde se nos muestra esta información. Funciona sin cables dentro de un

L rango de 10 m y puede traducir los ladridos de un perro a idioma japonés en tiempo real. La traducción se muestra en la pantalla de mando, así como su estado de ánimo.

a Super Talent Luxio, gama alta de memorias USB alcanza los 128 Gb. Esta memoría tendrá, como sus hermanas más pequeñas, cifrado AES-256 bits por hardware, bastante interesante si lo que se busca es tener los datos bien seguros. En cuanto al diseño, estará disponible en tres colores negro, plata y un símil de madera e incluirá una funda de cuero negro. [GiGA 2 / 2009]

25

softweriando

Tipos de Aplicaciones Portables 1.En un fichero autoejecutable: Están empaquetadas dentro de un único fichero autoejecutable en el que está contenido todo lo necesario para su correcta ejecución y funcionamiento.

Ing. Roger Pérez García [email protected] Oficina para la Informatización

S

i crees que los discos USB (Universal Serial Bus o Puerto de Serie Universal) sirven sólo para almacenar archivos, estás equivocado. Gracias a una serie de interesantes desarrollos, esta tecnología ha evolucionado en dispositivos que permiten llevar contigo sus aplicaciones favoritas e incluso proteger sus datos. La llegada de la memoria USB (los conocidos pendrivers), con su considerable capacidad de almacenamiento, compatibilidad a toda prueba y reducido tamaño, fue toda una revolución que dejó las disqueteras, los lectores y quemadores de CD llenándose de polvo. Pero eso fue sólo el comienzo ya que después de la carrera entre los fabricantes por entregar mejores diseños y mayor capacidad, los propios usuarios dieron el siguiente paso en la evolución de esta tecnología: las apli-

26

[GiGA 2 / 2009]

caciones para llevar o mejor conocidas como Aplicación o Programa Portable (Portátil).

¿Qué son las Aplicaciones Portables? Aplicaciones informáticas reducidas con las herramientas básicas para lograr un reducido tamaño y una total independencia con alguna PC en específico, que garantizan ser transportadas en cualquier dispositivo de almacenamiento extraíble (como un disquete, iPod, tarjeta de memoria flash o memoria USB), siempre y cuando quepan en éste. Igualmente deben garantizar poder ser ejecutadas desde esos dispositivos sin necesidad de ser instaladas ni configuradas, lo que permite al usuario disponer de sus aplicaciones necesarias o favoritas en cualquier ordenador y en cuestiones de segundos.

Vistas de Portables en un único fichero.

2.Varios ejecutables o ficheros en una carpeta: Se caracterizan por estar almacenados en una carpeta, y en ella estar contenido todo lo necesario para su ejecución y funcionamiento. Aplicaciones que vienen acompañadas de varios archivos que complementan al archivo principal. En una misma carpeta pueden existir varios ejecutables del mismo paquete, por ejemplo, dentro del Office: el Word, el PowerPoint, etc.

Vista de un Portable con sus ficheros en una carpeta.

3.Contenidos en un menú o lista: Paquete que ejecuta un lanzador o programa que despliega un menú

softweriando similar al de Inicio de Windows y que permite catalogar o administrar las herramientas portables contenidas en la USB o discos de la PC. Estos paquetes muchas veces incluyen varias aplicaciones por defecto, aunque posibilita de manera muy sencilla, configurarlo, personalizarlo, agregar nuevos portables y modificar sus elementos, lo que brinda un fácil acceso a documentos, imágenes y aplicaciones instaladas en el dispositivo. Éstos también muestran la capacidad disponible del dispositivo en el cual está contenida y ofrece la posibilidad de expulsarlo.

•En dependencia de cómo han sido creados pueden o no hacer modificaciones en los registros de Windows (la mayoría no hace modificaciones o las revierte una vez finalizada su ejecución). •Concluida la ejecución de la aplicación, automáticamente se finalizan los procesos y subprocesos asociados a éste. •En aquellos casos en los que son creadas carpetas temporales, si no se previó, el ordenador se encargará de eliminarlos una vez terminada, y desaparecerá de la máquina todo rastro de la aplicación y de su configuración (muchas veces sólo se eliminan los archivos y no las carpetas).

¿Cómo crear una Aplicación Portable?

Vista de varios menús de Aplicaciones Portables.

Principios generales de funcionamiento A manera de resumen se puede decir que los portables generalmente usan la memoria RAM como disco duro virtual y el propio medio (USB o disco duro) como sistema de archivos: •Estas aplicaciones luego de ser invocadas por primera vez crean una carpeta temporal ya sea en C:\Documents and Settings\[usuario]\Configuración local\Temp\[software_portable] o en la propia carpeta donde radique la aplicación (en la USB o en el propio disco duro) donde se almacenará una serie de archivos y ficheros (logs, .dll, .ini) en los que radicará la configuración, preferencias e información necesaria para su ejecución y funcionamiento. Esto hace que el siguiente arranque sea un poco más rápido. •Además, activan y cargan temporalmente en la RAM del ordenador todos los procesos que se ejecutarán y que serán necesarios para el funcionamiento de éste (esas aplicaciones requieren ser pequeñas para garantizar que puedan ser cargadas completamente en la RAM del ordenador, además de garantizar ser transportadas en la USB).

Existen varias formas de hacer un portable en dependencia de la fisonomía y el funcionamiento del instalador que se desee hacer portable, además del fin que se busque. También hay que tener en cuenta si el programa es "reeware (tipo de software que se distribuye sin costo y por tiempo ilimitado), o si viene con número de serie o licencia; ya que estos últimos requieren un tratamiento especial para que puedan ser ejecutados sin restricciones.

¿Qué se debe tener en cuenta al hacer un Portable? - Sobre qué sistema operativo funcionará Muchas aplicaciones solamente se ejecutarán en el sistema operativo en el cual fueron creadas. Aunque algunos de los portables para Windows son totalmente compatibles con Linux, y los que no, pueden ser abiertos con "Wine", un emulador para abrir o instalar programas de Windows sobre Linux. - Qué tipo de instalador se desea hacer Portable •Programas que no instalan controladores: Muchos de éstos son ya de por sí portables, aunque en ocasiones varios de los archivos que lo conforman son innecesarios y pueden ser eliminados. Éstos no son tan difí-

ciles de hacer portables. •Programas que instalan controladores: Por lo general instalan drivers o controladores dentro del directorio Windows los cuales serán utilizados para su funcionamiento. Por lo general requieren de licencias, cracks o números de series. Son más difíciles de hacer portables. - Tipo de Portable que se desea hacer Hay que tener presente el tipo de instalador que se va a utilizar, el uso que se le va a dar y el Sistema Operativo en el cual funcionará. Y luego en dependencia de las herramientas que se utilicen para la creación, definir si se creará en un único fichero autoejecutable, varios ejecutables o ficheros en una carpeta o agrupados en un menú. También hay que tener presente si se desea dotar a la aplicación de los medios necesarios para que elimine las modificaciones realizadas en los registros en caso de que así sea.

Vista de algunas de las herramientas que se pueden utilizar para hacer Portables.

- Herramienta que se pueden utilizar •VMware ThinApp, tinstall Setup Capture, Xenocode, WhatChandeg, TotalUninstall De manera general, estas herramientas hacen capturas de todo el sistema antes y después de una instalación y luego comparan esas capturas para mostrar los cambios realizados y almacenar en carpetas todos los archivos vinculados al programa. •Regmon, Filemon, ProccessMonitor Monitorizan los cambios ocurridos en el registro de Windows y los archivos que están siendo utilizados por el sistema operativo en tiempo real. Estos pueden ser usados para saber si hay que hacer alguna modificación a los ejecutables realizados para que no hagan ninguna modificación en la PC. •WinRAR, UPX (Ultimate Packer for eXecutables) Utilizados como empaquetadores de [GiGA 2 / 2009]

27

softweriando ejecutables y ficheros con una muy buena tasa de compresión y velocidad de descompresión. Además, generan ficheros autoejecutables. •AutoIt: Utilizado para modificar el portable y que no haga cambios en el registro de Windows. •UniExtract Herramienta que permite extraer los archivos de un fichero comprimido en cualquier formato (ZIP, RAR, 7Z, etc.) o de programas de instalación genérico (NSIS, Setup, .msi, etc.). Utilizado para extraer los instaladores que deseamos hacer Portables. •ResHack Se emplea para insertar el número de serie y editar los ejecutables e iconos de nuestros Portables. •Lupo Pen Suite, U3, Portable Apps Suite Herramientas para realizar menús de Aplicaciones Portables.

Ventajas de las Aplicaciones Portables •Pueden ser utilizados sin permisos de administración ya que no se instalan ni copian nada en el ordenador. •Pueden ser ejecutados sin instalarse ni configurarse y, además sin instalar bibliotecas ni copiar ficheros adicionales, lo que permite ahorrar espacio en el disco duro. •Permiten mostrar trabajos en su archivo nativo en máquinas que no posean dicho programa instalado. •La mayoría de las veces son exactamente iguales que las versiones normales, salvo en que se crean para que no queden ligados a un único ordenador. •Ahorran recursos porque muchos programas normales al estar instalados incluso cuando no se estén ejecutando consumen recursos. •No alteran archivos esenciales del sistema operativo. •Permiten utilizar simultáneamente distintas versiones de un mismo software.

Desventajas de las Aplicaciones Portables •No están asociadas a la apertura de ningún archivo (hay que acceder mediante Archivo/Abrir). •Muchos no hacen salvas directamente sobre la memoria USB. •Generalmente estas herramientas se mutilan con el objetivo de lograr

28

[GiGA 2 / 2009]

un reducido tamaño. •Tardan algo más en cargar que las versiones normales del mismo programa.

Consideraciones generales •No todas las aplicaciones informáticas pueden ser convertidas en Portables. •Existen diferentes versiones de un mismo programa porque cada creador hace una versión a su manera. •Las Aplicaciones Portables exigen los mismos requisitos técnicos impuestos por los instaladores normales. •En ocasiones pueden dar algún error de ejecución si requieren que la PC tenga instalado alguna otra aplicación o complemento. •Es una realidad que mu-chos de estos programas son pirateados, pero muchos de los no Porta- bles también lo son. •Hay que tener un especial cuidado desde donde se les descargan (pueden estar preparados para ocasionar daño).

¿Dónde se pueden encontrar o descargar algunos Portables? Existen varios sitios de los cuales se pueden descargar o encontrar información sobre los Portables, algunos de ellos son: http://osxportableapps.sourceforge.net/ http://www.losportables.net/ http://www.app-stick.com/ http://www.winpenpack.com/main/ news.php/ http://pensuite.wininizio.it/ http://portableapps.com/ http://www.programasportables.com/ http://appsportables.blogspot.com/ http://www.lupopensuite.com/index. htm/ A continuación se brinda un resumen estadístico realizado que se relaciona con las descargas de aplicaciones Portables realizadas y de los países desde los que éstas se descargan, con datos del sitio www.portableapps.com:

http://i35.tinypic.com/

Conclusiones Hasta aquí se abre todo un nuevo mundo en cuanto al uso de la Memoria USB, las Aplicaciones Portables o de bolsillo. Esos pequeños ingenios de la tecnología que son capaces no sólo de transportarse, sino también de ejecutarse desde una USB sin la necesidad de ser instalados en el ordenador, y que aunque ya llevan muchos años entre nosotros, siguen siendo desconocidos para muchos. Este trabajo tiene la intención de resumir sus principales características y funcionamiento. En el ámbito del desarrollo actual de la informatización del país y la utilización de las computadoras sin disco duro, como estaciones de trabajo, se impone el empleo de estas aplicaciones fundamentalmente por las ventajas que brindan (facilidad de poder ejecutarlas sin tener derechos de administración, para ahorrar espacio en el disco duro, entre otras de las ya mencionadas). Además, son ideales para aquellos puestos no permanentes (dígase Joven Club de Computación, puestos de Internet, etc.) en los cuales no se pueden tener instaladas todas las aplicaciones necesarias por cada usuario, sino que se tendrían instaladas sólo aquellas que son genéricas para todos y se utilizarían en versión portable las especificas de cada usuario.

Ing. Pedro Julio Sánchez Leyva [email protected] MSc. Nelson Gamazo Sánchez [email protected] Segurmática

E

l crecimiento acelerado de las redes de computadoras no sólo significa mayor facilidad para compartir recursos e información, sino que también trae nuevos retos para la detección de intrusiones. Debido a la complejidad y la vasta cantidad de información que se maneja en las grandes redes, el método tradicional de detección de intrusiones (IDS), diseñado originalmente para ambientes reducidos, no puede ser aplicado directamente a este tipo de sistemas. De esta problemática surge la necesidad de implementar sistemas de detección de intrusiones distribuidos, capaces de garantizar la seguridad de todos los componentes y recursos de una red o al menos de la mayoría de ellos. La distribución de programas gusanos en Internet y los ataques distribuidos de denegación de servicios (DDoS) han demostrado que los sistemas conectados a la red pueden ser dañados masivamente, generando daños y pérdidas de magnitudes considerables. En un sistema distribuido, generalmente los ataques involucran a más de un componente del sistema y muchas veces resulta difícil determinar que la ocurrencia de un determinado evento corresponde a un ataque, si no se tiene reporte de ese mismo evento ocurriendo en otros lugares. Si bien siguen existiendo ataques que se propagan de una computadora a otra, y que afectan en poco tiempo

porciones considerables de la red, se ha hecho práctica por parte de los atacantes diseñar y ejecutar actividad maliciosa personalizada para determinadas regiones, empresas, personas, etc., con el objetivo de ser efectivo y a la vez no ser detectados. Tener una visión global de los ataques que se realizan, ubicando puntos de detección en la mayor cantidad de redes posibles y monitorearlos con un sistema centralizado permite detectar tanto los ataques masivos como los personalizados. Este trabajo propone la utilización de un sistema que por un lado beneficia el desarrollo de la lucha contra programas malignos, y por otro, permite mantener al tanto el estado de los ataques recibidos por las empresas e instituciones de forma similar al utilizado

por compañías reconocidas en el campo de la seguridad informática.

Sistema distribuido de sensores TAIPS-net El sistema de prevención de intrusiones y análisis de tráfico TAIPS-net es una herramienta de código abierto desarrollada por la Empresa de Consultoría y Seguridad Informática, Segurmatica, bajo la licencia GPLv2. Su desarrollo es una combinación de los proyectos Honeywall y Nepenthes con el objetivo fundamental de integrar Potes de Miel de baja interacción con funcionalidad IDS/IPS, captura y análisis de tráfico en una sola computadora. Una de sus características distintivas es la adición al sistema de la funcionalidad de captura de programas malignos.

Figura 1. Arquitectura de red de TAIPS-net. [GiGA 2 / 2009]

29

softweriando La arquitectura de la instalación de TAIPS-net en la red de Segurmática es la que se muestra en la figura 1. El despliegue de sensores TAIPS-net permite conocer el estado de las redes a gran escala y detectar a tiempo actividad no autorizada, pero no cuenta con un sistema distribuido de recolección de alertas que facilite el análisis de la información generada por los sensores. Para adicionar esta funcionalidad, el sistema TAIPS-net fue modificado para lograr su integración con Prelude y así poder recolectar las alertas provenientes de distintos sensores TAIPS-net.

•Tiene una interfaz de programación para incluirle nuevos sensores sin tener que modificar a Prelude. Arquitectura y funcionamiento de Prelude. La composición de Prelude es completamente modular y consta de cinco elementos básicos: •Biblioteca Prelude (libprelude)

una base de datos que posteriormente es accedida por la interfaz web del sistema. En los siguientes puntos se explicarán los mecanismos y programas que utiliza el sistema para enviar y procesar las alertas. En cada punto se hará referencia al cumplimiento de los requisitos anteriormente tratados.

Sistema Prelude Prelude es una herramienta IDS híbrida que permite el análisis centralizado de la información proveniente de múltiples sistemas de seguridad. Utiliza el estándar de Formato de Intercambio de Mensajes de Detección de Intrusiones o IDMEF, por Figura 2 Arquitectura de Prelude. sus siglas en inglés, que permite a los diferentes tipos de sensoSistema TAIPS-net con Prelude res generar sus eventos utilizando un •Sensores: Envían los eventos formato unificado. Está desarrollado •Servidor Prelude: Recolecta y alma- La automatización del proceso de bajo licencia GPL que admite la reuti- cena eventos instalación del TAIPS-net con solización, modificación y distribución •Biblioteca PreludeDB: Proporciona porte para el envío de alertas hacia el acceso a la base de datos de el sistema Prelude, facilita a un del código. Prelude brinda un grupo de facilida- Prelude administrador con pocos conocides que permitió su integración con •Prewikka: Interfaz web para el aná- mientos sobre el sistema, realiel sistema TAIPS-net. Además, cum- lisis zar su instalación y configuración ple los requisitos necesarios para la La arquitectura básica de un siste- quedando el sistema listo para el implementación de un sistema distri- ma Prelude es la que se muestra en envío de alertas hacia un lugar buido de recolección de alertas. la figura 2. Los sensores por medio centralizado. Entre éstos se pueden mencionar: •Está desarrollado bajo licencia GPL que permite la reutilización, modificación y distribución del código. •Soporta tolerancia a fallos tanto en los sensores como en los mecanismos de comunicación. •Snort y Nepenthes, herramientas utilizadas en TAIPS-net traen incluido soporte para implementar Prelude. •La comunicación entre los sensores y el servidor Prelude se establece mediante una conexión cifrada usando SSL. Figura 3. Arquitectura básica del sistema TAIPS-net distribuido. •Las alertas se comprimen para ser enviadas que logra enviar más alertas con menos ancho de de libprelude envían sus alertas La arquitectura básica del funcionabanda en la conexión entre Prelude y hacia el servidor Prelude. Luego miento de la nueva versión del sisteestas alertas son almacenadas en ma TAIPS-net está reflejada en la los sensores.

30

[GiGA 2 / 2009]

softweriando

figura 3. Las herramientas Snort, Argus y Nepenthes envían sus alertas hacia la biblioteca libprelude, la cual sirve de plataforma para tener acceso al sistema Prelude y maneja de manera segura la comunicación entre el sensor y el servidor Prelude. Con este sistema instalado en la red de Segurmática se han podido detectar diferentes tipos de ataques que se emplean actualmente para penetrar en sistemas vulnerables. Algunos de los más utilizados se mencionan a continuación. Ataques recibidos La red de potes de miel incluye un Sistema de Detección de Intrusos que permite señalizar los ataques recibidos y recolectar datos relativos a ellos. Estos datos, además de que son necesarios para ajustar el sistema a que reconozca nuevos ataques y adicionar soporte para la captura de nuevos programas malignos, constituyen una fuente importante de conocimiento en cuanto a los tipos de ataques que están recibiendo las redes. Por ejemplo, durante los últimos tres meses del año 2009 las estadísticas han mostrado como intento de ataque más común, el uso de servidores proxy vulnerables que facilitan la navegación anónima por ellos. Los escaneos en los puertos 6588 y 1080 (socks) son los más frecuentes, en búsqueda de la vulnerabilidad antes mencionada.

También se ha detectado el incremento en la propagación del gusano SQL Slammer que se expande por el puerto 1434. Durante la fecha comprendida entre el 1 de enero y el 1 de marzo habían ocurrido 362 flujos y 345 alertas generadas por este gusano. En el mismo período, pero de marzo a mayo, la cantidad de flujos ascendió a 427 y 414 alertas. Esos datos demuestran un fehaciente incremento de la propagación de este gusano en la red, asociado al aumento del número de máquinas comprometidas y utilizadas para contribuir con la propagación del programa maligno. De 133 direcciones IP diferentes que estaban distribuyendo el programa maligno durante el primer período aumentó a 142 direcciones IP para el segundo. Las mayoría de las direcciones IP fuente de estos ataques pertenece a China. Otro de los ataques recibidos es por el puerto 80 mediante la búsqueda de versiones vulnerables del servidor apache y de open-ssl. Aunque los sensores han sido sometidos a constantes escaneos de puertos y ataques dirigidos a múltiples aplicaciones, se puede decir que las principales amenazas de los meses de febrero, marzo y abril del 2009 han estado enfocadas hacia la búsqueda de vulnerabilidades en aplicaciones web que permitan la navegación anónima y así realizar actividad mali-

ciosa sin que el atacante pueda ser detectado.

Conclusiones Para el despliegue masivo de sensores TAIPS-net es necesario utilizar un sistema capaz de recolectar las alertas de seguridad que generan estos sensores en un lugar centralizado para realizar un análisis rápido y efectivo. Basado en esta necesidad se utilizó Prelude como sistema distribuido de recolección de alertas. La integración del Prelude al sistema TAIPS-net permite el envío de las alertas generadas por Snort, Argus y Nepenthes hacia un servidor Prelude, en el cual son almacenadas y mostradas por una interfaz web. Se pudo comprobar que las alertas que se generan durante la pérdida de conexión con el servidor Prelude son almacenadas localmente y después enviadas una vez restablecido el enlace. Esto permite instalar el TAIPSnet en redes propensas a fallos de conexión, como Internet, sin perder la información de ataque capturada a la hora de centralizarla. La automatización del proceso de instalación del TAIPS-net con soporte para el envío de alertas hacia el sistema Prelude, permite a un administrador con pocos conocimientos sobre el sistema, realizar su instalación y configuración y queda el sistema listo para el envío de alertas hacia un lugar centralizado. [GiGA 2 / 2009]

31

enredados

Dr. René Yáñez de la Ribera [email protected] Empresa GKT Ing. Maytée Odette López Catalá [email protected] Dpto. Telecomunicaciones y Telemática, ISPJAE Ing. Virgilio Zuaznabar Mazorra [email protected] CUBALSE

A

l llegar la Fibra Óptica al conocimiento de todos los usuarios de las Redes de Telecomunicaciones, revoluciona el mundo debido a que deja detrás el famoso cable coaxial para dar paso rápidamente a una tecnología que ofrecería una mejor calidad en los servicios, ampliaría el espectro de frecuencias y ancho de banda para poder dar respuesta a la ley de oferta y demanda. Fue una nueva corriente tecnológica como opción para incrementar la densidad en las telecomunicaciones; y porque son medios de comunicación por excelencia, que brindan su uso ventajoso frente a las líneas tradicionales para una gama extensa de aplicaciones, pues ofrecen un mayor ancho de banda: a pesar de sus pequeñas dimensiones pueden transmitir varios canales de TV o incluso más de 60 mil canales telefónicos, mientras que se alcanzan mayores distancias entre puntos a comunicar sin el uso de Repetidores. Por tales planteamientos se conoce que la Fibra Óptica ha sido de gran interés para su comercialización en el campo de las Telemáticas y Telecomunicaciones, donde encuentra diversas aplicaciones ya sea en las redes urbanas para la distribución de señales de TV por cable, en redes de multiservicio en áreas de abonados y en redes locales de ordenadores, entre otras.

32

[GiGA 2 / 2009]

Desde su comercialización en los años 70, ciertas Fibras Ópticas han encontrado su uso en aplicaciones determinadas, por ello hoy las nuevas demandas impuestas por las Redes Ópticas han traído su perfección y especialización. La Red Óptica posee nuevos retos actualmente y su esencia radica en que la fibra puede llevar más longitudes de onda sobre más grandes distancias, en las cuales las señales transmitidas sin regenerar alcanzan tramos de alrededor de 300 km en sistemas submarinos de miles de kilómetros y la velocidad del bit por longitud de ondas puede ser de 10 Mbps de sistema común, y existen estándares incluso para 40 Gbps. Por ello se impone para un futuro no muy lejano el modelo para Red de transporte en dos capas formadas por IP (Internet Protocol) directamente sobre nivel óptico lo que brindará un mayor uso de las redes con calidad y eficiencia y podrá ser motivo de inspiración de los autores de este artículo para realizar otro trabajo similar pero haciendo énfasis en ese nuevo modelo de Red.

Aprovechamiento del ancho de banda en las Fibras Ópticas La recomendación de la UIT-T ha realizado diferentes normas que tocan el tema muy importante para esta tecnología. En la figura 1 se muestra un esquema de cómo se ha trabaja-

do para poder aprovechar mejor el ancho de banda y las ventanas de trabajo donde ella funciona. En la figura 1 se muestra un diagrama donde se hace una gráfica del parámetro atenuación contra la longitud de onda de trabajo utilizada en la fibra óptica, la banda de trabajo se extiende desde unos 800 nm hasta prácticamente 1600 nm y los valores de atenuación reflejan el estado del arte en la tecnología de fibra. Se pueden observar tres mínimos clásicamente que se han denominado ventanas de trabajo y se ubican en 850 nm, 1300 nm y 1550 nm. Tales ventanas señalan las zonas de trabajo óptimas que están relacionadas a su vez con la evolución tecnológica de este medio de transmisión, así las primeras fibras comerciales obtenidas eran del tipo Multimodo para salto de índice; operaban a 850 nm y se caracterizaban por un coeficiente de atenuación relativamente alto a su vez que la frecuencia de operación estaba por debajo de 1G Hz a distancias máximas de unos 10 km sin repetidor, actualmente operan en redes de área local (LAN) hasta 1Gbit/s y presentan la ventaja de un menor costo. La segunda generación trabaja a 1300 nm y desde el punto de vista tecnológico se conoce como fibras Multimodo de índice gradual que logran una atenuación muy baja, típicamente inferior a los 0,4d b/km, así como mayor ancho de banda que opera a un poco más de 2,5 Gbps; se

enredados duce a partir de la incorporación de nuevos servicios de banda ancha como son la TV digital, el vídeo en demanda y las opciones de multimedia en general. 2. La existencia de diversos protocolos de comunicación incompatibles entre sí, tal es el caso de IP y ATM y en particular las variantes de voz paquetizada que puede transportarse en diferentes formatos como son voz sobre protocolo IP o sobre Frame Relay, entre otros, además de los servicios de voz convencionales de la red telefónica pública conmutada (PSTN) sobre SDH.

Figura 1. Ancho espectral de las ventanas de trabajo de la Fibra Óptica.

Figura 2. Penetración en el mercado de los servicios de telecomunicaciones.

aplican en redes de larga distancia con tramos de repetición sobre los 50 km. La tercera generación es la más importante ya que es un tipo de fibra Monomodo de altas prestaciones que puede operar en 1300 nm y 1550 nm con atenuación por debajo de 0,4d b/km y un ancho de banda que le permite alcanzar más de 10 Gbps, con tramos de repetición de 100 km aproximadamente, en sus diferentes alternativas comerciales se ha convertido en el caballo de batalla de las redes de transporte óptico actuales y sobre ellas se soportan los sistemas de transmisión de la jerarquía digital síncrona (SDH) y los servicios Frame Relay y ATM de banda ancha. Dicho gráfico muestra que estas ventanas no son líneas espectrales exac-

tamente, sino más bien representan una zona de trabajo en cuanto a ancho de banda que puede ser aprovechada y el mayor interés se ha centrado desde luego en la ventana de 1550 nm en la que se dispone al menos idealmente de un ancho de banda del orden de 200 nm.

Necesidad de un mayor ancho de banda En la actualidad hay dos razones principales que motivan una utilización cada vez mayor del recurso de ancho de banda: 1. El aumento de los servicios de datos, en especial los relacionados con Internet que han tenido un crecimiento muy fuerte desde su proliferación a escala mundial en 1996 y un impulso mayor en ese sentido se pro-

Para ilustrar el crecimiento del tráfico en las comunicaciones de voz, Internet y sistemas móviles en general se propone la figura 2, que muestra la penetración en el mercado por año, de cada uno de estos servicios. Se observa la fuerte penetración de los servicios móviles y el comportamiento prácticamente estacionario de los servicios de voz fijos, además del crecimiento sostenido para tráfico de Internet el cual se duplica aproximadamente cada año. Es interesante señalar que algunos pronósticos a mediados de la década del 90, preveían que las comunicaciones de datos sobrepasarían las de voz alrededor del 2003, sin embargo, la explosión del teléfono móvil celular como se aprecia en la figura mencionada ha compensado este efecto al causar un fuerte incremento en el uso de los servicios de voz. No obstante, la evolución de los sistemas móviles hacia las denominadas generaciones 2 G y 3 G impulsa fuertemente las comunicaciones de datos, pues el móvil está dotado especialmente en los sistemas GSM, con capacidad de conectividad a la red que alcanzará una velocidad del orden de 2 Mbits/s, la contrapartida de este crecimiento de tráfico en términos de recursos de comunicaciones es precisamente una necesidad de mayor ancho de banda o lo que es equivalente a un aumento de la velocidad de transmisión en los diferentes niveles de la red. Prácticamente en el 2000 se sobrepasa el umbral de 10Gbit/s en la columna vertebral de transporte lo cual, indudablemente, obliga a un [GiGA 2 / 2009]

33

enredados uso eficiente del ancho de banda potencial que puede ofrecer la fibra óptica, se observa en la propia figura que a partir de este limite, las soluciones de transmisión sobre fibra dejan de ser monocromáticas para convertirse en multicanales lo cual significa el empleo de varias longitudes de onda a una máxima velocidad eléctrica fija, que en este caso es de 10 Gbps. Esta tecnología aumenta la capacidad de la información en fibra proporcionalmente al número de longitudes de onda utilizado y se obtiene mediante el multiplexado óptico de los flujos de información monocromáticos a la entrada del sistema, los cuales se re sintonizan previamente a una longitud de onda asignada alrededor de la ventana de 1550nm, zona de trabajo analizada anteriormente en la figura 1, se está utilizando comercialmente un ancho de banda de unos 40nm, comprendido entre 1530nm y 1570nm y en sentido figurado puede interpretarse como una transmisión en múltiples colores o coloreada.

Tecnología de Multiplexación en longitud de onda: WDM y DWDM Esta tecnología permite un mejor aprovechamiento del ancho de banda potencial de la fibra como medio de transmisión. Con el aumento sostenido de las comunicaciones de datos, en particular Internet y los servicios más recientes de vídeo y multimedia en la red, se dio lugar a un incremento continuo de la velocidad de transmisión, con valores por encima de los 10Gbits/s, en el nivel de espina dorsal o backbone, donde los sistemas comerciales actuales operan fácilmente a 320 Gbits/s o más velocidad. Una alternativa para responder al reto de anchos de banda de tal magnitud se ofrece por la llamada tecnología WDM, estas siglas significan Multiplexación por Longitud de Onda y se realiza sobre fibra óptica. La letra D añade el concepto de Multiplexación Densa que se explicará más adelante, si se tiene en cuenta que longitud de onda y frecuencia no son magnitudes independientes, pues están ligadas por la velocidad de la luz y se puede deducir que desde el punto de vista teórico, la técnica no es novedosa ya que tiene

34

[GiGA 2 / 2009]

su contraparte en los sistemas de multiplex por división en frecuencia, denominados también de ondas portadoras y utilizados en los sistemas de transmisión por líneas aéreas, par de cobre y especialmente el coaxial y

se manejan al menos, ocho longitudes de onda y en la actualidad son típicos los sistemas de 32 longitudes de onda para el manejo de flujos de 2,5 Gbits/s y 10 Gbits/s, no obstante se trabaja en el desarrollo de siste-

Figura 3. Sistema de transmisión por Fibra Óptica, técnica WDM. (DWDM).

la microonda, sin embargo, lo novedoso radica en la tecnología para su implementación sobre fibra óptica.

Descripción de WDM Sobre una única fibra las señales son transportadas por portadoras ópticas de diferentes longitudes de onda, cada una con un ancho de banda de varias gigas hercios, aunque la banda de trabajo empleada es la del infrarrojo cercano, puede decirse simbólicamente que esto es equivalente a una "transmisión en colores", con cada color llevando una información diferente. Algunos fabricantes llaman "tarjetas coloreadas" a los módulos electrónicos básicos que componen este tipo de equipamiento. WDM puede transmitir varios canales ópticos sobre una fibra y cada canal a su vez, puede transmitir señales de alta velocidad y formatos diferentes, por ejemplo, un canal puede transportar una señal de IP, otro una señal de ATM, e incluso un tercero puede transportar una señal SDH, comercialmente se ofrecen sistemas de hasta 320 Gbit/s sobre una sola fibra, lo cual significa que se manejan hasta 32 longitudes de onda para acomodar flujos de 10 Gbit/s (32 flujos de 10 Gbits/s). El término Denso se emplea cuando

mas que permitan más de 100 canales a 10 y 40 Gbits/s. La figura 3 plotea velocidad de transmisión eléctrica contra número de longitudes de onda y el resultado es la capacidad total del sistema obtenida como el producto de ambas magnitudes. Dicha gráfica ilustra la capacidad potencial que puede obtenerse con este equipamiento, además de que ofrece una visión perspectiva del futuro. Las ventajas principales son el alto volumen de información que puede manejarse, el bajo costo alcanzado y la transparencia en los servicios.

Principio de operación de WDM Para mostrar el principio de funcionamiento de la tecnología WDM se parte de su esquema físico. La figura 4 muestra un diagrama de bloques del sistema que explica el principio de su funcionamiento. El Terminal de Transmisión se compone de un trasladador o convertidor de longitudes de onda, denominado también Transpondedor (del inglés Transponder) y del Multiplexor propiamente. Se debe a que los flujos monocromáticos a la entrada deben ser ubicados dentro de la banda de

enredados Banda C entre 1530nm y 156nm y banda L en fase más bien experimental que se extiende entre 1565nm y 1625nm.

Avances tecnológicos que sustentan estas tecnologías La tecnología DWDM ha sido posible a partir de los siguientes logros: • Desarrollo de los Amplificadores Ópticos en especial el de Fibra Dopada con Erbio. (EDFA) • Avanzada tecnología de filtros. • Láser con gran estabilidad en su longitud de onda.

Figura 4. Funcionamiento de la tecnología WDM.

trabajo correspondiente, para lo cual hay que asignarle a cada uno, una longitud de onda determinada, el terminal de Recepción realiza un proceso de filtraje en el dominio óptico, para lograr la separación de los canales, donde cada uno es trasladado nuevamente a su frecuencia original. En el medio de transmisión el procesamiento más importante es la amplificación por tramos que se realiza en el dominio óptico sobre todo el ancho de banda de la señal.

Bandas de trabajo y normalización En la práctica, los sistemas DWDM utilizan una banda de trabajo de 40 nm en la tercera ventana de 1550 nm. En la figura 5 son ilustrado sus detalles.

Figura 6. Estándares propuesto por las Recomendaciones de la UIT-T.

El estándar para las recomendaciones de la UIT-T G.692: • Definen la mínima separación de longitudes de ondas (canales) compatibles con la técnica de transmisión de 10 GHz. (0,8 nm) • Definen la frecuencia central a

Figura 5. Bandas de trabajo de WDM.

A su vez las recomendaciones de la UIT-T, han normalizado la operación en esta banda, mediante el estándar G.692 que define la frecuencia central y la distancia permisible entre canales. (Ver fig. 6)

193,1THz (1552,52 nm). La distribución está repartida en 16 canales dentro del plan UIT-T, los cuales indican la denominación general de las bandas de trabajo:

• Fibra óptica desplazada con dispersión no-cero. El Amplificador Óptico es la piedra angular sobre la que se sustenta la tecnología DWDM, que permiten aumentar la potencia de la señal óptica a su entrada. Emplean una fuente de energía luminosa externa llamada de bombeo que no es más que un láser cuya señal se multiplexa junto con el flujo luminoso portador de la información. El erbio es un elemento de la tabla periódica de los llamados tierras raras y con el cual se dopa un pedazo de fibra de unos 20 m ó 30 m de longitud. En cuanto a la Fibra Óptica, DWDM puede hacer uso de las mismas fibras Monomodo utilizadas en los enlaces monocromáticos, siempre que se tenga cuidado con el parámetro dispersión dado en los manuales del fabricante, el cual debe tener un valor diferente de cero dentro de la banda de trabajo, por tanto no debe utilizarse el estándar de 1550 nm con dispersión cero. La transmisión de varios canales en una sola fibra es muy susceptible a problemas de nolinealidad donde se generan armónicos y mezclas de las longitudes de [GiGA 2 / 2009]

35

enredados onda que pueden causar interferencias en los canales utilizados. Tales fenómenos se acentúan en aquellas longitudes de onda cercanas a un valor cero del parámetro dispersión y ésta se mide en ps/nm-km y está relacionada con el ensanchamiento que sufre un pulso al propagarse mediante la fibra. Si su valor es pequeño, el ancho de banda es mayor, pero también acentúa las no linealidades lo cual es crítico en el caso de DWDM. Se han desarrollado nuevas tecnologías de fibras que minimizan las no linealidades y poseen dispersión no-cero en 1550 nm, también se fabrican fibras con coeficientes de dispersión negativos para contrarrestar los efectos de los tramos de alta dispersión en los enlaces DWDM.

Tecnología CWDM ¨La tecnología CWDM se beneficia del menor costo de los componentes ópticos y se adapta perfectamente a las necesidades de las redes empresariales y metropolitanas de corta distancia¨. La demanda de capacidad de transporte en el entorno metropolitano es cada vez mayor debido a la introducción de servicios y aplicaciones con gran consumo de ancho de banda. Dicha necesidad de ancho de banda suscitó hace varios años un gran interés en los sistemas WDM, pues la transparencia inherente a esa tecnología se adapta muy bien a este entorno caracterizado por la necesidad de integrar una gran diversidad de clientes, servicios y protocolos. Sin embargo, estos sistemas no cumplieron en ningún momento las previsiones debido principalmente a su alto costo, no obstante la madurez de la tecnología WDM ha permitido conseguir sistemas adaptados específicamente al entorno metropolitano que ofrece altos anchos de banda a un costo relativamente bajo y dentro de la familia de tecnologías WDM la más económicamente competitiva en cortas distancias es la CWDM. (Course WDM) CWDM es una de las cuatro familias de WDM que utiliza componentes ópticos diferentes y son los más complejos y caros los que soportan mayores capacidades por canales, y agregadas los que soportan mayor

36

[GiGA 2 / 2009]

distancia de transmisión, el espaciamiento actual de frecuencias es de 2.500 GHz (20 nm). El número de longitudes de ondas se suele utilizar hasta 18, soportan canales que tienen límite de 2,5 Gbps y las distancias que suelen cubrir es de hasta unos 80 km. La tecnología CWDM se beneficia del menor costo de los componentes ópticos asociados a una tecnología menos compleja que aunque limitada en cuanto a capacidad y distancia, se adapta perfectamente a las necesidades de las redes empresariales y metropolitanas de corta distancia.

Características de CWDM Las longitudes de ondas utilizables para los sistemas CWDM fueron estandarizados por las recomendaciones de la UIT-T en el año 2002, específicamente la norma denominada IUT-T G.694.2 se basa en una rejilla o separación de longitudes de ondas de 20 nm (2.500 GHz) en el rango de 1.270 nm a 1.610 nm pudiendo así transportar hasta 18 longitudes de onda en una única fibra óptica Monomodo, de acuerdo con esto se tienen dos importantes características inherentes a los sistemas CWDM que permiten emplear componentes ópticos más sencillos y baratos que los sistemas DWDM, ellas son: • Mayor espaciamiento de longitudes de ondas: Dicha tecnología utiliza filtros ópticos, multiplexores y de multiplexores basados en la tecnología de película delgada o TFF donde el número de capas del filtro se incrementa cuando el espaciamiento entre canales es menor, esto supone de nuevo una mayor capacidad de integración y una reducción de costo. Dichos filtros de banda ancha admiten variaciones en la longitud de onda nominal de la fuente de hasta unos ±6-7 nm y están disponibles generalmente como filtros de uno o dos canales. • Mayor espectro óptico: Permite que el número de canales susceptibles de ser utilizados no se vea radicalmente disminuido a pesar de aumentar la separación entre ellos, en CWDM se utiliza amplificadores ópticos de fibra dopada con Erbio o EDFA, los cuales son componentes

utilizados antes de transmitir o recibir de la fibra óptica para amplificar la potencia de todos los canales ópticos simultáneamente sin ningún tipo de regeneración a nivel eléctrico. CWDM es muy sencillo en cuanto a diseño de red, implementación y operación ya que trabaja con pocos parámetros que necesiten la optimización por parte del usuario, con fin de reducir costes los suministros de CWDM protocolos de gestión diferentes a otros sistemas WDM, los protocolos que utilizan para reducir los costos es SNMP (Protocolo de Manejo de Redes Simples) del conjunto de protocolos TCP-IP (Transmission Control Protocol-Internet Protocol), la utilización de SNMP frente a CMIP supone para los fabricantes de equipos una menor complejidad en el desarrollo de sus herramientas de gestión de red que redunda en un menor costo y por tanto el operador se beneficia también porque SNMP está más extendido y es más conocido, consume menos recursos y es más barato de implementar en la red de Ruteadores que interconectará la red de equipos CWDM con el centro de supervisión central. Una distribución de cinco ventanas garantizan la baja pérdida en la fibra repartidas de la siguiente manera O: Banda original. (1ra ventana) que abarca la gama de 850 nm una segunda ventana S denominada Banda de paso. La cual cubre el espectro de 1280 a 1380 nm seguida por la banda C banda convencional de 1530 a 1562 nm concluyendo con las ventanas 4 y 5 de 1570 a 1604 y 1530 1a 1562 nm respectivamente. Con la eliminación del pico OH o pico de agua en 1385nm, la banda puede ser extendida para la banda E.

Beneficios de CWDM Las tecnologías que liberan el mercado metropolitano en la actualidad son: ATM, SDH y Giga bitsEthernet, cuando la capacidad de transmisión en un enlace óptico no puede ser cubierta por estos sistemas basados en TDM, la solución es introducir sistemas WDM de modo que varios equipos basados en TDM puedan compartir una única fibra óptica por sentido de transmisión, es decir, las tecnolo-

enredados gías TDM y WDM son por el momento complementarias, de hecho muchos sistemas WDM, tanto CWDM como DWDM, también pueden multiplexar en TDM las señales de entrada con el fin de aprovechar al máximo el espectro óptico disponible y el ancho de banda ofrecido por la fibra óptica. Debido a ello debemos centrarnos en los beneficios que reporta el empleo de CWDM respecto a DWDM para las redes ópticas metropolitanas como por ejemplo: menor costo del equipo asociado, mayor facilidad de instalación y configuración inicial de la red, mayor facilidad de operación y mantenimiento de la red, menor consumo de potencia y menor espacio ocupado, por ello dicha tecnología es muy sencilla y su costo muy bajo, típicamente en alrededor del 35-65% al de DWDM para el mismo número que los desembolsos en capital sigan la trayectoria de la generación de beneficios. La única limitación que puede presentar CWDM frente a DWDM en el entorno metropolitano es la menor capacidad soportada, no obstante, varios suministradores de WDM ofrecen esquemas de migración entre CWDM y DWDM metropolitano de manera tal que cuando la capacidad de los sistemas CWDM deba ser extendida, algunos puertos CWDM puedan ser sustituidos por puertos y filtros DWDM.

La UIT-T establece una norma para las Redes Metropolitanas La UIT-T ha establecido una norma mundial para las redes de Fibra Óptica metropolitanas que incrementará la utilización de la multiplexación por división aproximada de longitud de onda (CWDM) en las redes metropolitanas, la cual prevé que con dicha norma, indispensable para responder a la creciente demanda de los servicios vocales, de datos y multimedios en materia a solucionar, el transporte de corto alcance y a bajo costo, los operadores de telecomunicaciones podrán realizar economías de las que según se espera sacarán provecho los consumidores. Gracias a la adopción de esta nueva norma, la técnica de multiplexación CWDM está a punto de conquistar una parte considerable de ese merca-

do y las aplicaciones CWDM son particularmente eficaces para alcanzar una cobertura de hasta 50 km como lo indicó el Presidente de la Comisión de Estudio 15 del UIT-T, Sr. Peter Wery, "Para distancias más cortas y una menor capacidad requerida, las aplicaciones CWDM permiten utilizar un espaciado de canales más amplio y equipos más baratos garantizando el mismo grado de calidad que los sistemas de fibras ópticas de largo alcance". En la recomendación G.694.2 se presenta un plan de distribución de longitudes de onda para distancias de hasta aproximadamente 50 km por cables de fibra óptica Monomodo, como se indica en las recomendaciones G.652, G.653 y G.655, la técnica de multiplexación CWDM consta de 18 longitudes de onda definidas en el intervalo 1 270 nm a 1 610 nm con un espaciado de 20 nm. La multiplexación por división aproximada de longitud de onda (CWDM), una de las tecnologías WDM se caracteriza por un espaciado más amplio de canales que el de la multiplexación por división densa de longitud de onda (DWDM) y los sistemas CWDM son más rentables para las aplicaciones de redes metropolitanas. El plan de longitudes de onda descrito en la nueva recomendación UIT-T G.694.2 tiene un espaciado de canales de 20 nm para dar cabida a láser de gran anchura espectral y/o derivas

técnicas considerables, este espaciado amplio de canales se basa en consideraciones económicas relacionadas con el costo de láser y filtros que varían según dicho espaciado, para dar cabida a numerosos canales en cada fibra, el plan de longitudes de onda acordado abarca la mayoría de las bandas de menos de 1 300 nm a más de 1 600 nm del espectro de fibras ópticas Monomodo, recientemente aprobadas. Los sistemas CWDM admiten distancias de transmisión de hasta 50 km, entre esas distancias la tecnología CWDM puede admitir diversas topologías: anillos con distribuidor (hubbed ring), punto a punto y redes ópticas pasivas, además se adapta correctamente a las aplicaciones de redes metropolitanas, por ejemplo, anillos locales CWDM que conectan oficinas centrales con los principales anillos express metropolitanos (DWDM) y a las aplicaciones relativas al acceso, como los anillos de acceso y las redes ópticas pasivas. Los sistemas CWDM pueden utilizarse como una plataforma integrada para numerosos clientes, servicios y protocolos destinados a clientes comerciales, donde los canales en CWDM pueden tener diferentes velocidades binarias, esta técnica se adapta más fácilmente a las variaciones de la demanda de tráfico ya que con ella se pueden añadir canales en los sis[GiGA 2 / 2009]

37

enredados temas y liberarlos de éstos.

rentes ventajas, entre ellas:

Tecnología ASON

Descubrimiento automático de los recursos. • Cada nodo puede encontrar a su vecino en la red de forma automática. • Cada nodo puede construir la topología de la red por sí mismo.

ASON (Red Óptica de Conmutación Automática) según la UIT-T G.8080 es un modelo de referencia que describe la arquitectura y requisitos que deben satisfacer una red de transporte óptica de conmutación automática; podemos plantear que frente al modelo de red de transporte tradicional el término de conmutación automática se refiere a: • Capacidad para introducir nuevos servicios, por ejemplo: • Baja demanda en el ancho de banda. • Redes privadas ópticas virtuales. • Capacidad de enrutamiento dinámico. • Plano de control distribuido vs. centralizado basado en TMN. • Restauración eficiente de servicios. En ASON no se definen nuevos protocolos, se contempla el uso de GMPLS, las especificaciones UNI y ENNI del OIF además de otros trabajos del UIT-T. Esta tecnología es también conocida como G.ASON.

Servicios de conexión en ASON ASON posee para conectarse diferentes tipos de servicios, ellos son: • PC (Conexión Permanente): El cliente A solicita un servicio de conexión por medio del plano de gestión y a continuación desde el plano de gestión, se actúa sobre el plano de transporte para configurar en cada conmutador implicado en la ruta el establecimiento de una crossconexión. (Modelo tradicional) • SPC (Conexión Permanente Soft): Mediante el plano de gestión, el cliente solicita un servicio y desde el plano de gestión se traslada al plano de control la configuración de la conexión, para de manera autónoma, el plano de control decida la ruta. • SC (Conexión de Conmutación): Con la Interfaz UNI el cliente solicita un servicio de conexión al plano de control

Ventajas que aporta ASON La tecnología ASON surge como una mejora de diferentes parámetros con respecto a las anteriores. Ofrece dife-

38

[GiGA 2 / 2009]

Configuración de servicios extremo a extremo. (Selección del destino y la fuente, Bw, QoS, restricciones y establecimiento del servicio) • Realización rápida y automática de rutas en cada nodo. • Operación mediante las rutas y señalización entre la red. • Adición de restricciones con el propósito de establecer el trayecto óptimo. Protección de red mallada. • La topología de la red en malla hace que la red sea más fiable.

Servicios a destacar por ASON En cuanto a los diferentes servicios que ASON es capaz de brindar se encuentran: • Servicio de Ancho de Banda en Demanda (BODS) y Redes Privadas Virtuales Ópticas. (OVPN) • El BODS es implementado básicamente por las conexiones conmutadas y está dirigido a usuarios con gran demanda de capacidad que necesitan nuevas conexiones o reconexiones por períodos cortos. • ASON puede proveer nuevas conexiones en segundos, en lugar de los días u horas que tardaban las peticiones vía TMN. • El servicio de OVPN debe cumplir los requerimientos de los operadores IP, en el sentido de permitir al usuario tener visibilidad y un control más o menos limitado sobre los recursos de la red reservados para este fin. • Se le puede dar un control limitado a los usuarios, obviamente el Operador de ASON mantiene total control sobre todos los otros recursos.

Conclusiones A través del presente artículo se desarrolla de manera breve la importancia del empleo de la Fibra Óptica en el campo de las Telecomunicaciones actuales, la cual ha evolucionado con la creación de diferentes tecnologías alucinando varias tecnologías, como es el caso de la tecnología WDM, en sus dos alternativas, a saber, DWDM

y CWDM, las cuales permiten un mayor aprovechamiento del ancho de banda en la fibra óptica, mejora los servicios a nivel de usuario, entre otros beneficios. Después de este bosquejo se culmina analizando la tecnología ASON, la cual es de nueva creación y ofrece un mejoramiento indiscutible en cuanto al ancho de banda de la señal a analizar y ofrece un aumento en el servicio de la red de transporte actual.

Referencias. • Yáñez René: "Nuevas Técnicas de Redes de Transporte". I Congreso Internacional de Telemática. Noviembre del 2000. • Yáñez René: ¨Nuevas tecnologías de Telecomunicaciones sobre Fibra Óptica¨. • Yáñez René: ¨Tecnología de Multiplexación en longitud de onda: WDM y DWDM¨. • Yáñez René: ¨Redes Ópticas de nueva generación¨. • Optical networks, the latest fiber technology for long E. Alan Dowdell: "High data rate haul". Corning Incorporated. AMTC 1999. • Kevin M: "Optical fiber design evolves". Lightwave. Corning Incorporated. • www.cableu.net: "Fiber Amplifiers". 2000. • www.totaltele.com: "High fibre: DWDM". Communications International. Agosto 1999. • Recomendación UIT-T G.692. Interfaces ópticas para sistemas multicanales con amplificadores ópticos • Recomendación UIT-T G.694.2. Planes espectrales para las aplicaciones de multiplexación por división de longitud de onda: Plan de multiplexación por división aproximada de longitud de onda • Recomendación G.8080. Arquitectura de la red óptica con conmutación automática. • Recomendación 8081. Términos y definiciones relativos a las redes ópticas con conmutación automática. (ASON) • Millán Tejedor Jesús Ramón, CWDM. • Yáñez René: "Nuevas Técnicas de Redes de Transporte". Feria Informática 2009.

enredados

Ing. Rodney Martínez Alonso [email protected] ISPJAE

A

ctualmente, científicos, empresarios y hasta políticos polemizan sobre el posible efecto perjudicial de las radiaciones electromagnéticas para los seres vivos, particularmente de las radiaciones de alta frecuencia no ionizantes emitidas por los teléfonos celulares, radares, radiotransmisores y otros. Entre posiciones bajo prejuicios e intereses económicos, la verdad, que no es más que el objetivo de la ciencia, debe abrirse paso. La telefonía móvil es una de las tecnologías más atractivas y populares por su flexibilidad para el usuario; pero se ha argumentado en su contra un posible daño a la salud humana y a otros organismos vivos debido a su carácter de fuente de radiaciones electromagnéticas. ¿Cuánto de verdad y cuanto de especulación hay en ello? ¿Puede el uso prolongado del celular causar cáncer? Si la tecnología es 100 % innocua, ¿por qué las empresas capitalistas de seguros no cubren los posibles riesgos a las compañías de telecomunicaciones?

mentar la duda o incluso a conveniencia, despejar algunas interrogantes, incrementar y exagerar el supuesto daño para vender determinados accesorios para celulares tales como antenas con "más ganancia", que según sus publicistas, ávidos de dinero y escasos de conocimientos técnicos, aseguran "disminuir los riesgos".

Todas estas interrogantes deben tener una respuesta, sin embargo, en este mundo globalizado, los medios masivos de desinformación capitalista se han esforzado en enmascarar las realidades, en incre-

Es ampliamente conocido que las radiaciones electromagnéticas ionizantes, tienen efectos sobre los seres vivos. Por ejemplo, las exposiciones prolongadas a la luz ultravioleta proveniente del sol pueden

Al menos en nuestro país la ley de medio ambiente (ley 81) es bastante clara al definir el medio ambiente como el "sistema de elementos naturales, bióticos y abióticos, así como socio-económicos con que interactúa el hombre, a la vez que se adapta al mismo, lo transforma y lo utiliza para satisfacer sus necesidades". El problema fundamental no radica en las tecnologías en sí, sino en equilibrar adecuadamente la relación riesgo beneficio, o sea minimizar el impacto ambiental de modo que haya un equilibrio entre todos los elementos que conforman el medio ambiente.

provocar severas lesiones en la piel y hasta cáncer, por efecto acumulativo o predisposición genética. El efecto perjudicial de la zona alta del espectro electromagnético correspondiente a las radiaciones ionizantes ha sido ampliamente estudiado y demostrado por numerosas investigaciones científicas, aunque en un principio, con el descubrimiento de los rayos X y otras radiaciones ionizantes, la ignorancia asociada con los intereses capitalistas llevó a extremos tales como la existencia de tiendas donde se "facilitaba" al cliente ver cómo ajustaba su pie dentro del zapato a través de rústicos aparatos de rayos X que emitían radiaciones de una intensidad muy superior a los actuales equipos médicos de radiografía.

Regulaciones, ciencia y hechos Las regulaciones internacionales sobre la materia están dictadas y sujetas a cambios por la Comisión Internacional de Protección contra las Radiaciones No Ionizantes (ICNIRP, por sus siglas en inglés), cuya base son los estudios científicos que prueban de forma objetiva los efectos biológicos perjudiciales, tanto para el hombre como el resto de los componentes bióticos de las comu[GiGA 2 / 2009]

39

enredados nidades. Algunos fabricantes y empresas de telecomunicaciones se han dado a la tarea de interpretarlas a su conveniencia. En la práctica, la peor condición para un sistema de telecomunicaciones móviles ocurre cuando la torre emisora está muy alejada y una masa constructiva densa se interpone entre ésta y el "teléfono" (eufemísticamente, pues un celular es hoy más que un teléfono móvil). En este caso el teléfono tiene que transmitir con una mayor potencia. En la tabla 1 se aprecian las densidades de energía máxima radiada por celulares de diferentes marcas. (Ver tabla 1) Estudios recientes de electroencefalogramas (EEG) demuestran que radiaciones superiores a 0,1 uW/cm2 causan alteraciones significativas en el EEG. Los productores de celulares suelen medir el valor medio de la densidad de energía radiada y no el valor absoluto de los picos para "poder cumplir" con las normas y disposiciones legales establecidas en algunos países; es decir, la transmisión de los celulares se produce por pulsos electromagnéticos y realizan un promedio aritmético de la energía radiada. La mejor forma de ilustrarlo es con una frase que hace poco leí: "Si tomamos unas señoras bofetadas y les sumamos las pausas intermedias entre bofetada y bofetada y de ello sacamos el valor medio aritmético, ¿entonces se habrán convertido en suaves caricias?". (Ver tabla 2)

Tabla 1. Densidad de energía radiada por celulares de diferentes marcas.

Algunos estudios realizados El Proyecto Reflex, financiado por la Unión Europea con 3,2 millones de euros iniciado en febrero del 2000 y en el que han participado grupos de investigadores de siete países, determinó que las radiaciones electromagnéticas no ionizantes "tienen efectos biológicos a nivel celular que hay que seguir estudiando". Sin embargo, luego de los informes del proyecto, súbitamente la Unión Europea retiró el financiamiento de éste y dejó inconclusa la investigación, que además estableció que la respuesta celular no depende del efecto térmico de las radiaciones,

40

[GiGA 2 / 2009]

Tabla 2. Cuadro 1.2/k.52 - Límites de referencia ICNIRP (valores eficaces sin perturbaciones)

sino de "algún otro mecanismo". Según un estudio de la Wayne State University de Michigan, las ondas electromagnéticas emitidas por un celular durante el sueño modifican las fases REM, y se acorta el ciclo previo a éste mientras que se atrasa la fase de sueños intensos, que se

alteran significativamente. Durante las diferentes fases del sueño el cerebro elabora gran cantidad de información, en particular información referente al procesamiento de nuevas vivencias. Durante el sueño son mayores los efectos de las OEM, pues en este período es cuando se

enredados

Celulares: ¿Tecnología ecológica?

Equipos obsoletos de RX usados en peleterías

secreta un gran número de sustancias cuyos ciclos y concentraciones se ven afectados en su presencia.

Ciencia vs. especulación Aun quedan algunas preguntas pendientes: ¿Puede la radiación emitida por el celular causar cáncer? En Internet abundan las investigaciones "científicas" que lo aseguran y generalmente son estudios estadísticos con variables poco objetivas, y donde se excluyen otras variables como el entorno social, predisposición genética, etc. Algunos de estos estudios van más allá de postulados irrefutables de la física: 1- Las radiaciones electromagnéticas no ionizantes no son capaces de disgregar a los átomos y moléculas que componen los tejidos de los organismos vivos. Las radiaciones referidas (superior a los cientos de Mega Hertz y dentro del rango de las radiofrecuencias y las microondas) no son capaces de romper enlaces moleculares (disgregación molecular) o ionizar la materia sin importar la intensidad de la radiación incidente. Esto tiene su explicación en la Mecánica Cuántica: Para que se produzcan los efectos referidos, cada cuantum de la radiación incidente debe tener una energía capaz de realizar el trabajo necesario para producir el referido efecto sobre la materia, si esto no ocurre, no importa la intensidad de la radiación incidente, es decir la cantidad de cuantum de energía de

la radiación, no se producirá este tipo de interacción con la materia. 2- La energía electromagnética se transforma en energía térmica, efecto explicado por la ley de JouleLenz. El efecto térmico de estas radiaciones ha sido ampliamente estudiado, es decir el efecto del calor producido por una radiación electromagnética lo suficientemente intensa como para quemar la piel. Incluso, las radiaciones de muy baja intensidad y frecuencia pueden producir efecto térmico sobre los tejidos, sólo que los sistemas termorreguladores del organismo son capaces de "manejar" esta pequeña cantidad de calor inducida sobre la piel. Los celulares no son capaces de radiar una intensidad lo suficientemente grande de energía electromagnética como para producir un efecto térmico significativo, al menos es lo que hasta ahora se considera. Sin embargo, algunos científicos estiman que la radiación sobre un área tan sensible como el cerebro, en particular en etapas tempranas del desarrollo, pueda desencadenar los mecanismos que producen el cáncer. No obstante la radiación ultravioleta del sol y otras radiaciones a que nos exponemos a diario son mucho mayores, y nuestro organismo es capaz de controlar los efectos de estas radiaciones hasta un límite. Un sinnúmero de estudios médicos, que escapan al tema de este traba-

jo, sí vinculan directamente la exposición prolongada a las radiaciones solares como causante de algunos tipos de cáncer, particularmente de la piel. 3- Las leyes de Maxwell de inducción electromagnética, demuestran la posibilidad de la inducción de corrientes o cargas en los organismos, sin embargo, las investigaciones científicas que relacionan a la inducción de cargas y corrientes producto de las radiaciones de alta frecuencia con efectos objetivos sobre la actividad de los organismos (como puede ser la modificación de la actividad metabólica de determinados iones, el ritmo de proliferación de las células u otros), no son concluyentes al no haberse podido establecer los mecanismos de acción que desencadenan a estos procesos ni cómo afectan directamente la calidad de vida, cuando ese punto debería ser por lo antes expuesto, la directriz principal de las investigaciones.

Estudio realizado con estudiantes del ISPJAE Un grupo de 20 estudiantes de la especialidad de Ingeniería en Telecomunicaciones y Electrónica, de la Facultad de Ingeniería Eléctrica, del Instituto Superior Politécnico José Antonio Echeverría (ISPJAE), se sometió a un test para detectar si los campos electromagnéticos de baja potencia afectaban en alguna forma la concentración o la capacidad de memoria a corto plazo, [GiGA 2 / 2009]

41

enredados durante una práctica de laboratorio con un generador de ondas, las cuales eran radiadas al medio con una antena tipo bocina. De ellos, 10 conformaron un grupo de control (Grupo I) que no se expuso en ningún momento a la radiación (este grupo no realizó la práctica con microondas en esta ocasión, sino otras prácticas previstas), el Grupo II de 5 estudiantes realizó la práctica con señales sinusoidales no moduladas, y los restantes 5 (Grupo III) realizaron la práctica de microondas con señales moduladas.

Dentro de cada grupo, dos estudiantes recibieron un estímulo negativo antes de comenzar el primer test. Estos 6 individuos obtuvieron resultados entre un 3% y un 6% peores que la media de los restantes, tanto en el test inicial como en el final. Como resultado parcial se evidenció que todos los estudiantes del Grupo III obtuvieron en el segundo test resultados al menos un 20% por debajo de los obtenidos en el primer test, y aproximadamente un 15% por debajo de los de los Grupos I y II.

El test consistía en memorizar secuencias de números generadas de forma aleatoria y donde no existiera patrón alguno que facilitara la memorización de éstas. La prueba se aplicó antes y después de las prácticas de laboratorio, con un intervalo de 45 minutos.

Conclusiones

Los individuos expuestos a la radiación electromagnética con una densidad de potencia radiada igual o menor que el promedio de los equipos celulares transmitiendo en peor condición, con una frecuencia de hasta 10 GHz (Grupos II y III) dadas las indicaciones propias de las prácticas, estuvieron sometidos a los campos durante períodos continuos de entre 2 y 3 minutos. Es preciso señalar que se tuvieron en cuenta los valores de potencia y frecuencia obtenidos de forma experimental y no los dados por el fabricante del transmisor. Por ejemplo, la frecuencia se obtuvo a partir de la formación de una onda estacionaria mediante la expresión: donde es la distancia entre dos nodos consecutivos. Se realizaron 20 mediciones de la distancia entre nodos consecutivos para diferentes nodos.

Tabla 3: Resultados

42

[GiGA 2 / 2009]

Los campos electromagnéticos de alta frecuencia emitidos por los celulares representan un riesgo real, pues son capaces de modificar los patrones eléctricos de los organismos, pero al menos los estudios realizados hasta la fecha no son concluyentes en cuanto a la relación directa de éstos con determinados tipos de cáncer. ¿Cómo afectan esas variaciones de los patrones eléctricos como el EEG las funciones de los organismos? Es imprescindible para responder esta y otras interrogantes realizar las investigaciones pertinentes desde el punto de vista de los efectos biológicos, así como los estudios de impacto ambiental con la metodología que éstos llevan. Lo más difícil resulta el establecimiento de un límite seguro, si bien toda exposición a niveles de radiación tiene un efecto biológico (perjudicial o no) sobre todo organismo vivo; no se trata de políticas conservacionistas extremas de "0 celular", es necesario balancear adecuadamente la relación riesgo-beneficio, pues son indiscutibles las ventajas

de las tecnologías Wireless, no obstante permitir que se repita la historia del abuso tecnológico del uso irracional de las radiaciones electromagnéticas, como sucedió con el descubrimiento de los rayos X, no es ético.

Bibliografía • Análisis de los límites de exposición humana a campos electromagnéticos de acuerdo con la norma UIT-K.52 para frecuencias entre 10 kHz. y 3 GHz en áreas urbanas de Bucaramanga. Ingeniería e Investigación vol.27 no.3 Bogotá sep/dic 2007. • Costa Morata, P: 1999 Aspectos críticos científico-tecnológicos sobre los campos electromagnéticos, presentado en el Congreso Internacional de Bioelectromagnetismo 1999: Ciencia, Medicina y Progreso, Alcalá de Henares, 11/12 de noviembre de 1999. • Dharma Singh Khalsa, M.D: The 11 Secrets to the Prevention and Reversal of Memory Loss. • Díaz Soto, L. (2005): Las Radiaciones y la Salud del Hombre. Revista Cubana de Medicina Militar, (4): pp. 1-2 Editorial Ciencias Médicas. . Gómez, D. (1998): Evaluación de impacto ambiental. Editorial Agrícola Española, S. A., Madrid, pp.63-100. • González, A (2001): Medio Ambiente y… ¿Contaminación Electromagnética? Energía y Tú, Vol.(3). www.fisica.uh.cu • ICNIRP: Guidelines for limiting exposure to time-varying electric, magnetic and electromagnetic fields (up to 300GHz), Health Physics, 74(4):494522, 1998. • IEEE C95.1-1991: "Safety Levels with Respect to Human Exposure to Radio Frequency Electromagnetic Fields, 3 kHz to 300 GHz," IEEE, Piscataway, NJ, 1992. • International Encyclopedia of Neuroscience: Third Edition; B. Smith and G. Adelman, editors. Elsevier, New York. May 12th, 2003. • La República: Miércoles, 21 de noviembre, 2007 - Año 9 - No.2736 www.larepublica.com.uy • Rosa, R. (2005): Telefonía móvil. Ed. Terapión Fundación GEA. www.contaminacionelectromagnetica.org. • Sklar, B.: Digital Communications. Prentice-Hall International Inc., Los Angeles California, 2da Edición, pp. 775-795. • U.S. Federal Communications Commission, Office of Engineering and Technology, "Evaluating Compliance with FCC-Specified Guidelines for Human Exposure to Radiofrequency Electromagnetic Fields," OET Bulletin 65, August 1997.

joystick

Luis Yasser Vila Cabrera

H

oras y horas sentados frente a la tele; ésa era la imagen sedentaria que el mundo tenía de los videojugadores. Pero los tiempos han cambiado. La industria ha dejado de ser sinónimo de pasividad. Si no, que le pregunten a Nintendo por su revolucionaria Wii, la consola que ha levantado a todos del sofá con propuestas tan divertidas y saludables como la que tratamos en esta edición. Se trata de Wii Fit, un título que sólo en Japón ha distribuido más de tres millones de unidades y que fue creado por el ya célebre Shigeru Miyamoto, padre de juegos tan conocidos como Super Mario, Zelda o Donkey Kong.

Una idea saludable Como suele ser costumbre en sus creaciones, el desarrollo de Wii Fit también germinó de los gustos y aficiones del diseñador japonés. En esta ocasión la idea surge de su espíritu deportivo y su obsesión por el peso. Así, tras darse cuenta que le sobraban unos kilos, Miyamoto comenzó a realizar un tipo de dieta consistente en pesarse diariamente a la misma hora e ir apuntando los resultados de forma gráfica. Fue esta práctica el embrión de un proyecto denominado Wii Health Pack, que durante el E3 del 2007 fue presentado definitivamente por Nintendo como Wii Fit.

La batalla del cuerpo Si alguien se pregunta cuál es el objetivo de algo como Wii Fit, podríamos decir que se trata

de una filosofía para ejercitar nuestro cuerpo de manera divertida. Una suerte de pasatiempo que pone en contacto al jugador con un estilo de vida saludable dentro de su propia casa. Ya que de sobra son conocidos los beneficios de practicar deporte regularmente: mejora el estado físico y mental, fortalece el sistema cardiorrespiratorio, etc. Sin embargo, en ningún caso Wii Fit pretende ser un sustituto del gimnasio, ni de ninguna otra actividad física, sino, simplemente, un programa de ejercicios orientado para personas que no practican deporte con regularidad.? ¿Significa esto que estamos ante un producto desarrollado para el público casual, donde el jugador de siempre ha sido olvidado? Nada más lejos de la realidad. De hecho, el tomar las riendas y optar por la vía saludable es problema de todos, independientemente del género, la edad o su experiencia dentro del ocio electrónico. Siguiendo la línea de Wii Play o Wii Sports, Wii Fit busca reunir a toda la familia o un grupo de amigos, sólo que esta vez la finalidad es más simple: hay que pesarse y comparar los gráficos. Mordido este anzuelo ya no hay vuelta atrás, ponerse en forma es el pretexto perfecto para "vencer" en una batalla donde las armas consisten en una serie de rutinas físicas y un programa para restaurar el equilibrio del cuerpo, corrigiendo los malos hábitos de postura.

La base de todo Hablar del fenómeno Wii Fit y olvidar su particular control sería imposible, ya que ambos coexisten de manera inseparable. Hablamos de la Wii Balance Board una tabla equipada con [GiGA 2 / 2009]

43

joystick

cuatro sensores situados en sus esquinas, capacitada para medir el peso y el equilibrio. Este novedoso periférico, al que ha de subirse descalzo o con medias, aguanta hasta 150 kg, tiene dimensiones prefijadas y sirve como soporte para la mayoría de los ejercicios, además de valer como memoria para guardar todos los avances del jugador. Cabe destacar que esta original plataforma no está limitada al uso exclusivo de Wii Fit, lo que permite su aplicación a otros juegos. Varias desarrolladoras ya experimentan con este potencial que en Japón ha dado sus primeros frutos con "Famlily Ski", un juego de snowboard.

¡En sus marcas, listos, fuera! Antes de vestirse y poner en marcha su espíritu deportivo, el jugador deberá crear un perfil comenzando por calcular su IMC (Índice de Masa Corporal). Wii Fit modificará la forma del avatar virtual o Mii, ajustando su aspecto a las características físicas del usuario. Debemos tener en cuenta que el IMC no permite distinguir entre los componentes grasos y no grasos de la masa corporal, de tal forma que el valor de una persona con una musculatura muy desarrollada puede caer en el intervalo que indica sobrepeso u obesidad. Así, es tarea propia reconocer en qué condición nos encontramos y compararlo con los datos mostrados por la tabla para poder establecer un objetivo claro. Después de eso, Wii Fit calculará el centro de gravedad, por lo que estar quieto encima de la base es indispensable. En ese momento, la Wii Balance Board medirá la presión ejercida a cada lado de la superficie y detectará dónde se carga más

44

[GiGA 2 / 2009]

peso. A continuación, se hará una pequeña prueba de equilibrio consistente en ejercer la presión necesaria a cada lado, según las indicaciones. Concluidos estos tests, la pantalla revelará la "edad Wii Fit" del usuario. Un parámetro utilizado para evaluar su estado físico en el juego y realizar un seguimiento de sus progresos. El objetivo será situarse sobre los veinte años. Finalmente, habrá que establecer una meta: obtener un IMC determinado en un tiempo que se crea oportuno. Para evitar posibles fraudes, modificar las condiciones de este objetivo sólo es permisible cada dos semanas. Aquí, el triunfo está en la constancia y hacer quince minutos diarios de entrenamiento es algo asequible para todo el mundo. No obstante, en caso de abandonarlo durante un período prolongado, la tabla avisará y dará consejos sobre qué hacer al respecto.

La calidad del ocio Una de las pautas que Nintendo pretendía y alcanzó con este juego, era fomentar la participación familiar y colectiva. Por ello, Wii Fit permite crear hasta ocho perfiles distintos, donde cada jugador, de manera individual, puede consultar cuán lejos o cerca se encuentra del objetivo fijado. Además, buscando facilitar la comprensión, todos los datos y progresos del juego están representados mediante gráficos que indican desde el IMC, hasta el peso o la cantidad de tiempo dedicada a cada rutina del entrenamiento. También es importante resaltar cómo la gran N, cumpliendo con sus ya tradicionales cánones de calidad y tomando el tema de la salud muy en serio, no dudó en

contar con el asesoramiento de un auténtico profesional como Karou Matsui, uno de los principales responsables del National Exercise & Trainers Association, quien tuvo la difícil tarea de seleccionar y adaptar los ejercicios del juego a la Wii Balance Board y el Wiimote.

Las pruebas, ¡¡¡arriba!!! El tipo de pruebas físicas que encontramos en Wii Fit es similar a los que se hacen habitualmente en un gimnasio, pero obviamente, poder ejecutarlo únicamente sobre una tabla presenta ciertas limitaciones. Por otro lado, implica ciertas variaciones mecánicas en su ejecución. Sin embargo, aunque el método no sea del todo ortodoxo, el solo hecho de moverse ya resulta beneficioso para el organismo. Wii Fit cuenta con unas cuarenta rutinas físicas y juegos pertenecientes a cuatro áreas distintas: equilibrio, aerobios, tonificación y yoga. En la categoría de equilibrio y aerobios los jugadores están representados por sus Miis, en la mayoría de ocasiones, mientras en las de tonificación y yoga, veremos siempre al entrenador personal que podrá adoptar la forma de un chico o de una chica. Cada una de estas modalidades está orientada a mejorar un aspecto concreto del cuerpo. Mediante el yoga se estimulan músculos que no se usan regularmente al tiempo que se gana flexibilidad. Gracias a los ejercicios de tonificación se fortalecerán y desarrollarán los músculos; las pruebas aeróbicas permitirán quemar grasa, y los tests de equilibrio mejoran la estabilidad del cuerpo. En los apartados de tonificación y yoga, los preparadores virtuales tendrán la función de indicar los

joystick

tipo de práctica recomendado para movimientos que a efectuar en cada ejercicio y de corregir posturas. Todo debe hacerse de manera correcta. Por suerte, a pesar de su enfoque formal, Wii Fit no se olvida de la diversión. Para comprobarlo, basta con tomar partido en las zonas de aerobios y equilibrio, donde las pruebas se convierten en divertidos minijuegos que van desde el paso por una cuerda floja hasta un simulador de step. No obstante, una de las principales inquietudes del equipo de desarrollo era averiguar si el jugador realizaba correctamente los ejercicios, algo difícil de saber siguiendo únicamente las instrucciones en un vídeo. Sin embargo, los sensores de presión que dispone la Wii Balance Board ofrecían una solución bastante eficaz, ya, que al no ejercer la presión adecuada durante el ejercicio, el programa interpreta y avisa de su realización incorrecta. Pero es en la categoría de yoga donde mejor desempeña su función la tabla. El usuario deberá efectuar una serie de prácticas, manteniendo una posición concreta durante unos instantes. La diferencia entre hacerlo por libre y utilizar Wii Fit es notable, puesto que en esta doctrina hinduista, controlar el balance del peso es imprescindible y aquí no caben dudas: la Wii Balnce Board, hace un trabajo intachable. Por lo general, el entrenador dirá el procedimiento para llegar a una posición concreta y después, al imitarle, se tendrá que aspirar y expirar tal y como indique el gráfico o el sonido guía. Esta sección está muy cuidada, y consta de quince posturas que tratan de mejorar nuestra flexibilidad. Sin duda, un

todo el mundo. Pero ocurre que en algunas pruebas la adaptación del ejercicio a la tabla es prácticamente nula, por tanto, apenas servirá para saber si se hace de forma correcta. Es el caso de los abdominales en navaja, en el que únicamente deben apoyarse los pies en la base durante unos instantes, justo en el momento de estirar el cuerpo.

Casi perfecto Cada una de las pruebas físicas cuenta con un ranking que lista las mejores marcas registradas por los jugadores. Estos récords están representados por estrellas, número de puntos conseguidos, tiempos en hacer un ejercicio o el indicativo que mejor registre el esfuerzo según la prueba. Cuanto mejor se realice un ejercicio, mayor será la puntuación, pero además, servirá para desbloquear nuevos modos de dificultad. En algunos casos, esto supondrá, por ejemplo, que se deba hacer un mayor número de repeticiones. La cantidad de ejercicios que pueden realizarse con Wii Fit es más que suficiente. La selección de éstos, permite trabajar todo el cuerpo de una forma bastante completa. De cualquier modo no hay que obviar las limitaciones que derivan del tamaño de la tabla. Ya que las medidas se ajustan, según Miyamoto, al estándar de los hombros y esto permite realizar cómodamente la mayoría de ejercicios, pero en algunos casos impedirá realizar interesantes variantes en ellos que conseguirían un trabajo más completo en determinados grupos

musculares. Por ejemplo, las flexiones no se podrán realizar con los brazos más separados que el ancho de los hombros, de manera que no incidirá de forma más localizada en la parte externa del pectoral. Por otro lado, aunque sí se recomienda calentar antes de iniciar la sesión de entrenamiento, no se explica en ningún momento cómo hacerlo, ni tampoco se exhorta a realizar estiramientos. Es cierto que en muchos casos no resulte imprescindible efectuar estas prácticas, como en los ejercicios de equilibrio, pero el calentamiento, aparte de ayudar a evitar las lesiones en el aparato locomotor y el cardiovascular, aumenta el rendimiento durante el ejercicio y el beneficio derivado de éste. Mientras que el estiramiento flexibiliza la musculatura, preparándola para el movimiento y porque previene el riesgo de lesión.

En conclusión A grandes rasgos podemos asegurar que Wii Fit, como bien insiste en recordar Nintendo, no es una alternativa equivalente al gimnasio, pero sí la opción más acertada para complementar diversión y ejercitación del cuerpo. Sin duda, la inclusión de los elementos más propios de un videojuego, como la competitividad entre jugadores, los retos y la posibilidad de desbloquear nuevas pruebas, añaden a este título una larga vida. Además, la revolución implantada por la Wii Balance Board y sus posibilidades en el futuro de cara a este y otros géneros, convierten a Wii Fit en la cara más actual del entretenimiento digital. [GiGA 2 / 2009]

45

joystick Snake para todos

Wii estrena control

ideo Kojima, padre de la franquicia Metal Gear presentó los tres próximos capítulos de la saga. El primero, Metal Gear Arcade (basado en el MGS Online de PS3),

contará con unas peculiares gafas para ver en tercera dimensión, ya que el juego estará disponible en 3D, así como una nueva interfaz que permitirá a los usuarios competir entre sí desde distintas máquinas recreativas. El segundo título, en el que Kojima confirmó estar trabajando en su guión, estará disponible para PSP y su desarrollo está a cargo del mismo equipo de MGS 4. Por su parte el tercer juego, Metal Gear Solid: Rising, se confirma como un multiplataforma disponible para Xbox 360, PS3 y PC de la que pronto se darán más detalles.

Regresan los vampiros

Un fontanero dos plataformas

B

E

H

ajo el ojo certero de Kojima, quien afirma tener mucha fe en este proyecto y con una gran producción que busca recordar la grandeza de la saga, Konami reveló Castlevania: Lords of Shadows. Un juego de acción y exploración en 3D que actualmente se desarrolla en España con el apoyo del estudio Mercury Steam y verá la luz en el 2010 en calidad multiplataforma.

Sony lanzará ¿nueva? PSP

N

intendo presentó una nueva versión de su mando clásico para Wii, utilizado actualmente en los títulos de la Consola Virtual. Bajo el nombre de Classic Controller Pro y con un diseño similar al control de GameCube, el periférico debutará en Japón durante este 2009.

l E3 deja cargado de estrenos estelares el panorama consolero para los próximos meses. Indiscutiblemente New Super Mario Bros Wii y Super Mario Galaxy 2 son ya de los más esperados. Ambos títulos están en desarrollo para Wii, aunque el primero desplegará toda la estética vintage de antiguas aventuras del fontanero. La novedad más destacable en este título será la intervención de hasta cuatro jugadores simultáneos que entre peleas y cooperación deberán superar 80 niveles, donde la extensión y el número de enemigos aumentan considerablemente. El control retomará el modo clásico, con usos puntuales del sen-

sor de movimiento. Por su parte, la secuela de Mario en el espacio conservará el sistema y la estética del primer juego, pero incluirá novedades y retomará personajes clásicos como Yoshi.

Más artefactos para Wii

La Curiosa

P

SP Go, así bautiza Sony su nueva portátil, que además de un tamaño reducido y su espectacular pantalla deslizante, incluirá una conexión Bluetooth para auriculares, aplicaciones de reloj y calendario y la función "Game sleep" por la que se suspenderá el juego mientras se accede al menú. Para ahorrar espacio las memory stick serán sustituidas por tarjetas M2 y el paquete de lanzamiento incluirá un nuevo modelo de conexión con PC y el programa Media Go para organizar archivos y acceder a la PlayStation Store, debido a que los accesorios de las actuales PSP no serán compatibles con PSP Go. No obstante, Sony divulgó que está considerando la posibilidad de lanzar un adaptador para periféricos de antiguos modelos de la portátil.

46

[GiGA 2 / 2009]

U

na vez más Nintendo dio el paso adelante con su Wii Vitality Sensor. Un periférico que se acopla a los dedos para detectar el pulso y la conductividad de la piel. Desgraciadamente, Satoru Iwata no ofreció detalles técnicos, ni juegos para el dispositivo, pero sí adelantó que este artilugio podrá servir, por ejemplo, para medir el estado nervioso del jugador, una característica que abrirá las puertas para novedosos títulos de relajación y eliminación de estrés.

P

or supuesto que no podía ser otra que la imagen más cotizada de la Feria, el primer "art work" del nuevo Zelda presentado por Miyamoto.

joystick Project Natal, la invasión de Microsoft A fondo

M

icrosoft ha validado los rumores sobre su asalto a los dominios de Nintendo con el Project Natal. Gracias a una cámara especial, los jugadores podrán descartar el uso de mandos y usar cualquier parte de su cuerpo para interactuar con el juego, llevando la idea de control por gestos de Wii un paso más adelante. No sólo eso, también será el elemento clave para incorporar una nueva interfaz, en la que los movimientos de las manos permitirán desplazarse por los menús. Tecnológicamente, parece el paso definitivo dentro en esta nueva tendencia de la industria por reinventar el sistema de control tradicional.

Pero más importante que la tecnología es el mensaje. Si Wii ha impactado de la manera que lo ha hecho, no es simplemente por presentar una tecnología revolucionaria, sino por transmitir un mensaje claro y preciso. Wii Sports es uno de los pilares básicos de ese éxito, gracias a su cristalino mensaje: todos podemos jugar a los bolos o al tenis. Ese será uno de los mayores retos que Microsoft tendrá por delante: crear juegos atractivos y apetecibles con Natal.

Las demos técnicas desplegadas durante la Feria muestran que la tecnología es sólida a estas alturas, pero tendrá que estar acompañada de juegos que le sirvan realmente de embajadores y le hagan justicia. Esa será clave a la hora de determinar el posible impacto de la que posiblemente sea la apuesta más importante que Microsoft tome durante esta generación. Es obvio que la tecnología impresiona, y no es de extrañar que muchos vean a Nintendo fulminada ante la superioridad técnica de su rival, pero si algo demuestra la compañía de Kyoto en esta generación es que la tecnología es secundaria a las ideas, a la ejecución y al marketing. Sin embargo, al analizar detalladamente lo mostrado por Microsoft, hay luces y sombras en el panorama. No cabe duda de que el fragmento más trascendental de los vídeos, fue el de la mujer, que sentada desde un sillón, controlaba la interfaz, utilizando solamente la mano. Una realidad insólita, que sin temor a equívocos abrirá la caja de Pandora al nacimiento de nuevos géneros y provocará la adaptación de los ya establecidos. En la otra cara de la moneda, está el lado oscuro: ¿podrán los usuarios asimilar, de manera tan precipitada, los nuevos métodos de control? Más aún, ¿sabrán los estudios de desarrollo aprovechar esta tecnología de un modo funcional y objetivo? Es algo que no queda del todo claro, si nos remitimos a la segunda proyección, donde un joven cambiaba la rueda de un auto. Microsoft debe andar con pie de plomo si quiere evitar que su proyecto caiga en la dinámica de usar por usar. Un fenómeno muy común en algunos títulos de Wii y DS. Otro factor que despierta ciertas dudas, es que no se sabe nada del precio ni de la fecha de lanzamiento de Natal. Aunque esto podría tra-ducirse como una estrategia de Microsoft para no adelantar un enfrentamiento prematuro con el líder de la actual generación, Nintendo. Lo que sí quedó claro después de este E3, es que la compañía de Redmond

quiere usurpar la fortaleza de la gran N con todo lo que tiene, marcando así el comienzo de uno de los duelos más apasionantes de los próximos años.

Última hora Según varios rumores, Microsoft planea efectuar el lanzamiento de Project Natal acompañado de una nueva plataforma. La consola no sería muy diferente a Xbox 360, puesto que en realidad sería un nuevo diseño ésta con el hardware mejorado, algo similar a lo que hizo Nintendo con la Wii (aprovechar la tecnología de GameCube, introducir algunas mejoras y cambiar el sistema de control por el Wiimote). La nueva Xbox estaría orientada al mercado de masas y su intención sería arrancar una parte del mercado a la exitosa Wii.

Un punto de vista Chris Arbogast, director de Marketing de Nyko (compañía desarrolladora de periféricos para consolas) declaró que no considera que los controladores tradicionales vayan a desaparecer por la inclusión de Project Natal, dado que no cree que este servicio se convierta en el principal sostén de la industria en el futuro. Según sus palabras: "Cuando manejas un Wiimote, tienes la sensación de estar con un bate en las manos, mientras que con Project Natal haces la pantomima de estar manejando un bate". [GiGA 2 / 2009]

47

Dra. C. Estrella Aracelia Velázquez Peña [email protected] Dr. C. Luis Gaspar Ulloa Reyes [email protected]

L

a utilización de las nuevas Tecnologías de la Información y la Comunicación (TIC) en el proceso de enseñanza-aprendizaje, sin lugar a dudas, exige volver a pensar y desarrollar las diferentes relaciones que en él se dan y dejar atrás una enseñanza tradicionalista en la que el profesor es el centro del proceso, y los estudiantes simples receptores de conocimientos que asumen sin crítica, cuestionamiento, sin necesidad de búsqueda y de confrontación, pues son aspectos que limitan sus posibilidades de crecimiento y transformación de sus modos de actuación como resultado directos del aprendizaje. Sin embargo, sí resulta importante y necesario considerar estas herramientas para la enseñanza y el aprendizaje, es extremadamente nocivo dejar el proceso en sus manos y limitar la dirección del profesor. Es el educador quien le da vida al proceso y mueve el intelecto de los estudiantes, además por simple observación o por diagnóstico, conoce y está en condiciones de modificar la actividad docente, regresar atrás, avanzar rápidamente, detenerse e incluso cambiar de actividad; la comunicación humana mirando a los ojos es decisiva en el éxito del aprendizaje. Esta problemática ha permitido dar algunas consideraciones que son fruto de investigaciones y de experiencias acumuladas por dedicar toda la vida laboral a la hermosa, pero difícil tarea de educar, en un centro formador de formadores.

48

[GiGA 2 / 2009]

No se considera tener la verdad absoluta, ni la última palabra, sólo se siente necesidad de expresar ciertas reflexiones que pueden contribuir a solidificar un camino que los profesores construyen día a día, y que hoy todos están preocupados por los resultados y calidad del aprendizaje.

Posibles causas de una problemática Respecto a la introducción de las TIC en el proceso de enseñanza-aprendizaje, se dan tres tendencias fundamentales: • Los que las consideran la poderosa fuerza que todo lo puede y que van a garantizar por sí solas las mejoras educativas que le exige la sociedad a la escuela. • Las que las consideran poderosas herramientas, con amplias posibilidades de utilización y que insertadas en el proceso de enseñanza-aprendizaje bajo la dirección del profesor, pueden contribuir de manera decisiva y exitosa a elevar la calidad de dicho proceso. • Los que se mantienen al margen y ni siquiera se preocupan por aprender a operar con ellas porque simplemente siguen con el tradicionalismo en la enseñanza. No se trata de poner en el centro de atención a las TIC, sino de develar, trabajar una relación efectiva entre estas tecnologías como medios importantes para favorecer que los sujetos aprendan más, con más calidad y que sean capaces de insertarse en la construcción de la sociedad de manera consciente, pro-

ductiva y realizados. Estos poderosos medios de enseñanza y aprendizaje exigen del profesor no menos trabajo, estudio y dedicación a su labor docente, sino de un conocimiento profundo del qué, del cómo y para qué utilizar un determinado software u otro de estos medios, enfocados siempre a las necesidades e intereses del que aprende y no a los de él como docente. Implica proyectar, orientar y controlar bien lo que se quiere para que no se alcance un resultado inverso o negativo y al mismo tiempo el estudiante se motive a buscar para aprender. Por otra parte, ello implica que al dar énfasis a la categoría medio de enseñanza y aprendizaje, con la introducción de las TIC, es necesario considerar que éstos se insertan en un sistema que es el proceso de enseñanza-aprendizaje y entre todos los componentes personales y no personales, existe una estrecha relación, que al modificar o redimensionar uno de ellos, en este caso los medios, el resto de los componentes no permanecen estáticos, sino que se modifican también. Esta pudiera ser una de las causas que aun con su introducción generalizada, no se obtienen las respuestas y modificaciones necesarias.

TIC: ¿Un nuevo paradigma de aprendizaje o medios para la enseñanza y el aprendizaje? Hoy se conoce a profundidad y respaldado en el orden teórico y práctico, que no sólo es la escuela, sino que también es la familia, la comunidad con los Joven

Club y otros agentes socializadores los que influyen de manera decisiva en la educación y aprendizaje de los sujetos, por tanto, se trata de prepararlos a todos, de enseñarlos a aprender para que sean capaces de discernir y saber qué se debe tomar o rechazar; no sólo para el mensaje explícito, sino para el implícito, para el mensaje oculto, para el que está entre líneas. Sólo de esta manera la sociedad de la información, dará paso a la sociedad del conocimiento y ésta hará posible un mundo más justo, más racional, más sostenible. Estos medios han provocado que no exista, prácticamente, ningún escenario en que no se discuta y se adopten posiciones e incluso políticas estatales para extender su utilización, son frecuentes las convenciones, los simposios, los talleres en que se trazan pautas al respecto. En algunos de ellos, como por ejemplo en la última edición de la Feria y Convención Internacional Informática 2009, se defendió con fuerza que el arribo de las nuevas tecnologías y su introducción en el proceso de enseñanza-aprendizaje, ha generado un nuevo paradigma en la concepción de dicho proceso e incluso en el aprendizaje, ideas no compartidas por las siguientes razones: • La introducción de las TIC refuerza como nunca antes, la función dirigente del profesor en el proceso que se caracteriza, ante todo, por su bilateralidad, manifiesta no sólo en la relación estudiante-profesor, estudiante-estudiante, estudiante-grupo y profesor-grupo, sino en relaciones nuevas: profesor-medio, estudiante-medio y grupo-medio, que no deben, ni pueden sustituir al profesor porque es él quien intenciona la utilización de esos medios a partir de las necesidades del sujeto, del objetivo a cumplir, del contenido a desarrollar y del método a utilizar en el contexto de la actividad docente, que no sólo se enmarca en el aula, sino que exige trabajo independiente, vínculo con la familia y con la comunidad. Es el profesor el que domina qué medio utilizar, cómo y para qué emplearlo, en correspondencia con la transformaciones que a corto, mediano y largo plazos espera lograr en sus estudiantes • Se defiende la idea de que no se está ante un nuevo paradigma, se está en el paradigma de la Pedagogía que tiene sus cimientos en las ideas pedagógicas de Félix Varela, José Martí, Simón Rodríguez, Simón Bolívar y de muchos otros, que siempre han reconocido el rol dirigente del profesor y su preparación

multimedia para lograr éxitos en la educación de sus discípulos. No se puede estar en una Pedagogía centrada en el profesor (tradicionalista), ni centrada en el estudiante (autogestionaria, pragmática), es justo en un proceso, en que cada componente personal tiene su función y el paradigma que se defiende es el del profesor como dirigente y de un estudiante protagónico, guiado, conducido por él, a partir del nivel del desarrollo alcanzado (vivencias, experiencias, su historia), pero teniendo en cuenta también sus potencialidades. Es el mediador entre ese sujeto y la cultura para que vaya más allá de lo que muchas veces cree posible y el profesor lo sabe por su experiencia y conocimiento y de esta manera lo insta, lo incita, lo invita, lo ayuda sin suplantarlo y sin hacerlo en lugar de él.

Elementos a considerar para todos los que utilizan la computadora como medio De igual manera, se quiere insistir en algunos elementos que son imprescindibles a considerar por todos los que de manera directa o indirecta utilizan estos medios con diferentes fines para que se logre, en lo que todos coinciden, un aprendizaje traducido en la transformación de los sujetos, para que se inserten plenamente en la construcción de la sociedad que les ha correspondido vivir, por demás amenazada y comprometida con la propia existencia del ser humano sobre la tierra. Son éstos: • Van dirigidos a un sujeto que se convierte en aprendiz productivo e interactivo que aprende permanentemente en todos los contextos socioculturales, siempre en relación con su contexto individual, a su "yo" socialmente construido. • Ese sujeto es capaz de decidir qué necesita aprender y cómo debe aprender (no olvidar que los estilos de aprendizaje son propios de cada sujeto). • Ese sujeto, ante una situación problemática siempre reflexiona (considerando la reflexión como cualidad del pensamiento), para poner en práctica sus recursos y dar solución al problema que tiene ante si, a partir de procesos metacognitivos que le permiten evaluar qué sabe, cómo lo sabe y para qué le sirve. • Cada sujeto (niño, alumno, estudiante, adulto) es una personalidad íntegra, única e irrepetible y se vincula al proceso de enseñanza-aprendizaje, aportan-

do sus vivencias, experiencias fruto de su historia vivida en diferentes contextos. • Por naturaleza es creativo, que cuando logra una meta ya tiene otras planteadas, que van dirigidas a satisfacer sus necesidades e intereses en vínculo estrecho con sus motivaciones y satisfacciones. • Que necesita intercambiar ideas, criterios, puntos de vista para elaborar y reelaborar la información y apropiarse del conocimiento.

Conclusiones • La introducción de estas tecnologías en el componente medios de enseñanza y aprendizaje ha traído consigo la modificación del resto de los componentes del proceso de enseñanzaaprendizaje desde el objetivo, el contenido, los métodos, las formas organizativas y la evaluación al estar en el proceso en una relación dialéctica y con carácter de sistema. • Es necesaria su utilización, pero hay que educar para el desarrollo de las TIC y este desarrollo debe repercutir de manera positiva en la educación de los sujetos. • Se cuenta con un proceso de enseñanza-aprendizaje cuyo carácter flexible y abierto permite introducir las necesarias innovaciones educativas para la utilización de las TIC. • La introducción de las TIC exige la superación constante de todo el personal docente. • Para educar con tecnología hay que tener acceso a la tecnología y conocerla.

Bibliografía 1. ADDINE FERNÁNDEZ, Fátima, comp.: Didáctica, Teoría y Práctica: Editorial Pueblo y Educación, La Habana, 2004. 2. BÁXTER PÉREZ, Esther: Educación en valores. Papel de la escuela. En Compendio de Pedagogía. Compilación de Gilberto García Batista. Editorial Pueblo y Educación, La Habana, 2002. 3. BERMUDEZ MORRIS, Raquel: Aprendizaje formativo: una opción para el crecimiento personal. En Revista Cubana de Psicología, Volumen 18, no.3, Universidad de La Habana, 2001. 4. BOSCH, Horacio E.: Informática, sociedad y educación. (tomo 1). Buenos Aires, 1995. 5. CASTELLANOS SIMONS, Doris y otros: Aprender y enseñar en la escuela. Editorial Pueblo y Educación, La Habana, 2002. 6. DELORS, Jacques: La educación encierra un tesoro. Informe de la UNESCO de la Comisión Internacional sobre la educación para el siglo XXI. Editorial Santillana, Madrid, 1996. 7. DÍAZ LABRADA, Ariel y otros: Las nuevas tecnologías de la información y las comunicaciones (NTIC) y el nuevo paradigma educativo. La Habana, 2000. 8. DIMEO, Carlos: La educación y los nuevos medios de comunicación e interacción tecnológica. Aportes teóricos y conceptuales para la alfabetización, la reeducación y el desarrollo social. Universidad Católica Andrés Bello, 2000. [GiGA 2 / 2009]

49

D.I. Vianys Zamora Pimentel [email protected] Dirección de Marketing y Comunicación GiGA, Copextel

P

ara los que vivimos el período de las fotografías en blanco y negro, y las cámaras analógicas rusas, que en su tiempo fueron muy famosas, resulta difícil imaginar que pocos años después cambiaría no sólo el matiz, sino también el soporte y la tecnología de la fotografía. Sin darnos cuenta asumimos el cambio, y hoy es común que vayamos acompañados de una cámara digital, pues las posibilidades que brinda hacen que su empleo sea mayor cada día. Sin embargo, muchos desconocen que estas instantáneas pueden no ir directamente al laboratorio fotográfico, pues antes pasan antes por programas informáticos que permiten manipular, transformar y utilizar la misma imagen de maneras diferentes, además de almacenarlas digitalmente, sin necesidad de imprimirlas todas, y con la posibilidad de utilizarlas en diferentes aplicaciones. Es cierto que existen muchos y diversos modelos de cámaras digitales con características múltiples, profesionales o domésticas, que proporcionan según sus aplicacio-

50

[GiGA 2 / 2009]

nes y posibilidades, fotografías de menor o mayor calidad. En estos tiempos ese hecho no es un inconveniente, ya que los programas informáticos pueden solucionarlo de alguna manera. En nuestro país, desde hace algún tiempo funcionan los laboratorios digitales llamados Minibales, que son máquinas que reproducen la imagen digital en papel fotográfico con una calidad impresionante. Muchas veces detrás de una fotografía existe no sólo la imaginación de un artista digital o la de un aficionado, sino también el conocimiento y la utilización de programas de retoques fotográficos. Y es eso precisamente lo que pretendemos con estas páginas: abrirnos al conocimiento del intercambio hombremáquina. Es sencillo preparar una imagen para posteriormente enviarla a imprimir. Lo primero es contar con el programa en nuestra PC, cualquiera que ésta sea, pues existen elementos bases que son comunes para todos. Dentro de los más importantes a tener en cuenta están el formato, la

resolución y el modo en que vamos a crear la imagen. Cada tecnología de impresión, como ya referimos en artículos anteriores, requiere de parámetros establecidos sobre los cuales trabaja. La que tratamos hoy precisa que la imagen se prepare en el modo de color RGB, en formato jpg, y sea superior a 200 dpi. Esto último no es un elemento obligado, sin embargo, trabajar con esa resolución o más, garantiza mayor calidad de la imagen, aunque en el caso al que nos referimos es suficiente con ésta. El tamaño de la imagen es otro elemento importante. Existen diferentes formatos en los que se imprime, los cuales ya están determinados, como son 5x7", 6x8", 8x10", 8x12", 10x15” y 12x18”, mientras mayor sea éste, requiere que la imagen digital que utilicemos esté compuesta por fotografías con muy buena resolución o trabajarlas con los filtros que tales programas traen predeterminados que ayudan a mejorar las imágenes. Veamos de forma concreta cómo es este proceso. Estamos trabajando,

mis Imágenes incorporándole varias fotos, o incluso texto, podemos para posteriores trabajos, guardarla también en formato pdf, que es la extensión con la que trabaja en este caso el Adobe PhotoShop y que nos permitirá en otro momento utilizarla o utilizar alguno de sus elementos. Ya tenemos la imagen digital. Ahora procedemos a guardarla en un soporte para transportarla al laboratorio fotográfico, ya sea un CD, una memoria flash o incluso en la misma tarjeta de memoria de la cámara

Preparar la imagen en el formato 5x7"

por ejemplo, con el PhotoShop. El primer paso es ir al menú/archivo//nuevo, donde aparece una ventana que permite variar los parámetros de la misma según nuestra conveniencia. En ese caso vamos a preparar una fotografía en el formato 5x7", que es uno de los más utilizados por la correlación entre calidad, precio y tamaño. Ajustamos la anchura: 7, altura: 5, resolución: 200 píxeles/pulgada, modo de color: RGB, y el contenido de fondo puede ser blanco, transparente o el que desee. Ahí tenemos ya espacio de trabajo preparado. Luego empezamos a trabajar nuestra fotografía, sea cual sea su destino. Vamos a ir al ejemplo más común: arreglar o retocar una foto familiar. Nuevamente nos dirigimos a archivo/abrir y buscamos la imagen deseada y va a aparecer en otro tapiz de trabajo. Seleccionamos la imagen con la herramienta de marco rectangular o sencillamente la arrastramos con el mouse hacia el otro tapiz que habíamos preparado antes. Ahora comenzamos a manipular la imagen. En el artículo anterior hablamos acerca de los elementos básicos de manipulación de la imagen, tales como brillo y contraste, equilibrio de color, etc., además de herramientas que nos permiten trabajar las capas, es decir, agrandarlas, achicarlas, girarlas, clonarlas, sólo para reseñar de manera sencilla algunos parámetros básicos para ajustar una imagen, todo lo cual se puede hacer de manera automática o variar según nuestra elección. Existe el autoenfoque, color automático o el contraste automático,

sin embargo, la experiencia nos ha demostrado no dejarlo a decisión de las máquinas, pues hemos comprobado que la imagen que vemos en el monitor no es igual a la ya impresa, y que depende del tiempo que le dediquemos a ese trabajo, la maña y los trucos, que no los proporciona un Tutorial ni tampoco un artículo como el presente y sí nuestra dedicación e interacción con estos programas y, por supuesto, y no menos importante, lo que queramos lograr en cada imagen. Este proceso que hemos Guardar la imagen en el formato jpg explicado es muy sencillo, aunque son muchas las posibilidades que nos brindan estos programas que son diseñados para principiantes y profesionales. Los últimos los explotan en toda la magnitud de sus posibilidades, los primeros toman de ellos las básicas, y todos, además de agradecer la noble interfaz, deben regirse por elementos estándares que no varían aunque queramos. Tal es el caso de que una vez terminada nuestra imagen, la manera en que la guardamos está establecida para el Parámetros para guardar la imagen en el formato jpg tipo de impresión que vayamos a hacer. En el caso de imprimirla en digital. La reproducción de lo que papel fotográfico, se realiza de la quizás nos llevó horas o días manisiguiente manera: archivo/guardar pular digitalmente, es cuestión de como/, la colocamos en una carpeta minutos, sin embargo cuando tengaseleccionada, la nombramos y donde mos el resultado en nuestras manos dice Forma seleccionamos el formato y contemplemos con ilusión nuestra JPG. Posteriormente aparece una pequeña o gran obra, es casi seguro ventana que indica la calidad, la que volveremos a encender nuestra cual puede ser máxima, media y PC, e ir más allá de un simple tratamínima, sólo con apostar por la miento de imagen, y que el conocimáxima que va de 10 a 12 es sufi- miento abrirá el camino de la ruta ciente. También cuando hemos ela- hacia la búsqueda de encontrarse borado o manipulado la imagen con la mejor imagen digital. [GiGA 2 / 2009]

51

C

ontinuando con la edición de imágenes, para retocar este espacio empecemos dando un pequeño paseo por la historia de Photoshop. Desde sus inicios, cuando los hermanos Thomas y John Knoll, fascinados por la tecnología y el arte, motivados por su padre que era un fotógrafo y tenía su propio cuarto oscuro en el sótano y una inclinación por los ordenadores de escritorio que en ese tiempo era una Apple II, Thomas fue aprendiendo sobre la corrección del color y el contraste en el cuarto oscuro, mientras que John se ocupó con la computadora de Apple II.

Este es considerado el principio de lo que sería una revolución para la edición y retoque digital de imágenes, pasando desde sus primeras versiones exclusivamente para Mac a las versiones para Windows, ampliándose mucho más su uso.

En 1987, mientras John trabajaba para los estudios ILM de Lucas Film, Thomas estudiaba procesamiento de imágenes en la universidad de Michigan valiéndose de una Apple Mac Plus. Para realizar su tesis se enfrentó a una dificultad cuando se dió cuenta de que no podría exhibir imágenes en greyscale teniendo un monitor monocromático. De esta manera escribió su propio código para hacer el trabajo.

Si has visto trabajar a un "experto" de Photoshop, es muy probable que te hayas percatado de la cantidad de atajos de teclado que se utilizan. Sin llegar a encasillarnos en los métodos abreviados, lo cierto es que se trabaja de una forma mucho más fluida y dinámica, que con el tiempo y el uso de ellos facilitará el intercambio con este tipo de aplicaciones.

Si deseas consultar todos los disponibles o cambiarlos, se puede hacer desde el programa en el menú Edición/Atajos de teclado o con Alt+Shift+Control+K.

•C Recorte.

•R Desenfocar, Enfocar, Dedo.

•K Sector.

•O Subexponer, Sobreexponer, Esponja .

Selección de herramientas

•J Herramienta pincel correcto, Parche, Sustitución de color

•P Pluma, Pluma de forma libre, Añadir punto de ancla, Eliminar punto de ancla, Convertir punto de ancla.

• Shift+Atajo Va alternando entre las distintas herramientas en aquellas que comparten una misma tecla. •V Mover •M Selección rectangular, Selección elíptica. •L Lazo, Selección poligonal, Lazo magnético. •W Varita mágica de selección, Selección rápida.

52

Actualmente Adobe continúa mejorándolo significativamente y es muy probable que si no hubiera existido Photoshop nuestro trabajo sería muy diferente a lo que es hoy.

[GiGA 2 / 2009]

•B Pincel, Lápiz, Reemplazo de color. •S Tampón de clonar y Tampón de motivo.

•T Escritura horizontal, Escritura vertical. •U Rectángulos, Rectángulo redondeado, Elipse, Polígono, Línea.

•E Goma de borrar, Herramienta borrador, Borrador mágico.

•N Notas.

•G Herramienta de degradado, Bote de pintura.

•I Cuentagotas, Muestra de color, Medición.

mis Imágenes •H Mano. •Z Zoom.

Vista de imágenes • Control+Tabulador Va rotando entre los distintos documentos abiertos. • Shift+Control+W Cierra el archivo abierto e inicia Adobe Bridge. •Q Cambia entre el modo de máscara estándar y rápida. • F, Shift+F Alterna entre los distintos modos de visualización en pantalla completa o en ventana. Con Shift pulsado el orden es inverso. • Espacio+F Cambia el color del fondo. • Doble click en la herramienta Mano Ajusta la imagen a la ventana. • Doble click en la herramienta Zoom Muestra la imagen sin zoom. • Espacio Mientras se pulsa cambia a la herramienta Mano. • Control+Espacio Mientras se pulsa cambia a la herramienta Zoom In. • Alt+Espacio Mientras se pulsa cambia a la herramienta Zoom out.

• Alt mientras se selecciona Resta la selección a la actual. • Alt y Shift mientras se selecciona Hace una intersección con la selección actual. • Control (excepto cuando se usa la herramienta Mano, Sector, Línea o Pluma) Cambia a la herramienta Mover. • Alt mientras se usa la herramienta mover Crea una copia de la capa actual. • / al usar la herramienta Recorte Activa o desactiva el Marco.

• Alt mientras se usa herramienta de pintura Cambia momentáneamente al Cuentagotas. • Alt mientras se usa el cuentagotas Cambia el color de fondo.

• Av. Pag y Re. Pag Desplaza verticalmente la imagen. Pulsando Shift el desplazamiento es menor.

• Teclado numérico mientras se usa herramienta de pintura Establece la opacidad al valor que escribamos.

Selección de objetos • Shift mientras se selecciona Añade la selección a la actual

• F1 Ayuda. • F2 Cortar. • F3 Copiar. • F4 Pegar. • F5 Mostrar - Ocultar la Paleta de pinceles. • F6 Mostrar - Ocultar la Paleta de color.

Herramientas para pintar

• Espacio mientras se hace un recuadro de selección o de Zoom Mueve el recuadro por la pantalla.

• Inicio y Fin Te lleva a la esquina superior izquierda y a la esquina inferior derecha de la imagen, respectivamente.

Teclas de función

• Teclado numérico y Shift mientras se usa herramienta de pintura Establece el Flujo al valor que escribamos. • Shift y +, Shift y Alterna entre los modos de fusión de la herramienta

• F7 Mostrar - Ocultar la Paleta de capas. • F8 Mostrar - Ocultar la Paleta de información • Alt+F9 Mostrar - Ocultar la Paleta de acciones. • F12 Vuelve la imagen a su estado original . • Shift+F5 Muestra el Rellenar.

cuadro

de

diálogo

• Shift+F6 Feather Selection. • Shift+F7 Invertir la selección.

[GiGA 2 / 2009]

53

Las Telecomunicaciones y la Informática telegrafía, se crearon la telecopia y otros servicios de oficina, y todos estos servicios informáticos proporcionados por una red de telecomunicaciones se reagruparon bajo el nombre de "telemática", neologismo propuesto por los autores franceses de un informe sobre La informática de la sociedad (1978), y que después pasó al español.

Descripción de un servicio telemático

L

a Telemática es un conjunto de servicios y técnicas que asocian las telecomunicaciones y la Informática. Ofrece posibilidades de comunicación e información, tanto en el trabajo como en el hogar y otros ámbitos personales, igualmente agrupa servicios muy diversos, por ejemplo, la telecopia, el teletexto, las redes telemáticas como Internet y las comunicaciones inalámbricas, una de cuyas aplicaciones más visibles es el Sistema de Posicionamiento Global o GPS.

54

[GiGA 2 / 2009]

Su Historia En la década de 1970, la evolución de la informática requirió la creación de nuevos servicios capaces de almacenar, recibir y procesar a distancia datos e informaciones. Ello condujo a la invención de la teleinformática, que descentralizaba mediante redes de telecomunicaciones los recursos ofrecidos por la informática. Estas redes permitieron mejorar las transmisiones de datos escritos. Con el fin de atenuar la lentitud del télex y la

Un servicio telemático puede descomponerse en cuatro elementos. Debe incluir uno o varios equipos informáticos: una computadora que procesa los datos, un terminal y dispositivos de comunicaciones (como conmutadores, multiplexores y módem) o periféricos (cintas, discos...). Además, debe poseer un sistema de comunicación para establecer una conexión entre esos diferentes equipos. Este sistema puede ser una red pública (nacional o internacional) o una red privada (local o supralocal). Así, un servicio telemático puede emplear tanto la red telefónica o telegráfica como un enlace vía satélite. Todo servicio debe incluir también una fuente de información (bases de datos, ficheros). Por último, cada servicio telefónico debe contener programas de tratamiento y de transmisión que constituyen la inteligencia artificial de ese servicio.

Bases de la Telemática La información ha representado desde tiempos remotos un papel muy importante en el desarrollo de las sociedades, evolucionando significativamente hasta presentarse de distintas maneras, pero manteniendo el mismo objetivo: la comunicación entre las personas. En la sociedad primitiva la información se intercambiaba entre sus componentes para lograr sobrevivir en un ambiente hostil y hoy día el intercambio de información puede representar un factor vital para el desempeño de los procesos de muchas de las grandes empresas. Los conocimientos que progresivamente ocurren en nuestro originan la necesidad de la comunicación, y el nacimiento de ésta implica, asimismo, la existencia de los elementos que la hacen posible y que constantemente intervienen en el proceso de la comunicación: los interlocutores y el medio de comunicación. En el proceso de la comunicación los interlocutores son, de una parte, el elemento que origina la información, el elemento que tiene la necesidad de transmitir -emisor-, y de otra el elemento que recibe la citada información -receptor. En cuanto a los medios por los cuales se puede realizar la transmisión de información entre emisor y receptor, existe una

gran variedad, y que con el avance de la teleinformática y las telecomunicaciones han evolucionado en gran manera para garantizar que la información cumpla con sus principales atributos, que sea oportuna, clara, precisa y que no sea aislada. Históricamente han ido evolucionando desde el aire, en transmisiones orales, hasta los modernos sistemas de fibra óptica. Otro elemento muy importante en el proceso de la comunicación es la codificación, característica siempre presente en éstos. Mediante la codificación se representan las informaciones en términos de alfabetos acordados entre emisor y receptor para facilitar el proceso de transmisión y que sea útil coherente para ambos elementos; nuestros antepasados ya utilizaban algunos métodos o alfabetos específicos como son las señales de humo o los reflejos en los espejos. La codificación reporta ventajas e inconvenientes. Entre las primeras puede citarse la privacidad de la información que se trasmite, hecho que nace del desconocimiento por parte de terceros del código usado en la transmisión. Entre los inconvenientes destaca la fuente potencial de errores que suponen los procesos de codificación y decodificación. Partiendo de los elementos que integran el proceso básico de comunicación es posible representarlo gráficamente de la siguiente manera:

conocimientos almacenados por la humanidad en el devenir de los años, junto con la incapacidad para guardarse en un único lugar físico hacen necesaria la transmisión de la información. Por tanto, como punto de partida para la adquisición de conocimientos en una sociedad genérica se cuenta la necesidad de acceder de una forma específica a la información que se encuentra almacenada en lugares concretos. El inicio formal de la rama del conocimiento conocida como teleinformática, telemática o transmisión de datos, se basa fundamentalmente en el acceso de información la cual se encuentra almacenada en un dispositivo informático situado en lugar, en principio, distinto al de nuestra situación geográfica.

Fundamentos de la Telemática La teleinformática, si bien forma un cuerpo de doctrina independiente, necesita una envoltura técnica que la encuadre con la ingeniería y con la física electrónica, así como en toda una serie de conocimientos específicos de otras áreas, los cuales son conocidos como los fundamentos de la teleinformática. A continuación serán expuestos los fundamentos que sirven a las distintas redes de telecomunicación, tanto a un nivel de descripción general de ésta como de sus elementos inte-

Proceso general de la comunicación entre terminales distantes.

Partiendo del proceso de la comunicación y los distintos elementos que la integran, la evolución histórica del concepto de sociedad, no resulta demasiado complejo el análisis del papel que la información juega en la sociedad actual, pues hoy la información es una parte no sólo constitutiva sino imprescindible, al igual que el hecho de compartir dicha información. La gran cantidad de

grantes. Las redes de telecomunicación actuales son el fruto de una continua evolución propiciada por el avance en el campo de la ciencia y de la tecnología. Buena prueba de ello lo constituye el telégrafo. Surge en Norteamérica al mismo tiempo que el ferrocarril, en sus primeros momentos se utilizó de manera creciente para hacer llegar las noticias a los periódicos en el [GiGA 2 / 2009]

55

período mas breve posible, y con fines de comunicación general después. Marcó un gran hilo tecnológico en el campo de las comunicaciones al permitir la información directa entre Europa y América en 1858. En los primeros equipos se usaba el código Morse, más adelante se utilizaron aparatos similares a las máquinas de escribir llamados teletipos, que permitieron la comunicación directa usando el lenguaje natural, y se denominó servicio de télex. Este, posterior a la red telefónica, se origina alrededor de la Segunda Guerra Mundial y fue un muy evolucionado sistema telegráfico con una ventaja sobre la red telefónica: deja constancia escrita del mensaje. La red telegráfica, conocida en la actualidad como red de télex, permite la comunicación entre equipos mecánicos o informáticos -generalmente teleimpresores. Es una red de amplia extensión mundial que puede ser considerada como la precursora de las actuales redes de transmisión de datos actuales. La transmisión de los datos en la red de télex se realiza a velocidad muy pequeña, exactamente a 50 Baudios. La información está codificada según el código CCITT número 2, de 5 bits, que emplea un procedimiento asíncronico de arranque-parada y que se conoce normalmente como procedimiento start-stop. La red de télex posee tres modos de funcionamiento que se pueden seleccionar a voluntad de los interlocutores o de los proveedores del servicio. El primero es el modo diálogo, en el que la información que se va introduciendo en el terminal télex emisor va apareciendo simultáneamente en el terminal télex receptor. Cuando hacemos referencia a la palabra "simultáneamente", se refiere a que la información va apareciendo en el terminal télex receptor a medida que va llegando, con el consiguiente retraso originado al viajar esa información por la red. Normalmente se transmiten unos ocho caracteres por segundo. El segundo modo de funcionamiento de la red de télex es el modo transmisión automática de un mensaje grabado. Este consiste en almacenar en el terminal télex emisor, el mensaje que se desea transmitir y, mediante los medios oportunos, enviarlo al terminal télex receptor en un tiempo

56

[GiGA 2 / 2009]

diferido. Las técnicas de grabación varían con la naturaleza del terminal télex usado. Básicamente consiste en un papel perforado, si el terminal es de tipo mecánico, o en una grabación en soporte magnético, en caso de que se trate de un terminal informático. Finalmente, el último modo de funcionamiento de un terminal télex es el modo de recepción automática de un mensaje, el cual se deja el terminal conectado a la red, y mediante una orden de arranque que proporciona la propia red entra en funcionamiento de forma automática y se detiene al finalizar el mensaje. La ventaja que presenta esta modalidad es la de no necesitar un operador que maneje el terminal télex. El almacenamiento del mensa-

redes del dominio público a distintas velocidades. Es una herramienta necesaria para cualquier actividad que se realice en la actualidad.

je se realiza bien en cinta perforada, bien en cualquier soporte magnético apto, según el tipo de terminal télex que se utilice. La red télex es una red conmutada y jerárquica. Al igual que en la red telefónica, se van sustituyendo las tecnologías mecánicas iniciales por modernas tecnologías electrónicas que mejoran la calidad del servicio. En los últimos tiempos los terminales télex de propósito específico están siendo sustituidos por computadoras personales que emulan el funcionamiento de un terminal télex clásico mediante un software adecuado. Internet es en la actualidad una de las redes más extendidas, mediante la cual se pueden conectar diversas

problemas de tipo económico, técnico y jurídico. Así, el establecimiento de redes muy amplias exige un elevado costo de instalación que sólo se verá compensado si se obtienen valores añadidos importantes; aplicaciones como la telemedicina o el establecimiento de nuevas vías comerciales por medio de la red podrían justificar las inversiones. También conviene destacar los problemas relativos a la privacidad de los datos. En tal sentido se está avanzando en la elaboración de técnicas de encriptación que aseguren su inaccesibilidad a usuarios no autorizados y la rotura de las barreras de seguridad por los hackers es una muestra de que éste es un objetivo todavía no conseguido.

Ventajas e inconvenientes de la Telemática La Telemática, además de la diversidad de servicios que ofrece, presenta numerosas ventajas: aporta rapidez y flexibilidad en la transmisión de informaciones escritas, gracias a la telecopia, y permite la interacción con redes telemáticas de fácil manejo, como Internet. Por último, dota a todos sus servicios de programas informáticos avanzados que ofrecen lenguajes de acceso simplificados, accesibles para todos. Sin embargo, la Telemática plantea

Debate y reflexión en

www.latecla.cu

D

esde la provincia de Ciego de Ávila nos llega una propuesta muy singular donde los periodistas cubanos han abierto un espacio en Internet para el debate y la reflexión. La tecla.cu, es un sitio patrocinado por la Unión de Periodistas de Cuba, que desde esa bella ciudad cubana pone en las manos de este sector de nuestra sociedad un espacio donde encontrarse con el periodismo que se hace hoy en nuestro país. Abierto, amplio e interesante, muestra artículos que nos hacen conocer y reflexionar mediante todas las manifestaciones del periodismo de opinión, investigación, reportaje, crónica, fotoperiodismo, entre otros, temas que mediante la pluma o en este caso la tecla de muchos que practican esta profesión nos llegan para no sólo invitarnos a pensar, sino para comunicarnos mediante esta manera de expresarse. De manera casual en estos momentos en que redactamos esta reseña, en su portada nos encontramos con dos artículos relacionados con la informática, tema al que está dedicada nuestra publicación desde sus inicios, con los títulos: ¿Interactividad en los sitios Web cubanos? y Cómo escribir para Internet, algo que nos motivó aún más a adentrarnos en cada una de las sesiones que lo hacen. Y aprovechamos para invitar a estos periodistas que dedican su reseña a este tipo de contenido a publicar en nuestra revista y sumarse a formar parte de la familia de los colaboradores habituales que siempre estamos dispuestos a recibir. Y descubriendo secciones, releyendo

artículos, nos encontramos con lo que en nuestra opinión es el mayor mérito que aflora a primera vista, la diversidad de temas tratados mediante la mirada periodista. Además de utilizar las posibilidades que nos da este tipo de soporte digital a través del intercambio y la retroalimentación, incorporar la participación de muchos mediante una inteligente opción muy bien aplicada y que es la de presentarnos la oportunidad de enviar nuestros artículos y aportes. El dinamismo, la inmediatez, son ventajas de esta herramienta de comunicación que es Internet. Asumir, utilizar y apilar la información de una manera inteligente para llegar y tocar el pensamiento humano, es algo que además de agradecer, debemos admirar. Para los que trabajamos con la información, encontrarnos con este tipo de publicación donde se manejan términos específicos, se desentrañan conceptos o sencillamente se dan opiniones que ayudan a ampliar el conocimiento constituye una herramienta necesariamente útil, muy bien recibida por los lectores de estos tiempos que agradecen el intercambio sabio. Y para los que no, para los que son simplemente usuarios de Internet, GiGA le propone que se acerquen a este trabajo, cualquiera que sea su objetivo o el público al que esté dirigido, siempre nos aportará conocimiento y no lleguemos a la red de redes por el simple hecho de quedarnos perplejos por la magnitud y alcance de ésta, dejemos que posicionamientos como el que presentamos sean parte de nuestra navegación y hagan que el conoci-

miento, el debate y la reflexión incidan en nuestro crecimiento social y profesional. A todos los seguidores de esta sección dedicada a los sitios Web del patio le pedimos que nos envíen sus sugerencias, necesidades u opiniones sobre algún tema de interés que pueda ser tratado en nuestro país por medio de algún sitio o portal y no tengan conocimiento de su existencia. Siempre este soporte digital de uso masivo y práctico ayudará al estudioso a incrementar el caudal de información que sólo esta opción tiene bajo su mando. Remitan sus inquietudes y todos saldremos beneficiados. [GiGA 2 / 2009]

57

ALLEN NEWELL (1927 - 1992) llen Newell nació en San Francisco el 19 de Marzo de 1927, hijo del Doctor Robert R. Newell, un distinguido profesor de radiología en Stanford Medical School, el cual constituyó un gran ejemplo y Jeanette Le Vally Newell. Falleció el 19 de julio de 1992.

A

La infancia de Allen fue bastante tranquila, pasó muchos veranos en la cabaña que su padre había construido en Sierra Nevada. A los 16 años se enamoró de una compañera de estudios, Noël McKenna, y se casó con ella a los 20 años. Este matrimonio demostró que Allen y Nöel sabían tomar buenas decisiones, incluso cuando eran jóvenes, ya que su matrimonio duró 45 años. Allen se graduó en el Instituto justo cuando terminaba la Segunda Guerra Mundial. Trabajó como astillero en el verano y después se alistó en la Marina de los Estados Unidos. Aunque estuvo cerca de su padre y conocía a muchos otros científicos que eran amigos de la familia, no tenía intención, hasta ese momento, de seguir una carrera científica. La adopción de la ciencia como su vocación llegó repentinamente, según él, cuando, sirviendo a la Marina de los EE. UU. observó los test nucleares de Bikini y se le asignó la tarea de construir mapas de la distribución de radiaciones sobre los atolones, se contagió entonces con la emoción de la iniciativa científica. Al terminar su servicio en la Marina, Allen se matriculó en la Universidad de Stanford, donde se superó en Física. Como estudiante universitario su investigación le procuró el primer

58

[GiGA 2 / 2009]

artículo, sobre rayos X (1949). Stanford también le proporcionó en su clase a George Polya, que no sólo fue un distinguido matemático, sino también un atento estudiante de los descubrimientos matemáticos. Un año en matemáticas (1949-50) como estudiante graduado en Princeton y el descubrimiento de la teoría de juegos, inventada poco antes por von Neumann y Morgenstern, convencieron a Allen de que prefería una combinación de investigación teórica y práctica ante las matemáticas puras. Se tomó un descanso en Princeton y encontró un puesto en la RAND Corporation, en Santa Mónica, en un grupo que estaba estudiando problemas logísticos de las Fuerzas Aéreas. Dos informes técnicos que escribió junto con Joseph B. Kruscal ("A Model for Organization Theory" (1950) y "Formulating Precise Concepts in Organization Theory" (1951)) demuestran su interés en aquella época por la aplicación de métodos formales a fenómenos empíricos complejos. Ambos informes adoptaron un estilo de axiomatización que fue novedoso en la teoría de juegos y en la economía. Una visita de seis semanas a la Munitions Board en Washington impresionó a Allen por la distancia que separaba los modelos formales de la realidad. Su informe, "Observations on the Science of Supply" (1951), exhibe su sensibilidad a la sofisticación sobre las realidades que observó. Se desilusionó con la axiomatización, entonces se dedicó al diseño y gestión de experimentos de laboratorio en pequeños grupos de toma de decisiones, un

tópico de interés considerable en RAND en aquella época. Insatisfecho también con los experimentos en pequeños grupos como manera de organización de estudio, el equipo RAND de John Kennedy, Bob Chapman, Bill Biel, y Allen creyeron en la construcción de una simulación a gran escala de una estación de preavisos de las Fuerzas Aéreas para estudiar los procesos de organización de las tripulaciones de la estación. Este esfuerzo, patrocinado por las Fuerzas Aéreas en 1952, condujo a la creación del Laboratorio de Investigación de Sistemas en RAND. El centro para la investigación fue registrando y analizando las interacciones entre la tripulación con sus pantallas de radar y la intercepción de los aviones. Estos datos centraron la atención de Allen en el manejo de la información y el proceso de toma de decisiones de los miembros de la tripulación y llevó a la investigación de una técnica apropiada para analizar y modelar el proceso. Una de las responsabilidades especiales de Allen en el proyecto fue encontrar un modo de simular una visualización del tráfico aéreo, pero no existía tecnología disponible en el laboratorio para construir modelos de simulación apropiados. Mientras investigaba alternativas computacionales, Allen conoció a Cliff Shaw, un

programador de sistemas de RAND, que entonces trabajaba en una calculadora de tarjetas programadas, un dispositivo prehistórico que precedió a los primeros ordenadores que almacenaban programas. Allen y Cliff concibieron la idea de calcular los dibujos aéreos sucesivos e imprimirlos en mapas de simulación de radar. Esto no sólo proveyó al laboratorio de la simulación que requería, sino también demostró a Allen y a Cliff que los ordenadores, incluso los prehistóricos, podían hacer más que cálculos aritméticos: podían producir planes espaciales de símbolos no numéricos que representaban aviones. En este momento las ideas de la cibernética y la inteligencia artificial estaban aflorando. W. Ross Ashby había publicado en 1952 su "Diseño de un cerebro". W. Grey Walter en 1953 en Inglaterra había construido algunas "tortugas" mecánicas que andaban por una habitación buscando un punto de una pared de concreto cuando sus baterías se estaban acabando, y criaturas similares fueron construidas por un grupo en RAND. En 1950 Turing y Shannon habían descrito (pero no programado) estrategias para el ajedrez por computador, y en 1952 Herbert A. Simon había descrito (pero no programado) un programa que ampliaba las ideas de Shannon. En Septiembre de 1954 Allen asistió a un seminario en RAND en el que Oliver Selfridge de los Laboratorios Lincoln describió el funcionamiento de un programa que aprendía a reconocer letras y otros diseños. Mientras escuchaba a Selfridge caracterizando su sistema operativo, Allen experimentó lo que siempre ha referido como su "experiencia de conversión". Le dejó claro "que los sistemas inteligentes adaptativos podrían construirse y que serían bastante más complejos que cualquier cosa que ya existía". Al conocimiento que Allen ya tenía sobre ordenadores (incluidas sus capacidades simbólicas), heurística, procesamiento de información en organizaciones, cibernética y propuestas de programas de ajedrez, ahora se añadía una demostración concreta de la viabilidad de la simulación por ordenador de los procesos complejos. Entonces se comprome-

Allen Newell (a la derecha) y Helen Whitaker

tió consigo mismo a comprender el aprendizaje y pensamiento humano simulándolo. El estudiante de organizaciones se convirtió en un estudiante de la mente. En los meses siguientes a la visita de Selfridge, Allen escribió "The Chess Machine: AN Example of Dealing with a Complex Task by Adaptation" (1955), que perfilaba el diseño imaginativo de un programa de ordenador para jugar al ajedrez de forma humana, incorporando nociones de objetivos, niveles de aspiración para buscar el final, satisfacción con movimientos "suficientemente buenos", generación de subobjetivos para conseguir objetivos, etc. La información del tablero se expresaba en un lenguaje parecido al cálculo de predicados. El diseño nunca se implementó, pero las ideas fueron tomadas en préstamo más tarde para usarlas en el programa de ajedrez NSS en 1958.

Premios recibidos • 1971 - Plaza de profesor John Danz, Universidad de Washington. • 1971 - Premio Memorial Harry Goode, Federación Americana de Sociedades de Procesamiento de la Información. • 1972 - Academia Nacional de las Ciencias. • 1972 - Academia Americana de las Artes y las Ciencias. • 1973 - Premio Elbow por ser el primer

humano que se pudo chupar el codo. • 1975 - Premio Turing (junto con H. A. Simon), de la ACM (Association for Computing Machinery). • 1976-77 - John Simon Guggenheim Fellow. • 1979 - Premio Alexander C. Williams Jr. (junto con William C. Biel, Robert Chapman y John L. Kennedy), Human Factors Society. • 1980 - Academia Nacional de Ingeniería. • 1980 - Primer presidente de la Asociación Americana para la Inteligencia Artificial. • 1982 - Premio al pionero en computación, IEEE Computer Society. • 1985 - Premio a una contribución científica distinguida, Asociación Psicológica Americana. • 1986 - Doctor Honoris Causa en Ciencias, Universidad de Pennsylvania. • 1987 - Plaza de profesor William James, Universidad de Harvard. • 1989 - Premio a la excelencia investigadora, Conferencia Internacional en Inteligencia Artificial. • 1989 - Doctor Honoris Causa en Ciencias Sociales y del Comportamiento, University de Groningen, Holanda. • 1989 - Premio William James, Asociación Psicológica Americana. • 1990 - Premio Emanuel R. Piore Award, IEEE. • 1992 - Medalla Nacional de las Ciencias. • 1992 - Medalla Louis E. Levy del Instituto Franklin. [GiGA 2 / 2009]

59

Doble clicK Graduados 1 617 ingenieros en Ciencias Informáticas en nuestro país a se registró la tercera graduación de la Universidad de Ciencias Informáticas (UCI). Los nuevos ingenieros dedicaron la graduación al aniversario 50 del Triunfo de la Revolución, al 83 cumpleaños del fundador y guía del Proyecto Futuro, el Comandante en Jefe Fidel Castro, quien en el 2002 inauguró la UCI como parte de la Batalla de Ideas. Al líder de la Revolución los graduados enviaron un cuadro con fotografías de momentos de las graduaciones del presente curso en las diez facultades de la UCI. Melchor Gil Moreno, rector de la casa de altos estudios de la Informática convocó a los graduados a vincularse en cada municipio en la batalla por la informatización de la

Y

Sociedad. Para homenajear a los 30 graduados integrales se entregó el Premio Mella, reconocimiento instituido en la UCI a los destacados en el cumplimiento de misiones internacionalistas en la República Bolivariana de Venezuela, y a los más sobresalientes en actividades culturales, deportivas y científicas. Gil Moreno aseguró que los jóvenes graduados tienen una formación óptima en la búsqueda de mejores soluciones en el ahorro de energía eléctrica y de los recursos materiales, sin poner en riesgo la calidad y productividad de los servicios prestados en varias esferas de la economía dentro y fuera del país. (Fuente: Juventud Rebelde)

Más de 1100 millones de usuarios en Internet l uso de Internet superó los 1 100 millones de usuarios a nivel mundial, aunque sólo 89 millones de esos navegantes son de habla hispana, reveló hoy una estadística de Internet World Stats. Estos registros suponen un uso medio del 16,9 por ciento de la población total de los 6.574 millones de personas que habitan el planeta. La mayor cantidad de usuarios del sistema en red se registra en Asia con 399 millones, seguida por Europa con 314 millones de internautas y Estados Unidos con 233 millones. Pero si hablamos del empleo de Internet, es Estados Unidos el país que se ubicó en el primer lugar con un por ciento de internautas sobre la población del 69,7 %, mientras que Oceanía se adjudicó el segundo lugar con 53,5 % y Europa con un 38,9 %. En tanto que en el último [GiGA 2 / 2009]

L

as nuevas tecnologías no garantizan la conservación de los documentos y por ello su expansión y desarrollo no va a suponer la desaparición del papel, tal afirmación fue realizada durante el VIII Congreso de Historia del Papel en España que reunió a más de 60 personas de España y Argentina, y donde también se aseguró que las nuevas tecnologías siempre tendrán que convivir con el papel, porque no se trata de soportes excluyentes, sino complementarios y necesarios.

Lanza editora domincana un nuevo sistema

E

60

Las nuevas tecnologías no acabarán con el papel

a empresa editora dominicana Omnimedia lanzó una aplicación que vincula imágenes publicadas en varios medios impresos de la compañía a páginas de Internet por medio de la telefonía móvil, informó hoy la compañía en una nota. Con este programa, denominado "Clic2c", se puede acceder a contenidos audiovisuales relacionados con las imágenes impresas por medio de un sencillo procedimiento. El usuario debe instalar la aplicación, apuntar con la cámara de su teléfono móvil a las fotos identificadas con el logotipo "Clic2c" y este programa conecta el aparato con el sitio seleccionado.

L

escalafón se encuentra Africa con sólo 33 millones de usuarios, cifra que representa un escaso acceso del 3,6 % sobre el total de la población. Mientras que en América Latina, el empleo de Internet aún no registra altos índices, ya que tiene un 17,3 % de adherentes, y en el caso específico de Argentina se comprobó una utilización de casi el 40 %, aunque es Chile la nación que encabeza la nómina de uso de la red de redes con un 42,4 % y Brasil registra sólo el 17,2 % de la población conectada, según informó Télam.

Doble clicK Mapa digital de la Tierra más preciso hasta el momento n nuevo mapa topográfico digital diseñado por la NASA y el Gobierno de Japón recoge la representación "más vasta y precisa" alcanzada hasta el momento de nuestro planeta. Para ello se basaron en las medidas exactas recogidas por el instrumento Aster del satélite "Terra", perteneciente a la agencia espacial estadounidense. El nuevo modelo digital ha sido creado gracias a la utilización de casi 1,3 millones de imágenes logradas por el

U

Aster, uno de los cinco instrumentos de observación de la Tierra ubicados en el satélite "Terra", señaló la NASA. El conjunto más completo de datos topográficos a disposición del público hasta hoy provenía de la misión "Shuttle Radar Topography" de la NASA, donde se reflejaba el 80% de la superficie de la Tierra..Este nuevo mapa amplía la cobertura a un 99%. Cada punto de medición de altitud en los nuevos datos es de 30 metros de separación.

Las víctimas de robos de iPhones contraatacan con tecnología

n dispositivo permite a un usuario activar de forma remota una estridente sirena diseñada para molestar al ladrón. Otra aplicación, diseñada para los iPhones, puede revelar la localización del teléfono. Las estadísticas policiales demuestran que algunos pequeños delitos han caído en Nueva York, pero datos y recientes titulares sobre atracos callejeros para llevarse costosos y codiciados aparatos como el iPhone de Apple y el Sidekick de T-Mobile han afectado a los usuarios de estos teléfonos avanzados, preocupados

U

sobre cómo proteger el acceso al correo electrónico, contraseñas y otros datos. La nueva tecnología ayuda a los propietarios de esos costosos dispositivos a recuperarlos después de que los pierden o se los roban. La herramienta Find My iPhone (Encuentra mi iPhone) de Apple, permite a los usuarios determinar la localización del teléfono y borrar los datos que contiene, entre otras cosas. Los ladrones van cada vez más detrás de iPhones y otros "smart phones", pero las víctimas pueden contraatacar ahora con tecnología.

Cámaras de vigilancia "online" arriesgan la privacidad

C

on demasiada frecuencia, quienes compran e instalan cámaras de vigilancia conectadas a Internet que permiten un acceso remoto mediante la Red de las imágenes en tiempo real, lo hacen sin activar los controles de acceso, ni cambian las contraseñas que estos dispositivos traen por defecto. Ésta es la conclusión de una investigación que la Agencia Española de Protección de Datos (AEPD) inició ante la proliferación de este tipo de cámaras y los riesgos para la privacidad de los ciudadanos. La AEPD analizó webs que captan imágenes de paisajes o panorámicas, de la vía pública, de lugares de trabajo y del interior de establecimientos comerciales. "En muchos casos, las cámaras que emiten imágenes por Internet únicamente recogen paisajes o panorámicas que, al no recabar imágenes de personas que pudieran ser identificadas o reconocidas, no presentan riesgo para la privacidad", afirma la agencia. Sin embargo, las instaladas en la vía pública, el lugar de trabajo o en el interior de establecimientos comerciales, "sí que permiten la identificación de personas y carecen de control de acceso, es decir, que difunden imágenes en abierto, con el impacto que ello supone para la privacidad y el alto riesgo de incumplimiento de la normativa de protección de datos", advierte. [GiGA 2 / 2009]

61

Doble clicK Microsoft alerta de un nuevo fallo de seguridad en Internet Explorer

U

n nuevo agujero de seguridad detectado en el navegador Internet Explorer podría permitir a un hacker tomar el control remoto del ordenador. Este error se encuentra en el módulo de control de vídeo ActiveX, que puede reproducir audio y vídeo, en los sistemas operativos Windows XP y Windows Server 2003, informó Microsoft.

Microsoft prepara una actualización para corregir el defecto de los módulos de ActiveX, que es también un componente básico de Windows Media Center. De momento, aconseja a los usuarios de Internet Explorer en Windows XP y Windows Server 2003 que, como medida de precaución, desactiven el control ActiveX de vídeo hasta solucionar el problema.

Internet una herramienta para el desarrollo de la prensa nternet, lejos de ser una amenaza para la prensa escrita, es una herramienta para su desarrollo, dijo Jim Chisholm, representante de la Asociación Mundial de Diarios en la clausura del Cuarto Congreso Brasileño de Diarios y Segundo Foro de Editores, celebrado en Sao Paulo. Chisholm, que dirige un programa de la Asociación Mundial de Diarios (WAN, según su sigla en inglés) sobre los periódicos del futuro, señaló que la prensa escrita debe preocuparse por poner más informaciones en

I

Internet, sin miedo de perder con ello circulación de sus ediciones impresas. "La idea de que una página de Internet perjudica la circulación es una tontería. El desafío de los diarios está en adaptarse para enfrentar la vida moderna", dijo en una conferencia sobre las posibilidades de diversificación y crecimiento de los diarios. "Un buen diario se vende por su contenido, no por las promociones o regalos de discos compactos, que no crean lectores fieles", dijo.

La producción de Wikipedia se estanca

L

a producción de Wikipedia, la mayor enciclopedia en Internet abierta a la contribución de los usuarios, se ha estancado y decrecido el número de editores voluntarios y su tiempo de vinculación al proyecto, según una investigación de la Universidad Rey Juan Carlos. El resultado principal del estudio es que el estancamiento se ha generalizado en las diez versiones de Wikipedia y que aproximadamente el diez por ciento de los editores realizan más de un 90% de las contribuciones y suelen ser miembros con más de un año de experiencia. "Lo que es más importante es que esta tendencia seguirá empeorando en el futuro próximo, ya que el número de abandonos tiende a crecer cada vez

62

[GiGA 2 / 2009]

más rápidamente", declaró un investigador, que realizó su tesis doctoral sobre este tema. A la efímera presencia de los colaboradores, que no supera el año, hay que sumar la corta participación de los editores, ya que en general, el 50 por ciento de los editores participan menos de 150 días, salvo en la versión alemana que superaron los 201 días y la francesa que llegaron a los 188 días. La investigación también señala que otro fenómeno que evidencia el estancamiento es que el número de artículos destacados -los que son sometidos a una exhaustiva revisiónsigue siendo "relativamente reducido", aproximadamente uno de cada 1 100 en la versión inglesa.

Más compactas sin CD... Las aplicaciones apagan la televisión móvil Durante años se pensó que la transmisión de la señal televisiva a los 4.000 millones de teléfonos móviles del mundo sería un hito de la era digital, pero ahora sólo tres letras están acelerando el fin de esa visión: App, la abreviatura de "aplicación", programas que la gente descarga de tiendas virtuales para ejecutarlos en sus móviles, ha permitido a los consumidores elegir por sí mismos qué películas llevarse consigo.

Llega con fuerza la era de las tarjetas inteligentes Los nativos digitales y las tecnologías inalámbricas impulsan los mecanismos para abonar transacciones sin necesidad de recurrir a los billetes. Se aplican en celulares, tarjetas de crédito y por Internet. En Argentina ya hay aplicaciones en curso. Por lo tanto, monedas billetes, llaves, boletos serán dentro de algunas décadas piezas de museo y coleccionistas. Las causas de esta transformación serán los sistemas de comunicación inalámbrica, los dispositivos móviles inteligentes y, en especial, los niños y adolescentes de hoy, a quienes se conoce como los "nativos digitales", por su intensa relación con la tecnología.

Las ganancias de Google no son optimistas Los dividendos de la empresa estadounidense de Internet Google superaron las expectativas de Wall Street en el segundo trimestre, pero el crecimiento de ingresos no fue tan espectacular como esperaban algunos inversores, lo que provoca una bajada de sus acciones. Si bien el crecimiento del 3 % de los ingresos del líder de búsquedas en Internet superó ligeramente el promedio de previsiones, el precio de las acciones ya había descontado otras expectativas del mercado, después de que Intel Corp. reportara fuertes beneficios.

Doble clicK Ejecutivos han cometido errores al enviar un email

¿

Alguna vez has dado a "enviar" un correo electrónico antes de darte cuenta de que iba dirigido a la persona equivocada? No estás solo. Una encuesta sobre errores en el correo electrónico descubrió que ocho de cada diez ejecutivos de marketing y publicidad estadounidenses admitieron haber cometido un error al enviar un e-mail, provocando un momento de "trágame tierra" posterior. El sondeo a 250 ejecutivos de mil compañías realizado por The Creative Group pidió a los encuestados que describieran el peor error de correo electrónico que hubieran cometido o presenciado. Estos iban desde enviar la información sobre el salario de un empleado a toda la empresa a un e-mail desagradable sobre el jefe nuevo que

llegó a la dirección. La lista también incluía el envío de un trabajador de su currículum a su jefe cuando iba dirigido a otra compañía, un memorándum interno sobre normas del cuarto de baño enviado a un cliente, y el envío de una foto personal picante de una trabajadora a toda la plantilla en lugar de sólo a un par de amigos. "Los errores de correo electrónico pueden ser dolorosamente visibles y víricos", declaró la directora ejecutiva de The Creative Group, en un comunicado. "Los profesionales deben ser especialmente cuidadosos en esta economía para no hacer nada que pueda llevar a los empleados a cuestionar su competencia o su criterio, y eso significa prestar más atención cuando se envía cualquier tipo de mensaje, sobre todo si la información es sensible".

Google desafía a Microsoft

G

oogle planea un ataque directo al negocio principal de Microsoft al enfrentarse al sistema operativo Windows del Gigante del Software, dominante en los ordenadores personales de todo el mundo. Google, que ya ofrece varios productos de software, como correo electrónico y navegador de Internet, que compiten con Microsoft, anunció que lanzará un nuevo sistema operativo que pueda instalarse tanto en netbooks ultracompactos como en ordenadores de mesa. Los netbooks son ordenadores portátiles más pequeños y más baratos que los tradicionales, y están optimizados para navegar por

Internet y otras aplicaciones basadas en la web. Bautizado como Google Chrome Operating System (Sistema Operativo Cromo de Google), el nuevo software estará en netbooks en el segundo semestre del 2010, señaló Google en una información publicada en su blog y añadió que estaba trabajando con varios fabricantes. Mientras… afirman que será rápido y ligero, permitiendo a los usuarios acceder a Internet en pocos segundos, dijo Google. El nuevo sistema está basado en el software de código abierto Linux, que permite que cualquier desarrollador diseñe aplicaciones compatibles.

Libros borrados aunque pagados

R

ecientemente cientos de poseedores del Amazon Kindle se despertaron descubriendo que los libros de cierto autor famoso habían desaparecido misteriosamente de sus lectores de libros electrónicos. Se trataba de libros que habían comprado y pagado, y por ello creían poseerlos. Pero no: pues al parecer la

editorial cambió de opinión en cuanto a ofrecer una edición electrónica, y todo indica que Amazon, cuyo negocio depende de que las editoriales estén contentas, cedió y borró electrónicamente todos los libros del autor en cuestión de los Kindles de sus clientes… incluso los que abonaron en línea el importe del libro.

Más compactas sin CD... Nuevo mouse I-T Click El I-T Click es un nuevo mouse que emplea el dedo índice para activar la tecla izquierda en un mouse convencional y el pulgar para la derecha. Cuenta con LED bicolor que indica el nivel de carga y dispone de un sistema de ahorro de energía que desconecta la batería recargable.

La UE revisará las normas de descargas de Internet Al delimitar las prioridades del brazo ejecutivo de la Unión Europea para los próximos cinco años, su comisaria de Telecomunicaciones expresó que estudiará nuevas leyes que reconcilien los intereses de la propiedad intelectual y de los navegantes de Internet.

Famoso ex hacker alerta sobre vulnerabilidad de los cajeros bancarios en Colombia El famoso ex hacker estadounidense Kevin Mitnick, experto en seguridad informática, alertó hoy sobre la alta vulnerabilidad de los sistemas operativos de los cajeros automáticos, durante el evento tecnológico Campus Party Colombia. Lo último en piratería informática es implantar códigos malignos en los ordenadores de los cajeros, ya que usan Windows. Es un movimiento que ha empezado en Rusia y Ucrania, pero que no tardará en llegar a Estados Unidos y a Latinoamérica", declaró Mitnick en una rueda de prensa.

Muchos padres desconocen las redes ni saben qué hacen sus hijos en ellas Más de la mitad de los padres españoles, 54 %, desconoce las redes sociales y su funcionamiento y un 86 % de ellos no controla totalmente lo que hacen sus hijos en Internet, según se desprende del informe de seguridad Menores en Red de la compañía Panda Security, que evidencia la falta de conocimiento de los progenitores sobre las actividades que niños y adolescentes llevan a cabo en la Web. [GiGA 2 / 2009]

63

Para confeccionar estas páginas, nuevamente consultamos sus mensajes y sugerencias, y aquí está el resultado de algunas de las preguntas que nos hacen, pues en la Sección de Cartas no cabrían tantas "cosas sueltas". Son, como siempre, pasos muy elementales que en ocasiones resultan muy cómodos para hacer tareas también simples. Una vez más, complacemos a los lectores, especialmente a aquellos que emplean el sistema operativo Windows XP.

Mostrar la pestaña Compartir en las Propiedades de Carpeta en Windows XP Con Windows 2000, compartir una carpeta en una red local era tan simple como dar click con el botón derecho del ratón sobre las propiedades de la carpeta y seleccionar la pestaña Compartir. En Windows XP, esta opción parece haber desaparecido... pero si nos trasladamos a las opciones de carpeta dentro del menú Herramientas del explorador de Windows y nos desplazamos hasta la pestaña Ver, comprobaremos que en el cuadro configuración avanzada se encuentra una opción Utilizar uso compartido simple de archivos (recomendado) cuya casilla de verificación deberemos desmarcar. Ahora podremos compartir carpetas en nuestras redes locales como lo hacíamos con Windows 2000, con la ventaja añadida de que en el menú contextual que aparecerá al pulsar el botón derecho del ratón en la carpeta aparecerá una nueva opción que nos proporcionará acceso directo a la pestaña Compartir y seguridad

Comprobar y reparar errores en el disco duro La comprobación de errores en el disco duro ha cambiado con respecto a los antecesores de Windows XP, pero la forma de llegar es la misma. Con el XP damos doble click sobre el icono de Mi PC, a continuación seleccionamos la unidad en la cual vamos a comprobar si tiene errores. Damos click derecho sobre esa unidad y luego en Propiedades. Seguidamente escogemos Herramientas y a continuación sobre el botón Comprobar

64

[GiGA 2 / 2009]

Ahora. Es posible que nos avise que no puede realizar esa acción ahora y que lo hará la próxima vez que se reinicie Windows, en tal caso lo Aceptamos y cerramos todas las ventanas que tengamos abiertas. Reiniciamos Windows y al arrancar tendremos la opción durante unos segundos. Si no hacemos nada, una vez transcurridos esos segundos comenzará la comprobación. Al finalizar nos informará del resultado durante un período corto y arrancará Windows

Para personalizar el protector de pantalla Una forma muy cómoda de utilizar tus fotografías digitales es crear una presentación con diapositivas para utilizarla como protector de pantalla, lo que podrás hacer después de estos pasos. Haz click con el botón derecho del mouse en una zona libre del Escritorio y un click en Propiedades. Ahora el click lo das sobre la ficha Protector de pantalla. Seguidamente, click en Presentación de Mis imágenes. Click en Configuración para realizar cualquier ajuste, como por ejemplo, cada cuánto tiempo deben cambiar las imágenes, qué tamaño deben tener y si utilizará efectos de transición entre una y otra. Imagen. Click en Aceptar. Ahora en el protector de pantalla se mostrarán imágenes aleatorias tomadas de la carpeta Mis imágenes

La Barra de tareas siempre estará visible Si deseas que la barra de tareas esté siempre visible, incluso si ejecutas un programa con la ventana maximizada o pantalla completa, selecciona la

opción Mantener la barra de tareas siempre visible. Aquí te explicamos cómo puedes seleccionar esta opción mediante Propiedades de la barra de tareas y del menú Inicio en el Panel de Control. Si utilizas el mouse: 1. En el menú Inicio: • Selecciona Panel de control 2. Una vez en éste: • Asegúrate de que utilizas el menú Inicio clásico (se ven todos los iconos del panel de control). • Si no es así, debajo de Panel de control en el panel de la izquierda, selecciona Cambiar a menú clásico. • Escoge Barra de tareas y menú Inicio. 3. En el cuadro de diálogo de Propiedades de la barra de tareas y del menú Inicio en la etiqueta de Barra de tareas: • Selecciona o (quita) Mantener la barra de tareas siempre visible. • Click en Aceptar. 4. Para cerrar el Panel de control: • Seleccione el botón Cerrar. Si lo haces con el teclado: 1. Muestra el menú Inicio apretando CTRL+ESC (o la tecla con el logotipo de Windows). • Busca el Panel de control oprimiendo C. 2. Ya en el Panel de control: • Asegúrate de que utilizas el menú Inicio clásico (se ven todos los iconos del Panel de control). • Si no es así, debajo de Panel de control en el panel de la izquierda, selecciona Cambiar a menú clásico oprimiendo el tabulador. • Oprime Enter. • Ve a Barra de tareas y menú Inicio con las teclas de las flechas.

• Selecciona o (quita) Mantener la barra de tareas siempre visible pulsando S. • Oprime Enter. 4. Para cerrar el Panel de control: • Pulsa ALT+A, C.

Cambia el tipo de fuente de tu navegador de Internet Es posible que desees ver los textos de tu navegador de Internet de una forma personalizada, es decir, con un tipo de letra o tamaño determinado. Y puedes hacerlo si: abres tu navegador de Internet. A continuación da click sobre el menú Herramientas y luego sobre Opciones de Internet. Entonces oprimes el botón Fuentes, y en la ventana que te aparece podrás escoger el tipo de fuente que desees. Para guardar los cambios oprime el botón Aceptar en las dos ventanas. Listo. • Oprime Enter. 3. En el cuadro de diálogo de Propiedades de la barra de tareas y del menú Inicio en la etiqueta de Barra de tareas:

Crea icono para apagar rápidamente la PC

Puedes hacer que tu PC se apague sólo con un doble click. Primero debes crear un icono que te permita hacer esta función… y sigue estos pasos: • Click derecho en una zona libre del Escritorio • Selecciona Nuevo y Acceso directo. • En la ventana del Acceso directo debes escribir shutdown -s -t 00 y apretar el botón Siguiente, después le pones el nombre que quieras al acceso directo y oprime el botón Finalizar. Si quieres dejar algo de tiempo para cerrar las aplicaciones, escribe shutdown.exe -s -t 12 y entonces dejarás un margen prudencial de 12 segundos para Panel de control: Barra de tareas y menú Inicio: Etiqueta de barra de tareas: Mantener la barra de tareas siempre visible. apagar la PC.

Deshabilitar programas que arrancan con el inicio de Windows Con el uso de una PC instalamos y desinstalamos programas. Muchos de éstos arrancan con el inicio de Windows y hacen que el sistema se torne pesado y tarde mucho en mostrar el Escritorio… pero hay una forma de hacer que estos programas no arranquen con el inicio de Windows: • Da click en el botón Inicio y luego en Ejecutar. • Ahora tecleamos MSCONFIG y pulsamos el botón Aceptar. En la ventana que nos muestra da click sobre la pestaña Inicio y ahí es donde desactivamos los programas que no queremos que se carguen al arrancar Windows. Ahora reduciremos el tiempo de arranque del sistema operativo si escogemos Aceptar y listo. La próxima vez que reiniciemos el SO tardará menos tiempo en mostrarnos el Escritorio.

Para desactivar el marcado automático De manera predeterminada, la característica de Marcado automático de Windows XP conecta al usuario a Internet de forma automática cuando se tiene acceso a un sitio de la Red en el equipo local. Aunque esta característica funciona correctamente para la mayoría de los usuarios, en ocasiones puede que desees controlar las conexiones telefónicas de forma manual. Para desactivar la característica Marcado automático: • Abre el Panel de control y a continuación haz click en Rendimiento y mantenimiento. • Click en Herramientas administrativas y a continuación, doble click en Servicios. • Doble click en Administrador de conexión automática de acceso remoto. • Click en Detener para apagar el servicio, establece el tipo de inicio como Deshabilitado y… acepta. Entonces el equipo no intentará nunca establecer una conexión telefónica con Internet automáticamente, y para conectarte de forma manual, utiliza cualquier conexión a Internet de las que especificaste en Conexiones de red. [GiGA 2 / 2009]

65

A punta de Cursor... Hola amigos, aquí estamos con las cartas, mensajes, llamadas y recados de lectores que se nos acercan para relacionarse con este colectivo. Con muchos hemos evacuado las dudas en el momento mismo del contacto, y a la vez aprendemos de experiencias que nos relatan y que les sugerimos nos las pongan como se decía antiguamente "en blanco y negro" para publicarlas ya sea como artículos o sólo así; "Experiencias", creemos que bajo este término tendríamos una buena sección nueva para el disfrute y uso general.

Sin que el profe lo supiera Hablamos de este caso sin que la persona lo sepa, no, no interpreten mal. Se trata de un grupo de alumnos de la Escuela de Natación "Marcelo "Salado", quienes agradecen a su profesor de Computación, Aurelio Hernández, el cual ideó una especie de "programita" para resumirles el rápido aprendizaje de la asignatura sin necesidad de hacerlo frente a la máquina. Así cuando les toca a cada uno estar frente al equipo, pues ya están digamos que bien socializados con la tarea. Gracias, profe, ya ve sus alumnos le reconocen la innovación, y nosotros lo invitamos a que se acerque a esta Redacción para trasmitir su experiencia a otras escuelas por medio de nuestras páginas.

Las imágenes nos miran también Y hoy es el mensaje de Alina Sebastián, del municipio de Cumanayagua en la Perla del Sur, quien desea le ayudemos a retocar las fotos digitales. Bueno, Alina, no es noticia que ese tema es un poco extenso para tratarlo desde esta Sección. Ya tenemos un espacio que habla al respecto, el cual por cierto, ha tenido gran acogida entre los lectores. Al parecer no has conseguido los números más recientes en los que se habla ampliamente de las imágenes. Sí, es una Sección de las más "jovencitas" y en ella encontrarás ayuda para poder manejar "tu camarita", las cuales por cierto, se nos vienen complicando cada vez más con el desarrollo tecnológico, que dentro de poco tendremos que recibir cursos para manejarlas adecuadamente.

Los virus corren y se trasmiten Sí, contestamos a Lázaro Edel Gutiérrez, del municipio de Varadero en la Atenas de Cuba, los virus "se cuelan" también en las memorias flash, y cuando las introduces en una máquina sin que ésta tenga

66

[GiGA 2 / 2009]

un buen antivirus actualizado, el código maligno se aloja en el disco y causa su estrago. Hoy son las flash, ayer (y hoy también, pues claro que aún se usan) lo hacían en disquetes, CDs y en cuanto dispositivo colocáramos en la PC. Por eso, no nos cansamos de repetir y recordarles que un buen antivirus, aunque a veces nos saque de paso por volver lenta la máquina, o como se suele decir ahora "la ralentiza", es realmente necesario.

Por ahorrar, hiberno Nos comenta Yadira Mesa, desde el holguinero municipio de Moa, que ella emplea el método de poner a hibernar su computadora cuando va a estar algún tiempo sin trabajar. Muchas personas lo hacemos y hasta ahora no hemos confrontado problema alguno, todo lo contrario, es cierto que se ahorra energía (especialmente nos quitamos de encima ese calor constante) y evitamos perder el consabido tiempo que demora encenderla, pues a diferencia de cuando la despertamos de "su hibernación" sólo levanta el sistema en el punto en que "le dimos el calmante". Por cierto, Yadira, a muchos amigos no les gusta el método, pero a otros sí nos va muy bien, de cualquier forma, creemos que es un buen contenido para un próximo número. Y por hoy nos vamos amigos, estos temas que hemos relacionado hoy, son inquietudes que generalmente nos llegan con sus cartas, algunas pueden parecer simples, pero no lo son y sí resultan preguntas reiteradas en este proceso de la comunicación con el lector. Además, para eso estamos, para ayudarnos, ya que una mano lava la otra y juntas, lavan la cara. Hasta más ver amigos, como diría el abuelo Serafín, a lo que agregamos el nunca olvidado: chao giganauta.

Colectivo de GiGA

Por Norma Márquez González [email protected]

Y miren, fue una bonita casualidad, como son muchas de ellas. Iba yo en un P-4, sentada por suerte leyendo, cuando se paró a mi lado un joven que cargaba algunos libros y revistas. Le pedí llevarlos en mis piernas para su comodidad y accedió gustoso. Y entre el calor y la rutina me di cuenta que una de esas revistas era nada más y nada menos que una GiGA. Sorpresa y silencio. Poco a poco noté también que dentro de ésta había unos manuscritos, bien sabemos todos que el papel de nuestra publicación se rueda con facilidad. Y conociendo como conozco todos los números que han visto la luz, comprendí que no era una edición reciente. Llegó el momento en que no pude más y le pregunté. Me contó que sí que había conseguido esa GiGA porque contenía un artículo importante del sistema operativo Linux, tema sobre el cual elaboraba su trabajo de curso. Le expliqué que de Linux se habla en muchas de ellas… y ahí el joven me preguntó si yo leía la GiGA… Y miren… me contuve para no confesar que ésta es como una hija. Le expliqué que llevaba doce años en ella y bla… bla… bla… Y prácticamente estábamos en medio de una conferencia del open source y el GNU de Linux cuando arribamos a mi Parada. Casi al bajarme pude escuchar su nombre, creo que es Yosvany Pérez y estudia en el municipio de Playa, pero no alcancé a oír más. Me bajé llena de alegría por sentir la utilidad de nuestro trabajo, especialmente para los más jóvenes. Así es la vida. Recordé otro día cuando el mecánico de la lavadora buscó mi dirección y se me apareció un domingo para que lo ayudara a encontrar artículos para sus estudios en los que se hablara de los puertos USB, y casi vacié el archivo de la casa por ayudarle. Esas, amigos, son las alegrías de la GiGA. Por supuesto que hay muchas experiencias más, pues igual les ha ocurrido a Vianys, Humberto y Vilma. Entonces, llegué a la casa y no pude menos que sentarme a la máquina, preparar la punta de mi cursor y dar gracias, por medio de esta columna, a todos nuestros lectores porque nos hacen comprender la vigencia de la frase que había quedado en mi mente y que acababa de leer en el cuento "El caballo de coral", de Onelio Jorge Cardoso, cuando hiciera el favor al joven: El caso es que mientras más vueltas les doy a las ideas, más fija se me hace una sola: aquella de que el hombre siempre tiene dos hambres. Y me voy porque el tema no se agota, pero el espacio, sí. Nos vemos, claro que sí. Bibliografía: utilidadeGiGA.com

• Programadores y amantes - ¿Por qué los programadores son tan malos amantes? - Porque siempre intentan encontrar la forma de hacer la tarea lo más rápido posible, y cuando lo consiguen están convencidos de que han mejorado. • ¿Cuál es el problema más común con Windows..? ¿El usuario...? • ¿Qué hay detrás de una cola de impresión? Un servidor. • Error de windows 95: Windows 95 ha encontrado en su sistema una biblioteca que funciona correctamente. Por favor elimínela. • La complejidad de un programa crece hasta tal punto que excede la capacidad del programador que debe darle mantenimiento. • Error 005606: imposible detectar teclado, pulse una tecla para continuar. • Si eres programador y no logras hacer algo que sirva, llámalo versión 1.0. • Mi ordenador me gana al ajedrez, pero yo le gano boxeando. • Esta era una vez un niño que no quería decir su palabra secreta de correo electrónico, y viene un niño y le pregunta: ¿Cuál es tu palabra secreta? Y el niño le responde: ¡No te la diré! Está bien. Pero, le vuelve a preguntar: ¿Cuántas letras tiene la palabra secreta?, dime eso, por lo menos. Y dice el niño: ¿Cuántas letras tiene transformación?

Solución del cruciGiGA

• ¿Qué le dice una impresora a la otra? Oye, ¿¿¿esa hoja es tuya o es impresión mía???

[GiGA 2 / 2009]

67

Autora: Vianys Zamora Pimentel [email protected]

Horizontales 1. Espacio virtual, poblado por millones de datos, en el que se puede "navegar" infinitamente en busca de información. 11. Muy parecido. 12. La estructura de directorios utilizada en los ordenadores personales es arborescente; esto es, existen directorios y subdirectorios que, a modo de ramas cada vez más delgadas, van surgiendo de un tronco inicial. 14. De romper. 16. Planta hortense, de la familia de las crucíferas, con hojas radicales muy anchas por lo común y de pencas gruesas, flores en panoja al extremo de un bohordo, pequeñas, blancas o amarillas, y semilla muy menuda. Se cultivan muchas variedades, todas comestibles, que se distinguen por el color y la forma de sus hojas. La más vulgar tiene las pencas blancas. 17. Colección de mapas geográficos, históricos, etc., en un volumen. 19. Ante Meridiano. 20. Primera sílaba de tata. 21. Una o más filas de celdas de una página que se utilizan para organizar el diseño de una página web o para ordenar datos sistemáticamente. 23. Ciencia que estudia los métodos más eficaces para satisfacer las necesidades humanas materiales, mediante el empleo de bienes escasos. 27. Hembra del ratón. 28. Antiguo Testamento. 29. Iniciales de Nancy Torres Iñiguez. 30. Pron. person. Forma de dativo de 3ª persona singular en masculino y femenino. 31. Pron. Seguido de un posesivo o de un nombre introducido por la preposición de, señala la propiedad de quien se indica. 32. Disco compacto. 33. Los Palos de la baraja francesa. 36. Lugar donde están conectados directamente todos los componentes internos del ordenador. 38. Instrumento de cálculo que utiliza cuentas que se deslizan a lo largo de una serie de alambres o barras de metal o madera fijadas a un marco para representar las unidades, decenas, centenas, unidad de mil, decena de mil, centena de mil, etc. Fue inventado en Asia menor, es el precursor de la calculadora digital moderna. 39. Conjunto de palabras que basta para formar sentido, especialmente cuando no llega a constituir oración. 40. Consonante repetida. 41. En algunos programas que requieren el uso del ratón u otro dispositivo señalizados, en determinadas ocasiones es más rápido recurrir a una combinación de teclas para una determinada instrucción. 43. Nota musical. 45. Terminación verbal. 46. Lenguaje de programación de alto nivel desarrollado por el Departamento

68

[GiGA 2 / 2009]

de Defensa de Estados Unidos. Utiliza un estilo de programación modular y su programación se hace vía hardware. 47. Repetición de un sonido reflejado por un cuerpo duro, pl.

Verticales 1. Persona cuya ocupación es buscar la forma de entrar en sistemas y encontrar los fallos de seguridad de programas. 2. Colección o conjunto de programas desarrollados por un mismo fabricante. 3. También conocido como período Tokugawa es una división de la historia de Japón, que se extiende de 1603 a 1868. 4. Narración, cuento. 5. Prep. Denota en qué lugar, tiempo o modo se realiza lo expresado por el verbo a que se refiere. 6. En el alfabeto, las letras que van después de R son… 7. En términos informáticos es aquel que roba información/recursos o hace uso de ellos de manera ilegal. También son quienes adoptan por negocio la reproducción, apropiación o acaparamiento y distribución, con fines lucrativos, y a gran escala, de distintos medios y contenidos generalmente haciendo uso de una computadora. 8. De acosar. 9. "Company" o bien empresa. En general, se refiere a cualquier sitio web con actividad comercial. 10.Técnicas, procedimientos, servicios, etc., que se soportan en tecnologías de la información y cuya implementación se realiza en el ámbito del

trabajo de oficina y similares entornos. 13. Interj. Repetida, es para arrullar a los niños. 15. Sistema de televisión adoptado por la mayoría de los países europeos. 18. Del náhuatl tamalli, que significa envuelto, es un nombre genérico dado a varios platillos americanos de origen indígena preparados generalmente con masa de maíz cocida normalmente al vapor, envuelta en hojas de la mazorca de la misma planta de maíz o de plátano, bijao, magüey, aguacate. Pueden llevar o no relleno, que puede ser carne, vegetales, chile, frutas, salsa, etc., y ser dulces o salados. 22. Borde de la mesa de billar, pr. 24. De calibrar. 25. Primera sílaba de Nada. 26. Tiene valor diminutivo o afectivo. 32. Lección que da el maestro a los discípulos cada día. 33. Conjunto de dos personas o dos cosas de una misma especie. 34. En este lugar o cerca de él. 35. Carta décima de cada palo de la baraja española que tiene estampada la figura de un paje o infante. 36. 'Ante' o 'delante de'. 37. Número que expresa una cantidad nula, nada, ninguno. 39. Iniciales de Frank Jiménez Álvarez. 42. Término utilizado por Microsoft para referirse a su implementación de servicio de directorio en una red distribuida de computadores. Utiliza distintos protocolos (principalmente LDAP, DNS, DHCP, kerberos...).

44. De ser.

La Corporación Copextel convoca a la cuarta edición del Concurso Infantil: "PINTANDO UN FUTURO TECNOLOGICO". Bases • Se podrá concursar en dos categorías: De 5 a 8 años De 9 a 12 años, en las especialidades de Pintura y Dibujo, Arte Digital (obras impresas o en formato digital) y Creatividad (maquetas u otras manifestaciones que se combinen, donde se haga uso de la creatividad e ingenio del niño) • Todos estos trabajos en cualquiera de las categorías que se concursen, deberán reflejar la importancia y utilización de la tecnología digital. Además de plasmar la visión del niño sobre ésta. • Cada concursante presentará una obra que podrá entregar en la Dirección de Marketing y Comunicación de Copextel, situada en Ave. 3ra. e/ 78 y 80 en el Centro de Negocios Miramar, edificio Habana, oficina 308, Playa. • Debe reflejar bien claro el nombre y apellidos, edad, nombre de la escuela, dirección y teléfono particular. • El plazo de entrega será hasta el 15 de julio de 2010. • Se concederá un Gran premio y 3 premios en cada categoría. • Los obras ganadoras serán publicadas en la Revista GiGA.

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.