Story Transcript
1. Conceptos de Seguridad Los conceptos fiabilidad, confidencialidad, integridad o disponibilidad son muy comunes en el ámbito de la seguridad y aparecen como fundamentales en toda arquitectura de seguridad de la información, ya sea en el ámbito de la protección de datos, normativa vigente relacionada con la protección de datos de carácter personal, como de códigos de buenas prácticas o recomendaciones sobre gestión de la seguridad de la información y de prestigiosas certificaciones internacionales, éstas últimas, relacionadas con la auditoría de los sistemas de información. Suele referirse al grupo de estas características como CIDAN, nombre sacado de la inicial de cada característica. Por estos motivos es importante tener una idea clara de estos conceptos
Fiabilidad Existe una frase que se ha hecho famosa dentro del mundo de la seguridad. Eugene Spafford, profesor de ciencias informáticas en la Universidad Purdue (Indiana, EEUU) y experto en seguridad de datos, dijo que “el único sistema seguro es aquel que está apagado y desconectado, enterrado en un refugio de cemento, rodeado por gas venenoso y custodiado por guardianes bien pagados y muy bien armados. Aún así, yo no apostaría mi vida por él”. Hablar de seguridad informática en términos absolutos es imposible y por ese motivo se habla mas bien de fiabilidad del sistema, que, en realidad es una relajación del primer término. Definimos la Fiabilidad como la probabilidad de que un sistema se comporte tal y como se espera de él. En general, un sistema será seguro o fiable si podemos garantizar tres aspectos:
Confidencialidad: acceso a la información solo mediante autorización y de forma controlada. Integridad: modificación de la información solo mediante autorización. Disponibilidad: la información del sistema debe permanecer accesible mediante autorización.
Existe otra propiedad de los sistemas que es la Confiabilidad, entendida como nivel de calidad del servicio que se ofrece. Pero esta propiedad, que hace referencia a la disponibilidad, estaría al mismo nivel que la seguridad. En nuestro caso mantenemos la Disponibilidad como un aspecto de la seguridad.
Confidencialidad Se trata de la cualidad que debe poseer un documento o archivo para que este solo se entienda de manera comprensible o sea leído por la persona o sistema que este autorizado.
De esta manera se dice que un documento (o archivo o mensaje) es confidencial si y solo si puede ser comprendido por la persona o entidad a quien va dirigida o esté autorizada. En el caso de un mensaje esto evita que exista una intercepción de este y que pueda ser leído por una persona no autorizada. Por ejemplo, si Andrea quiere enviar un mensaje a Bruno y que solo pueda leerlo Bruno, Andrea cifra el mensaje con una clave (simétrica o asimétrica), de tal modo que solo Bruno sepa la manera de descifrarlo, así ambos usuarios están seguros que solo ellos van a poder leer el mensaje.
Integridad La integridad es la cualidad que posee un documento o archivo que no ha sido alterado y que además permite comprobar que no se ha producido manipulación alguna en el documento original. Aplicado a las bases de datos seria la correspondencia entre los datos y los hechos que refleja.
Teniendo como muestra el ejemplo anterior. Finalmente Bruno compara ambas funciones resumen, que se trata de una función que produce un valor alfanumérico que identifica cualquier cambio que se produzca en el mensaje, y si éstas funciones son iguales, quiere decir que no ha existido manipulación del mensaje
Autenticación La autenticación es la situación en la cual se puede verificar que un documento ha sido elaborado (o pertenece) a quien el documento dice. Aplicado a la verificación de la identidad de un usuario, la autenticación se produce cuando el usuario puede aportar algún modo de que se pueda verificar que dicha persona es quien dice ser, a partir de ese momento se considera un usuario autorizado. Otra manera de definirlo seria, la capacidad de determinar si una determinada lista de personas ha establecido su reconocimiento sobre el contenido de un mensaje.
Disponibilidad Se trata de la capacidad de un servicio, de unos datos o de un sistema, a ser accesible y utilizable por los usuarios (o procesos) autorizados cuando estos lo requieran.
No repudio El no repudio o irrenunciabilidad es un servicio de seguridad estrechamente relacionado con la autenticación y que permite probar la participación de las partes en una comunicación. La diferencia esencial con la autenticación es que la primera se produce entre las partes que establecen la comunicación y el servicio de no repudio se produce frente a un tercero, de este modo, existirán dos posibilidades:
No repudio en origen: El emisor no puede negar que envío porque el destinatario tiene pruebas del envío, el receptor recibe una prueba infalsificable del origen del envío, lo cual evita que el emisor, de negar tal envío, tenga éxito ante el juicio de terceros. En este caso la prueba la crea el propio emisor y la recibe el destinatario No repudio en destino: El receptor no puede negar que recibió el mensaje porque el emisor tiene pruebas de la recepción. Este servicio proporciona al emisor la prueba de que el destinatario legítimo de un envío,
realmente lo recibió, evitando que el receptor lo niegue posteriormente. En este caso la prueba irrefutable la crea el receptor y la recibe el emisor. Si la autenticidad prueba quién es el autor de un documento y cual es su destinatario, el “no repudio” prueba que el autor envió la comunicación (no repudio en origen) y que el destinatario la recibió (no repudio en destino).
Relación de los servicios de seguridad
En la imagen superior se ilustra como se relacionan los diferentes servicios de seguridad, unos dependen de otros jerárquicamente, así si no existe el de mas abajo, no puede aplicarse el superior. De esta manera, la disponibilidad se convierte en el primer requisito de seguridad, cuando existe esta, se puede disponer de confidencialidad, que es imprescindible para conseguir integridad, para poder obtener autenticación es imprescindible la integridad y por ultimo el no repudio solo se obtiene si se produce previamente la autenticación.
2. ELEMENTOS VULNERABLES EN EL SISTEMA INFORMATICO En un sistema informático lo que queremos proteger son sus activos, es decir, los recursos que forman parte del sistema y que podemos agrupar en:
Hardware: elementos físicos del sistema informático, tales como procesadores, electrónica y cableado de red, medios de almacenamiento (cabinas, discos, cintas, DVDs,...). Software: elementos ló́gicos o programas que se ejecutan sobre el hardware, tanto si es el propio sistema operativo como las aplicaciones. Datos: comprenden la información lógica que procesa el software haciendo uso del hardware. En general serán informaciones estructuradas en bases de datos o paquetes de información que viajan por la red.
Otros: fungibles, personas, infraestructuras,.. aquellos que se 'usan y gastan' como puede ser la tinta y papel en las impresoras, los soportes tipo DVD o incluso cintas si las copias se hacen en ese medio, etc.
De ellos los mas críticos son los datos, el hardware y el software. Es decir, los datos que están almacenados en el hardware y que son procesados por las aplicaciones software.
Incluso de todos ellos, el activo mas crítico son los datos. El resto se puede reponer con facilidad y los datos ... sabemos que dependen de que la empresa tenga una buena política de copias de seguridad y sea capaz de reponerlos en el estado mas próximo al momento en que se produjo la pérdida. Esto puede suponer para la empresa, por ejemplo, la dificultad o imposibilidad de reponer dichos datos con lo que conllevaría de pérdida de tiempo y dinero.
Una vulnerabilidad o fallo de seguridad, es todo aquello que provoca que nuestros sistemas informáticos funcionen de manera diferente a como como funcionaban, afectando a la seguridad de los mismos, pudiendo llegar a provocar entre otras cosas la pérdida y robo de información sensible. Las amenazas pueden ser de diferentes tipos, que son hardware, software, factor humano, y datos.
Vulnerabilidades en el hardware Se pueden producir de forma intencionada o no. Incendios fortuitos en los sistemas, fallos físicos, rotura física de cables. Otras vulnerabilidades pueden ser el desgaste el uso constante del hardware dejando el hardware obsoleto hasta dejarlo inutilizable. El descuido y mal uso es otro de los factores requiriendo un mantenimiento, ya que no seguir estos hábitos supone un mayor desgaste reduciendo el tiempo de vida útil. El suministro de energía es otro punto ya que los picos de voltaje pueden dañar nuestros sistemas porque es recomendable instalar sistemas de suministro de energía.
Vulnerabilidades en el Software Los ataques al software se pueden centrar contra los programas del sistema operativo, a los programas de utilidad o a los programas de usuario. Necesita de mayores conocimientos técnicos (para los ataques hardware, por ejemplo, bastaría con unas tijeras, un mazo... cerillas...) Existe gran variedad de ataques software:
Bomba lógica: el programa incluye instrucciones que, al cumplirse una condición, provocan una distorsión del funcionamiento normal del programa, que normalmente, deriva en daños al ordenador que lo ejecuta.
Esta técnica es usada por algunos programadores. Introducen en la aplicación un código que se activa en una fecha determinada para que, si no ha cobrado por su trabajo ese día, destruya la información del ordenador en el que ha sido instalado
Código Malicioso: es cualquier software que entra en un sistema de cómputo sin ser invitado e intentar romper las reglas, esto incluye troyanos, virus, gusanos, bombas y otras amenazas.
Virus: Conocidos por todos los virus atacan a ficheros de nuestro sistema con el propósito normalmente de dañar nuestro sistema. Puertas traseras: Son programas que permiten la entrada en el sistema de manera que el usuario habitual del mismo no tenga conocimiento de este ataque. Troyanos: El objetivo de estos programas no es el mismo para el que aparentemente están diseñados. Se utilizan normalmente para instalar puertas traseras. Ingeniería Social: Consiste en mantener un trato con la persona administradora para indagar en sus costumbres o conocerla para elaborar un ataque más preparado. Esto incluye también suplantación de identidad.
Vulnerabilidades conocidas
Vulnerabilidad de desbordamiento de buffer: Si un programa no controla la cantidad de datos que se copian en buffer, puede llegar un momento en que se sobrepase la capacidad del buffer y los bytes que sobran se almacenan en zonas de memoria adyacentes.
En esta situación se puede aprovechar para ejecutar código que nos de privilegios de administrador.
Vulnerabilidad de condición de carrera (race condition): Si varios procesos acceden al mismo tiempo a un recurso compartido puede producirse este tipo de vulnerabilidad. Es el caso típico de una variable, que cambia su estado y puede obtener de esta forma un valor no esperado. Vulnerabilidad de Cross Site Scripting (XSS): Es una vulnerabilidad de las aplicaciones web, que permite inyectar código VBSript o JavaScript en páginas web vistas por el usuario. El phishing es una aplicación de esta vulnerabilidad. En el phishing la víctima cree que está accediendo a una URL (la ve en la barra de direcciones), pero en realidad está accediendo a otro sitio diferente. Si el usuario introduce sus credenciales en este sitio se las está enviando al atacante. Vulnerabilidad de denegación del servicio: La denegación de servicio hace que un servicio o recurso no esté disponible para los usuarios. Suele provocar la pérdida de la conectividad de la red por el consumo del ancho de banda de la red de la víctima o sobrecarga de los recursos informáticos del sistema de la víctima. Vulnerabilidad de ventanas engañosas (Window Spoofing): Las ventanas engañosas son las que dicen que eres el ganador de tal o cual cosa, lo cual es mentira y lo único que quieren es que el usuario de información. Hay otro tipo de ventanas que si las sigues obtienen datos del ordenador para luego realizar un ataque.
3. Amenazas.Tipos Clasificación de las amenazas: De forma general podemos agrupar las amenazas en:
Amenazas físicas Amenazas lógicas
Estas amenazas, tanto físicas como lógicas, son materializadas básicamente por:
las personas programas específicos catástrofes naturales
Podemos tener otros criterios de agrupación de las amenazas, como son:
Origen de las amenazas
Amenazas naturales: inundación, incendio, tormenta, fallo eléctrico, explosión, etc... Amenazas de agentes externos: virus informáticos, ataques de una organización criminal, sabotajes terroristas, disturbios y conflictos sociales, intrusos en la red, robos, estafas, etc... Amenazas de agentes internos: empleados descuidados con una formación inadecuada o descontentos, errores en la utilización de las herramientas y recursos del sistema, etc...
Intencionalidad de las amenazas
Accidentes: averías del hardware y fallos del software, incendio, inundación, etc... Errores: errores de utilización, de explotación, de ejecución de procedimientos, etc... Actuaciones malintencionadas: robos, fraudes, sabotajes, intentos de intrusión, etc...
Naturaleza de las amenazas La agrupación de las amenazas atendiendo al factor de seguridad que comprometen es la siguiente:
Interceptación Modificación Interrupción Fabricación
1. Flujo normal de la información: se corresponde con el esquema superior de la figura. Se garantiza:
Confidencialidad: nadie no autorizado accede a la información. Integridad: los datos enviados no se modifican en el camino. Disponibilidad: la recepción y acceso es correcto.
2. Interceptación: acceso a la información por parte de personas no autorizadas. Uso de privilegios no adquiridos.
Detección difícil, no deja huellas.
Se garantiza:
Integridad. Disponibilidad
No se garantiza:
Ejemplos:
Confidencialidad: es posible que alguien no autorizado acceda a la información
Copias ilícitas de programas Escucha en línea de datos
3. Modificación: acceso no autorizado que cambia el entorno para su beneficio.
Detección difícil según circunstancias.
Se garantiza:
Disponibilidad: la recepción es correcta.
No se garantiza:
Integridad: los datos enviados pueden ser modificados en el camino. Confidencialidad: alguien no autorizado accede a la información.
Ejemplos:
Modificación de bases de datos Modificación de elementos del HW
4. Interrupción: puede provocar que un objeto del sistema se pierda, quede no utilizable o no disponible.
Detección inmediata.
Se garantiza:
Confidencialidad: nadie no autorizado accede a la información. Integridad: los datos enviados no se modifican en el camino.
No se garantiza:
Disponibilidad: puede que la recepción no sea correcta.
Ejemplos:
Destrucción del hardware Borrado de programas, datos Fallos en el sistema operativo
5. Fabricación: puede considerarse como un caso concreto de modificación ya que se consigue un objeto similar al atacado de forma que no resulte sencillo distinguir entre objeto original y el fabricado.
Detección difícil. Delitos de falsificación.
En este caso se garantiza:
Confidencialidad: nadie no autorizado accede a la información. Integridad: los datos enviados no se modifican en el camino. Disponibilidad: la recepción es correcta.
Ejemplos:
Añadir transacciones en red Añadir registros en base de datos
Amenazas provocadas por personas La mayor parte de los ataques a los sistemas informáticos son provocados, intencionadamente o no, por las personas. ¿Qué se busca? En general lo que se busca es conseguir un nivel de privilegio en el sistema que les permita realizar acciones sobre el sistema no autorizadas. Podemos clasificar las personas 'atacantes' en dos grupos: 1. 2.
Activos: su objetivo es hacer daño de alguna forma. Eliminar información, modificar o sustraerla para su provecho. Pasivos: su objetivo es curiosear en el sistema.
Repasamos ahora todos los tipos de personas que pueden constituir una amenaza para el sistema informático sin entrar en detalles: 1. 2. 3. 4.
Personal de la propia organización Ex-empleados Curiosos Crackers
5. 6.
Terroristas Intrusos remunerados
Amenazas físicas
Dentro de las amenazas físicas podemos englobar cualquier error o daño en el hardware que se puede presentar en cualquier momento. Por ejemplo, daños en discos duros, en los procesadores, errores de funcionamiento de la memoria, etc. Todos ellos hacen que la información o no esté accesible o no sea fiable. Otro tipo de amenazas físicas son las catástrofes naturales. Por ejemplo hay zonas geográficas del planeta en las que las probabilidades de sufrir terremotos, huracanes, inundaciones, etc, son mucho mas elevadas. En estos casos en los que es la propia Naturaleza la que ha provocado el desastre de seguridad, no por ello hay que descuidarlo e intentar prever al máximo este tipo de situaciones. Hay otro tipo de catástrofes que se conocen como de riesgo poco probable. Dentro de este grupo tenemos los taques nucleares, impactos de meteoritos, etc. y que, aunque se sabe que están ahí, las probabilidades de que se desencadenen son muy bajas y en principio no se toman medidas contra ellos. Ya hemos explicado el concepto de amenaza física. Vamos a conocer ahora cuáles son las principales amenazas físicas de un sistema informático. Tipos de amenazas físicas Las amenazas físicas las podemos agrupar en las producidas por: 1. Acceso físico Hay que tener en cuenta que cuando existe acceso físico a un recurso ya no existe seguridad sobre él. Supone entonces un gran riesgo y probablemente con un impacto muy alto. A menudo se descuida este tipo de seguridad. El ejemplo típico de este tipo es el de una organización que dispone de tomas de red que no están controladas, son libres. 2. Radiaciones electromagnéticas Sabemos que cualquier aparato eléctrico emite radiaciones y que dichas radiaciones se pueden capturar y reproducir, si se dispone del equipamiento adecuado. Por ejemplo, un posible atacante podría 'escuchar' los datos que circulan por el cable telefónico. Es un problema que hoy día con las redes wifi desprotegidas, por ejemplo, vuelve a estar vigente. 3. Desastres naturales Respecto a terremotos el riesgo es reducido en nuestro entorno, ya que España no es una zona sísmica muy activa. Pero son fenómenos naturales que si se produjeran tendrían un gran impacto y no solo en términos de sistemas informáticos, sino en general para la sociedad. Siempre hay que tener en cuenta las características de cada zona en particular. Las posibilidades de que ocurra una inundación son las mismas en todas las regiones de España. Hay que conocer bien el entorno en el que están físicamente los sistemas informáticos.
4. Desastres del entorno Dentro de este grupo estarían incluidos sucesos que, sin llegar a ser desastres naturales, pueden tener un impacto igual de importante si no se disponen de las medidas de salvaguarda listas y operativas. Puede ocurrir un incendio o un apagón y no tener bien definidas las medidas a tomar en estas situaciones o simplemente no tener operativo el SAI que debería responder de forma inmediata al corte de suministro eléctrico. Descripcion de algunas amenazas físicas Veamos algunas amenazas físicas a las que se puede ver sometido un CPD y alguna sugerencia para evitar este tipo de riesgo.
Por acciones naturales: incendio, inundación, condiciones climatológicas, señales de radar, instalaciones eléctricas, ergometría, … Por acciones hostiles: robo, fraude, sabotaje,... Por control de accesos: utilización de guardias, utilización de detectores de metales, utilización de sistemas biométricos, seguridad con animales, protección electrónica,...
Como se puede comprobar, evaluar y controlar permanentemente la seguridad física del edificio que alberga el CPD es la base para comenzar a integrar la seguridad como una función primordial dentro de cualquier organismo. Tener controlado el ambiente y acceso físico permite:
disminuir siniestros trabajar mejor manteniendo la sensación de seguridad descartar falsas hipótesis si se produjeran incidentes tener los medios para luchar contra accidentes
Las distintas alternativas enumeradas son suficientes para conocer en todo momento el estado del medio en el que se trabaja y así tomar decisiones en base a la información ofrecida por los medios de control adecuados. Estas decisiones pueden variar desde el conocimiento de la áreas que recorren ciertas personas hasta la extremo de evacuar el edificio en caso de accidentes.
Amenazas lógicas
El punto más débil de un sistema informático son las personas relacionadas en mayor o menor medida con él. Puede ser inexperiencia o falta de preparación, o sin llegar a ataques intencionados propiamente, simplemente sucesos accidentales. Pero que, en cualquier caso, hay que prevenir. Entre algunos de los ataques potenciales que pueden ser causados por estas personas, encontramos:
Ingeniería social: consiste en la manipulación de las personas para que voluntariamente realicen actos que normalmente no harían. Shoulder Surfing: consiste en "espiar" físicamente a los usuarios para obtener generalmente claves de acceso al sistema. Masquerading: consiste en suplantar la identidad de cierto usuario autorizado de un sistema informático o su entorno. Basureo: consiste en obtener información dejada en o alrededor de un sistema informático tras la ejecución de un trabajo. Actos delictivos: son actos tipificados claramente como delitos por las leyes, como el chantaje, el soborno o la amenaza. Atacante interno: la mayor amenaza procede de personas que han trabajado o trabajan con los sistemas. Estos posibles atacantes internos deben disponer de los privilegio mínimos, conocimiento parcial, rotación de funciones y separación de funciones, etc.
Atacante externo: suplanta la identidad de un usuario legítimo. Si un atacante externo consigue penetrar en el sistema, ha recorrido el 80% del camino hasta conseguir un control total de un recurso.
Algunas amenazas lógicas Las amenazas lógicas comprenden una serie de programas que pueden dañar el sistema informático. Y estos programas han sido creados:
de forma intencionada para hacer daño: software malicioso o malware (malicious software) por error: bugs o agujeros.
Enumeramos algunas de las amenazas con las que nos podemos encontrar: 1. Software incorrecto Son errores de programación (bugs) y los programas utilizados para aprovechar uno de estos fallos y atacar al sistema son los exploits. Es la amenaza más habitual, ya que es muy sencillo conseguir un exploit y utilizarlo sin tener grandes conocimientos. 2. Exploits Son los programas que aprovechan una vulnerabilidad del sistema. Son específicos de cada sistema operativo, de la configuración del sistema y del tipo de red en la que se encuentren. Pueden haber exploits diferentes en función del tipo de vulnerabilidad. 3. Herramientas de seguridad Puede ser utilizada para detectar y solucionar fallos en el sistema o un intruso puede utilizarlas para detectar esos mismos fallos y aprovechar para atacar el sistema. Herramientas como Nessus o Satan pueden ser útiles pero también peligrosas si son utilizadas por crackers buscando información sobre las vulnerabilidades de un host o de una red completa. 4. Puertas traseras Durante el desarrollo de aplicaciones los programadores pueden incluir 'atajos' en los sistemas de autenticación de la aplicación. Estos atajos se llaman puertas traseras, y con ellos se consigue mayor velocidad a la hora de detectar y depurar fallos. Si estas puertas traseras, una vez la aplicación ha sido finalizada, no se destruyen, se está dejando abierta una puerta de entrada rápida. 5. Bombas lógicas Son partes de código que no se ejecutan hasta que se cumple una condición. Al activarse, la función que realizan no esta relacionada con el programa, su objetivo es es completamente diferente.
6. Virus Secuencia de código que se incluye en un archivo ejecutable (llamado huésped), y cuando el archivo se ejecuta, el virus también se ejecuta, propagándose a otros programas. 7. Gusanos Programa capaz de ejecutarse y propagarse por sí mismo a través de redes, y puede llevar virus o aprovechar bugs de los sistemas a los que conecta para dañarlos. 8. Caballos de Troya
Los caballos de Troya son instrucciones incluidas en un programa que simulan realizar tareas que se esperan de ellas, pero en realidad ejecutan funciones con el objetivo de ocultar la presencia de un atacante o para asegurarse la entrada en caso de ser descubierto. 9. Spyware Programas espía que recopilan información sobre una persona o una organización sin su conocimiento. Esta información luego puede ser cedida o vendida a empresas publicitarias. Pueden recopilar información del teclado de la víctima pudiendo así conocer contraseña o nº de cuentas bancarias o pines. 10. Adware Programas que abren ventanas emergentes mostrando publicidad de productos y servicios. Se suele utilizar para subvencionar la aplicación y que el usuario pueda bajarla gratis u obtener un descuento. Normalmente el usuario es consciente de ello y da su permiso. 11. Spoofing Técnicas de suplantación de identidad con fines dudosos. 12. Phishing Intenta conseguir información confidencial de forma fraudulenta (conseguir contraseñas o pines bancarios) haciendo una suplantación de identidad. Para ello el estafador se hace pasar por una persona o empresa de la confianza del usuario mediante un correo electrónico oficial o mensajería instantánea, y de esta forma conseguir la información. 13. Spam Recepción de mensajes no solicitados. Se suele utilizar esta técnica en los correos electrónicos, mensajería instantánea y mensajes a móviles. 14. Programas conejo o bacterias Programas que no hacen nada, solo se reproducen rápidamente hasta que el número de copias acaba con los recursos del sistema (memoria, procesador, disco, etc.).
15. Técnicas salami Robo automatizado de pequeñas cantidades dinero de una gran cantidad origen. Es muy difícil su detección y se suelen utilizar para atacar en sistemas bancarios.
4. Seguridad fisica y ambiental
Sistemas de alimentación interrumpida
Un SAI es un dispositivo que gracias a sus baterías puede proporcionarte energía eléctrica tras un apagón a todos los dispositivos que tengas conectados durante un tiempo ilimitado permitiendo poder apagar los equipos sin que sufran fuertes sus fuentes de alimentación. Los dispositivos hardware no irán enchufados a las tomas de corriente directamente se enchufaran al SAI que estará conectado al enchufe, asiendo de este modo el intermediario entre la red eléctrica y los dispositivos hardware. Otra de las funciones de los SAI es mejorar la calidad de la energía eléctrica que llega a los aparatos filtrando subidas y bajadas de tensión y eliminando armónicos en caso de usar corriente alterna. Los SAI dan energía eléctrica a equipos llamados cargar criticas como pueden ser aparatos médicos, industriales o informáticos que requieren tener siempre alimentación y que esta sea de calidad
2.2.1 Causas y efectos de los problemas de la red eléctrica El papel de un SAI es suministrar potencia eléctrica en ocasiones de fallo de suministro en un intervalo corto sin embargo muchos sistemas de alimentación interrumpida son capaces de corregir otros fallos de suministro. Los nueves problemas de la energía son : 1.
2.
3.
4.
5.
6.
7.
8.
9.
Corte de energía o apagones: Es la perdida total de suministro eléctrico causado por relámpagos fallos de la linea de energía, excesos de demandas accidentes y desastres naturales. Pueden causar daños en el equipo electrónico, perdida de datos, o parada del sistema. Bajada de voltaje momentánea o micro-cortes: Es la caída momentánea del voltaje generada por el arranque de grandes cargas encendidos de maquinarias pesadas o fallos de equipos, se presenta de manera similar a los apagones pero en oleadas repentinas, causa principalmente daños al hardware y perdida de datos. Ciclo de tensión o altos voltajes momentáneos: Producidos por una rápida reducción de cargas cuando el equipo pesado es apagado, o por voltajes que están por encima del ciento diez por ciento de la nominal, los resultados pueden ser daños irreversibles. Bajadas de tensión sostenidas: Bajo voltaje sostenido en la linea por periodos largos de unos cuantos minutos, horas y hasta días pueden ser causados por una reducción intencionada de la tensión para conservar energías durante los periodos de mayor demanda. Puede causar daños al hardware principalmente. Sobrevoltaje o lineas de tensión: sobrevoltaje en la linea por periodos largos. Puede ser causado por un relámpago y puede incrementar el voltaje de la linea hasta 6000 volteos en exceso casi siempre ocasiona perdidas de la información y daños del hardaware. Ruido eléctrico: Interferencias de alta frecuencia causada por radiofrecuencia o interferencias electromagnéticas, pueden ser causadas por transmisores, maquinas de soldar, impresoras, relámpagos,.... Introduce errores en los programas y archivos así como daños a los componentes electrónicos. Variación de frecuencia: Se refiere a un cambio de estabilidad de la frecuencia, resultado de un generador o pequeños sitios de cogeneracion siendo cargados o descargados, puede causar funcionamiento errático de los equipos, perdidas de información, caídas del sistema y daños de equipos. Transientes o micropicos: Es la caída instantánea del voltaje en el rango de los nanosegundos, la duración normal es mas corta que un pico , puede originar comportamientos extraños y proporcionado estrés en los componentes electrónicos quedando propensos a fallos. Distorsión armónica: Es la distorsión de la onda normal, causadas por cargas no lineales conectadas a la misma red de los equipos informáticos y/o aplicaciones criticas: maquinas fax, copiadoras, son ejemplos de cargas no lineales puede provocar sobrecalentamiento en los ordenadores errores de comunicación y daño del hardware.
Consecuencias:
Un mal suministro de energía eléctrica afecta a la productividad de las empresas, ya que destruye información, dañan las infraestructuras, generan estrés y generan perdidas.
2.2.2 Tipos de SAIs Según el tipo de energía eléctrica que producen a su salida hay dos tipos:
SAI de continua: Los equipos o cargas conectados a los SAI requieren una alimentación de corriente continua por lo tanto estos transformaran corriente alterna a la red a corriente continua y la usaran para alimentar a la carga y almacenarla en su batería, por lo tanto no requieren convertidores en la batería y las cargas. SAI de alterna: Estos SAIs obtienen en su salida una señal alterna por lo que necesitan un inversor para transformar la señal continua que tienen las baterías en una señal alterna. Habitualmente es el tipo de SAI que se comercializa ya que los equipos informáticos requieren corriente alterna para su funcionamiento, la mayoría de los SAI comerciales permiten conexión de red o red local entre PC y el sai para motorizar su estado en el PC mediante el software según los fallos eléctricos que corrigen disponibilidad, habilidad, etc se pueden clasificar en: SAI offline o interactivo no senoidal (protección nivel 3 equipos básicos): Por su precio es el más extendido, sobre todo para la protección de pequeñas cargas. Estos tipos de sai alimentan las cargas criticas con una seguridad protección relativa dependiendo de tipo offline(estabilizados o/y con o sin filtros). Dentro de una escala de 1 al 100 estarían entre 40-60 en relación a protección. Básicamente los equipos ofline actúan en el momento en que la red desaparece o baja por debajo de los 220 voltios, y produciendo en el cambio de red a baterías un pequeño micro-corte en el cual para una mayoría de equipos eléctricos e informáticos es inapreciable no así para equipos muy sostificados. SAI on-line y line interactive(protección nivel 5): El SAI on-line cumple verdaderamente para todos los problemas ocasionados por fallos en la compañía eléctrica tanto como por otros problemas ocasionados por las lineas eléctricas dentro de polígonos industriales, y oficinas como puede ser el ruido eléctrico, suele dar una protección de 70-90 sobre 100. Existen diferentes tipos pero todos cumplen su función dejando pocas ventanas abiertas a posibles problemas. SAI on-line doble conversión (protección de nivel nueve): La verdadera diferencia de los SAI se encuentra en los equipos ya que off line linea interactiva y on-line de una conversión depende de una u otra manera de la entrada eléctrica al equipo cumpla una mínimas condiciones para el correcto funcionamiento de los equipos. Los equipos de doble conversión no depende de la linea de entrada para trabajar con una doble conversión de eliminando por completo todos los problemas ocasionados por la compañías eléctricas ademas de los problemas meteorológicos.
Sistemas biométricos
Definimos la biometría como la parte de la biología que estudia de forma cuantitativa la variabilidad individual de los seres vivos utilizando métodos estadísticos. La biometría es una tecnología que realiza mediciones de forma electrónica, guardad compara características únicas, para la identificación de personas. La forma de identificación consiste en la comparación de características físicas de cada persona, por un patrón conocido y almacenado en una base de datos. Los lectores biométricos que identifican a la persona por lo que es manos, ojos, huellas digitales y voz. Beneficios de una tecnología biométrica:
Pueden eliminar la necesidad de poseer una tarjeta para acceder y de una contraseña difícil de recordar o que finalmente acabe escrita en una papel y visible para cualquier persona. Los coste de administración son mas pequeños se realizan un mantenimiento del lector y una persona se encarga de mantener una base de datos. Además las características biometrícas son intransferibles a otra persona.
La emisión de calor: Se mide la emisión de calor del cuerpo (termo-grama) realizando un mapa de valores sobre la forma de cada persona. Huella digital: Pasado en el principio no existe dos huellas digitales idénticas, este sistema viene siendo usado desde el siglo pasado con excelentes resultados. Cada huella digital posee pequeños arcos, ángulos, bucles, remolinos llamados minucias. Características y la posición de cada una de ellas es lo analizado para establecer la identificación de una persona. Esta testado que cada persona posee 30 minucias y que dos personas no tiene mas de 8 minucias iguales de lo que hace el método sumamente fiable. Verificación de la voz: La emisión de una o mas frases es grabada y en el acceso se compara la voz, entonación,
diptongos, agudeza, etc.... Este sistema es muy sensible a factores externos como el ruido, el estado de animo, enfermedades, envejecimiento, etc Verificación de patrones oculares: Estos modelos esta basados en los patrones del iris o la retina y en estos momentos son los considerados en lo mas eficaces. Su principal resistencia por parte de las personas a que les analice los ojos por rebelarse en los mismo enfermedades que en ocasiones se quieran mantener en secreto. Verificación automática de firmas: Mientras es posible para que falsificador producir una buena copia visual o facesinin es extremadamente difícil reproducir la dinámicas de una persona, por ejemplo, las firmas que genuinan con exactitud. Esta técnica usada visiones acústicas toma los datos del proceso dinámico de firmas o de escribir. La secuencia sonora de emisión acústica generada en el proceso de escribir constituyen un patrón que es único en cada individuo. EL patrón contiene información expresa sobre la manera en que la escritura es ejecutada, el equipamiento de colección de firmas es inherentemente de bajo coste y robusto, excepcionalmente consta de un bloque de metal por un otro material con propiedades acústicas similares y una computadora con bases de datos con patrones de firmas asociadas a cada usuario. Existe unas otras soluciones a la biometría mas complejas y menos usadas en acceso a organizaciones o a un sistemas informático concreto como son la geometría de las manos y el reconocimiento facial.
5. Seguridad logica La seguridad lógica se refiere a la seguridad en el uso de software y los sistemas, la protección de los datos, procesos y programas, así como la del acceso ordenado y autorizado de los usuarios a la información. La “seguridad lógica” involucra todas aquellas medidas establecidas por la administración -usuarios y administradores de recursos de tecnología de información- para minimizar los riesgos de seguridad asociados con sus operaciones cotidianas llevadas a cabo utilizando la tecnología de información. El Manual sobre Normas Técnicas de Control Interno Relativas a los Sistemas de Información Computadorizados emitido por la Contraloría General de la República, establece en la norma Nº 305-03 sobre seguridad lógica, que el acceso a los archivos de datos y programas sólo se permitirá al personal autorizado. Los principales objetivos que persigue la seguridad lógica son:
Restringir el acceso a los programas y archivos
Asegurar que se estén utilizando los datos, archivos y programas correctos en y por el procedimiento correcto.
Una copia de seguridad o backup (su nombre en inglés) en tecnología de la información o informática es una copia de seguridad - o el proceso de copia de seguridad - con el fin de que estas copias adicionales puedan utilizarse para restaurar el original después de una eventual pérdida de datos. Fundamentalmente son útiles para tres cosas: Primero: recuperarse de una catástrofe informática, Segundo: recuperar una pequeña cantidad de archivos que pueden haberse eliminado accidentalmente o corrompido. La pérdida de datos es muy común: El 66% de los usuarios de internet han sufrido una seria pérdida de datos. Ya que los sistemas de respaldo contienen por lo menos una copia de todos los datos que vale la pena salvar, deben de tenerse en cuenta los requerimientos de almacenamiento. La organización del espacio de almacenamiento y la administración del proceso de efectuar la copia de seguridad son tareas complicadas. Para brindar una estructura de almacenamiento es conveniente utilizar un modelo de almacenaje de datos.
Antes de que los datos sean enviados a su lugar de almacenamiento se lo debe seleccionar, extraer y manipular. Se han desarrollado muchas técnicas diferentes para optimizar el procedimiento de efectuar los backups. Estos procedimientos incluyen entre otros optimizaciones para trabajar con archivos abiertos y fuentes de datos en uso y también incluyen procesos de compresión, cifrado, y procesos de duplicación, entendiéndose por esto último a una
forma específica de compresión donde los datos superfluos son eliminados. Muchas organizaciones e individuos tratan de asegurarse que el proceso de backup se efectúe de la manera esperada y trabajan en la evaluación y la validación de las técnicas utilizadas. También es importante reconocer las limitaciones y los factores humanos que están involucrados en cualquier esquema de backup que se utilice. Las copias de seguridad garantizan dos objetivos: integridad y disponibilidad.
Copias de seguridad e imagenes de respaldo
Tipos de copia de seguridad La utilidad Copia de seguridad admite cinco métodos para hacer copia de seguridad de los datos del equipo o de la red.
Copia de seguridad de copia
Copia todos los archivos seleccionados pero no los marca individualmente como copiados (es decir, no desactiva el atributo de modificado). Este método es útil cuando desea realizar copias de seguridad de archivos entre copias de seguridad normales e incrementales, ya que no afecta a estas otras operaciones.
Copia de seguridad diaria
Copia todos los archivos seleccionados que se hayan modificado el día en que se realiza la copia diaria. Los archivos incluidos en la copia de seguridad no se marcan como copiados (es decir, no se desactiva el atributo de modificado).
Copia de seguridad diferencial
Copia los archivos creados o modificados desde la última copia de seguridad normal o incremental. Los archivos no se marcan como copiados (es decir, no se desactiva el atributo de modificado). Si realiza una combinación de copias de seguridad normal y diferencial, para restaurar los archivos y las carpetas debe disponer de la última copia de seguridad normal y de la última copia de seguridad diferencial.
Copia de seguridad incremental
Sólo copia los archivos creados o modificados desde la última copia de seguridad normal o incremental. Marca los archivos como copiados (es decir, se desactiva el atributo de modificado). Si usa una combinación de copias de seguridad normal e incremental, la restauración de los datos debe realizarse con el último conjunto copia de seguridad normal y todos los conjuntos de copia de seguridad incremental.
Copia de seguridad normal
Copia todos los archivos seleccionados y los marca como copiados (es decir, se desactiva el atributo de modificado). En las copias de seguridad normales sólo necesita la copia más reciente del archivo o la cinta que contiene la copia de seguridad para restaurar todos los archivos. Las copias de seguridad normales se suelen realizar al crear por primera vez un conjunto de copia de seguridad. La combinación de copias de seguridad normales e incrementales utiliza el mínimo espacio de almacenamiento posible y es el método de copia de seguridad más rápido. Sin embargo, la recuperación de archivos puede ser difícil y laboriosa ya que el conjunto de copia de seguridad puede estar repartido entre varios discos o cintas. Si realiza una copia de seguridad de sus datos empleando una combinación de copias de seguridad normales y diferenciales consumirá más tiempo, especialmente si los datos sufren cambios frecuentes, aunque será más fácil restaurar los datos ya que el conjunto de copia de seguridad sólo estará repartido en unos pocos discos o cintas.
Copia de seguridad normal
Copia todos los archivos seleccionados y los marca como copiados (es decir, se desactiva el atributo de modificado). En las copias de seguridad normales sólo necesita la copia más reciente del archivo o la cinta que contiene la copia de seguridad para restaurar todos los archivos. Las copias de seguridad normales se suelen realizar al crear por primera vez un conjunto de copia de seguridad. La combinación de copias de seguridad normales e incrementales utiliza el mínimo espacio de almacenamiento posible y es el método de copia de seguridad más rápido. Sin embargo, la recuperación de archivos puede ser difícil y laboriosa ya que el conjunto de copia de seguridad puede estar repartido entre varios discos o cintas. Si realiza una copia de seguridad de sus datos empleando una combinación de copias de seguridad normales y diferenciales consumirá más tiempo, especialmente si los datos sufren cambios frecuentes, aunque será más fácil restaurar los datos ya que el conjunto de copia de seguridad sólo estará repartido en unos pocos discos o cintas.
Medios de almacenamiento
Las unidades de almacenamiento son dispositivos o periféricos del sistema, que actúan como medio de soporte para la grabación de los programas de usuario y de los datos que son manejados por las aplicaciones que se ejecutan en estos sistemas; en otras palabras nos sirven para guardar la información en nuestro computador.
Estos dispositivos realizan las operaciones de lectura o escritura de los medios o soportes donde se almacenan o guardan, lógica y físicamente, los archivos de un sistema informático. Los dispositivos que no se utilizan exclusivamente para grabación (por ejemplo manos, bocas, instrumentos musicales) y dispositivos que son intermedios en el proceso de almacenamiento y recuperación (por ejemplo, ojos, oídos, cámaras, escáneres, micrófonos, altavoces, monitores, proyectores de vídeo) no son por lo general considerados como dispositivos de almacenamiento. Los dispositivos usados exclusivamente para grabación (por ejemplo impresoras), exclusivamente para lectura (por ejemplo lectores de códigos de barras), o los dispositivos que procesan solamente una forma de información (por ejemplo fonógrafos) pueden o no considerarse dispositivos de almacenamiento. En computación éstos se conocen como dispositivos de entrada-salida.
Disco duro Los discos duros tienen una gran capacidad de almacenamiento de información, pero al estar alojados normalmente dentro de la computadora (discos internos), no son extraíbles fácilmente. Para intercambiar información con otros equipos (si no están conectados en red) se tienen que utilizar unidades de disco, como los disquetes, los discos ópticos (CD, DVD), los discos magneto-ópticos, memorias USB o las memorias flash, entre otros. El disco duro almacena casi toda la información que manejamos al trabajar con una computadora. En él se aloja, por ejemplo, el sistema operativo que permite arrancar la máquina, los programas, archivos de texto, imagen, vídeo, etc. Dicha unidad puede ser interna (fija) o externa (portátil), dependiendo del lugar que ocupe en el gabinete o caja de computadora. Un disco duro está formado por varios discos apilados sobre los que se mueve una pequeña cabeza magnética que graba y lee la información. Este componente, al contrario que el micro o los módulos de memoria, no se pincha directamente en la placa, sino que se conecta a ella mediante un cable. También va conectado a la fuente de alimentación, pues, como cualquier otro componente, necesita energía para funcionar. Además, una sola placa puede tener varios discos duros conectados.
Las características principales de un disco duro son:
Capacidad: Se mide en gigabytes (GB). Es el espacio disponible para almacenar secuencias de 1 byte. La capacidad aumenta constantemente desde cientos de MB, decenas de GB, cientos de GB y hasta TB.
Velocidad de giro: Se mide en revoluciones por minuto (RPM). Cuanto más rápido gire el disco, más rápido podrá acceder a la información la cabeza lectora. Los discos actuales giran desde las 4.200 a 15.000 RPM, dependiendo del tipo de ordenador al que estén destinadas.
Capacidad de transmisión de datos: De poco servirá un disco duro de gran capacidad si transmite los datos lentamente. Los discos actuales pueden alcanzar transferencias de datos de 3 GB por segundo.
También existen discos duros externos que permiten almacenar grandes cantidades de información. Son muy útiles para intercambiar información entre dos equipos. Normalmente se conectan al PC mediante un conector USB. Cuando el disco duro está leyendo, se enciende en la carcasa un LED (de color rojo, verde u otro). Esto es útil para saber, por ejemplo, si la máquina ha acabado de realizar una tarea o si aún está procesando datos. Disquetera La unidad de 3,5 pulgadas permite intercambiar información utilizando disquetes magnéticos de 1,44 MB de capacidad. Aunque la capacidad de soporte es muy limitada si tenemos en cuenta las necesidades de las aplicaciones actuales se siguen utilizando para intercambiar archivos pequeños, pues pueden borrarse y reescribirse cuantas veces se desee de una manera muy cómoda, aunque la transferencia de información es bastante lenta si la comparamos con otros soportes, como el disco duro o un CD-ROM. Para usar el disquete basta con introducirlo en la ranura de la disquetera. Para expulsarlo se pulsa el botón situado junto a la ranura, o bien se ejecuta alguna acción en el entorno gráfico con el que trabajamos (por ejemplo, se arrastra el símbolo del disquete hasta un icono representado por una papelera). La unidad de disco se alimenta mediante cables a partir de la fuente de alimentación del sistema. Y también va conectada mediante un cable a la placa base. Un diodo LED se ilumina junto a la ranura cuando la unidad está leyendo el disco, como ocurre en el caso del disco duro. En los disquetes solo se puede escribir cuando la pestaña esta cerrada.
Cabe destacar que el uso de este soporte en la actualidad es escaso o nulo, puesto que se ha vuelto obsoleto teniendo en cuenta los avances que en materia de tecnología se han producido. Unidad de CD-ROM o "lectora“ La unidad de CD-ROM permite utilizar discos ópticos de una mayor capacidad que los disquetes de 3,5 pulgadas: hasta 700 MB. Ésta es su principal ventaja, pues los CD-ROM se han convertido en el estándar para distribuir sistemas operativos, aplicaciones, etc. El uso de estas unidades está muy extendido, ya que también permiten leer los discos compactos de audio. Para introducir un disco, en la mayoría de las unidades hay que pulsar un botón para que salga una especie de bandeja donde se deposita el CD-ROM. Pulsando nuevamente el botón, la bandeja se introduce. En estas unidades, además, existe una toma para auriculares, y también pueden estar presentes los controles de navegación y de volumen típicos de los equipos de audio para saltar de una pista a otra, por ejemplo. Una característica básica de las unidades de CD-ROM es la velocidad de lectura, que normalmente se expresa como un número seguido de una «x» (40x, 52x,..). Este número indica la velocidad de lectura en múltiplos de 128 kB/s. Así, una unidad de 52x lee información de 128 kB/s × 52 = 6,656 kB/s, es decir, a 6,5 MB/s.
Unidad de CD-RW (regrabadora) o "grabadora“ Las unidades de CD-ROM son de sólo lectura. Es decir, pueden leer la información en un disco, pero no pueden escribir datos en él. Una regrabadora puede grabar y regrabar discos compactos. Las características básicas de estas unidades son la velocidad de lectura, de grabación y de regrabación. En los discos regrabables es normalmente menor que en los discos que sólo pueden ser grabados una vez. Las regrabadoras que trabajan a 8X, 16X, 20X, 24X, etc., permiten grabar los 650, 700 o más megabytes (hasta 900 MB) de un disco compacto en unos pocos minutos. Es habitual observar tres datos de velocidad, según la expresión ax bx cx (a:velocidad de lectura; b: velocidad de grabación; c: velocidad de regrabación). Unidad de DVD-ROM o "lectora de DVD“ Las unidades de DVD-ROM son aparentemente iguales que las de CD-ROM, pueden leer tanto discos DVD-ROM como CD-ROM. Se diferencian de las unidades lectoras de CD-ROM en que el soporte empleado tiene hasta 17 GB de capacidad, y en la velocidad de lectura de los datos. La velocidad se expresa con otro número de la «x»: 12x, 16x... Pero ahora la x hace referencia a 1,32 MB/s. Así: 16x = 21,12 MB/s. Unidad de DVD-RW o "grabadora de DVD“ Puede leer y grabar y regrabar imágenes, sonido y datos en discos de varios gigabytes de capacidad, de una capacidad de 650 MB a 9 GB. Unidad de disco magneto-óptico La unidad de discos magneto-ópticos permiten el proceso de lectura y escritura de dichos discos con tecnología híbrida de los disquetes y los discos ópticos, aunque en entornos domésticos fueron menos usadas que las disqueteras y las unidades de CD-ROM, pero tienen algunas ventajas en cuanto a los disquetes: Por una parte, admiten discos de gran capacidad: 230 MB, 640 Mb o 1,3 GB. Además, son discos reescribibles, por lo que es interesante emplearlos, por ejemplo, para realizar copias de seguridad.
Lector de tarjetas de memoria El lector de tarjetas de memoria es un periférico que lee o escribe en soportes de memoria flash. Actualmente, los instalados en computadores (incluidos en una placa o mediante puerto USB), marcos digitales, lectores de DVD y otros dispositivos, suelen leer varios tipos de tarjetas. Una tarjeta de memoria es un pequeño soporte de almacenamiento que utiliza memoria flash para guardar la información que puede requerir o no baterías (pilas), en los últimos modelos la batería no es requerida, la batería era utilizada por los primeros modelos. Estas memorias son resistentes a los rasguños externos y al polvo que han afectado a las formas previas de almacenamiento portátil, como los CD y los disquetes. Otros dispositivos de almacenamiento
Otros dispositivos de almacenamiento son las memorias flash o los dispositivos de almacenamiento magnéticos de gran capacidad.
Cinta perforada: se trata de un medio muy obsoleto, consistente en tarjetas o cintas de papel perforadas.
Memoria flash: Es un tipo de memoria que se comercializa para el uso de aparatos portátiles, como cámaras digitales o agendas electrónicas. El aparato correspondiente o bien un lector de tarjetas, se conecta a la computadora a través del puerto USB o Firewire.
Discos y cintas magnéticas de gran capacidad: Son unidades especiales que se utilizan para realizar copias de seguridad o respaldo en empresas y centros de investigación. Su capacidad de almacenamiento puede ser de cientos de gigabytes.
Almacenamiento en línea: Hoy en día también debe hablarse de esta forma de almacenar información. Esta modalidad permite liberar espacio de los equipos de escritorio y trasladar los archivos a discos rígidos remotos provistos que garantizan normalmente la disponibilidad de la información. En este caso podemos hablar de dos tipos de almacenamiento en línea: un almacenamiento de corto plazo normalmente destinado a la transferencia de grandes archivos vía web; otro almacenamiento de largo plazo, destinado a conservar información que normalmente se daría en el disco rígido del ordenador personal.
En informática , (el acrónimo 'RAID Redundant Array of Inexpensive Disks, «conjunto redundante de discos independientes») hace referencia a un sistema de almacenamiento que usan múltiples discos duros o SSD entre los que se distribuyen o replican los datos. Dependiendo de su configuración (a la que suele llamarse «nivel»), los beneficios de un RAID respecto a un único disco son uno o varios de los siguientes: mayor integridad, mayor tolerancia a fallos, mayor throughput (rendimiento) y mayor capacidad. En sus implementaciones originales, su ventaja clave era la habilidad de combinar varios dispositivos de bajo coste y tecnología más antigua en un conjunto que ofrecía mayor capacidad, fiabilidad, velocidad o una combinación de éstas que un solo dispositivo de última generación y coste más alto. En el nivel más simple, un RAID combina varios discos duros en una sola unidad lógica. Así, en lugar de ver varios discos duros diferentes, el sistema operativo ve uno solo. Los RAIDs suelen usarse en servidores y normalmente (aunque no es necesario) se implementan con unidades de disco de la misma capacidad. Debido al decremento en el precio de los discos duros y la mayor disponibilidad de las opciones RAID incluidas en los chipsets de las placas base, los RAIDs se encuentran también como opción en las computadoras personales más avanzadas. Esto es especialmente frecuente en las computadoras dedicadas a tareas intensivas y que requiera asegurar la integridad de los datos en caso de fallo del sistema. Esta característica no está obviamente disponible en los sistemas RAID por software, que suelen presentar por tanto el problema de reconstruir el conjunto de discos cuando el sistema es reiniciado tras un fallo para asegurar la integridad de los datos. Por el contrario, los sistemas basados en software son mucho más flexibles (permitiendo, por ejemplo, construir RAID de particiones en lugar de discos completos y agrupar en un mismo RAID discos conectados en varias controladoras) y los basados en hardware añaden un punto de fallo más al sistema (la controladora RAID).
Todas las implementaciones pueden soportar el uso de uno o más discos de reserva (hot spare), unidades preinstaladas que pueden usarse inmediatamente (y casi siempre automáticamente) tras el fallo de un disco del RAID. Esto reduce el tiempo del período de reparación al acortar el tiempo de reconstrucción del RAID.
RAID 0 (Data Striping) Un RAID 0 (también llamado conjunto dividido, volumen dividido, volumen seccionado) distribuye los datos equitativamente entre dos o más discos sin información de paridad que proporcione redundancia. Es importante señalar que el RAID 0 no era uno de los niveles RAID originales y que no es redundante. El RAID 0 se usa normalmente para incrementar el rendimiento, aunque también puede utilizarse como forma de crear un pequeño número de grandes discos virtuales a partir de un gran número de pequeños discos físicos. Un RAID 0 puede ser creado con discos de diferentes tamaños, pero el espacio de almacenamiento añadido al conjunto estará limitado por el tamaño del disco más pequeño (por ejemplo, si un disco de 300 GB se divide con uno de 100 GB, el tamaño del conjunto resultante será sólo de 200 GB, ya que cada disco aporta 100GB). Una buena implementación de un RAID 0 dividirá las operaciones de lectura y escritura en bloques de igual tamaño, por lo que distribuirá la información equitativamente entre los dos discos. También es posible crear un RAID 0 con más de dos discos, si bien, la fiabilidad del conjunto será igual a la fiabilidad media de cada disco entre el número de discos del conjunto; es decir, la fiabilidad total —medida como MTTF o MTBF— es (aproximadamente) inversamente proporcional al número de discos del conjunto (pues para que el conjunto falle es suficiente con que lo haga cualquiera de sus discos). RAID 1 Un RAID 1 crea una copia exacta (o espejo) de un conjunto de datos en dos o más discos. Esto resulta útil cuando el rendimiento en lectura es más importante que la capacidad. Un conjunto RAID 1 sólo puede ser tan grande como el más pequeño de sus discos. Un RAID 1 clásico consiste en dos discos en espejo, lo que incrementa exponencialmente la fiabilidad respecto a un solo disco; es decir, la probabilidad de fallo del conjunto es igual al producto de las probabilidades de fallo de cada uno de los discos (pues para que el conjunto falle es necesario que lo hagan todos sus discos). Adicionalmente, dado que todos los datos están en dos o más discos, con hardware habitualmente independiente, el rendimiento de lectura se incrementa aproximadamente como múltiplo lineal del número del copias; es decir, un RAID 1 puede estar leyendo simultáneamente dos datos diferentes en dos discos diferentes, por lo que su rendimiento se duplica. Para maximizar los beneficios sobre el rendimiento del RAID 1 se recomienda el uso de controladoras de disco independientes, una para cada disco (práctica que algunos denominan splitting o duplexing). Como en el RAID 0, el tiempo medio de lectura se reduce, ya que los sectores a buscar pueden dividirse entre los discos, bajando el tiempo de búsqueda y subiendo la tasa de transferencia, con el único límite de la velocidad soportada por la controladora RAID. Sin embargo, muchas tarjetas RAID 1 IDE antiguas leen sólo de un disco de la pareja, por lo que su rendimiento es igual al de un único disco. Algunas implementaciones RAID 1 antiguas también leen de ambos discos simultáneamente y comparan los datos para detectar errores. Al escribir, el conjunto se comporta como un único disco, dado que los datos deben ser escritos en todos los discos del RAID 1. Por tanto, el rendimiento no mejora. El RAID 1 tiene muchas ventajas de administración. Por ejemplo, en algunos entornos 24/7, es posible «dividir el espejo»: marcar un disco como inactivo, hacer una copia de seguridad de dicho disco y luego «reconstruir» el espejo. Esto requiere que la aplicación de gestión del conjunto soporte la recuperación de los datos del disco en el momento de la división. Este procedimiento es menos crítico que la presencia de una característica de snapshot en algunos sistemas de archivos, en la que se reserva algún espacio para los cambios, presentando una vista estática en un punto temporal dado del sistema de archivos. Alternativamente, un conjunto de discos puede ser almacenado de forma parecida a como se hace con las tradicionales cintas. RAID 5
Un RAID 5 es una división de datos a nivel de bloques distribuyendo la información de paridad entre todos los discos miembros del conjunto. El RAID 5 ha logrado popularidad gracias a su bajo coste de redundancia. Generalmente, el RAID 5 se implementa con soporte hardware para el cálculo de la paridad. RAID 5 necesitará un mínimo de 3 discos para ser implementado. En el gráfico de ejemplo anterior, una petición de lectura del bloque «A1» sería servida por el disco 0. Una petición de lectura simultánea del bloque «B1» tendría que esperar, pero una petición de lectura de «B2» podría atenderse concurrentemente ya que seria servida por el disco 1. Cada vez que un bloque de datos se escribe en un RAID 5, se genera un bloque de paridad dentro de la misma división (stripe). Un bloque se compone a menudo de muchos sectores consecutivos de disco. Una serie de bloques (un bloque de cada uno de los discos del conjunto) recibe el nombre colectivo de división (stripe). Si otro bloque, o alguna porción de un bloque, es escrita en esa misma división, el bloque de paridad (o una parte del mismo) es recalculada y vuelta a escribir. El disco utilizado por el bloque de paridad está escalonado de una división a la siguiente, de ahí el término «bloques de paridad distribuidos». Las escrituras en un RAID 5 son costosas en términos de operaciones de disco y tráfico entre los discos y la controladora. Los bloques de paridad no se leen en las operaciones de lectura de datos, ya que esto sería una sobrecarga innecesaria y disminuiría el rendimiento. Sin embargo, los bloques de paridad se leen cuando la lectura de un sector de datos provoca un error de CRC. En este caso, el sector en la misma posición relativa dentro de cada uno de los bloques de datos restantes en la división y dentro del bloque de paridad en la división se utilizan para reconstruir el sector erróneo. El error CRC se oculta así al resto del sistema. De la misma forma, si falla un disco del conjunto, los bloques de paridad de los restantes discos son combinados matemáticamente con los bloques de datos de los restantes discos para reconstruir los datos del disco que ha fallado «al vuelo». Lo anterior se denomina a veces Modo Interino de Recuperación de Datos (Interim Data Recovery Mode). El sistema sabe que un disco ha fallado, pero sólo con el fin de que el sistema operativo pueda notificar al administrador que una unidad necesita ser reemplazada: las aplicaciones en ejecución siguen funcionando ajenas al fallo. Las lecturas y escrituras continúan normalmente en el conjunto de discos, aunque con alguna degradación de rendimiento. La diferencia entre el RAID 4 y el RAID 5 es que, en el Modo Interno de Recuperación de Datos, el RAID 5 puede ser ligeramente más rápido, debido a que, cuando el CRC y la paridad están en el disco que falló, los cálculos no tienen que realizarse, mientras que en el RAID 4, si uno de los discos de datos falla, los cálculos tienen que ser realizados en cada acceso. El fallo de un segundo disco provoca la pérdida completa de los datos. El número máximo de discos en un grupo de redundancia RAID 5 es teóricamente ilimitado, pero en la práctica es común limitar el número de unidades. Los inconvenientes de usar grupos de redundancia mayores son una mayor probabilidad de fallo simultáneo de dos discos, un mayor tiempo de reconstrucción y una mayor probabilidad de hallar un sector irrecuperable durante una reconstrucción. A medida que el número de discos en un conjunto RAID 5 crece, el MTBF (tiempo medio entre fallos) puede ser más bajo que el de un único disco. Esto sucede cuando la probabilidad de que falle un segundo disco en los N-1 discos restantes de un conjunto en el que ha fallado un disco en el tiempo necesario para detectar, reemplazar y recrear dicho disco es mayor que la probabilidad de fallo de un único disco. Una alternativa que proporciona una protección de paridad dual, permitiendo así mayor número de discos por grupo, es el RAID 6. Algunos vendedores RAID evitan montar discos de los mismos lotes en un grupo de redundancia para minimizar la probabilidad de fallos simultáneos al principio y el final de su vida útil. Las implementaciones RAID 5 presentan un rendimiento malo cuando se someten a cargas de trabajo que incluyen muchas escrituras más pequeñas que el tamaño de una división (stripe). Esto se debe a que la paridad debe ser actualizada para cada escritura, lo que exige realizar secuencias de lectura, modificación y escritura tanto para el bloque de datos como para el de paridad. Implementaciones más complejas incluyen a menudo cachés de escritura no volátiles para reducir este problema de rendimiento. En el caso de un fallo del sistema cuando hay escrituras activas, la paridad de una división (stripe) puede quedar en un estado inconsistente con los datos. Si esto no se detecta y repara antes de que un disco o bloque falle, pueden
perderse datos debido a que se usará una paridad incorrecta para reconstruir el bloque perdido en dicha división. Esta potencial vulnerabilidad se conoce a veces como «agujero de escritura». Son comunes el uso de caché no volátiles y otras técnicas para reducir la probabilidad de ocurrencia de esta vulnerabilidad. Una red de área de almacenamiento, en inglés SAN (Storage Area Network), es una red de almacenamiento integral. Se trata de una arquitectura completa que agrupa los siguientes elementos: - Una red de alta velocidad de canal de fibra o SCSI. - Un equipo de interconexión dedicado (conmutadores, puentes, etc). - Elementos de almacenamiento de red (discos duros).
Presentación de una SAN Una SAN es una red dedicada al almacenamiento que está conectada a las redes de comunicación de una compañía. Además de contar con interfaces de red tradicionales, los equipos con acceso a la SAN tienen una interfaz de red específica que se conecta a la SAN.
Ventajas y desventajas El rendimiento de la SAN está directamente relacionado con el tipo de red que se utiliza. En el caso de una red de canal de fibra, el ancho de banda es de aproximadamente 100 megabytes/segundo (1.000 megabits/segundo) y se puede extender aumentando la cantidad de conexiones de acceso. La capacidad de una SAN se puede extender de manera casi ilimitada y puede alcanzar cientos y hasta miles de terabytes. Una SAN permite compartir datos entre varios equipos de la red sin afectar el rendimiento porque el tráfico de SAN está totalmente separado del tráfico de usuario. Son los servidores de aplicaciones que funcionan como una interfaz entre la red de datos (generalmente un canal de fibra) y la red de usuario (por lo generalEthernet). Por otra parte, una SAN es mucho más costosa que una NAS ya que la primera es una arquitectura completa que utiliza una tecnología que todavía es muy cara. Normalmente, cuando una compañía estima el TCO (Coste total de propiedad) con respecto al coste por byte, el coste se puede justificar con más facilidad. Además es una red concebida para conectar servidores, matrices (arrays) de discos y librerías de soporte. Principalmente, está basada en tecnología fibre channel y más recientemente en iSCSI. Su función es la de conectar de manera rápida, segura y fiable los distintos elementos que la conforman.
NAS (del inglés Network Attached Storage) es el nombre dado a una tecnología de almacenamiento dedicada a compartir la capacidad de almacenamiento de un computador (Servidor) con ordenadores personales o servidores clientes a través de una red (normalmente TCP/IP), haciendo uso de un Sistema Operativo optimizado para dar acceso con los protocolos CIFS, NFS, FTP o TFTP. Generalmente, los sistemas NAS son dispositivos de almacenamiento específicos a los que se accede desde los equipos a través de protocolos de red (normalmente TCP/IP). También se podría considerar un sistema NAS a un servidor (Linux, Windows, ...) que comparte sus unidades por red, pero la definición suele aplicarse a sistemas específicos. Los protocolos de comunicaciones NAS están basados en ficheros por lo que el cliente solicita el fichero completo al servidor y lo maneja localmente, están por ello orientados a información almacenada en ficheros de pequeño tamaño y gran cantidad. Los protocolos usados son protocolos de compartición de ficheros como NFS o Microsoft Common Internet File System (CIFS). Muchos sistemas NAS cuentan con uno o más dispositivos de almacenamiento para incrementar su capacidad total. Frecuentemente, estos dispositivos están dispuestos en RAID (Redundant Arrays of Independent Disks) o contenedores de almacenamiento redundante. El Almacenamiento en nube o Cloud storage es un modelo de almacenamiento basado en redes, ideado en los 1960s , donde los datos están alojados en espacios de almacenamiento virtualizados y por lo general están alojados por terceros. Las compañías de alojamiento operan enormes centro de procesamiento de datos; y los usuarios que requieren que sus datos sean alojados compran o alquilan la capacidad de almacenamiento que requieren. Los operadores de los centros de datos, se a nivel servicio, virtualizan los recursos de acuerdo a los requerimientos del cliente y solo exhiben los entornos con los recursos requeridos, mientras que los clientes por ellos mismos administran el almacenamiento y funcionamiento de archivos, datos o aplicaciones. Físicamente los recursos pueden estar repartido en múltiples servidores físicos. Los servicios de Almacenamiento en nube pueden ser accedidos por diferentes medios, como una web service API, interface web de usuario o alguna otra seleccionada por el cliente.
Control de acceso logico -
Autenticación:
En la seguridad de ordenador, la autenticación es el proceso de intento de verificar la identidad digital del remitente de una comunicación como una petición para conectarse. El remitente siendo autenticado puede ser una persona que usa un ordenador, un ordenador por sí mismo o un programa del ordenador. En un web de confianza, "autenticación" es un modo de asegurar que los usuarios son quién ellos dicen que ellos son - que el usuario que intenta realizar funciones en un sistema es de hecho el usuario que tiene la autorización para hacer así. - Autorización: Proceso por el cual la red de datos autoriza al usuario identificado a acceder a determinados recursos de la misma. - Identificación: Es el proceso por el cual alguien que quiera acceder a cualquier sistema tiene que superar este apartado para acceder a el, como por ejemplo tener un nombre de usuario y una contraseña. Como norma general algunas de estas normas son las siguientes:
1
Se deben utilizar al menos 8 caracteres para crear la clave. Según un estudio de la Universidad de Wichita, el número medio de caracteres por contraseña para usuarios entre 18 y 58 años habituales de Internet es de 7. Esto conlleva el peligro de que el tiempo para descubrir la clave se vea reducido a minutos o incluso segundos. Sólo un 36% de los encuestados indicaron que utilizaban un número de caracteres de 7 o superior.
2
Se recomienda utilizar en una misma contraseña dígitos, letras y caracteres especiales.
3
Es recomendable que las letras alternen aleatoriamente mayúsculas y minúsculas. Hay que tener presente el recordar qué letras van en mayúscula y cuáles en minúscula. Según el mismo estudio, el 86% de los usuarios utilizan sólo letras minúsculas, con el peligro de que la contraseña sea descubierta por un atacante casi instantáneamente.
4
Elegir una contraseña que pueda recordarse fácilmente y es deseable que pueda escribirse rápidamente, preferiblemente, sin que sea necesario mirar el teclado.
5
Las contraseñas hay que cambiarlas con una cierta regularidad. Un 53% de los usuarios no cambian nunca la contraseña salvo que el sistema le obligue a ello cada cierto tiempo. Y, a la vez, hay que procurar no generar reglas secuenciales de cambio. Por ejemplo, crear una nueva contraseña mediante un incremento secuencial del valor en relación a la última contraseña. P. ej.: pasar de “01Juitnx” a “02Juitnx”.
6
Utilizar signos de puntuación si el sistema lo permite. P. ej.: “Tr-.3Fre”. En este caso de incluir otros caracteres que no sean alfa-numéricos en la contraseña, hay que comprobar primero si el sistema permite dicha elección y cuáles son los permitidos. Dentro de ese consejo se incluiría utilizar símbolos como: ! " # $%&'()*+,-./:;?@[\]^_`{|}~
7
7 Existen algunos trucos para plantear una contraseña que no sea débil y se pueda recordar más fácilmente. Por ejemplo se pueden elegir palabras sin sentido pero que sean pronunciables, etc. Nos podemos ayudar combinando esta selección con números o letras e introducir alguna letra mayúscula. Otro método sencillo de creación de contraseñas consiste en elegir la primera letra de cada una de las palabras que componen una frase conocida, de una canción, película, etc. Con ello, mediante esta sencilla mnemotecnia es más sencillo recordarla. Vg: de la frase “Comí mucho chocolate el domingo 3, por la tarde”, resultaría la contraseña: “cmCeD3-:xLt”. En ella, además, se ha introducido alguna mayúscula, se ha cambiado el “por” en una “x” y, si el sistema lo permite, se ha colocado algún signo de puntuación (-).
La auditoría informática es un proceso llevado a cabo por profesionales especialmente capacitados para el efecto, y que consiste en recoger, agrupar y evaluar evidencias para determinar si un sistema de información salvaguarda el activo empresarial, mantiene la integridad de los datos, lleva a cabo eficazmente los fines de la organización, utiliza eficientemente los recursos, y cumple con las leyes y regulaciones establecidas. Permiten detectar de forma sistemática el uso de los recursos y los flujos de información dentro de una organización y determinar qué información es crítica para el cumplimiento de su misión y objetivos, identificando necesidades, duplicidades, costes, valor y barreras, que obstaculizan flujos de información eficientes.
Dentro de la auditoría informática destacan los siguientes tipos (entre otros):
Auditoría de la gestión: la contratación de bienes y servicios, documentación de los programas, etc.
Auditoría legal del Reglamento de Protección de Datos: Cumplimiento legal de las medidas de seguridad exigidas por el Reglamento de desarrollo de la Ley Orgánica de Protección de Datos.
Auditoría de los datos: Clasificación de los datos, estudio de las aplicaciones y análisis de los flujogramas.
Auditoría de las bases de datos: Controles de acceso, de actualización, de integridad y calidad de los datos.
Auditoría de la seguridad: Referidos a datos e información verificando disponibilidad, integridad, confidencialidad, autenticación y no repudio.
Auditoría de la seguridad física: Referido a la ubicación de la organización, evitando ubicaciones de riesgo, y en algunos casos no revelando la situación física de esta. También está referida a las protecciones externas (arcos de seguridad, CCTV, vigilantes, etc.) y protecciones del entorno.
Auditoría de la seguridad lógica: Comprende los métodos de autenticación de los sistemas de información.
Auditoría de las comunicaciones. Se refiere a la auditoria de los procesos de autenticación en los sistemas de comunicación.
Auditoría de la seguridad en producción: Frente a errores, accidentes y fraudes.
En la realización de una auditoría informática el auditor puede realizar las siguientes pruebas:
Pruebas sustantivas: Verifican el grado de confiabilidad del SI del organismo. Se suelen obtener mediante observación, cálculos, muestreos, entrevistas, técnicas de examen analítico, revisiones y conciliaciones. Verifican asimismo la exactitud, integridad y validez de la información.
Pruebas de cumplimiento: Verifican el grado de cumplimiento de lo revelado mediante el análisis de la muestra. Proporciona evidencias de que los controles claves existen y que son aplicables efectiva y uniformemente.
Las principales herramientas de las que dispone un auditor informático son:
Observación
Realización de cuestionarios
Entrevistas a auditados y no auditados
Muestreo estadístico
Flujogramas
Listas de chequeo
'Mapas conceptuales
Criptografía se ocupa de las técnicas mediante técnicas de cifrado y/o codificado, para hacerlos ininteligibles a intrusos (lectores no autorizados) que intercepten esos mensajes. Por tanto el único objetivo de la criptografía era conseguir la confidencialidad de los mensajes. Para ello se diseñaban sistemas de cifrado y códigos. En esos tiempos la única criptografía que había era la llamada criptografía clásica. La aparición de las Tecnologías de la Información y la Comunicación y el uso masivo de las comunicaciones digitales han producido un número creciente de problemas de seguridad. Las transacciones que se realizan a través de la red pueden ser interceptadas. La seguridad de esta información debe garantizarse. Este desafío ha generalizado los objetivos de la criptografía para ser la parte de la criptología que se encarga del estudio de los algoritmos, protocolos (se les llama protocolos criptográficos) y sistemas que se utilizan para proteger la información y dotar de seguridad a las comunicaciones y a las entidades que se comunican. Para ello los criptógrafos investigan, desarrollan y aprovechan técnicas matemáticas que les sirven como herramientas para conseguir sus objetivos. La criptografía actualmente se encarga del estudio de los algoritmos, protocolos y sistemas que se utilizan para dotar de seguridad a las comunicaciones, a la información y a las entidades que se comunican.1 El objetivo de la criptografía es diseñar, implementar, implantar, y hacer uso de sistemas criptográficos para dotar de alguna forma de seguridad. Por tanto se ocupa de proporcionar:
Confidencialidad. Es decir garantiza que la información está accesible únicamente a personal autorizado. Para conseguirlo utiliza códigos y técnicas de cifrado.
Integridad. Es decir garantiza la corrección y completitud de la información. Para conseguirlo puede usar por ejemplo funciones hash criptográficas MDC, protocolos de compromiso de bit, o protocolos de notarización electrónica.
No repudio. Es decir proporciona protección frente a que alguna de las entidades implicadas en la comunicación, pueda negar haber participado en toda o parte de la comunicación. Para conseguirlo puede usar por ejemplo firma digital.
Autenticación. Es decir proporciona mecanismos que permiten verificar la identidad del comunicante. Para conseguirlo puede usar por ejemplo función hash criptográfica MAC o protocolo de conocimiento cero.
Soluciones a problemas de la falta de simultaneidad en la telefirma digital de contratos. Para conseguirlo puede usar por ejemplo protocolos de transferencia inconsciente.
Un sistema criptográfico es seguro respecto a una tareas si un adversario con capacidades especiales no puede romper esa seguridad, es decir, el atacante no puede realizar esa tarea específica. Historia de la criptografía El primer método de criptografía fue en el siglo V a.C, era conocido como "Escítala". El segundo criptosistema que se conoce fue documentado por el historiador griego Polibio: un sistema de sustitución basado en la posición de las letras en una tabla. Otro de los métodos criptográficos utilizados por los griegos fue la escítala espartana, un método de trasposición basado en un cilindro que servía como clave en el que se enrollaba el mensaje para poder cifrar y descifrar. Durante los siglos XVII, XVIII y XIX, el interés de los monarcas por la criptografía fue notable. Las tropas de Felipe II emplearon durante mucho tiempo una cifra con un alfabeto de más de 500 símbolos que los matemáticos del rey consideraban inexpugnable. Cuando el matemático francés François Viète consiguió criptoanalizar aquel sistema para el rey de Francia, a la sazón Enrique IV, el conocimiento mostrado por el rey francés impulsó una queja de la corte española ante del papa Pío V acusando a Enrique IV de utilizar magia negra para vencer a sus ejércitos. Durante la Primera Guerra Mundial, los Alemanes usaron el cifrado ADFGVX. Este método de cifrado es similar a la del tablero de ajedrez Polibio. Consistía en una matriz de 6 x 6 utilizado para sustituir cualquier letra del alfabeto y los números 0 a 9 con un par de letras que consiste de A, D, F, G, V, o X. A partir del siglo XX, la criptografía usa una nueva herramienta que permitirá conseguir mejores y más seguras cifras: las máquinas de cálculo. La más conocida de las máquinas de cifrado posiblemente sea la máquina alemana Enigma: una máquina de rotores que automatizaba considerablemente los cálculos que era necesario realizar para las operaciones de cifrado y descifrado de mensajes. A mediados de los años 70, el Departamento de Normas y Estándares norteamericano publica el primer diseño lógico de un cifrado que estaría llamado a ser el principal sistema criptográfico de finales de siglo: el Estándar de Cifrado de Datos o DES. En esas mismas fechas ya se empezaba a gestar lo que sería la, hasta ahora, última revolución de la criptografía teórica y práctica: los sistemas asimétricos. Estos sistemas supusieron un salto cualitativo importante, ya que permitieron introducir la criptografía en otros campos que hoy día son esenciales, como el de la firma digital. En criptografía un cifrado , es un procedimiento que utilizando un algoritmo (algoritmo de cifrado) con cierta clave (clave de cifrado) transforma un mensaje, sin atender a su estructura lingüística o significado, de tal forma que sea incomprensible o, al menos, difícil de comprender, a toda persona que no tenga la clave secreta (clave de descifrado) del algoritmo que se usa para poder descifrarlo (algoritmo de descifrado). Por tanto tenemos dos algoritmos (el de cifrado y el de descifrado) y dos claves (clave de cifrado y clave de descifrado). Estas dos claves pueden ser iguales (criptografía simétrica) o no (criptografía asimétrica).
Un sistema de cifrado se denomina:
simétrico cuando utiliza la misma clave para cifrar y descifrar.
asimétrico al usar claves diferentes: una pareja compuesta por una clave pública , que sirve para cifrar, y por una clave privada , que sirve para descifrar. El punto fundamental sobre el que se sostiene esta descomposición pública/privada es la imposibilidad práctica de deducir la clave privada a partir de la clave pública. Se suele denominar a este tipo de cifrado usando las siglas PKE (del inglés Public-Key Encryption).
Los métodos más conocidos son el DES, el Triple DES y el AES para la criptografía simétrica, y el RSA para la criptografía asimétrica, llamada también criptografía de clave pública. La utilización de un sistema simétrico o asimétrico depende de las tareas a cumplir. La criptografía asimétrica presenta dos ventajas principales: suprime el problema de transmisión segura de la clave, y permite la firma electrónica. No reemplaza sin embargo los sistemas simétricos ya que los tiempos de cálculo son claramente más cortos por los sistemas simétricos que los asimétricos. Mediante los métodos de descifrado conseguimos: - Interpretar un mensaje escrito en un lenguaje secreto compuesto por signos especiales - Interpretar el significado de una cosa confusa o un asunto difícil de entender
Medidas de Seguridad En informática es necesario implantar todas las medidas de seguridad posibles para evitar el robo o la pérdida de los datos que sean potencialmente vitales para la empresa, de tal forma que hay que establecer políticas de seguridad para conseguir esto mismo. Además habrá que implantar mecanismos de seguridad física y lógica. Y dentro de la seguridad lógica, habrá que diferenciar entre seguridad activa y seguridad pasiva.
Políticas de seguridad El proponer o identificar una política de seguridad requiere un alto compromiso con la organización, agudeza técnica para establecer fallas y debilidades, y constancia para renovar y actualizar dicha política en función del dinámico ambiente que rodea las organizaciones modernas.
Las Políticas de Seguridad son un conjunto de requisitos definidos por los responsables de un sistema, que indica en términos generales que está y que no está permitido en el área de seguridad durante la operación general del sistema. Características de una política de seguridad Las características principales de una política de seguridad deben de ser:
Ser holística (cubrir todos los aspectos relacionados con la misma).
Adecuarse a las necesidades y recursos.
Ser atemporal. El tiempo en el que se aplica no debe influir en su eficacia y eficiencia.
Definir estrategias y criterios generales a adoptar en distintas funciones y actividades, donde se conocen las alternativas ante circunstancias repetidas.
Seguridad activa y seguridad pasiva La seguridad informática se divide en dos términos, la seguridad activa y la seguridad pasiva: Seguridad Activa Tiene como objetivo proteger y evitar posibles daños en los sistemas informáticos. Podemos encontrar diferentes recursos para evitarlos como:
Una de esas técnicas que podemos utilizar es el uso adecuado de contraseñas, que podemos añadirles números, mayúsculas, etc.
El uso de software de seguridad informática
Encriptación de los datos.
Seguridad Pasiva Su fin es minimizar los efectos causados por un accidente, un usuario o malware. Las prácticas de seguridad pasiva más frecuentes y más utilizadas son:
El uso de hardware adecuado contra accidentes y averías.
Utilizar copias de seguridad de los datos y del sistema operativo.
Análisis Forense ¿Qué es el análisis forense? El análisis forense de sistemas tiene como objetivo averiguar lo ocurrido durante un incidente de seguridad utilizando varios métodos. Se busca dar respuesta a los interrogantes que normalmente envuelven a todo incidente: el origen del problema, qué información ha sido afectada y en qué grado, y finalmente cuándo, dónde, cómo y por qué se originó el ataque. Funcionalidad y Fases El análisis forense pasa por varias fases, que abarcan desde el momento del ataque o desastre hasta obtener todos los detalles del mismo, analizados en un informe.
Fases del análisis forense (I) El análisis forense pasa por cuatro pasos o fases, detalladas en la siguiente imagen:
Fases del análisis (I) 1)
Identificación: Es muy importante conocer los antecedentes, situación actual y el proceso que se quiere seguir para poder tomar la mejor decisión con respecto a las búsquedas y la estrategia de investigación.
2)
Preservación: Este paso incluye la revisión y generación de las imágenes forenses de la evidencia para poder realizar el análisis. Al realizar una imagen forense, nos referimos al proceso que se requiere para generar una copia “bit-a-bit” de todo el disco, el cual permitirá recuperar, en el siguiente paso, toda la información contenida y borrada del disco duro.
3)
Análisis: Proceso de aplicar técnicas científicas y analíticas a los medios duplicados por medio del proceso forense para poder encontrar pruebas de ciertas conductas. Se pueden realizar búsquedas de cadenas de caracteres, acciones específicas del o de los usuarios de la máquina.
4)
Presentación: Es el recopilar toda la información que se obtuvo a partir del análisis para realizar el reporte y la generación (si es el caso) de una pericial y de su correcta interpretación sin hacer uso de tecnicismos.
Respuesta a incidentes La respuesta a incidentes es la capacidad de reaccionar anta un problema informático y darle una solución rápida y eficaz.
Elementos necesarios para una respuesta a incidentes eficaz Para responder correctamente a cualquier incidente, se necesita lo siguiente:
Minimizar la cantidad y gravedad de los incidentes de seguridad.
Crear un CSIRT principal (Computer Security Incident Response Team, Equipo de respuesta a incidentes de seguridad informática).
Definir un plan de respuesta a incidentes.
Contener los daños y minimizar los riesgos.
Análisis de evidencias digitales Al realizar la investigación y el análisis forense, es imprescindible obtener las diversas capturas de las evidencias que se detecten. Por evidencia entendemos toda información que podamos procesar en un análisis. Por supuesto que el único fin del análisis de las evidencias es saber con la mayor exactitud qué fue lo que ocurrió.
Evidencias digitales Por evidencia digital se entiende:
El último acceso a un fichero o aplicación (unidad de tiempo)
Un Log en un fichero
Una cookie en un disco duro
El uptime de un sistema (Time to live o tiempo encendido)
Un fichero en disco
Un proceso en ejecución
Archivos temporales
Restos de instalación
Un disco duro, pen-drive, etc...
Herramientas de análisis forense Como el análisis forense es tan extenso, hay varias herramientas utilizables para cada una de sus fases y de cada uno de los comportamientos que pueda tomar la investigación. Algunas herramientas Algunas de estas herramientas son:
EnCase: Esta herramienta tiene varias opciones para analizar y recuperar los archivos que puedan haber sido dañados, eliminados o sustraídos durante un ataque.
Keylogger: Bien usada, esta herramienta permite saber las actividades de un ordenador, ya que guarda y envía todo lo escrito por el teclado a una dirección conocida.