Logo Studenta

capitulo_3

¡Este material tiene más páginas!

Vista previa del material en texto

Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 1 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
MEDIDAS DE PROTECCION DE SISTEMAS INFORMATICOS 
 
 El Plan Integral de Protección Informática, antes mencionado, abarca tres instancias 
sucesivas, que se representan mediante el esquema siguiente 
 
 
 
 Como hemos venido estudiando, la instancia 1 debe preceder cualquier implementación de 
medidas de protección. 
 
 Queda en evidencia del grafico anterior que el plan de protección integral es un proceso 
dinámico y cíclico que protege la información ante el surgimiento de nuevas contingencias. La IIa 
Instancia es donde se decide qué Medidas de Protección se aplicaran. 
 
 
 
 Partiendo de las cuatro propiedades características de la información, una MEDIDA DE 
PROTECCION, que apunte fundamentalmente a garantizar INTEGRIDAD Y DISPONIBILIDAD 
quedara subclasificada como una MEDIDA DE CONTROL (aplicable a cualquier sistema informático 
independientemente de su envergadura), mientras tanto cuando se busque principalmente la 
CONFIDENCIALIDAD Y LA AUTENTICIDAD la encuadraremos bajo el termino de MEDIDA DE 
SEGURIDAD (aplicable a sistemas de múltiples usuarios). 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 2 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
Control 
 
En general la palabra control significa "mantener las cosas en su sitio". En un sentido más 
formal, el control está relacionado con el conjunto de mecanismos (tales como estándares y medios 
para comparar el desempeño que aumentan la probabilidad de que las actividades que afectan los 
objetivos de una organización se hagan apropiadamente). El control también permite que el sistema 
detecte y notifique los casos donde estas actividades no se realizaron. También es esencial el manejo 
de eventos no anticipados. Un sistema bien diseñado debe tener la capacidad de notificarlo sin 
interrumpir las demás actividades. 
 
El control puede verse en términos de procedimientos, contenido, auditoria y responsabilidad. 
Entre las preguntas que el responsable de seguridad debe formularse cuando evalúa el control de los 
procedimientos, se encuentran los siguientes: 
 
 )Se hacen todos los pasos del proceso? Se hacen en forma apropiada ? 
B )Es posible que se efectúen pasos adicionales o no autorizados ? 
C )Pueden presentarse actividades duplicadas ? 
D )Se entera la cabeza estratégica de la organización de eventos que no se cumplen ? 
E )Se verifica el contenido de las transacciones (datos correctos, códigos de procedimientos 
correctos) ? 
 
Desde el punto de vista del diseñador de sistemas, las siguientes estrategias se encuentran 
entre las que deben considerarse cuando se tiene entre manos un problema de control de sistemas: 
 
I) Diseño para evitar fallos en el control. Desarrollar el sistema para prohibir la ocurrencia de 
fallos en los controles y con esto invalidar eventos que no pueden ocurrir. Este camino puede ser muy 
difícil o extremadamente costoso. 
 
II) Diseño para detectar y notificar problemas de control. Asegurar que sean incorporados en 
el sistema procedimientos que identifiquen dificultades o inexactitudes y las notifiquen como una 
excepción que debe ser corregida por la persona autorizada para hacerlo. 
 
III) Diseño para detectar u corregir fallos en los controles. Proporcionar medios para emprender 
una acción correctiva y notificar que esta fue hecha. 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 3 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
VALIDACIÓN DE LA ENTRADA 
 
Los diseños de las entradas tienen como finalidad reducir las posibilidades de cometer errores, 
equivocaciones o fraude durante la entrada de datos. Pero el analista siempre debe suponer que se 
presentarán errores. Estos deben detectarse durante la entrada y corregirse antes de guardarlos datos 
o procesarlos. Es mucho más difícil corregir datos equivocados después de almacenarlos que antes 
de hacerlo. De hecho los datos equivocados se olvidan con frecuencia hasta que alguien usa un 
reporte basado en esos datos y cuestiona su exactitud y validez. 
 
El término general dado a los métodos cuya finalidad es detectar errores en la entrada es 
validación de entradas. Tres categorías principales de métodos tienen que ver con la verificación de 
la transacción, la verificación de los datos de la transacción y el cambio de estos últimos. 
 
Verificación y validación 
 
 La verificación tiene la intensión de hallar errores. Se hace ejecutando un programa en un 
ambiente simulado. La validación se refiere al proceso del uso del software en un ambiente no 
simulado para hallar sus errores. 
 
Cuando los sistemas comerciales se desarrollan con la intención explícita de distribuirlos a 
través de terceros para su venta, o para comercializarlos por medio de oficinas de la propia compañía, 
primero deben pasar por la verificación, a veces llamada prueba alfa. La retroalimentación de la fase 
de validación generalmente produce cambios en el software para resolver los errores y fallas que se 
descubren. Se elige un conjunto de instalaciones usuarias que ponen a trabajar al sistema en un 
ambiente real. Estas instalaciones de prueba beta usan el sistema en las actividades cotidianas; 
procesan transacciones en directo y producen salidas normales del sistema. El sistema está a prueba 
en toda la extensión de la palabra, excepto que los usuarios están advertidos de que están usando un 
sistema que puede fallar. Pero las transacciones que se están procesando y las personas que usan el 
sistema son reales. 
 
Es posible continuar la validación durante varios meses. En el curso de la validación del 
sistema, puede ocurrir una falla y el software será modificado. El uso continuo posiblemente produzca 
fallas adicionales y la necesidad de más cambios. 
 
Verificación de la transacción 
 
Lo primero y más importante es identificar todas las transacciones que no son válidas, esto es: 
inaceptables. Las transacciones pueden caer en esta categoría porque están incompletas, no 
autorizadas e incluso fuera de lugar. 
 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 4 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
Controles de lote 
 
En ambientes donde se manejan lotes, existe un retraso entre el momento en que ocurre la 
transacción y el instante en que se procesan los datos relacionados con ella. El procesamiento por 
lotes es un término que significa proceso retardado por la acumulación de transacciones en lotes o 
grupos de registros. 
 
Cuando las transacciones se acumulan y no se procesan justo en el momento en que ocurren, 
existe una alta posibilidad de que alguna de ellas sea mal procesada, olvidada o pasada por alto. Sin 
importar si la pérdida de transacciones es grande o pequeña, este es un aspecto que debe interesar 
al analista. 
 
Un método para el control del lote, es el definir un tamaño fijo para este. Las transacciones se 
acumulan en grupos. Cada grupo constituye un lote. Durante el transcurso la jornada de trabajo es 
indudable que se acumulará más de un lote. Por consiguiente, la administración desea asegurarse de 
que todos los lotes sean procesados y que ninguno se pierda o se pase por alto. Conocer el número 
de lotes acumulados y enviados para su procesamiento es de gran ayuda. De hecho es posible que 
el analista especifique la asignación de un número de serie para cada lote. 
 
Otro aspecto relacionado conel procesamiento por lotes es asegurar que todas las 
transacciones en el lote ayudan a garantizar lo anterior. Este método requiere el cálculo del total de 
campos presentes en todos los registros contenidos en el lote, tales como números de artículos 
ordenados, sin importar de qué artículos se traten. El total se obtiene antes que el lote sea enviado 
para su procesamiento. Conforme se procesa lote, se acumula de nuevo el total por medio de la 
computadora, si el proceso es automatizado, o por una persona diferente a la que realizó el cálculo 
en el lote original. Si los totales son los mismos, entonces la gerencia sabe que todas las transacciones 
fueron procesadas. Si existe alguna discrepancia, la gerencia se dará cuenta de ella e investigará la 
causa. 
 
Se identificaron tres métodos para verificar las transacciones en un lote: el tamaño del lote, 
que señala si todas las transacciones se encuentran en el lote; el conteo en el lote, que indica si se 
perdió u olvidó alguna transacción en él, y el total por lote, que señala cuando todas las transacciones 
de lotes fueron procesadas apropiadamente. 
 
Validación de transacciones 
 
A menudo los usuarios intentan procesar datos incorrectamente, ya sea accidentalmente o 
intencionalmente. Es responsabilidad del analista especificar los procedimientos de validación que 
probarán la aceptación de una transacción. 
 
La transacción debe ser aceptable para el sistema antes de que pueda ser procesada por él. 
Los pasos que el sistema sigue para asegurarse de que la transacción es aceptable se llaman 
validación de la transacción. 
 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 5 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
Algunas veces se envían a procesamiento, inadvertidamente, transacciones que no tienen 
relación con la finalidad del sistema. 
 
También se debe asegurar que los procesos de validación de transacciones detecten 
situaciones donde se envía una entrada aceptable por un usuario que no está autorizado para hacerlo. 
 
Las terminales y computadoras situadas en lugares remotos tienen toda la capacidad de enviar 
mediante las líneas de comunicación todo lo que se pueda introducir por medio del teclado, incluyendo 
datos, solicitudes de procesamiento, o comando para que instruya al sistema para que realice una 
acción determinada. Algunas personas con experiencia tienden a suponer que los usuarios 
introducirán datos inválidos accidental o intencionalmente. Preparan las especificaciones de diseño 
pidiendo la verificación de cada solicitud de una instalación usuaria para asegurarse de que es 
aceptable para el sistema. 
 
La validación de la transacción es el examen de los datos de entrada desde una instalación 
remota para determinar se es aceptable para procesamiento en el sistema. Una transacción puede 
ser datos nuevos para almacenarlos en el sistema, datos para actualizar un registro existente o una 
solicitud para recuperar datos del sistema. 
 
El sistema debe verificar que es capaz de procesar la solicitud. 
 
 Prueba de secuencia 
 
Las pruebas de secuencias usan códigos en los datos para probar una de las dos diferentes 
condiciones, dependiendo de las características del sistema. En algunos sistemas es importante el 
orden de las transacciones. 
 
Las pruebas se secuencian también señalan faltantes. 
 
Deben verificarse cada entrada para validarla y asegurar que todos los datos los datos 
esenciales estén incluidos. 
 
Los sistemas de punto de venta de los centros comerciales están orientados hacia la realización 
automática de pruebas de completes. De hecho, muchas terminales de punto de venta usan sistemas 
de luces que indican a los operadores el siguiente paso. La luz bajo la tecla de la operación a realizar 
se enciende. Sólo hasta que se propone un código válido de transacción se permitirá alguna otra 
operación. 
 
Las pruebas de completes son una forma más de validar la transacción y con ello asegurar que 
esta sea exacta y aceptable para que el sistema pueda procesarla y almacenarla. 
 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 6 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
Verificación de los datos de la transacción 
 
Aun las transacciones válidas pueden contener datos que no lo son. Por consiguiente, los 
analistas deben asegurarse de especificar métodos para validar los datos cuando desarrollan los 
procedimientos de entrada. Existen 4 métodos para validar los datos. 
 
Pruebas de existencia 
 
Algunos de los campos de datos de las transacciones son diseñados para no dejarlos vacíos o 
en blanco. Las pruebas de existencia examinan los campos esenciales para determinar que estos 
contengan datos. 
 
En otras ocasiones son aceptables los espacios en blanco. 
 
Al desarrollar un programa para el mantenimiento de archivos, se sabe que algunos datos siempre 
deben existir, de la misma forma sucede con el código que señala el tipo de transacción. Sólo si la 
transacción es borrar un registro será necesario conocer la llave del registro. Para agregar un nuevo 
registro se requieren todos los datos. Si se desea hacer un cambio entonces sólo se necesitan los 
datos que van a cambiarse. 
 
 La tarea de los analistas, cuando trabajan con los usuarios, es determinar qué datos deben 
estar presentes y cuándo su ausencia es aceptable. 
 
Pruebas de límites y rangos 
 
Estas pruebas verifican la veracidad de los datos de una transacción. Las pruebas de límites 
sirven para validar la cantidad mínima o máxima aceptable para un dato. Las pruebas de rango validan 
tanto los valores mínimos como máximo. 
 
Pruebas de combinación 
 
Las pruebas de combinación validan el hecho de que varios datos tengan al mismo tiempo 
valores aceptables; en otras palabras, el valor de un campo determina si son correctos los valores de 
los demás datos. 
 
Procesamiento duplicado 
 
En áreas especialmente importantes, quizá sea necesario procesar los datos más de una vez, 
ya sea en un equipo diferente o en una forma distinta. Después de dicho procesamiento, los resultados 
se comparan para determinar consistencia y exactitud. El procesamiento duplicado asegura la mayor 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 7 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
exactitud. 
 
Modificación de los datos de la transacción 
 
Una tercera forma de validación de datos implica modificar los mismos datos. Los métodos 
usados son. 
 
Corrección automática 
 
Algunas veces los analistas especifican la realización de programas para corregir errores en 
los datos. Este método para validar los datos se emplea con el fin de reducir el número de pasos 
necesarios para corregir errores o rechazos de transacciones durante el procesamiento. Este método 
sólo requiere que el programa detecte un error y efectúe la corrección en forma automática. 
 
 Dígitos de verificación 
 
Dos de los errores más comunes en el manejo de datos se presentan cuando los datos son 
capturados incorrectamente, estos errores se conocen como errores de trascripción. Otro tipo común 
de error de transposición, es el cambio de posición de dos o más dígitos, lo que trae como resultado 
que el dato sea incorrecto. 
 
 
Como la posibilidad de que estos se presenten es muy alta, se diseñó un método especial para 
ayudar a detectarlos durante el procesamiento por computadora. Este método, llamado dígito de 
verificación, añade un dígito más alto que será usado con fines de identificación. El dígito de 
verificación se añade al número original antes que se haga uso deeste. 
 
Es necesario advertir a los usuarios del número sobre la inclusión del dígito de verificación. 
 
Validación del procesamiento 
 
 
Cuando los sistemas son usados por personas enlazadas al sistema de cómputo sólo mediante 
líneas de comunicación, es difícil decir quién es el usuario. Por lo tanto el analista debe incluir 
precauciones adicionales para validar al usuario y la transacción (por ejemplo IP o numero MAC de la 
máquina, nombre o código de usuario) 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 8 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
 
Identificación y autorización del usuario 
 
La validación de la transacción se hace con los procedimientos de identificación del usuario. 
Se requieren varios niveles de identificación del usuario para proteger totalmente al sistema de la 
pérdida accidental de datos o del uso no autorizado. 
 
Se verá más adelante, cuando estudiemos Medidas de 
Seguridad.- 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 9 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
CONTROLES DE SALIDA 
 
 La salida constituye la forma en que el sistema arroja sus resultados. Por medio de la 
salida los diferentes tipos de usuarios evalúan, analizan y toman decisiones. Estos controles 
garantizan que la salida está autorizada, es precisa y está completa, y además que se entregue al 
personal responsable de ella y que este adecuadamente archivada. Ejemplo: Controles para verificar 
que la información impresa solo la puede ver la persona o personas autorizadas, destrucción de 
documentos confidenciales, etc. 
 
 ACTIVIDADES 
 
1. Verificar si existe un inventario de reportes, que identifique: nombre del programa, nombre 
del módulo, unidad destino, frecuencia de emisión y medio de emisión. 
 
2. Verificar el proceso de distribución de los reportes de manera que se envíen al personal 
autorizado. 
 
3. Verificar el área donde se resguardan los reportes confidenciales de manera que el personal 
no autorizado no pueda tener acceso a ellos. 
 
 
4. Comprobar que se eliminen de forma inmediata los archivos de salida, no finalizados 
cuando sean confidenciales. 
 
5. Verificar que exista un responsable de efectuar un análisis general de los reportes con el 
objeto de determinar si hay reportes que puedan ser eliminados, fusionados, reagrupados, 
simplificados, o si se requiere nuevos reportes. 
 
6. Evaluar quién ejerce la función de control de calidad en los reportes emitidos. 
 
7. Verificar si los encabezados de cada reporte incluyen los siguientes aspectos: fecha de 
generación, nombre del programa, período cubierto de proceso, titulo descriptivo del 
contenido del reporte, usuario que generó, número de identificación del programa, número 
de página, etc. 
 
8. Verificar que se etiquete cada reporte o grupo de reportes de manera que se indique en el 
nombre del usuario, destino y el área o departamento al que pertenece. 
 
9. Verificar la existencia de códigos que identifiquen el nivel de confidencialidad del reporte. 
 
10. Verificar cuál es el procedimiento para la destrucción de reportes sobrantes o que no estén 
en uso. 
 
 11. Verificar que mecanismos de control utilizan para producir únicamente la cantidad 
necesaria de salidas. 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 10 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
PLAN DE RESPALDO Y RECUPERACION 
 
 La realización de respaldo de información requiere la aplicación de un procedimiento de 
copia de la misma en un medio diferente, o en otra área del mismo medio. Esta representa la Medida 
de Protección que ofrece el mayor índice de recuperación de un sistema informático, frente a 
cualquier tipo de contingencia. 
 
 A partir de aquí utilizaremos en concepto de archivo para englobar todo tipo de 
información capaz de almacenarse en un soporte informático, directorios o librerías o carpetas, 
archivos de textos, imágenes, videos, de configuración, de controladores, etc. etc. 
 
 La Copia involucra la transferencia de información, no solo incluyendo concretamente 
esta, sino un conjunto de parámetros que la identifican en el sistema operativo de que se trate. A saber 
nombre del archivo, tipo de archivo, tamaño ocupado real y/o efectivo, fecha (de creación, 
modificación), propietario o autor, ubicación en el soporte (path - camino), valores de seguridad de 
acceso; hasta aquí involucramos claramente el concepto de copia, y si consideramos además la 
ubicación física en el soporte, es decir en que clusters exactos encontramos las partes componentes 
del archivo, hablaremos más propiamente de copia a imagen o simplemente imagen de un archivo. 
 
 El soporte universal en todo sistema informático, como unidad de almacenamiento 
secundario, es el disco rígido o disco duro, en diferentes tecnologías, de conexionado (IDE, SCSI, 
SATA, STORAGE) y "geometrías" o configuraciones (PARTICIONES, RAID, CLUSTERS DE 
DISCOS). Cualquiera sea la combinación utilizada emplearemos el termino volumen para identificar 
el espacio de almacenamiento que reconoce el sistema operativo de que se trate como unidad de 
almacenamiento masivo. 
 
 
 La copia a imagen de un volumen, ofrece la importante ventaja de habilitar rápidamente la 
recuperación de un sistema, frente a una contingencia, ya que puede reconstruir el almacenamiento 
tal cual exista a la fecha de su realización, antes del siniestro, ubicando todos los archivos restaurados 
en la ubicación física exacta donde el sistema operativo los requiere. Lo que no se da necesariamente 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 11 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
cuando se trata de una copia común. 
 
 Actualización del Respaldo 
 
 Naturalmente al efectuar una copia o una imagen, las mismas quedaran desactualizadas, 
cuando las personas o procesos, hagan uso y modifiquen o creen nuevos archivos, lo que 
requerir establecer un método de actualización, para preservar el propósito de recuperar la 
operatividad de un sistema frente a una o más contingencias. 
 
 Se puede actualizar usando tres criterios: 
 
 DE COPIA COMPLETA cada vez que se haya previsto un respaldo 
 
 
 
UNIDAD DE RESPALDO
UNIDAD DE ALMACENAMIENTO
1ER RESPALDO TOTAL
RESPALDO DE UN AREA DE 
DATOS COMPLETA
UNIDAD DE RESPALDO
2DO RESPALDO TOTAL
UNIDAD DE RESPALDO
3ER RESPALDO TOTAL
1ER PERIODO
2DO PERIODO
3ER PERIODO
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 12 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
DE COPIA INCREMENTAL, o de 
 
 
 
 
DE COPIA DIFERENCIAL, o una combinación de estos, 
 
 
 
DE COPIA “IN-FILE DELTA” 
 
Con la tecnología In-File Delta, ahora es posible hacer una copia de seguridad a diario de 
ficheros muy grandes. Existen dos modos de operación (“Diferencial” e “Incremental”) para las copias 
de seguridad del In-File Delta. Los dos ocuparán aproximadamente el mismo espacio de 
almacenamiento en el disco duro del servidor. 
 
Modo Delta Diferencial 
El modo diferencial facilitará la restauración. El delta se genera comparando con el último 
backup completo cargado de manera que el fichero delta puede aumentar diariamente y utiliza más 
ancho de banda durante el proceso de copia de seguridad. Para la restauración, se necesita tanto el 
backup completo como el ficherodelta sencillo para restaurar el fichero a un momento específico. 
 
UNIDAD DE RESPALDO
UNIDAD DE ALMACENAMIENTO
1ER RESPALDO TOTAL
RESPALDO DE UN AREA DE 
DATOS COMPLETA
UNIDAD DE RESPALDO
1ER RESPALDO INCREMENTAL
UNIDAD DE RESPALDO
2DO RESPALDO INCREMENTAL
1ER PERIODO
2DO PERIODO
3ER PERIODO
AREA DE DATOS MODIFICADA
ENTRE 1ER TOTAL Y 1ER INCREMENTAL
AREA DE DATOS MODIFICADA
ENTRE 1ER INCREMENTAL Y 2DO 
INCREMENTAL
UNIDAD DE RESPALDO
UNIDAD DE ALMACENAMIENTO
1ER RESPALDO TOTAL
RESPALDO DE UN AREA DE 
DATOS COMPLETA
UNIDAD DE RESPALDO
1ER RESPALDO DIFERENCIAL
UNIDAD DE RESPALDO
2DO RESPALDO DIFERENCIAL
1ER PERIODO
2DO PERIODO
3ER PERIODO
AREA DE DATOS MODIFICADA
ENTRE 1ER TOTAL Y 1ER DIFERENCIAL
AREA DE DATOS MODIFICADA
ENTRE 1ER TOTAL Y 2DO DIFERENCIAL
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 13 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
Modo Delta Incremental 
El modo delta incremental facilitará el proceso de copia de seguridad. El delta se genera comparando 
con el ultimo backup completo o el último archivo Delta cargado de manera que el fichero delta es el 
más pequeño posible y utiliza el mínimo ancho de banda durante el proceso de copia de seguridad. 
Para la restauración, se necesitan tanto el backup completo como todos los ficheros Delta hasta ese 
momento para restaurar el fichero a un momento específico. 
 
 El delta se genera extrayendo las diferencias entre el 
ultimo fichero al que se le hace la copia de seguridad y 
el fichero original guardado en el servidor. Ambos 
ficheros se dividen en bloques individuales utilizando el 
mismo tamaño de bloque y los bloques se comparan 
para determinar si son iguales o diferentes. Las 
diferencias se extraen al fichero delta. 
 
El utilizar un ajuste de tamaño de bloque diferente puede 
afectar la velocidad de generación y el tamaño del delta 
generado. En términos generales la relación entre el 
ajuste del tamaño del bloque y el delta generado es 
como se indica a continuación: 
 
* Cuanto más pequeño sea el tamaño del bloque, más 
pequeño será el fichero delta generado pero el proceso 
será más lento. 
 
* Cuanto más grande sea el tamaño del bloque, más 
grande será el fichero delta generado pero el proceso 
será más rápido. Los ajustes de tamaño de bloque disponibles son: Auto, 1K, 2K, 4K, 8K, 16K, 32K, 
64K, 128K, 256K, 512K y 1M. 
 
 
Caso Práctico (ejemplo) 
 
A partir de estos tres tipos de backup principales, se puede definir una estrategia propia 
para la protección de datos. Normalmente se utiliza uno de los enfoques siguientes: 
 
-Completo diario 
 
-Completo semanal + Diferencial diario 
 
-Completo semanal + Incremental diario 
 
En la elección de la estrategia de backup óptima hay que sopesar numerosas 
consideraciones. Normalmente, cada alternativa y opción estratégica tiene sus ventajas e 
inconvenientes en términos de rendimiento, niveles de protección de los datos, cantidad total 
de datos conservados, y costo. 
 
A continuación, se indican las necesidades típicas de capacidad y soportes de recuperación de 
las tres estrategias de backup. Esos cálculos se basan en un volumen total de datos de 20 TB, con 
una variación diaria del 5% de los datos, y sin incremento del almacenamiento total durante el periodo 
considerado. Los cálculos se basan en un supuesto de 22 días hábiles al mes y de un periodo de 
conservación de los datos de un mes. 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 14 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
Impacto de las estrategias de backup en las necesidades de espacio 
 
Guiones de backup corrientes 
 
Espacio de soporte necesario para un mes (20 TB a tasa de variación diaria del 5%) 
 
Soportes necesarios para la recuperación 
 
Completo diario (días laborables) 
 
Espacio para 22 backups diarios completos (22 * 20 TB) = 440.00 TB 
 
Backup más reciente solamente 
 
Completo (semanal) + Diferencial (días laborables) 
 
Completos, más el diferencial más reciente desde el último completo 
 (5 * 20 TB) + (22 * 5%* 20 TB) = 124.23 TB 
 
Completo más reciente + diferencial más reciente 
 
Completo (semanal) + Incremental (días laborables) 
 
Completos, más todos los incrementales desde el último completo semanal 
 (5 * 20 TB) + (22 * 5% * 20 TB) = 122.00 TB 
 
Completo más reciente + todos los incrementales desde el último completo 
 
Como se puede observar en la tabla, lo que más cantidad de espacio y más tiempo requiere es 
realizar un backup completo diario. Sin embargo, se dispone de más copias totales de los datos, y 
para realizar una operación de restauración hay que recurrir a menos soportes. Por ello, la 
implantación de esta política de backup presenta una mayor tolerancia a las catástrofes, y ofrece la 
restauración más rápida, puesto que cualquier conjunto de datos necesarios se encontrará en un 
máximo de un juego de backup. 
 
Alternativamente, la realización de un backup completo semanal combinado con la ejecución 
de backups incrementales diarios ofrece la mayor rapidez de realización de los backups en días 
laborables y utiliza la menor cantidad de espacio de almacenamiento. Sin embargo, se dispone de 
menos copias de los datos y la restauración lleva más tiempo, pues es posible que haya que utilizar 
hasta seis juegos de soportes para recuperar la información necesaria. Si se necesitan datos de la 
copia de seguridad de un miércoles, hay que recurrir a los juegos de soportes que contienen el backup 
completo del domingo, más los juegos de soportes que contienen los backups incrementales del lunes, 
el martes y el miércoles. Esto puede prolongar espectacularmente los tiempos de recuperación, y 
exige que cada juego de soportes funcione correctamente; un fallo en un juego de backup puede 
comprometer toda la restauración. 
 
La ejecución de un backup completo semanal más backups diferenciales diarios ofrece 
resultados intermedios entre las otras alternativas. Concretamente, para restaurar los datos hacen 
falta más juegos de soportes de backup que con una política de backup diario completo, pero menos 
que con una política de backup diario incremental. Además, el tiempo de restauración es menor que 
cuando se utilizan backups diarios incrementales, y mayor que con backups diarios completos. Para 
restaurar los datos de un día concreto, hay que recurrir a un máximo de dos juegos de soportes, lo 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 15 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
cual reduce el tiempo necesario para la recuperación y los problemas potenciales planteados por un 
juego de backup ilegible. 
 
En las entidades que tienen volúmenes de datos reducidos, la ejecución de un backup diario 
completo depara un alto nivel de protección sin gran costo adicional de espacio de almacenamiento. 
Para las entidades más grandes o con más datos, la mejor opción es la ejecución de un backup 
completo semanal combinado con backups diarios incrementales o diferenciales. La utilización de 
copias diferenciales brinda un mayor nivel de protección de datos con tiempos de restauración más 
cortos en la mayor parte de los casos, con un pequeño incremento del volumen de almacenamiento. 
Por ese motivo, la utilización de una estrategia de backups completos semanales junto con backups 
diarios diferenciales es una buena opción para numerosas entidades. 
 
 
PLAN DE RESPALDO Y RECUPERACION 
 
 Un plan orientado al respaldo de los sistemas informáticos debe contemplar las siguientes 
etapas: 
 
 I. Determinar los archivos a respaldar 
 II. Programar el desarrollo del plan de respaldosIII. Elección los recursos necesarios para proceder 
IV. Elección del método de respaldo 
 Selección del personal autorizado a efectuarlos 
 Acondicionar los lugares destinados a albergar los respaldos 
 V. Preparar un Programa de recuperación 
 
 I) Determinar los archivos a respaldar 
 
COPIA DE RESPALDO DE SISTEMA OPERATIVO 
 
 SISTEMA BASE DE EQUIPO CENTRAL O SERVIDORES 
 SISTEMA BASE DE CLIENTES 
 ARREGLOS TEMPORALES PARCHES ACTUALIZACIONES 
 
 COPIA DE RESPALDO DE CONFIGURACIÓN 
 
 DE HARDWARE DE EQUIPO CENTRAL 
 DE CONTROLADORES EQUIPO CENTRAL 
 DE COMUNICACIÓN DE EQUIPO CENTRAL 
 DE ESTRUCTURA INTER REDES 
 DE HARDWARE DE CLIENTES 
 DE CONTROLADORES DE CLIENTES 
 DE SISTEMA BASE ESTÁNDAR DE CLIENTES 
 DE VALORES DEL SISTEMA 
 
 COPIA DE RESPALDO DE SEGURIDAD 
 
 DE NIVELES DE SEGURIDAD 
 DE PERFILES DE GRUPO Y USUARIOS 
 DE RECURSOS DE USUARIOS 
 DE RECURSOS DEL SISTEMA 
 
 COPIA DE RESPALDO DE APLICACIONES 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 16 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
 RESPALDO DE ARCHIVOS MAESTROS 
 RESPALDO DE MODIFICACIONES ARCHIVOS MAESTROS 
 COPIA DE PROGRAMAS ENLATADOS O A MEDIDA 
 COPIA DE ESTANDARIZACIÓN DE SISTEMAS DE OFICINA 
 
 COPIA DE RESPALDO DE ARCHIVOS DE DATOS 
 
 DE LAS APLICACIONES POR PRIORIDAD 
 DE OBJETOS DEL SISTEMA 
 DE OBJETOS DE LOS USUARIOS 
 DE PERSONALIZACIÓN DE SISTEMAS DE USUARIOS 
 DE ARCHIVOS DE DATOS DE USUARIOS 
 
 II) Programación de los respaldos 
 
 Con base a lo resuelto en el punto anterior, resulta que la COPIA DE RESPALDO DE 
ARCHIVOS DE DATOS, corresponde a las áreas que se modificaran con mayor frecuencia. Con lo 
que la periodicidad de la realización de las copias se invierte respecto del orden considerado. 
 La Programación debe establecer con qué frecuencia se respaldaran cada conjunto de 
archivos, que método de actualización se usara en cada caso y el número de copias simultáneos que 
se hará de cada conjunto; lo que “dimensionara” aproximadamente las necesidades en cuando a 
espacio de almacenamiento necesario. 
 
Método de Rotación Abuelo - Padre – Hijo (GFS) (También conocido como 
Abuela-Madre-Hija) 
 
 Esta es la técnica de mantener Ciclos de Resguardo con el esquema denominado Abuela - 
Madre - Hija. En principio se debe establecer qué es lo que se debe resguardar, para garantizar que 
un archivo anterior con el proceso de recupero quede debidamente actualizado. Es también importante 
establecer la cantidad de ciclos de retención. La misma debe ser en principio de 3 ciclos los cuales se 
denominan Abuela, Madre e Hija, si el resguardo es diario. Es necesario establecer cuáles de los ciclos 
se almacena afuera, que generalmente es el más antiguo ( Abuela ), o transferirlo por FTP encriptado. 
No se podrá disponer de la Abuela hasta que no pase la condición de Bisabuela. Lo más importante 
es que esta técnica nos permita reconstruir los archivos. 
 
La técnica denominada FTP ( File Transfer Protocol ) es utilizada para las transferencias de archivos 
a un lugar físico diferente. Esta técnica les permite a las organizaciones proteger sus datos de 
eventualidades ya que permite su posterior recupero para el desarrollo normal de las actividades sin 
que esto signifique una pérdida importante de tiempo y dinero (denominado plan de continuidad)
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 17 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
 
 
III) Dispositivos e Insumos 
 
Tipos Básicos De Almacenamiento Masivo 
 
 Las tecnologías de almacenamiento masivo se pueden clasificar de distintas maneras. El 
sistema de almacenamiento subyacente (magnético, óptico o magnetoóptico), el tipo de unidad (fija o 
removible), el material del medio (cinta, disco rígido, disco flexible) y la interfaz de hardware (ATA, 
ATAPI, SCSI, USB, Fireware / IEEE 1394, Canal de Fibra) en forma conjunta definen las 
características de cada tecnología. 
 
 Los sistemas de almacenamiento también se distinguen en almacenamiento de conexión 
directa o almacenamiento conectado a la red. El almacenamiento de conexión directa incluye unidades 
de escritorio estándar que se instalan dentro de un gabinete de computadora o se cablean 
directamente al mismo. El almacenamiento conectado a la red por lo general abarca almacenamiento 
accesible a múltiples computadoras y que puede estar conectado a un servidor y se puede acceder a 
él por medio de protocolos de sistema de archivos especiales (por ejemplo: Sistema de Archivo de 
Red o Sistema de Archivo Común de Internet) o puede ser parte de un sistema de almacenamiento 
que funciona en forma independiente de cualquier servidor en particular (por ejemplo, una Red SAN - 
Red de Área de Almacenamiento). 
 
Tecnologías: óptica y magnética 
 
Para grabar datos en un soporte físico más o menos perdurable se usan casi en exclusiva estas 
dos tecnologías. La magnética se basa en la histéresis magnética de algunos materiales y otros 
fenómenos magnéticos, mientras que la óptica utiliza las propiedades del láser y su alta precisión para 
leer o escribir los datos. 
 
No vamos a explicar aquí las teorías físicas en que se basa cada una de estas tecnologías, 
sino más bien las características peculiares prácticas de cada una de ellas. 
 
La tecnología magnética para almacenamiento de datos se lleva usando desde hace decenas 
de años, tanto en el campo digital como en el analógico. Consiste en la aplicación de campos 
magnéticos a ciertos materiales cuyas partículas reaccionan a esa influencia, generalmente 
orientándose en unas determinadas posiciones que conservan tras dejar de aplicarse el campo 
magnético. Esas posiciones representan los datos, bien sean una canción de los Beatles o bien los 
bits que forman una imagen o el último balance de la empresa. 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 18 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
Dispositivos magnéticos existen infinidad; desde las casetes o las antiguas cintas 
(carrete) pasando por los Zip y Jaz, recordando las disqueteras 
 , y los siempre vigentes discos duros y otros tan tradicionales como las 
cintas (cartuchos del tipo DAT : (Digital Audio Tape); DDS : (Digital Data Storage) ; QIC : Quarter-Inch 
Cartridge; EXABYTE : Cinta magnética de almacenamiento de Datos; AIT y SAIT : Advanced Intelligent Tape o Cinta 
Inteligente Avanzada; DLT : Digital Line Tape ; LTO : Linear Tape-Open . 
 
Todos se parecen en ser dispositivos grabadores a la vez que lectores, en su precio 
relativamente bajo por MB (lo que se deriva de ser tecnologías muy experimentadas) y en que son 
bastante delicados. 
 
Los afectan las altas y bajas temperaturas, la humedad, los golpes y sobre todo los 
campos magnéticos. 
 
La tecnología óptica de almacenamiento por láser es bastante más reciente. Su primera 
aplicación comercial masiva fue el superexitoso CD de música, que data de comienzos de la década 
de 1.980. Los fundamentos técnicos que se utilizan son relativamente sencillos de entender: un haz 
láser va leyendo (o escribiendo) microscópicos agujeros en la superficie de un disco de material 
plástico, recubiertos a su vez por una capa transparente para su protección del polvo. 
Realmente, el método es muy similar al usado en los antiguos discos de vinilo, excepto porque 
la información está guardada en formato digital (unos y ceros como valles y cumbres en la superficie 
del CD) en vez de analógico y por usar un láser como lector. El sistema no ha experimentado 
variaciones importantes hasta la aparición del DVD,que tan sólo ha cambiado la longitud de onda del 
láser, reducido el tamaño de los agujeros y apretado los surcos para que quepa más información en 
el mismo espacio. 
La principal característica de los dispositivos ópticos es su fiabilidad. No les afectan los campos 
magnéticos, apenas les afectan la humedad ni el calor y pueden aguantar golpes importantes (siempre 
que su superficie esté protegida). Sus problemas radican en una velocidad no tan elevada como la de 
algunos dispositivos magnéticos y en que precisan un cierto cuidado frente al polvo y en general 
cualquier imperfección en su superficie, por lo que es muy recomendable que dispongan de funda 
protectora. 
 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 19 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
 
Dispositivos de Almacenamiento de Información por Medio Electrónico (Memoria Flash) 
 
La más joven y prometedora forma de almacenamiento de información. Utiliza circuitos 
electrónicos para almacenar la información, los cuales no necesitan moverse para efectuar tal función. 
Este dispositivo es encontrado en los pendrives y tarjetas de memoria, muy 
comunes hoy en día. Debido su fácil manipulación, estos dispositivos ganaron fuerza rápidamente en 
el mercado. Sin embargo, su capacidad de almacenamiento de información todavía es limitada debido 
al alto valor de esta tecnología. Su tamaño es muy pequeño y se utilizan masivamente en 
computadoras, cámaras digitales y teléfonos celulares. 
 
 
 Se los identifica cómo unidades de estado sólido (SSD) 
 
 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 20 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
Los procedimientos de respaldo de información deben basarse en algún soporte físico 
adecuado al tamaño de los archivos a respaldar y a la velocidad necesaria para ejecutar los mismos 
sin ralentizar demasiado el sistema informático, ni prolongando innecesariamente tales tareas. Si 
bien la cinta magnética ha sido tradicionalmente el medio más idóneo, debido a su bajo costo y su 
alta capacidad de almacenamiento, su límite es la velocidad, al ser un medio de acceso secuencial. 
 Hoy en día existen un gran número de alternativas para nuestro sistema de respaldo y que 
consideraremos, a modo de ejemplo, PARA VER LOS PARAMETROS A CONSIDERAR 
 
Tabla: Comparación de los medios de almacenamiento 
 
Costo 
de la 
unidad 
Capacidad 
(GB) 
Velocidad de 
transferencia 
(MB/seg) 
Costo 
del 
medio 
por 
unidad 
Costo/GB 
para el 
medio 
Cantidad 
necesaria 
para 20 GB 
DVD-R (4,7GB) 4,7 1,4 4 
DVD-R (3,95 
GB) 3,95 1,4 5 
DVD-RAM 
(simple) 2,6 1,4 8 
DVD-RAM 
(doble) 5,2 1,4 4 
DLT-IV (Digital 
Linear Tape - 
Cinta Lineal 
Digital) 
 20 1,5 1 
Disco 
magnético 20 5-40 1 
* En el caso de los discos magnéticos, el costo se basa en la unidad de disco en sí misma; no hay 
costos diferentes por los medios. Los discos magnéticos varían sustancialmente en el precio, en lo 
que se refleja la interfaz (IDE o SCSI), la velocidad y la fiabilidad. 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 21 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
 
 
 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 22 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
IV) Método de Respaldo 
 
 Esta etapa contempla la elección de los comandos y/o aplicaciones a utilizar para hacer efectivo 
el respaldo de archivos. 
 Parte desde lo más básico, como utilizar las órdenes o comandos propios del sistema operativo. 
Si bien no son los más adecuados para ejecutar un plan como el habitual método elegido, en diversas 
situaciones, dan una salida para los casos en que, por ejemplo, tenemos fallas de hardware o de 
software. (Comandos como copy, cp, xcopy, fbackup, etc son los habituales) en general tienen la 
estructura 
 comando origen destino /parámetros /filtros 
 
 /parámetros pueden indicar fecha de realización, uso de compresión, verificación 
 
 /filtros se refiere a criterios de inclusión o exclusión de archivos 
 
 Una segunda alternativa está dada por las aplicaciones de respaldo y recuperación propias de 
los sistemas operativos, en general en entornos gráficos, prevén muchas de las opciones necesarias 
para un plan de respaldo 
 
 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 23 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 24 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
El software específico de respaldo, comercial o libre, permite administrar y controlar diversas 
copias de archivos digitales, en diversos tipos de dispositivos de almacenamiento (cintas, discos duros 
externos, etc.). Es efectivo si sigue estrictamente los procedimientos de seguridad y mantenimiento 
de la información, establecidos por la institución. Entre las características típicas podemos destacar 
 
Automatización del proceso 
Encriptación de datos para mayor seguridad en el soporte 
Filtros (para seleccionar o no determinados archivos) 
Agentes (pequeñas aplicaciones residentes para control de varios equipos,clientes-servidores) 
Reglas (de condiciones para salvar o no determinados archivos) 
Programación avanzada (que considere otras variables de fechas) 
Manejo de insumos (de diferentes tipos u orígenes) 
Manejo de Almacenamiento (considerando discos o volúmenes) 
Archivos activos (acción frente a archivos a respaldar en uso al momento del respaldo) 
Compresión (tipos de compresión usados para disminuir almacenamiento requerido) 
Históricos (para control de los resultados de planes de respaldo) 
Pool de soporte (crear conjuntos de copia de seguridad, para gestión de los insumos) 
Gestión de usuarios (privilegios para poseer diferentes tipos de acceso a los archivos) 
Antivirus (para control de los archivos copiados) 
 Las que podemos encontrar en las siguientes capturas de pantalla (Identifícalos): 
 
 
 
Backup Schedules – permite la automatización y planificación de backup 
Backup Clients – agentes para maquinas PCs 
Backup Jobs – Permite controlar los trabajos planificados 
Files Sets – Conjuntos de archivos a respaldar 
Volumen Pools – Permite gestionar conjuntos de insumos para backup (cintas, discos,etc) 
Storage …. – definir el destino de las copias de seguridad 
 
Hacia la derecha de la figura se muestra como se puede planificar un calendario de respaldos 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 25 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
En esta figura, donde está definido un backup identificado como “Client1”, podemos destacar 
 
Backup level – donde encontramos entre otros el completo, diferencial o integral (estudiados) 
Client to backup – nombre identificatorio del equipo a respaldar 
Backup on Schedule – la programación 
Volume pool – el destino de respaldo (cualquier unidad cargada o alguna definida en un pool) 
Backup priorty – establece la prioridad si se da la coincidencia con otro backup u otro en proceso 
 
Command before/after job – comando a ejecutar antes o despuésde realizado el backup en el 
servidor 
 
Command before/after job – comando a ejecutar antes o después de realizado el backup en el 
equipo cliente 
 
Los botones permiten guarda el trabajo, o ejecutarlo en este instante, o eliminarlo. 
 
 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 26 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
 
Esta figura corresponde a un producto comercial, en su entorno WEB podemos destacar 
 
Database Manager – Una base de datos de los backup planificados y los resultados de su ejecución; 
 
Merge Manager – si poseemos una unidad de respaldo ejecutada en otro equipo, la misma, a los 
efectos de efectuar una restauración, puede agregarse a la base de datos arriba aludida; 
 
Scan Manager – Una unidad de cinta puede contener varias sesiones de diferentes respaldos, esta 
opción muestra todas las sesiones que poseería la cinta; 
 
User Profile manager – Permite gestionar diferentes usuarios con privilegios de crear trabajos, solo 
ejecutarlos, administrar todas las opciones, etc; 
 
Tapecopy Tool – herramienta que permite ejecutar una copia de una cinta; 
 
Nótese que el acceso a las diferentes opciones requiere la identificación de un usuario y su entorno 
(dominio o servidor) de trabajo.- 
 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 27 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
En esta figura, se destaca, la lista de agentes (recuerda son pequeños programas residentes que se 
ejecutan en diferentes equipos, y que permiten conectarse con el software de backup para ejecutar 
los trabajos planificados) , expandir cualquiera de ellos mostraría la nomina de equipos enrolados. 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 28 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
podemos en esta figura 
destacar varios parámetros ya mencionados (discuta en clase que entiende por cada uno) 
Aquí vemos otra forma de 
establecer la planificación y el tipo de backup 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 29 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
 
 
 Criterios para incluir o excluir archivos en base a una serie de atributos. 
 
 
Se destaca la posibilidad de elegir entre diferente harware como destino de un backup. 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 30 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
V) Programa de Recuperación de Contingencias 
 
 Todo lo expresado se verificaría en el momento de darse la necesidad, frente a la ocurrencia 
de una contingencia, de restaurar archivos. Normalmente un momento de crisis y de trabajo bajo 
presión. 
 
 Por lo que todo Plan de Respaldo, se completa con un programa de Recuperación de 
Contingencias, donde debería establecerse: 
 
1) Frente a la perdida de hardware, las alternativas existentes (Equipo duplicado, y/o Equipos 
similares que puedan usarse (por alquiler de los mismos o de tiempo de procesamiento); 
 
2) Prioridades para la restauración de archivos, de acuerdo a las pérdidas producidas, acceso 
a los soportes a utilizar; 
 
 3) Métodos de comunicación y de convocatoria del personal necesario y/o autorizado para 
ejecutar la restauración. 
 
 Una buena práctica, consiste en la realización de simulacros de restauración, lo que permitiría 
evidenciar la eficacia o no de todo el Plan de Respaldo y Recuperación. Esto proporcionaría, además, 
tiempos, de actuación y recuperación, así como pautas para corregir desviaciones o fallas. 
 
Otras Técnicas de Respaldo 
 
a) Sincronización de archivos, (file synchronization) 
 
En informática, la sincronización de archivos es el proceso de asegurarse de que dos o más 
ubicaciones contengan las mismas versiones de los archivos. Si se agrega, modifica o elimina un 
archivo de una ubicación, el proceso de sincronización agregará, modificará o eliminará el mismo 
archivo en las otras ubicaciones. 
 
La sincronización de archivos permite mantener la misma versión de los archivos en múltiples 
ubicaciones, generalmente directorios en una computadora, en dispositivos de almacenamiento 
extraíbles (ej.: unidades USB flash), e incluso entre una computadora y un dispositivo móvil como un 
celular.El proceso de sincronización puede hacerse manualmente o automáticamente utilizando 
alguna herramienta de software, lo que permite más confiabilidad. 
 
Tipos de sincronización de archivos 
 
 * Una vía (one-way): también llamada mirroring o espejado, los archivos son copiados solo desde una 
ubicación fuente hacia una (o más) ubicación destino, pero ningún archivo es copiado en el sentido 
inverso. Por lo tanto las modificaciones hechas en destino no afectan a la fuente. 
 
 * Dos vías (two-way): los archivos son copiados en ambos sentidos, manteniendo ambas ubicaciones 
sincronizadas una con la otra. 
 
Características avanzadas de los programas de sincronización 
 
 * Para lograr más eficiencia, lo ideal sería que se sincronicen sólo aquellos datos que han cambiado, 
en lugar de copiar todo un archivo completo. 
 
 * Posibilidad de compresión de datos, si es que la sincronización se hace a través de una red. 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 31 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 * Capacidad de detección de conflictos, por ejemplo, cuando hay algún archivo que no está 
sincronizado correctamente (diferentes versiones de ambos lados). 
 
 * Posibilidad de previsualizar cualquier cambio antes de que se haga. 
 
 * Posibilidad de ver las diferencias entre archivos individuales. 
 
 
• Copiar archivos bloqueados o abiertos 
• Procesar un número ilimitado de archivos 
• Backup rápido y sincronización inteligente 
• Control de versiones: mantener versiones anteriores de copia de 
seguridad 
• Backup en disco: CD/DVD con concatenación de discos 
• Copia de seguridad y de correo electrónico 
• Soporte de secuencias de comandos 
• Compresión BZip2: mayor compresión 
• S.M.A.R.T. advertencias de protección para el disco 
• Potente motor de FTP y encriptación AES 
• Programación automática 
• Soporte de almacenamiento de Google y Amazon S3 
• Soporte de Microsoft Azure 
• Copia de seguridad de correo electrónico POP3/IMAP4 servidor 
• Integración con el servicio de gestión de SB 
• Notificación de run/creación de perfil 
• Ejemplos, llamadas y nuevas funciones de secuencias de 
comandos 
• Conjunto de excelentes características y personalización 
 
 
 b) Sistemas espejo de almacenamiento 
 
Los arquitectos del almacenamiento saben que una copia de seguridad no basta. En los 
entornos actuales altamente informatizados, las copias de seguridad acumulativas diarias o 
semanales completas pueden quedar obsoletas en cuestión de horas o incluso minutos después de 
ser creadas. En entornos de grandes almacenes de datos, ni siquiera se tiene en cuenta hacer copias 
de seguridad de datos en continuo cambio. La única salida para estos enormes sistemas es contar 
con sistemas espejo de almacenamiento: servidores literalmente idénticos con exactamente la misma 
capacidad. Existen dos métodos de operación de espejo: 
 Sincrónico: actualizaciones casi continúas en tiempo real entre sitios ubicados a una distancia 
hasta de 200 km entre sí. 
 Asincrónico:actualizaciones periódicas programadas entre sitios en cualquier parte del mundo. 
 
El modo en espejo utiliza una copia de un pase de los datos desde el datastore (almacén de datos) 
de origen hacia el de destino, y los bloques modificados en el datastore de origen se reflejan en 
la ubicación de destino. Transferir los datos entre los datastores de origen y de destino, y el 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 32 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
controlador de espejo administra la manera en que se aplican las escrituras en las máquinas 
virtuales durante la copia. 
 
Copias de disco en serie o en paralelo 
 
Con vSphere 5.1 y las versiones posteriores, ahora puede realizar hasta cuatro copias de disco 
en paralelo por operación de Storage vMotion. En versiones anteriores, vSphere copiaba en 
serie los discos que pertenecían a una máquina virtual. Por ejemplo, si se recibe una solicitud 
para copiar seis discos en una sola operación de Storage vMotion, las primeras cuatro copias 
se inician simultáneamente. Luego, tan pronto como finaliza una de las primeras cuatro, 
comienza la copia del disco siguiente. 
 
Si traslada discos entre diferentes datastores en una única operación de Storage vMotion, el 
proceso debería acelerarse de manera significativa. Se permiten ocho operaciones 
simultáneas de Storage vMotion, lo que no está directamente relacionado con el cambio a la 
copia de disco en paralelo. Por ejemplo, incluso aunque se emita una sola operación de 
Storage vMotion (y se deje espacio para otras siete operaciones en los datastores de destino), 
en esa única operación se podrían trasladar varios discos relacionados con una máquina 
virtual. 
 
 
 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 33 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
 
 
c) La mayor parte de las opciones de backup avanzadas, como el completo sintético, la 
copia en espejo, el backup incremental inverso y el CDP requieren que el destino del 
backup sea un almacenamiento en disco. 
 
d) Un backup completo sintético simplemente reconstruye la imagen del backup completo 
utilizando todos los backups incrementales o el backup diferencial guardado en disco. A 
continuación, ese backup completo sintético se puede restaurar en cinta para su 
almacenamiento fuera de la sede, y la ventaja es que se reduce el tiempo de 
restauración. 
 
e) La copia en espejo consiste en copiar los datos almacenados en el disco de backup a 
otro juego de discos, y los backups incrementales inversos se utilizan para añadir soporte 
de backup de tipo incremental. 
 
f) Por último, el CDP (Continuous data protection (CDP), also called continuous backup or 
real-time backup) permite un mayor número de puntos de restauración que las opciones 
de backup tradicionales, se refiere a la copia de seguridad de datos informáticos al 
guardar automáticamente una copia de todos los cambios hechos a la captura de datos, 
esencialmente todas las versiones de los datos que el usuario guarda. Permite al usuario 
o administrador restaurar los datos a cualquier punto en el tiempo. Protección continua 
de datos es diferente de backup tradicional en que no tienes que especificar el punto en 
el tiempo a recuperarse hasta que esté listo para restaurar y Protección continua de 
datos difiere de RAID, ya que la replicación o duplicación de estas tecnologías sólo 
protegen una copia de los datos (la más reciente). Si los datos se corrompen en una 
manera que no se detecta inmediatamente, estas tecnologías simplemente protegen los 
datos corruptos. 
 
 
Todas las técnicas mencionadas presentan sus pros y contras (por ejm. Es este último caso la 
necesidad de un mayor ancho de banda que puede afectar el rendimiento de la red ), por lo que a la 
hora de decidir el tipo de estrategia de backup, la cuestión no es tanto qué tipo de backup utilizar, 
como cuándo utilizar cada una de las opciones y cómo combinarlas con la realización de pruebas para 
cumplir los objetivos generales de costos comerciales, rendimiento y disponibilidad 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 34 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 TEMA: ARREGLOS DE DISCO 
 
La combinación de unidades de disco ha dado lugar a los llamados ARRAYS o ARREGLOS de 
discos. La tecnología de arreglos de discos está estrechamente relacionada con los sistemas RAID 
(Arreglos Redundantes de Discos Económicos), que originalmente fueron establecidos por la 
Universidad de California en Berkeley como una normativa de niveles, a los que en los últimos años 
se fueron agregando otros no normalizados y que en realidad ya no indican para nada un nivel 
normalizado, sino más bien en la mayoría de los casos una combinación de los niveles originales. Por 
otro parte, algunos de los RAID originales (como el 2 y el 4) prácticamente no han sobrevivido por no 
ofrecer ventajas apreciables respecto de otros. 
El objetivo principal del proyecto RAID fue la posibilidad de lograr redundancia de la información 
almacenada como una forma de ofrecer tolerancia a las fallas en equipos de computación de mayor 
porte. Pero paralelamente ha resultado que una adecuada combinación operativa de los arreglos de 
discos proporciona una mejora en la performance del sistema, sea vía la velocidad de transferencia o 
bien la posibilidad de operaciones simultáneas de E/S(I/O). 
En este sistema el grado de tolerancia a las fallas va desde algo tan simple como duplicar los 
discos (lo que significa un 100% de overhead) que se opera en forma paralela, hasta formas mas 
elaboradas que consisten en repartir la información a lo largo de drivers componentes del arreglo. En 
los casos en que no se usa una redundancia total, se recurre al agregado de información de paridad 
(con un overhead generalmente menor al 35%) gracias a lo cual se puede recomponer la información 
que pudiere perderse en uno de los drivers. 
Los sistemas RAID operan bajo el esquema de ENLISTADO o “stripping”, método que consiste 
en dividir el espacio de almacenamiento de cada drive en listas, bandas o tiras de cierta longitud. 
Entonces cada uno de los discos del arreglo está dividido en la misma cantidad de tiras. 
El uso del espacio aludido ya no se hace consecutivamente en una misma unidad sino que se 
lo segmenta en tiras consecutivas de cada drive. Esto significa usar como primer segmento la primer 
tira del primer drive, a continuación el segundo segmento irá en la primer tira del segundo drive y así 
sucesivamente hasta completar el arreglo, para iniciar otra vuelta con el siguiente segmento en la 
segunda tira del primer drive, el siguiente en la segunda del segundo driver, etc. Esto se puede asimilar 
también a una tabla o base de datos simple donde cada drive implica una columna o campo y las tiras 
del mismo orden constituyen una fila o registro. El llenado de esta tabla se hará en forma habitual de 
lectura es decir de izquierda a derecha y bajando un renglón o fila al llegar al extremo derecho. 
 
RAID o el arreglo redundante de discos Económicos (por las siglas en Inglés de redundant 
Array of Inexpensive Disks) o mejor aún, el Arreglo Redundante de discos Independientes (por 
las siglas en Inglés de Redundant Array of Independent Disks ). 
 
 
 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 35 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
Ese funcionamiento permite muchas configuraciones, entre más usadosnos encontramos con los 
siguientes: 
 
RAID 0. No ofrece tolerancia a fallos pero si mayor velocidad. En este caso los datos se distribuyen 
entre los discos sin añadir ningún control de errores. En cada uno de ellos se escribe un bloque. Se 
pueden usar todos los discos que quieras. Una configuración RAID 0 con 2 discos es hasta 2 veces 
más rápidas que un solo disco duro. 
 
RAID 1. En este caso lo que hacemos es replicar completamente los datos. Si tenemos una 
configuración de 2 discos los dos tendrán exactamente lo mismo. En caso de fallo de 1 se puede sacar 
y meter uno nuevo. Como ves este es el sistema que es más tolerante a fallos. En los servidores esta 
se usa sólo para lo que se considera más crítico como puede ser el sistema operativo. 
 
 
RAID 3. Aquí nos encontramos con al menos 3 discos. Todos menos 1 tienen datos, y el último se 
crea realizando un cálculo sobre los demás. Si uno de estos discos se estropea el sistema es capaz 
de recuperarlo usando la información de los otros. Por tanto si utilizas este sistema podrás recuperarte 
de fallos en uno de ellos. 
 
RAID 5. En este caso estos bits calculados se van incluyendo en cada uno de los discos y no sólo en 
uno. De esta forma se consigue mejorar la eficiencia del anterior. Para RAID 3, con cada escritura 
debemos acceder al disco duro que contiene la información de recuperación. O sea, que si tenemos 
varias tareas ejecutándose al mismo tiempo estaremos limitados por esa unidad. En equipos 
servidores es muy común que se ejecuten muchas tareas al mismo tiempo haciendo que RAID 3 no 
sea práctico. 
 
 
 
RAID MULTIPLES; otras configuraciones que podemos encontrar, entre otras, son las de RAID 50 y 
RAID 10, son combinaciones de RAID 5 con RAID 0 y de RAID 1 y RAID 0 respectivamente. En el 
caso del RAID 50 lo que hacemos es montar un RAID 0 sobre 2 agrupaciones de discos que, a su 
vez, están en RAID 5; por tanto, necesitaremos como mínimo 3 discos (uno para cada agrupación 
RAID 5) y conseguiremos un volumen muy robusto aunque algo caro. 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 36 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
BACKUP Y RAID 
La incorporación de un sistema RAID minimiza las probabilidades de pérdidas de datos a 
fallas de hardware. En base a todo esto, entonces, un primer análisis parece indicar una reducción 
en la necesidad de acceder a las cintas backup, pero ¿porque hacemos backup? 
Las razones no son pocas. Sin entrar en muchos detalles podemos citar los errores de los usuarios, 
fallas de hardware especialmente en las unidades de disco mal funcionamiento de servidores, del 
software o del propio sistema operativo y contaminación por virus. 
La primera observación nos dice que el espectro señalado es al menos más amplio del que 
cubren los diferentes sistemas RAIDs, y aún en los puntos más comunes podrían discutirse los 
correspondientes niveles de disponibilidad y eficiencia. De cualquier manera tenemos que 
reconocer que si bien es cierto que los problemas comentados no aparecerán con el agregado de 
un sistema RAID, algunos de ellos podrían ser controlados y/o reducidos significativamente. 
Se llegó a la conclusión que el respaldo de un sistema con arreglo de disco no es 
precisamente diferente de otro que no lo tenga, excepto por la periodicidad. 
Si, como normalmente se hace, la mayor parte de los datos críticos de una red se mantienen 
en un subsistema RAID, una de las conclusiones se basa en que gracia al mismo se extiende el 
tiempo efectivo entre fallas por lo tanto consecuentemente se reduce la necesidad de un respaldo. 
Como resultado de todo esto el uso de un arreglo de disco en el servidor pueda aliviar la 
necesidad de respaldar las maquinas individuales aunque obviamente es recomendable alguna 
periodicidad de respaldo en las mismas. 
La estrategia de respaldo de un servidor con un subsistema RAID no difiere de la de un 
servidor común, puesto que la unidad RAID puede verse como parte del ambiente del sistema 
operativo de la red. 
En todo caso debe tenerse en cuenta que algunos diseños RAID más avanzados segmentan 
el arreglo para completar un respaldo y esto permite que el usuario no tenga que sacar de línea 
todo el arreglo. 
El software de Backup, de cualquier manera debe poder manejar obviamente la capacidad 
total del arreglo, los múltiples volúmenes y el tamaño de los directorios correspondiente. 
En cuanto a las unidades y biblioteca de cinta, recordemos que en general los productos se 
orientan a ofrecer mayor performance o mayor capacidad. Pero si nuestras necesidades son de 
docenas de Terabytes será necesario considerar, por ejemplo, subsistemas robóticos para manejo 
de cartuchos. 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 37 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
TEMA SOLUCIONES DE ALMACENAMIENTO REMOTO (DAS – SAN – NAS) 
 
 
La manera tradicional de interconectar los dispositivos de almacenamiento en un sistema 
informático ha sido a través de una arquitectura de bus. Son conexiones dedicadas a un solo servidor, 
que es quien gestiona todo el movimiento de datos desde y hacia el almacenamiento. Este modelo es 
el que ahora se denomina DAS (Direct Attached Storage, almacenamiento directamente 
conectado) Este modelo ha evolucionado a lo largo del tiempo dotando de inteligencia sobre la gestión 
de los datos a la parte del almacenamiento: memorias caché propias, RAID (Redundant Array of 
Independent Disk) El SCSI es un estándar tan antiguo como los renombrados Ethernet o TCP/IP, que 
aparte de ser una especificación para la conexión mediante un bus paralelo entre procesadores y 
dispositivos puramente física, es también un potente protocolo de comunicaciones entre "iniciadores" 
(los procesadores centrales) y "objetivos" o dispositivos que sirven los datos en forma de "bloques". 
 
Frente a esta manera, hoy ya ha madurado el DS (Disconected Storage, almacenamiento 
desconectado) en su dos formas SAN (Storage Area Network o Redes de Almacenamiento por 
Area) y el NAS (Network Attached Storage o Almacenamiento Conectado a la Red). Estas junto 
al Almacenamiento en la nube se denominan metodos de Almacenamiento Remoto. 
 
 
 
 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 38 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
 
En las redes de almacenamiento (SAN) los elementos que entran a interactuar son los mismos 
que en el modelo anterior, pero esta vez cambia la forma de interconexión: lo que era un bus de hasta 
15 dispositivos y distancias no superiores a 25 metros se convierte en una infraestructura de red que 
nos va a permitir ir más allá en el número de dispositivos y servidores y en las distancias entre los 
mismos. 
 
La tecnología que hace posible una SAN es el estándar Fibre Channel1. Existe otro modelo 
para compartir almacenamiento a través de una red: el denominado NAS (Network Attached Storage, 
almacenamiento conectado a red) Un dispositivo NAS se conecta directamente a las redes de datos 
tradicionales basadas en TCP/IP a través de interfaces Ethernet y pone a disposición de los equipos 
de esta red el almacenamiento que gestiona mediante un protocolo de sistema de ficheros en red 
(NFS, CIFS o incluso HTTP). El dispositivo NAS utiliza el protocolo IP a través de Ethernet, para 
suministrar los archivos a los clientes previa solicitud de los mismos, es por esto que los dispositivos 
NAS ofrecen un alto rendimiento y la posibilidad de suministrar archivos a servidores heterogéneos. 
 
 
 
 
 
1El estándar Fibre Channel 
 
Es un estándar que pretende ser abiertoy que permita la interacción de dispositivos y componentes de distintos fabricantes. 
Está específicamente diseñado para la interconexión de dispositivos de almacenamiento, por lo que trata de aunar las ventajas 
de una red con las de un canal de datos tradicional. El encargado de redactar este estándar es el comité t11 de la ANSI, que 
por otra parte también se encarga del estándar SCSI en su comité t10. 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 39 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
 
 
Un dispositivo NAS es un servidor destinado exclusivamente al almacenamiento de datos (es 
decir, un array de almacenamiento) que se conecta a la red. Los clientes envían las peticiones de 
archivos directamente al dispositivo NAS, evitando a los servidores destinados a fines generales de la 
red. El dispositivo contiene un sistema operativo incrustado (en memoria ROM), simplificado y 
optimizado que sólo suministra archivos. Este dispositivo también incluye un procesador de E/S y un 
procesador de archivos. 
 
El dispositivo posee un sistema de archivos capaz de suministrar archivos de distintas 
plataformas, ya que es capaz de leer los datos de los principales sistemas de archivos. El micronúcleo 
(microkernel) reduce drásticamente la complejidad a la par que aumenta la fiabilidad del sistema. 
También posee la capacidad de compartir una copia de los datos entre varios servidores de 
aplicaciones, lo que lo convierte en una magnífica herramienta de colaboración entre plataformas. 
 
El sistema de almacenamiento NAS es más económico que un servidor estándar, lo que hace 
que la relación costo/beneficio sea mas atractiva. 
 
Este tipo de dispositivo también permite tomar instantáneas, es decir, imágenes de los 
directorios del cliente o del servidor en los que se almacenan los datos. Las instantáneas son registros 
de los lugares en que residen los datos, no copias de los datos. Para guardar una copia de un archivo 
pueden hacer falta varios Megabytes, mientras que para obtener una instantánea sólo hacen falta 
unos cuantos bytes. Las instantáneas permiten restaurar la versión anterior de un archivo de forma 
automática. Se puede configurar para que tome una instantánea de los archivos cada 50 minutos, lo 
que permite utilizar dicha instantánea para recuperar la versión anterior de un archivo que fue 
modificado. 
 
Es decir, un dispositivo NAS comparte ficheros mientras que en una SAN se comparten 
dispositivos de bloques. En el modelo NAS se utiliza una infraestructura de red de datos, mientras que 
en una SAN se crea una infraestructura de red nueva dedicada y orientada a compartir dispositivos de 
almacenamiento. Cada uno de los modelos tiene aplicaciones especificas y no son incompatibles entre 
sí. 
 
En resumen, el dispositivo NAS ofrece un elevado nivel de rendimiento y fiabilidad a un bajo 
costo. Es excelente para la colaboración y el almacenamiento de datos y archivos, en un entorno 
informático heterogéneo, 
 
Las soluciones NAS actúan como servidores en la LAN. Su propósito es el servicio 
especializado de ficheros. El objetivo es liberar a los servidores de aplicaciones de las tareas de 
gestión de datos. Esto significa la separación de las aplicaciones de los datos. El nivel de File System 
se coloca en el dispositivo de almacenamiento permitiendo a los datos, en la LAN, ser accedidos por 
todos los entornos cliente y dando acceso simultáneo a un gran rango de plataformas servidor. 
 
Ventajas 
Consolidación de almacenamiento a través de la red IP corporativa 
Compartición real de los datos por plataformas de proceso heterogéneas 
Mejora la disponibilidad, rendimiento y escalabilidad frente a servidores dedicados 
al servicio de ficheros 
Gestión centralizada del servicio de ficheros entre plataformas heterogéneas 
Facilita la implantación de proyectos de gestión de backup/restore centralizados 
y de disaster recovery 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 40 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
TEMA: PROTECCIÓN EN INSTALACIONES ELÉCTRICAS 
 
Trabajar con computadoras implica trabajar con electricidad. Por lo tanto es una de las 
principales áreas garantizar su provisión como medida de protección. Además es una 
problemática que abarca desde el usuario hogareño hasta la gran empresa. Veamos cuales son los 
lineamientos básicos de las medidas de protección con respecto a las instalaciones eléctricas, en 
la medida que los sistemas se vuelven más complicados se hace más necesaria lo presencia de un 
especialista para evaluar riesgos particulares y aplicar soluciones que estén de acuerdo con una 
norma de seguridad industrial. 
La puesta a tierra 
Los toma corrientes deben tener puesta a tierra real. Una puesta a tierra real significa que 
el tercer conector del toma corriente esté conectado, por medio de un cable, o una barra de cobre 
enterrada bajo tierra (este tipo de instalación está normalizada según una norma IRAM y lo debe 
realizar un electricista especializado). Esta conexión actúa cuando se produce una descarga sobre 
un aparato eléctrico (por ejemplo, la computadora), derivándola hacia la barra de cobre enterrada, 
en lugar de hacia la persona que está tocando el aparato. 
Sistema de protección y otras recomendaciones 
Contar con un disyuntor, llaves térmicas o algún otro sistema de protección disminuye los 
riesgos de electrocución. 
La instalación debe estar en buen estado, sin remiendas caseras y se deben evitar los 
"pulpos" que se forman cuando (“zapatillas” o triples mediante) conectamos “todo" al mismo 
tomacorriente. Invertir algo de dinero en la visita de un electricista responsable no só1o puede 
prevenir accidentes humanos sino que disminuye el riesgo de pérdidas de información por corte 
de energía eléctrica. 
Fluctuaciones y cortes de tensión. 
Si el sistema informático está en una zona con muchas variaciones de tensión es 
conveniente conectar la computadora con un filtro de línea que amortigüe estas fluctuaciones que 
pueden dañar el equipo. 
 Si se sufren cortes de suministro en forma frecuente, puede ser una buena inversión 
adquirir una unidad de alimentación ininterrumpida por batería (UPS) con autonomía suficiente 
para terminar el trabajo y grabarlo. 
 
El problema del servicio técnico 
 
El servicio técnico provisto por terceros es uno de los puntos débiles de la protección 
informática que deben ser manejados con mucho cuidado. Para el caso de la ingeniería social el 
servicio técnico puede convertirse en una fuente de provisión de información cuando terceras 
personas se hacen pasar por empleados que tienen algún problema con el sistema de 
computadoras. Esto ocurre principalmente cuando se instala un sistema nuevo. 
 
 
Cátedra: SEGURIDAD INFORMATICA – Ing Corbella Ricardo – Ing Zakhour Jose – Ing Arias Jorge 41 
 
UNIVERSIDAD TECNOLOGICA NACIONAL- FACULTAD REGIONAL TUCUMAN 
 INGENIERIA EN SISTEMAS DE INFORMACION -2014 
Irregularidades en el suministro eléctrico 
 
 
Elegir los UPS adecuados para proteger 
los equipos informáticos es una medida preventiva 
fundamental para cualquier organización. 
Hoy en día, los equipos informáticos son 
indispensables en cualquier organización. Las compañías eléctricas simplemente no pueden 
proporcionar la energía limpia y continua que exigen los sensibles equipos electrónicos. 
Actualmente, la peor amenaza al trabajo informático confiable la constituye los problemas de 
suministro de energía eléctrica. 
 
Un estudio realizado por IBM demostró que la computadora promedio está sometida a más de 120 
problemas al mes relacionado con la energía. Sus efectos son sutiles, como bloqueo de un teclado; o 
bien graves, como

Continuar navegando

Materiales relacionados