Logo Studenta

T01 Informática Básica

¡Este material tiene más páginas!

Vista previa del material en texto

TEMA 
01: Cuerpo de Auxiliares 
Administrativos del Estado 
 
 
 
 
 
Informática básica: Conceptos 
fundamentales sobre el Hardware y el 
Software. 
Sistemas de almacenamiento de datos. 
Sistemas operativos. 
Nociones básicas de seguridad 
Informática. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Bloque III. Ofimática. 
Página 1 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
ÍNDICE: 
 
I. INFORMÁTICA BÁSICA: CONCEPTOS FUNDAMENTALES SOBRE EL HARDWARE 
Y EL SOFTWARE. .................................................................................................. 3 
A. Software. ...................................................................................................... 11 
B. Hardware. .................................................................................................... 12 
II. SISTEMAS DE ALMACENAMIENTO DE DATOS. ................................................. 18 
A. Tipos de memorias. (Almacenamiento primario): ................................... 18 
B. Tipologías. (Almacenamiento secundario): ............................................. 19 
III. SISTEMAS OPERATIVOS. ................................................................................... 24 
IV. NOCIONES BÁSICAS DE SEGURIDAD INFORMÁTICA. .................................... 26 
A. Introducción. ............................................................................................... 26 
B. Términos relacionados con la seguridad informática. ............................ 26 
C. Objetivos. ..................................................................................................... 27 
D. Análisis de riesgos. ...................................................................................... 27 
E. Puesta en marcha de una política de seguridad. .................................. 28 
F. Las amenazas. ............................................................................................ 29 
G. Funciones de la seguridad. ........................................................................ 30 
H. Métodos criptográficos. ............................................................................. 31 
I. Firma digital. ................................................................................................ 33 
J. Certificados digitales. ................................................................................. 35 
K. Cortafuegos. ............................................................................................... 37 
L. Sistema de detección de intrusos. ............................................................ 38 
M. Antivirus. ....................................................................................................... 39 
N. Las mayores amenazas para la seguridad. ............................................. 40 
 
Página 2 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1. INFORMÁTICA BÁSICA: CONCEPTOS FUNDAMENTALES 
SOBRE EL HARDWARE Y EL SOFTWARE. 
 
 
En la actualidad no se puede pensar en casi ninguna actividad en la cual no 
intervengan de alguna manera los procesos de cómputo. Las computadoras 
han invadido la mayoría de las labores del ser humano. 
 
El mundo está cambiando y usted deberá aprender todas esas, antes 
complicadas, hoy comunes tecnologías modernas que le permitirán conseguir 
un empleo mejor retribuido y quizás, en poco tiempo, realizar trabajos desde la 
comodidad de su hogar (teletrabajo), reduciendo el tráfico en las calles y por 
ende la contaminación de las grandes ciudades. La mayoría de los gobiernos 
de los países en desarrollo han tomado muy en serio los programas de 
educación para crear en sus poblaciones una "cultura informática". 
 
Definitivamente, las computadoras están cambiando nuestras vidas. Ahora 
hemos de aprenderla para no quedar inmersos en una nueva forma de 
analfabetismo. Lo anterior contribuye a la creación de nuevos esquemas 
sociales que incluyen: novedosas maneras de comercialización aprovechando 
las facilidades para comunicarse con todo el mundo a través de Internet; la 
necesidad de crear leyes adecuadas a la realidad cibernética actual y, sobre 
todo; la concepción de una nueva manera de relacionarse con nuestros 
semejantes, que contemple una serie de normas éticas que regulen la 
convivencia pacífica y cordial entre los millones de personas que tienen que 
utilizar estas avanzadas tecnologías para realizar su trabajo, estudio, descanso 
y esparcimiento diarios. 
 
Hoy día todos los habitantes del mundo somos dependientes directos o 
indirectos del uso de las computadoras, como en oficinas bancarias, grandes y 
medianos comercios, centros de enseñanza, oficinas de ventas y reservaciones 
para viajes, clínicas médicas u hospitales, fábricas y almacenes industriales, 
organismos de gobierno y oficinas administrativas, laboratorios, y centros de 
investigación. 
 
Estas máquinas maravillosas inventadas por el hombre, tal como ahora las 
concebimos, son el resultado de una secuencia de eventos que el transcurso 
de esta investigación conoceremos. 
 
Para saber más acerca de estos eventos en esta investigación mostraremos las 
diferentes generaciones por las que ha pasado el mundo de la computación, 
esta larga historia es necesario mencionar las épocas y los personajes gracias a 
cuyos valiosos aportes a través del tiempo, hicieron posible la gestación de la 
hoy llamada Era de la Computación, la cual sin lugar a dudas es el resultado 
de un largo proceso evolutivo que jamás cesará. 
 
Primera generación. (1951 - 1958): 
 
Las computadoras de la primera Generación emplearon bulbos para 
procesar información. Los operadores ingresaban los datos y 
programas en código especial por medio de tarjetas perforadas. 
Página 3 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
El almacenamiento interno se lograba con un tambor que giraba 
rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba 
marcas magnéticas. Esas computadoras de bulbos eran mucho más 
grandes y generaban más calor que los modelos contemporáneos. 
 
Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era 
Generación formando una compañía privada y construyendo UNIVAC I, 
que el Comité del censo utilizó para evaluar el censo de 1950. La IBM 
tenía el monopolio de los equipos de procesamiento de datos a base de 
tarjetas perforadas y estaba teniendo un gran auge en productos como 
rebanadores de carne, básculas para comestibles, relojes y otros 
artículos; sin embargo, no había logrado el contrato para el Censo de 
1950. 
 
Comenzó entonces a construir computadoras electrónicas y su primera 
entrada fue con la IBM 701 en 1953. Después de un lento pero excitante 
comienzo la IBM 701 se convirtió en un producto comercialmente viable. 
Sin embargo, en 1954 fue introducido el modelo IBM 650, el cual es la 
razón por la que IBM disfruta hoy de una gran parte del mercado de las 
computadoras. La administración de la IBM asumió un gran riesgo y 
estimó una venta de 50 computadoras. 
 
Este número era mayor que la cantidad de computadoras instaladas en 
esa época en EE.UU. De hecho, la IBM instaló 1000 computadoras. El resto 
es historia. Aunque caras y de uso limitado las computadoras fueron 
aceptadas rápidamente por las Compañías privadas y de Gobierno. A la 
mitad de los años 50 IBM y Remington Rand se consolidaban como líderes 
en la fabricación de computadoras. 
 
Segunda generación. (1959 - 1964): 
 
Transistor compatibilidad limitada: 
 
El invento del transistor hizo posible una nueva Generación de 
computadoras, más rápidas, más pequeñas y con menores 
necesidades de ventilación. Sin embargo, el costo seguía siendo una 
porción significativa del presupuesto de una Compañía. 
 
Las computadoras de la segunda generacióntambién utilizaban 
redes de núcleos magnéticos en lugar de tambores giratorios para el 
almacenamiento primario. Estos núcleos contenían pequeños anillos 
de material magnético, enlazados entre sí, en los cuales podían 
almacenarse datos e instrucciones. 
 
Los programas de computadoras también mejoraron. El COBOL 
(Common Busines Oriented Languaje) desarrollado durante la 1era 
generación estaba ya disponible comercialmente, este representa 
uno de os más grandes avances en cuanto a portabilidad de 
programas entre diferentes computadoras; es decir, es uno de los 
primeros programas que se pueden ejecutar en diversos equipos de 
cómputo después de un sencillo procesamiento de compilación. 
 
Página 4 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Los programas escritos para una computadora podían transferirse a 
otra con un mínimo esfuerzo. Grace Murria Hooper (1906-1992), quien 
en 1952 había inventado el primer compilador fue una de las 
principales figuras de CODASYL (Comité on Data Systems Languages), 
que se encargó de desarrollar el proyecto COBOL. 
 
El escribir un programa ya no requería entender plenamente el 
hardware de la computación. Las computadoras de la 2da 
Generación eran sustancialmente más pequeñas y rápidas que las de 
bulbos, y se usaban para nuevas aplicaciones, como en los sistemas 
para reservación en líneas aéreas, control de tráfico aéreo y 
simulaciones para uso general. Las empresas comenzaron a aplicar 
las computadoras a tareas de almacenamiento de registros, como 
manejo de inventarios, nómina y contabilidad. 
 
La marina de EE.UU. utilizó las computadoras de la Segunda 
Generación para crear el primer simulador de vuelo. (Whirlwind I). 
HoneyWell se colocó como el primer competidor durante la segunda 
generación de computadoras. Burroughs, Univac, NCR, CDC, 
HoneyWell, los más grandes competidores de IBM durante los 60s se 
conocieron como el grupo BUNCH. 
 
Algunas de las computadoras que se construyeron ya con transistores 
fueron la IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, las 
IBM 7090 y 7094, NCR 315, las RCA 501 y 601, Control Data Corporation 
con su conocido modelo CDC16O4, y muchas otras, que constituían 
un mercado de gran competencia, en rápido crecimiento. En esta 
generación se construyen las supercomputadoras Remington Rand 
UNIVAC LARC, e IBM Stretch (1961). 
 
Tercera generación. (1964 - 1971): 
 
Circuitos Integrados, Compatibilidad con Equipo Mayor, 
Multiprogramación, Minicomputadora: 
 
Las computadoras de la tercera generación emergieron con el 
desarrollo de los circuitos integrados (pastillas de silicio) en las cuales 
se colocan miles de componentes electrónicos, en una integración 
en miniatura. 
 
Las computadoras nuevamente se hicieron más pequeñas, más 
rápidas, desprendían menos calor y eran energéticamente más 
eficientes. 
 
El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el 
ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así 
como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de 
Fairchild Semicon ductors, acerca de los circuitos integrados, dieron 
origen a la tercera generación de computadoras. 
 
Antes del advenimiento de los circuitos integrados, las computadoras 
estaban diseñadas para aplicaciones matemáticas o de negocios, 
pero no para las dos cosas. 
Página 5 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Los circuitos integrados permitieron a los fabricantes de 
computadoras incrementar la flexibilidad de los programas, y 
estandarizar sus modelos. 
 
La IBM 360 una de las primeras computadoras comerciales que usó 
circuitos integrados, podía realizar tanto análisis numéricos como 
administración o procesamiento de archivos. 
 
IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 
presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic 
Technology). Esta máquina causó tal impacto en el mundo de la 
computación que se fabricaron más de 30000, al grado que IBM llegó 
a conocerse como sinónimo de computación. 
 
También en ese año, Control Data Corporation presenta la 
supercomputadora CDC 6600, que se consideró como la más 
poderosa de las computadoras de la época, ya que tenía la 
capacidad de ejecutar unos 3 000 000 de instrucciones por segundo 
(mips). 
 
Se empiezan a utilizar los medios magnéticos de almacenamiento, 
como cintas magnéticas de 9 canales, enormes discos rígidos, etc. 
Algunos sistemas todavía usan las tarjetas perforadas para la entrada 
de datos, pero las lectoras de tarjetas ya alcanzan velocidades 
respetables. 
 
Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor 
tamaño y podían todavía correr sus programas actuales. Las 
computadoras trabajaban a tal velocidad que proporcionaban la 
capacidad de correr más de un programa de manera simultánea 
(multiprogramación). Por ejemplo, la computadora podía estar 
calculando la nómina y aceptando pedidos al mismo tiempo. 
Minicomputadoras, 
 
Con la introducción del modelo 360 IBM acaparó el 70% del 
mercado, para evitar competir directamente con IBM la empresa 
Digital Equipment Corporation DEC redirigió sus esfuerzos hacia 
computadoras pequeñas. 
 
Mucho menos costosas de comprar y de operar que las 
computadoras grandes, las minicomputadoras se desarrollaron 
durante la segunda generación, pero alcanzaron sumador auge 
entre 1960 y 70. 
 
Cuarta generación. (1971 - 1981): 
 
Microprocesador, Chips de memoria, Microminiaturización: 
 
Dos mejoras en la tecnología de las computadoras marcan el inicio 
de la cuarta generación: el reemplazo de las memorias con núcleos 
magnéticos, por las de chips de silicio y la colocación de muchos más 
componentes en un Chip: producto de la microminiaturización de los 
circuitos electrónicos. 
Página 6 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
El tamaño reducido del microprocesador y de chips hizo posible la 
creación de las computadoras personales (PC). 
 
En 1971, Intel Corporation, que era una pequeña compañía 
fabricante de semiconductores ubicada en Silicon Valley, presenta el 
primer microprocesador o Chip de 4 bits, que en un espacio de 
aproximadamente 4 x 5 mm contenía 2250 transistores. 
 
Este primer microprocesador que se muestra en la figura 1.14, fue 
bautizado como el 4004. 
 
Silicon Valley (Valle del Silicio) era una región agrícola al sur de la 
bahía de San Francisco, que, por su gran producción de silicio, a 
partir de 1960 se convierte en una zona totalmente industrializada 
donde se asienta una gran cantidad de empresas fabricantes de 
semiconductores y microprocesadores. 
 
Actualmente es conocida en todo el mundo como la región más 
importante para las industrias relativas a la computación: creación de 
programas y fabricación de componentes. 
 
Actualmente ha surgido una enorme cantidad de fabricantes de 
microcomputadoras o computadoras personales, que utilizando 
diferentes estructuras o arquitecturas se pelean literalmente por el 
mercado de la computación, el cual ha llegado a crecer tanto que 
es uno de los más grandes a nivel mundial; sobre todo, a partir de 
1990, cuando se logran sorprendentes avances en Internet. 
 
Esta generación de computadoras se caracterizó por grandes 
avances tecnológicos realizados en un tiempo muy corto. 
 
En 1977 aparecen las primeras microcomputadoras, entre las cuales, 
las más famosas fueron las fabricadas por Apple Computer, Radio 
Shack y Commodore Busíness Machines. IBM se integra al mercado 
de las microcomputadoras con su Personal Computer (figura 1.15), de 
donde les ha quedado como sinónimo el nombre de PC, y lo más 
importante; se incluye un sistema operativo estandarizado, el MS- DOS 
(MicroSoft Disk Operating System). 
 
Las principales tecnologíasque dominan este mercado son: 
 
IBM y sus compatibles llamadas clones, fabricadas por infinidad de 
compañías con base en los procesadores 8088, 8086, 80286, 80386, 
80486, 80586 o Pentium, Pentium II, Pentium III y Celeron de Intel y en 
segundo término Apple Computer, con sus Macintosh y las Power 
Macintosh, que tienen gran capacidad de generación de gráficos y 
sonidos gracias a sus poderosos procesadores Motorola serie 68000 y 
PowerPC, respectivamente. 
 
Este último microprocesador ha sido fabricado utilizando la 
tecnología RISC (Reduced Instruction Set Computing), por Apple 
Computer Inc., Motorola Inc. e IBM Corporation, conjuntamente. 
Página 7 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Los sistemas operativos han alcanzado un notable desarrollo, sobre 
todo por la posibilidad de generar gráficos a grandes velocidades, lo 
cual permite utilizar las interfaces gráficas de usuario (Graphic User 
Interface, GUI), que son pantallas con ventanas, iconos (figuras) y 
menús desplegables que facilitan las tareas de comunicación entre el 
usuario y la computadora, tales como la selección de comandos del 
sistema operativo para realizar operaciones de copiado o formato 
con una simple pulsación de cualquier botón del ratón (mouse) sobre 
uno de los iconos o menús. 
 
Quinta generación y la inteligencia artificial. (1982 - 1989): 
 
Cada vez se hace más difícil la identificación de las generaciones de 
computadoras, porque los grandes avances y nuevos descubrimientos 
ya no nos sorprenden como sucedió a mediados del siglo XX. 
 
Hay quienes consideran que la cuarta y quinta generación han 
terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-
1990 la quinta. Ellos consideran que la sexta generación está en 
desarrollo desde 1990 hasta la fecha. 
 
Siguiendo la pista a los acontecimientos tecnológicos en materia de 
computación e informática, podemos puntualizar algunas fechas y 
características de lo que podría ser la quinta generación de 
computadoras. 
 
Con base en los grandes acontecimientos tecnológicos en materia de 
microelectrónica y computación (software) como CADI CAM, CAE, 
CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría 
del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., 
a de la década de los años ochenta se establecieron las bases de lo 
que se puede conocer como quinta generación de computadoras. 
 
Hay que mencionar dos grandes avances tecnológicos, que sirvan 
como parámetro para el inicio de dicha generación: la creación en 
1982 de la primera supercomputadora con capacidad de proceso 
paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 
1968 con supercomputadoras, y que funda en 1976 la Cray Research 
Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta 
generación", que según se estableció en el acuerdo con seis de las más 
grandes empresas japonesas de computación, debería terminar en 
1992. 
 
El proceso paralelo es aquél que se lleva a cabo en computadoras que 
tienen la capacidad de trabajar simultáneamente con varios 
microprocesadores. 
 
Aunque en teoría el trabajo con varios microprocesadores debería ser 
mucho más rápido, es necesario llevar a cabo una programación 
especial que permita asignar diferentes tareas de un mismo proceso a 
los diversos microprocesadores que intervienen. 
 
Página 8 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
También se debe adecuar la memoria para que pueda atender los 
requerimientos de los procesadores al mismo tiempo. Para solucionar 
este problema se tuvieron que diseñar módulos de memoria compartida 
capaces de asignar áreas de caché para cada procesador. 
 
Según este proyecto, al que se sumaron los países tecnológicamente 
más avanzados para no quedar atrás de Japón, la característica 
principal sería la aplicación de la inteligencia artificial (Al, Artificial 
Intelligence). Las computadoras de esta generación contienen una gran 
cantidad de microprocesadores trabajando en paralelo y pueden 
reconocer voz e imágenes. También tienen la capacidad de 
comunicarse con un lenguaje natural e irán adquiriendo la habilidad 
para tomar decisiones con base en procesos de aprendizaje 
fundamentados en sistemas expertos e inteligencia artificial. 
 
El almacenamiento de información se realiza en dispositivos magneto 
ópticos con capacidades de decenas de Gigabytes; se establece el 
DVD (Digital Video Disk o Digital Versatile Disk) como estándar para el 
almacenamiento de video y sonido; la capacidad de almacenamiento 
de datos crece de manera exponencial posibilitando guardar más 
información en una de estas unidades, que toda la que había en la 
Biblioteca de Alejandría. Los componentes de los microprocesadores 
actuales utilizan tecnologías de alta y ultra integración, denominadas 
VLSI (Very Large Sca/e Integration) y ULSI (Ultra Large Scale Integration). 
 
Sin embargo, independientemente de estos "milagros" de la tecnología 
moderna, no se distingue la brecha donde finaliza la quinta y comienza 
la sexta generación. Personalmente, no hemos visto la realización cabal 
de lo expuesto en el proyecto japonés debido al fracaso, quizás 
momentáneo, de la inteligencia artificial. 
 
El único pronóstico que se ha venido realizando sin interrupciones en el 
transcurso de esta generación, es la conectividad entre computadoras, 
que, a partir de 1994, con el advenimiento de la red Internet y del World 
Wide Web, ha adquirido una importancia vital en las grandes, medianas 
y pequeñas empresas y, entre los usuarios particulares de 
computadoras. 
 
El propósito de la Inteligencia Artificial es equipar a las Computadoras 
con "Inteligencia Humana" y con la capacidad de razonar para 
encontrar soluciones. 
 
Otro factor fundamental del diseño, la capacidad de la Computadora 
para reconocer patrones y secuencias de procesamiento que haya 
encontrado previamente, (programación Heurística) que permita a la 
Computadora recordar resultados previos e incluirlos en el 
procesamiento, en esencia, la Computadora aprenderá a partir de sus 
propias experiencias usará sus Datos originales para obtener la respuesta 
por medio del razonamiento y conservará esos resultados para 
posteriores tareas de procesamiento y toma de decisiones. 
 
Página 9 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Sexta generación. (1990 hasta la fecha): 
 
Como supuestamente la sexta generación de computadoras está en 
marcha desde principios de los años noventa, debemos por lo menos, 
esbozar las características que deben tener las computadoras de esta 
generación. También se mencionan algunos de los avances 
tecnológicos de la última década del siglo XX y lo que se espera lograr 
en el siglo XXI. 
 
Las computadoras de esta generación cuentan con arquitecturas 
combinadas Paralelo / Vectorial, con cientos de microprocesadores 
vectoriales trabajando al mismo tiempo; se han creado computadoras 
capaces de realizar más de un millón de millones de operaciones 
aritméticas de punto flotante por segundo (teraflops); las redes de 
área mundial (Wide Area Network, WAN) seguirán creciendo 
desorbitadamente utilizando medios de comunicación a través de 
fibras ópticas y satélites, con anchos de banda impresionantes. 
 
Las tecnologías de esta generación ya han sido desarrolla das o están 
en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; 
teoría del caos, sistemas difusos, holografía, transistores ópticos, 
etcétera. 
 
Concepto de informática: 
 
El concepto de informática se refiere a una técnica para el tratamiento 
automático de la información, es decir, a una técnica que permite 
transformaciones de la información por medio de máquinas. 
 
Una computadora, también denominada comoordenador o computador, 
es un aparato que recibe y procesa datos para convertirlos en información 
útil. Una computadora es una colección de circuitos integrados y otros 
componentes relacionados que puede ejecutar con exactitud, 
sorprendente rapidez, y de acuerdo a lo indicado por un usuario o 
automáticamente por otro programa, una múltiple variedad de secuencias 
o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas 
en función a una amplia gama de aplicaciones prácticas y precisamente 
determinadas, proceso al cual se le ha denominado con el nombre de 
programación y al que lo realiza se le llama programador. 
 
La computadora u ordenador, además de la rutina o programa informático, 
necesita de datos específicos (a estos datos, en conjunto, se les conoce 
como "Input" en inglés) que deben ser suministrados, y que son requeridos al 
momento de la ejecución, para proporcionar el producto final del 
procesamiento de datos, que recibe el nombre de "output". 
 
La información puede ser entonces utilizada, reinterpretada, copiada, 
transferida, o retransmitida a otra(s) persona(s), computadora(s) o 
componente(s) electrónico(s) local o remotamente usando diferentes 
sistemas de telecomunicación, pudiendo ser grabada, salvada o 
almacenada en algún tipo de dispositivo o unidad de almacenamiento 
Página 10 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
La característica principal que la distingue de otros dispositivos similares, 
como una calculadora no programable, es que puede realizar tareas muy 
diversas cargando distintos programas en la memoria para que el 
microprocesador los ejecute. 
 
A. Software. 
 
Se denomina software, programa, equipamiento lógico o soporte lógico a 
todos los componentes intangibles de una computadora, es decir, al 
conjunto de programas y procedimientos necesarios para hacer posible la 
realización de una tarea específica, en contraposición a los componentes 
físicos del sistema (hardware). Esto incluye aplicaciones informáticas tales 
como un procesador de textos, que permite al usuario realizar una tarea, y 
software de sistema como un sistema operativo, que permite al resto de 
programas funcionar adecuadamente, facilitando la interacción con los 
componentes físicos y el resto de aplicaciones. 
 
Aplicaciones: 
 
En informática, una aplicación es un programa informático diseñado 
para facilitar al usuario la realización de un determinado tipo de trabajo. 
Posee ciertas características que lo diferencian de un sistema operativo 
(que hace funcionar al ordenador), de una utilidad (informática) (que 
realiza tareas de mantenimiento o de uso general) y de un lenguaje (con 
el cual se crean los programas informáticos). 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Los programas de aplicación se dividen en muchos tipos, entre los cuales 
se pueden nombrar: 
 
• De procesadores de texto: OpenOffice, Lotus Word Pro, Microsoft 
Word, Corel Word-Perfect, OpenOffice.org Writer. 
 
• De hojas electrónicas o de cálculo: Quattro Pro, Lotus 1-2-3, 
OpenOffice.org Calc, Microsoft Excel. 
 
• De manejo de Base de datos: MySQL, Microsoft Access, Visual 
FoxPro, dBase. 
 
• Comunicación de datos: Internet Explorer, Netscape Navigator, 
Kazaa, MSN Messenger. 
Página 11 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
• Multimedia: Windows Media Player, Winamp, RealPlayer. 
 
• De presentaciones: Microsoft Power Point, OpenOffice.org 
Impress, Corel Presentations. 
 
• De diseño gráfico: Corel Draw, Corel PHOTO-PAINT, AutoCAD. 
 
• De edición: Adobe Acrobat. 
 
• De cálculo: Maple. 
 
• De finanzas: Imprimir Cheques, Microsoft Money. 
 
• De correo electrónico: Kmail, Outlook Express, Mozilla Thunderbird. 
 
• De compresión de archivos: WinZip, WinRar. 
 
Algunas compañías como Microsoft, Lotus, Sun Microsystems o Corel, 
entre otras, agrupan varios programas de distinta naturaleza para que 
formen un paquete (llamados suites o suite ofimática) que sean 
satisfactorios para las necesidades más apremiantes del usuario. 
 
B. Hardware. 
 
Podemos definir como hardware, al conjunto físico de elementos integrantes 
del ordenador, a sus componentes, la parte material. Corresponde a todas 
las partes físicas y tangibles de una computadora: sus componentes 
eléctricos, electrónicos, electromecánicos y mecánicos; sus cables, 
gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico 
involucrado. 
 
Las fases que se diferencian en el procesamiento son: 
 
• Entrada: introducir en el ordenador los datos necesarios para realizar 
la tarea. 
 
• Proceso: aquí se lleva a cabo el trabajo (cálculos y solución que 
realiza el ordenador). 
 
• Salida: se muestran los resultados al que planteó el problema. 
 
Los elementos de hardware básicos son los siguientes: 
 
• Entrada: periféricos de entrada de datos al ordenador (ratón, 
escáner, etc.). 
 
• Procesamiento: CPU (Unidad de Procesamiento Central). 
 
• Salida: periféricos de salida de datos del ordenador (impresoras, 
altavoces, etc.). 
 
Página 12 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Un PC es un ordenador personal, diferente a los macroordenadores de los 
centros de procesamiento (Host). Estos PC han evolucionado de tal 
manera que su capacidad y posibilidades son enormes, superando a 
muchos grandes procesadores. 
 
Existen varios tipos de ordenadores: 
 
1. Portátiles o notebooks: integran todos los elementos en una unidad. 
 
2. PDA: aún más pequeños y transportables PDA, del inglés Personal 
Digital Assistant, es una computadora de mano originalmente 
diseñada. 
 
3. Una Tableta, tablet o tablet computer: es un tipo de computadora 
portátil, de mayor tamaño que un smartphone o una PDA, 
integrado en una pantalla táctil (sencilla o multitáctil) con la que se 
interactúa primariamente con los dedos, sin necesidad de teclado 
físico ni ratón. 
 
4. Smartphones: capaces de conectarse a Internet y de tener 
aplicaciones para diferentes tareas, actualmente con su propio 
sistema operativo (Android, IOS,). 
 
La Placa Base es el “corazón” del ordenador. En ella están el procesador, 
la memoria, los controladores de disco, puertos, tarjetas de audio, etc. Su 
función es la de transformar una información de entrada en una 
información de salida. 
 
El procesador o microprocesador está colocado en la Unidad Central del 
Sistema. La velocidad de éste se mide en Gigahercios. 
 
Está compuesto básicamente por: una Unidad de control y una Unidad 
aritmético-lógica, que realiza cálculos y comparaciones y toma de 
decisiones lógicas. Ejecuta instrucciones almacenadas como números 
binarios organizados secuencialmente en la memoria principal. 
 
La memoria es donde se almacena la información y principalmente 
podemos destacar dos tipos de memoria: RAM y ROM. 
 
• La primera (RAM) podemos decir que es la “Memoria Principal” y es 
la más importante. 
 
Es una memoria de trabajo, de acceso aleatorio y que, al apagar 
el ordenador, pierde toda la información. Esta memoria es la que 
permite que podamos tener varios programas abiertos. 
 
• La segunda (ROM) es la memoria de lectura que conserva la 
información, aunque cese la electricidad. 
 
La unidad mínima de memoria es el BIT (tiene dos valores: 0 y 1). 
Página 13 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
La unidad básica de información es el BYTE. Un bit es muy pequeño para 
un uso normal, por lo que se usa un conjunto de ellos, es decir 8 bits, que 
forman un byte. Como un byte sigue siendo pequeño para manejar textos 
o datos, usamos un múltiplo suyo, el Kilobyte (1 KB = 1024 bytes). 
 
Como actualmente manejamos datos cada vez más extensos, del Kilobyte 
pasamos aun múltiplo suyo, el Megabyte (1 MB = 1024 KB) o al Gigabyte (1 
GB = 1024 MB). 
 
Los Gigabytes se usan normalmente para los discos duros o memorias RAM. 
Últimamente también se está manejando ya información que ocupa 
muchísimos GB, con lo cual pasamos a su otro múltiplo que es el Terabyte 
(1 TB = 1024 GB). 
 
1 byte 8 bits 
1 kilobyte 1024 byte 
1 megabyte 1024 kilobyte 
1 gigabyte 1024 megabyte 
1 terabyte 1024 gigabyte 
 
Partes internas de una computadora: 
 
A continuación, te enumeramos todas las partes de la “caja” del 
ordenador, que se suele llamarse Placa Base (En otros países puede 
significar procesador o Central Unit Processor). Digamos que es la parte 
más importante de cualquier computadora, ahí es donde se guardan los 
datos, donde se realizan los cálculos y es donde se conecta todo lo 
demás. 
 
Microprocesador: 
 
El procesador junto a la motherboard y la 
memoria RAM es una de las piezas 
imprescindibles para una computadora. 
Generalmente es un pequeño cuadrado de 
silicio con muchos pines recubiertos de oro 
que recibe instrucciones, las procesa y manda 
órdenes. Cada procesador dispone de unas instrucciones 
predefinidas como suma, resta, multiplicación, desplazamiento… etc. 
Dispone de una pequeña memoria cache, que tiene muy poca 
capacidad, pero es ultra rápida. Quizás se podría comparar un 
procesador con una fábrica, recibe materia prima y devuelve 
producto terminado. 
 
Motherboard, Placa madre o placa base: 
 
Este componente, a veces menospreciado, 
es tan importante como el procesador. La 
motherboard sincroniza el funcionamiento 
de TODOS las partes de una computadora, 
el 99% de los dispositivos están conectados 
ahí. 
Página 14 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Si comparamos el procesador con una fábrica, la placa madre 
podríamos comparar con la red de carreteras que la rodean. Es un 
componente que se fabrica pensando en determinada familia de 
procesadores y con unos estándares en mente. 
 
De hecho, lo primero que debemos elegir al montar un ordenador es 
la motherboard y después ir mirando si soporta determinados 
dispositivos o estándares. Por ejemplo, cuantas tarjetas de vídeo 
podemos conectar, si tiene 2 o 1 tarjetas de red, si soporta memoria 
RAM ECC (memoria especial para servidores) … etc. 
 
Memoria RAM: 
 
La memoria RAM es una memoria Intermedia 
que guarda los datos e instrucciones 
intermedias. Guarda por ejemplo un documento 
Word mientras lo editamos en el Office. 
 
Es la segunda memoria más rápida de la computadora, después de 
la memoria cache. Todos los datos que se guardan ahí se borran 
cuando apagamos el equipo a diferencia por ejemplo del disco duro. 
 
En los últimos años esta memoria se ha incrementado a 16Gb. En los 
servidores incluso puedes encontrar 64GB o 128GB de memoria RAM 
DDR4 ECC. 
 
Disco duro: 
 
El disco duro es otro de los componentes 
esenciales de nuestro sistema informático. 
 
Generalmente es una parte interna de cualquier computadora, 
aunque en los últimos años se ha popularizado el formato externo, en 
el fondo la tecnología es la misma. 
 
El “Hard Drive” por prestaciones es mucho más lento que la memoria 
RAM, sin embargo, tiene mucha más capacidad. Actualmente 
puedes encontrar fácilmente unidades de 4Tb-6Tb, lo más común y 
económico es tener 1-2Tb. 
 
Además, es el componente que cambia radicalmente de 
tecnología. La tecnología magnética poco a poco da paso a la 
“solida” o “química” de los discos SSD o Solid State Drive muchísimo 
más rápidos, se están convirtiendo en el estándar. 
 
Lectores ópticos: 
 
Los lectores ópticos eran muy populares en el 
pasado. Básicamente son los que leen todos 
estos discos DVD, CD o Blu-ray. Ahora mismo con Internet muy 
desarrollado en muchos países está casi en desuso el lector de discos. 
Página 15 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Cualquier información ahora la puedes descargar de Internet o te la 
puedes llevar en una memoria USB. 
 
Tarjeta de vídeo o tarjeta gráfica: 
 
La tarjeta de vídeo o tarjeta gráfica es la parte de 
nuestro ordenador que manda la señal de vídeo 
hacia nuestro monitor o televisor. Por si sola 
prácticamente es un pequeño ordenador ya que en la placa tiene un 
procesador, memoria RAM, BIOS, entradas de alimentación… etc. Son 
imprescindibles para la gente que busca sobre todo jugar o editar 
vídeo o 3D. 
 
Periféricos, o dispositivos auxiliares de una computadora: 
 
Seguramente se nos viene a la cabeza el teclado. Sin embargo, hay 
unos cuantos dispositivos de entrada a describir. Por lo general aquí 
clasificaremos dispositivos que sirven para mandar órdenes a nuestra 
CPU, que serán procesados y almacenados o mostrados mediante 
unidades de salida de información. Por ejemplo, el ratón, tabletas 
gráficas, lectores de códigos de barras, el track pad en un portátil o 
lector de huellas. 
 
Mouse o ratón: 
 
El mouse o el ratón es una parte esencial 
de cualquier computadora. Actualmente 
está en proceso de una gran 
transformación tecnológica y quizás es uno de los componentes 
que desaparecerá en el futuro. Las pantallas táctiles de calidad 
vistas por primera vez en iPhone (Realmente han sido inventadas 
hace tiempo, pero nunca con tanta calidad) han supuesto una 
revolución en el manejo no solo de los ordenadores si no de móviles, 
tablet PC, navegadores GPS, relojes, Mp3, eBook… etc. 
 
Monitor: 
 
El monitor es donde visualizamos el diálogo con el ordenador y el 
teclado se utiliza para escribir las instrucciones que se desea dar 
al ordenador y para introducir los datos a procesar. 
 
 
 
 
 
 
 
 
 
 
 
Página 16 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Los periféricos son los dispositivos físicos capaces de comunicar 
información entre el usuario y el ordenador. Éstos pueden ser de 
Entrada, de Salida o de Entrada y Salida (E/S). 
 
• Impresoras: láser, térmicas, margarita, matriciales, inyección. 
 
• Lectores ópticos: scanner. 
 
• Lápices luminosos. 
 
• Puertos: conectores que se encuentran en la unidad del 
sistema (conectan el teclado, monitor…) 
 
• Mouse o ratón: permite desplazarnos por la pantalla y dialogar 
a clics. 
 
• Las unidades de disco, canales, y controladoras: mover 
información. 
 
• Plotter: impresora gran. 
 
Página 17 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2. SISTEMAS DE ALMACENAMIENTO DE DATOS. 
 
 
Un dispositivo de almacenamiento de datos es un conjunto de componentes 
utilizados para leer o grabar datos en el soporte de almacenamiento de datos, 
en forma temporal o permanente. 
 
La unidad de disco junto con los discos que graba, conforma un dispositivo de 
almacenamiento (device drive) o unidad de almacenamiento. 
 
Una computadora tiene almacenamiento primario o principal (RAM y ROM) y 
secundario o auxiliar. 
 
A. Tipos de memorias. (Almacenamiento primario): 
 
• La memoria de acceso aleatorio (Random Access Memory, RAM) se 
utiliza como memoria de trabajo de computadoras para el sistema 
operativo, los programas y la mayor parte del software. 
 
En la RAM se cargan todas las instrucciones que ejecuta la unidad 
central de procesamiento (procesador) y otras unidades del 
computador. 
 
Se denominan «de acceso aleatorio» porque se puede leer o escribir 
en una posición de memoria con un tiempo de espera igual para 
cualquier posición, no siendo necesario seguir un orden para acceder 
(acceso secuencial) a la información de la manera más rápida 
posible. 
 
Durante el encendido de la computadora, la rutina POST verifica que 
los módulos de RAM estén conectados de manera correcta. En el caso 
que no existan o no se detecten los módulos, la mayoría de tarjetasmadres emiten una serie de sonidos que indican la ausencia de 
memoria principal. Terminado ese proceso, la memoria BIOS puede 
realizar un test básico sobre la memoria RAM indicando fallos en la 
misma, los sistemas operativos más utilizados como por ejemplo 
Windows, también tienen una aplicación para encontrar errores en 
memoria. 
 
• La memoria de sólo lectura, conocida también como ROM (acrónimo 
en inglés de read-only memory), es un medio de almacenamiento 
utilizado en ordenadores y dispositivos electrónicos, que permite sólo la 
lectura de la información y no su escritura, independientemente de la 
presencia o no de una fuente de energía. 
 
Los datos almacenados en la ROM no se pueden modificar, o al 
menos no de manera rápida o fácil. Se utiliza principalmente en su 
sentido más estricto, se refiere solo a máscara ROM -en inglés, MROM- 
(el más antiguo tipo de estado sólido ROM), que se fabrica con los 
datos almacenados de forma permanente y, por lo tanto, su 
contenido no puede ser modificado de ninguna forma. 
Página 18 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Sin embargo, las ROM más modernas, como EPROM y Flash EEPROM, 
efectivamente se pueden borrar y volver a programar varias veces, 
aun siendo descritos como "memoria de sólo lectura" (ROM). 
 
La razón de que se las continúe llamando así es que el proceso de 
reprogramación en general es poco frecuente, relativamente lento y, 
a menudo, no se permite la escritura en lugares aleatorios de la 
memoria. 
 
A pesar de la simplicidad de la ROM, los 
dispositivos reprogramables son más 
flexibles y económicos, por lo cual las 
antiguas máscaras ROM no se suelen 
encontrar en hardware producido a partir 
de 2007. 
 
B. Tipologías. (Almacenamiento secundario): 
 
Atendiendo a la tecnología utilizada podemos distinguir: 
 
• Tecnologías simples. Se refieren a soportes de papel en los que la 
información se representa a través de perforaciones en 
determinados lugares; es el caso de tarjetas perforadas o las cintas 
de papel perforado ambos en desuso y obsoletos. 
 
• Tecnologías magnéticas. Representan la información en bits. 
Consiste en la aplicación de campos magnéticos a ciertos 
materiales cuyas partículas reaccionan a esa influencia, 
generalmente orientándose en unas determinadas posiciones que 
conservan tras dejar de aplicarse el campo magnético. 
 
Esas posiciones representan los datos. Dispositivos magnéticos 
existen infinidad; desde las casetes o las antiguas cintas de música 
hasta los modernos Zip y Jazz, pasando por disqueteras, discos duros 
y otros similares. 
 
Todos ellos son dispositivos grabadores a la vez que lectores y son 
bastante delicados, ya que les afectan las altas y bajas 
temperaturas, la humedad, los golpes y sobre todo los campos 
magnéticos. 
 
a) Cintas magnéticas. La cinta se va desenrollando del carrete 
de alimentación y se va enrollando en el de la bobina, 
pasando por una cabeza de grabación. Son dispositivos de 
acceso secuencial. Si la cinta está situada al principio, para 
leer un registro habrá que leer todos los anteriores. 
 
b) Discos magnéticos. Es el elemento más habitual de 
almacenamiento. 
 
Página 19 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Está compuesto por numerosos 
discos de aluminio recubiertos por un 
material sensible a alteraciones 
magnéticas, uno sobre el otro, 
atravesados y unidos por un eje. 
Cada disco posee dos pequeños 
cabezales, uno en cada cara, que 
puede moverse acercándose o 
retirándose del centro del mismo flotando sobre el disco sin 
llegar a tocarlo. La información se graba en cierto número 
de círculos concéntricos llamados pistas, que a su vez se 
dividen en sectores. 
 
c) Disquetera: 
 
La disquetera, unidad 
de disco flexible o 
unidad de disquete 
(floppy disk drive, FDD) 
de 3½ pulgadas 
permite intercambiar 
información utilizando 
disquetes magnéticos de 1,44 MB de capacidad. La 
transferencia de información es bastante lenta si la 
comparamos con otros soportes, como el disco duro o un 
CD-ROM. Actualmente ha caído completamente en 
desuso. 
 
d) Tecnologías ópticas: 
 
La unidad de discos magneto-ópticos permiten el proceso 
de lectura y escritura de dichos discos con tecnología 
híbrida de los disquetes y los discos ópticos, aunque en 
entornos domésticos fueron menos usadas que las 
disqueteras y las unidades de CD- ROM, pero tienen algunas 
ventajas en cuanto a los disquetes. 
 
Por una parte, admiten discos de gran capacidad: 230 MB, 
640 MB o 1,3 GB. Además, son discos reescribibles, por lo que 
es interesante emplearlos, por ejemplo, para realizar copias 
de seguridad. 
 
Unidad de CD-ROM: 
 
La unidad de CD-ROM, lectora de CD o "compactera" 
permite utilizar discos ópticos de una mayor capacidad 
que los disquetes de 3,5 pulgadas: hasta 900 MB. Ésta es 
su principal ventaja, pues los CD-ROM se convirtieron en 
el estándar para distribuir sistemas operativos, 
aplicaciones, etc. 
 
Página 20 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
El uso de estas unidades está muy extendido, ya que 
también permiten leer los discos compactos de audio. 
 
Una característica básica de las unidades de CD-ROM 
es la velocidad de lectura, que normalmente se expresa 
como un número seguido de una «x» (40x, 52x,). 
 
Este número indica la velocidad de lectura en múltiplos 
de 128 kB/s. Así, una unidad de 52x lee información de 
128 kB/s × 52 = 6,656 kB/s, es decir, a 6,5 MB/s. 
Actualmente ha caído en desuso y su utilización 
comienza a ser casi anecdótica. 
 
Unidad de DVD-ROM: 
 
Las unidades de DVD-ROM son aparentemente iguales 
que las de CD-ROM, pueden leer tanto discos DVD-ROM 
como CD-ROM. 
 
Se diferencian de las unidades lectoras de CD-ROM en 
que el soporte empleado tiene hasta 17 GB de 
capacidad, y en la velocidad de lectura de los datos. 
 
La velocidad se expresa con otro número de la «x»: 12x, 
16x... Pero ahora la x hace referencia a 1,32 MB/s. Así: 
16x = 21,12 MB/s. Actualmente se utiliza muchísimo 
menos debido a las memorias USB. 
 
Unidad de Blu-Ray: 
 
El disco Blu-ray, conocido como Blu-ray o simplemente 
BD (en inglés: Blu-ray Disc), es un formato de disco óptico 
de nueva generación, desarrollado por la Blu-ray Disc 
Association (BDA), empleado para vídeo de alta 
definición (HD), 3D y UltraHD y con mayor capacidad de 
almacenamiento de datos de alta densidad que la del 
DVD, llegando a capacidades de hasta 54GB y 
transferencias de hasta 54MB/s. 
 
Actualmente se utiliza en mayor parte para grabar 
contenidos multimedia en alta calidad 1080p, es decir, 
películas… 
 
e) Tecnologías flash: 
 
Unidad de disco rígido o disco duro: 
 
Las unidades de discos sólidos, (SDD) tienen una gran 
capacidad de almacenamiento de información y 
velocidad. 
 
Página 21 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Además, una sola placa puede tener varios dispositivos 
conectados. Pueden ser externos y permiten almacenar 
grandes cantidades de información. Son muy útiles para 
intercambiar información entre equipos. Normalmente se 
conectan al PC mediante un conector USB. 
 
Lector de tarjetas: 
 
El lector de tarjetas de 
memoria es un periférico 
que lee o escribe en 
soportes de memoria flash. 
Memorias SD, Micro SD, 
Compact Flash… 
 
Actualmente, se encuentran instalados en algunos 
ordenadores (incluidos en una placa), sin embargo, en 
muchos casos este dispositivo es conectado de forma 
externa (mediante puerto USB). 
 
Memoria USB: 
 
La memoria USB (Universal Serial Bus) denominado 
también lápiz de memoria, lápiz USB, memoria externa, 
pen drive o pendrive es un tipo de dispositivo de 
almacenamiento de datos que utiliza memoriaflash 
para guardar datos e información. 
 
Los sistemas operativos actuales pueden leer y escribir 
en las memorias sin más que enchufarlas a un conector 
USB del equipo encendido, recibiendo la tensión de 
alimentación a través del propio conector. 
 
Estas memorias se han convertido en el sistema de 
almacenamiento y transporte personal de datos más 
utilizado, desplazando en este uso a los tradicionales 
disquetes y a los CD. Se pueden encontrar en el 
mercado fácilmente memorias de 1, 2, 4, 8, 16, 32, 64, 
128, 256, 512 GB, y hasta 1 TB. 
 
Existen diferentes generaciones donde los cambios 
principales son en las mejoras en las tasas de 
transferencia. 
 
USB 3.1, el más actual, preparado para 10Gbps. En 
pruebas reales, y debido al sistema de codificación de 
la información, se ha llegado a 7Gbps reales. 
 
USB3.0, preparado para 5Gbps. En pruebas reales, se ha 
llegado a 3.2Gbps, eso son unos 400 Megabytes por 
segundos reales. Una cifra bastante asombrosa. 
Página 22 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
USB2.0 estaba preparado para los 480Mbits, aunque en 
los mejores casos solo se llegaba a los 280Mbits. Una cifra 
equivalente a los 35Mbytes/segundo. 
 
USB1.1 estaba preparado para los 12Mbits, algo cercano 
a 1Mbyte por segundo en condiciones reales. 
 
Página 23 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
3. SISTEMAS OPERATIVOS. 
 
 
Un sistema operativo es un programa o conjunto de programas de 
computadora destinado a permitir una administración eficaz de sus recursos. 
 
Comienza a trabajar cuando se enciende el computador, y gestiona el 
hardware de la máquina desde los niveles más básicos, permitiendo también 
la interacción con el usuario. 
 
Funciones básicas: 
 
Los sistemas operativos, en su condición de capa software que posibilitan y 
simplifica el manejo de la computadora, desempeñan una serie de 
funciones básicas esenciales para la gestión del equipo. 
 
Entre las más destacables, cada una ejercida por un componente interno, 
podemos reseñar las siguientes: 
 
• Suministro de interfaz al usuario. Es la parte del sistema operativo que 
permite comunicarse con él de tal manera que se puedan cargar 
programas, acceder archivos y realizar otras tareas. Existen tres tipos 
básicos de interfaces: las que se basan en comandos, las que utilizan 
menús y las interfaces gráficas de usuario. 
 
• Administración de recursos. Sirven para administrar los recursos de 
hardware y de redes de un sistema informativo, como el CPU, 
memoria, dispositivos de almacenamiento secundario y periféricos de 
entrada y de salida. 
 
• Administración de archivos. Un sistema de información contiene 
programas de administración de archivos que controlan la creación, 
borrado y acceso de archivos de datos y de programas. También 
implica mantener el registro de la ubicación física de los archivos en los 
discos magnéticos y en otros dispositivos de almacenamiento 
secundarios. 
 
• Administración de tareas. Los programas de administración de tareas 
de un sistema operativo administran la realización de las tareas 
informáticas de los usuarios finales. Los programas controlan que áreas 
tiene acceso al CPU y por cuánto tiempo. Las funciones de 
administración de tareas pueden distribuir una parte específica del 
tiempo del CPU para una tarea en particular, e interrumpir al CPU en 
cualquier momento para sustituirla con una tarea de mayor prioridad. 
 
• Servicio de soporte y utilidades. Los servicios de soporte de cada 
sistema operativo dependerán de la implementación particular de 
éste con la que estemos trabajando. Estos servicios de soporte suelen 
consistir en: 
 
Página 24 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
- Actualización de versiones. 
 
- Mejoras de seguridad. 
 
- Inclusión de alguna nueva utilidad (un nuevo entorno gráfico, 
un asistente para administrar alguna determinada función, ...). 
 
- Controladores para manejar nuevos periféricos (este servicio 
debe coordinarse a veces con el fabricante del hardware). 
 
- Corrección de errores de software, Otros. 
 
Página 25 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
4. NOCIONES BÁSICAS DE SEGURIDAD INFORMÁTICA. 
 
 
La seguridad informática consiste en asegurar que los recursos del sistema de 
información (material informático o programas) de una organización sean 
utilizados de la manera que se decidió y que el acceso a la información allí 
contenida así como su modificación sólo sea posible a las personas que se 
encuentren acreditadas y dentro de los límites de su autorización. 
 
A. Introducción. 
 
Podemos entender como seguridad un estado de cualquier sistema 
(informático o no) que nos indica que ese sistema está libre de peligro, 
daño o riesgo. Se entiende como peligro o daño todo aquello que 
pueda afectar su funcionamiento directo o los resultados que se obtienen 
del mismo. Para la mayoría de los expertos el concepto de seguridad en 
la informática es utópico porque no existe un sistema 100% seguro. Para 
que un sistema se pueda definir como seguro debe tener estas cuatro 
características: 
 
• Integridad. La información sólo puede ser modificada por quien 
está autorizado. 
 
• Confidencialidad. La información sólo debe ser legible para los 
autorizados. 
 
• Disponibilidad. Debe estar disponible cuando se necesita. 
 
• Irrefutabilidad. (No-Rechazo o No Repudio) Que no se pueda 
negar la autoría. 
 
Dependiendo de las fuentes de amenaza, la seguridad puede dividirse 
en seguridad lógica y seguridad física. 
 
B. Términos relacionados con la seguridad informática. 
 
• Activo: recurso del sistema de información o relacionado con 
éste, necesario para que la organización funcione 
correctamente y alcance los objetivos propuestos. 
 
• Amenaza: es un evento que pueden desencadenar un incidente 
en la organización, produciendo daños materiales o pérdidas 
inmateriales en sus activos. 
 
• Impacto: medir la consecuencia al materializarse una amenaza. 
 
• Riesgo: posibilidad de que se produzca un impacto determinado 
en un Activo, en un Dominio o en toda la Organización. 
 
• Vulnerabilidad: posibilidad de ocurrencia de la materialización de 
una amenaza sobre un Activo. 
Página 26 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
• Ataque: evento, exitoso o no, que atenta sobre el buen 
funcionamiento del sistema. 
 
• Desastre o contingencia: interrupción de la capacidad de 
acceso a información y procesamiento de la misma a través de 
computadoras necesarias para la operación normal de un 
negocio. 
 
Aunque a simple vista se puede entender que un Riesgo y una 
Vulnerabilidad se podrían englobar un mismo concepto, una definición 
más informal denota la diferencia entre riesgo y vulnerabilidad, de modo 
que se debe la Vulnerabilidad está ligada a una Amenaza y el Riesgo a 
un Impacto. 
 
C. Objetivos. 
 
Los activos son los elementos que la seguridad informática tiene como 
objetivo proteger. Son tres elementos que conforman los activos: 
 
• Información. Es el objeto de mayor valor para una organización, 
el objetivo es el resguardo de la información, 
independientemente del lugar en donde se encuentre registrada, 
en algún medio electrónico o físico. 
 
• Equipos que la soportan. Software, hardware y organización. 
 
• Usuarios. Individuos que utilizan la estructura tecnológica y de 
comunicaciones que manejan la información. 
 
D. Análisis de riesgos. 
 
El activo más importante que se posee es la información y, por lo tanto, 
deben existir técnicas que la aseguren, más allá de la seguridad física 
quese establezca sobre los equipos en los cuales se almacena. 
 
Estas técnicas las brinda la seguridad lógica que consiste en la aplicación 
de barreras y procedimientos que resguardan el acceso a los datos y sólo 
permiten acceder a ellos a las personas autorizadas para hacerlo. 
 
Existe un viejo dicho en la seguridad informática que dicta: "lo que no 
está permitido debe estar prohibido" y ésta debe ser la meta perseguida. 
 
Los medios para conseguirlo son: 
 
• Restringir el acceso (de personas de la organización y de las que 
no lo son) a los programas y archivos. 
 
• Asegurar que los operadores puedan trabajar pero que no 
puedan modificar los programas ni los archivos que no 
correspondan (sin una supervisión minuciosa). 
Página 27 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
• Asegurar que se utilicen los datos, archivos y programas correctos 
en/y/por el procedimiento elegido. 
 
• Asegurar que la información transmitida sea la misma que reciba 
el destinatario al cual se ha enviado y que no le llegue a otro. 
 
• Asegurar que existan sistemas y pasos de emergencia alternativos 
de transmisión entre diferentes puntos. 
 
• Organizar a cada uno de los empleados por jerarquía 
informática, con claves distintas y permisos bien establecidos, en 
todos y cada uno de los sistemas o aplicaciones empleadas. 
 
• Actualizar constantemente las contraseñas de accesos a los 
sistemas de cómputo. 
 
E. Puesta en marcha de una política de seguridad. 
 
Generalmente se ocupa exclusivamente a asegurar los derechos de 
acceso a los datos y recursos con las herramientas de control y 
mecanismos de identificación. 
 
Estos mecanismos permiten saber que los operadores tienen sólo los 
permisos que se les dio. 
 
La seguridad informática debe ser estudiada para que no impida el 
trabajo de los operadores en lo que les es necesario y que puedan utilizar 
el sistema informático con toda confianza. 
 
Por eso en lo referente a elaborar una política de seguridad, conviene: 
 
• Elaborar reglas y procedimientos para cada servicio de la 
organización. 
 
• Definir las acciones a emprender y elegir las personas a contactar 
en caso de detectar una posible intrusión. 
 
• Sensibilizar a los operadores con los problemas ligados con la 
seguridad de los sistemas informáticos. 
 
Los derechos de acceso de los operadores deben ser definidos por los 
responsables jerárquicos y no por los administradores informáticos, los 
cuales tienen que conseguir que los recursos y derechos de acceso sean 
coherentes con la política de seguridad definida. 
 
Además, como el administrador suele ser el único en conocer 
perfectamente el sistema, tiene que derivar a la directiva cualquier 
problema e información relevante sobre la seguridad, y eventualmente 
aconsejar estrategias a poner en marcha, así como ser el punto de 
entrada de la comunicación a los trabajadores sobre problemas y 
recomendaciones en término de seguridad. 
Página 28 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
F. Las amenazas. 
 
Una vez que la programación y el funcionamiento de un dispositivo de 
almacenamiento (o transmisión) de la información se consideran seguras, 
todavía deben ser tenidos en cuenta las circunstancias "no informáticas" 
que pueden afectar a los datos, las cuales son a menudo imprevisibles o 
inevitables, de modo que la única protección posible es la redundancia 
(en el caso de los datos) y la descentralización - por ejemplo mediante 
estructura de redes- (en el caso de las comunicaciones). 
 
Estos fenómenos pueden ser causados por: 
 
• El usuario: causa del mayor problema ligado a la seguridad de un 
sistema informático (porque no le importa, no se da cuenta o a 
propósito). 
 
• Programas maliciosos: programas destinados a perjudicar o a 
hacer un uso ilícito de los recursos del sistema. Es instalado (por 
inatención o maldad) en el ordenador abriendo una puerta a 
intrusos o bien modificando los datos. Estos programas pueden ser 
un virus informático, un gusano informático, un troyano, una 
bomba lógica o un programa espía o Spyware. 
 
• Un intruso: persona que consigue acceder a los datos o 
programas de los cuales no tiene acceso permitido (cracker, 
defacer, script kiddie o Script boy, viruxer, etc.). 
 
• Un siniestro (robo, incendio, por agua): una mala manipulación o 
una malintención derivan a la pérdida del material o de los 
archivos. 
 
• El personal interno de sistemas. Las pujas de poder que llevan a 
disociaciones entre los sectores y soluciones incompatibles para 
la seguridad informática. 
 
f1) Técnicas de aseguramiento del sistema: 
 
Las técnicas utilizadas para asegurar un sistema informático 
son: 
 
- Codificar la información: Cristología, Criptografía y 
Criptociencia, contraseñas difíciles de averiguar a 
partir de datos personales del individuo. 
 
- Vigilancia de red. 
 
- Tecnologías repelentes o protectoras: cortafuegos, 
sistema de detección de intrusos (anti-spyware), 
antivirus, llaves para protección de software, etc. 
Mantener los sistemas de información con las 
actualizaciones que más impacten en la seguridad. 
 
Página 29 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
f2) Consideraciones de software: 
 
Tener instalado en la máquina únicamente el software 
necesario reduce riesgos. Así mismo tener controlado el 
software asegura la calidad de la procedencia del mismo (el 
software pirata o sin garantías aumenta los riesgos). 
 
En todo caso un inventario de software proporciona un 
método correcto de asegurar la reinstalación en caso de 
desastre. El software con métodos de instalación rápidos 
facilita también la reinstalación en caso de contingencia. 
 
Existe software que es conocido por la cantidad de agujeros 
de seguridad que introduce. Se pueden buscar alternativas 
que proporcionen iguales funcionalidades pero permitiendo 
una seguridad extra. 
 
G. Funciones de la seguridad. 
 
Para que una comunicación se considere segura se deben cumplir los 4 
requisitos o servicios de seguridad siguientes: 
 
• Autenticidad. Todos los participantes en la comunicación deben 
estar adecuadamente identificados. La autenticidad garantiza 
que cada parte es quien dice ser, evitando suplantaciones. Se 
puede dividir en: 
 
- Autenticidad de entidad. Asegura la identidad de las 
entidades participantes en la comunicación mediante 
biométrica (huellas dactilares, identificación de iris, de la 
palma de la mano, reconocimiento de voz, etc.), tarjetas 
de banda magnética, contraseñas o procedimientos 
similares. 
 
- Autenticidad de origen de información. Asegura que una 
unidad de información proviene de cierta entidad. Se 
garantiza mediante firmas digitales y certificados. 
 
• Confidencialidad. Los datos enviados durante la comunicación 
no deben ser leídos por terceras personas, aunque viajen a través 
de un canal inseguro. La confidencialidad asegura que si los 
datos caen en manos de una persona distinta al destinatario no 
pueda entenderlos porque están codificados. Se garantiza 
mediante el uso de criptografía. Su mayor desventaja es que el 
uso de la criptografía aumenta el volumen de los datos enviados 
y hace más lentas las comunicaciones. 
 
• Integridad. Los datos enviados deben llegar sin modificaciones al 
destino. Evita que una comunicación sea interceptada y 
alterada antes de que llegue a su destino. Se asegura mediante 
funciones hash y firmas digitales. 
Página 30 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
• No repudio. Asegura que una vez enviado un mensaje desde el 
emisor al receptor, ninguna de las partes pueda negar haber 
participado en la comunicación. Se consiguemediante 
certificados y firmas digitales. 
 
Según la parte protegida se divide en: 
 
- No repudio en origen. Protege al receptor de que el 
emisor niegue haber enviado el mensaje. 
 
- No repudio en destino. Protege al emisor de que el 
receptor niegue haber recibido el mensaje. 
 
H. Métodos criptográficos. 
 
Introducción a la criptografía: 
 
La criptografía es la ciencia que se ocupa del cifrado seguro de 
mensajes. 
 
Existen dos tipos principales de Criptografía de uso común hoy día. 
La más antigua (usada hasta los años 70) y simple se conoce como 
Criptografía de clave sencilla o de clave secreta (Criptografía 
simétrica), que resulta útil en muchos casos, aunque tiene 
limitaciones significativas. 
 
Los algoritmos simétricos, o de clave secreta, se caracterizan por ser 
altamente eficientes (en relación al tamaño de su clave) y robustos. 
Se les llama así porque se emplea la misma clave para cifrar y para 
descifrar. Se basan en el uso de claves secretas que previamente 
hay que intercambiar mediante canales seguros, con los riesgos que 
ello supone. 
 
Todas las partes deben conocerse y confiar totalmente la una en la 
otra. Cada una de ellas debe poseer una copia de la clave que 
haya sido protegida y mantenida fuera del alcance de las demás. 
 
Además, dichas claves no se deben utilizar para varios mensajes, ya 
que, si se interceptaran algunos de ellos, se podrían encontrar 
métodos para descodificarlos. Por sí solo, este tipo de encriptación 
no es suficiente para desarrollar el pleno potencial del comercio 
electrónico, el cual debe vincular a un número ilimitado de 
compradores y vendedores de todas partes del mundo. De un lado, 
resulta poco práctico que una gran corporación intercambie claves 
con miles o incluso millones de clientes o, peor todavía, con posibles 
clientes con los que nunca ha tratado. 
 
La solución a la seguridad en toda red abierta es una forma de 
codificación más novedosa y sofisticada, desarrollada por los 
matemáticos de MIT en los años setenta, y conocida como clave 
pública o Criptografía asimétrica. 
Página 31 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Al contrario que los anteriores, los algoritmos asimétricos tienen 
claves distintas para cifrado y descifrado. Por ello, también se les 
llama algoritmos de clave pública. Permiten eliminar el gran 
inconveniente de cómo hacer llegar al remitente la clave de 
cifrado. 
 
En el caso de los algoritmos asimétricos se usa una clave pública 
(para cifrar) y una secreta (para descifrar). La primera se publica en 
un tipo de directorio al que el público en general tiene acceso (una 
especie de guía telefónica), mientras que la privada se mantiene en 
secreto. 
 
Las dos claves funcionan conjuntamente como un curioso dúo. De 
esa manera, una intercepción de la clave pública es inútil para 
descifrar un mensaje, puesto que para ello se requiere la clave 
secreta. Cualquier tipo de datos o información que una de las 
claves cierre, sólo podrá abrirse con la otra. 
 
De forma que, por ejemplo, si queremos enviar a un amigo un 
mensaje sin que ningún intruso lo lea buscamos la clave pública del 
amigo y la utilizamos para realizar la encriptación del texto. 
 
Luego, cuando él lo recibe, utilizamos su clave privada para revertir 
la encriptación del mensaje en la pantalla de su computadora y 
aparece el mensaje en forma de texto normal y corriente. Si un 
extraño interceptara este mensaje, no podría descifrarlo porque no 
tendría la clave privada de ese amigo nuestro. 
 
En un algoritmo asimétrico, el emisor puede utilizar su clave privada 
o la clave pública del destinatario para encriptar su mensaje. Cada 
caso garantiza funciones de seguridad diferentes: 
 
• Cifrado con clave privada y descifrado con clave pública. 
Asegura la autenticidad, integridad y el no repudio del 
mensaje. Cualquiera puede leer el mensaje, es el método 
utilizado en las firmas digitales. 
 
• Cifrado con clave pública y descifrado con clave privada. 
Asegura la confidencialidad del mensaje. Sólo puede leerlo 
el destinatario, aunque no tiene garantías de la persona que 
le envía el mensaje o de la exactitud de su contenido. 
 
Como desventaja, las claves han de ser de mayor tamaño para 
ofrecer una seguridad comparable a la de los algoritmos simétricos. 
También resultan más lentos y producen mensajes cifrados de 
mayor tamaño. 
 
Para que existan sistemas de clave pública es necesario encontrar 
funciones de dirección única, es decir, funciones fáciles de calcular 
(que se utilizarán para cifrar), pero cuya inversa (que se usa para 
descifrar) es prácticamente imposible de calcular a no ser que se 
conozca la clave secreta. 
Página 32 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Además, los algoritmos simétricos se pueden dividir en los de cifrado 
en flujo y los de cifrado en bloque. Los primeros cifran el mensaje 
original bit a bit, mientras que los segundos toman un número de bits 
(típicamente, 64 bits en los algoritmos modernos) y los cifran como si 
se tratara de una sola unidad. 
 
Generalmente, los algoritmos simétricos ejecutados en ordenadores 
son más rápidos que los asimétricos. En la práctica se suelen usar 
juntos, de modo que el algoritmo de clave pública se emplea para 
cifrar una clave generada, y ésta se emplea para cifrar el mensaje 
usando un algoritmo simétrico. Esto es lo que se conoce como 
cifrado híbrido. 
 
Las claves consisten en una serie de señales electrónicas guardadas 
en las unidades de disco de los PCs o transmitidas como datos a 
través de las líneas telefónicas siguiendo lo especificado en los 
estándares de la industria. El complejo proceso matemático de 
encriptación del texto y su opuesto lo realiza el propio ordenador, 
de modo que nosotros no debemos preocuparnos de nada más. 
 
I. Firma digital. 
 
Los mensajes enviados en una comunicación pueden firmarse 
digitalmente para que el receptor tenga la garantía de que ha sido 
enviado por la persona correcta y que no ha sufrido modificaciones en el 
camino. El proceso de firma digital consta de dos partes bien 
diferenciadas: 
 
• Proceso de firma. En el que el emisor encripta el documento con 
su llave privada, enviando al destinatario tanto el documento en 
claro como el encriptado. 
 
• Proceso de verificación de la firma. El receptor desencripta el 
documento cifrado con la clave pública del emisor (A) y 
comprueba que coincide con el documento original, lo que 
atestigua de forma total que el emisor del mismo ha sido 
efectivamente A. 
 
El método de firma digital no sólo proporciona autenticidad al mensaje 
enviado por A, sino que también asegura el no repudio, ya que sólo el 
dueño de una llave privada puede encriptar un documento de tal forma 
que se pueda desencriptar con su llave pública, lo que garantiza que ha 
sido A y no otro el que ha enviado dicho documento. Asimismo 
proporciona integridad de datos, ya que si el documento fuera accedido 
y modificado en el camino, el resumen del documento cambiaría 
también. 
 
La firma digital suele usarse en comunicaciones en las que no existe una 
confianza inicial total entre los comunicantes. Se usan para autentificar 
mensajes, para validar compras por Internet, para realizar transferencias 
de fondos bancarios y para otras transacciones de negocios. 
Página 33 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Tanta es la fuerza que posee este sistema que a nivel legal la firma 
electrónica constituye en la mayoría de los casos una prueba indudable 
de autoría del envío de un documento electrónico, semejante a la firma 
tradicional de puño y letra. 
 
Si imaginamos el envío de un documento extenso que queremos firmal 
digitalmente, nos daremos cuenta de que cifrar el documento entero es 
unepérdida de tiempo, ya que los medios de encriptación de llave 
pública son lentos, pues precisan de gran proceso de cómputo. 
 
Para solventar este aspecto aparecen las funciones hash, que son unas 
funciones matemáticas que realizan un resumen del documento a firmar. 
Su forma de operar es comprimir el documento en un único bloque de 
longitud fija, bloque cuyo contenido es ilegible y no tiene ningún sentido 
real. 
 
Tanto es así que por definición las funciones hash son irreversibles, es 
decir, que a partir de un bloque comprimido no se puede obtener el 
bloque sin comprimir, y si no es así no es una función hash. Estas funciones 
son además de dominio público. 
 
A un mensaje resumido mediante una función hash y encriptado con una 
llave privada es lo que en la vida real se denomina firma digital. 
 
Su mecanismo es el siguiente: 
 
1. El emisor aplica una función hash conocida al documento, con lo 
que obtiene un resumen hash del mismo. 
 
2. Encripta dicho resumen con su clave privada. 
 
3. Envía al receptor el documento original plano y el resumen hash 
encriptado. 
 
4. El receptor B aplica la función hash al resumen sin encriptar y 
desencripta el resumen encriptado con la llave pública de A. 
 
5. Si ambos coinciden está seguro de que ha sido A es que le ha 
enviado el documento. Si no coinciden, está seguro de que no 
ha sido A o de que el envío ha sido interceptado en el medio de 
envió y modificado. 
 
Las funciones hash y la firma digital son elementos indispensables para el 
establecimiento de canales seguros de comunicación, basados en los 
Certificados Digitales. 
 
Para que una función pueda considerarse como función hash debe 
cumplir: 
 
• Debe transforma un texto de longitud variable en un bloque de 
longitud fija, que generalmente es pequeño (algunos son de 16 
bits). 
Página 34 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
• Debe ser cómoda de usar e implementar. 
 
• Debe ser irreversible, es decir, no se puede obtener el texto 
original del resumen hash. 
 
• Debe ser imposible encontrar dos mensajes diferentes cuya firma 
digital mediante la función hash sea la misma (no-colisión). 
 
• Si se desea además mantener un intercambio de información 
con confidencialidad, basta con cifrar el documento a enviar 
con la clave pública el receptor. 
 
J. Certificados digitales. 
 
Un certificado es un documento de identidad electrónica que identifica 
a su propietario, con lo que resuelve el problema de la autenticidad de 
las comunicaciones. 
 
Están basados en la criptografía de clave pública y en las firmas digitales, 
su misión es asociar una clave pública con la identidad de su propietario. 
De esta forma tenemos la garantía de que la clave pública que estamos 
utilizando para leer un mensaje pertenece realmente al emisor del 
mensaje y no a un suplantador suyo. El certificado del emisor nos está 
garantizando su autenticidad. 
 
Los certificados son emitidos por una autoridad de certificación (CA, 
Certificate Authority) y su credibilidad depende de la seguridad y 
credibilidad que nos merezca el organismo que los ha emitido. La 
autoridad de certificación se hace responsable de la exactitud y 
veracidad de los datos contenidos en el certificado, en especial, de la 
clave pública de su propietario. 
 
Las autoridades de certificación son terceras partes de confianza (TPC o 
TTP, Trusted Third Party). Este término se utiliza para indicar que dos 
usuarios pueden confiar entre sí siempre que ambos tengan relación con 
una tercera parte que avale a los dos. Entre las principales autoridades 
de certificación podemos citar: 
 
VeriSign (www.verisign.com), ACE (Agencia de Certificación Electrónica, 
www.ace.es) y CERES (Autoridad pública de certificación española, 
www.cert.fnmt.es). Esta última es el resultado de un proyecto puesto en 
marcha por la Administración y liderado por la Fábrica Nacional de 
Moneda y Timbre para aportar seguridad a las comunicaciones con la 
Administración. 
 
Para la emisión de un certificado, las autoridades de certificación 
solicitan una serie de datos de la persona o entidad que estará vinculada 
al certificado. El solicitante debe preparar un documento denominado 
requerimiento de certificación en el que conste toda la información. 
Según la cantidad de comprobaciones que se realicen, los certificados 
se dividen en 4 clases: 
Página 35 de 42
http://www.verisign.com/
http://www.ace.es/
http://www.cert.fnmt.es/
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
• Certificados de clase 1. Son los certificados más fáciles de 
obtener, únicamente se requiere el nombre y la dirección de 
correo electrónico del titular. 
 
• Certificados de clase 2. En estos certificados la autoridad de 
certificación comprueba además el permiso de conducir, el 
número de la Seguridad Social y la fecha de nacimiento. 
 
• Certificados de clase 3. A las verificaciones anteriores se añade la 
verificación de crédito de la persona o empresa mediante un 
servicio como Equifax. 
 
• Certificados de clase 4. Además realiza una comprobación del 
cargo o la posición de una persona dentro de una organización. 
 
Una vez generados, los certificados contienen habitualmente los 
siguientes datos: 
 
• Versión del estándar X.509, habitualmente la 3 que es la más 
reciente. 
 
• Número de serie. Es un identificador único para cada certificado 
emitido por una autoridad de certificación. 
 
• Algoritmo de firma. Algoritmo criptográfico utilizado para la firma 
digital (ejemplos: MD5 o SHA-1). 
 
• Autoridad de certificación. Información sobre la autoridad que 
emite el certificado. 
 
• Fechas de inicio y fin de validez del certificado. Definen el 
período de validez del mismo, que generalmente es de un año. 
Como veremos más adelante un certificado puede ser revocado 
de forma prematura en situaciones concretas. 
 
• Propietario. Persona o entidad vinculada al certificado. 
 
• Clave pública. Representación en hexadecimal de la clave 
pública del propietario del certificado junto con el algoritmo 
criptográfico para el que es aplicable. 
 
• Algoritmo de firma usado por la autoridad de certificación. 
 
• Firma de la autoridad de certificación. Asegura la autenticidad 
del certificado. 
 
• Información adicional del certificado. 
 
Los certificados, como hemos comentado anteriormente, tienen una 
validez habitualmente de 1 año. 
Página 36 de 42
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Su renovación reduce el riesgo de que las claves puedan ser obtenidas 
por posibles atacantes. Sin embargo, un certificado puede ser anulado 
antes de su fecha de expiración si se sospecha que las claves han sido 
comprometidas o se ha usado de forma fraudulenta. La revocación del 
certificado puede llevarla a cabo el propietario del mismo, la autoridad 
de certificación o las autoridades judiciales. 
 
Los usuarios conocen que un certificado ha revocado consultando 
previamente la última lista de certificados revocados (CRL, Certificate 
Revocation List) de la autoridad de certificación correspondiente. Un CRL 
es un archivo público, firmado para la autoridad de certificación, que 
contiene la fecha de emisión del mismo y una lista de certificados 
revocados. 
 
Para cada uno de ellos figura su número de identificación y la fecha en 
que ha sido revocado. Para agilizar la consulta sobre la validez de un 
certificado existen servicios de directorio o servicios de consulta de 
certificados ofrecidos por entidades de confianza que indican al 
momento si un certificado es válido o, en cambio, ha sido revocado. 
 
K. Cortafuegos. 
 
Un cortafuegos (o firewall), es un elemento de hardware o software 
utilizado en una red de computadoras para controlar las 
comunicaciones, permitiéndolas o prohibiéndolas

Continuar navegando