Logo Studenta

TRABAJO PRACTICO N10

¡Estudia con miles de materiales!

Vista previa del material en texto

Arquitectura de computadoras
UTN-Trabajo Practico N°10-2019
Universidad Tecnológica Nacional 
Facultad Regional Tucumán
 Arquitectura de Computadoras
Trabajo Práctico N°: 10
Tema de la Monografía:
 “Entrada/Salida: Interconexión entre Procesador y Periférico”
Integrantes:
	Apellidos y Nombres
	Legajos 
	1- Arobio, Matías Alejandro
	50.495
	2- Herrera, Facundo Alejo
	50.510
	3- Ibarra Córdoba, Néstor Ariel
	50.517
	4- Gramajo Roldan, Emmanuel
	50.550
	5- Juárez, Nahuel Alejandro
	50.546
	6- Lastra, Mario
	50.549
	7- Sánchez, Raúl Alexis
	50.765
Comisión: 1K11
Fecha de presentación: 06 / 12 / 2019
CONTENIDO
1. Índice
2. Introducción
3. Desarrollo
3.1 Módulo de E/S 
3.11 Descripción
3.12 Principales funciones
3.13 Ordenes que puede recibir del procesador
3.14Pasos para transmitir datos a un dispositivo externo
3.15Técnicas para realizar las E/S 
3.2 Discos Magnéticos 
3.21 Definición
3.22 Organización 
3.23 Escritura 
3.24 Lectura
3.3 Discos de estado sólido SSD 
3.31 Definición 
3.32 Funcionamiento 
3.33 Tipos 
3.34 Ventajas y desventajas frente a los magnéticos
3.4 Sistema RAID 
3.41 Definición 
3.42 Niveles 
3.43 Características
4. Conclusión
5. Bibliografía
2. Introducción
 Los dispositivos de entrada, salida y almacenamiento se denominan periféricos tanto a las unidades o dispositivos a través de los cuales el ordenador se comunica con el mundo exterior, como a los sistemas que almacenan o archivan la información. 
Junto con el procesador y el conjunto de módulos de memoria, el tercer elemento clave de un computador es un conjunto de módulos de E/S. Cada módulo se conecta al bus del sistema o a un conmutador central y controla uno o más dispositivos periféricos. Un módulo de E/S no es únicamente un conector mecánico que permite enchufar el dispositivo al bus del sistema, sino que además está dotado de cierta inteligencia, es decir, contiene la lógica necesaria para permitir la comunicación entre el periférico y el bus. 
3. Desarrollo
3.1 Modulo E/S
 Los dispositivos de E/S se comunican con la CPU y la memoria por los buses del sistema, se encargara de manejarlos, tanto los dispositivos electrónicos (los valores o los valores como los que disponen de mucha mecánica en su funcionamiento (discos o cintas magnéticas).
 Estos controladores de dispositivos admiten órdenes o los valores muy abstractos que le puede enviar la CPU, y que una vez recibidos se encarga de llevarlos a cabo, liberando así al procesador principal de realizar todas las tareas de bajo nivel, y con cualquier tipo de dispositivo.
 El módulo de E/S tiene dos funciones principales:
· Realizar la interfaz entre el procesador y la memoria a través del bus del sistema o un conmutador central.
· Realizar la interfaz entre uno o más dispositivos periféricos mediante enlaces de datos específicos.
Los módulos E/S tienen requerimientos de control y temporización. Por ejemplo, el control de transferencia de datos entre un periférico y la CPU debe seguir la siguiente secuencia:
1.       La CPU pide al módulo E/S el estado del periférico deseado.
2.       El módulo E/S proporciona el estado.
3.       Si el periférico está listo, la CPU solicita la transferencia de datos por medio de un comando al módulo E/S.
4.       El módulo E/S obtiene el dato del periférico.
5.       El dato se transfiere desde el módulo a la CPU.
Si el sistema emplea un bus, cada interacción entre CPU y E/S implica uno o más arbitrajes de bus.
Una tarea esencial del módulo E/S es servir de buffer de datos. Mientras la transferencia es muy rápida entre éste y la CPU, con los periféricos es mucho más lenta. También es responsable de realizar la detección de errores, que pueden ser avisados por el periférico (por ejemplo, falta de papel en una impresora) o producirse por fallos de transmisión (error de paridad de un carácter transmitido). 
Los datos transferidos desde o hacia el módulo se almacenan en uno o más registros de datos. Puede haber también uno o más registros de estados que proporcionan información sobre el estado actual. Un registro de estado puede actuar también como un registro de control, aceptando información de control de la CPU. La lógica del módulo interactúa con la CPU mediante un conjunto de líneas de control, que utiliza la CPU para ordenar funciones al módulo (lectura/escritura), o por éste mismo (líneas de arbitraje y estado). El módulo puede también reconocer y generar direcciones asociadas con los dispositivos que controla. Cada módulo tiene una única dirección o, si controla más de un periférico, un único conjunto de direcciones (dirección base + direcciones para los distintos registros internos) El bus de direcciones es bidireccional para módulos E/S que pueden actuar de master del bus (DMA). Finalmente, el módulo E/S contiene lógica específica para conectar con el periférico que controla.
Cuando el módulo asume funciones de alto nivel, se denomina canal E/S o procesador E/S. Los módulos de bajo nivel, que requieren control detallado, se denominan controladores E/S o controlador de periféricos.
Las operaciones de E/S se realizan a través de una amplia gama de dispositivos que proporcionan una forma de intercambiar datos entre el exterior y el computador. Un dispositivo externo se conecta al computador mediante un enlace a un módulo de E/S. El enlace se utiliza para intercambiar señales de control, estado, y datos entre el módulo de E/S y el dispositivo externo.
3.2 Discos magnéticos
Los discos magnéticos son la base de las memorias externas en casi todos los computadores.
Un disco magnético es un plato circular construido con un material no magnético, llamado sustrato, cubierto por un material magnetizable. Tradicionalmente el sustrato es aluminio o una aleación de aluminio, últimamente se han utilizado de cristal que tienen una serie de ventajas:
· Mejora en la uniformidad de la superficie magnética para incrementar la fiabilidad del disco
· Reducción significativa de los defectos en toda la superficie lo que ayuda a reducir los errores de lectura/escritura
· Capacidad para soportar grabaciones de gran proximidad
· Mejor rigidez para reducir la dinámica del disco
· Mayor capacidad para resistir golpes y daños
Los datos se graban y después se recuperan del disco a través de una bobina, llamada cabeza, en muchos sistemas hay 2 cabezas, una de lectura y otra de escritura. Durante una operación de lectura o escritura, la cabeza permanece quieta mientras el plato rota bajo ella
El mecanismo de escritura se basa en el hecho de que un flujo eléctrico atravesando una bobina crea un campo magnético. Se envían pulsos eléctricos a la cabeza de escritura y se graban los patrones magnéticos en la superficie bajo ella.
Los discos duros de hoy utilizan una cabeza de lectura separada, posicionada cerca de la cabeza de escritura. Su sensor MR tiene una resistencia eléctrica que depende de la dirección de la magnetización del medio que se mueve bajo él. Haciendo pasar un corriente a través del sensor, los cambios de la resistencia se detectan como señales de tensión. El diseño del MR permite operar a altas frecuencias, lo que equivale a grandes densidades de almacenamiento y de velocidad de funcionamiento.
 La información se almacena en el disco duro en sectores y pistas. Las pistas son círculos concéntricos divididos en sectores, cada sector contiene un número fijo de bytes, y se agrupan en clústers. Los sectores no son físicos sino lógicos y no son iguales en todos los discos, varía en función del tamaño del disco y Sistema Operativo instalado, que es quien divide los sectores. El principal sector del disco duro es el denominado sector de arranque, suele ser el primer sector del primer disco. Aquí el sistema Operativo guarda la información que debe cargarse al arrancar el equipo.
Los bloques son una forma de organizar el disco duro, de longitud fija o variable, son definidos por usuario o Sistema Operativo. Se designan como registros físicos. La ventaja de organización por bloque es que los archivos los deja todo unido y por consecuenciano existe fragmentación a diferencia de organización por pistas o sectores.
3.3 Discos de estado sólido SSD
Un disco de estado sólido SSD es un tipo de dispositivo de almacenamiento de datos que utiliza memoria no volátil, como la memoria flash, para almacenar datos, en lugar de los platos o discos magnéticos de las unidades de discos duros (HDD) convencionales.
La mayoría de los SSD utilizan memoria flash basada en puertas NAND, que retiene los datos sin alimentación eléctrica. Para aplicaciones que requieren acceso rápido, pero no necesariamente la persistencia de datos después de la pérdida de potencia, los SSD pueden ser construidos a partir de memoria de acceso aleatorio (RAM). Estos dispositivos pueden emplear fuentes de alimentación independientes, como baterías, para mantener los datos después de la desconexión de la corriente eléctrica.1
En comparación con los discos duros tradicionales, las unidades de estado sólido son menos sensibles a los golpes al no tener partes móviles, son prácticamente inaudibles, y poseen un menor tiempo de acceso y de latencia, lo que se traduce en una mejora del rendimiento exponencial en los tiempos de carga de los sistemas operativos. En contrapartida, su vida útil es muy inferior, ya que tienen un número limitado de ciclos de escritura, pudiendo producirse la pérdida absoluta de los datos de forma inesperada e irrecuperable.
En relación al modo en que se conectan a la computadora, existiendo dos clases de puertos principales:
· SATA: Es el puerto más común por el que hoy también se conectan los discos duros. En su versión para PC de escritorio, consta de un delgado cable que va de la unidad a la placa madre. 
· PCI Express: Utilizado comúnmente por las tarjetas de video en una computadora de escritorio, este puerto es de alta velocidad para modelos de rendimiento profesional que rondan los 1000MB/seg o 2000MB/seg, siendo grandes tarjetas que abren una nueva categoría de SSD para usuarios exigentes y que poseen mucho dinero, ya que son costosas. 
Podemos diferenciar los SSD según el tipo de memoria utilizado:
· Memoria NAND Flash: Las de uso más común, son un chip de silicio que también se utiliza en pendrives y posee una memoria no volátil, es decir, incluso cuando no posee energía es capaz de guardar los datos que tiene grabados.
· Memoria DRAM: Más costosos y menos comunes, los módulos de memoria DRAM son los mismos que se utilizan en las memorias RAM, permitiendo una mayor velocidad y tiempos de respuesta menores. Son poco adecuados para SSD de uso cotidiano ya que requieren de electricidad continua para “recordar” los datos que tienen grabados, sin embargo, ofrecen un rendimiento excepcional.
Entre los tipos de tecnologías que son utilizadas para conformar las memorias flash NAND, existiendo tres categorías:
· Single Level Cell (SLC): Cuando se obtiene una oblea de silicio y se corta para obtener un único chip de memoria, nacen las unidades SLC. Al ser simples, son las más rápidas y de menor consumo energético, aunque son las más costosas de fabricar de todas. 
· Multi-Level Cell (MLC): Cuando se apilan varias capas de una oblea de silicio, obtenemos un chip de memoria flash NAND. Es la de uso más común porque son más densas y se consigue mayor capacidad en el mismo espacio, significando además un precio más reducido (tres veces más económico que SLC). Sin embargo, los chips son más lentos y menos longevos que los SLC.
· Triple Level Cell (TLC): Los más económicos de todos: valen un 30% menos que los MLC. Son de gran densidad y por ende, se puede obtener gran capacidad de almacenamiento digital en poco espacio físico y se escriben en ocho estados, viniendo de allí su economía. Pero son más lentos que los MLC y tienen un tiempo de vida menor, ya que permiten sólo entre 1.000 y 5.000 ciclos de escritura y lectura hasta quedar inservibles (SLC: 100.000 ciclos, MLC: 10.000 ciclos).
3.4 Sistema RAID
Un RAID (conjunto redundante de discos independientes) es un sistema que nos permite implementar un volumen de almacenamiento de datos que, a su vez, está formado por múltiples discos duros con el objetivo de conseguir más espacio o bien proteger la información y conseguir mayor tolerancia a fallos de disco (evitando pérdida de información si el disco duro sufre una avería).
El esquema RAID consta de seis niveles independientes, desde cero hasta cinco, estos niveles no implican una relación jerárquica, sino que designan métodos diferentes que poseen tres características comunes:
· RAID es un conjunto de unidades físicas de disco vistas por el sistema operativo como una única unidad lógica.
· Los datos se distribuyen a través de las unidades físicas del conjunto de unidades.
· La capacidad de los discos redundantes se usa para almacenar información de paridad que garantice la recuperación de los datos en caso de fallo de disco.
El RAID 0 distribuye los datos a lo largo de todos los discos del conjunto. Sin embargo, no es una configuración RAID orientada a la redundancia y la tolerancia a fallos.
RAID 1 es una de las mejores configuraciones en cuanto a redundancia y tolerancia a fallos. Su configuración lo que se hace es duplicar la información en dos discos; es decir, nuestro sistema verá un único volumen de almacenamiento que, en realidad, está formado por dos discos iguales en los que se escriben los mismos datos. De esta forma, si un disco se estropea, el sistema seguirá funcionando y trabajando con el disco que aún funciona.
El RAID 5 realiza una división por bloques de información y se distribuyen entre los discos que forman el conjunto.
El RAID 6 distribuye los bloques de información pero, en lo que respecta a la redundancia, en esta configuración se generan 2 bloques de paridad que también se distribuyen entre los discos. En este tipo de escenarios, la configuración es capaz de soportar hasta 2 fallos de disco en el conjunto.
RAID 0+1 es una combinación de dos configuraciones simultáneas RAID 0 y RAID 1; concretamente, necesitaremos 4 discos duros que se tomarán por parejas para que cada una de éstas forme un RAID 0 y, con las dos parejas, se monte un RAID 1.
RAID 1+0 (o también conocido como RAID 10) es la configuración “contraria” al RAID 0+1. Es una configuración de 4 discos en la que montamos un par de RAID y, por encima, repartimos la información entre dichos RAID 1.
4. Conclusión
 Llegamos a la conclusión que los dispositivos periféricos nos ayudan a introducir a la computadora los datos para que esta nos ayude a la resolución de problemas y por consiguiente obtener el resultado de dichas operaciones, es decir; estos dispositivos nos ayudan a comunicarnos con la computadora, para que esta a su vez nos ayude a resolver los problemas que tengamos y realice las operaciones que nosotros no podamos realizar manualmente.
5. Bibliografía
· Murdocca y Heuring, “Principios de Arquitectura de Computadoras”, Prentice Hall, (capítulo 8).
· Stalling, William. “Organización y Arquitectura de Computadores”, Prentice Hall, 5ta y 7ma edición (capítulos 6 y 7).
· Material del aula virtual de la cátedra.
· http://arquitecturaencomputadoras12.blogspot.com/2012/12/812-direcciones-de-entradasalida-es.html
· https://www.fayerwayer.com/2013/06/todo-lo-que-debes-saber-sobre-las-unidades-de-estado-solido-ssd/
· https://hipertextual.com/archivo/2014/01/que-es-raid-discos-duros/

Continuar navegando

Contenido elegido para ti