Logo Studenta

Tarea 3 - Daniel Cuellar (7)

¡Este material tiene más páginas!

Vista previa del material en texto

Tarjetas de vídeo
La primera tarjeta gráfica fue desarrollada por IBM en 1981, conocida como MDA (Monochrome Display Adapter), trabajaba en modo texto y era capaz de representar 25 líneas de 80 caracteres en pantalla; contaba con una memoria RAM de video de 4 Kb, por lo que sólo podía trabajar con una página de memoria. Se usaba con monitores monocromáticos, de tonalidad normalmente verde y de ahí parte su denominación. Durante años esta tarjeta fue tomada como el estándar en tarjetas de video monocromo.
En 1981 llegaron también los primeros colores y gráficos con la CGA (Color Graphics Adapter), ésta trabajaba tanto en modo texto como gráfico. En modo texto representaba lo mismo que la MDA, pero el texto era menos legible debido a que los caracteres se basaban en una matriz de puntos más pequeña. En modo gráfico podía representar cuatro colores con una resolución de 320×200 puntos. La CGA contaba con cuatro veces más memoria que la MDA (16 Kb) y podía conectarse a monitores RGB que eran capaces de emitir color.
En 1982 se desarrolló la HGC (Hércules Graphics Card) por Van Suwannukul, fundador de Hércules Computer Technology. Sus posibilidades con respecto de las anteriores eran abrumadoras puesto que además del modo texto, podía gestionar dos páginas gráficas con una resolución de 720×348 puntos en pantalla. Con ello combina la estupenda legibilidad en modo texto de la MDA con las capacidades gráficas de la CGA, ampliando incluso la resolución; sin embargo, la tarjeta HGC no era capaz de mostrar color por pantalla por lo que no llegó a estandarizarse como la CGA. La tarjeta Hércules tenía una memoria de 643 Kb y no era totalmente compatible con las tarjetas de IBM.
En 1985 IBM presentó la EGA (Enhaced Graphics Adapter), ésta era compatible con MDA y CGA; con una resolución de 640×350 puntos, se podían representar 16 colores diferentes de una paleta de 64; también se aumentó la RAM de video hasta 256 Kb para tener espacio al representar varias páginas gráficas como hacía la HGC.
En 1990 IBM desarrolló la VGA (Video Graphics Array) que tuvo una aceptación masiva en el mercado, esto obligó a compañías como ATI, Cirrus Logic y S3 Graphics, a trabajar sobre dicha tarjeta para mejorar la resolución y el número de colores. Así nació el estándar SVGA (Super Video Graphics Array), con dicho estándar se alcanzaron los 2 MB de memoria de vídeo, así como resoluciones de 1024 x 768 puntos a 256 colores de una paleta de 262. Supusieron un nuevo paso en la consecución de gráficos de alta calidad, son ambas compatibles con las tarjetas anteriormente mencionadas y por lo tanto el software desarrollado pudo ser utilizado sin problemas.
La evolución de las tarjetas gráficas dio un giro importante en 1995 con la aparición de las primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3 y ATI, entre otros. Dichas tarjetas cumplían el estándar SVGA, pero incorporaban funciones 3D. En 1997, 3dfx lanzó el chip gráfico Voodoo, con una gran potencia de cálculo, así como nuevos efectos 3D (Mip Mapping, Z-Buffering, Antialiasing). A partir de ese punto, se suceden una serie de lanzamientos de tarjetas gráficas como Voodoo2 de 3dfx, TNT y TNT2 de NVIDIA.
La potencia alcanzada por dichas tarjetas fue tal que el puerto PCI donde se conectaban se quedó corto. En 1997 Intel desarrolló el puerto AGP (Accelerated Graphics Port) que solucionaría los cuellos de botella que empezaban a aparecer entre el procesador y la tarjeta. El puerto AGP fue suplantado luego por el PCI Express creado en 2003 por INTEL, IBM, DELL y HP; PCI Express es actualmente el estándar adoptado por la industria.
Desde 1999, NVIDIA ha dominado el mercado de las tarjetas gráficas (absorbiendo incluso a 3dfx) con su gama GeForce. En 1999, NVIDIA inventa la GPU (Unidad de proceso gráfico), un procesador dedicado a tareas gráficas que viene integrado en la tarjeta de video, este acontecimiento revolucionará la industria de los gráficos. La primera tarjeta con GPU fue la GeForce 256 que era capaz de procesar más de 10 millones de polígonos por segundo, las GPUs actuales pueden procesar más de 2000 millones de polígonos por segundo.
En los años siguientes, las mejoras se enfocaron en el campo de los algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo, las memorias también necesitaban mejorar su velocidad, por lo que se incorporaron las memorias DDR a las tarjetas gráficas. Las capacidades de memoria de vídeo en la época pasan de los 32 Mb de GeForce, hasta los 64 y 128 Mb de GeForce 4.
Hasta el 2006, NVIDIA y ATI se repartieron el liderazgo del mercado con sus series de chips gráficos GeForce y Radeon, respectivamente. En este año ATI es comprada por la empresa AMD por U$D 5400 millones lo que la convierte en la principal competidora de NVIDIA e INTEL.
· 2001, NVIDIA produce la primer GPU programable, la GeForce 3.
· 2004, NVIDIA lanza la tecnología SLI que permite combinar la potencia de varias GPU en la mismas PC.
· 2006, NVIDIA presenta CUDA, una arquitectura revolucionaria de cálculo en la GPU que permite a los científicos aprovechar la capacidad de procesamiento en las GPU para resolver problemas computacionales complejos.
· 2008, se construye TSUBAME, uno de los 500 super computadores más rápidos del mundo y el primero basado en la GPU Tesla de NVIDIA.
· 2009, AMD introduce ATI Radeon HD 5970, la tarjeta gráfica más rápida en el mundo hasta la fecha, diseñada para sustentar los juegos de PC más demandantes.
· 2012, NVIDIA presenta la primera GPU virtualizada y la tecnología GRID traslada por primera vez en la historia el procesamiento gráfico desde las tarjetas a la nube.
· 2014, AMD presentó la AMD Radeon R9 295X2, la tarjeta de video más rápida y potente del mundo, alimentada por dos GPU AMD Radeon Serie R9 en una única tarjeta.
Tarjetas de sonido
Cuando IBM lanzó su IBM 5150 tuvo muy clara una cosa, no iba a utilizarse para generar música, por lo que le añadieron un simple altavoz para reproducir sonidos, el cual era plenamente controlado por la CPU en todo momento. Es decir, la CPU tenía que parar por completo todo lo que tuviera que hacer si quería reproducir algo más allá que un simple pitido o sucesión de estos.
Aunque muchos utilizaban el altavoz en escenas estáticas en las que no había acción, su calidad y falta de canales de sonido hubiera provocado que si el PC pudiese hacerlo palideciera de la vergüenza. Lo cual era normal, IBM diseñó su norma para ser utilizado en los hogares y de la misma manera que los gráficos estuvieron por detrás en sistemas domésticos, lo mismo ocurrió con el sonido.
Mientras que el PC estaba centrado en el mercado empresarial y no para los hogares, otros ordenadores completamente pensados para el mercado doméstico empezaron a incluir chips de apoyo que se encargaban de generar el sonido, los cuales son conocidos como PSG o generadores de sonido programables.
En general funcionaban de la siguiente manera; eran capaces de generar tres ondas cuadradas distintas, de las cuales controlaba la frecuencia y duración de cada onda para dar una nota concreta. Además, incapaces de imitar cualquier sonido de la realidad y sonaban como una banda de músicos tocando un mismo instrumento, pero debido al tipo de onda reproducida las notas no se producían con tal precisión, dando una textura al sonido que hoy en día reconocemos como 8 bits.
La cual se trataba de una tarjeta para las interfaces ISA de 8 bits, por lo que también se podía utilizar con el IBM PC original. La tarjeta de Creative era un PSG vitaminado que en vez de hacer uso de 3 canales para las ondas cuadradas tenía un total de 9, pero no tenía soporte para otro tipo de ondas de sonido.
Pero ningún juego aprovechaba dicha tarjeta y en especificaciones era inferior a la Adlib Music Synthetizer que se había lanzado ese año, pero Creative firmo un acuerdo con Radio Shack que la revendió como al Game Blaster, lo que catapulto su estereotipación en los juegos, pero al nivel de la Adlib. ¿Su principal punto fuerte? El hecho de tener una salida estérea, porlo que podía asignar una serie de canales al altavoz izquierdo y otra serie de canales al altavoz derecho.
Pero la síntesis FM ya había encandilado a una gran cantidad de audiofilos, la cosa no volvería a ser la misma y el sonido en el mundo del PC cambiaría para siempre.
La síntesis FM fue inventada por John Chowning. Pero ¿qué es la síntesis FM? Al igual que los PSG también utilizan ondas, pero esta vez no reproduce aproximaciones a la onda sinusoidal sino dicho tipo de onda, pero si nos quedamos aquí lo que obtenemos es un PSG para este tipo de ondas. El concepto del FM va mucho más allá y hace uso de otras ondas llamadas operadores, las cuales modifican la onda u ondas principales para conseguir sonidos que no son posibles con un PSG.
A la forma en la que los diferentes operadores se combinan se le llama «algoritmos» y cada uno de estos algoritmos representa un tipo de instrumento distinto. Gracias a ello no solo nacieron los teclados electrónicos capaces de reproducir otro tipo de instrumentos, sino que se hizo posible el añadido de bandas sonoras complejas.
Mientras que al Game Blaster era un quiero y no puedo, la Adlib Music Synthesizer marco un antes y un después, basada en el chip de síntesis FM Yamaha YM3812, ofrecía 9 voces simultáneas con calidad FM y la capacidad de mostrar en cada canal un instrumento distinto, lo cual coloco al PC por encima del resto de plataformas en cuanto a audio que había en el mercado a finales de los 80, solo los Commodore Amiga con el poderoso chip Paula basado en audio PCM mantenían el ritmo.
Pero la tarjeta que marco el antes y después en lo que al hardware de sonido en PC se refiere fue al Sound Blaster de Creative, utilizaba el mismo YM3812 de la Adlib pero añadía hardware adicional para la grabación y reproducción de audio en formato PCM, un puerto para Joysticks que a la vez era una interfaz MIDI. La popularidad de al Sound Blaster fue tal que se convirtió en él norma de las tarjetas de sonido en el PC durante más de una década, todos y cada uno de los juegos pasaron a ser compatibles con al Sound Blaster y sus variantes.
Hoy en día estamos acostumbrados a tener nuestras canciones en archivos de audio, lo podemos hacer porque la memoria de almacenamiento es sumamente barata, pero en la década de los 80 tanto la RAM como el almacenamiento eran extremadamente caros y esto hacía que el audio no se almacenase en datos, sino que incluso la síntesis FM no era otra cosa de como se había de generar el sonido, pero, no se usaban archivos de audio.
Pese a que la síntesis FM podía reproducir cualquier instrumento, tenía el problema que cosas como la voz humana que no deja de ser un tipo de ruido se seguían reproduciendo con generadores de ruido con resultados muy poco convincentes. Eso no fue un problema, hasta que la llegada del CD-ROM dejo claro que el problema del almacenamiento era inexistente, lo que marco el paso al uso del sonido PCM.
En el caso de la reproducción de audio a través de chips PCM no se le dice a este que vaya variando la frecuencia, sino que convierta los valores que va leyendo de un archivo de datos en señales analógicas a tiempo real. Esto permite la reproducción de todo tipo de sonidos, el más importante de ellos la voz humana, permitiendo la futura reproducción de películas, la implementación de actores en los videojuegos y muchas otras posibilidades que hoy en día vemos como normales.
Fuentes de Energía
Remontándonos un poco en la historia describiremos que en la industria no se contaba con equipos eléctricos, luego se empezaron a introducir dispositivos eléctricos no muy sofisticados por lo que no eran muy sensibles a sobretensiones, luego llegaron los equipos más modernos que necesitaban de bajos voltajes y por lo tanto eran muy sensibles a sobretensiones, cambios bruscos o ruido en las tensiones de alimentación por lo que se ha iniciado la construcción de fuentes de alimentación que proporcionaran el voltaje suficiente de estos dispositivos y que garanticen la estabilidad de la tensión que ingresa al equipo.
Hoy en día los equipos electrónicos, en su mayoría, funcionan con corriente continua, así, el dispositivo que convierte la corriente alterna a corriente continua, en los niveles requeridos por el circuito electrónico a alimentar, se llama fuente de alimentación.
La fuente de poder ATX cuenta con las siguientes características:
Es de encendido digital, tiene un pulsador en lugar de un interruptor.
Algunas fuentes de poder cuentan con un interruptor mecánico trasero para evitar el estado de reposo durante el cual consume cantidades de energía eléctricas mínimas e innecesaria.
El apagado de la fuente de poder ATX puede ser operada desde el programa.
Este tipo de fuentes se integran desde equipos con microprocesador Intel Premium MMX hasta equipos con los microprocesadores más modernos.
La fuente de poder AT sus siglas AT significan Advanced Tecnology traducido al español Tecnología Avanzada. La fuente de poder AT también es conocida por fuente de alimentación AT, fuente analógica, fuente de encendido mecánico, entre otros.
La fuente de poder ATX contiene 6 tipos de conectores de salida:
La fuente de poder ATX cuenta con los mismos conectores de tipo Molex y Berg de la fuente de poder AT.
El conector SATA /SATA 2 es aquel conector usado en dispositivos de discos duros cuenta con 15 líneas de alimentación y son identificadas de la siguiente manera; 3 líneas de alimentación V33 (3.3 Volts), 3 líneas de alimentación V5 (5 Volts), 3 líneas de alimentación V12 (12 Volts), 4 líneas de alimentación GND (tierra), 1 línea de reserved (reservado).
El conector ATX es aquel que interconecta la fuente ATX a la placa madre, posee 24 líneas de alimentación conformadas por los siguientes colores; 4 líneas de alimentación de color naranja (3.3 Volts), 8 líneas de alimentación de color de negro (tierra), 6 líneas de alimentación de color rojo (5 Volts), 1 línea de alimentación de color gris (Power Good), 1 línea de alimentación de color púrpura (5 VSB), 2 líneas de alimentación de color amarillo (12 Volts), 1 línea de alimentación de color azul (-12 Volts), 1 línea de alimentación de color verde (Power On), 1 línea de alimentación de color blanco (-5 Volts).
La fuente de poder AT posee las siguientes características:
Es de encendido mecánico, tiene un interruptor que al oprimirse cambia de posición y este no vuelve a su estado inicial hasta no ser presionado nuevamente.
Algunas fuentes de poder cuentan con un conector de tres terminales para alimentar el monitor CRT desde la misma fuente.
Es una fuente ahorradora ya que no queda en “Stand by” o “Espera” porque al suprimir el botón se corta el abastecimiento de energía.
Es segura ya que al encenderse se interrumpe la electricidad dentro de los circuitos.
Este tipo de fuentes se integran desde equipos tan antiguos como microprocesador Intel 8026 hasta equipos procesadores Intel Pentium MMX.
La fuente de poder AT tiene 3 tipos de conectores de salida:
Los conectores tipo Molex y tipo Berg son aquellos que se utilizan en periféricos que necesitan más consumo de energía, tales como: discos duros, unidades ópticas, disqueras, cada conector posee 4 líneas de alimentación. Los conectores tipos Molex y Berg son identificados con los siguientes colores: 1 línea de alimentación color rojo (5 Volts), 2 líneas de alimentación color negro (tierra), 1 línea de alimentación color amarillo (12 Volts).
El conector tipo AT es aquel que interconecta la fuente AT a la placa madre, cuenta con 12 líneas de alimentación que se distinguen con los siguientes colores; 1 línea de alimentación color anaranjado (Power Good), 4 líneas de alimentación de color rojo (5 Volts), 1 línea de alimentación de color amarillo (12 Volts), 1 línea de alimentación de color azul (-12 Volts), 1 línea de alimentación de color blanco (-5 Volts) y 4 líneas de alimentación de color negro (tierra).
La correcta conexión de la fuente AT a la placa madre es a través de 6 líneas de alimentación, las cuales deben ir enchufadas de modo que los cablesnegros queden unidos en el centro.
Puertos
Los puertos del ordenador surgieron con la aparición de la computación como ciencia. Por lo que, han tenido una notable evolución hasta el día de hoy y por ello, es preciso conocer algunos detalles de interés con respecto a su historia y a los cambios que han presentado. En principio, el puerto más antiguo identificable hasta ahora es el “Jack de audio”. El cual, se desarrolló durante el año 1878 y fue el punto de partida de este tipo de terminales.
Considerando que, actualmente, se siguen empleando para conectar altavoces, auriculares y otros dispositivos de audio a un ordenador. Posteriormente, el uso de una forma más oficial de los puertos se evidenció a partir de finales de la década de 1960, cuando se iniciaron las conexiones básicas entre ordenadores y otros dispositivos conocidos como “periféricos”. Gracias a ello, la invención de los puertos para una conexión o transferencia de datos real fue en 1962.
Esto, cuando salió al mercado el RS-232 con el fin de establecer líneas de comunicación. Así, fue utilizado como punto de conexión físico entre ordenadores y módems, hasta finales del siglo XX. Durante dicho siglo, específicamente en el año 1980, se introdujeron los reconocidos puertos Ethernet, los cuales permitieron una comunicación más moderna y capacitada entre ordenadores y módems.
Dicha conexión, permitió la creación de paquetes de datos en forma de tramas que contenían un encabezado con la dirección de origen, de destino y un sistema integrado de comprobación de errores. Después de ello, en el año 1987, fue posible la transmisión de datos de vídeo a través de la utilización de puertos VGA que transportaban componentes analógicos RGBHV (es decir: Rojo, Verde, Azul, Sincronización Horizontal y Sincronización Vertical). Creando así, una salida de vídeo estándar de 640x480.
Pero, este fue reemplazado por los puertos HDMI más adelante, gracias a su alta definición. A continuación, durante el año 1994 y por parte de la empresa Apple, fue lanzado un puerto Firewire que proporcionaba una interfaz de bus serie. El cual, es similar a los famosos puertos USB que se desarrollaron en el año 2000 y se destacaron, especialmente, por proporcionar velocidades de transferencia de datos altamente capacitadas.
Los puertos serie y puertos paralelos
· Puertos serie: Básicamente, son aquellos que emiten y reciben un bit a la vez por medio de un único par de cables (+/- y tierra). Así, son compatibles con terminales que requieren trasmisión de la información de un bit en una línea. Por lo general, se usa el término “COM” seguido de un número para simbolizar un puerto serie (por empleo, COM2).
· Puertos paralelos: En este caso, se definen como los puertos que tienen la capacidad de enviar múltiples bits, de manera simultánea, mediante varios juegos de cables. Por ende, cuando se remiten datos en formato paralelo, habitualmente, son ocho bits de datos (para formar un byte) y se envían sobre ocho líneas individuales en un solo cable. Respecto a su designación, utiliza la terminología “LPT” seguido de un número (ejemplo: LPT1).
Los puertos de software y los de hardware
· Puertos de software: Estos también son llamados “puertos lógicos” y son aquellos que están ubicados dentro del equipo informático, así como su nombre lo indica. De ese modo, permiten establecer comunicaciones con diferentes programas y realizar la distribución de servicios entre dispositivos informáticos. Ejemplo: los 21 puertos que emplea el servicio FTP para el intercambio de archivos.
· Puertos de hardware: Son puertos que tienen como principal finalidad, establecer comunicaciones entre dispositivos físicos. Por ello, ofrecen la posibilidad de comunicar periféricos como parlantes, mouse, teclados, routers, módems y otros elementos a un ordenador o cualquier equipo informático.
Discos Duros
El antecesor del disco duro que conocemos hoy día. Fue introducido en 1956 como parte del RAMAC de IBM (Método de Acceso Random de Contabilidad y Control). Podía almacenar 5MB de datas en 50 discos de 24 pulgadas de diámetro. El disco rígido tenía el tamaño de una heladera, y la unidad entera, pesaba más de una tonelada (como los de hoy en día, que entran en el bolsillo, ¿no?).
El sistema costaba US$10.000 por megabyte, algo completamente impensable hoy en día. Pero para entonces, el precio estaba totalmente justificado por la habilidad del sistema de transferir la data almacenada en solo 600 milisegundos. IBM vendió más de 1000 unidades durante el lapso de vida de 5 años del sistema de almacenaje.
IBM reemplazó a la larga el modelo RAMAC con el sistema de almacenamiento de disco 1301. Lo estrenó en 1961, y utilizaba cabezas separadas para escritura y lectura en cada superficie, eliminando la necesidad de correr el cabezal cada vez que necesitaba acceder a un disco diferente.
Podía almacenar 28MB (23MB más que el RAMAC) y fue el primer disco duro en usar cabezas diseñadas aerodinámicamente, que podían volar sobre la superficie de un disco en una leve capa de aire, mejorando la velocidad de acceso a 180 milisegundos, prácticamente 4 segundos menos que el RAMAC.
La unidad de almacenamiento de disco duro IBM 1311, introducida en 1962, era capaz de almacenar hasta 2.6MB en 6 platos de 14 pulgadas. Cada disco pesaba unas 10 libras y fue tan exitoso, que recibió varios rediseños y permaneció en el mercado hasta 1975.
IBM introdujo varias innovaciones de diseño en disco duros con el IBM 3340 que todavía continúan en uso hoy día, incluyendo cabezas de lectura y escritura de poca masa y discos lubricados dentro de un espacio hermético. Su nueva tecnología les permitió achicar la maquina en tamaño y reducir su precio.
En esta ocasión, IBM llegó a él gigabyte en almacenamiento con la introducción en 1980 del disco IBM 3380 de acceso directo. Poseía una capacidad de 2.52 GB, con un rate de transferencia de data de 3MB por segundo.
Mientras IBM continuaba desarrollando almacenamientos del tamaño de una heladera para computadoras de mainframe, Seagate apareció en escena para achicarlos a un tamaño ideal para la PC personal. El disco dependía de una carta controladora que tenía que ser conectada al motherboard, pero había eliminado el cambio entre discos de escritura y lectura para poder correr el sistema operativo de la PC, después correr el software y finalmente acceder a la información.
Las primeras computadoras personales portátiles parecían más equipaje que computadoras. La introducción del disco duro PrairieTek de 2.5 pulgadas en 1988 fue clave en conseguir la forma ligera de las notebooks portan con orgullo hoy día. El modelo 220 requería 30% menos espacio que los discos de 3.5 pulgadas y aportaban 20MB de almacenamiento (10 en cada plato).
En 1991, Toshiba reveló el Tanba-1 de 2.5 pulgadas, con 63MB de almacenamiento. Discos de 2.5 pulgadas se mantuvieron como una característica común en las notebooks modernas, aunque modelos más avanzados traen discos de estado sólido.
En 1991, Toshiba reveló el Tanba-1 de 2.5 pulgadas, con 63MB de almacenamiento. Discos de 2.5 pulgadas se mantuvieron como una característica común en las notebooks modernas, aunque modelos más avanzados traen discos de estado sólido.
Ahora sí, este disco se ve familiar. El Barracuda Serial ATA V de Seagate, lanzado en 2003, fue uno de los primeros discos duros en depender de la en ese entonces recientemente lanzada interfaz SATA (Serial Advance Technology Attachment), hoy súper conocida. El Barracuda disponía de dos platos de 60GB para brindar un almacenamiento de 120GB, y solo costaba US$170, marcando un precio que, si bien aún costoso, ya mucho más accesible en el mercado de discos duros.
Western Digital originalmente desarrolló el Raptor en 2003 para servicios de servidor en empresas, pero los entusiastas del PC Gaming pronto quisieron hacerse del disco de alta velocidad. Con platos que giraban a 10000 rpm (contra las 7200 de velocidad rotacional que utilizaban discos más comunes), el Raptor (Velociraptor en su encarnación actual)se mantiene como uno de los discos duros mecánicos de mayor performance y eficiencia en el mercado.
Aunque el primer disco de estado sólido fue fabricado en 1976, tomó otros 35 años para que se volviera popular.
Samsung introdujo un modelo en 2006, de 32GB y 2.5 pulgadas, como un reemplazo para los discos de laptops. SanDisk presentó un disco similar, un año después. Estos discos, rápidos y silenciosos, eran lo mejor en el mercado, si podías afrontar su valor de US$699.
El ciclo familiar de capacidad que aumenta y precio que disminuye, volvió a los discos de estado sólido (casi) universalmente accesibles hoy en día.
Unidades Ópticas
A comienzos de los años 90 dos estándares de almacenamiento óptico de alta densidad estaban desarrollándose; uno era el Multimedia Compact Disc (MMCD) apoyado por Philips y Sony, el otro era el Super Density disc (SD), apoyado por Toshiba, Time-Warner, Matsushita Electric, Hitachi, Mitsubishi Electric, Pioneer, Thomson y JVC. El presidente de IBM, Lou Gerstner, actuando de casamentero lideró los esfuerzos por unificar los dos proyectos bajo un único estándar, en previsión de que sucediera otra costosa guerra entre formatos como la que ocurrió entre VHS y Betamax en los años 80.
Philips y Sony abandonaron su formato MMCD y acordaron con Toshiba el Super Density disc (SD) con dos modificaciones. La modificación fue la adopción del EFM Plus de Philips, creado por Kees Immink, que es un 6% menos eficiente que el sistema de codificación de Toshiba, de aquí que la capacidad sea de 4,7 GB en lugar del los 5 GB del SD original. La gran ventaja de EFMPlus es su gran resistencia a los daños físicos en el disco, como arañazos o huellas. El resultado fue la especificación de la versión 1.5 del DVD, anunciada en 1995 y finalizada en septiembre de 1996. En mayo de 1997, el consorcio DVD (DVD Consortium) fue reemplazado por el foro DVD (DVD Forum), que estaba abierto a todas las demás compañías.
Un DVD de capa simple puede guardar hasta 4,7 gigabytes según los fabricantes en base decimal y aproximadamente 4,377 gigabytes reales en base binaria o gibibytes (se le conoce como DVD-5), alrededor de siete veces más que un CD estándar. Emplea un láser de lectura con una longitud de onda de 650 nm (en el caso de los CD, es de 780 nm) y una apertura numérica de 0,6 (frente a los 0,45 del CD), la resolución de lectura se incrementa en un factor de 1,65. Esto es aplicable en dos dimensiones, así que la densidad de datos física real se incrementa en un factor de 3,3.
El DVD usa un método de codificación más eficiente en la capa física: los sistemas de detección y corrección de errores utilizados en el CD, como la comprobación de redundancia cíclica CRC, la codificación Reed-Solomon, RS-PC, así como la codificación de línea Eight-to-Fourteen Modulation, la cual fue reemplazada por una versión más eficiente, EFMPlus, con las mismas características que el EFM clásico. El subcódigo de CD fue eliminado. Como resultado, el formato DVD es un 47% más eficiente que el CD-ROM, que usa una tercera capa de corrección de errores.
A diferencia de los discos compactos, donde el sonido (CDDA) se guarda de manera fundamentalmente distinta que los datos, un DVD correctamente creado siempre contendrá datos siguiendo los sistemas de archivos UDF e ISO 9660.
Los DVD se pueden clasificar:
Según su contenido:
· DVD-Video: Películas (vídeo y audio)
· DVD-Audio: Audio de alta fidelidad
· DVD-Data: Todos tipos de datos
Según su capacidad de regrabado:
· DVD-ROM: Sólo lectura, manufacturado con prensa
· DVD-R: Grabable una sola vez
· DVD-RW: Regrabable
· DVD-RAM: Regrabable de acceso aleatorio. Lleva a cabo una comprobación de la integridad de los datos siempre activa tras completar la escritura
· DVD+R: Grabable una sola vez
· DVD+RW: Regrabable
· DVD+R DL: Grabable una sola vez de doble capa
Según su número de capas o caras:
· DVD-5: una cara, capa simple. 4.7 GB o 4.38 gibibyte (GiB) - Discos DVD±R/RW.
· DVD-9: una cara, capa doble. 8.5 GB o 7.92 GiB - Discos DVD+R DL.
· DVD-10: dos caras, capa simple en ambas. 9.4 GB o 8.75 GiB - Discos DVD±R/RW.
· DVD-14: dos caras, capa doble en una, capa simple en la otra. 13,3 GB o 12,3 GiB - Raramente utilizado.
· DVD-18: dos caras, capa doble en ambas. 17.1 GB o 15.9 GiB - Discos DVD+R.
El disco puede tener una o dos caras, y una o dos capas de datos por cada cara; el número de caras y capas determina la capacidad del disco. Los formatos de dos caras apenas se utilizan.
También existen DVD de 8 cm (no confundir con miniDVD, que son CD conteniendo información de tipo DVD video) que tienen una capacidad de 1.5 GB.
La capacidad de un DVD-ROM puede ser determinada visualmente observando el número de caras de datos, y observando cada una de ellas. Las capas dobles normalmente son de color dorado, mientras que las capas simples son plateadas, como la de un CD. Otra manera de saber si un DVD contiene una o dos capas es observar el anillo central del disco, el cual contendrá un código de barras por cada capa que tenga.
Discos Flexibles
El disquete lo inventó Alan Shugar en IBM, en el año 1967. Históricamente, le había precedido en casi 20 años la invención del disco duro.
Su primera denominación fue disco flexible (floppy disk), y tenía 8 pulgadas de diámetro (unos 20 centímetros). Su medida fue bajando: en agosto de 1981, el nuevo ordenador personal de IBM llevaba la versión de 5,25 pulgadas (13,3 cm). Luego bajó a la medida actual de 3,5 pulgadas (casi 9 cm). En esta evolución hacia el menor tamaño cambió también su nombre, y se convirtió en diskette.
Esta forma de diminutivo añadiendo -ette nos suena familiar, y no es extraño: el inglés la tomó del francés antiguo. En español también hay diminutivos en -ete: vejete, mozalbete (aunque son por lo general algo despectivos), de modo que cuando nos llegó la forma inglesa diskette su adaptación a disquete fue perfectamente natural.
Sabemos que la llegada del disco flexible forzó el llamar a los otros discos duros. Se llamó flexible porque no era rígido, y en su versión de 5 pulgadas y cuarto venía en una funda igualmente flexible. Los actuales disquetes de 3 pulgadas y media vienen en una funda rígida que les protege más.
En los años ochenta con la popularización y masificación de los primeros computadores de escritorio, la necesidad de un nuevo sistema de almacenamiento hizo que los ingenieros pensaran en un disco más compacto. El disco de 3 ½ pulgadas con una capacidad de 1.2 Mb, se convirtió en la década de los noventa en un indispensable para cargar programas de sistemas operativos.
Los programas han venido creciendo sistemáticamente de tamaño, al igual que muchos de los datos que comparten los usuarios (como archivos multimedia). Eso, unido a la facilidad de comunicación mediante redes locales o Internet, ha originado que los disquetes vayan cayendo paulatinamente en desuso, tanto para fines de transporte de datos entre equipos como de copia de seguridad o backup.

Otros materiales

Materiales relacionados

12 pag.
Tarea 6 - Daniel Cuellar (7)

User badge image

Desafío México Veintitrés

10 pag.
Tarea 4 - Daniel Cuellar (7)

User badge image

Desafío México Veintitrés

6 pag.
Cuellar-Daniel-Act1 - Daniel Cuellar (7)

User badge image

Desafío México Veintitrés