Logo Studenta

Definición de computadora - Santiago

¡Estudia con miles de materiales!

Vista previa del material en texto

Definición de computadora.
Una computadora se puede definir como: � un dispositivo que acepta entradas, procesa datos, los almacena y produce una salida. � es una máquina electrónica, operando bajo un grupo de instrucciones almacenadas en su propia memoria, que acepta y manipula datos, produce resultados y se almacenan para utilizarlos en un futuro. 
En términos simples, una computadora es un dispositivo que procesa datos y los convierte en información útil para las personas. Cualquier computadora (sin importar su tipo) se controla con instrucciones programadas, las cuales le dan a la máquina un propósito y le dicen lo que debe hacer.
“Norton, P., Arellano, J. A. V., & rev Adolfo Sanchez León. (2000). Introducción a la Computación (No. 004.07 N677I 2000.). McGraw-Hill.”
Historia de La computadora.
Como resultado de varios siglos de trabajo, la madurez técnica de la ingeniería y las necesidades sociales, en la década de los años 40 surge la computadora: una máquina capaz de utilizar y controlar a gran velocidad cálculos y procesos complicados que requieren una toma rápida de decisiones mediante la aplicación sistémica de criterios establecidos.
Los términos computación e informática son equivalentes. La palabra computación procede del inglés y se refiere a la realización de cálculos. Por su parte la palabra informática es de origen francés y designa la actividad de procesamiento de información. Al margen de su origen etimológico, estos términos resultan equiparables. No obstante, la tarea esencial de las computadoras no es el cálculo, sino el procesamiento de la información. La computación o informática es la ciencia del tratamiento automático de la información.
A principio de los años 60 las computadoras habían comenzado a extenderse por las universidades, sobre todo en Estados Unidos, y su uso empezó a ser parte integrante de la formación de los estudiantes universitarios en algunas carreras. Pronto se empezó a tratar de utilizar experimentalmente esas mismas computadoras en otros niveles de enseñanza.
“Ríos, L. R., López Rodríguez, E., Lezcano Brito, M., & Pérez, R. A. M. I. R. O. (2006). Historia y evolución de los medios de enseñanza. Revista Iberoamericana De Educación, 37(6), 1-7.”
La primera máquina de calcular mecánica, un precursor de la computadora digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
En el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de una computadora moderna. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.
Computadoras electrónicos
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró la primera computadora digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en la ‘computadora’ Atanasoff-Berry 
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. 
A finales de la década de 1950 el uso del transistor en las computadoras marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.
Circuitos integrados
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.
EVOLUCION DE COMPUTADORES
1° Generación de computadoras – 1946 a 1955: para esta época, la tecnología utilizada eran los tubos al vacío, esos mismos son famosos por haber posibilitado el desarrollo de la electrónica hacia la mitad del siglo XX. Por esta razón, los ordenadores eran desarrollados con válvulas electrónicas de vacío. Se caracterizaban principalmente por tener un tamaño enorme, no disponer de sistema operativo, sino de una tarjeta perforada para almacenar toda la información y eran utilizados exclusivamente por las fuerzas militares y la industria científica.
2° Generación de computadoras – 1958 a 1964: La gran hazaña de esta generación fue la sustitución de válvulas de vacío por los transistores, acompañada del uso de memorias de núcleo de ferritas y tambores magnéticos para almacenar la información, los cuales permitieron la fabricación de computadoras de menor tamaño, caracterizadas por una mejor potencia, rapidez y fiabilidad. En este periodo se empezaron a utilizar lenguajes de alto nivel como ALGOL, FORTRAN y COBOL, siendo estos dos últimos los lenguajes de programación que ayudó a desarrollar la gran científica de la computación Grace Hopper, gracias a sus conocimientos sobre FLOW-MATIC.
3° Generación de computadoras – 1964 a 1971: Con la invención del circuito cerrado o chip por parte de los ingenieros estadounidenses Jack S. Kilby y Robert Noyce se revoluciona por completo el diseño de las computadoras. Aparecen los primeros discos magnéticos y los componentes electrónicos se integran en una sola pieza o chip que albergan en su interior condensadores, transistores y diodos, los cuales ayudan a aumentar notablemente la velocidad de carga y a reducir el consumo de energía eléctrica. En esta generación las computadoras se caracterizan por tener mayor flexibilidad y fiabilidad, ser de menor tamaño y ocupar poco espacio.
4° Generación de computadoras – 1971 a 1981: A partir de esta etapa las computadoras personales se convierten en las protagonistas de la informática. Todos los elementos que conforman la CPU ahora se almacenan en un circuito integrado conocido como microprocesadores y empiezan a surgir una gran gama de estos elementos fabricados por la compañía Intel, reconocida en la actualidad como la mayor fabricante de circuitos integrados del mundo. El primer microprocesador denominado 4004 lo desarrolla Intel en 1971 y en 1974 se presenta al mercado el primero diseñado para uso general. Es en esta generacióndonde aparece el disquete.
5° Generación de computadoras – 1982 a 1989: Dos hechos históricos marcan el inicio de esta etapa. Por un lado, el proyecto 5ta generación comando por Japón en 1982, cuya finalidad principal era construir ordenadores con tecnología más avanzada bajo lenguajes de programación más potentes para las máquinas y menos complejos para los usuarios. Por otro, la construcción del primer superordenador con capacidad de proceso paralelo. En esta generación las computadoras empiezan a realizar tareas que aún en la actualidad predominan, como la traducción automática de una lengua a otra. Asimismo, el almacenamiento de información digital se procesa en gigabytes y surge el DVD.
6° Generación de computadoras – 1990 hasta la actualidad: Aunque se presentan algunos desacuerdos sobre la existencia de una 6ta generación de computadoras, lo cierto es que la informática no se ha detenido y cada día avanza a mayor escala. La inteligencia artificial, la arquitectura vectorial y paralela de los ordenadores y la incorporación de chips de procesadores especializados para llevar a cabo ciertas tareas, predominan en la actualidad. Sin embargo, aún queda un largo camino por recorrer para la tecnología digital y de acuerdo con expertos de la industria como el gran Stephen Hawking, la próxima generación estará marcada por el máximo desarrollo de la informática cuántica y su puesta en marcha.

Continuar navegando