UNIDAD I
EVOLUCIÓN DE LAS COMPUTADORAS
Primera generación 1943-1958:
J.P. Eckert y John Mauchly, de la Universidad de Pensilvania, inauguraron el nuevo ordenador el 14 de febrero de 1946. El ENIAC resolvió 5 mil adiciones y sustracciones, 350 multiplicaciones o 50 divisiones por segundo. Pesaba 27 toneladas y medía 5,50 x 24,40 m y consumía 150 KW. A pesar de sus incontables ventiladores, la temperatura ambiente llegaba a los 67 grados centígrados. Ejecutaba 300 multiplicaciones por segundo, pero, como fue proyectado para resolver un conjunto particular de problemas, su reprogramación era muy lenta. Tenía cerca de 19.000 válvulas sustituidas por año. En 1943, antes de la entrada en operación del ENIAC Inglaterra ya poseía el Colossus, máquina creada por Turing para descifrar los códigos secretos alemanes.
En 1945 Von Neumann sugirió que el sistema binario fuera adoptado en todos los ordenadores, y que las instrucciones y datos fueran compilados y almacenados internamente en el ordenador, en la secuencia correcta de utilización. A partir de esas ideas, y de la lógica matemática o álgebra de Boole, introducida por Boole en el inicio del siglo XIX, Mauchly y Eckert proyectaron y construyeron el EDVAC, Electronic Discrete Variable Automatic Computer, completado en 1952, que fue la primera máquina comercial electrónica de procesamiento de datos del mundo. El primer ordenador comercial de gran escala fue el UNIVAC, Universal Automatic Computer, americano, de 1951, que era programado tocando cerca de 6.000 llaves y conectando cables a un panel. La entrada y salida de información era realizada por una cinta metálica de 1/2 pulgada de ancho y 400 m de largo. En total, se vendieron 46 unidades del UNIVAC Modelo I, que eran normalmente acompañados de un dispositivo impresor llamado UNIPRINTER, que, consumía 14.000 W. Otro fue el IBM 701, de 1952, que utilizaba cinta plástica, más rápida que la metálica del UNIVAC, y el IBM 704, con la capacidad fenomenal de almacenar 8.192 palabras de 36 bits, ambos de IBM. Entre 1945 y 1951, el WHIRLWIND, del MIT, fue el primer ordenador que procesaba información en tiempo real, con entrada de datos a partir de cintas perforadas y salida en CRT (monitor de vídeo), o en la Flexowriter, una especie de máquina de escribir (Whirlwind quiere decir remolino).En 1947 Bardeen, Schockley y Brattain inventan el transistor, y, en 1953 Jay Forrester construye una memoria magnética. Los ordenadores a transistores surgen en los años 50, pesando 150 kg, con consumo inferior la 1.500 W y mayor capacidad que sus antecesores valvulados.
Segunda generación 1959-1954:
En 1954 IBM comercializa el 650, de tamaño medio. El primer ordenador totalmente transistorizado fue el TRADIC, del Bell Laboratories. El IBM TX-0, de 1958, tenía un monitor de vídeo de primera calidad, era rápido y relativamente pequeño, poseía dispositivo de salida sonora. El PDP-1, procesador de datos programable, construido por Olsen, fue una sensación en el MIT: los alumnos jugaban Spacewar! y Ratón en el laberinto, a través de un joystick y un lápiz óptico.
En 1957 el matemático Von Neumann colaboró para la construcción de un ordenador avanzado, el cual recibió el nombre de MANIAC, Mathematical Analyser Numerator Integrator and Computer. En enero de 1959 Tejas Instruments anuncia al mundo una creación de Jack Kilby: el circuito integrado.
Tercera generación 1964-1984:
En 1964, la CSC, Computer Sciences Corporation, creada en 1959 con un capital de 100 dólares, se transformo en la primera compañía de software con acciones negociadas en bolsa. El primer mini computador comercial surgió en 1965, el PDP-5, lanzado por la americana DEC, Digital Equipament Corporation. Siguiendo su camino otras compañías lanzaron sus modelos, haciendo que a finales de la década ya existieran cerca de 100.000 ordenadores esparcidos por el mundo. En 1970 INTEL Corporation introdujo en el mercado un nuevo tipo de circuito integrado: el microprocesador. El primero fue el 4004, de cuatro bits. Fue seguido por el 8008, en 1972, el difundidísimo 8080, el 8085, etc. A partir de ahí surgen los microcomputadores. Para muchos, la cuarta generación surge con los chips VLSI, de integración a muy larga escala. Las cosas comienzan a desarrollarse con mayor rapidez y frecuencia. En 1972 Bushnell lanza el vídeo game Atari. Kildall lanza el CP/M en 1974. El primer kit de microcomputador, el ALTAIR 8800 en 1974/5. En 1975 Paul Allen y Bill Gates crean Microsoft y el primer software para microcomputador: una adaptación BASIC para el ALTAIR.
El Sinclair ZX81/ZX Spectrum fue un ordenador minúsculo concebido por John Sinclair, profesor en la Universidad de Cambrige en U.K. Inicialmente concebido para la utilización de los estudiantes de la Universidad de Cambrige. La CPU tenía un procesador Zilog Z80A de 8 bit a 3,25 MHZ, una memoria compuesta por una ROM y una RAM y una ULA. La ROM, con 8K de capacidad, almacenaba de modo permanente los programas, tablas etc. necesarios para el funcionamiento del sistema y un traductor para el lenguaje de programación BASIC. La RAM tenía un área de trabajo disponible para el usuario de 1 K pero, era expandible hasta 16K. En la caja de plástico se alojaba también un subsistema de comunicaciones para conexión en serie a periféricos denominado SCL (Sinclair Computer Logic), una unidad para entrada y salida de sonido, un codificador de imágenes para TV.
Fabricado por IBM en USA alrededor de año 1980, inició con la versión PC-XT, a la cual le siguió una versión PC-AT. El CPU comprendía una memoria ROM de 40KB y una memoria RAM de 64KB expandible hasta 640KB, una ULA y un procesador Intel 8088 de 16 bit con una frecuencia de reloj de 4,77 MHZ. Era construido con tres módulos separados: CPU, monitor y teclado. El monitor era blanco y negro con 25 líneas por 80 columnas pudiendo ser substituido por un monitor con 16 colores. La CPU además del procesador albergaba una unidad de disquete de 5" 1/4 con una capacidad de 360KB pudiendo alojar otra unidad de disquete idéntica o un disco rígido con 10MB de capacidad, que era parte integrada en la versión PC-XT. El teclado con 83 teclas, 10 de las cuáles correspondían a funciones pre-programadas, disponía de caracteres acentuados. Poseía una salida para impresora y el PC-XT disponía de un interfaz para comunicaciones asíncronas. El sistema operativo era el PC/MS-DOS el cual era un MS-DOS desarrollado por Microsoft para IBM. El lenguaje de programación que utilizada era el BASIC.. Sólo cerca de dos años después, con la presentación de los modelos PS/2-50 y PS/2-60, que eran equipados con un procesador Intel 80286, la IBM recuperó el sector de mercado de los PCS utilizando para el efecto la penetración en las empresas donde tenía instalado mainframes y "pequeños ordenadores".
La Cuarta Generación 1981-1990
Surgieron en el transcurso del uso de la técnica de los circuitos LSI (large scale integration) y VLSI (very large scale integration). En ese periodo surgió también el procesamiento distribuido, el disco óptico y la gran difusión del microcomputador, que pasó a ser utilizado para procesamiento de texto, cálculos auxiliados, etc.
1982- Surge el 286 : Usando memoria de 30 pines y slots ISA de 16 bits, ya venía equipado con memoria cache, para auxiliar al procesador en sus funciones. Utilizaba monitores CGA, en algunos raros modelos estos monitores eran coloreados pero la gran mayoría era verde, naranja o gris.
1985- El 386: Usaba memoria de 30 pines, pero debido a su velocidad de procesamiento ya era posible correr software gráficos más avanzados como era el caso del Windows 3.1, su antecesor podía correr sólo la versión 3.0 debido a la baja calidad de los monitores CGA, el 386 ya contaba con placas VGA que podían alcanzar hasta 256 colores si es que el monitor soportara esa configuración.
1989- El 486 DX : A partir de este momento el coprocesador matemático junto con el propio procesador, hubo también una mejora sensible en la velocidad debido a la aparición de la memoria de 72 pines, mucho más rápida que su antepasada de 30 pines y de las placas PCI de 32 bits dos veces más veloces que las placas ISA . Los equipamientos ya tenían capacidad para las placas SVGA que podrían alcanzar hasta 16 millones de colores, sin embargo esto sería usado comercialmente más adelante con la aparición del Windows 95.
La Quinta Generación desde 1991
Las aplicaciones exigen cada vez más una mayor capacidad de procesamiento y almacenamiento de datos. Sistemas especiales, sistemas multimedia (combinación de textos, gráficos, imágenes y sonidos), bases de datos distribuidas y redes neutrales, son sólo algunos ejemplos de esas necesidades. Una de las principales características de esta generación es la simplificación y miniaturización del ordenador, además de mejor desempeño y mayor capacidad de almacenamiento. Todo eso, con los precios cada vez más accesibles. La tecnología VLSI está siendo sustituida por la ULSI (ultra large scale integration).El concepto de procesamiento está yendo hacia los procesadores paralelos, o sea, la ejecución de muchas operaciones simultáneamente por las máquinas. La reducción de los costos de producción y del volumen de los componentes permitió la aplicación de estos ordenadores en los llamados sistemas embutidos, que controlan aeronaves, embarcaciones, automóviles y ordenadores de pequeño porte. Son ejemplos de esta generación de ordenadores, los micros que utilizan la línea de procesadores Pentium, de INTEL.
ARQUITECTURA CISC Y RISC
Arquitectura CISC
La tecnología CISC (Complex Instruction Set Computer) nació de la mano de Intel, creador en 1971 del primer microchip que permitiría el nacimiento de la informática personal. Más concretamente, sería en 1972 cuando aparecería el 8080, primer chip capaz de procesar 8 bits, suficiente para representar números y letras. Con la posibilidad de colocar todos los circuitos en un solo chip y la capacidad de manejar número y letras nacería la cuarta generación de ordenadores, la de los conocidos como PC u ordenadores personales.
Los microprocesadores CISC tienen un conjunto de instrucciones que se caracteriza por ser muy amplio y permitir operaciones complejas entre operando situados en la memoria o en los registros internos.
Arquitectura RISC
Las características de una arquitectura RISC pueden resumir como sigue:
· Toman como esquema moderno de Von Neumann
· Las instrucciones con otras características se dividen en tres grupos.
a) Transferencia
b) Operaciones
c) Control de flujo
· Reducción del conjunto de instrucciones básicas simples
· Arquitectura de tipo load-store (carga y almacena).
Resumen de la Unidad 1 Arquitectura de computadora
Modelos de arquitectura de computadoras
Modelo y un descripción funcional de los requerimientos y la implementación de diseño para varias partes de una computadora. Con especial interés en la forma en que la unidad central de proceso (CPU) trabaja internamente y accede a las direcciones de memoria.
Clásica
Fue diseñado por fue diseñado por Jhon Von Newman fue utilizada en la computadora ENIAC. Consiste en una unidad central de proceso se comunica a través de un solo bus con un banco de memoria en donde se almacenan tanto los códigos de instrucción del programa, como los datos que serán procesados por este. El modelo clásico de arquitectura consta de los siguientes elementos:
>MEMORIAS ROM/RAM
>PUERTOS E/S
>PROCESADOR DIGITAL CPU
ENIAC es un acrónimo de Electronic Numerical Integrator And Computer (Computador e Integrador Numérico Electrónico), utilizada por el Laboratorio de Investigación Balística del Ejercito de los estados Unidos.
Segmentada
Es una técnica empleada en el diseño de procesadores, esta se basada en la división de la ejecución de las instrucciones en etapas y es necesario que una instrucción utilice solamente una etapa en cada ciclo de ejecución.
Ejecutar instrucciones antes de terminar las anteriores puede provocar que se necesite leer/escribir un registro antes de que este haya sido escrito/leído por la instrucción anterior/siguiente
Los riesgos de datos se pueden clasificar como:
Ø RAW (read after write): una instrucción posterior trata de leer un operando antes de que lo escriba una anterior.
Ø WAR (write after read): una instrucción posterior trata de escribir su resultado antes de que lo haya leído una anterior.
Ø WAW (write after write): una escritura posterior se produce antes que otra escritura anterior en el mismo destino
Ventajas
Ø En las arquitecturas segmentadas se consigue una buena y mejora de rendimiento y a un costa asequible
Ø En la entrada se aceptan nuevos elementos (instrucciones) antes de que los previamente aceptados salgan por la salida.
Ø Su proceso requiere menor tiempo a comparación de otros modelos
Ø Carga instrucciones por adelanto y las guarda en un buffer de pre-alimentación paralela a la ejecución en curso
Ø Eficacia al ejecutar instrucciones
Ø Aumento de rendimiento de cada instrucción
Ø Reduce el numero de ciclos/instrucción en un factor igual a la profundidad del numero de etapas
Desventajas
Ø Hay momentos en que no se accede a la memoria principal
Ø La cantidad de lógica y control necesaria para gestionar los buffers intermedios crece con el número de etapas hasta que la lógica de control entre etapas llega a ser compleja y costosa en tiempo que la lógica propia de cada etapa.
Ø El incremento de rendimiento Esta limitado al máximo numero de etapas del procesador
Ø No es fácil mantener siempre ocupadas todas las etapas del pipeline por motivos estructurales, dependencias de operandos e instrucciones de bifurcación
Ø Cuando una etapa no es capaz de realizar su ciclo el pipeline se detiene
Modelo de arquitectura de cómputo de multiprocesamiento
Multiprocesamiento un procesador que opera en la misma memoria pero ejecuta procesos simultáneamente, siendo es tradicionalmente conocido como el uso de múltiples procesos concurrentes en un sistema en lugar de un único proceso en un instante determinado.
Modelo de arquitectura de cómputo de multiprocesamiento
Se trata de un tipo de arquitectura de ordenadores en que dos o más procesadores comparten una única memoria central. Se caracteriza por el hecho de que varios microprocesadores comparten el acceso a la memoria, Se utiliza
• Cuando se desea incrementar el desempeño más allá de lo que permite la técnica de segmentación del cauce (limite teórico de una instrucción por ciclo de reloj), se requiere utilizar más de un procesador
• Para la ejecución del programa de aplicación.
Las CPU de multiprocesamiento se clasifican:
● SISO – (Single Instruction, Single Operand ) computadoras independientes
● SIMO – (Single Instruction, Multiple Operand ) procesadores vectoriales
● MISO – (Multiple Instruction, Single Operand ) No implementado
● MIMO – (Multiple Instruction, Multiple Operand ) sistemas SMP, Clusters.
Clusters: conjuntos de computadoras independientes conectadas en una red de área local o por un bis de interconexión.
SMP: arquitectura de ordenadores en que dos o más procesadores comparten una única memoria central. Se caracteriza por el hecho de que varios microprocesadores comparten el acceso a la memoria.
Análisis de los componentes
CPU
Es la parte de la unidad central de procesamiento que actúa como coordinadora de todas las tareas que ha de realizar la computadora
Funciones
Maneje todas las operaciones de acceso, lectura y escritura a cada una de las posiciones de la memoria principal donde se almacenan las instrucciones necesarias para realizar un proceso,
Interprete de instrucciones
Realiza las tareas que se indican en la instrucción. Esta unidad también se ocupa de controlar y coordinar a las unidades implicadas en las operaciones anteriormente mencionadas.
La unidas de control, finalmente comunica entre si y dirige las entradas y salidas desde y asta los periféricos dando el oportuno tratamiento a la información en proceso
Para realizar su cometido la unidad de control necesita manejar la siguiente información;
· Registro de estado
· Registro puntero de instrucciones
· La instrucción a ejecutar
· Las señales de entrada y salida
Realizando una simulación con el resto del sistema informático, los registros son a la CPU como la memoria principal es la computadora.
Los registros se dividen en tres grupos principales:
· Registró de propósito general
· Registro de segmentación de memoria
· Registro de instrucciones
Memoria
Componentes fundamentales para el correcto funcionamiento de nuestra PC, permite que la computadora puede arrancar, se procesen los datos, se ejecuten las instrucciones para los distintos programas y demás.
Tipos de memoria
Una computadora trabaja con cuatro tipos de memorias diferentes, que sirven para realizar diversas funciones. Estas son:
La memoria RAM
La memoria ROM
La memoria SRAM o Caché
La memoria Virtual o de Swap.
RAM
Memoria de acceso aleatorio (random-access memory) se denominan "de acceso aleatorio" porque se puede leer o escribir en una posición de memoria con un tiempo de espera
ROM
Memoria de solo lectura (read-only memory), es un medio de almacenamiento, utilizado en ordenadores y dispositivos electrónicos, que permite solo la lectura de la información y no su escritura.
SRAM o Caché
Guardar las ubicaciones en el disco que ocupan los programas que han sido ejecutados, para que cuando vuelvan a ser iniciados el acceso a la aplicación logre ser más rápido.
Existen tres tipos de caché diferentes:
El caché L1: que se encuentra en el interior del procesador y funciona a la misma velocidad que éste, y en el cual se guardan instrucciones y datos
El caché L2: suele ser de dos tipos: interno y externo. El primero se encuentra dentro de la motherboard, mientras que el segundo se halla en el procesador pero de manera externa, lo que lo hace más lento que el caché L1.
El caché L3 que sólo vienen incorporado a algunos de los microprocesadores más avanzados, lo que resulta en una mayor velocidad de procesos.
Virtual o de Swap
Funciona de manera similar a la caché, es creada por Windows o Linux para ser utilizada exclusivamente por el sistema operativo.
En el caso de Linux esta denominada memoria swap generalmente está ubicada en una partición diferente del disco, mientras que en el sistema de Microsoft es un archivo dentro del sistema operativo mismo.
DISPOSITIVOS DE ENTRADA Y SALIDA
Son aquellos que permiten la comunicación entre la computadora y el usuario.
Dispositivos de entrada
Son aquellos que sirven para introducir datos a la computadora para su proceso. Los datos se leen de los dispositivos de entrada y se almacenan en la memoria central o interna. Los dispositivos de entrada convierten la información en señales eléctricas que se almacenan en la memoria central.
Dispositivos de salida
Los dispositivos de salida son aquellos que reciben información de la computadora, su función es eminentemente receptora y por ende están imposibilitados para enviar información
Entrada/salida (mixtos)
Estos son los que pueden contener ambas funciones
Tipos de dispositivos mixtos
Unidades de almacenamiento
CD
DVD
Módem
Memory cards
USB
Router
Pantalla táctil
Dispositivos apticos ( Tecnología Touch)
Disco Duro Externo
Practica de la unidad “Transferir datos de una computadora a otra en red”
Una de las formas más sencillas de compartir archivos entre dos ordenadores o de compartir una conexión de Internet de forma inalámbrica es crear una red entre ellos. En la actualidad, los dos tipos de redes más comunes son la red Ethernet con cable y la red inalámbrica. Aunque la red Ethernet puede ofrecer mayor velocidad y fiabilidad, requiere pasar un cable que una los dos ordenadores.
En la práctica que se realizo de este tema fue entre las computadoras del mismo laboratorio de la institución, después se busco la forma de como hacer la misma actividad a distancia es decir, se investigo como controlar una PC a distancia con el fin de saber como le podríamos hacer si pidieran asesoría técnica a distancia.
Lo que se aprendió en esta actividad fue conocer software para asistencia técnica y cuales medios de comunicación entre dos computadoras existen, esta actividad se hizo en equipo de tres, todos investigarían como hacer la practica y se hizo que la CPU intercambiara datos directamente y fácil para mejor soporte.
De esta forma encontramos que se puede hacer transmisión de datos por software que usa una ip para localizar la otra computadora conectada en red para conocer la ubicación y asi poder asistir por medio de la misma, controlando la cpu del cliente, en otros casos en en red con una conexión como ya habíamos mencionado entre dos computadoras.
Entre los programas para hacer transferencia de datos por los que podemos mencionar:
- P2P
- Windows Commander
- anyplace control 5.2
- Teamviewer
Suscribirse a:
Entradas (Atom)
No hay comentarios:
Publicar un comentario