sábado, 16 de marzo de 2013

Crónicas históricas de las computadoras.

1.1 Generaciones de computadoras.

Primera Generación.


Fue en la época de los años cincuenta en que se considero la primera generación de las computadoras.

Estas computadoras eran construidas por:
-Tubos vacíos
-Programadas en lenguaje de máquina (es un conjunto de instrucciones que la computadora efectúa durante determinadas tareas, que son de lo mas simple porque se pueden escribir en código binario, ceros o unos.)
-y costosas.
En el año 1948 se produce un gran avance al descubrirse el Transistor (dispositivo electrónico semiconductor que se utiliza como amplificador o conmutador electrónico) por los ingenieros de la empresa Bell: John Bardeen, Walter Brattain y William Shockley.
El Transistor conocido también con el nombre de microamplificador, y fue el que sustituyo a los tubos de vacío, con ello se consiguió que las computadoras redujesen considerablemente su tamaño.
En el año 1.951 se creo la UNIVAC, fue la primera computadora comercial, podía leer cintas magnéticas y se uso para confeccionar el censo del año 1.950 en los Estados Unidos. 


Segunda Generación


La segunda generación de las computadoras se puede establecer cerca de los años 

sesenta. Es en esa época cuando las computadoras reducen su tamaño y precio, pero 
aumenta su velocidad y capacidad de almacenamiento. Esta generación de computadoras era muy avanzada para la época, entre ellas podemos destacar la serie 5.000 de Burroughs y la ATLAS de la Universidad de Manchester. Las computadoras se programaban con cintas perforadas y por medio de cableado en un tablero.
Las computadoras de esta época fueron la Phlico 212 y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315. La Radio Corporation of America lanzo al mercado el modelo 501, que ya usaba el lenguaje COBOL, se usaba para tareas administrativas y comerciales.



Tercera Generación


La tercera generación de las computadoras se puede decir que comienza en abril de 1.964 con la IBM 360. Estas computadoras están compuestas por circuitos integrados y utilizan lenguajes de control de los sistemas operativos.


El Circuito integrado, o chip se invento en el año 1.959 por los ingenieros de la Texas Instruments. Ellos serán los sustitutos de los transistores en la fabricación de las computadoras. El primer circuito integrado contenía seis transistores. 

A mediados de la década de los 70 las computadoras que se venden en los mercados recuden su tamaño, se las denomina minicomputadoras
 Algunas de estas minicomputadoras o mainframes (que significa, gran sistema) fueron: la PDP – 8, la PDP – 11, la VAX de la Virtual Address eXtended, todas estas de la empresa Digital Equipment Corporation, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett – Packard, etc. En la antigua Unión Soviética se uso durante varias generaciones la US (Sistema Unificado, Ryad).



Cuarta Generación


En la Cuarta generación de computadoras aparece la innovación más importante de la computación, los microprocesadores. Las computadoras de esta generación pasaron a llamarse microcomputadoras porque usaban estos microprocesadores. Estas computadoras son mucho más pequeñas y baratas, con lo que se vendieron muchísimo mas, son conocidas como las computadoras personales, del inglés personal computer (PC), que influyeron de tal manera en la sociedad en general que propiciaron lo que se conoce como “la revolución informática”.


En el año 1.976 Steve Wozniak y Steve Jobs idean la primera microcomputadora de la que se venden muchísimas unidades. Mas adelante Steve Wozniak y Steve Jobs, fundan la empresa Apple, que llego a ser la segunda compañía más grande del mundo, solo estaba por encima de ella el gigante IBM, aun hoy Apple esta entre las 5 compañías más grandes del mundo en el campo de la computación.

Entre los años 1.984 y 1.987 se llegaron a vender 60 millones de computadoras personales, esto demuestra su tremenda expansión en todos los terrenos, comercial, industrial y personal
Por esta época Gary Kildall y William Gates crean sistemas operativos que llegaron a ser tan importantes y conocidos en el mercado mundial como son los famosos sistemas operativos de Microsoft Windows.



Quinta Generación

Las computadoras de quinta generación son computadoras basadas en inteligencia .La quinta generación de computadoras fue un proyecto ambicioso lanzado por Japón a  de los 70. Su objetivo era el desarrollo de una clase de computadoras que utilizarían técnicas de inteligencia artificial al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra.

1.2 La Revolución del Microcomputador.

1.2.1 Los Microprocesadores intel

Intel fue fundada el 18 de julio de 1968 como Integrated Electronics Corporation (aunque un error común es el de que "Intel" viene de la palabra intelligence) por los pioneros en semiconductores Robert Noyce y Gordon Moore, y muchas veces asociados con la dirección ejecutiva y la visión de Andrew Grove.
Las siglas de Integrated Electronic, significan en español Electrónica IntegradaLa compañía comenzó fabricando memorias antes de dar el salto a los microprocesadores. Hasta los años 70 fueron lideres gracias al competitivo mercado de las memorias DRAM, SRAM y ROM.
El 15 de Noviembre de 1971 lanzaron su primer microprocesador: el Intel 4004 para facilitar el diseño de una calculadora.
Poco tiempo después, el 1 de Abril de 1972, Intel anunciaba una versión mejorada de su procesador. Se trataba del 8008, y su principal ventaja contra otros modelos, como el Intel 4004 fue poder acceder a más memoria y procesar 8 bits. La velocidad de su reloj alcanzaba los 740KHz.
En Abril del 1974 lanzaron el Intel 8080, su velocidad de reloj alcanzaba los 2 Mhz, permitiendo direccionamiento de 16 bits, un bus de datos de 8 bits y acceso fácil a 64k de memoria. El 1 de Febrero de 1982, Intel daba un nuevo vuelco a la industria con la aparición de los primeros 80286 (el famoso "286") con una velocidad entre 6 y 25 Mhz y un diseño mucho más cercano a los actuales microprocesadores. En 1986 apareció el Intel 80386 conocido por 386, velocidad de reloj entre 16 y 40 Mhz y destacó principalmente por ser un microprocesador con arquitectura de 32 bits.
En 1988, Intel desarrollaba un poco tarde un sistema sencillo de actualizar los antiguos 286 gracias a la aparición del 80386SX, que sacrificaba el bus de datos para dejarlo en uno de 16 bits, pero a menor coste. El 10 de abril de 1989 apareciera el Intel 80486DX, de nuevo con tecnología de 32 bits y como novedades principales, la incorporación del caché de nivel 1 (L1) en el propio chip, lo que aceleraba enormemente la transferencia de datos de este caché al procesador, así como la aparición del co-procesadormatemático.
Luego de ello sacaron hasta dos versiones más de DX: en 1992 el i486 DX2a 50 y 66 MHz y en 1994 el i486 DX4 a 75-100 MHz enfocado a procesadores de gama alta. 
En 1989 lanzaron el 486 que alcanzó velocidades entre 16 y 100 MHz y una curiosidad: según la Wikipedia fue nombrado "i486" por fallo judicial que prohibió el uso de marcas con números**.
Por ello el siguiente microprocesador en ser lanzado, en Mayo del 1993, fue conocido como "Pentium". Estos procesadores que partían de una velocidad inicial de 60 MHz, han llegado hasta los 200 MHz, algo que nadie había sido capaz de augurar unos años antes. Con una arquitectura real de 32 bits, se usaba de nuevo la tecnología de .8 micras, con lo que se lograba realizar más unidades en menos espacio.

El 27 de Marzo de 1995, del procesador Pentium Pro supuso para los servidores de red y las estaciones de trabajo un aire nuevo, tal y como ocurriera con el Pentium en el ámbito doméstico. La potencia de este procesador no tenía comparación hasta entonces, gracias a la arquitectura de 64 bits y el empleo de una tecnología revolucionaria como es la de .32 micras, lo que permitía la inclusión de cinco millones y medio de transitores en su interior.


1.2.2 Procesadores Motorola.
Las familia 68K tiene varios miembros que pertenecen a diferentes generaciones como es el Motorola 68000, el 68EC000, el 68008, el 68010 y el Motorola 68012, estos modelos pertenecen a la primera generación, en la segunda generación con 32 bits, surgieron el Motorola 68020, el Motorola 68EC020, el Motorola 68030 y el Motorola 68EC030, en la tercera generación; se encuentran el Motorola 68040, el 68EC040 y el Motorola 68lC040, posteriormente surgió la cuarta generación con el modelo 68060 de 32 bits, luego se lanzaron otros modelos como el Motorola ColdFire, el Dragonball y el Motorola CPU32.
Los sistemas de sobremesa ya no se utilizan en la actualidad, ya que estos son muy antiguos, por lo cual sus creadores han cerrado sus servicios o no están ofreciendo este sistema para hardware. Pero hay algunos sistemas que le están dando soporte a equipos que trabajan con procesadores m68k como es: Debian/Linux, NetBSD y OpenBSD.
La cuarta generación de esta familia antes citada, compartía muchas características del Intel P5. Cuando cayo en desuso la serie 68k, se ha venido utilizando esta familia en versiones microcontrolador/sistemas integrados. Entre los competidores de los 68k están los chips IA-16, que compitieron directamente con la primera generación, surgieron los chips IA-32 que compitieron con la segunda generación, el IA-32 80486 que compitió con la tercera generación, ya para finalizar la cuarta compitió con los Pentium.


1.2.3 Procesadores Risc.

La tendencia mayormente adoptada para conseguir un aumento de prestaciones, ha sido el incremento de la complejidad de las instrucciones. Es lo que se ha denominado "computación con conjuntos de instrucciones complejas" o CISC (Complex Instruction Set Computing). Sin embargo, la tendencia actual, se esfuerza en conseguir procesadores con conjuntos de instrucciones de complejidad reducida o RISC (Reduced Instruction Set Computing). La idea es que un conjunto de instrucciones poco complejas son simples, y por tanto de más rápida ejecución, lo que permite crear un código más "aerodinámico".
Tanto la tecnología CISC como la RISC son acreditadas a IBM, aunque sus antecesores bien pueden ser John vonNeumman (inventor del primer programa de ordenador almacenado, y que promovía la velocidad inherente a conjuntos de instrucciones reducidas).

Las ventajas de los procesadores RISC, especialmente las ligadas a los sistemas abiertos (léase UNIX), los hacen plataformas ideales para explorar los puntos fuertes de los sistemas multiprocesadores.
La comparación que antes hemos realizado entre CISC y RISC es algo simple, ya que no es sólo una cuestión de diferencias en el conjunto de instrucciones, puesto que es fundamental resaltar el mejor uso y aprovechamiento de los recursos del silicio, es decir, menor tiempo de diseño y empleo de menor número de transistores, lo que redunda en menor número de errores de diseño y menor tiempo de ejecución para instrucciones individuales.

Las características comunes a todos los procesadores RISC, fuente de sus capacidades de altas prestaciones, son:

1. Modelo de conjunto de instrucciones Load/Store (Cargar/Almacenar). Sólo las instrucciones Load/Store acceden a memoria; las demás operaciones en un RISC, tienen lugar en su gran conjunto de registros. Ello simplifica el direccionamiento y acorta los tiempos de los ciclos de la CPU.
2. Arquitectura no destructiva de tres direcciones. Los procesadores CISC destruyen la información que existe en alguno de los registros, como consecuencia de la ejecución normal de instrucciones; esto es debido a su arquitectura de dos direcciones, por la cual el resultado de una operación sobrescribe uno de los registros que contenía a los operandos. Por contra, las instrucciones RISC, con tres direcciones, contienen los campos de los dos operandos y de su resultado.

  1. Por lo tanto, tanto los operandos origen como el destino, son mantenidos en los registros tras haber sido completada la operación. Esta arquitectura "no destructiva" permite a los compiladores organizar las instrucciones de modo que mantengan llenos los conductos (pipelines) del chip, y por tanto reutilizar los operandos optimizando la concurrencia.
  2. Instrucciones simples, de formato fijo, con pocos modos de direccionamiento. Las instrucciones simples reducen de manera muy significativa el esfuerzo para su descodificación, y favorecen su ejecución en pipelines. Las instrucciones de longitud fija, con formatos fijos, implican que los campos de códigos de operación (opcodes) y de los operandos están siempre codificados en las mismas posiciones, permitiendo el acceso a los registros al mismo tiempo que se está descodificando el código de operación. Todas las instrucciones tienen una longitud equivalente a una palabra y están alineadas en la memoria en límites de palabra (word boundaries), ya que no pueden ser repartidas en pedazos que puedan estar en diferentes páginas.
  3. Ausencia de microcódigo. El microcódigo no se presta a la ejecución en ciclos únicos, ya que requiere que el hardware sea dedicado a su interpretación dinámica. La programación en microcódigo no hace que el software sea más rápido que el programado con un conjunto de instrucciones simples. Todas las funciones y el control, en los procesadores RISC, están "cableados" (hardwired), para lograr una máxima velocidad y eficiencia.
  4. Ejecución en conductos (pipelined). Las instrucciones simples, de formato fijo y ciclo único permiten que las diferentes etapas de los ciclos de ejecución (búsqueda o fetch, descodificación, ejecución, y escritura del resultado o result write-back) para instrucciones múltiples, se puedan realizar simultáneamente, de un modo más simple y eficaz.
  5. Ejecución en ciclos únicos (single-cycle). El resultado directo de los conjuntos de instrucciones que ofrecen los procesadores RISC, es que cada instrucción puede ser ejecutada en un único ciclo de la CPU. Esto invalida la creencia de que las microinstrucciones en microcódigo, creadas para ser ejecutadas en un solo ciclo de procesador, son más rápidas que las instrucciones del lenguaje ensamblador. Ya que el caché esta construido partiendo de la misma tecnología que el almacenamiento de control del microprograma, una única instrucción puede ser ejecutada a la misma velocidad que una microinstrucción. La ejecución en ciclos únicos también simplifica la gestión de las interrupciones y los conductos (pipelines).

1.2.4 Procesamiento en Paralelo.

Es un proceso empleado para acelerar el tiempo de ejecución de un programa dividiéndolo en múltiples trozos que se ejecutarán al mismo tiempo, cada uno en su propios procesadores. La razón de ser del procesamiento en paralelo es acelerar la resolución de un problema, la aceleración que puede alcanzarse depende tanto del problema en sí como de la arquitectura de la computadora.
Las aplicaciones que se benefician de una aceleración más significativa son aquellas que describen procesos intrínsicamente paralelos, las simulaciones de modelos moleculares, climáticos o económicos tienen todas una amplia componente paralela, como los sistemas que representan. el hardware de la máquina entra en juego ya que es preciso maximizar la relación entre el tiempo de cálculo útil y el perdido en el paso de mensajes, parámetros que dependen de la capacidad de proceso de las CPUs y de la velocidad de la red de comunicaciones.

Hay 2 formas básicas de obtener partes independientes en un programa paralelo: descomposición funcional o descomposición de datos, que describiremos a continuación:


  1. Descomposición de datos. Un ejemplo de aplicación completamente paralelizable es el cálculo del área bajo una curva por integración numérica, basta con dividir el intervalo de integración entre todos los procesadores disponibles y que cada uno resuelva su fragmento sin preocuparse de qué hacen los demás, al final, los resultados parciales se recolectan y se suman convenientemente.
  2. Descomposición funcional. Un modelo computacional se basa por empezar, en que una aplicación consiste en varias tareas, cada tarea es responsable de una parte de la carga de procesamiento de la aplicación en general y a su vez, cada tarea realiza una operación independiente de las otras tareas. Los algoritmos de cada tarea son diferentes, este modelo se denomina descomposición funcional y se puede aprovechar las características particulares de cada tipo de tarea para ejecutarlas en la maquina que sea mas conveniente para tal efecto.
Los sistemas paralelos mejoran la velocidad de procesamiento y de E/S mediante la utilización de CPU y discos en paralelo. Cada vez son mas comunes computadoras paralelas, lo que hace que cada vez sea mas importante el estudio de los sistemas paralelos de bases de datos.


1.3 Los Computadores multiusuario.


Un Sistema Operativo multiusuario permite a mas de un solo usuario accesar una computadora. Claro que, para llevarse esto a cabo, el Sistema Operativo también debe ser capaz de efectuar multitareas.
Unix es el Sistema Operativo Multiusuario más utilizado. Debido a que Unix fue originalmente diseñado para correr en una minicomputadora, era multiusuario y multitarea desde su concepción.
Actualmente se producen versiones de Unix para PC tales como The Santa Cruz Corporation Microport, Esix, IBM,y Sunsoft. Apple también produce una versión de Unix para la Machintosh llamada: A/UX.Unix
Unix proporciona tres maneras de permitir a múltiples personas utilizar la misma PC al mismo tiempo:
  • Mediante Módems.

  • Mediante conexión de terminales a través de puertos seriales

  • Mediante Redes
1.3.1 Macrocomputadoras.


Las macrocomputadoras se caracterizan por su utilización en el manejo de grandes bases de datos en redes corporativas de gran tamaño. Poseen grandes dispositivos de almacenamiento como discos duros de hasta 500 GigaBytes (GB) y cintas de seguridad. 

Anteriormente era usual que ocuparan cuartos completos o incluso pisos enteros de edificios, este tipo de instalación ya no es muy utilizada. Hoy en día, es común verlas como una hilera sencilla de grandes archivadores, aunque puede seguir requiriendo de un ambiente controlado.



1.3.2 Mainframe.


Un Mainframe es un ordenador de grandes dimensiones pensado principalmente para el tratamiento de grandísimos volúmenes de datos. Se utiliza para aplicaciones de Banca, Hacienda y mercado de valores, aerolíneas y tráfico aéreo, así como de centro neurálgico de grandes empresas con un volumen de facturación elevado. En definitiva, es un ordenador grande, en todos los sentidos (tanto por su capacidad, como por el volumen que ocupa).

Como todo ordenador, tiene su procesador, memoria y sus canales de E/S, a los que van conectados los dispositivos que queramos (discos, cintas, terminales, impresoras, etc). En nuestro caso concreto, el procesador, la memoria y el sistema de canales de E/S van dentro de un armario, y el resto de los dispositivos son armarios diferentes, los cuales se conectan entre sí mediante canales de fibra óptica ESCON (17 MB/seg) o FICON (2 Gb/Seg).


1.3.3 Minicomputadora.

Son computadoras que pueden tener varios procesadores y son utilizadas primordialmente en el sector manufacturero y financiero. También tienen aplicación en el manejo de bases de datos de información y se emplean para la administración de redes de computadoras.
Utilizan sistemas operativos multiusuarios con una gran cantidad de variantes y fabricantes.
1.4 Computadores Monosuario.



Los sistemas operativos mono usuarios son aquellos que soportan a un  usuario a la vez, sin importar el  de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo, las computadoras personales típicamente se han clasificado en este renglón.
1.4.1 Estacion de trabajo.



En informática una estación de trabajo  es un minicomputador de altas prestaciones destinado para trabajo técnico o científico. En una red de computadoras, es una computadora que facilita a los usuarios el acceso a los servidores y periféricos de la red. A diferencia de una computadora aislada, tiene una tarjeta de red y está físicamente conectada por medio de cables u otros medios no guiados con los servidores. Los componentes para servidores y estaciones de trabajo alcanzan nuevos niveles de rendimiento informático, al tiempo que ofrecen fiabilidad, compatibilidad, escalabilidad y arquitectura avanzada ideales para entornos multiproceso.
1.4.2 Computador Personal.

La primera generación de estos equipos se empezó a manufacturar en la década de los setenta pero era muy poco sofisticada, potente y polifacética, por lo que solo ganó espacio entre los aficionados a la informática.
Con el lanzamiento en 1979 de la hoja de cálculo VisiCalc, en principio para Apple II y después para el IBM PC, aplicación que logró convertir a la microcomputadora en una herramienta de trabajo, apegado al bajo costo de las computadoras personales les hizo adquirir una gran popularidad tanto para las familias como para los trabajadores en los años ochenta.
Ya en la década de los 90, devino en mayor éxito para las computadoras personales ya que aumentó de manera radical su poder, borrando la frontera que había entre las computadoras personales y las computadoras centrales. Las computadoras de gama alta se distinguen de las computadoras personales por su mayor fiabilidad o su mayor habilidad para realizar multitareas y no por la potencia de la CPU.
1.4.3 Computadores Portatiles.


Una de las tendencias más acentuadas de nuestros días es hacia la computación móvil, mediante el uso de las llamadas computadoras portátiles, más conocidas como "Laptops".

La computadora portátil es un Dispositivo pequeño y ligero que puede llevar a cualquier lado.

La computadora portátil posee un teclado y una pantalla incorporados. Esto elimina los cables para conectar estos Elementos.
Las computadoras portátiles figuran entre los pocos productos de alta tecnología fabricados en masa que ofrecen al cliente la oportunidad de escoger las características que más requieran. Las Portátiles, incluyendo las que tienen potencia industrial, el tipo libreta más pequeñas para llevar a todas partes, y una raza en evolución de microlibretas, son ampliamente populares entre una gran cantidad de usuarios que quiere una computadora que lo haga todo, con baterías.

1.4.4 Computadores incorporados.

Una computadora incorporada son aquellas que son construidas para un propósito especifico y que mayormente funcionan como un componente para grandes productos. Este tipo de computadoras están presentes en muchos lados como en los hogares, en los autos y en el trabajo. A continuación se presenta un listado de una variedad de este tipo de computadoras incorporadas.

  • Artículos electrónicos: teléfonos inteligentes, televisiones digitales, cámaras fotográficas y de video, reproductores de DVD.
  • Dispositivos de confort en el hogar: Termostatos, sistemas de riego, sistemas de seguridad, equipo de línea blanca y luces.
  • Automóviles: Sistema de frenos, módulos de control del motor, controladores de bolsas de aire, velocidad de control.
  • Procesadores de control y robots: Sistemas de monitoreo remoto, controladores de máquinas y dispositivos médicos.
  • Dispositivos de computación y equipo de oficina: Teclados, impresoras, faxes y copiadoras.

CUESTIONARIO "UNIDAD I"

1. En que año surgió la primera generación de las computadoras:
Tuboi Vacio 1951-1858

2. Menciona 3 caracteristicas de la 1ra. Generación:
-Tenian tubos vacíos.
-Eran de Grandes Dimensiones.
-Almacenamiento de información en un tambor magnético inferior.

3. En que año surgió la segunda generación de las computadoras:
Transitor 1959-1964

4. Menciona 2 caracteristicas de las 2da. Generación:
-TRANSITOR: Es el componente principal y la materia prima para su fabricacion son pequeñisimas porciones de material semiconductor.
-MAYOR RAPIDEZ: La simplificacion y reduccion aporta una mayor rapidez de funcionamiento.

5. En que año surgió la 3ra. Generación de las computadoras:
Circuito Integrado 1965-1970

6. Menciona 2 caracteristicas de la 3ra. Generación:
-Menor Consumo.
-Apreciable reduccion de espacio.

7. En que año surgió la 4ta. Generación de la Computadoras:
Microprocesador 1971-1981

8. Menciona 2 caracteristicas de la 4ta. Generación:
-El Microprocesador.
-Sistemas de tratamiento de bases de datos.

9. En que año surgió la 5ta Generación de las computadoras:
Inteligencia Artificial 1982-?

10. Menciona los principales sofware de la 5ta. Generación y define 3 de ellos:
-Software de Base: esta formado por los programas que sirven de enlace entre los programas escritos por un programador, con el fin de realizar un determinado trabajo, y lo elementos hardware de la computadora.
-Software de Aplicacion: es todo el conjunto  de programas escritos para resolver problemas especificos. 
-Los Traductores: La computadora solo puede ejecutar instrucciones en un lenjuage formado por sus secuencias de ceros y unos, al que normalmente se denomina lenguaje maquina.

11. En que año fue fundada intel y por quien:
Fue fundada en el año 1968 por Gordon E. Moore y Robert Noyce.

12. En que año se lanzo el primer microprocesador de intel y cual fue este, así como su función principal:
-El 15  de Noviembre de 1971 lanzaron su primero microprocesador, el intel 4004 para facilitar el diseño de una calculadora.

13. Que microprocesador surgió el 10 de abril de 1989 y cuales eran sus principales caracteristicas:
el intel 80486DX, con tecnologia de 32 bits y como novedades principales, la incorporacion del caché de nivel 1 en el propio chip, lo que acelera enormemente la transferencia de datos de este caché al procesador, asi como la aparicion del co-procesador matematico.

14. Menciona un microprocesador motorola para la primera, segunda, tercera y cuarta generación de las PC's.
-Primera generacion: Motorola 68012
-Segunda Generacion: Motorola 68020
-Tercera generacion: Motorola 68EC040
-Cuarta generación: Motorola Dragonball

15. Que significa las siglas RISC:
En ingles Reduced Instruction Set Computer
En español Computador con conjunto de instruccion reducidas.

16. Menciona las características fundamentales de RISC:
-Instrucciones de tamaño fijo y presentadas en un reducido numero de formatos.
-Solo las instrucciones de carga y almacenamiento acceden a la memoria de datos.

17. Menciona los pasos para el diseño de una maquina RISC:
1. Analizar las aplicaciones para encontrar las operaciones clave.
2. Diseñar un bus de datos que sea optimo para las operaciones clave.
3. Diseñar instrucciones que realicen las operaciones claves utilizando el bus de datos.
4. Agregar nuevas instrucciones solo si no hacen mas lenta a la maquina.
5. Repetir este proceso para otros recursos.

18. Defina procesamiento paralelo:
Es un proceso empleado para acelerar el tiempo de ejecución de un programa dividiendolo en múltiples trozos que se ejecutaran al mismo tiempo, cada uno en sus propios procesadores.

19. Como se clasifican los sistemas en el procesamiento paralelo y define 2:
-Descomposicion de datos: Un ejemplo de aplicacion completamente paralelizable es el calculo del area bajo una curva por integracion númerica, basta con dividir el intervalo de integracion entre todos los procesadores disponibles y que cada uno resuelva su fragmento sin preocuparse de que hacen los demas, al final, los resultados parciales se recolectan y se suman convenientemente.

-Descomposicion funcional: Un modelo Computacional se basa por empezar, en que una aplicación consiste en varias tareas, cada tarea es responsable de una parte de la carga de procesamiento de la aplicacion en general y a su vez, cada tarea realiza una operacion independiente de las otras tareas.

20. Menciona 3 caracteristicas del procesamiento en paralelo que se basa en multiprocesadores:
1. Posee dos o mas procesadores de uso general similares y de capacidades comparables.
2. Todos los procesadores comparten el acceso a una memoria global.
3. El sistema esta controlado por un sistema operativo integrado que permite la interaccion entre los procesadores y sus programas en los niveles de trabajo, tarea, fichero, y datos elementales.

21. Defina Multiusuario:
Un Sistema Operativo multiusuario permite a mas de un solo usuario accesar una computadora,el Sistema Operativo también debe ser capaz de efectuar multitareas.

22. Define Macrocomputadoras:
Las macrocomputadoras se caracterizan por su utilización en el manejo de grandes bases de datos en redes corporativas de gran tamaño.

23. Define Mainframe:
Un Mainframe es un ordenador de grandes dimensiones pensado principalmente para el tratamiento de grandísimos volúmenes de datos.

24. Defina minicomputadoras:
Son computadoras que pueden tener varios procesadores y son utilizadas primordialmente en el sector manufacturero y financiero, tienen aplicación en el manejo de bases de datos de información y se emplean para la administración de redes de computadoras.

25. Define Monosuario:
son aquellos que soportan a un solo usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo

26. Define estación de trabajo:
es un minicomputador de altas prestaciones destinado para trabajo técnico o científico.

27. Define computador personal:
conocida como PC (sigla en inglés de personal computer), es una microcomputadora diseñada en principio para ser usada por una sola persona a la vez.

28. Define computadoras portátiles:

La computadora portátil es un Dispositivo pequeño y ligero que puede llevar a cualquier lado, posee un teclado y una pantalla incorporados.

29. Define computadoras incorporadas:
son aquellas que son construidas para un propósito especifico y que mayormente funcionan como un componente para grandes productos, están presentes en muchos lados como en los hogares, en los autos y en el trabajo.

30. Menciona una característica de monousuario y multiusuario:
Monousuario.- soportan a un solo usuario a la vez, sin importar el número de procesadores que tenga la computadora.

Multiusuario.-Permite acceso a mas de un usuario a una computadora.





No hay comentarios:

Publicar un comentario