domingo, 13 de marzo de 2011

HISTORIA DE LOS COMPUTADORES

Reseña Histórica

La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar. El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.

Historia del los Microprocesadores
El primer microprocedasor el 4004 de intel, era una computadora de 4 bits que contenía 2300 transmisores que podían realizar 60000 instrucciones por segundo. En contraste, los modernos microprocesadores para PC de 64 bits contiene 7.5 millones de transistores y son capaces de realizar mas de millón de operaciones por segundo, luego en el año de 1975 apareció la primera microcomputadora comercial disponible, la Atair 880, fue la primera computadora personal debido a poseía una memoria de 64 KB y una estructura de canal abierta de 100.Esta computadora venia para ser ensamblada por el usuario que debía tener un conocimiento básico de electrónica. AMD hace su entrada produciendo memorias RAM.
En el mismo año dos jóvenes estudiantes llamados Paul Allen y Bill Gates, escribieron el interpretador de lenguajes llamado “BASIC” luego de esto en el verano del mismo año formaron una compañía llamada “MICROSOFT”.

Cronología de la Evolución
En el año de 1976 Steve Wozniak y Steve Jobs crearon la computadora Apple I, menos poderosa que la Altair pero mucho mas económica, estos jóvenes Formaron la compañía “APPLE COMPUTERS”. En año de 1977 esta compañía saco al mercado la Apple II que ya venia ensamblada y el usuario tenia que conectar el televisor como monitor. En este año también se puso a disposición de los usuarios la primera red comercial transmitía datos a través de un cable coaxial a tres millones de bits por segundo.
En el año de 1978 intel puso a la venta el procesador 8086 de 16 bits como resultado de esto los microprocesadores tenían mayor proceso de información. Epson puso a la venta la impresora Epson MX80 de matriz de punto En el año de 1978 intel puso a la venta el microprocesador 8088 de 16 bits y un canal externo de 8 bits. Motorolla introdujo el chips 68000 utilizado por las computadoras de Macintosh. En ese mismo año se formo la compañía llamada 3Com con el propósito de desarrollar productos para la realización de redes basadas en Ethernet. IBM en este año saco la impresora IBM3800 la impresora más rápida hasta esta fecha que podía imprimir 20000 líneas por minuto. En el año de 1980 los laboratorios Bell inventaron el BELLMAC-32 el primer microprocesador de un solo chips con arquitectura interna de 32 bits y un canal de datos de 32 bits.
En 1981 IBM introdujo la PC con CPU intel 8088 a 4.77 MHz, de 16 KB de memoria, un teclado, un monitor, una o dos unidades de disquete de 5.25 pulgadas y un precio de 2500 dólares. Hayes Microcomputer introdujo el primer MODEM llamado Smartmodem 300 y Xerox diseño una caja pequeña con ruedas para PC y el primer mouse. En 1982 Intel puso a la venta el microprocesador 80286 de 16 bits. En el año de 1983 Apple introdujo una computadora llamada Lisa e IBM dio a conocer la IBM PC XT esencialmente una PC con un disco duro y más memoria. La XT era capaz de almacenar programas e información en su unidad de disco duro interno de 10 MB.
En 1984 Apple introdujo la microcomputadora amigable al usuario, IBM empaco la PC AT una computadora de 6 MHz usaba el procesador 80286.En el 1985 Intel coloco en circulación el procesador 80386 (llamado 386), un procesador de 32 Bits con capacidad de dirigir mas de 4 millones de Bytes de memoria, 10 veces mas rápida que 80286. Hewlett-Packard introdujo la impresora LaserJet que ofreció un resolución de 300 dpi.
En 1986 IBM distribuyó la IBM PC convertible la primera computadora Laptop (portátil) basada en Intel con una unidad de disquete de 3.5 pulgadas, en este año hizo su aparición el CD – ROM en una conferencia dada en Seattle (E.E.U.U) por Microsoft. Aplle Computers introdujo la Macintosh Plus con una memoria incrementada y capacidad para conectar un disco duro externo.
En 1987 IBM dio a conocer la nueva línea de computadoras PS/2 que ofrecía un procesador 80386 a una velocidad de 20 MHz. También introdujo el monitor de matriz de gráficos de video (VGA) que ofrecía 256 colores en una resolución de 320 x 200 y 16 colores de 640 x 480. La computadora Macintosh II con características de monitor SVGA.
En 1988 Apple introdujo un dispositivo de almacenamiento llamado CD – ROM que permitía 650 MB. En 1989 Intel colocó en el mercado el 80486 llamado también 486 el primer microprocesador en el mundo con un millón de transistores era compatible con el 80386 y poseía un coprocesador matemático en el mismo chips. En 1990 Microsoft estableció la PC multimedia estableció los requerimientos mínimos de hardware para componentes de sonido y gráfico. En 1991 Apple, IBM y Motorola firmaron un acuerdo cooperativo para:
• Diseñar y producir chips basados en RISC.
• Desarrollar estándares comunes de multimedia.
En 1992 IBM presento su computadora Laptop ThinkPAd. En 1993 Intel mezclando elementos de su diseño de 486 con nuevos procesos, características y tecnologías emitió el largamente esperado procesador Pentium que poseía un canal de información de 64 Bits y mas 3.1 millones de transistores.
En 1994 Apple presenta la línea Power Macintosh, de microprocesadores basadas en el chip PowerPC, esta línea introdujo RISC al mercado de escritorio.
En 1995 distribuyo los primeros clones Macintosh en la historia la serie Power 100 con un procesador 601. Intel puso en circulación el microprocesador Pentium Pro con arquitectura de 64 bits y el empleo de una tecnología revolucionaria como es la de .32 micras lo que permitía la inclusión de cinco millones y medio de transistores en su interior. Motorola coloco en el mercado el chip PowerPC 604, desarrollado en conjunto con Apple e IBM. En 1996 Intel anuncio el procesador Pentium a 200 MHz. AMD vuelve al K5. Una anécdota también poco conocida es que la "K" en las CPUs de AMD viene de Kryptonita que es la única debilidad de Superman (¿Intel?).
El K5 incorporaba 24KB de L1, 8KB para datos y 16KB para instrucciones que era una mejora frente al Pentium. Los K5 fueron introducidos relativamente tarde (Octubre de 1996) y su rendimiento a los mismos Mhz era casi comparable al Pentium en la mayoría de software, pero no en FPU.
En 1997 Intel lanza un nuevo procesador, denominado Pentium II, que viene a ser simplemente un nuevo ingenio que suma las tecnologías del Pentium Pro con el MMX. Como resultado, el Pentium II es el procesador más rápido de cuantos ha comercializado y la compañía AMD presenta el procesador K6.
Intel anuncio la tecnología MMX, que incrementa la capacidad multimedia de un microprocesador, también anuncia Pentium II con velocidades hasta 333 MHz, e introdujo un nuevo diseño de presentación, cartucho contacto de un solo borde ( procesador de galleta) posee mas de 7.5 millones de transistores
En 1999 AMD presenta el procesador Athlon, el chip competidor de Intel en todos los aspectos. El Athlon debutó en formato Slot A corriendo a 500, 550, 600 y 650 Mhz.Intel saca al mercado el Pentium III con tecnología de 0.18micras y arquitectura de 256KB, AMD introdujo el núcleo Thunderbird que finalmente integraba 256KB y tecnología de 0.18micras que posibilitaría incrementos futuros de Mhz., También fue introducido, el Duron, la versión de bajo coste del Athlon que incorporaba todas las características buenas del anterior pero una L2 de 64KB.En este año también introdujo la versión económica del Pentium denominada Celeron con L2 caché y velocidades de 400 MHz, 366 MHz, 333 MHz, 300A MHz, 300 MHz, and 266 MHz. En el 2000 intel el Pentium IV, un diseño nuevo de mucha calidad en cuanto a micro-arquitectura, pero que tardará algo en brillar. El Pentium IV fue diseñado pensando en conseguir altísimas frecuencias de funcionamiento y por eso tiene un pipeline bastante más largo.

GENERACIONES

En la actualidad no se puede pensar en casi ninguna actividad en la cual no intervengan de alguna manera los procesos de cómputo. Las computadoras han invadido la mayoría de las labores del ser humano El mundo está cambiando y usted deberá aprender todas esas, antes complicadas, hoy comunes tecnologías modernas que le permitirán conseguir un empleo mejor retribuido y quizás, en poco tiempo, realizar trabajos desde la comodidad de su hogar ( teletrabajo),  reduciendo el tráfico en las calles y por ende la contaminación de las grandes ciudades. La mayoría de los gobiernos de los países en desarrollo han tomado muy en serio los programas de educación para crear en sus poblaciones una " cultura informática".Definitivamente, las computadoras están cambiando nuestras vidas. Ahora hemos de aprenderla para no quedar inmersos en una nueva forma de analfabetismo. Lo anterior contribuye a la creación de nuevos esquemas sociales que incluyen: novedosas maneras de comercialización aprovechando las facilidades para comunicarse con todo el mundo a través de Internet; la necesidad de crear leyes adecuadas a la realidad cibernética actual y, sobre todo; la concepción de una nueva manera de relacionarse con nuestros semejantes, que contemple una serie de normas éticas que regulen la convivencia pacifica y cordial entre los millones de personas que tienen que utilizar estas avanzadas tecnologías para realizar su trabajo, estudio, descanso y esparcimiento diarios. 

PRIMERA GENERACIÓN (1951 a 1958)












Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos. Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación formando una compañía privada y construyendo UNIVAC I, que el Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950. Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero exitante comienzo la IBM 701 se conviertió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañias privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras.

SEGUNDA GENERACIÓN (1959-1964)

Transistor Compatibilidad Limitada El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.Los programas de computadoras también mejoraron. El COBOL (COmmon Busines Oriented Languaje) desarrollado durante la 1era generación estaba ya disponible comercialmente, este representa uno de os mas grandes avances en cuanto a portabilidad de programas entre diferentes computadoras; es decir, es uno de los primeros programas que se pueden ejecutar en diversos equipos de computo después de un sencillo procesamiento de compilación. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. Grace Murria Hooper (1906-1992), quien en 1952 habia inventado el primer compilador fue una de las principales figuras de CODASYL (Comité on Data SYstems Languages), que se encago de desarrollar el proyecto COBOL El escribir un programa ya no requería entender plenamente el hardware de la computación. Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad. La marina de E.U. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como el grupo BUNCH. Algunas de las computadoras que se construyeron ya con transistores fueron la IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, las IBM 7090 y 7094, NCR 315, las RCA 501 y 601, Control Data Corporation con su conocido modelo CDC16O4, y muchas otras, que constituían un mercado de gran competencia, en rápido crecimiento. En esta generación se construyen las supercomputadoras Remington Rand UNIVAC LARC, e IBM Stretch (1961).

TERCERA GENERACIÓN (1964-1971)

Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora.Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors, acerca de los circuitos integrados, dieron origen a la tercera generación de computadoras. Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos. La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology). Esta máquina causó tal impacto en el mundo de la computación que se fabricaron más de 30000, al grado que IBM llegó a conocerse como sinónimo de computación. También en ese año, Control Data Corporation presenta la supercomputadora CDC 6600, que se consideró como la más poderosa de las computadoras de la época, ya que tenía la capacidad de ejecutar unos 3 000 000 de instrucciones por segundo (mips).Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades respetables. Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación).Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron sumador auge entre 1960 y 70.

CUARTA GENERACIÓN (1971 a 1981)

Microprocesador , Chips de memoria, Microminiaturización Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC) En 1971, intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004. Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producción de silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes. Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o computadoras personales, que utilizando diferentes estructuras o arquitecturas se pelean literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno de los más grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes avances en Internet. Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk Operating System). Las principales tecnologías que dominan este mercado son: IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término Apple Computer, con sus Macintosh y las Power Macintosh, que tienen gran capacidad de generación de gráficos y sonidos gracias a sus poderosos procesadores Motorola serie 68000 y PowerPC, respectivamente. Este último microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced Instruc tion Set Computing), por Apple Computer Inc., Motorola Inc. e IBM Corporation, conjuntamente. Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar las interfaces gráficas de usuario (Graphic User Interface, GUI), que son pantallas con ventanas, iconos (figuras) y menús desplegables que facilitan las tareas de comunicación entre el usuario y la computadora, tales como la selección de comandos del sistema operativo para realizar operaciones de copiado o formato con una simple pulsación de cualquier botón del ratón (mouse) sobre uno de los iconos o menús.

QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989)

Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha. Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras. Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación ( software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras. Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992. El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen. También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador. Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial. El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital Video Disk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration). Sin embargo, independientemente de estos "milagros" de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial. El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras. El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones.  Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones.

SEXTA GENERACIÓN 1990 HASTA LA FECHA














Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera. 



EVIDENCIAS II

LA UNIDAD CENTRAL DE PROCESO (C.P.U)


Funciones que realiza

La Unidad central de proceso o CPU, se puede definir como un circuito microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del control y el proceso de datos en los ordenadores. Habitualmente, la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que contiene millones de componentes electrónicos. El microprocesador de la CPU está formado por una unidad aritmético lógica que realiza cálculos y comparaciones, y toma decisiones lógicas (determina si una afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una serie de registros donde se almacena información temporalmente, y por una unidad de control que interpreta y ejecuta las instrucciones. Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco duro), los dispositivos de entrada (por ejemplo, un teclado o un ratón) y los dispositivos de salida (por ejemplo, un monitor o una impresora).

Tipos de Procesadores y modelos fabricados a partir del año 2005

Básicamente nos encontramos con dos tipos de diseño de los microprocesadores: 

RISC(Reduced-Instruction-SetComputing).                                          CISC (complex-instruction-set computing).

Los microprocesadores RISC se basan en la idea de que la mayoría de las instrucciones para realizar procesos en el computador son relativamente simples por lo que se minimiza el número de instrucciones y su complejidad a la hora de diseñar la CPU. Algunos ejemplos de arquitectura RISC son el SPARC de Sun Microsystem's, el microprocesador Alpha diseñado por la antigua Digital, hoy absorbida por Compaq y los Motorola 88000 y PowerPC. Estos procesadores se suelen emplear en aplicaciones industriales y profesionales por su gran rendimiento y fiabilidad.

Los microprocesadores CISC, al contrario, tienen una gran cantidad de instrucciones y por tanto son muy rápidos procesando código complejo. Las CPU´s CISC más extendidas son las de la familia 80x86 de Intel cuyo último micro es el Pentium II. Últimamente han aparecido otras compañías como Cirix y AMD que fabrican procesadores con el juego de instrucciones 80x86 y a un precio sensiblemente inferior al de los microprocesadores de Intel. Además, tanto Intel con MMX como AMD con su especificación 3D-Now! están apostando por extender el conjunto de instrucciones de la CPU para que trabaje más eficientemente con tratamiento de imágenes y aplicaciones en 3 dimensiones.


Pentium D

En la primavera de 2.005 Intel presenta los nuevos procesadores Pentium D, que sustituyen a los Prescott , y es la primera serie de procesadores con dos núcleos reales (recordemos que los Hyper Treading en realidad tenían un solo núcleo).

Las primeras versiones constan de dos núcleos Smithfield, basados en los anteriores prescott. Incorporan 1MB de caché L2 por núcleo y soporte nativo de 64 bits EM64T.

Aunque en los Pentium D se abandona la denominación de los procesadores en base a su velocidad de reloj, se sigue facilitando esta, aunque hay que aclarar que en estos Pentium D la velocidad que se facilita es la velocidad total de los dos núcleos, no la velocidad de cada núcleo, como se empezó a hacer en los Core 2 Duo.

Salen al mercado cinco versiones con este núcleo Smithfield:
- Pentium D 805, a 2.6 GHz.
- Pentium D 820, a 2.8 GHz.
- Pentium D 830, a 3.0 GHz.
- Pentium D 840, a 3.2 GHz.
- Pentium D Extreme Edition, a 3.2 GHz, con Hyper Threading.


Toledo:

Fabricados en 90nm y para socket 939, 2x128KB Caché L1, MMX, Extended 3DNow!, SSE, SSE2, SSE3, AMD64, Cool'n'Quiet, Bit NX, 04/2.005

Athlon 64 X2 3800+ - 2x2000MHz - 2000MHz FSB - 2x512KM L2 - 1.35/1.40v - 10x - TDP 89w

Athlon 64 X2 4200+ - 2x2200MHz - 2000MHz FSB - 2x512KM L2 - 1.35/1.40v - 11x - TDP 89w

Athlon 64 X2 4400+ - 2x2200MHz - 2000MHz FSB - 2x1024KM L2 - 1.35/1.40v - 11x - TDP 89w

Athlon 64 X2 4600+ - 2x2400MHz - 2000MHz FSB - 2x512KM L2 - 1.35/1.40v - 12x - TDP 89w

Athlon 64 X2 4800+ - 2x2400MHz - 2000MHz FSB - 2x1024KM L2 - 1.35/1.40v - 12x - TDP 110w


Manchester:

Fabricados en 90nm y para socket 939, 2x128KB Caché L1, MMX, Extended 3DNow!, SSE, SSE2, SSE3, AMD64, Cool'n'Quiet, Bit NX, 08/2.005

Athlon 64 X2 3800+ - 2x2000MHz - 2000MHz FSB - 2x512KM L2 - 1.35/1.40v 10x - TDP 89wAthlon 64 X2 4200+ - 2x2200MHz - 2000MHz FSB - 2x512KM L2 - 1.35/1.40v 11x - TDP 89w

Athlon 64 X2 4600+ - 2x2400MHz - 2000MHz FSB - 2x512KM L2 - 1.35/1.40v 12x - TDP 110w

Top 10 de procesadores  modelos para Notebook, Netbook

AMD 4x4 – Uno de los sistemas más fascinantes que salió este ano es el procesador AMD Athlon, apodado el 4x4. La plataforma del AMD 4x4 consta de un motherboard con dos sockets, en donde cada socket soporta una CPU dual-core, dándole al sistema cuatro procesadores cores. Un HyperTransport conecta los dos sockets a los canales del sistema.

AMD Turion 64 X2 – El Turion 64 X2 es un procesador dual-core de 64-bit diseñado para laptops. Con tecnología Hypertransport de alta velocidad y consumo optimizado de energía, el Turion 64 X2 va desde una CPU de nivel inicial que corre a 1.6GHz (a 25 watts) hasta el modelo de 2.2GHz con 2MB de cache L2 (a 35 watts). El Turion 64 X2 usa tecnología de 90nm y tiene un motherboard Socket S1.

AMD Athlon 64 X2 – Es el primer procesador desktop dual-core de AMD. El Athlon 64 X2 está disponible en velocidades que van desde 2GHz con 64KB de cache L1 hasta 1MB de cache L2 por core. El modelo 2GHz consume 35 watts mientras que el de alta calidad requiere 89 watts. El Athlon 64 X2 usa tecnología 90nm. Una versión anterior usaba un motherboard Socket 939. La nueva versión usa el nuevo Socket AM2.

AMD Sempron – El procesador de segunda línea de AMD, los viejos Sempron eran de 32-bit, mientras que los más nuevos son todos compatibles con x64. La principal diferencia entre Sempron y Athlon 64 son los 256KB de cache L2 del primero.

AMD Opteron – Opteron fue el primer procesador en traer al mercado el set de instrucciones x64, haciendo posible que los sistemas corran ambas aplicaciones nativas de 32-bit y 64-bit a gran velocidad. AMD lanzo el primer Opteron dualcore en mayo de 2005. El Opteron actual usa tecnología 90nm y tiene velocidades que van desde 1.8GHz (a 55 watts) hasta 2.6GHz (a 92.6 watts).



Intel Core 2 Quad – Con cuatro núcleos, L2 cache de hasta 8MB compartida y un bus frontal de hasta 1066MHz (en el procesador numero Q6600). Posee 65nm de tecnología de proceso y una velocidad de reloj de hasta 2.4GHz. Lo último de Intel es el nuevo Intel Core2 Duo, es la implementación con 2 núcleos anteriores al Quad. Ha tenido gran éxito en implementaciones en desktop y laptops. Las CPU corren desde 1.20 GHz (a 9 watts) a 2.33 GHz (a 31 watts).

Intel Core Solo – El procesador Intel Core Solo es un CPU single-core de 32-bit usado ampliamente en laptops. Usa tecnología de proceso de 65nm y su velocidad va desde 1.06GHz (a 5.5 watts) hasta 1.83GHz (a 27 watts). El procesador Intel Core Solo permite que las laptops con una batería de mayor duración mejoren su movilidad.

Intel Pentium D – Con una tecnología de proceso que oscila entre los 65nm y los 90nm, provee hasta 4MB de cache (2x2M), con una velocidad de reloj que llega hasta 3.4GHz. Permite el uso de la memoria física y virtual con soporte para hardware y software de 64 bit. Bus frontal de hasta 800 Mhz.

Intel Xeon (EM64T) – El primer Xeon dual-core con Extended Memory 64 Technology (EM64T) desarrollado en Octubre de 2005. Los Xeon actuales usan tecnología de hasta 65nm y la velocidad del reloj llega hasta los 3.73GHz en el número de procesador 8050. Por su parte el número de procesador 7140N posee una cache L3 de 16 MB.

Intel Dual-Core Itanium 2 – A diferencia de los otros procesadores aquí nombrados, el Itanium 2 no es compatible con las aplicaciones de hoy en día de 32-bit y solo es encontrado en los sistemas de alta calidad. Los modelos actuales llegan a una velocidad de 1.66GHz y tienen hasta 9MB de cache L3. 130 watts es lo que más puede llegar a consumir de energía.


Notas: Si alguna vez has comprado una Notebook, sabes que los factores a considerar van más allá del rendimiento y las conexiones.

Procesador: Los procesadores Intel Pentium M (Centrino) han ayudado que las Notebooks ganen terreno en el departamento de consumo de energía. Notebooks que usan el Pentium M tienen un desempeño considerablemente más rápido que los que usan Pentium 4 M.

La batería de los procesadores Pentium M son más durables. Puedes optar por un Pentium 4 M como uno de 3.0 GHz, pero la mayoría de vendedores están incorporando Pentium M en todas las clases de Notebooks.

Algunas Notebooks usan AMD Athlon Turion 64 o Intel ULV (ultra-low voltage) Pentium M CPU, Los cuales permiten mejoramiento en cuanto a duración de batería y rendimiento. Algunas Notebooks usan las versiones para desktop (no móviles) Intel Pentium 4 o Athlon 64, los cuales pueden dar ventajas en rendimiento pero tienden a generar mucho calor.

LA MEMORIA

Funciones que realiza
La memoria de un ordenador se puede definir como los circuitos que permiten almacenar y recuperar la información. En un sentido más amplio, puede referirse también a sistemas externos de almacenamiento, como las unidades de disco o de cinta.
Hoy en día se requiere cada vez más memoria para poder utilizar complejos programas y para gestionar complejas redes de computadores.


Elementos que la componen
Una memoria vista desde el exterior, tiene la estructura mostrada en la figura. Para efectuar una lectura se deposita en el bus de direcciones la dirección de la palabra de memoria que se desea leer y entonces se activa la señal de lectura (R); después de cierto tiempo (tiempo de latencia de la memoria), en el bus de datos aparecerá el contenido de la dirección buscada. Por otra parte, para realizar una escritura se deposita en el bus de datos la información que se desea escribir y en el bus de direcciones la dirección donde deseamos escribirla, entonces se activa la señal de escritura (W), pasado el tiempo de latencia, la memoria escribirá la información en la dirección deseada. Internamente la memoria tiene un registro de dirección (MAR, memory address register), un registro buffer de memoria o registro de datos (MB, memory buffer, o MDR, memory data register) y, un decodificador como se ve en la figura. Esta forma de estructurar la memoria se llama organización lineal o de una dimensión. En la figura cada línea de palabra activa todas las células de memoria que corresponden a la misma palabra.


Por lo anterior, en una memoria ROM programable por el usuario con organización lineal, las uniones de los diodos correspondientes a lugares donde deba haber un "0" deben destruirse. También se pueden sustituir los diodos por transistores y entonces la célula de memoria tiene el esquema de la figura, en este caso la unión que debe destruirse para grabar un "0" es la del emisor.
En el caso de una memoria RAM estática con organización lineal cada célula de memoria toma la forma mostrada en la figura. En este esquema las primeras puertas AND sólo son necesarias en él una de las células de cada palabra. Se debe comentar la necesidad de la puerta de tres estados a la salida del biestable: esta puerta se pone para evitar que se unan las salidas de los circuitos de las células de diferentes palabras a través del hilo de bit. Si esa puerta no se pusiera (o hubiera otro tipo de puerta en su lugar, como una puerta AND) la información correspondiente a la palabra activa entraría por los circuitos de salida de las demás células, lo que los dañaría.
Organizar 1a memoria de esta forma, tiene el inconveniente de que la complejidad del decodificador crece exponencialmente con el número de entradas y, en una memoria de mucha capacidad, la complejidad del decodificador la hace inviable. Esto hace necesaria una alternativa que simplifique los decodificadores. Esta alternativa la constituye la organización en dos dimensiones en que los bits del registro de dirección se dividen en dos partes y cada una de ellas va a un decodificador diferente. En este caso, las líneas procedentes de ambos decodificadores (X e Y) se cruzan formando un sistema de coordenadas en que cada punto de cruce corresponde a una palabra de memoria. Dado que en cada decodificador sólo se activa una línea, sólo se activará la palabra correspondiente al punto de cruce de las dos líneas activadas. Fácilmente se puede comprender que los decodificadores se simplifican mucho ya que cada uno tiene la mitad de entradas que en el caso anterior. Hay que decir, sin embargo, que la célula de memoria se complica un poco porque hay que añadir una puerta AND en cada palabra para determinar si coinciden las líneas X e Y.

La organización de la memoria en dos dimensiones también es útil para las memorias dinámicas ya que el refresco de estas memorias se realiza por bloques y éstos pueden coincidir con una de las dimensiones (la que corresponda a los bits de dirección de mayor peso).
En la práctica, las memorias dinámicas son más lentas que las estáticas y además son de lectura destructiva, pero resultan más baratas, aunque necesiten circuitos de refresco, si la memoria no es de mucha capacidad.

Jerarquía de memoria
En un ordenador hay una jerarquía de memorias atendiendo al tiempo de acceso y a la capacidad que normalmente son factores contrapuestos por razones económicas y en muchos casos también físicas. Comenzando desde el procesador al exterior, es decir en orden creciente de tiempo de acceso y capacidad, se puede establecer la siguiente jerarquía:
·         Registros de procesador: Estos registros interaccionan continuamente con la CPU (porque forman parte de ella). Los registros tienen un tiempo de acceso muy pequeño y una capacidad mínima, normalmente igual a la palabra del procesador (1 a 8 bytes).
·         Registros intermedios: Constituyen un paso intermedio entre el procesador y la memoria, tienen un tiempo de acceso muy breve y muy poca capacidad.
·         Memorias caché: Son memorias de pequeña capacidad. Normalmente una pequeña fracción de la memoria principal. y pequeño tiempo de acceso. Este nivel de memoria se coloca entre la CPU y la memoria central. Hace algunos años este nivel era exclusivo de los ordenadores grandes pero actualmente todos los ordenadores lo incorporan. Dentro de la memoria caché puede haber, a su vez, dos niveles denominados caché on chip, memoria caché dentro del circuito integrado, y caché on board, memoria caché en la placa de circuito impreso pero fuera del circuito integrado, evidentemente, por razones físicas, la primera es mucho más rápida que la segunda. Existe también una técnica, denominada Arquitectura Harvard, en cierto modo contrapuesta a la idea de Von Newmann, que utiliza memorias caché separadas para código y datos. Esto tiene algunas ventajas como se verá en este capítulo.
·         Memoria central o principal: En este nivel residen los programas y los datos. La CPU lee y escribe datos en él aunque con menos frecuencia que en los niveles anteriores. Tiene un tiempo de acceso relativamente rápido y gran capacidad.
·         Extensiones de memoria central: Son memorias de la misma naturaleza que la memoria central que amplían su capacidad de forma modular. El tiempo de similar, a lo sumo un poco mayor, al de la memoria central y su capacidad puede ser algunas veces mayor.
·         Memorias de masas o auxiliares: Son memorias que residen en dispositivos externos al ordenador, en ellas se archivan programas y datos para su uso posterior. También se usan estas memorias para apoyo de la memoria central en caso de que ésta sea insuficiente (memoria virtual). Estas memorias suelen tener gran capacidad pero pueden llegar a tener un tiempo de acceso muy lento. Dentro de ellas también se pueden establecer varios niveles de jerarquía.

Clasificación de memorias

Clasificación de memorias semiconductoras de acceso aleatorio
Las memorias se clasifican, por la tecnología empleada y, además según la forma en que se puede modificar su contenido. A este respecto, las memorias se clasifican en dos grandes grupos:
1.    Memorias RAM: Son memorias en las que se puede leer y escribir, si bien su nombre (Random access memory) no representa correctamente este hecho.
Por su tecnología pueden ser de ferritas (ya en desuso) o electrónicas. Dentro de éstas últimas hay memorias estáticas (SRAM, static RAM), cuya célula de memoria está basada en un biestable, y memorias dinámicas (DRAM, dinamic RAM, en las que la célula de memoria es un pequeño condensador cuya carga representa la información almacenada. Las memorias dinámicas necesitan circuitos adicionales de refresco ya que los condensadores tienen muy poca capacidad y, a través de las fugas, la información puede perderse, por otra parte, son de lectura destructiva.

2.    Memorias ROM (Read 0nly Memory): Son memorias en las que sólo se puede leer. Pueden ser:
a.    ROM programadas por máscara, cuya información se graba en fábrica y no se puede modificar.
b.    PROM, o ROM programable una sola vez.
c.    EPROM (erasable PROM) o RPROM (reprogramable ROM), cuyo contenido puede borrarse mediante rayos ultravioletas para regrabarlas.
d.    EAROM (electrically alterable ROM) o EEROM (electrically erasable ROM), que son memorias que está en la frontera entre las RAM y las ROM ya que su contenido puede regrabarse por medios eléctricos, estas se diferencian de las RAM en que no son volátiles. En ocasiones a este tipo de memorias también se las denomina NYRAM (no volátil RAM).
e.    Memoria FLASH, denominada así por la velocidad con la que puede reprogramarse, utilizan tecnología de borrado eléctrico al igual que las EEPROM. Las memorias flash pueden borrar-e enteras en unos cuantos segundos, mucho más rápido que las EPROM.
Básicamente las memorias ROM se basan en una matriz de diodos cuya unión se puede destruir aplicando sobre ella una sobretensión (usualmente comprendida entre -12.5 y -40 v.). De fábrica la memoria sale con 1's en todas sus posiciones, para grabarla se rompen las uniones en que se quieran poner 0's. Esta forma de realizar la grabación se denomina técnica de los fusibles.

El Disco Duro (Internos y Externos – Portátiles-Desktop)

Discos duros

Los discos duros miden su capacidad de almacenamiento en GB. Con el paso de los años, estas unidades han incrementado considerablemente el espacio para guardar datos (originalmente se medían en MB). Pero ésta no es la única diferencia entre discos antiguos y actuales.


Estructura física


Dentro de un disco duro hay uno o varios platos (entre 2 y 4 normalmente, aunque hay hasta de 6 ó 7 platos), que son discos (de aluminio o cristal) concéntricos y que giran todos a la vez. El cabezal (dispositivo de lectura y escritura) es un conjunto de brazos alineados verticalmente que se mueven hacia dentro o fuera según convenga, todos a la vez. En la punta de dichos brazos están las cabezas de lectura/escritura, que gracias al movimiento del cabezal pueden leer tanto zonas interiores como exteriores del disco.
Cada plato posee dos caras, y es necesaria una cabeza de lectura/escritura para cada cara. Si se observa el esquema Cilindro-Cabeza-Sector de más abajo, a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos, aunque por cuestiones comerciales, no siempre se usan todas las caras de los discos y existen discos duros con un número impar de cabezas, o con cabezas deshabilitadas. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros), debido a una finísima película de aire que se forma entre éstas y los platos cuando éstos giran (algunos discos incluyen un sistema que impide que los cabezales pasen por encima de los platos hasta que alcancen una velocidad de giro que garantice la formación de esta película). Si alguna de las cabezas llega a tocar una superficie de un plato, causaría muchos daños en él, rayándolo gravemente, debido a lo rápido que giran los platos (uno de 7.200 revoluciones por minuto se mueve a 129 km/h en el borde de un disco de 3,5 pulgadas).

Direccionamiento

Hay varios conceptos para referirse a zonas del disco:
  • Plato: cada uno de los discos que hay dentro del disco duro.
  • Cara: cada uno de los dos lados de un plato.
  • Cabeza: número de cabezales.
  • Pista: una circunferencia dentro de una cara; la pista 0 está en el borde exterior.
  • Cilindro: conjunto de varias pistas; son todas las circunferencias que están alineadas verticalmente (una de cada cara).
  • Sector : cada una de las divisiones de una pista. El tamaño del sector no es fijo, siendo el estándar actual 512 bytes, aunque próximamente serán 4 KiB. Antiguamente el número de sectores por pista era fijo, lo cual desaprovechaba el espacio significativamente, ya que en las pistas exteriores pueden almacenarse más sectores que en las interiores. Así, apareció la tecnología ZBR (grabación de bits por zonas) que aumenta el número de sectores en las pistas exteriores, y utiliza más eficientemente el disco duro.
El primer sistema de direccionamiento que se usó fue el CHS (cilindro-cabeza-sector), ya que con estos tres valores se puede situar un dato cualquiera del disco. Más adelante se creó otro sistema más sencillo: LBA (direccionamiento lógico de bloques), que consiste en dividir el disco entero en sectores y asignar a cada uno un único número. Éste es el que actualmente se usa.

Tipos de conexión

Si hablamos de disco duro podemos citar los distintos tipos de conexión que poseen los mismos con la placa base, es decir pueden ser SATA, IDE, SCSI o SAS:
IDE: Integrated Device Electronics ("Dispositivo con electrónica integrada") o ATA (Advanced Technology Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) Hasta 
  • aproximadamente el 2004, el estándar principal por su versatilidad y asequibilidad. Son planos, anchos y alargados.
  • SCSI: Son interfaces preparadas para discos duros de gran capacidad de almacenamiento y velocidad de rotación. Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 milisegundos y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en los discos SCSI Estándares, los 10 Mbps en los discos SCSI Rápidos y los 20 Mbps en los discos SCSI Anchos-Rápidos (SCSI-2). Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador, lo que posibilita una mayor velocidad de transferencia.
  • SATA (Serial ATA): El más novedoso de los estándares de conexión, utiliza un bus serie para la transmisión de datos. Notablemente más rápido y eficiente que IDE. Existen tres versiones, SATA 1 con velocidad de transferencia de hasta 150 MB/s (hoy día descatalogado), SATA 2 de hasta 300 MB/s, el más extendido en la actualidad; y por último SATA 3 de hasta 600 MB/s el cual se está empezando a hacer hueco en el mercado. Físicamente es mucho más pequeño y cómodo que los IDE, además de permitir conexión en caliente.
  • SAS (Serial Attached SCSI): Interfaz de transferencia de datos en serie, sucesor del SCSI paralelo, aunque sigue utilizando comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la conexión y desconexión en caliente. Una de las principales características es que aumenta la velocidad de transferencia al aumentar el número de dispositivos conectados, es decir, puede gestionar una tasa de transferencia constante para cada dispositivo conectado, además de terminar con la limitación de 16 dispositivos existente en SCSI, es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI. Además, el conector es el mismo que en la interfaz SATA y permite utilizar estos discos duros, para aplicaciones con menos necesidad de velocidad, ahorrando costes. Por lo tanto, las unidades SATA pueden ser utilizadas por controladoras SAS pero no a la inversa, una controladora SATA no reconoce discos SAS.

Características de un disco duro

Las características que se deben tener en cuenta en un disco duro son:
  • Tiempo medio de acceso: Tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista), Tiempo de lectura/escritura y la Latencia media (situarse en el sector).
  • Tiempo medio de búsqueda: Tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco.
  • Tiempo de lectura/escritura: Tiempo medio que tarda el disco en leer o escribir nueva información: Depende de la cantidad de información que se quiere leer o escribir, el tamaño de bloque, el número de cabezales, el tiempo por vuelta y la cantidad de sectores por pista.
  • Latencia media: Tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo empleado en una rotación completa del disco.
  • Velocidad de rotación: Revoluciones por minuto de los platos. A mayor velocidad de rotación, menor latencia media.
  • Tasa de transferencia: Velocidad a la que puede transferir la información a la computadora una vez la aguja está situada en la pista y sector correctos. Puede ser velocidad sostenida o de pico.

Otras características son:




Tipos de discos duros internos

Hay 4 tipos básicos de discos duros internos, se encuentran listados de modo que la primer liga es el más moderno y la última liga el más antiguo.

El disco duro SAS es un dispositivo electromecánico que se encarga de almacenar y leer grandes volúmenes de información a altas velocidades por medio de pequeños electroimanes  (también llamadas cabezas de lectura y escritura), sobre un disco recubierto de limadura magnética. Los discos vienen montados sobre un eje que gira a altas velocidades. El interior del dispositivo está totalmente libre de aire y  de polvo, para evitar choques entre partículas y por ende, pérdida de datos, el disco permanece girando todo el tiempo que se encuentra encendido. Será el sucesor del estándar de discos duros con interfaz paralela SCSI.
El disco duro SAS compite directamente contra los discos duros SATA II, y busca reemplazar el estándar de discos duros SCSI.
Un disco duro SATA 2 es un dispositivo electromecánico que se encarga de almacenar y leer grandes volúmenes de información a muy altas velocidades por medio de pequeños electroimanes  (también llamadas cabezas de lectura y escritura), sobre un disco cerámico recubierto de limadura magnética. Los discos cerámicos vienen montados sobre un eje que gira a altas velocidades. El interior del dispositivo está totalmente libre de aire y  de polvo, para evitar choques entre partículas y por ende, pérdida de datos, el disco permanece girando todo el tiempo que se encuentra encendido.
Un disco duro SATA, es un dispositivo electromecánico que se encarga de almacenar y leer grandes volúmenes de información con altas velocidades por medio de pequeños electroimanes  (también llamadas cabezas de lectura y escritura), sobre un disco cerámico recubierto de limadura magnética. Los discos cerámicos vienen montados sobre un eje que gira a altas velocidades. El interior del dispositivo está totalmente libre de aire y  de polvo, para evitar choques entre partículas y por ende, pérdida de datos, el disco permanece girando todo el tiempo que se encuentra encendido.
Los discos duros SATA buscaban reemplazar del mercado a los discos duros IDE pero no se logró la meta.
Los discos duros SATA han sido descontinuados del mercado y son reemplazados por los discos duros SATA 2.
El disco duro SCSI es un dispositivo electromecánico que se encarga de almacenar y leer grandes volúmenes de información a altas velocidades por medio de pequeños electroimanes  (también llamadas cabezas de lectura y escritura), sobre un disco cerámico recubierto de limadura magnética. Los discos cerámicos vienen montados sobre un eje que gira a altas velocidades. El interior del dispositivo está totalmente libre de aire y  de polvo, para evitar choques entre partículas y por ende, pérdida de datos, el disco permanece girando todo el tiempo que se encuentra encendido.
El disco duro SCSI durante mucho tiempo no tuvo competencia importante en el mercado, pero actualmente compite directamente contra los discos duros SATA II, aunque por su alta velocidad de giro, aún no logra ser reemplazado.
El disco duro SCSI será reemplazado por el estándar de disco duro SAS.
El disco duro IDE, es un dispositivo electromecánico que se encarga de almacenar y leer grandes volúmenes de información a altas velocidades por medio de pequeños electroimanes (también llamadas cabezas de lectura y escritura), sobre un disco cerámico recubierto de limadura magnética. Los discos cerámicos vienen montados sobre un eje que gira a altas velocidades. El interior del dispositivo está totalmente libre de aire y  de polvo, para evitar choques entre partículas y por ende, pérdida de datos, el disco permanece girando todo el tiempo que se encuentra encendido. Fue desarrollado y presentado por la empresa IBM® en el año de 1956.
Los discos duros IDE compiten actualmente en el mercado contra los discos duros SATA II.
Estas siglas se refieren al mismo estándar:
·         IDE significa "Integrated Device Electronic", su traducción es componente electrónico integrado.
·         ATA significa "Advanced Technology Attachment" ó tecnología avanzada de contacto
·         PATA: significa "Parallel  Advanced Technology Attachment" ó tecnología paralela avanzada de contacto. Es una nueva sigla acuñada a partir de la inserción en el mercado de los discos SATA, ello para diferenciarlos entre sí.
Esta especificación permite transferencia de datos de modo paralelo, con un cable de datos de 40 conectores, genera una transferencia de datos (Rate) de 66, 100 y hasta 133 Megabytes/segundo (Mb/s). Por sus características de circuito paralelo, permite conectar hasta 2 dispositivos por conector. Este tipo de discos duros no se pueden conectar y desconectar con el equipo funcionando, por lo que es necesario apagar el equipo antes de instalar ó desinstalar.
El disco duro IDE puede tener 2 medidas, estas se refieren al diámetro que tiene el disco cerámico físicamente, por lo tanto el tamaño de la cubierta también variará.
·         3.5 pulgadas (3.5"), para discos duros internos para computadora de escritorio (Desktop).
·         2.5" para discos duros internos para computadoras portátiles Laptop ó Notebook.

La unidad de CD-DVD

Unidad de CD-ROM o "lectora"


La unidad de CD-ROM permite utilizar discos ópticos de una mayor capacidad que los disquetes de 3,5 pulgadas: hasta 700 MB. Ésta es su principal ventaja, pues los CD-ROM se han convertido en el estándar para distribuir sistemas operativos, aplicaciones, etc.
El uso de estas unidades está muy extendido, ya que también permiten leer los discos compactos de audio.
Para introducir un disco, en la mayoría de las unidades hay que pulsar un botón para que salga una especie de bandeja donde se deposita el CD-ROM. Pulsando nuevamente el botón, la bandeja se introduce.
En estas unidades, además, existe una toma para auriculares, y también pueden estar presentes los controles de navegación y de volumen típicos de los equipos de audio para saltar de una pista a otra, por ejemplo.
Una característica básica de las unidades de CD-ROM es la velocidad de lectura que normalmente se expresa como un número seguido de una «x» (40x, 52x,..). Este número indica la velocidad de lectura en múltiplos de 128 kB/s. Así, una unidad de 52x lee información de 128 kB/s × 52 = 6,656 kB/s, es decir, a 6,5 MB/s.

 

Unidad de CD-RW (regrabadora) o "grabadora"

Las unidades de CD-ROM son de sólo lectura. Es decir, pueden leer la información en un disco, pero no pueden escribir datos en él.
Una re-grabadora puede grabar y regrabar discos compactos. Las características básicas de estas unidades son la velocidad de lectura, de grabación y de regrabación. En los discos regrabables es normalmente menor que en los discos que sólo pueden ser grabados una vez. Las re-grabadoras que trabajan a 8X, 16X, 20X, 24X, etc., permiten grabar los 650, 700 o más megabytes (hasta 900 MB) de un disco compacto en unos pocos minutos. Es habitual observar tres datos de velocidad, según la expresión ax bx cx (a: velocidad de lectura; b: velocidad de grabación; c: velocidad de regrabación).

Unidad de DVD-ROM o "lectora de DVD"

Las unidades de DVD-ROM son aparentemente iguales que las de CD-ROM, pueden leer tanto discos DVD-ROM como CD-ROM. Se diferencian de las unidades lectoras de CD-ROM en que el soporte empleado tiene hasta 17 GB de capacidad, y en la velocidad de lectura de los datos. La velocidad se expresa con otro número de la «x»: 12x, 16x... Pero ahora la x hace referencia a 1,32 MB/s. Así: 16x = 21,12 MB/s.
Las conexiones de una unidad de DVD-ROM son similares a las de la unidad de CD-ROM: placa base, fuente de alimentación y tarjeta de sonido. La diferencia más destacable es que las unidades lectoras de discos DVD-ROM también pueden disponer de una salida de audio digital. Gracias a esta conexión es posible leer películas en formato DVD y escuchar seis canales de audio separados si disponemos de una buena tarjeta de sonido y un juego de altavoces apropiado (subwoofer más cinco satélites).


SOCKET
Un socket (enchufe), es un método para la comunicación entre un programa del cliente y un programa del servidor en una red. Un socket se define como el punto final en una conexión. Los sockets se crean y se utilizan con un sistema de peticiones o de llamadas de función a veces llamados interfaz de programación de aplicación de sockets (API, application programming interface).
Un socket es también una dirección de Internet, combinando una dirección IP (la dirección numérica única de cuatro partes que identifica a un ordenador particular en Internet) y un número de puerto (el número que identifica una aplicación de Internet particular, como FTP, Gopher, o WWW).

CHIPSET
Circuito integrado auxiliar o chipset es el conjunto de circuitos integrados diseñados con base a la arquitectura de un procesador (en algunos casos diseñados como parte integral de esa arquitectura), permitiendo que ese tipo de procesadores funcionen en una placa base. Sirven de puente de comunicación con el resto de componentes de la placa, como son la memoria, las tarjetas de expansión, los puertos USB, ratón, teclado, etc.
Las placas base modernas suelen incluir dos integrados, denominados Norte y Sur, y suelen ser los circuitos integrados más grandes después del microprocesador.
El chipset determina muchas de las características de una placa base y por lo general la referencia de la misma está relacionada con la del chipset.
A diferencia del microcontrolador, el procesador no tiene mayor funcionalidad sin el soporte de un chipset: la importancia del mismo ha sido relegada a un segundo plano por las estrategias de marketing.
Funcionamiento
El Chipset es el que hace posible que la placa base funcione como eje del sistema, dando soporte a varios componentes e interconectándolos de forma que se comuniquen entre ellos haciendo uso de diversos buses. Es uno de los pocos elementos que tiene conexión directa con el procesador, gestiona la mayor parte de la información que entra y sale por el bus principal del procesador, del sistema de vídeo y muchas veces de la memoria RAM.
En el caso de los computadores PC, es un esquema de arquitectura abierta que establece modularidad: el Chipset debe tener interfaces estándar para los demás dispositivos. Esto permite escoger entre varios dispositivos estándar, por ejemplo en el caso de los buses de expansión, algunas tarjetas madre pueden tener bus PCI-Express y soportar diversos tipos de tarjetas con de distintos anchos de bus (1x, 8x, 16x).
En el caso de equipos portátiles o de marca, el chipset puede ser diseñado a la medida y aunque no soporte gran variedad de tecnologías, presentará alguna interfaz de dispositivo.
La terminología de los integrados ha cambiado desde que se creó el concepto del chipset a principio de los años 90, pero todavía existe equivalencia haciendo algunas aclaraciones:
En la actualidad los principales fabricantes de chipsets son AMD, ATI Technologies (comprada en 2006 por AMD), Intel, NVIDIA, Silicon Integrated Systems y VIA Technologies





Funciones que realiza el bus del sistema
El bus se puede definir como un conjunto de líneas conductoras de hardware utilizadas para la transmisión de datos entre los componentes de un sistema informático. Un bus es en esencia una ruta compartida que conecta diferentes partes del sistema, como el microprocesador, la controladora de unidad de disco, la memoria y los puertos de entrada/salida (E/S), para permitir la transmisión de información.
En el bus se encuentran dos pistas separadas, el bus de datos y el bus de direcciones. La CPU escribe la dirección de la posición deseada de la memoria en el bus de direcciones accediendo a la memoria, teniendo cada una de las líneas carácter binario. Es decir solo pueden representar 0 o 1 y de esta manera forman conjuntamente el número de la posición dentro de la memoria (es decir: la dirección). Cuantas más líneas haya disponibles, mayor es la dirección máxima y mayor es la memoria a la cual puede dirigirse de esta forma. En el bus de direcciones original había ya 20 direcciones, ya que con 20 bits se puede dirigir a una memoria de 1 Mb y esto era exactamente lo que correspondía a la CPU.
Esto que en le teoría parece tan fácil es bastante más complicado en la práctica, ya que aparte de los bus de datos y de direcciones existen también casi dos docenas más de líneas de señal en la comunicación entre la CPU y la memoria, a las cuales también se acude. Todas las tarjetas del bus escuchan, y se tendrá que encontrar en primer lugar una tarjeta que mediante el envío de una señal adecuada indique a la CPU que es responsable de la dirección que se ha introducido. Las demás tarjetas se despreocupan del resto de la comunicación y quedan a la espera del próximo ciclo de transporte de datos que quizás les incumba a ellas.
Este mismo concepto es también la razón por la cual al utilizar tarjetas de ampliación en un PC surgen problemas una y otra vez, si hay dos tarjetas que reclaman para ellas el mismo campo de dirección o campos de dirección que se solapan entre ellos.
Los datos en si no se mandan al bus de direcciones sino al bus de datos. El bus XT tenía solo 8 bits con lo cual sólo podía transportar 1 byte a la vez. Si la CPU quería depositar el contenido de un registro de 16 bits o por valor de 16 bits, tenía que desdoblarlos en dos bytes y efectuar la transferencia de datos uno detrás de otro.
De todas maneras para los fabricantes de tarjetas de ampliación, cuyos productos deben atenderse a este protocolo, es de una importancia básica la regulación del tiempo de las señales del bus, para poder trabajar de forma inmejorable con el PC. Pero precisamente este protocolo no ha sido nunca publicado por lBM con lo que se obliga a los fabricantes a medir las señales con la ayuda de tarjetas ya existentes e imitarlas. Por lo tanto no es de extrañar que se pusieran en juego tolerancias que dejaron algunas tarjetas totalmente eliminadas.

BIBLIOGRAFIA


·         http://www.educaciontic.com.ar/Componentes%20de%20una%20PC.pdf, 27 de febrero de 2011- 10:00 am.
·         http://dattatec.com/descargas/top_10_procesadores.pdf, 27 de febrero de 2011- 10:00 am.
·         Bastida, J.: Introducción a la Arquitectura de Computadores. Secretariado de Publicaciones de la Universidad de Valladolid, 1995.
·         http://www.masadelante.com/faqs/socket, 28 de febrero de 2011- 10:00 am.
·         http://es.wikipedia.org/wiki/Circuito_integrado_auxiliar, 28 de febrero de 2011- 10:00 am.
·         http://www.mailxmail.com/curso-arquitectura-ordenadores, 28 de febrero de 2011- 10:00 am.