Manual de Armado y Reparación de PC
Manual de Armado y Reparación de PC
Historia de la informática
El computador no es invento de alguien en especial, sino el resultado de ideas y realizaciones de
muchas personas relacionadas con la electrónica, la mecánica, los materiales semiconductores, la
lógica, el álgebra y la programación.
Los primeros vestigios de cálculo, se remontan a 3000 AC. Los babilonios que habitaron en la antigua
Mesopotamia empleaban unas pequeñas bolas hechas de semillas o pequeñas piedras, a manera de
"cuentas" agrupadas en carriles de caña.
Posteriormente, en el año 1800 AC, un matemático babilónico inventó los algoritmos que permitieron
resolver problemas de cálculo numérico. Algoritmo es un conjunto ordenado de operaciones propias
de un cálculo.
Ábaco
En 1801 el francés Joseph Marie Jacquard, utilizó un mecanismo de tarjetas perforadas para controlar
el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas plantillas o
moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una
diversidad de tramas y figuras.
En 1879, a los 19 años de edad, Herman Hollerith fue contratado como asistente en las oficinas del
censo estadounidense y desarrolló un sistema de cómputo mediante tarjetas perforadas en las que los
agujeros representaban el sexo, la edad, raza, etc. Gracias a la máquina de Hollerith el censo de 1890
se realizó en dos años y medio, cinco menos que el censo de 1880.
1
Manual de Armado y Reparación de PC.
Hollerith dejó las oficinas del censo en 1896 para fundar su propia Compañía: la Tabulating Machine
Company. En 1900 había desarrollado una máquina que podía clasificar 300 tarjetas por minuto (en
vez de las 80 cuando el censo), una perforadora de tarjetas y una máquina de cómputo semiautomática.
En 1924 Hollerith fusionó su compañía con otras dos para formar la International Business Machines
hoy mundialmente conocida como IBM.
Calculador digital
A comienzos de los años 30, John Vincent Atanasoff, un estadounidense doctorado en física teórica,
hijo de un ingeniero eléctrico emigrado de Bulgaria y de una maestra de escuela, se encontró con que
los problemas que tenía que resolver requerían una excesiva cantidad de cálculo. Aficionado a la
electrónica y conocedor de la máquina de Pascal y las teorías de Babbage, empezó a considerar la
posibilidad de construir un calculador digital. Decidió que la máquina habría de operar en sistema
binario, y hacer los cálculos de modo distinto a como los realizaban las calculadoras mecánicas.
Con 650 dólares donados por el Concejo de Investigación del Estado de Iowa, contrató la cooperación
de Clifford Berry, estudiante de ingeniería, y los materiales para un modelo experimental.
Posteriormente recibió otras donaciones que sumaron 6460 dólares. Este primer aparato fue conocido
como ABC Atanasoff- Berry-Computer.
Prácticamente al mismo tiempo que Atanasoff, el ingeniero John Mauchly, se había encontrado con
los mismos problemas en cuanto a velocidad de cálculo, y estaba convencido de que habría una forma
de acelerar el proceso por medios electrónicos. Al carecer de medios económicos, construyó un
pequeño calculador digital y se presentó al congreso de la Asociación Americana para el Avance de la
Ciencia para presentar un informe sobre el mismo. Allí, en diciembre de 1940, se encontró con
Atanasoff, y el intercambio de ideas que tuvieron originó una disputa sobre la paternidad del
computador digital.
ENIAC
Mauchly publicó un artículo con sus ideas y las de Atanasoff, lo cual despertó el interés de Herman
Goldstine, un oficial de la reserva que hacía de intermediario entre la universidad y el ejército, el cual
consiguió interesar al Departamento de Ordenación en la financiación de un computador electrónico
digital. El 9 de abril de 1943 se autorizó a Mauchly y Eckert iniciar el desarrollo del proyecto. Se le
llamó ENIAC (Electronic Numerical integrator and Computer) y comenzó a funcionar en las
instalaciones militares norteamericanas del campo Aberdeen Proving Ground en Agosto de 1947. La
construcción tardó 4 años y costó $486.804,22 dólares (el equivalente actual a unos tres millones de
dólares por menos poder de cómputo del que actualmente se consigue en las
calculadoras de mano).
2
Manual de Armado y Reparación de PC.
de alambres, funcionando todo a una frecuencia de reloj de 100.000 ciclos por segundo. Tenía 20
acumuladores de 10 dígitos, era capaz de sumar, restar, multiplicar y dividir, y tenía tres tablas de
funciones. La entrada y la salida de datos se realizaban mediante tarjetas perforadas. Podía realizar
unas 5000 sumas por segundo (lo cual es muy poco, comparado con la capacidad de los computadores
actuales). Pesaba unas 30 toneladas y tenía un tamaño equivalente al de un salón de clases. Consumía
200 kilovatios de potencia eléctrica -un computador personal moderno consume apenas 200 vatios, y
es más poderoso- y necesitaba un equipo de aire acondicionado para disipar el gran calor que
producía. En promedio, cada tres horas de uso fallaba una de las válvulas.
Enigma.
El Mark 1, y las versiones que posteriormente se realizaron del mismo, tenían el mérito de asemejarse
al tipo de máquina ideado por Babbage, aunque trabajaban en código decimal y no en binario.
El avance que dieron estas máquinas electromecánicas a la informática fue rápidamente ensombrecido
por el ENIAC con sus circuitos electrónicos.
Alan Turing, matemático inglés, descifra los códigos secretos Enigma usados por la Alemania nazi
para sus comunicaciones. Turing fue un pionero en el desarrollo de la lógica de los computadores
modernos, y uno de los primeros en tratar el tema de la inteligencia artificial con máquinas.
Norbert Wiener, trabajó con la defensa antiaérea estadounidense y estudió la base matemática de la
comunicación de la información y del control de un sistema para derribar aviones. En 1948 publicó
sus resultados en un libro que tituló CYBERNETICS (Cibernética), palabra que provenía del griego
"piloto", y que se usó ampliamente para indicar automatización de procesos.
Computador Z3
El computador Z3, creado por Konrad Zuse, fue la primera máquina programable y completamente
automática, características usadas para definir a un computador. Estaba construido con 2200 relés,
tenía una frecuencia de reloj de ~5 Hz, y una longitud de palabra de 22 bits. Los cálculos eran
realizados con aritmética en coma flotante puramente binaria. La máquina fue completada en 1941 (el
12 de mayo de ese mismo año fue presentada a una audiencia de científicos en
Berlín). El Z3 original fue destruido en 1944 durante un bombardeo aliado de
Berlín. Una réplica completamente funcional fue construida durante los años 60
por la compañía del creador Zuse KG y está en exposición permanente en el
Deutsches Museum. En 1998 se demostró que el Z3 es Turing completo.
Posguerra: Cronología
1946, John Von Neumann propuso una versión modificada del ENIAC; el EDVAC, que se construyó
en 1952. Esta máquina presentaba dos importantes diferencias respecto al ENIAC: En primer lugar
empleaba aritmética binaria, lo que simplificaba enormemente los circuitos electrónicos de cálculo. En
3
Manual de Armado y Reparación de PC.
segundo lugar, permitía trabajar con un programa almacenado. El ENIAC se programaba enchufando
centenares de clavijas y activando un pequeño número de interruptores. Cuando había que resolver un
problema distinto, era necesario cambiar todas las conexiones, proceso que llevaba muchas horas.
Von Neumann propuso cablear una serie de instrucciones y hacer que éstas se ejecutasen bajo un
control central. Además propuso que los códigos de operación que habían de controlar las operaciones
se almacenasen de modo similar a los datos en forma binaria. De este modo el EDVAC no necesitaba
una modificación del cableado para cada nuevo programa, pudiendo procesar instrucciones tan deprisa
como los datos. Además, el programa podía modificarse a sí mismo, ya que las instrucciones
almacenadas, como datos, podían ser manipuladas aritméticamente.
1951, Eckert y Mauchly entregan a la Oficina del Censo su primer computador: el UNIVAC-I.
Posteriormente aparecería el UNIVAC-II con memoria de núcleos magnéticos, lo que le haría superior
a su antecesor, pero, por diversos problemas, esta máquina no vio la luz hasta 1957, fecha en la que
había perdido su liderazgo en el mercado frente al 705 de IBM.
1953, IBM fabricó su primer computador para aplicaciones científicas: el IBM 705, primer
computador que empleaba memorias de núcleos de ferrita.
1962, el mundo estuvo al borde de una guerra nuclear entre la Unión Soviética y los Estados Unidos,
en lo que se denominó “la Crisis de los misiles de Cuba”. A causa de esto, una de las preocupaciones
de las ejército de los Estados Unidos era conseguir una manera de que las comunicaciones fuesen más
seguras en caso de un eventual ataque militar con armas nucleares. Como solución entró en
consideración solamente el proceso de datos en forma electrónica. Los mismos datos se deberían
disponer en diferentes computadores alejados unos de otros. Todos los computadores entrelazados
deberían poder enviarse en un lapso corto de tiempo el estado actual de los datos nuevos o
modificados, y cada uno debería poder comunicarse de varias maneras con cada otro. Dicha red
también debería funcionar si un computador individual o cierta línea fuera destruida por un ataque del
enemigo.
Joseph Carl Robnett Licklider escribió un ensayo sobre el concepto de Red Intergaláctica, donde todo
el mundo estaba interconectado para acceder a programas y datos desde cualquier lugar del planeta. En
Octubre de ese año, Lickider es el primer director de ARPA (Advanced Research Projects Agency), o
4
Manual de Armado y Reparación de PC.
Agencia de Proyectos de Investigación Avanzada, una organización científica creada en 1958 como
contestación a la puesta en orbita por parte de los rusos del primer satélite conocido como Sputnik.
1963, un comité Industria-Gobierno desarrolla el código de caracteres ASCII, (se pronuncia asqui), el
primer estándar universal para intercambio de información (American Standard Code for Information
Interchange), lo cual permitió que máquinas de todo tipo y marca pudiesen intercambiar datos.
1964, la aparición del IBM 360 marca el comienzo de la tercera generación. Las placas de circuito
impreso con múltiples componentes pasan a ser reemplazadas por los circuitos integrados. Estos
elementos son unas plaquitas de silicio llamadas chips, sobre cuya superficie
se depositan por medios especiales unas impurezas que hacen las funciones
de diversos componentes electrónicos. Esto representa un gran avance en
cuanto a velocidad y, en especial, en cuanto a reducción de tamaño. En un
chip de silicio no mayor que un centímetro cuadrado caben 64.000 bits de
información. En núcleos de ferrita esa capacidad de memoria puede requerir
cerca de un litro en volumen.
Paul Baran, quien por ese entonces trabajaba con Rand Corporation, fue uno de los primeros en
publicar en Data Communications Networks sus conclusiones en forma casi simultánea con la
publicación de la tesis de Kleinrock sobre teoría de líneas de espera. Diseñó una red de
comunicaciones que utilizaba computadores y no tenía núcleo ni gobierno central. Además, asumía
que todas las uniones que conectaban las redes eran altamente desconfiables.
El sistema de Baran era algo así como una oficina de correos diseñada por un loco, que trabajaba con
un esquema que partía los mensajes en pequeños pedazos y los metía en sobres electrónicos, llamados
"paquetes", cada uno con la dirección del remitente y del destinatario. Los paquetes se lanzaban al
seno de una red de computadores interconectados, donde rebotaban de uno a otro hasta llegar a su
punto de destino, en el cual se juntaban nuevamente para recomponer el mensaje total. Si alguno de
los paquetes se perdía o se alteraba (y se suponía que algunos se habrían de dislocar), no era problema,
pues se volvían a enviar.
1966, la organización científica ARPA se decidió a conectar sus propios computadores a la red
propuesta por Baran, tomando nuevamente la idea de la red descentralizada. A finales de 1969 ya
estaban conectados a la red ARPA los primeros cuatro computadores, y tres años más tarde ya eran 40.
En aquellos tiempos era, sin embargo, la red propia de ARPA. En los años siguientes la red fue
llamada ARPANET (red ARPA), y su uso era netamente militar.
5
Manual de Armado y Reparación de PC.
Un grupo de investigadores de los Laboratorios Bell (hoy AT&T) desarrolló un sistema operativo
experimental llamado Multics (Información multiplexada y Sistema de Computación) para usar con un
computador General Electric. Los laboratorios Bell abandonaron el proyecto, pero en 1969, Ken
Thompson, uno de los investigadores del Multics, diseñó un juego para dicho computador, que
simulaba el sistema solar y una nave espacial. Con la ayuda de Dennis Ritchie, Thompson volvió a
escribirlo, ahora para un computador DEC (Digital Equipment Corporation), aprovechando que, junto
con Ritchie había creado también un sistema
operativo multitarea, con sistema de archivos,
intérprete de órdenes y algunas utilidades para
el computador DEC. Se le llamó UNICS
(Información Uniplexada y Sistema de
Computación) y podía soportar dos usuarios
simultáneamente. En 1970 se renombró Unix.
Fue un sistema operativo bueno y seguro, pero
su licencia de uso era muy costosa, lo cual lo
ponía fuera del alcance de muchas personas.
Esto motivaría luego la creación del Proyecto
GNU para el desarrollo de software libre.
1971, se creó el primer programa para enviar correo electrónico. Fue Ray Tomlinson, del BBN, y
combinaba un programa interno de correo electrónico y un programa de transferencia de ficheros.
También en este año un grupo de investigadores del MIT presentaron la propuesta del primer
“Protocolo para la transmisión de archivos en Internet”. Era un protocolo muy sencillo
basado en el sistema de correo electrónico pero sentó las bases para el futuro protocolo de
transmisión de ficheros (FTP).
Las instituciones académicas se interesaron por estas posibilidades de conexión. La NSF dio acceso a
sus seis centros de supercomputación a otras universidades a través de la ARPANET. A partir de aquí
se fueron conectando otras redes, evitando la existencia de centros, para preservar la flexibilidad y la
escalabilidad.
1973, ARPA cambia su nombre por DARPA, inicia un programa para investigar técnicas y tecnologías
para interconectar redes de tipos diferentes y se lanzan dos nuevas redes: ALOHAnet, conectando
siete computadores en cuatro islas, y SATNET, una red conectada vía satélite, enlazando dos naciones:
Noruega e Inglaterra.
Bob Kahn y Larry Roberts se proponen interconectar a DARPA con otras redes, PRNET y SATNET,
con diferentes interfaces, tamaños de paquetes, rotulados, convenciones y velocidades de transmisión.
Y en 1974, Vint Cerf, primer Presidente de la Internet Society, y conocido por muchos como el padre
6
Manual de Armado y Reparación de PC.
de Internet, junto con Bob Kahn, publican “Protocolo para Intercomunicación de Redes por paquetes”,
donde especifican en detalle el diseño de un nuevo protocolo, el Protocolo de control de transmisión
(TCP, Transmission Control Protocol), que se convirtió en el estándar aceptado. La implementación de
TCP permitió a las diversas redes conectarse en una verdadera red de redes alrededor del mundo.
Se crea el sistema Ethernet para enlazar a través de un cable único a las computadoras de una red local
(LAN).
1975, en enero la revista Popular Electronics hace el lanzamiento del Altair 8800, el primer
computador personal reconocible como tal. Tenía una CPU Intel de 8 bits y 256 bytes
de memoria RAM. El código de máquina se introducía por medio de interruptores
montados en el frente del equipo, y unos diodos luminosos servían para leer la salida
de datos en forma binaria. Costaba 400 dólares, y el monitor y el teclado había que
comprarlos por separado. Se funda Microsoft.
1977, se hace popular el computador Apple desarrollado por Steve Jobs y Steve Wozniak en un garaje,
y al año siguiente se ofrece la primera versión del procesador de palabras WordStar.
1979, Dan Bricklin crea la primera hoja de cálculo, más tarde denominada VisiCalc, la cual dio origen
a Multiplan de Microsoft, Lotus 1-2-3 (en 1982), Quattro Pro, y Excel.
1980, en octubre, la IBM comenzó a buscar un sistema operativo para la nueva computadora personal
(PC) que iba a lanzar al mercado, cosa de la cual se enteraron Bill Gates y su amigo Paul Allen,
autores del lenguaje de programación Microsoft Basic, basado en el ya existente lenguaje Basic. Ellos
compraron los derechos de QDOS (Quick and Dirty Operating System), un sistema operativo
7
Manual de Armado y Reparación de PC.
desarrollado por Tim Paterson y basado en CP/M, un sistema escrito por Gary Kildall, y lo negociaron
con IBM como Microsoft DOS.
1981, IBM presenta el primer computador personal reconocido popularmente como tal, con sistema
operativo DOS y procesador Intel 8088. Es bueno recordar que IBM y Microsoft son coautores del
sistema operativo PC-DOS/MS-DOS, ya que IBM ayudó a Microsoft a pulir los muchos errores que el
MS DOS tenía originalmente.
1983, IBM presenta el PC XT con un procesador 8088 de 4,77 Mhz de velocidad y un disco duro de
10 Mb, Microsoft ofrece la versión 1.0 del procesador de palabras Word para DOS y ARPANET se
separa de la red militar que la originó, de modo que ya sin fines militares se puede considerar esta
fecha como el nacimiento de Internet. Es el momento en que el primer nodo militar se desliga, dejando
abierto el paso para todas las empresas, universidades y demás instituciones que ya por esa época
poblaban la red.
Richard Stallman, quien por ese entonces trabajaba en el Instituto Tecnológico de Massachussets
(MIT), decidió dedicarse al proyecto de software libre que denominó GNU.
1984, IBM presenta el PC AT, un sistema con procesador Intel 286, bus de expansión de 16 bits y 6
Mhz de velocidad. Tenía 512 kb de memoria RAM, un disco duro de 20 Mb y un monitor
monocromático. Precio en ese momento: 5.795 dólares.
1990, Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (www) una nueva manera de
interactuar con Internet. Su sistema hizo mucho más fácil compartir y encontrar datos en Internet.
Berners-Lee también creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos
HTML y el concepto de los URL.
Miles de personas que querían correr Unix en sus PCs vieron en Linux su
única alternativa, debido a que a Minix le faltaban demasiadas cosas. El
proyecto GNU que Stallman había iniciado hacía ya casi diez años había
producido para este entonces un sistema casi completo, a excepción del kernel, que es el programa que
controla el hardware de la máquina, el cual desarrolló Torvalds y agregó al GNU para formar Linux.
8
Manual de Armado y Reparación de PC.
A mediados de los años noventa Linux se había convertido ya en el Unix más popular entre la gente
que buscaba alternativas al sistema Windows de Microsoft.
1992, es introducida Arquitectura Alpha diseñada por DEC e bajo el nombre AXP, como reemplazo a
la serie VAX que comúnmente utilizaba el sistema operativo VMS y que luego originaría el
openVMS. Cuenta con un set de instrucciones RISC de 64 bits especialmente orientada a cálculo de
punto flotante. No se ha hecho muy popular pero si es reconocida su tecnología en el entorno
corporativo.
1996, se creó Internet2, más veloz que la Internet original, lo cual permite el manejo de archivos muy
grandes y aplicaciones en videoconferencia, telemedicina y muchas otras cosas imprácticas por
Internet 1. Fue resultado de la unión de 34 de las principales universidades de los Estados Unidos.
2005, los usuarios de internet con conexión de banda ancha superan a los usuarios de internet con
conexión vía modem en la mayoría de países desarrollados.
2007, las computadoras personales tanto portátiles como desktop, avanzan rápidamente, desarrollos
nuevos de microprocesadores, memorias y otros, hacen que deba renovarse el equipo en el lapso de
uno a dos años para no quedar fuera de la tecnología, y perder la
compatibilidad con los programas actuales.
9
Manual de Armado y Reparación de PC.
o en las oficinas y que no son portátiles, aunque esta categoría también podría considerarse una
computadora personal.
A medida que el usuario va tomando confianza con su computadora surgen numerosas inquietudes
sobre el significado de las siglas y términos utilizados en la jerga informática. Así en muchas
ocasiones no sabe para que sirven o que representa. A continuación intentaremos aclarar algunos de
estos interrogantes.
10
Manual de Armado y Reparación de PC.
El lenguaje de la PC
Sistema Binario: Historia
El antiguo matemático Indio Pingala presentó la primera descripción que se conoce de un sistema de
numeración binario en el siglo tercero antes de Cristo, lo cual coincidió con su descubrimiento del
concepto del número cero.
El sistema binario moderno fue documentado en su totalidad por Leibniz en el siglo XVII en su
artículo "Explication de l'Arithmétique Binaire". Leibniz usó el 0 y el 1, al igual que el sistema de
numeración binario actual.
En 1854, el matemático británico George Boole, publicó un artículo que marcó un antes y un después,
detallando un sistema de lógica que terminaría denominándose Álgebra de Boole. Dicho sistema
jugaría un papel fundamental en el desarrollo del sistema binario actual, particularmente en el
desarrollo de circuitos electrónicos.
En 1937, Claude Shannon realizó su tesis doctoral en el MIT, en la cual implementaba el Álgebra de
Boole y aritmética binaria utilizando relés y conmutadores por primera vez en la historia. Titulada Un
Análisis Simbólico de Circuitos Conmutadores y Relés, la tesis de Shannon básicamente fundó el
diseño práctico de circuitos digitales.
En noviembre de 1937, George Stibitz, trabajando por aquel entonces en los Laboratorios Bell,
construyó un ordenador basado en relés - al cual apodó "Modelo K" (porque lo construyó en una
cocina, en inglés "kitchen")- que utilizaba la suma binaria para realizar los cálculos. Los Laboratorios
Bell autorizaron un completo programa de investigación a finales de 1938, con Stibitz al mando. El 8
de enero de 1940 terminaron el diseño de una Calculadora de Números Complejos, la cual era capaz
de realizar cálculos con números complejos. En una demostración en la conferencia de la Sociedad
Americana de Matemáticas, el 11 de septiembre de 1940, Stibitz logró enviar comandos de manera
remota a la Calculadora de Números Complejos a través de la línea telefónica mediante un teletipo.
Fue la primera máquina computadora utilizada de manera remota a través de la línea de teléfono.
Algunos participantes de la conferencia que presenciaron la demostración fueron John Von Neumann,
John Mauchly y Norbert Wiener, el cual escribió acerca de dicho suceso en sus diferentes tipos de
memorias en la cual alcanzo diferentes logros.
Archivo Binario
Un Archivo binario es un archivo informático que contiene información de cualquier tipo, codificada
en forma binaria para el propósito de almacenamiento y procesamiento en ordenadores. Por ejemplo
los archivos informáticos que almacenan texto formateado o fotografías.
Muchos formatos binarios contienen partes que pueden ser interpretados como texto. Un archivo
binario que sólo contiene información de tipo textual sin información sobre el formato del mismo se
dice que es un archivo de texto plano. Habitualmente se contraponen los términos 'archivo binario' y
'archivo de texto' de forma que los primeros no contienen solamente texto.
Habitualmente se piensa en los archivos binarios como una secuencia de bytes lo que implica que los
dígitos binarios (bits) se agrupan de ocho en ocho. Los archivos binarios contienen bytes que suelen
ser interpretados como alguna otra cosa que no sean caracteres de texto. Un ejemplo típico son los
programas de ordenador compilados; de hecho, las aplicaciones o programas compilados son
11
Manual de Armado y Reparación de PC.
conocidos como binarios, especialmente entre los programadores. Pero un archivo binario puede
almacenar imágenes, sonido, versión comprimida de otros archivos, etc. En pocas palabras, cualquier
tipo de información.
Algunos archivos binarios tienen una cabecera. Esta cabecera es un bloque de metadatos que un
programa informático usará para interpretar correctamente la información contenida. Por ejemplo, un
archivo GIF puede consistir en múltiples imágenes y la cabecera se usa para identificar y describir
cada bloque de datos de cada imagen. Si el archivo binario no tiene cabecera se dice que es un archivo
binario plano.
Bit es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de numeración
binario. La Real Academia Española (RAE) ha aceptado la palabra bit con el plural bits.
Mientras que en nuestro sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo
dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1.
Podemos imaginarnos un bit como una bombilla que puede estar en uno de los siguientes dos estados:
Apagada o encendida
Claude E. Shannon primero usó la palabra bit en un trabajo académico de 1948. Él atribuyó su origen
a John W. Tukey, que había escrito una nota en los laboratorios Bell el 9 de enero de 1947 en la cual
contrajo las palabras "binary digit" (dígito binario) a simplemente "bit", formando una palabra
combinada. Curiosamente, Vannevar Bush había escrito en 1936 sobre los "bits de información" que
podían ser almacenados en las tarjetas perforadas usadas en las computadoras mecánicas de ese
tiempo.
Combinación de Bit
Con un bit podemos representar solamente dos valores. Para representar o codificar más información
en un dispositivo digital, necesitamos una mayor cantidad de bits. Si usamos dos bits, tendremos
cuatro combinaciones posibles:
12
Manual de Armado y Reparación de PC.
0 0
0 1
1 0
1 1
Con estas cuatro combinaciones podemos representar hasta cuatro valores diferentes, como por
ejemplo, los colores rojo, verde, azul y negro.
A través de secuencias de bits, se puede codificar cualquier valor discreto como números, palabras, e
imágenes. Cuatro bits forman un nibble, y pueden representar hasta 2 4 = 16 valores diferentes; ocho
bits forman un octeto, y se pueden representar hasta 2 8 = 256 valores diferentes. En general, con n
número de bits pueden representarse hasta 2n valores diferentes.
Un byte y un octeto no son la misma cosa. Mientras que un octeto siempre tiene 8 bits, un byte
contiene un número fijo de bits, que no necesariamente son 8. En los computadores antiguos, el byte
podría estar conformado por 6, 7, 8 ó 9 bits. Hoy en día, en la inmensa mayoría de las computadoras, y
en la mayoría de los campos, un byte tiene 8 bits, siendo equivalente al octeto, pero hay excepciones.
Octeto o Byte
Voz inglesa, se pronuncia báit, que si bien la Real Academia Española ha aceptado como equivalente
a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia
de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea
definido. Se usa comúnmente como unidad básica de almacenamiento de información en combinación
con los prefijos de cantidad.
Los prefijos kilo, mega, giga, etc. se consideran múltiplos de 1024 en lugar de múltiplos de 1000. Esto
es así porque 1024 es la potencia de 2 (2 10) más cercana a 1000. Se utiliza una potencia de dos porque
la computadora trabaja en un sistema binario.
Sin embargo, para el SI, los prefijos mantienen su significado usual de potencias de mil.
Así:
13
Manual de Armado y Reparación de PC.
El código ASCII (acrónimo inglés de American Standard Code for Information Interchange —
Código Estadounidense Estándar para el Intercambio de Información), pronunciado generalmente
[áski], es un código de caracteres basado en el alfabeto latino tal como se usa en inglés moderno y en
otras lenguas occidentales. Fue creado en 1963 por el Comité Estadounidense de Estándares (ASA,
conocido desde 1969 como el Instituto Estadounidense de Estándares Nacionales, o ANSI) como una
refundición o evolución de los conjuntos de códigos utilizados entonces en telegrafía. Más tarde, en
1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código
conocido como US-ASCII.
El código ASCII utiliza 7 bits para representar los caracteres, aunque inicialmente empleaba un bit
adicional (bit de paridad) que se usaba para detectar errores en la transmisión. A menudo se llama
incorrectamente ASCII a otros códigos de caracteres de 8 bits, como el estándar ISO-8859-1 que es
una extensión que utiliza 8 bits para proporcionar caracteres adicionales usados en idiomas distintos al
inglés, como el español.
ASCII fue publicado como estándar por primera vez en 1967 y fue actualizado por última vez en 1986.
En la actualidad define códigos para 33 caracteres no imprimibles, de los cuales la mayoría son
caracteres de control obsoletos que tienen efecto sobre como se procesa el texto, más otros 95
caracteres imprimibles que les siguen en la numeración (empezando por el carácter espacio).
Casi todos los sistemas informáticos actuales utilizan el código ASCII o una extensión compatible
para representar textos y para el control de dispositivos que manejan texto.
El código ASCII reserva los primeros 32 códigos (numerados del 0 al 31 en decimal) para caracteres
de control: códigos no pensados originalmente para representar información imprimible, sino para
controlar dispositivos (como impresoras) que usaban ASCII. Por ejemplo, el carácter 10 representa la
función "nueva línea" (line feed), que hace que una impresora avance el papel, y el carácter 27
representa la tecla "escape" que a menudo se encuentra en la esquina superior izquierda de los teclados
comunes.
El código 127 (los siete bits a uno), otro carácter especial, equivale a "suprimir" ("delete"). Aunque
esta función se asemeja a otros caracteres de control, los diseñadores de ASCII idearon este código
para poder "borrar" una sección de papel perforado (un medio de almacenamiento popular hasta la
década de 1980) mediante la perforación de todos los agujeros posibles de una posición de carácter
concreta, reemplazando cualquier información previa. Dado que el código 0 era ignorado, fue posible
dejar huecos (regiones de agujeros) y más tarde hacer correcciones.
Muchos de los caracteres de control ASCII servían para marcar paquetes de datos, o para controlar
protocolos de transmisión de datos (por ejemplo ENQuiry, con el significado: ¿hay alguna estación
por ahí?, ACKnowledge: recibido o "acuse de recibo", Negative AcKnowledge: No recibido, Start Of
Header: inicio de cabecera, Start of TeXt: inicio de texto, End of TeXt: final de texto, etc.). ESCape y
SUBstitute permitían a un protocolo de comunicaciones, por ejemplo, marcar datos binarios para que
14
Manual de Armado y Reparación de PC.
contuviesen códigos con el mismo código que el carácter de protocolo, y que el receptor pudiese
interpretarlos como datos en lugar de como caracteres propios del protocolo.
Los diseñadores del código ASCII idearon los caracteres de separación para su uso en sistemas de
cintas magnéticas.
Dos de los caracteres de control de dispositivos, comúnmente llamados XON y XOFF generalmente
ejercían funciones de caracteres de control de flujo para controlar el flujo hacia un dispositivo lento
(como una impresora) desde un dispositivo rápido (como un microprocesador), de forma que los datos
no saturasen la capacidad de recepción del dispositivo lento y se perdiesen.
Los primeros usuarios de ASCII adoptaron algunos de los códigos de control para representar
"metainformación" como final-de-línea, principio/final de un elemento de datos, etc. Estas
asignaciones a menudo entraban en conflicto, así que parte del esfuerzo de convertir datos de un
formato a otro comporta hacer las conversiones correctas de metainformación. Por ejemplo, el carácter
que representa el final-de-línea en ficheros de texto varía con el sistema operativo. Cuando se copian
archivos de un sistema a otro, el sistema de conversión debe reconocer estos caracteres como marcas
de final-de-línea y actuar en consecuencia.
Actualmente los usuarios de ASCII usan menos los caracteres de control. Los lenguajes modernos de
etiquetas, los protocolos modernos de comunicación, el paso de dispositivos basados en texto a
basados en gráficos, el declive de las teleimpresoras, las tarjetas perforadas y los papeles continuos
han dejado obsoleta la mayoría de caracteres de control.
Como hemos visto anteriormente la tabla sirve para funciones internas de codificación, pero también
el usuario puede utilizar esta tabla para poder introducir un código ASCII (Letra, Símbolo o Número)
en un procesador de texto o DOS, por ejemplo la letra Ñ, suele tener problemas si se configura mal el
teclado, utilizando el código ASCII, presionando la tecla ALT + el código del carácter nos da
automáticamente el código en pantalla.
15
Manual de Armado y Reparación de PC.
Fuente de la PC
Fuente Eléctrica de la PC: Fuente
Primaria
La Fuente de Alimentación, tiene componentes
electrónicos capaces de transformar la corriente de la red
eléctrica, en una corriente que la PC pueda soportar.
Esto se consigue a través de unos procesos electrónicos
los cuales explicaremos brevemente.
Fuente Secundaria y
1.Transformación. salida de cableado.
2. Rectificación.
La corriente que nos ofrece la compañía eléctrica es alterna, esto quiere decir, que sufre variaciones en
su línea de tiempo, se producen cambios en forma de ciclos de corriente positiva y negativa, estos
cambios se suceden 50 veces por segundo. Eso lógicamente, no nos podría servir para alimentar a los
componentes de una PC, ya que imaginemos que si le estamos
dando 12 voltios con corriente alterna a un disco duro
lógicamente no funcionará ya que al ser variable no estaríamos
16
Manual de Armado y Reparación de PC.
ofreciéndole los 12 voltios constantes. Lo que se intenta con esta fase es pasar de corriente alterna a
corriente continua a través de un componente que se llama puente rectificador o de Graetz. Con esto se
logra que el voltaje no baje de 0 voltios, y siempre se mantenga por encima de esta cifra.
3. Filtrado.
Ahora ya, disponemos de corriente continua, que es lo que nos interesaba, no obstante, aún no nos
sirve de nada porque no es constante, y no nos serviría para alimentar a ningún circuito
Lo que se hace en esta fase de filtrado es aplanar al máximo la señal para que no haya oscilaciones, se
consigue con uno o varios condensadores que retienen la corriente y la dejan pasar lentamente para
suavizar la señal, así se logra el efecto deseado.
4. Estabilización
Ya tenemos una señal continua bastante decente, casi del todo plana, ahora solo nos falta estabilizarla
por completo, para que cuando aumenta o descienda la señal de entrada a la fuente, no afecte a la
salida de la misma.
Esto se consigue con un regulador.
17
Manual de Armado y Reparación de PC.
Tipos de Fuentes
Después de comentar estas fases de la fuente de alimentación, procederemos a diferenciar los dos tipos
que existen actualmente.
Las dos fuentes que podremos encontrarnos cuando abramos un ordenador pueden ser: AT o ATX
Las fuentes de alimentación AT, fueron usadas hasta que apareció el Pentium MMX, es en ese
momento cuando ya se empezarían a utilizar fuentes de alimentación ATX.
Las características de las fuentes AT, son que sus conectores a placa base varían de los utilizados en
las fuentes ATX, y por otra parte, quizás bastante más peligroso, es que la fuente se activa a través de
un interruptor, y en ese interruptor hay un voltaje de 220v, con el riesgo que supondría manipular la
PC.
También destacar que comparadas tecnológicamente con las fuentes ATX, las AT son un tanto
rudimentarias electrónicamente hablando.
En ATX, es un poco distinto, ya que se moderniza el circuito de la fuente, y siempre está activa,
aunque el ordenador no esté funcionando, la fuente siempre está alimentada con una tensión pequeña
para mantenerla en espera.
Una de las ventajas es que las fuentes ATX no disponen de un interruptor que enciende/apaga la
fuente, sino que se trata de un pulsador conectado a la placa base, y esta se encarga de encender la
fuente, esto conlleva pues el poder realizar conexiones/desconexiones por software.
No obstante, comentar, que estos datos son muy variables, y únicamente son orientativos, ya que varía
según el número de dispositivos conectados a la PC.
Tecla Corta
Fan Corriente
18
Manual de Armado y Reparación de PC.
Conexión de Dispositivos
En Fuentes AT, se daba el problema de que existían dos conectores a conectar a placa base, con lo
cual podía dar lugar a confusiones y a cortocircuitos, la solución a ello es basarse en un truco muy
sencillo, hay que dejar en el centro los cables negros que los dos conectores tienen, así no hay forma
posible de equivocarse.
P9
Tampoco olvidemos los conectores típicos para Disquetera 3 ½, Discos Duros y Lectoras:
Los equipos modernos utilizan fuentes con conectores adicionales para alimentar los nuevos Coolers y
microprocesadores potentes como los Intel P4 o los AMD FX, el cambio constante de los
microprocesadores dio mayores velocidades al equipo y prestaciones, así aparecieron los discos
rígidos SATA, placas de video PCI-Express, y Periféricos USB, así como también neones y coolers
adicionales que se le pueden instalar al equipo.
Un dato importante a tener en cuenta son los Watts de potencia de la fuente, es decir la capacidad de
entregar corriente eléctrica (alimentación) a los componentes de la PC, sin que la energía se corte o
que por falta de ésta los componentes recalienten. En principio las fuentes eran fabricadas de 150 a
200 Watts y esto era más que suficiente para alimentar todo lo interno, hoy en día, dada la cantidad de
hardware incluido en la PC y sus grandes consumos de energía hacen muy importante contar con una
fuente que aparte de robusta y de buena calidad tenga la capacidad de alimentar todos los componentes
de la PC. Por eso el estándar es de no menos de 400 a 450Watts.
19
Manual de Armado y Reparación de PC.
ATX
12 Volt MP.
PCI-E
Adicionales al Motherboard
Código Colores
20
Manual de Armado y Reparación de PC.
NUEVO EATX
Flujo de aire
21
Manual de Armado y Reparación de PC.
MOTHERBOARD
Que es el motherboard?
Físicamente, se trata de una "oblea" de material sintético, sobre la cual existe un circuito electrónico
que conecta diversos elementos que se encuentran anclados sobre ella; de esta manera un motherboard
puede tener hasta siete capas entre “obleas y circuito impreso”.
La placa base, placa madre o tarjeta madre (en inglés motherboard, mainboard) sirve como medio
de conexión entre: El microprocesador, circuitos electrónicos de soporte, ranuras para conectar parte o
toda la RAM del sistema, la ROM y ranuras especiales (slots) que permiten la conexión de tarjetas
adaptadoras adicionales. Estas tarjetas de expansión suelen realizar funciones de control de periféricos
tales como monitores, impresoras, unidades de disco, etc.
Conexión física.
Administración, control y distribución de energía eléctrica.
Comunicación de datos.
Temporización.
Sincronismo.
Control y monitoreo.
Para que la placa base cumpla con su cometido lleva instalado un software muy básico denominado
BIOS.
Gran cantidad de Zócalos de
expansión para cambiar
componentes.
Arquitectura Abierta:
USB Internos
22
Manual de Armado y Reparación de PC.
la PC de acuerdo al uso del equipo o rendimiento que se necesite, luego actualizarlo o cambiar algún
componente dañado.
Vista Lateral
Vista Superior
23
Manual de Armado y Reparación de PC.
Este concepto se creo con la idea de abaratar el costo de los equipos, una generación de PC salió al
mercado con motherboards que además de sus componentes habituales que a continuación veremos
incluían en la misma placa de fábrica video, sonido, modem y red. De esta manera un motherboard
bajaba el costo final ya que uno se olvida de la compra del resto de los componentes habituales. En su
contra podemos decir que estos componentes son de calidad media lo cual limita las prestaciones de la
PC, también se ve reducido en espacio físico al incorporar estos integrados y conectores adicionales
para los que los fabricantes eliminaron zócalos de expansión, esto limita el concepto de arquitectura
modular o el intercambio de partes.
RED
Mouse PS/2 USB Puerto Paralelo SONIDO
Video
Mouse Serie
Teclado
TV OUT
El Diseño
El formato de la placa esta sujeta a un estándar de fabricación que se debe respetar para la fácil
instalación en el gabinete y su sujeción, referente a su forma rectangular y orificios de soporte. Así
como su compatibilidad a los componentes tanto internos como externos por ejemplo zócalos de
expansión PCI Express para las nuevas placas de video o conectores USB para una cámara digital o
24
Manual de Armado y Reparación de PC.
impresora entre otras; este formato es fundamental para la compatibilidad con todo el hardware del
mercado, así también determinados componentes requieren un diseño único partiendo por ejemplo el
zócalo del microprocesador que cada modelo del mercado tiene su propio socket.
Chip
controlador Panel
Red Trasero
Zócalos PCI
Pila
Chipset
Conectores
USB Zócalos
Frontales Memorias
Conector ATX
RomBios
Conectores IDE Conector Floppy
25
Manual de Armado y Reparación de PC.
Placas ATX:
El formato ATX (siglas de Advanced Technology Extended') es presentado por Intel en 1995. Con un
tamaño de 12 pulgadas de ancho por 9,6 pulgadas de profundo, este nuevo formato se resuelven todos
los inconvenientes que perjudicaron a la ya mencionada placa. Los puertos más habituales (impresora
Centronics, RS-232 en formato DB-9, la toma de joystick/midi y de tarjeta de sonido, los puertos USB
y RJ-45 (para red a 100) y en algunos casos incluso la salida de monitor VGA, se agrupan en el lado
opuesto a los slots de ampliación. El puerto DIN 5 de teclado es sustituido por las tomas PS/2 de
teclado y mouse (llamadas así por introducirlas IBM en su gama de ordenadores PS/2 y rápidamente
adoptada por todos los grandes fabricantes) y situados en el mismo bloque. Todo esto conlleva el que
muchas tarjetas necesarias se integren en la placa madre, abaratando costos y mejorando la
ventilación. Inmediatamente detrás se sitúa el zócalo o slot de procesador y las fijaciones del
ventilador (que al estar más próxima a la fuente de alimentación y su ventilador, actúa más
eficientemente), justo al lado de la nueva conexión de fuente de alimentación (que elimina el quemado
accidental de la placa). Tras él vienen los slots de memoria RAM y justo detrás los conectores de las
controladoras IDE, SCSI (principalmente
en servidores y placas de gama alta) y de
controladora de disquete, justo al lado de
las bahías de disco de la caja (lo que
reduce los cables).
26
Manual de Armado y Reparación de PC.
Micro ATX:
El formato microATX (también conocida como µATX) es un formato de placa base pequeño con un
tamaño máximo de 9,6 x 9,6 pulgadas (244 mm x 244 mm) empleada principalmente en cajas tipo
cubo y SFF. Debido a sus dimensiones sólo tiene sitio para 1 o 2 slots PCI y/o AGP, por lo que suelen
incorporar puertos FireWire y USB 2 en abundancia (para permitir conectar unidades externas de
disco duro y regrabadoras de DVD).
Placa LPX:
Basada en un diseño de Western Digital, permite el uso de cajas más pequeñas en una placa ATX
situando los slots de expansión en una placa especial llamada riser card (una placa de expansión en sí
misma, situada en un lateral de la placa base). Este diseño sitúa a las placas de ampliación en paralelo
con la placa madre en lugar de en perpendicular. Generalmente es usado sólo por grandes
ensambladores como IBM, Compaq, HP o Dell, principalmente en sus equipos SFF (Small Form
Format o cajas de formato pequeño). Por eso no suelen tener más de 3 slots cada uno.
Como podemos apreciar en las distintas imágenes, cada Placa tiene un diseño especial, el cual se
asemeja a otras pero nunca es el mismo. Cada fabricante decide que componentes utilizar para lograr
la máxima compatibilidad y rendimiento con la tecnología del momento. Esta relación se ve reflejada
directamente en el precio final de la Placa.
27
Manual de Armado y Reparación de PC.
El Chipset:
El Circuito Integrado Auxiliar o Chipset es un conjunto de circuitos integrados que se encarga de
realizar las funciones que el microprocesador delega en ellos. Chipset traducido literalmente del inglés
significa conjunto de circuitos integrados. Se designa circuito integrado auxiliar al circuito integrado
que es periférico a un sistema pero necesario para el funcionamiento del mismo. La mayoría de los
sistemas necesitan más de un circuito integrado auxiliar; sin embargo, el término chipset se suele
emplear en la actualidad cuando se habla sobre las placas base de las PCs IBM.
Antiguamente estas funciones eran relativamente sencillas de realizar y el chipset apenas influía en el
rendimiento del ordenador, por lo que el chipset era el último elemento al que se concedía importancia
a la hora de comprar una placa base, si es que alguien se molestaba siquiera en informarse sobre la
naturaleza del mismo. Pero los nuevos y muy complejos micros, junto con un muy amplio abanico de
tecnologías en materia de memorias, caché y periféricos que aparecen y desaparecen casi de mes en
mes, han hecho que la importancia del chipset crezca enormemente.
Entonces el "chipset" es el conjunto de chips que se encargan de controlar determinadas funciones del
ordenador, como la forma en que interacciona el microprocesador con la memoria o la caché, o el
control de los puertos y slots ISA, PCI, AGP, USB...
El SouthBridge controla los dispositivos asociados como son la controladora de discos IDE,
puertos USB, Firewire, SATA, RAID, ranuras PCI, ranura AMR, ranura CNR, puertos
infrarrojos, disquetera, LAN y una larga lista de todos los elementos que podamos imaginar
integrados en la placa madre. El puente sur es el encargado de comunicar el procesador con el
resto de los periféricos.
Cierto libro compara al Chipset con la médula espinal: una persona puede tener un buen cerebro, pero
si la médula falla, todo lo de abajo no sirve para nada.
El Northbridge ("puente norte" en inglés) es el chip más importante del conjunto de chips ( Chipset)
que constituye el corazón de la placa madre. Recibe el nombre por situarse en la parte superior de las
placas madres con formato ATX y por tanto no es un término utilizado antes de la aparición de este
formato para ordenadores de sobremesa.
Chip integrado es el conjunto de la placa base que controla las funciones de acceso desde y hasta
microprocesador, AGP, memoria RAM y Southbridge. Su función principal es la de controlar el
funcionamiento del bus del procesador, la memoria y el puerto AGP. De esa forma, sirve de conexión
(de ahí su denominación de "puente") entre la placa madre y los principales componentes de la PC:
microprocesador, memoria RAM y tarjeta de vídeo AGP. Generalmente, las grandes innovaciones
28
Manual de Armado y Reparación de PC.
tecnológicas, como el soporte de memoria DDR o nuevos FSB, se implementan en este chip. Es decir,
el soporte que tenga una placa madre para determinado tipo de microprocesadores, memorias RAM o
placas AGP estará limitado por las capacidades del Northbridge de que disponga.
Antiguamente, el Northbridge estaba compuesto por tres controladores principales: memoria RAM,
puerto AGP y bus PCI. Hoy en día, el controlador PCI se inserta directamente en el Southbridge
("puente sur"), y en algunas arquitecturas más nuevas el controlador de memoria se encuentra
integrado en el procesador; este es el caso de los Athlon 64.
Los Northbridges tienen un bus de datos de 64 bit en la arquitectura X86 y funcionan en frecuencias
que van desde los 66Mhz de las primeras placas que lo integraban en
1998 hasta 1Ghz de los modelos actuales de SiS para procesadores
[AMD64].
En los últimos modelos de placas el Southbridge acapara cada vez mayor número de dispositivos a
conectar y comunicar por lo que fabricantes como AMD o VIA han desarrollado tecnologías como
HyperTransport o V-Link respectivamente para evitar el efecto cuello de botella en el transporte de
datos entre dispositivos.
29
Manual de Armado y Reparación de PC.
Chipset Simple:
Un Solo C.I.
30
Manual de Armado y Reparación de PC.
Ranura, en español. Se trata de cada uno de los alojamientos que tiene la placa madre en los que se
insertan las tarjetas de expansión. Todas estas ranuras están conectadas entre sí y un ordenador
personal tiene generalmente ocho, aunque puede llegar a doce.
1) Isa Simple.
2) Isa Doble.
3) VESA.
4) PCI.
5) AGP.
6) CNR o AMR.
7) PCI-E
Éste Bus se identifica en una motherboard, porque a sus líneas están conectados por soldadura, varios
zócalos conectores (Slots) de color negro, donde pueden insertarse plaquetas de interfaces de
periféricos. La función del Bus ISA, es permitir la comunicación entre la porción central, ubicada en la
plaqueta principal, y los registros ports de dichas interfaces.
Los zócalos vinculados al bus, permiten expandir el número de periféricos de una PC, de donde resulta
también su denominación de Bus de Expansión, habiendo sido creado por IBM para las primeras PC,
de donde resulta también su denominación de "I/O Channell". Si bien IBM nunca publicó las normas
mecánicas y eléctricas que debían cumplir los conectores, y el tipo de señal a transmitir por cada línea
del Bus, éste se convirtió en un Standard de hecho, conocido como Industry Estándar Architecture
(ISA), siendo otras denominaciones: Bus AT, Bus del Sistema, Bus Convencional, Bus de E/S e IBM
PC Bus.
31
Manual de Armado y Reparación de PC.
masivas de PC, desarrollando las bases de la revolución informática actual. El Bus ISA sigue
formando parte de más del 90% de las PC corrientes.
Cabe aclarar que en el Bus ISA, cuando se inserta una plaqueta nueva, se deben elegir las opciones
para los parámetros siguientes: las direcciones que tendrán los registros que los componen, el número
de identificación para solicitar interrupción, y otras señales, mediante llaves o puentes llamados
"jumpers", cuya posición indican los fabricantes.
En 1992, los fabricantes reunidos en la Video Electronics Standard Association (VESA), establecieron
el estándar VESA VL, con especificaciones para la implementación del bus, señales eléctricas, y
diseño constructivo de los zócalos conectores de éste bus.
Éstos se parecen a los conectores del Bus MCA de IBM, son de color marrón, tienen cincuenta y seis
contactos por lado, y están dispuestos cerca de la CPU alineados con los zócalos del Bus ISA. Acorde
a los estándares actuales, su número máximo es de tres. Único con el zócalo Isa en conjunto lograba
un mejor desempeño en velocidad de datos. Poco tiempo después se lo reemplazo definitivamente por
el Zócalo PCI.
En 1992, la compañía Intel lideró la creación de un grupo que integraba fabricantes de hardware para
la industria de la PC. El Peripherial Component Interconnect (PCI) Bus, es otra forma de acceder al
Bus Local desarrollado para el Pentium, después de que el Bus VESA dominara el mercado de las 486.
Es apto para PC y otros tipos de computadoras.
A diferencia del VESA, el bus se acopla al bus local a través de un chip controlador especial, y está
pensado para soportar en sus zócalos (color blanco, de 124 conectores para 32 bits), además de las
interfaces de video, disco rígido y red local, las plaquetas para multimedia, audio, video y otras.
El PCI funciona a 33 Mhz, con 32 y 64 líneas de datos transfieren hasta un máximo de 132 MB/Seg. Y
264 MB/Seg., respectivamente como el Bus VESA (32 bits solamente). Las plaquetas que se insertan
en los zócalos PCI se autoconfiguran (Plug and Play), o pueden ser configuradas por el sistema, al
igual que los Buses MCA, EISA y otros. Esto es que los circuitos están preparados para elegir
automáticamente, las direcciones que tendrán los registros que los componen, el número de
identificación para solicitar interrupción y otras señales de modo que no exista incompatibilidad con
otras plaquetas conectadas.
La interfaz PCI
32
Manual de Armado y Reparación de PC.
de la placa madre. Es un bus de 32 bits que funciona a 5 V, 33 MHz, con una velocidad de
transferencia inicial de 133 Mb/s (Megabits por segundo).
Aunque seguiremos llamándolo "bus PCI", en realidad no es un bus local; por esto, ocupa un lugar
intermedio (de ahí el nombre mezzanine) entre el bus del procesador / memoria / cache y el bus
estándar ISA. El bus PCI se encuentra separado del bus local mediante un controlador que hace de
pasarela. Cuando la CPU escribe datos en los periféricos PCI (por ejemplo un disco duro), el
controlador PCI los almacena en su buffer. Esto permite que la CPU atienda la próxima operación en
vez de tener que esperar a que se complete la transacción. A continuación el buffer envía los datos al
periférico de la forma más eficiente posible.
Ha sido diseñado pensando en sistemas de máximas prestaciones e incluye todas las funcionalidades y
características de los diseños más modernos (soporte para multiprocesador, transferencia a ráfagas
-burst mode-, etc.). Presenta características que no eran usuales en los sistemas de bus anteriores, por
ejemplo:
Configuración por software (sin jumpers): PCI se creó pensando en el estándar PnP ("Plug
and Play"), por lo que los dispositivos PCI pueden ser configurados exclusivamente mediante
software (aunque algunos fabricantes rompen la norma). Cada dispositivo PCI debe estar
diseñado para solicitar de forma inequívoca los recursos que necesita (Zona de memoria
mapeada, direcciones E/S, canales DMA, Interrupciones, etc.).
33
Manual de Armado y Reparación de PC.
Esta diferencia en prestaciones del PCI lleva a que muchos fabricantes cambien el color
tradicionalmente blanco, por otros.
AMR Bus
34
Manual de Armado y Reparación de PC.
AMR del inglés Audio Modem Riser. Es una ranura de expansión en la placa madre para dispositivos
de audio como tarjetas de sonido o modems, lanzada en 1998, cuenta con 16 pines y es parte del
estándar de audio AC97 aun vigente en nuestros días, generalmente utilizados en Motherboards de
tipo Genéricos. En un principio se diseñó como ranura de expansión para dispositivos económicos de
audio o comunicaciones ya que estos harían uso de los recursos de la máquina como el
microprocesador y la memoria RAM. Esto tuvo poco éxito ya que fue lanzado en un momento en que
la potencia de las máquinas no era la adecuada para soportar esta carga y el escaso soporte de los
drivers para estos dispositivos en sistemas operativos que no fuesen Windows.
CNR Bus
CNR Del inglés Comunication and Network Riser. Se trata de una ranura de expansión en la placa
madre para dispositivos de comunicaciones como modems, tarjetas Lan o USB. Fue introducido en
febrero del 2000 por Intel en sus placas para procesadores Pentium y se trataba de un diseño
propietario por lo que no se extendió más allá de las placas que incluían los chipsets de Intel.
Adolecía de los mismos problemas de recursos de los dispositivos diseñados para ranura AMR. Puerto
especial para tarjetas especiales como modems.
AMR
AMR
CNR CNR
El puerto AGP (Accelerated Graphics Port en ocasiones llamado Advanced Graphics Port) es un
puerto (puesto que solo se puede conectar un dispositivo [Solo video], mientras que en el bus se
pueden conectar varios) desarrollado por Intel en 1996 como solución a los cuellos de botella que se
producían en las tarjetas gráficas que usaban el bus PCI. El diseño parte de las especificaciones del
PCI 2.1
Es el tipo de puerto de gráficos más moderno y veloz que existe, pero ya esta siendo reemplazado por
los más veloces y actuales PCI-E. Algunas tarjetas multiplican su velocidad 2x, 4x y 8x. AGP2x=512
Mb/seg Agp4x= 1Gb/seg Agp8x=2Gb/seg.
La finalidad de este puerto es mejorar la calidad y velocidad de las aplicaciones 3D y liberar así al
procesador de los cálculos 3D.
Fundamentos de AGP
En 1996, Intel introdujo AGP 1.0. AGP era una versión modificada del PCI diseñada para
acelerar transferencias a las tarjetas video. Fue seguido por AGP 2.0 de 1998 y AGP 3.0 de
2002. Cada nueva versión agregó nuevas velocidades y voltajes.
Versión de
Voltaje Velocidades máximas
AGP
35
Manual de Armado y Reparación de PC.
El voltaje que utiliza es usado para enviar datos entre la placa AGP y el zócalo de la placa madre. Los
multiplicadores indican la velocidad real por el multiplicador para obtener la velocidad final de la
placa.1x, 2x, 4x, y 8x.
Multiplicadores de AGP
Versión de Multiplicadores
voltaje
AGP posibles
AGP 1.0 3.3 voltios 1x, 2x
AGP 2.0 1.5 voltios 1x, 2x, 4x
AGP 3.0 0.8 voltios 4x, 8x
AGP tiene ocho multiplicadores de la velocidad: 1x, 2x, 4x, y 8x. Mirando los voltajes varios y
multiplicadores posibles de la velocidad puede ser que pensemos que hay una gran cantidad de clases
de tarjetas video y de placas madre que soportan varias combinaciones de voltajes y de
multiplicadores. Pero realmente es mucho más simple que eso. La especificación de AGP 1.0 requiere
que todas las puestas en práctica apoyen el multiplicador de la velocidad 1x en 3.3 volts. El
multiplicador 2x es opcional. No hay cosa tal como una tarjeta video o una placa madre de 3.3 volts
que soporte solamente 2x. Por defecto, cuando la energía de la placa AGP 1.0 sube, seleccionan el
multiplicador más rápido de la velocidad soportado por la tarjeta video y la placa madre. Si ambas
soportan 2x entonces funcionarán en 2x. Si no funcionaran en 1x, que técnicamente funcionan en
todas las tarjetas video y las placas madre de AGP 1.0. Hay a menudo una opción en el BIOS que
limita la velocidad a 1x y la especificación de AGP 2.0 tiene un requisito similar en el soporte 2x y 1x
en 1.5 volts que es obligatorio y en 4x es
opcional. La especificación AGP 3.0 requiere
que el soporte para 8x y las características 3.0 no
sean tan claras como las 1.0 y 2.0,
especificaciones que a propósito requieren el
multiplicador más bajo. Para saber si hay
compatibilidad entre una tarjeta video AGP y
una placa madre, si ambas soportan el mismo
voltaje entonces hay siempre por lo menos un
multiplicador común de la velocidad soportado
por ambos en ese voltaje. Es necesario
solamente cerciorarse de que la tarjeta video y la
placa base tengan por lo menos un voltaje que señale un campo común.
Diferencia de contactos
36
Manual de Armado y Reparación de PC.
Memorias
37
Manual de Armado y Reparación de PC.
Cada tarjeta de AGP tiene uno o dos ranuras en su borde, si una tarjeta video tiene la ranura de 3.3
volts entonces puede utilizar de 3.3 volts.
AGP 2.0 agregó la ranura de 1.5 volts en las tarjetas que podrían utilizar soporte de 1.5 volts. Si la
tarjeta tiene ambas ranuras entonces puede utilizar ambos voltajes que señalan. El soporte agregado de
AGP 3.0 para 0.8 volts señala que no se agregó una nueva clase de ranura. Si una tarjeta video soporta
1.5 volts o 0.8 volts entonces tienen la ranura de 1.5 voltios.
Los conectores en la placa madre se afinan para prevenir la inserción de las tarjetas de AGP que
podrían ser dañadas si se insertan placas con un conector AGP de distintas especificaciones técnicas.
Un conector de la placa madre 3.3V puede aceptar solamente las tarjetas que tienen la ranura 3.3V.
Asimismo un conector de la placa madre 1.5V puede aceptar solamente tarjetas con la ranura 1.5V. Un
conector universal de la placa madre no tiene ninguna muesca y por lo tanto puede aceptar cualquier
clase de tarjeta de AGP. Una tarjeta AGP con ambas ranuras del voltaje se puede introducir en
cualquier clase de conector de la placa madre.
38
Conector adicional
de energía
Manual de Armado y Reparación de PC.
más energía. Las tarjetas universales AGP son totalmente compatibles con las placas madre de marca
conocida, pero no al reves.
La tabla de arriba da los nombres oficiales de Intel para las varias clases de tarjetas AGP
permitidas por las especificaciones AGP. Desafortunadamente las especificaciones técnicas
para una tarjeta video utilizan raramente estos términos en forma correcta para describir la
tarjeta video. Ellas generalmente muestran los multiplicadores más rápidos AGP: 8X, 6X, o
4X. De esa información y de las ranuras del voltaje en un cuadro de la tarjeta de video, se
puede calcular exactamente cuáles son. Se ven muchas tarjetas de video marcadas como
tarjetas AGP 3.0 cuando de hecho son realmente tarjetas universales de 1.5V AGP 3.0.
39
Manual de Armado y Reparación de PC.
La tabla de arriba da los nombres oficiales de Intel para las varias clases de placas madre con
AGP permitidas por las especificaciones.
La tabla anterior demuestra que hay combinaciones de las tarjetas de la placa madre y video
que pueden ser insertadas juntas pero no funcionara. Según las especificaciones de AGP no
debe haber daños pero la combinación no sería compatible. Si se quitan los protectores de
entrada de 0.8 voltios de los zócalos AGP se vera la compatibilidad con la siguiente tabla.
40
Manual de Armado y Reparación de PC.
1.5V
Placa
madre Trabaja Trabaja Trabaja en Trabaja en Trabaja en
universal en 3.3V en 1.5V 1.5V 1.5V 1.5V
AGP
Placa
madre
No cabrá Trabaja Trabaja en Trabaja en Trabaja en
universal de
en ranura en 1.5V 1.5V 0.8V 0.8V
1.5V AGP
3.0
Placa
madre Trabaja Trabaja Trabaja en Trabaja en Trabaja en
universal de en 3.3V en 1.5V 1.5V 0.8V 0.8V
AGP 3.0
Si una placa AGP entra en una ranura del motherboard entonces por qué que no son compatibles? Una
respuesta práctica que debe ser considerada es el hecho de que algunas de las placas madre originales
AGP 1.0 no proporcionan bastante energía para hacer funcionar algunas tarjetas de video más nuevas.
Si se agrega una tarjeta video a una placa madre AGP 1.0 sería beneficioso instalar una tarjeta de
video que no consuma mucha energía.
Puede haber de vez en cuando conflictos del recurso con la dirección de memoria instalando una
tarjeta de video nueva AGP en una vieja placa madre AGP 1.0. La tarjeta de video trabajará
correctamente hasta que se instale el controlador. Una vez instalado el driver creara un conflicto. Las
variantes de direcciones que entran en conflicto varían dependiendo de los modelos. Este problema es
muy inusual y cuando sucede es raramente posible resolverlo. Exactamente la causa del problema
parece ser que la placa madre y la tarjeta de video son incompatibles, de cierta manera Windows evita
que asigne correctamente direcciones de memoria a la tarjeta de video. No hay forma de predecir si
habrá o no conflictos. También existe una cierta clase de incompatibilidad causada por un BIOS
anticuado de la placa madre y posiblemente el BIOS de la tarjeta de video. Una opción es intentar
actualizar el BIOS de la placa madre con un BIOS más reciente. Pero puesto que es una placa madre
vieja, el fabricante no tendrá muy probablemente todos los BIOS disponibles. Si se utiliza Windows
95, 98 o ME, puede ser posible asignar manualmente direcciones y conseguir solucionar el problema.
Pero no puede generalmente solucionar completamente el problema de todos modos. Si se usa
Windows 2000 o XP entonces es probablemente imposible solucionarlo porque las nuevas versiones
de Windows evitan casi siempre que se asignen manualmente direcciones de IRQ.
Hay algunas placas madre que no utilizan el conector correcto de AGP. Este modelo de AOpen
(AK79G) por ejemplo, soporta placas de video universal de 1.5V AGP 3.0 pero tiene un conector
universal de AGP que acepta placas de 3.3 voltios, es decir encaja sin problemas en el zócalo.
Afortunadamente, también tiene trazado un circuito que protege del daño cuando se inserta una tarjeta
de 3.3 volts AGP y enciende un LED para advertir que la tarjeta de video es una tarjeta de 3.3 volts.
Algunos fabricantes construyen la placa madre de esta manera como defensa contra las tarjetas de
video con las ranuras incorrectas del voltaje. No se puede dañar la placa madre o la tarjeta de video
aunque tenga las ranuras incorrectas del
voltaje con esta clase de diseño.
41
Manual de Armado y Reparación de PC.
usuarios deben tener cuidado sobre todo porque si los fabricantes no obedecieran la especificación
sería posible incurrir en una equivocación y adquirir la placa equivocada para el Motherboard.
Es una buena idea adquirir Hardware de los fabricantes reconocidos. Pero es bueno comprobar que
han utilizado el conector correcto de AGP.
La tabla de abajo muestra el tipo de placa madre de AGP usados normalmente con su chipset
específico. Esto es a modo de orientación para la compra de una placa madre. También recordemos
que aunque un chipset soporte AGP no significa que una placa madre tendrá siempre una ranura AGP.
Algunas placas madre (onboard) que usan chipsets con AGP dejan hacia fuera el conector de AGP
para abaratar costos.
Chipset de la placa
Clase de la placa base
base
ALi TXPro (Aladdin
ninguna ranura de AGP
IV)
ALi Aladdin V Placa madre AGP 3.3V
ALi MAGiK 1
Placa madre universal AGP
(M1647)
ALi M1649 Placa madre universal AGP
AMD 750 (751) Placa madre AGP 3.3V
AMD 760 (761) Placa madre universal AGP
Intel 440BX Placa madre AGP 3.3V
Intel 440EX Placa madre AGP 3.3V
Intel 440FX ninguna ranura de AGP
Intel 440GX Placa madre AGP 3.3V
Intel 440LX Placa madre AGP 3.3V
Intel 440ZX Placa madre AGP 3.3V
Intel 440ZX-66 Placa madre AGP 3.3V
Intel 450GX ninguna ranura de AGP
Intel 450KX ninguna ranura de AGP
Intel 450NX ninguna ranura de AGP
Intel 810 ninguna ranura de AGP
Intel 815 Placa madre universal AGP
Intel 820 Placa madre universal AGP
Intel 840 Placa madre universal AGP
Intel 845 Placa madre AGP 1.5V
Intel 848 Placa madre universal de 1.5V AGP 3.0
Intel 850 Placa madre AGP 1.5V
Intel 860 Placa madre AGP 1.5V
Intel 865 Placa madre universal de 1.5V AGP 3.0
Intel 875 Placa madre universal de 1.5V AGP 3.0
Intel 910 ninguna ranura de AGP
Intel 915 ninguna ranura de AGP: PCI-Express
42
Manual de Armado y Reparación de PC.
43
Manual de Armado y Reparación de PC.
(VT8361)
VÍA KM133
Placa base universal AGP
(VT8365)
VÍA KM266
Placa base universal AGP
(VT8375)
VÍA KM400
Placa madre universal 1.5V AGP 3.0
(VT8378)
VÍA KT133
Placa madre universal AGP
(VT8363)
VÍA KT266
Placa madre universal AGP
(VT8366)
VÍA KT333 Placa madre universal AGP (algunas
(VT8367) puestas en práctica es AGP 1.5V)
VÍA KT400
Placa madre universal 1.5V AGP 3.0
(VT8377)
VÍA KT600 Placa madre universal 1.5V AGP 3.0
VÍA KT880 Placa madre universal 1.5V AGP 3.0
VÍA KX133
Placa madre universal de AGP
(VT8371)
VÍA MVP3
Placa madre de AGP 3.3V
(VT82C598AT)
Placa madre universal de AGP
VÍA P4M266
(solamente la mayoría de las puestas en
(VT8751)
práctica es la placa madre AGP 1.5V)
VÍA P4X266
Placa madre universal AGP
(VT8753)
VÍA P4X266A
Placa madre universal AGP
(VT8752)
VÍA P4X333
Placa madre universal 1.5V AGP 3.0
(VT8754)
VÍA P4X400
Placa madre universal 1.5V AGP 3.0
(VT8754)
VÍA P4X533 Placa madre universal 1.5V AGP 3.0
VÍA PLE133
ninguna ranura AGP
(VT8601A)
VÍA PLE133T
ninguna ranura AGP
(VT8602)
VÍA PM133
Placa madre universal AGP
(VT8605)
VÍA PM800 Placa madre universal 1.5V AGP 3.0
VÍA PM880 Placa madre universal 1.5V AGP 3.0
VÍA Pro
Placa madre AGP 3.3V
(VT82C691)
VÍA Pro 133
Placa madre AGP 3.3V
(VT82C693A)
VÍA Pro 133A
Placa madre universal AGP
(VT82C694X)
44
Manual de Armado y Reparación de PC.
ATI Radeon
NVIDIA GE FORCE
La clave del AGP es la velocidad con la que se comunica con la memoria principal. Esto mejora
funciones 3D como el mapeado de texturas, que son almacenados en el frame buffer.
45
Manual de Armado y Reparación de PC.
PCI Express:
Introducción
PCI Express (denominado aún a veces por su nombre clave 3GIO, por "tercera generación de E/S") es
el sucesor de la tecnología PCI, disponible en las máquinas de escritorio desde 1992.
PCI Express está pensado para sustituir no sólo al bus PCI para dispositivos como Modems y tarjetas
de red sino también al bus AGP, lugar de conexión para la tarjeta gráfica desde 1997. Al contrario que
su predecesor paralelo, PCI Express es un sistema de interconexión serie punto a punto, capaz de
ofrecer transferencias con un altísimo ancho de banda, desde 200MB/seg. Para la implementación 1X,
hasta 4GB/seg. Para el PCI Express 16X que se empleará con las tarjetas gráficas.
La notación 1X y 16X se refiere al ancho del bus o número de líneas disponibles. La conexión en el
PCI Express es además, bidireccional lo que permite un ancho de banda teórico de hasta 8GB/seg.
Para un conector 16X, o unos asombrosos 16GB/seg. Para el actual máximo de 32X. PCI Express
también incluye características novedosas, tales como gestión de energía, conexión y desconexión en
46
Manual de Armado y Reparación de PC.
caliente de dispositivos (como USB), y la capacidad de manejar transferencias de datos punto a punto,
dirigidas todas desde un host. Esto último es importante porque permite a PCI Express emular un
entorno de red, enviando datos entre dos dispositivos compatibles sin necesidad de que éstos pasen
primero a través del chip host (un ejemplo sería la transferencia directa de datos desde una capturadora
de vídeo hasta la tarjeta gráfica, sin que éstos se almacenen temporalmente en la memoria principal).
PCI Express también optimiza el diseño de placas madre, pues su tecnología serie precisa tan sólo de
un único cable para los datos, frente a los 32 necesarios para el PCI clásico, el cual también necesitaba
que las longitudes de estos fuesen extremadamente precisas. La escalabilidad es otra característica
clave, pues se pretende que las versiones posteriores de PCI Express sustituyan cualquier característica
que PCI o, en el segmento de servidores, PCI-X, puedan ofrecer.
Dado que PCI Express es, a nivel físico un enlace chip a chip podría ser usado, en teoría, para sustituir
a la gran cantidad de tecnologías de interconexión actuales; sin embargo, está siendo orientado
únicamente hacia tareas muy específicas.
En el siguiente gráfico podemos apreciar una comparativa de las capacidades de los buses a lo largo
del tiempo:
Arquitectura
Un simple canal en PCI-Express ofrecerá inicialmente una velocidad de 2,5 Gbits/s en cada dirección.
Cada ruta emplea dos pares de hilos (transmisión y recepción), ofreciendo un rendimiento efectivo de
200MBytes/s en cada dirección una vez factorizamos las sobrecargas del protocolo. No obstante, sus
creadores afirman que tendrá una escalabilidad límite que permitirá hasta, al menos, 10Gbits/s en cada
ruta y por cada dirección.
La diferencia más obvia entre PCI-Express y su antecesor es que, mientras PCI emplea una
arquitectura en paralelo, su sucesor utiliza una arquitectura serie punto a punto o conmutada. Una
ventaja del bus Serie frente al Paralelo es el alto ancho de banda que se puede conseguir con un
número mucho menor de señales. Dichas conexiones no llegan a situaciones llamadas "delay skew",
donde los bits en paralelo llegan en distintos instantes de tiempo y han de ser sincronizados. Además,
son más baratas de implementar. Ciertamente, los interfaces paralelos pueden ser extremadamente
veloces y muy efectivos para algunos interfaces a nivel de chips, o en la tecnología SCSI por ejemplo.
Una simple conexión serie de PCI-Express consta de una conexión dual utilizando dos pares de
señales diferencialmente dirigidas y de baja tensión un par de recepción y otro de envío (cuatro
cables). Una señal diferencial se deriva usando la diferencia de potencial entre dos conductores.
La conexión dual permite que los datos sean transferidos en ambas direcciones simultáneamente,
similar a las conexiones full duplex (como en los teléfonos), solo que en este caso, cada par de hilos
posee su propia toma de tierra. Con el bus PCI un dispositivo debe requerir primero acceso al bus PCI
compartido desde un árbitro central y entonces tomar control del bus para transferir datos al
47
Manual de Armado y Reparación de PC.
dispositivo de destino, con la transmisión de datos ocurriendo en una dirección entre dos dispositivos
en cada instante de tiempo.
Un flujo de datos/reloj serie puede ser transferido sobre distancias mucho mayores que usando buses
paralelo con los relojes separados (los buses paralelo con los relojes síncronos pueden sufrir problemas
de recuperación y de ruidos en la señal). Además, los enlaces en serie son más baratos de implementar,
lo cual es un buen presagio para conectar dispositivos de Entrada/Salida internamente, y también para
conexiones largas externas. Sin embargo, extraer y crear los relojes de manera que vayan como hemos
expuesto conlleva una sobrecarga adicional de procesamiento, por tanto las interfaces paralelas
tienden más a ser usadas para unir procesadores de alta velocidad y componentes de chipset en un
sistema multiprocesador actual, ya que poseen una latencia menor.
Características de transmisión:
Transmisión diferencial
Al igual que otros buses del ordenador que han evolucionado a la transmisión serie (USB, Serial ATA)
utiliza la técnica LVDS (Low Voltage Differential
Signaling).
Transmisión bidireccional
Una conexión está compuesta de 2 canales, uno de ida y
otro de vuelta que transmiten simultáneamente (dos canales simplex).
Conexión múltiple
PCI Express puede utilizar varias conexiones para la misma comunicación dando lugar a
configuraciones llamadas x1, x2, x4, x8, x12, x16, x32. Las conexiones x16 y x32 están pensadas para
conectar dispositivos como tarjetas gráficas.
48
Manual de Armado y Reparación de PC.
Transmisión isócrona Es posible reservar y garantizar un ancho de banda bajo demanda consiguiendo
una transmisión en tiempo real. A esto se le conoce como transferencia isócrona, pues se puede
garantizar el tiempo que durará una transmisión de datos (i.e. tiempo real).
Distancia La inclusión de la señal de reloj permite mayores distancias respecto a los buses paralelo
cuya señal discurre por una línea separada. En el diseño de este bus se ha marcado como objetivo
permitir hasta 50 cm. de distancia entre dispositivos con tecnología de placa de circuito impreso de 4
capas y conectores estándar. Se podría aumentar la distancia usando componentes de mayor calidad.
Mantenimiento
Consumo energético
- Bajo consumo debido a las bajas tensiones de funcionamiento.
- Implementa funciones de ahorro de energía.
Ahorro de costes
La transmisión serie ahorra muchas líneas y por tanto patillas en los circuitos integrados, pistas en las
placas de circuito impreso, hilos en los cables permitiendo conectores más pequeños.
Aunque es evidente la incompatibilidad hardware, se mantiene una compatibilidad con PCI en las
capas software, lo que permite abaratar los costes en la implementación de los controladores de
dispositivo (drivers).
Conexión sustitución
- Conexión en caliente (hot-plug)
- Cambio en caliente (hot-swap)
Integridad de la señal
- Al disminuir el nº de pistas, permite tomar medidas contra las interferencias electromagnéticas
(EMI).
- La conexión serie tiene menos problemas con la propagación por la diferencia de longitud de las
pistas.
- La señal diferencial disminuye los problemas con el ruido.
Errores
- Gestión integrada de errores que incluye la posibilidad de generar informes.
Topología
49
Manual de Armado y Reparación de PC.
Ciertos puentes, como PCI-a-PCI Express también se pueden incorporar. El siguiente diagrama sobre
las Especificaciones del PCI Express 1.0 muestra una topología de ejemplo como la descrita. Se
puede observar como algunas arquitecturas de sistemas PC se asemejan a la arquitectura mostrada:
50
Manual de Armado y Reparación de PC.
En la siguiente tabla podemos ver el esquema de los pines genéricos de conexión (es decir, que
poseerán todos los slots de PCI-Express independientemente de la amplitud 1x, 2x, 4x, etc.) y que
serán ampliados conforme el bus crezca su ancho de banda.
Los paquetes en PCI-Express comprenden cuatro tipos básicos de transacción memoria, E/S,
configuración y mensajes. La siguiente imagen muestra una petición de paquete viajando del
Dispositivo B al Dispositivo A, y otra desde A hasta B. Esto podría ser desde una lectura de memoria,
una escritura, una lectura de E/S, una transacción de configuración, y cada una tiene una fase de
petición y otra de terminación.
Además, las transacciones en PCI Express usan un mecanismo de control basado en un flujo de
créditos (gestionado por la capa de abstracción de transacciones) para asegurar que el dispositivo de
destino posee unos recursos de buffer suficientes (disponibles) para aceptar el tamaño y tipo de datos
de la transferencia del dispositivo que envía.
Interrupciones:
PCI Express soporta dos tipos de interrupciones, las viejas interrupciones heredadas PCI INTx (donde
x= A, B, C, ó D) usando una técnica de emulación, y las nuevas Interrupciones Señalizadas por
Mensajes (MSI de "Message Signaled Interrupt"). MSI es opcional en los dispositivos PCI 2.2/2.3,
pero se requiere en los nuevos modelos de dispositivos PCI Express devices.
La emulación de INTx puede señalizar interrupciones al chipset host. Es compatible con los drivers
PCI y con el software de los sistemas operativos. Virtualiza las señales de interrupción físicas de PCI
usando un mecanismo de señalización por banda. Los dispositivos PCI Express deben soportar tanto
las anteriores INTx como los modos MSI y los dispositivos heredados encapsularán la información de
51
Manual de Armado y Reparación de PC.
las interrupciones INTx dentro de una transacción de mensajes de PCI-Express (uno de los tipos de
transacciones que vimos un poco más arriba).
Las interrupciones MSI son activas por flanco y enviadas por medio de transacciones de escritura de
memoria. El Driver sobrescribirá lo que sea necesario para obtener las ventajas del uso de las
interrupciones por flanco MSI. El esquema MSI es el método originalmente deseado de propagación
de interrupciones cuando se usa un protocolo de paquetes sobre un enlace serie. MSI es más efectivo
en sistemas multiprocesador ya que cualquier dispositivo puede editar interrupciones a los distintos
host directamente. Muchos procesadores y arquitecturas de sistemas de E/S han previsto la posibilidad
del uso de técnicas de MSI.
Con tantas características nuevas y ancho de banda para derrochar, PCI Express es un gran salto sobre
PCI y AGP. Sin embargo, mantiene compatibilidad con el software PCI, al mantener los modelos de
inicialización y memoria, lo que significa que los drivers y sistemas operativos no tendrán muchos
problemas a la hora de soportar el nuevo sistema.
En el mundo del procesamiento gráfico, PCI-Express vuelve a cobrar protagonismo, y es que un bus
con tantas expectativas despierta gran ilusión entre los fabricantes de tarjetas gráficas, como NVIDIA
y ATI por ejemplo.
Algunos de los más beneficiados por el avance de PCI Express serán los ya mencionados ATI y
NVIDIA, así como otros fabricantes de tarjetas gráficas. Dado que el conector PCI Express NO será
compatible con las tarjetas AGP actuales, habrá que adaptar las tarjetas al bus, en caso de que se desee
un cambio de placa o bien de tarjeta.
Por supuesto, los fabricantes de sistemas gráficos no solo aprecian las ventajas fiscales del PCI
Express, sino también sus mejoras técnicas, que incluyen no solo el mayor ancho de banda, sino
también una mayor potencia eléctrica disponible. El actual AGP 8x (o también AGP 3.0) ha forzado
los límites en cuanto a rendimiento, y ya se ha visto que ha llegado el momento del cambio. PCI
Express aliviará bastantes de los problemas de temporización del AGP actual, y casi triplicará la
potencia eléctrica máxima disponible para la tarjeta, lo que lo situará por encima de AGP y de una
gran cantidad de buses, entre ellos el clásico PCI.
Una señal más clara y mayor potencia eléctrica puede suponer una mejora significativa, especialmente
en la gama alta de procesamiento de gráficos. Un bonito efecto colateral es que PCI Express hará
sencilla la instalación de múltiples tarjetas gráficas de gama alta en el mismo equipo, cosa que,
actualmente no es tan fácil. No obstante, antes los fabricantes deberán solucionar muchos otros
problemas, como el sobrecalentamiento y los mecanismos para evacuar ese calor (los enormes
ventiladores de hoy en día), ya que si con PCI-Express se persigue una posible reducción en las
dimensiones de la placa base, también estaremos reduciendo en cierto modo el espacio interno para la
instalación de dispositivos y favoreciendo la acumulación de focos de calor.
52
Manual de Armado y Reparación de PC.
Vista Lateral
Puente SLI
53
Manual de Armado y Reparación de PC.
54
Manual de Armado y Reparación de PC.
Comparación de Conectores:
Vista Superior:
55
Manual de Armado y Reparación de PC.
Socket de CPU:
Es una matriz de pequeños agujeros (zócalo) colocada en una placa base (motherboard) donde
encajan, sin dificultad los pines de un microprocesador; dicha matriz denominada Pin grid array o
simplemente PGA, permite la conexión entre el microprocesador y dicha placa base. En los primeros
ordenadores personales, el microprocesador venía directamente soldado a la placa base, pero la
aparición de una amplia gama de microprocesadores llevó a la creación del Socket, permitiendo el
intercambio de microprocesadores en la misma placa.
Lista de sockets
Existen muchos tipos de sockets, usados por diferentes CPUs, listado hasta la fecha por orden de
antigüedad.
56
Manual de Armado y Reparación de PC.
Los primeros Zócalos, no tenían ningún mecanismo que permitiera la fácil instalación del
Microprocesador, la tarea de colocarlo en el zócalo era fácil pero riesgosa a la vez, cualquier error
producía el quiebre de los pines. Con la introducción del ZIF (del inglés Zero Insertion Force) en el
mercado, se conecta un microprocesador con un mecanismo que permite una fuerza de inserción nula,
es decir la parte superior del Socket se desliza y permite una fácil colocación sin riesgo alguno,
gracias a un sistema mecánico es posible introducir el microprocesador sin necesidad de fuerza alguna
evitando así el riesgo de ruptura de una de sus pines de contacto.
Sockets de 4ª generación:
Nombre: Socket 1
Pines: 169 LIF y 169 ZIF
Voltajes: 5 V
Bus: 16, 20, 25, 33 MHz
Multiplicadores: 1x - 3x
Micros soportados:
486SX (16~33 MHz)
486SX2 (50~66 MHz)
486SX OverDrive (P 25~33 MHz)
486SX2 OverDrive (P 50 MHz)
486DX (20~33 MHz)
486DX2 (50~66 MHz)
486DX4 (75~120 MHz, con adaptador)
486DX OverDrive (P 25~33 MHz)
486DX2 OverDrive (P 50~66 MHz)
486DX4 OverDrive (P 75~100 MHz)
486DX2 OverDrive (PR 50~66 MHz)
486DX4 OverDrive (PR 75~100 MHz)
Am5x86 (133 MHz, con adaptador)
Cx486
Cx486S
Nombre: Socket 2
Pines: 238 LIF y 238 ZIF
Voltajes: 5 V
Bus: 25, 33, 40, 50 MHz
Multiplicadores: 1x - 3x
Micros soportados:
486SX (25~33 MHz)
486SX2 (50~66 MHz)
486SX OverDrive (P 25~33 MHz)
486SX2 OverDrive (P 50 MHz)
57
Manual de Armado y Reparación de PC.
Socket 1 y 2: Para los primeros Microprocesadores 386 y 486. (Como se ve en la imagen no tiene
tecnología ZIF)
Nombre: Socket 3
Pines: 237 LIF y 237 ZIF
Voltajes: 3.3 / 5 V
Bus: 25, 33, 40, 50 MHz
Multiplicadores: 1x - 3x
Micros soportados:
486SX (25~33 MHz)
486SX2 (50~66 MHz)
486SX OverDrive (P 25~33 MHz)
486SX2 OverDrive (P 50 MHz)
486DX (25~50 MHz)
486DX2 (50~80 MHz)
486DX4 (75~120 MHz)
486DX OverDrive (P 25~33 MHz)
486DX2 OverDrive (P 50~66 MHz)
486DX4 OverDrive (P 75~100 MHz)
486DX2 OverDrive (PR 50~66 MHz)
486DX4 OverDrive (PR 75~100 MHz)
Pentium OverDRive (P 63~83 MHz)
Am5x86 (133 MHz)
Cx486
Cx486S
Cx5x86 (100~120 MHz)
Sockets de 5ª generación
Socket 7: Permitían la inserción de una amplia gama de procesadores, ya que permaneció en activo
durante mucho tiempo. Este Socket era válido para instalar procesadores de Intel tipo Pentium,
Pentium MMX, procesadores de AMD tipo K6, K6-2, etc., entre otros muchos.
Nombre: Socket 7
Pines: 296 LIF y 321 ZIF
Voltajes: Split, STD, VR, VRE, VRT (2.5 - 3.3 V)
Bus: 40, 50, 55, 60, 62, 66, 68, 75, 83, 90, 95, 100, 102, 112, 124
Multiplicadores: 1.5x - 6.0x
Micros soportados:
Pentium P45C (75~200 MHz)
Pentium MMX P55C (166~266 MHz)
Pentium OverDrive (P125~166 MHz)
AMD K5 (75~200 MHz)
K6 (166~300 MHz)
K6-2 (266~570 MHz)
K6-2+ (450~550 MHz)
K6-III (400~450 MHz)
K6-III+ (450~500 MHz)
Cyrix 6x86 PR90+ a PR200+
Cyrix 6x86L PR120+ a PR200+
Cyrix 6x86MX (PR166+ a PR133+)
Cyrix MII (233~433 MHZ)
Rise mP6 (166~266 MHz)
Winchip (150~240 MHz)
Winchip2 (200~240 MHz)
Winchip2A/B (200~300 MHz)
Notas: A las versiones superiores a 100 MHz de FSB se les llamó "Socket Super 7"
58
Manual de Armado y Reparación de PC.
Socket 8: Socket válido para el micro de Intel "Pentium Pro", muy famoso a pesar de su antigüedad ya
que fue el primero que implementaba la caché dentro del encapsulado del micro y permitía la
comunicación a la misma velocidad.
Sockets de 6ª generación:
Sockets de 7ª generación:
59
Manual de Armado y Reparación de PC.
Notas: Similares en soporte de micros al Socket 423, pero visiblemente mucho más pequeño
Socket 462 ó Socket A: Conector diseñado para la inserción de procesadores Athlon de AMD.
Socket 423 y 478: Ambos sockets corresponden al Pentium 4, sin embargo el segundo de ellos es el
más moderno y admite frecuencias superiores a los 2 Ghz. También para los Celeron más recientes.
Sockets de 8ª generación:
60
Manual de Armado y Reparación de PC.
Nombre: Socket M2
Pines: 638 ZIF
Voltajes: VID VRM
Bus: 200x4 MHz
Multiplicadores: 11.0x - 15.0x Micros soportados:
Opteron 1xx
Notas: los núcleos Presler, Allendale y Conroe son dobles (doble core).
61
Manual de Armado y Reparación de PC.
Notas: los núcleos X2 Manchester, Toledo y Denmark son dobles (doble core).
Siglas:
El Slot 1 introdujo un cambio respecto a los anteriores sockets: mientras que los Pentium y anteriores
usaban un Socket ZIF PGA/SPGA, que es cuadrado, el Slot 1 está montado en un cartucho conector
de un solo lado (SECC), que es alargado. El procesador es
como una tarjeta PCI, pero con una conexión de 242 pines
a la placa base.
62
Manual de Armado y Reparación de PC.
lado del zócalo Slot 1. Este sistema no es tan cómodo como los de otros sockets, y a veces hay que
forzar estas piezas para colocar o quitar un procesador.
Slot A: En este conector iban instalados los antiguos procesadores Athlon de AMD.
Slot 1: A este conector le corresponden los procesadores Intel Pentium II y también los procesadores
más antiguos Pentium III.
Slot 2: Este conector es más conocido a nivel de servidores de red, donde iba instalado el procesador
Xeon.
Los 3 tipos de Slot son muy similares y pueden englobarse dentro de la siguiente imagen:
donde se aprecian también los orificios donde se instalaba un soporte para el microprocesador, el cual
era tan alto y voluminoso que necesitaba sujeción extra:
Básicamente el slot fue un desarrollo de Intel (Slot 1) por llevar mas arriba la velocidad de sus
Microprocesadores, los cuales en formato Socket estaban teniendo problemas. Con esta ingeniosa idea
Intel se reacomodo nuevamente al tope del desarrollo de Procesadores y salio al mercado el Pentium
II, III y Celeron, dejando atrás a su mas fuerte competidor AMD que se mantuvo con su formato en
Socket pero luego también adopto el Slot, pero lo denomino Slot A, no son compatibles entre si.
63
Manual de Armado y Reparación de PC.
64
Manual de Armado y Reparación de PC.
Conector Floppy:
Es el encargado de controlar el dispositivo Floppy. Su trabajo consiste en aceptar solicitudes del
software y de los dispositivos y observar que se cumplan dichas solicitudes. Un ejemplo es la lectura
de un byte en este dispositivo que es de un bloque de datos en un lugar determinado del disquete.
Motherboard
Cuatro
Conectores SATA
Dos Conectores
IDE
Conector FDC o
Floppy
Corte
65
Manual de Armado y Reparación de PC.
Conectores IDE:
IDE son las siglas de Integrated Drive Electronics, o ATA (Advanced Technology Attachment)
controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI
(Advanced Technology Attachment Packet Interface) añade además dispositivos como, las unidades
CD-ROM.
Se define por primera vez en el año 1988 utilizando el obsoleto modo PIO (Programmed Input Output,
Entrada y salida programada) para transmitir datos.
Paralell ATA
o ATA.
o ATA2. Soporta transferencias rápidas en bloque y multiword DMA.
o ATA3. Es el ATA2 revisado.
o ATA4. conocido como Ultra-DMA o ATA-33 que soporta transferencias en 33 MBps.
o ATA5 o ATA/66. Originalmente propuesta por Quantum para transferencias en 66 MBps.
o ATA6 o ATA/100. Soporte para velocidades de 100MBps.
o ATA/133. Soporte para velocidades de 133MBps.
Serial ATA. Remodelación de ATA con nuevos conectores (alimentación y datos), cables y tensión de
alimentación. Mas abajo detallaremos.
66
Manual de Armado y Reparación de PC.
del Bus Mastering en SCSI con lo que se reduce la carga de la CPU y aumenta la velocidad y el Serial
ATA permite que cada disco duro trabaje sin interferir a los demás.
De todos modos aunque SCSI es superior se empieza a considerar la alternativa S-ATA para sistemas
informáticos de gama alta ya que su rendimiento no es mucho menor y su diferencia de precio sí
resulta más ventajosa.
Conector IDE 1
Dos Dispositivos
conectados.
No olvidemos que antes de conectar dos dispositivos por cable (IDE 1 o IDE 2) cuatro en total, debe
configurarse El Hardware Master y el Slave para que no choquen los datos en el cable.
Cada Disco Rígido y discos CD-ROM, tienen en su parte posterior Jumpers de configuración, con su
tabla de seteo correspondiente ya que varían de acuerdo a cada fabricante.
A) CD-ROM
B) DVD
C) Disco Rígido
D) Cables de Datos de 80 Hilos.
E) IDE 1 (Primaria)
F) IDE 2 (Secundaria)
67
Manual de Armado y Reparación de PC.
Las diferentes denominaciones que utilizamos para referirnos a él. Este interfaz es popularmente
conocido como IDE pero su nombre oficial es ATA (AT Attachment, Conexión AT). Los dispositivos
que utilizan este interfaz se llaman IDE (siglas de "Integrated Drive Electronics", Dispositivo con
Electrónica Integrada) como los discos duros IDE, grabadoras de CD y DVD IDE, lectores de CD y
DVD IDE, etc. Pero, como he comentado, lo normal hoy en día es referirnos tanto al interfaz como a
las unidades que lo utilizan bajo la denominación IDE, en lugar de llamar al interfaz ATA o EIDE y a
los dispositivos que lo utilizan unidades IDE. La confusión no queda solo aquí, mas adelante aclararé
otros términos para que cuando te hablen de este interfaz con mil denominaciones diferentes sepas en
cada caso a que se refieren exactamente.
Las distintas versiones y mejoras que ha ido experimentando este interfaz son las siguientes:
ATA o ATA-1, en su primera versión su velocidad máxima era de 8,3 Mbytes/segundo. Solo
Permitía la conexión de discos duros y un máximo de dos.
ATA-2 y ATA-3, supusieron varias mejoras en el interfaz pero no llegaron a
popularizarse. Para no complicar el apunte no entramos en detalle en estas dos mejoras.
EIDE, Enhanced IDE (IDE mejorado) es una evolución del estándar ATA creada por Western
Digital al que se le incorporó ATA-2, ATAPI y un doble bus para conectar cuatro dispositivos
(discos duros, lectores CD-ROM, etc.). Con la incorporación de ATA-2 se aumentó la
velocidad a 16,6 Mbytes/segundo. Con la incorporación de ATAPI (ATA Packet Interface) se
permitió la conexión de otros dispositivos distintos a los discos duros (lectores CD-ROM,
grabadoras, etc.). ATAPI es un protocolo de comunicaciones necesario para que estos
dispositivos puedan utilizar el interfaz ATA y comunicarse con el resto del sistema. Por esta
mejora del interfaz hay quien le pasó a denominar interfaz IDE/EIDE.
ATA-4 (desde esta versión el interfaz pasó a denominarse ATA/ATAPI y por ello esta
especificación también es conocida como ATA/ATAPI 4), supuso la introducción de la
tecnología Ultra DMA (siglas de Ultra Direct Memory Access, Ultra Acceso Directo a
Memoria) en el Interface ATA. Gracias a esta tecnología el periférico (Disco Duro,
Grabadora, Lector, etc.) se comunica directamente con la memoria principal del ordenador
liberando de trabajo al procesador y mejorando el rendimiento del periférico al trabajar
directamente con la memoria del sistema sin esperar a que las peticiones de lectura y escritura
sean atendidas. Se introdujeron los modos de Ultra DMA 0 (16,7 Mbytes/segundo), Ultra
DMA 1 (25 Mbytes/segundo) y Ultra DMA 2 (33 Mbytes/segundo). Además se pasó a un
cable mas ancho, de 80 conectores, que es el que empleamos hoy en día. (También es
conocido como ATA33, Ultra ATA33, Ultra DMA 33, UDMA/33).
ATA-5 (también conocido como ATA/ATAPI-5), se introdujo los modos Ultra DMA 3
(44 Mbytes/segundo) y Ultra DMA 4 (66 Mbytes/segundo). (También es conocido como
ATA66, Ultra ATA66, Ultra DMA 66, UDMA/66).
68
Manual de Armado y Reparación de PC.
Estas son las conexiones ATA mas empleadas hoy en día (independientemente de la especificación se
les sigue llamando interfaz IDE, y para diferenciar entre los diferentes ATA se especifica IDE Ultra
DMA 66 para ATA-5 o IDE Ultra DMA 133 para ATA-7, mira en la relación superior de los
diferentes nombres para no confundirte con las distintas denominaciones).
El tamaño teórico máximo del cable es de 45 cm. y se pueden conectar dos dispositivos (teniendo que
configurar uno como maestro y otro como esclavo). No se pueden conectar los dispositivos con el
ordenador en funcionamiento y transmite la información en paralelo.
Los métodos más utilizados (no son los únicos) para transferir datos por el interfaz IDE (ATA/ATAPI)
y sus tasas máximas de transferencia son los siguientes:
69
Manual de Armado y Reparación de PC.
Con el formato antiguo, es cierto que a nivel físico está más cercano de lo que sería un puerto Firewire
o un USB, aunque únicamente disponible para la conexión de unidades internas.
Ventajas que nos reporta este nuevo sistema? En cuanto a velocidad hay ventajas, ya que la nueva
interfaz comienza trabajando a 150Mbytes/seg. (133 como máximo en ATA), sin embargo la máxima
mejora respecto al sistema anterior (en mi opinión) es el tipo de cableado que se utiliza, mucho más
fino y aerodinámico que el anterior , lo que permite que estos cables, al ser muchísimo más finos,
faciliten el flujo de aire dentro de la caja, reduciendo el calentamiento de nuestro equipo. Otra de las
mejoras de este tipo de cableado es que permite hasta 1 metro de longitud (medio metro en ATA).
Respecto al cable de alimentación también es diferente al de los discos ATA originales, y las tensiones
de trabajo son menores, además no es necesaria la configuración “Master/Slave” tradicional. En los
dibujos de abajo se puede ver la diferencia en las conexiones, disco tradicional ATA a la izquierda y
un Serial ATA a la derecha.
Se diferencia del P-ATA en que los conectores de datos y alimentación son diferentes y el cable es un
cable (7 hilos) no una cinta (40 hilos), con lo que se mejora la ventilación. Para asegurar la
compatibilidad, hay fabricantes que colocan los conectores de alimentación para P-ATA y S-ATA en
las unidades que fabrican.
70
Manual de Armado y Reparación de PC.
Los discos duros se conectan punto a punto, un disco duro a cada conector de la placa, a diferencia de
P-ATA en el que se conectan dos discos a cada conector IDE.
La razón por la que el cable es serie es que, al tener menos hilos, produce menos interferencias que si
utilizase un sistema paralelo, lo que permite aumentar las frecuencias de funcionamiento con mucha
mayor facilidad.
Este nuevo estándar es compatible con el sistema IDE actual. Como su nombre indica (Serial ATA) es
una conexión tipo serie como USB o Firewire. La primera versión ofrece velocidades de hasta
150MB/s, con la segunda generación (SATA 0.3Gb/s) permitiendo 300MB/s. Se espera que alcance los
600MB/s alrededor de 2007.
SATA (Serial-ATA) mezcla las tecnologías de señal serie con los discos
ATA. Esto es importante debido a que soluciona un número importante de
problemas que afectan al uso de almacenamiento ATA en sistemas realmente
grandes, o cuando las necesidades de almacenamiento son muy altas. El cable es estrecho y flexible
por lo que no afecta a los sistemas de ventilación pudiendo llegar hasta el tamaño de 1 metro por lo
que los discos pueden ya estar alojados fuera del servidor.
Este cable usa tecnología de señal de bajo-voltaje (low-voltage) lo cual permite un mayor ancho de
banda sin usar componentes caros y adicionales. Esta tecnología también elimina el requerimiento de
tener que usar +5V en las actuales fuentes de alimentación cuyo único sentido era proporcionar este
voltaje a los discos.
Además, podemos añadir a lo beneficios anteriores que SATA tiene la característica de evitar
autobloqueos; en primer lugar, la conexión entre el disco y el controlador es una conexión punto a
punto en lugar de una conexión bus. Para cada disco existe un único cable dedicado que lo conecta al
controlador. Esto va a cambiar la manera de configurar y desarrollar
debido a que una topología de conexión punto a punto permite el uso de
controladores que pueden extraer mucho más rendimiento a los discos
ATA. ¿Por qué? Pues precisamente porque este tipo de arquitectura
permite acceso concurrente a todos los discos, lo cual no es posible en una
arquitectura de bus.
71
Manual de Armado y Reparación de PC.
La idea es que los dispositivos ATA de cualquier tipo (serie o paralelo) compartan un juego común de
órdenes, y organizar la conexión de estos dispositivos en una estructura donde existen direcciones,
dominios y dispositivos concretos. Una organización que recuerda vagamente la de Internet en la que
está inspirada (un dominio ATA contiene un controlador host SATA y un dispositivo).
Capa física
Cada puerto, multiplicador, dispositivo o adaptador SATA o SAS ("Serial Attached SCSI") tiene un
número de puerto único de 64 bits. Una especie de MAC o código de barras del producto con un
código NAA de 4 bits; un código de fabricante de 24 bits asignado por la autoridad normativa, y un
código de dispositivo a disposición de cada fabricante de 36 bits.
Topología
SATA es una arquitectura en estrella. Es decir, la conexión entre puerto y dispositivo es directa. Por
consiguiente, no es un bus en el que coexistan distintos clientes ni concentradores ("Hubs"). Cada
dispositivo disfruta la totalidad del ancho de banda de la conexión sin que exista la sobrecarga
inherente a los mecanismos arbitraje y detección de colisiones.
Además de la tarea de serializar / paralelizar los datos, una parte importante del trabajo del
controlador está relacionada con los protocolos de conexión y desconexión con el periférico,
que son bastante sofisticados en este tipo de interfaz, ya que está prevista la capacidad de
conexión en caliente ("Hot plug"). El protocolo de conexión es capaz de identificar el tipo de
dispositivo conectado; detectar si funciona correctamente; negociar la velocidad de la
conexión, Etc. La interfaz Serial ATA guarda ciertas similitudes con la interfaz USB, aunque
es mucho más rápida que aquella, y los dispositivos SATA no se alimentan del propio bus.
La tabla adjunta muestra un resumen comparativo con las características de las conexiones
más frecuentes.
8 40 45 80 150 300
Velocidad típica MB/s
Longitud máx. cable m. 6.0 4.5 6.0 4.5 1.0 2.0
72
Manual de Armado y Reparación de PC.
Cables
Conexiones
Los dispositivos SATA tienen dos tipos de cables de conexión, de señal y de fuerza. La forma
concreta depende de la posición relativa del dispositivo respecto al controlador host. A este respecto
caben tres posibilidades:
73
Manual de Armado y Reparación de PC.
segment"). La zona de señal tiene 7 contactos (S1-S7), que corresponden con otros tantos
conductores, de los cuales tres son de tierra, quedando 2 pares para datos.
Nomenclatura:
HT+, HT-. Par de señales diferenciales de transmisión del lado del host ("Host Transmitter").
HR+, HR- Ídem de recepción ("Host Receiver").
DT+ y DT- par de señales diferenciales de transmisión del lado del dispositivo ("Device Transmitter").
DR+, DR-. Ídem de recepción ("Device Receiver").
G. Tierra ("Ground").
Pin Designación
S1 G.
S2 HT+ / DR+
S3 HT- / DR-
S4 G.
S5 HR+ / DT+
S6 HR- / DT-
S7 G.
Como es de esperar, las señales de transmisión del adaptador host se corresponden con las de
recepción del dispositivo y viceversa.
Por su parte, el segmento de fuerza tiene 15 contactos (P1-P15) repartidos en 5 zonas de tres
conductores cada una según se
muestra en la tabla 3. El grupo 1 es de
3.3 V. El grupo 3 es de 5.0 V. y el
grupo 5, de 12.0 V. Los grupos
intermedios (2 y 4) son conexiones
auxiliares de tierra.
Nomenclatura:
74
Manual de Armado y Reparación de PC.
G. Tierra ("Ground").
V33 Alimentación de 3.3 V.
V33pc Ídem pre-carga de 5.0 V.
V5 Alimentación de 5.0 V.
V5pc Ídem pre-carga de 5.0 V.
V12 Alimentación de 12.0 V.
V12pc Ídem pre-carga de 12.0 V.
Pin Designación
P1 V33
P2 V33
P3 V33pc
P4 G.
P5 G.
P6 G.
P7 V5pc.
P8 V5
P9 V5
P10 G.
P11 Reservado [9]
P12 G.
P13 V12pc
P14 V12
P15 V12
Puede observarse que los conductores de alimentación de 3.3, 5.0 y 12.0 V están duplicados. Para
cada tensión existen dos contactos; uno de alimentación normal. El otro, denominado de precarga,
debe suministrar la energía para la carga inicial del circuito controlador E/S correspondiente. Cada
fuente de alimentación debe proporcionar las intensidades indicadas en la tabla.
Como se indicó anteriormente, 0tra característica de los dispositivos SATA (relacionada con lo
indicado en el párrafo anterior) es su capacidad de conexión en caliente. Para mitigar la aparición de
transitorios y facilitar los protocolos de inicio, las lengüetas de algunos contactos son de mayor
longitud que el resto. De forma que, en los procesos de conexión, estos pines se conectan antes que los
demás. Paralelamente, en los procesos de desconexión, los pines más largos son los últimos en perder
el contacto. Las distintas longitudes de contactos del lado del controlador y del dispositivo permiten
que el proceso de conexión se realice en tres fases:
75
Manual de Armado y Reparación de PC.
1. Se conectan las tierras P4 y P12 que son los contactos más largos del zócalo. Se equilibran
potenciales y se neutralizan las posibles descargas de estática.
2. Se conectan las tierras restantes P5, P6 y P10, y las tensiones de precarga P3, P7 y P13. Los
circuitos de control están listos para funcionar.
3. Finalmente se conectan las señales de fuerza P1, P2, P8, P9, P14 y P15. El Pin reservado P11,
y los pines del conector de señal.
Es destacable que el estándar utiliza distinto tipo de conectores para las conexiones externas e internas.
Por ejemplo, los conectores de la figura 4 situados al exterior, son distintos de los que quedarían en la
parte interior del chasis. Los conectores internos son conocidos como tipo L en razón de su perfil,
mientras que los externos tienen una carcasa metálica conectada a tierra para protegerlos de las
interferencias EM y adoptan la forma indicada en la figura.
También es digno de mención que para facilitar la transición, algunos dispositivos SATA disponen de
un conector de fuerza duplicado, de forma que pueden usar el conector de fuerza SATA o el P4 de
alimentación tradicional.
La figura muestra la disposición de contactos en dos dispositivos SATA de 2.5" y 3.5" de factor de
forma (son los formatos de disco de equipos portátiles y de sobremesa respectivamente). La figura
muestra la disposición habitual de contactos en un dispositivo IDE/ATA equivalente.
Los dispositivos SATA se han diseñado para ser conectados directamente en estrella. Sin que exista
ningún tipo de encadenamiento ("Daisy chaining") ni "Jumpers" o interruptores de configuración (que
se realiza por software). Quiero recalcarlo porque el otro día (Junio 2005), me acerqué a mi proveedor
habitual para adquirir una unidad SATA 3.5" de 300 GB, que pienso utilizar como reserva y "Back-
76
Manual de Armado y Reparación de PC.
up" de los equipos en que trabajo habitualmente. Además de los conectores habituales, que podéis ver
en la figura 7 (sin el P4 de toma de fuerza), esta unidad Barracuda de Seagate presenta otro pequeño
conector auxiliar con de 4 pines. Ante mi extrañeza al examinarlo, el vendedor me aseguró muy serio
que, a pesar de ser Serial ATA, estos contactos se utilizaban para conectar la unidad como
primaria/secundaria al estilo ATA/IDE.
Me pareció muy extraño y en contra de lo que se sabía al respecto, pero de todas formas, necesitaba
una toma auxiliar de fuerza para alimentar un pequeño ventilador de refrigeración del "Housing"
donde pretendía instalar la unidad, y pensaba que quizás se trataba de esto. La respuesta al misterio es
que se trata de pines "Factory use only", que no deben ser tocados en absoluto.
Capa de órdenes
Los comandos de la arquitectura ATA tradicional se ejecutan en el modo denominado TCQ ("Tagged
Command Queuing"); caracterizado porque los dispositivos ejecutan los comandos en el mismo orden
en que se reciben del controlador. No obstante, se sabe de antiguo que esta forma no es la más
eficiente y que es posible reordenar los comandos para conseguir un mejor rendimiento. La
reordenación tiene por objeto reducir al mínimo el movimiento de las cabezas de lectura/escritura.
Movimientos que son los principales responsables del retardo en los proceso de E/S a disco.
La primera versión del estándar SATA no incluía estas características, aunque la tecnología SCSI
llevaba más de una década utilizándola, lo que en parte era motivo de las superiores prestaciones de
estos dispositivos respecto de los IDE/ATA tradicionales. Finalmente, el grupo de trabajo del estándar
SATA II decidió incluir esta característica en la nueva especificación. El sistema es conocido como
NCQ ("Native Command Queing") y permite que un dispositivo SATA (disco) reciba un conjunto de
órdenes y las reordene para conseguir el máximo rendimiento.
Multiplicadores de puerto
Los multiplicadores de puerto son dispositivos hardware que permiten conectar varios dispositivos a
un puerto SATA, saltando así la limitación 1 puerto = 1 dispositivo impuesta por la topología estrella.
Presentados por primera vez en Febrero de 2003, permiten conectar hasta 16 dispositivos en cada
puerto del adaptador host.
El multiplicador es transparente para los controladores y los propios dispositivos, que no tienen noción
de que están utilizando un único puerto en la controladora.
77
Manual de Armado y Reparación de PC.
Selectores de puerto
Son dispositivos hardware que permiten conectar dos adaptadores host SATA a un dispositivo físico
(disco) o sistema de ellos. Solo uno de los adaptadores está activo en cada momento, efectuándose la
selección por software.
Evolución
Estándar Comentario
SATA I En Agosto de 2001 se publica la versión 1.0 del estándar. Aparece el primer
producto comercialmente disponible que actúa de puente entre el bus paralelo PCI
y un dispositivo serie ATA.
La primera versión del estándar estaba pensada exclusivamente para uso interno
(dentro del PC). Los cables podían tener un máximo de 1 m. y no se establecieron
especificaciones para cables o conectores externos. Además la norma está
orientada exclusivamente a dispositivos de almacenamiento. Por tanto quedan
excluidas cámaras, escáneres, impresoras, Etc.
SATA II En 2002 se anuncian los primeros controladores host SATA de 4 y 8 puertos
disponibles comercialmente. En Octubre de este año se publica la versión II del
estándar SATA. También aparecen dispositivos auxiliares, como los
multiplicadores y selectores de puerto. Entre otras mejoras incluye encolado de
comandos NCQ.
En Agosto de 2003 se anuncian los primeros controladores host SATA-II
disponibles comercialmente, con una velocidad de transferencia de 3 Gbit/s. En
esta fecha los controladores host funcionan a 1.5 y 3 Gbits/s.
78
Manual de Armado y Reparación de PC.
Cable y conector
El cable se compone de dos pares apantallados a los que se suministra una impedancia de 100 Ohmios.
Memoria ROMBIOS:
La BIOS (Basic Input Output System, Sistema de entrada/salida básico) es una memoria ROM,
EEPROM o FLASH-Ram la cual contiene las rutinas de más bajo nivel programas básicos de control)
79
Manual de Armado y Reparación de PC.
que hace posible que el ordenador pueda arrancar, controlando el teclado, el disco y la disquetera
permite pasar el control al sistema operativo.
Además, la BIOS se apoya en otra memoria, la CMOS (llamada así porque suele estar hecha con esta
tecnología Complementary Metal Oxide Semiconductor), que almacena todos los datos propios de la
configuración del ordenador, como pueden ser los discos duros que tenemos instalados, número de
cabezas, cilindros, número y tipo de disqueteras, la fecha, hora, etc., así como otros parámetros
necesarios para el correcto funcionamiento del ordenador.
Además, la BIOS contiene el programa de configuración, es decir, los menús y pantallas que aparecen
cuando accedemos a los parámetros del sistema, pulsando una secuencia de teclas durante el proceso
de inicialización de la máquina.
En el inicio la RomBios estaba armada en un encapsulado DIPP y ese modelo duro mucho tiempo
llamados EPROM y EEPROM, actualmente están siendo reemplazados por el encapsulado PLC.
Programas Internos:
POST: Significa Power On Self Test, Test en el encendido de la PC. Es un proceso de verificación e
inicialización de los componentes de entrada y salida en un sistema que se encarga de configurar y
diagnosticar el estado del hardware, puntualmente lo denominamos Hardware Básico (Teclado,
Microprocesador, Memorias RAM, video y el correcto funcionamiento del Motherboard) Si estos
componentes funcionan correctamente emite un BEEP por el speaker, si alguno funciona mal emite
mas sonidos, de los cuales existe una tabla de códigos por fabricantes.
TABLAS POST:
80
Manual de Armado y Reparación de PC.
IBM BIOS
TONES ERROR
Error Tone. (two sets of different tones) Problem with logic board or SCSI bus.
Startup tone, drive spins, no video Problem with video controller.
Powers on, no tone. Logic board problem.
High Tone, four higher tones. Problem with SIMM.
81
Manual de Armado y Reparación de PC.
82
Manual de Armado y Reparación de PC.
83
Manual de Armado y Reparación de PC.
BIOS:
En los primeros sistemas operativos para PC (como el DOS), el BIOS todavía permanecía activo tras
el arranque y funcionamiento del sistema operativo. El acceso a dispositivos como la disquetera y el
disco duro se hacían a través del BIOS. Sin embargo, los sistemas operativos SO más modernos
realizan estas tareas por sí mismos, sin necesidad de llamadas a las rutinas del BIOS.
SETUP:
El "SETUP". Se llama así al programa que nos permite acceder a los datos de la CMOS y que por eso
también se suele denominar CMOS-SETUP. Este programa suele activarse al pulsar cierta/s tecla/s
durante el arranque del ordenador, teclas Delete, Suprimir, Etc. Usamos este programa para consultar
y/o modificar la información de la CMOS (cuántos discos duros y de qué características; la fecha y
hora, secuencia de arranque, etc). Lógicamente, este programa SETUP está "archivado" (guardado) en
alguna parte dentro del ordenador... y debe funcionar incluso cuando no hay disco duro o cuando
todavía no se ha reconocido el disco duro: el SetUp está guardado dentro de la ROM-BIOS y
alimentado por una pila para que los datos permanezcan guardados aun con el equipo apagado.
PANTALLA PRINCIPAL:
En el arranque de la PC. Oprimir la tecla Delete, Suprimir, F1, F10, F3, Etc. Para ingresar al Setup.
Estas opciones dependerán del fabricante de Bios.
85
Manual de Armado y Reparación de PC.
CONFIGURACION CPU:
CPU Name Is: AMD K6-2 3D NOW
CPU Operating Speed: En "User Define" controlaremos todos los parámetros referentes al
procesador. También podemos seleccionar directamente una velocidad, aunque en ese caso las
siguientes opciones no se encuentran activas.
Turbo Frecuency: Permite forzar la velocidad del reloj externo a un 2,5x. En principio sólo existe
para realizar control de calidad y comprobar que un sistema funciona correctamente por encima de sus
especificaciones.
Ext. Clock (PCI): Indica la velocidad del bus externo. Entre paréntesis se nos indica la relación a la
que trabajará nuestro bus PCI.
Multiplier Factor: Ajusta el factor de multiplicación. Por ejemplo, con un Pentium III a 550 Mhz
obtendremos la frecuencia multiplicando el bus por el factor multiplicador.
AGPCLK/CPUCLK: Señala la relación entre la velocidad del bus AGP y la del "microprocesador".
Con una CPU de 66 Mhz de bus, ha de estar a 1/1, con una de 100 Mhz, el valor ha de ser 2/3.
86
Manual de Armado y Reparación de PC.
Speed Error Hold: Este campo hace referencia al comportamiento que tomará la máquina en caso de
que seleccionemos una velocidad errónea.
CPU Power Supply: Permite regular el voltaje del microprocesador. Debe dejarse siempre en "CPU
Default", dado que un voltaje incorrecto generará errores y problemas.
Core Voltaje: Nos marca el voltaje actual del procesador, admitiendo modificaciones.
CONFIGURACION STANDARD:
IDEs (HDDs) : TYPE SIZE CYLS HEAD PRECOMP LANDZ SECTOR MODE
Secondary
: None 0 0 0 0 0 0 -
Master
Base
640 K
Memory:
Drive A : 1.44, 3,5 in. Extended
130048K
Drive B : None Memory:
Floppy 3 Mode Support : Disabled Other
384K
Memory:
Video : EGA/VGA
Halt on : All, But Keyboard
Total
131072K
Memory:
87
Manual de Armado y Reparación de PC.
La fecha y hora: En esta sección podemos cambiar los datos relativos a fecha y hora de la BIOS.
Los discos duros IDE: Aquí configuramos los distintos discos duros conectados a la controladora
IDE de nuestra placa base. Es importante tener en cuenta esto para no caer en el error de intentar
configurar desde aquí los discos duros SCSI o los IDE conectados a una controladora adicional.
Hallamos varios valores como "Type", "Cyls" y otros. La opción "Type" ofrece los valores "Auto",
"User" o "None". Con el primero de ellos lograremos que cada disco pueda ser detectado
automáticamente cada vez que iniciamos el ordenador. Es la opción por defecto, aunque ralentiza
bastante el proceso de arranque.
Por su parte, "User" se usa cuando deseamos introducir nosotros mismos cada uno de los valores de
configuración, o bien hemos pasado por la opción IDE HARD DISK DETECTION, que, tras detectar
nuestros discos, habrá almacenado su configuración en esta pantalla. En este modo, el arranque
resultará más rápido. Por último en "None" se indicará la inexistencia de un disco duro.
Respecto a "Mode", podremos elegir entre los modos "LBA", "Normal" y "Large", aunque la
opción correcta para los discos actuales será LBA.
Las disqueteras: Aquí podemos seleccionar el tipo de disquetera instalada en nuestro PC.
Floppy 3 Mode Support: Esta es una opción a activar en caso de contar con disqueteras capaces de
usar discos de 1,2 Kbytes (utilizados normalmente en Japón).
La tarjeta de Video: Debemos elegir VGA para todos los equipos actuales.
Halt On: Se utilizará si queremos que la BIOS ignore ciertos errores. Sus opciones son "No errors",
para no detectarse ningún error; "All Errors" para pararse en todos; "All, But Keyboard" para
exceptuar los de teclado; "All, But Disquete" para obviar los de la disquetera; y "All, But Disk/Key",
para no atender a los de la disquetera o teclado.
ROMBIOS
88
Manual de Armado y Reparación de PC.
Modelos de Pilas
JUMPER
CLEAR-CMOS PILA 2032
Actualmente las pilas son del tipo redonda (2032) de 3 volts, estas pilas según la marca pueden durar
hasta diez años, luego requiere un cambio, generalmente aparece un cartel en pantalla que indica Low
Battery o en el peor de los casos lo notaremos cuando la fecha de la PC. Se desconfigure.
89
Manual de Armado y Reparación de PC.
Virus Warning: Cuando se encuentra en posición "Enabled" genera un mensaje de aviso en caso de
que algún programa intente escribir en el sector de arranque del disco duro. Sin embargo, es necesario
desactivarlo para poder llevar a cabo la instalación de Windows 95/98, ya que en caso contrario, el
programa de instalación no será capaz de efectuar la instalación de los archivos de arranque.
CPU Level 1 Cache: Activa o desactiva la cache de primer nivel integrada en el núcleo de los
actuales procesadores. En caso de que se nos pase por la cabeza desactivarlo, veremos cómo las
prestaciones de nuestro equipo disminuyen considerablemente. Es muy recomendable tenerlo
activado.
CPU Level 2 Cache: Lo mismo que en el caso anterior, pero referido a la memoria cache de segundo
nivel. Igualmente la opción debe estar activada para conseguir un rendimiento óptimo.
CPU L2 Cache ECC Checking: A partir de ciertas unidades de Pentium II a 300 Mhz, se comenzó a
integrar una cache de segundo nivel con un sistema ECC para la corrección y control de errores. Esto
proporciona mayor seguridad en el trabajo con los datos delicados, aunque resta prestaciones. Si esta
opción se coloca en "Enabled", activaremos dicha característica.
Quick Power On Self Test: Permite omitir ciertos tests llevados a cabo durante el arranque, lo que
produce en consecuencia un inicio más rápido. Lo más seguro sería colocarlo en modo "Enabled".
Boot Sequence: Indica el orden de búsqueda de la unidad en la que arrancará el sistema operativo.
Podemos señalar varias opciones, de tal forma que siempre la primera de ellas (las situada más a la
izquierda) será la que se chequeará primero. Si no hubiera dispositivo "de inicio" pasaría a la opción
central, y así sucesivamente. Como lo normal es que arranquemos siempre de un disco duro,
deberíamos poner la unidad C como primera unidad.
Boot Sequence EXT Means: Desde aquí le indicamos a la BIOS a qué se refiere el parámetro "EXT"
que encontramos en la opción anterior. En este sentido podemos indicar un disco SCSI o una unidad
LS-120. Esta opción no se suele encontrar a menudo ya que las unidades se incluyen directamente en
el parámetro anterior.
90
Manual de Armado y Reparación de PC.
Swap Floppy Drive: Muy útil en el caso de que contemos con 2 disqueteras. Nos permiten
intercambiar la A por la B y viceversa.
Boot Up Floppy Seek: Esta opción activa el testeo de la unidad de disquetes durante el proceso de
arranque. Era necesaria en las antiguas disqueteras de 5,25 pulgadas para detectar la existencia de 40 u
80 pistas. En las de 3,5 pulgadas tiene poca utilidad, por ello lo dejaremos en "Disabled" para ahorrar
tiempo.
Boot Up NumLock Status: En caso de estar en "ON", la BIOS activa automáticamente la tecla
"NumLock" del teclado numérico en el proceso de arranque.
IDE HDD Block Mode: Activa el modo de múltiples comandos de lectura/escritura en múltiples
sectores. La gran mayoría de los discos actuales soportan el modo de transferencia en bloques, por esta
razón debe estar activado.
Typematic Rate Setting: Si se encuentra activo, podremos, mediante los valores que veremos a
continuación, ajustar los parámetros de retraso y repetición de pulsación de nuestro teclado.
Typematic Rate (Chars/Sec): Indicará el número de veces que se repetirá la tecla pulsada por
segundo.
Typematic Delay (Msec): Señalará el tiempo que tenemos que tener pulsada una tecla para que esta
se empiece a repetir. Su valor se da en milisegundos.
Security Option: Aquí podemos señalar si el equipo nos pedirá una password de entrada a la BIOS
y/o al sistema.
PCI/VGA Palette Snoop: Este parámetro únicamente ha de estar operativo si tenemos instalada una
antigua tarjeta de vídeo ISA en nuestro sistema, cosa muy poco probable.
OS Select For DRAM > 64MB: Esta opción sólo debe activarse si tenemos al menos 64Mbytes de
memoria y el sistema operativo es OS/2 de IBM.
Report No FDD for Win 95: En caso de que nuestro equipo no tenga disquetera se puede activar esta
opción, liberando de esta forma la IRQ 6. Como es lógico, también desactivaremos la controladora de
disquetes dentro del apartado "INTEGRATED PERIPHERALS" como veremos más adelante.
Delay IDE Initial (Sec): Permite especificar los segundos que la BIOS ha de esperar durante el
proceso de arranque para identificar el disco duro. Esto es necesario en determinados modelos de
discos duros, aunque ralentiza el proceso de arranque.
Processor Number Feature: Esta característica es propia y exclusiva de los Pentium III. Con ella
tenemos la oportunidad de activar o desactivar la posibilidad de acceder a la función del número de
serie universal integrada en estos procesadores.
Video BIOS Shadow: Mediante esta función y las siguientes se activa la opción de copiar el firmware
de la BIOS de la tarjeta de video a la memoria RAM, de manera que se pueda acceder a ellas mucho
más rápido.
91
Manual de Armado y Reparación de PC.
Aquí ajustaremos todos los parámetros relativos a nuestro chipset, memoria y parámetros de la CPU, ...
SDRAM CAS-to-CAS Delay: Sirve para introducir un ciclo de espera entre las señales STROBE de
CAS y RAS al escribir o refrescar la memoria. A menor valor mayores prestaciones, mientras que a
mayor, más estabilidad.
En el campo de la memoria, una STROBE es una señal enviada con el fin de validar datos o
direcciones de memoria. Así, cuando hablamos de CAS (Column Address Strobe), nos referimos a una
señal enviada a la RAM que asigna una determinada posición de memoria con una columna de
direcciones. El otro parámetro, que está ligado a CAS, es RAS, (Row Address Strobe), que es
igualmente una señal encargada de asignar una determinada posición de memoria a una fila de
direcciones.
SDRAM CAS Latency Time: Indica el número de ciclos de reloj de la latencia CAS, que depende
directamente de la velocidad de la memoria SDRAM. Por regla general, a menor valor mayores
prestaciones.
SDRAM Lead off Command: Desde aquí se ajusta la velocidad de acceso a memoria SDRAM.
SDRAM Precharge Control: En caso de estar activado, todos los bancos de memoria se refrescan en
cada ciclo de reloj.
DRAM Data Integrity Mode: Indica el método para verificar la integridad de los datos, que puede
ser por paridad o por código para la corrección de errores ECC.
System BIOS Cacheable: En caso de activarlo, copiaremos en las direcciones de memoria RAM
F0000h-FFFFFh el código almacenado en la ROM de la BIOS. Esto acelera mucho el acceso a citado
código, aunque pueden surgir problemas si un programa intenta utilizar el área de memoria empleada.
Video BIOS Cacheable: Coloca la BIOS de la tarjeta de video en la memoria principal, mucho más
rápida que la ROM de la tarjeta, acelerando así todas las funciones gráficas.
92
Manual de Armado y Reparación de PC.
Video RAM Cacheable: Permite optimizar la utilización de la memoria RAM de nuestra tarjeta
gráfica empleando para ello la caché de segundo nivel L2 de nuestro procesador. No soportan todos
los modelos de tarjetas gráficas.
8 Bit I/O Recovery Time: Se utiliza para indicar la longitud del retraso insertado entre operaciones
consecutivas de recuperación de órdenes de entrada/salida de los dispositivos ISA. Se expresa en
ciclos de reloj y pude ser necesario ajustarlo para las tarjetas ISA más antiguas. Cuanto menor es el
tiempo, mayores prestaciones se obtendrán con este tipo de tarjetas.
16 Bit I/O Recovery Time: Lo mismo que en el punto anterior, pero nos referimos a dispositivos ISA
de 16 bits.
Memory Hole At 15M-16M: Permite reservar un megabyte de RAM para albergar la memoria ROM
de determinadas tarjetas ISA que lo necesiten. Es aconsejable dejar desactivada esta opción, a menos
que sea necesario.
Passive Release: Sirve para ajustar el comportamiento del chip Intel PIIX4, que hace puente PCI-ISA.
La función "Passive Release" encontrará la latencia del bus ISA maestro, por lo que si surgen
problemas de incompatibilidad con determinadas tarjetas ISA, podemos jugar a desactivar/activar este
valor.
Delayed Transaction: Esta función detecta los ciclos de latencia existentes en las transacciones desde
el bus PCI hasta el ISA o viceversa. Debe estar activado para cumplir con las especificaciones PCI 2.1.
AGP Aperture Size (MB): Ajusta la apertura del puerto AGP. Se trata del rango de direcciones de
memoria dedicada a las funciones gráficas. A tamaños demasiado grandes, las prestaciones pueden
empeorar debido a una mayor congestión de la memoria. Lo más habitual es situarlo en 64 Mbytes,
aunque lo mejor es probar con cantidades entre un 50 y 100% de la cantidad de memoria instalada en
el equipo.
Spread Spectrum: Activa un modo en el que la velocidad del bus del procesador se ajusta
dinámicamente con el fin de evitar interferencias en forma de ondas de radio. En caso de estar
activado, las prestaciones disminuyen.
: Disabled
Doze Mode
: Disabled
Standby Mode
: Disabled
Suspend Mode
: Disabled
93
Manual de Armado y Reparación de PC.
: 62.5%
HDD Power Dows
Throttle Duty Cycle : Disabled
: Disabled
: Disabled
Power Button Override
: Disabled
Resume by LAN
Power On by Ring
Power On by Alarm
ACPI Function: Esta función permite que un sistema operativo con soporte para ACPI, tome el
control directo de todas las funciones de gestión de energía y Plug & Play. Actualmente solo
Windows 98 y 2000 cumplen con estas especificaciones. Además que los drivers de los diferentes
dispositivos deben soportar dichas funciones.
Una de las grandes ventajas es la de poder apagar el equipo instantáneamente y recuperarlo en unos
pocos segundos sin necesidad de sufrir los procesos de arranque. Esto que ha sido común en portátiles
desde hace mucho tiempo, ahora está disponible en nuestro PC, eso sí, siempre que tengamos como
mínimo el chip i810, que es el primero es soportar esta característica.
Power Management: Aquí podemos escoger entre una serie de tiempos para la entrada en ahorro de
energía. Si elegimos "USER DEFINE" podremos elegir nosotros el resto de parámetros.
PM Control by APM: Si se activa, dejamos el equipo en manos del APM (Advanced Power
Management), un estándar creado y desarrollado por Intel, Microsoft y otros fabricantes.
Video Off Method: Aquí le indicamos la forma en que nuestro monitor se apagará. La opción "V/H
SYNC+Blank" desconecta los barridos horizontales y verticales, además de cortar el buffer de video.
"Blank Screen" sencillamente deja de presentar datos en pantalla. Por último, DPMS (Display Power
Management Signaling), es un estándar VESA que ha de ser soportado por nuestro monitor y la
tarjeta de vídeo, y que envía una orden de apagado al sistema gráfico directamente.
Video Off After: Aquí tenemos varias opciones de apagado del monitor. "NA" no se desconectará;
"Suspend" sólo se apagará en modo suspendido; "Standby" se apagará cuando estemos en modo
suspendido o espera; "Doze" implica que la señal de vídeo dejará de funcionar en todos los modos de
energía.
CPU Fan Off Option: Activa la posibilidad de apagar el ventilador del procesador al entrar en modo
suspendido.
Modem User IRQ: Esta opción nos permite especificar la interrupción utilizada por nuestro modem.
94
Manual de Armado y Reparación de PC.
Doze Mode: Aquí especificaremos el intervalo de tiempo que trascurrirá desde que el PC deje de
recibir eventos hasta que se apague. Si desactivamos esta opción, el equipo irá directamente al
siguiente estado de energía sin pasar por este.
Standby Mode: Señala el tiempo que pasará desde que el ordenador no realice ninguna tarea hasta
que entre en modo de ahorro. Igual que antes, si desactivamos esta opción, se pasará directamente al
siguiente estado de energía sin pasar por este.
Suspend Mode: Tiempo que pasará hasta que nuestro equipo entre en modo suspendido. Si no se
activa el sistema ignora esta entrada.
HDD Power Down: Aquí especificaremos el tiempo en que el sistema hará que el disco duro entre en
modo de ahorro de energía, lo que permitirá alargar la vida del mismo. Sin embargo, este parámetro ha
de ser tratado con cuidado ya que un tiempo demasiado corto puede suponer que nuestro disco esté
conectando y desconectando continuamente, lo que provocará que esos arranques y paradas frecuentes
puedan dañar el disco, además del tiempo que perderemos dado que tarda unos segundos en arrancar.
Lo normal es definir entre 10 y 15 minutos.
Throttle Duty Cycle: Señalaremos el porcentaje de trabajo que llevará a cabo nuestro procesador
cuando el sistema entre en ahorro de energía, tomando como referencia la velocidad máxima del
mismo.
Power Button Over ride: Esta opción permite que, tras presionar el botón de encendido durante más
de 4 segundos mientras el equipo se encuentra trabajando normalmente, el sistema pasará a su
desconexión por software.
Resume by LAN: Característica muy útil ya que nuestro sistema será capaz de arrancar a través de
nuestra tarjeta de red. Para ello, la tarjeta y el sistema han de cumplir con las especificaciones "WAKE
ON LAN", además de tener que llevar un cable desde la tarjeta de red a la placa base.
Power On by Ring: Conectando un módem al puerto serie, lograremos que nuestro equipo se ponga
en marcha cuando reciba una llamada.
Power On by Alarm: Con este parámetro podemos asignar una fecha y hora a la que el PC arrancará
automáticamente.
PM Timer Events: Dentro de esta categoría se engloban todos aquellos eventos tras los cuales el
contador de tiempo para entrar en los distintos modos de ahorro de energía se pone a cero. Así,
podemos activar o desactivar algunos de ellos para que sean ignorados y, aunque ocurran, la cuenta
atrás continúe.
IRQ (3-7, 9-15], NMI: Este parámetro hace referencia a cualquier evento ocurrido en las distintas
interrupciones del sistema.
VGA Active Monitor: Verifica si la pantalla está realizando operaciones de entrada/salida, de ser así,
reiniciará el contador de tiempo.
IRQ 8 Break Suspend: Permite que la función de alarma, mediante la interrupción 8, despierte al
sistema del modo de ahorro de energía.
IDE Primary/Secondary Master/Slave: Esta característica vigila "de cerca" al disco duro en los
puertos señalados, de forma que si nota que hay movimiento (accesos) reinicia el contador de tiempo.
95
Manual de Armado y Reparación de PC.
Mouse Break Suspend: Permite que un movimiento del ratón despierte por completo al sistema y
entre en modo de funcionamiento normal.
PNP/PCI CONFIGURATION:
ROM PCI/ISA BIOS (2A59IS2B)
PNP/PCI CONFIGURATION
AWARD SOFTWARE, INC.
: Auto
PIRQ_0 Use IRQ No. : Auto
PIRQ_1 Use IRQ No. : Auto
PIRQ_2 Use IRQ No. : Auto
PIRQ_3 Use IRQ No.
PNP OS Installed: Nos permite indicar si los recursos de la máquina serán únicamente controlados
por la BIOS o si por el contrario será el sistema operativo, que naturalmente deberá ser Plug & Play.
Force Update ESCD: En caso de activar esta opción, la BIOS reseteará todos los valores actuales de
configuración de las tarjetas PCI e ISA PnP, para volver a asignar los recursos en el próximo
arranque. Las siglas ESC hacen referencia a Extended System Configuration Data.
Resource Controlled By: Este parámetro decide si la configuración de las interrupciones y los
canales DMA se controlarán de forma manual o si se asignarán automáticamente por la propia BIOS.
96
Manual de Armado y Reparación de PC.
El valor "Auto" permite ver todas las interrupciones y canales DMA libres en pantalla para así decidir
si estarán disponibles o no para su uso por el sistema PnP. Para activar o desactivar esta posibilidad,
bastará con que nos coloquemos sobre la IRQ o DMA y cambiemos su estado, teniendo en cuenta que
en la posición "PCI/ISA PnP" los tendremos libres.
Assign IRQ For VGA: Activando esta opción, la placa asignará una interrupción a nuestra tarjeta
gráfica. Esto es muy importante en la mayoría de tarjetas modernas, que generalmente no funcionarán
si no tenemos este dato operativo.
Assign IRQ For USB: Caso semejante al anterior pero para los puertos USB.
PIRQ_x Use IRQ No.: Aquí podemos asignar una interrupción concreta a la tarjeta PCI que esté
pinchada en el lugar designado por X. Esto puede ser muy interesante para casos en los que
necesitemos establecer unos recursos muy concretos para unos dispositivos, también muy concretos.
INTEGRATED PERIPHERALS:
ROM PCI/ISA BIOS (2A59IS2B)
INTEGRATED PERIPHERALS
AWARD SOFTWARE, INC.
Onboard IDE-1 Controller: Nos permite activar o desactivar la controladora IDE primaria.
Master / Slave Drive PIO Mode: Sirve para ajustar el nivel de PIO del disco maestro/esclavo
conectado al IDE primario. Lo normal es dejarlo en Auto.
Master / Slave Drive Ultra DMA: Aquí activaremos o desactivaremos el soporte para las unidades
Ultra DMA 33 del primer canal IDE. Lo mejor es colocarlo en "Auto".
97
Manual de Armado y Reparación de PC.
Master / Slave Drive PIO Mode: Sirve para ajustar el nivel de PIO del disco maestro/esclavo
conectado al IDE secundario. Lo normal es dejarlo en Auto.
Master / Slave Drive Ultra DMA: Aquí activaremos o desactivaremos el soporte para las unidades
Ultra DMA 33 del segundo canal IDE. Lo mejor es colocarlo en "Auto".
USB Keyboard Support Via: Aquí se indica quién ofrecerá soporte para el teclado USB, la BIOS o
el sistema operativo.
Init Display First: Nos permite especificar el bus en que se encuentra la tarjeta gráfica de arranque.
Resulta útil en caso de que tengamos dos controladoras gráficas, una AGP y otra PCI.
KBC Input Clock Select: Establece la velocidad de reloj del teclado. Útil si tenemos problemas con
el funcionamiento del mismo.
Power On Function: Permite establecer la forma de encender nuestra máquina. Podemos elegir entre
el botón de encendido, el teclado e incluso el ratón.
Onboard Serial Port 1: Activa desactiva o configura los parámetros del primer puerto serie
integrado.
Onboard Serial Port 2: Activa desactiva o configura los parámetros del segundo puerto serie
integrado.
Onboard IR Function: Habilita el segundo puerto serie como puerto infrarrojo, mediante la conexión
del correspondiente adaptador a nuestra placa base.
Onboard Parallel Port: Activa, desactiva o configura los parámetros del puerto paralelo integrado.
Parallel Port Mode: Marca el modo de operación del puerto paralelo. Pueden ser SPP (estándar),
EPP (Puerto Paralelo Extendido), o ECP (Puerto de Capacidades Extendidas).
ECP Mode Use DMA: Permite indicar el canal DMA que usará el puerto paralelo en caso de optar
por el modo ECP.
EPP Mode Select: Asigna la versión de la especificación del puerto EPP por la que nos regiremos en
caso de optar por él.
Activar la contraseña:
Todos nuestros PC's tienen la posibilidad de arrancar con una clave de acceso, necesaria en muchas
ocasiones para preservar nuestros datos y nuestra privacidad. Habilitar esta contraseña o password es
muy sencillo y muy rápido. En este artículo explicaremos como realizarlo en BIOS AWARD.
98
Manual de Armado y Reparación de PC.
1. Lo primero que debes hacer es arrancar tu PC y entrar en la BIOS, para ello sigue las instrucciones
que se describen en estas páginas.
2. Una vez dentro del menú de la BIOS, debemos indicar cual será la password elegida para el inicio
del sistema. Para ello, tan solo deberás desplazarte con las teclas de cursor hasta las opciones USER
PASSWORD y SUPERVISOR PASSWORD.
Elige cualquiera de ellas, por ejemplo Supervisor Password, selecciónala y pulsa ENTER. En este
momento te aparecerá una ventana en la que deberás teclear la password elegida; deberás confirmarla
para evitar errores.
3. Una vez que ya hemos establecido las contraseñas, deberemos indicar al sistema que queremos que
se active durante el arranque, así, siempre que encendamos nuestro PC lo primero que hará será
solicitar el password y nadie podrá tener acceso a nuestros discos.
Para ello entra en BIOS FEATURES SETUP y habilita la opción SECURITY OPTION de forma
que la selección sea SETUP, tal y como se puede apreciar en la siguiente imagen:
Una vez hecho este cambio, pulsaremos ESC del teclado para salir a la pantalla principal.
Seguidamente guardaremos los cambios, pulsando ENTER en la ventana principal en la opción de
99
Manual de Armado y Reparación de PC.
SAVE & EXIT SETUP. Nos hará una pregunta de confirmación a la que responderemos pulsando la
tecla que contiene la letra Y (Yes=Si).
Seguidamente el sistema se reiniciará y veremos como aparece un mensaje durante el arranque que
nos pedirá el password de acceso.
Existen diversos tipos de pro y contra en estos circuitos, siendo el problema del daño por electricidad
estática el fantasma que más afecta el uso comercial de estos integrados.
Dentro de las ventajas mayores que tienen los CMOS destacan las siguientes dos:
1. Funcionan con tensiones desde los 3 V hasta los 15 V, por ende no necesitan una fuente de
voltaje dedicada para ellos.
CLEAR-CMOS:
La mayoría de las placas base disponen de uno o más Jumpers mediante los cuales poder hacer un
reset total de la BIOS y así recuperar la funcionalidad del sistema. La localización de estos Jumpers (o
en ocasiones micro interruptores o switches) varían de un fabricante a otro, por lo que no podemos
indicarte la localización de los mismos y su uso; será imprescindible disponer del manual de la placa
base para verificar exactamente donde se encuentran.
100
Manual de Armado y Reparación de PC.
Es posible que no dispongas de la documentación necesaria o te sea imposible conseguirla. En tal caso
cabe la posibilidad de que estos Jumpers estén debidamente señalizados para facilitar su localización.
Estas señalizaciones o serigrafías podrían ser las siguientes:
Este Jumper del Clear-Cmos generalmente consta de tres pines o patas de contacto, pero en el
mercado hay otros modelos más modernos:
2
1 3
101
Manual de Armado y Reparación de PC.
4: el más económico, en lugar de dos pines tiene dos soldaduras las cuales haciéndole un puente
eléctrico como en la imagen con un destornillador se produce el borrado.
PERIFERICOS INTEGRADOS:
Podemos Denominar Periféricos Integrados a los componentes que vienen incluidos en el
Motherboard pero no son los que corresponden al grupo de los Onboard, es decir Video, Modem,
Sonido y Red. Estos Componentes los podemos distinguir fácilmente ya que son los que se pueden ver
en la parte de atrás de la PC, inclusive en el frente de gabinete.
Dentro del rubro de los periféricos integrados tendríamos que incluir a las IDE, FDC, SATA y otros
pero en este caso no ocuparemos de los siguientes:
5. Firewire.
RED
SONIDO
64 5
2
3
1
102
Manual de Armado y Reparación de PC.
También tenemos en el caso de conector del Teclado el modelo anterior llamado DIN de 5 contactos
internos en lugar de 6 los del mini Din:
Tipos de teclas
Antes de entrar en otros detalles, adelantaremos que todas las teclas del teclado de un PC producen
una señal al ser pulsadas ("Make code") y otra distinta al ser liberadas ("Break code"). Atendiendo al
uso que el sistema hace de ellas, existen tres tipos:
103
Manual de Armado y Reparación de PC.
Los primeros teclados, XT de 83 teclas; AT de 84, y algunos extendidos de 101/102 teclas, utilizan un
conector DIN de 5 patillas con el macho del lado del teclado y la hembra del lado de la placa-base.
Salvo en algunos modelos de IBM el cable está sólidamente unido al teclado.
La introducción del PS/2 de IBM inauguró la moda de utilizar conectores mini DIN para teclados y
ratones. La tendencia actual es utilizar conectores USB para ambos dispositivos de entrada. Más
recientemente se está extendiendo la moda de dispositivos inalámbricos ("Wireless"). Esto no
significa que tales modelos no utilicen el conector de teclado; lo que en realidad desaparece es el cable
entre el dispositivo que se conecta al conector del PC y el propio teclado. La moda comenzó con los
de enlace infrarrojo, pero actualmente casi todos son de radio-frecuencia.
Algunos teclados de pequeño tamaño, especialmente de portátiles pequeños, han utilizado una
combinación compacta incluyendo el "Key pad" numérico en el teclado mecanográfico normal.
Algunas teclas tienen un doble uso, letra normal y tecla numérica. El bloqueo en una u otra forma se
104
Manual de Armado y Reparación de PC.
efectúa mediante una tecla especial (generalmente a la izquierda de la barra espaciadora señalada con
"Fn").
Es introducido por IBM junto con el modelo PS/2 en 1987, y adopta la disposición que se ha
mantenido prácticamente sin cambios hasta nuestros días, las teclas se disponen en cuatro bloques, y la
tecla Intro está duplicada.
Teclas de función: Dispone de una fila superior de 13 teclas, con la tecla Esc a la izquierda, y
12 teclas de función, F0 a F12, dispuestas en tres grupos de 4 sobre el teclado mecanográfico.
Teclado mecanográfico: Situado bajo la fila de teclas de función; su disposición es similar a
los teclados anteriores.
Teclas de control: Un conjunto de 13 teclas situado a la derecha del anterior que incluye
algunas opciones que en los teclados anteriores se habían utilizado asociados con otras en
teclas de doble uso, por ejemplo las cuatro teclas de desplazamiento de cursor (flechas
derecha, izquierda, arriba y abajo).
Teclado numérico: A la derecha tiene un conjunto de 17 teclas que incluye un juego de
caracteres numéricos ("Numeric Key Pad") con los números del 0 al 9, los signos +/-; punto
decimal; multiplicación, división, bloqueo numérico e Intro. Las teclas siguen teniendo doble
uso.
El teclado original PS/2 utiliza un conector mini DIN de 6 contactos, que fue adoptado rápidamente
por el resto de fabricantes. La diferencia respecto al DIN tradicional es meramente mecánica. En caso
de tener que conectar un teclado con conector PS/2 (mini DIN) a un sistema con conector DIN o
viceversa, pueden utilizarse adaptadores. Acepta un conjunto de 17 comandos desde la placa-base.
Este teclado es introducido por Microsoft a partir de la aparición de Windows 98, y presenta tres
nuevas teclas específicas denominadas Windows izquierda, Windows derecha y Aplicación. La
pulsación de estas teclas origina secuencias con significados especiales para el Sistema Operativo o los
programas de aplicación.
La utilización de un teclado con conector USB en el arranque, exige que la BIOS disponga del soporte
adecuado para el repetidor raíz USB de la placa-base. En caso contrario hay que conectarlo al conector
mini-DIN tradicional mediante un adaptador adecuado.
105
Manual de Armado y Reparación de PC.
Servicios BIOS
La BIOS del PC atiende dos interrupciones para servicio del teclado que pueden considerarse estándar;
existiendo una tercera que puede considerarse complementaria. Está prevista para que el usuario le de
un significado específico:
Este servicio ya ha sido comentado al tratar del funcionamiento del teclado. Su función básica
consiste en analizar los códigos de exploración recibidos y transformarlos en byte-codes que son
almacenados en el búfer de teclado, pero además de esto, el análisis realizado por la rutina permite
varias acciones que son características de PC:
La combinación Ctrl + Alt + Del produce un reinicio del sistema conocido como reseteo en caliente
("Hot boot" o "Warm boot"), en el que se suprime la fase de comprobaciones POST del BIOS La
combinación Ctrl + Alt + Shift + Del genera el denominado reinicio frío ("Cold boot"), que incluye
las comprobaciones POST.
Impresión de pantalla mediante las combinaciones Shift izq. + PtrSc o Shift izq. + *.
La impresión de pantalla es un servicio BIOS servido por la interrupción 5h, y como tal puede ser
invocado por cualquier programa que la necesite. En este caso, la interrupción 9h se limita a invocar
dicho servicio si detecta la combinación de teclas anterior.
El estado de bloqueo o pausa del sistema, es una característica de la rutina BIOS de servicio de
teclado. Cuando detecta esta combinación de teclas, la rutina activa el bit de estado correspondiente
(bit 4 a 1), y entra en un bucle en el que no hace nada, solo esperar que se pulse alguna tecla estándar
(imprimible). Mientras que esto no ocurre, no devuelve el control al programa, aunque el resto de
interrupciones son atendidas normalmente, por lo que el sistema continúa funcionando, pero el
programa que espera entradas por teclado queda detenido. Cuando finalmente se pulsa una tecla
imprimible, desactiva el bit de bloqueo y sale del bucle, permitiendo que el programa continúe.
Introducción directa de códigos ASCII. Esta característica del servicio es conocida como "Truco de
Alt-Numérico", y permite introducir cualquier código ASCII (1 a 255) manteniendo pulsada la tecla
Alt y los números del teclado numérico para introducir directamente el código decimal ASCII deseado
Cuando finalmente se libera la tecla Alt, la rutina BIOS calcula el valor ASCII correspondiente al
número pulsado y lo deposita en el búfer de teclado como si se hubiese pulsado mediante una tecla a la
que correspondiera ese símbolo. Por ejemplo, Alt + 1 - 2 - 6 es una forma rápida de introducir la tilde
" ~" para los que utilizamos un teclado español (en el que no suele aparecer este carácter).
El Teclado y el SO
Los detalles de funcionamiento varían, pero en general, el tratamiento de las señales del teclado es
realizado por el SO mediante un mapa que asocia cada código (key-code) encontrado en el búfer de
teclado, con una acción o característica determinada. De esta forma, la tarea de cambiar el "idioma"
del teclado se reduce a cambiar el mapa (o parte de él).
La diferencia entre los teclados de distintos lenguajes es que a una misma tecla le corresponde un
símbolo distinto en cada uno de ellos. Por ejemplo, el teclado inglés USA tiene los símbolos “;"/":" en
106
Manual de Armado y Reparación de PC.
la tecla 40, situada a la derecha de la "L", mientras que el teclado español tiene una " ñ"/"Ñ " en dicha
posición.
Generalmente se dice que un teclado es "Español", "Francés", "Alemán", "USA", Etc. dependiendo de
los símbolos dibujados sobre las teclas, sin embargo no existen diferencias eléctricas. Cuando se pulsa
una tecla, el teclado genera siempre el mismo código de exploración con independencia de su
"Lenguaje". Por ejemplo, cuando se pulsa la tecla 40 se genera el código 27, con independencia del
símbolo "; " o "ñ" dibujado sobre la tecla. El hecho de aparecer un símbolo u otro en el documento
que estamos escribiendo se debe a la interpretación que hace de dicho código el Sistema Operativo.
Puertos Serie:
Los diseñadores del IBM PC ya previeron la posibilidad de comunicación serie, para lo que
posibilitaron la instalación de hasta 7 puertos de comunicaciones serie asíncronas RS-232.C (aunque
es raro instalar más de dos); para atender estos puertos dispusieron de los correspondientes servicios
en la BIOS. En los primeros modelos la electrónica necesaria no estaba incluida en la placa-base, por
lo que los puertos debían instalarse en adaptadores de tarjeta que se insertaban en cualquiera de los
zócalos disponibles.
La comunicación serie ha permitido conectar diversos dispositivos al ordenador, como un ratón; una
impresora u otro ordenador, aunque su aplicación principal han sido las telecomunicaciones a través
de módem.
El estándar RS-232
RS-232.C significa literalmente "Recomended Standard232 revisión C" (también conocida como EIA
232). Es un estándar publicado en 1969 por la EIA ("Electronic Standard Association") que define las
107
Manual de Armado y Reparación de PC.
características eléctricas que deben presentar los elementos de conexión para la comunicación serie
entre ordenadores y equipos periféricos. Su título dice exactamente: "Conexión entre un Equipo
Terminal de Datos y un Equipo de Comunicación de Datos empleando un intercambio de datos binario
serie", y comprende diversos apartados:
Como puede verse en el propio título del estándar, en la comunicación serie se distinguen dos tipos de
dispositivos: Los equipos terminales de datos DTE ("Data Terminal Equipment"), y los equipos de
comunicación de datos DCE ("Data Communication Equipment"). En la terminología de las
comunicaciones serie se denomina "Sexo" de un equipo a su tipo; en este sentido DTE y DCE son
"sexos" contrarios. A efectos prácticos el sexo del equipo determina que asignación de señales tendrá
su conector externo.
Recordemos que en la comunicación serie, como en cualquier otra comunicación informática, existen
dos aspectos complementarios: Uno relativo a las características físicas de la conexión; en este caso
las características eléctricas y mecánicas, aspectos que están contemplados en el estándar RS-232 (a
estos elementos los denominaremos capa física). Otros son los protocolos de comunicación, que
incluyen los sistemas de codificación de la señal que se enviará por la capa física (los denominamos
capa lógica).
Pinout
108
Manual de Armado y Reparación de PC.
En la comunicación serie los bits se transmiten uno detrás de otro (de ahí el nombre), lo que hace que
sean mucho más lentas que sus homólogas "paralelo" en las que se transmiten varios bits a la vez. La
ventaja es que puede utilizarse un solo par de hilos, o incluso uno solo (si el retorno se realiza por la
tierra).
109
Manual de Armado y Reparación de PC.
Los parámetros que caracterizan estas comunicaciones son: Velocidad; paridad; bits de datos y bits
de parada. En la literatura sobre el tema es frecuente expresar estos datos en forma resumida. Por
ejemplo: 1200 8 N 1 para indicar una transmisión de 1200 baudios con 8 bits de datos sin paridad y un
bit de Stop.
Los parámetros anteriores están relacionados con la forma en que se transmite la información serie.
En esta comunicación cada carácter va incluido en un cuadro ("Frame"); generalmente el comienzo
es un bit de inicio (siempre un 1); después le sigue el dato, que puede ser de 5 a 8 bits de longitud;
después puede haber un bit de control de paridad, y por último un bit final (siempre es un 1) de
longitud variable (el equivalente a 1, 1.5 o 2 bits).
Los primeros dispositivos serie operaban a velocidades muy bajas, del orden de 110 a 1200 baudios.
Las comunicaciones telefónicas serie actuales están muy cerca del máximo teórico que pueden
soportar los pares de cobre utilizados en la telefonía estándar. Además, para aumentar el rendimiento
de la comunicación se utilizan técnicas de compresión de los datos a transmitir, y velocidades
variables, que pueden ser negociadas entre los equipos que comunican en función del estado de la
línea en cada momento.
Conectores
El estándar RS-232 define un conector DB de 25 pines del que solo se utilizan 22; las señales están
pensadas para la comunicación remota de teleimpresores, y actualmente no son realmente necesario
para comunicar ordenadores, por lo que se han estandarizado el uso de 8 (las ocho grandes) que
pueden ser utilizadas en conectores de 25 pines o de 9.
En la tabla 1 se muestran los nombres las señales y la asignación de pines utilizada en el estándar para
un DTE (se han resaltado las señales correspondientes a las ocho grandes, el nivel de referencia y a
la protección ).
Básicamente el DTE transmite por la patilla 2 y recibe por la 3. El significado de las flechas es el
siguiente:
señal originada en el DTE
señal originada en el DCE.
110
Manual de Armado y Reparación de PC.
Las conexiones externas de los puertos serie del PC se han estandarizado en 2 tipos de conectores de 9
y 25 pines (DB9 y DB25), con el macho del lado del ordenador.
En la tabla-2 se muestra la asignación de pines para ambos conectores. Los nombres de las señales se
refieren a los utilizados en la tabla-1 (N.A. = No aplicable; N.C. = No conectado).
Por lo general, la secuencia POST de la BIOS solo detecta los dos primeros puertos serie; como el
DOS utiliza los datos de la BIOS, salvo módulos software especiales, los programas DOS solo pueden
utilizar COM1 y COM2. Sin embargo esta limitación no existe para Windows 98 o 2000, que pueden
utilizar hasta 128 puertos.
111
Manual de Armado y Reparación de PC.
Conexión PS/2:
El conector PS/2 o puerto PS/2 toma su nombre de la serie de ordenadores IBM Personal System/2 en
que es creada por IBM en 1987, y empleada para conectar teclados y ratones. Muchos de los adelantos
presentados fueron inmediatamente adoptados por el mercado del PC, siendo este conector uno de los
primeros.
La comunicación en ambos casos es serial (bidireccional en el caso del teclado), y controlada por
microcontroladores situados en la placa madre. No han sido diseñados para ser intercambiados en
caliente, y el hecho de que al hacerlo no suela ocurrir nada es más debido a que los microcontroladores
modernos son mucho más resistentes a cortocircuitos en sus líneas de entrada/salida. Pero no es buena
idea tentar a la suerte, pues se puede matar fácilmente uno de ellos.
Aunque idéntico eléctricamente al conector de teclado AT DIN 5 (con un sencillo adaptador puede
usarse uno en otro), por su pequeño tamaño permite que en donde antes sólo entraba el conector de
teclado lo hagan ahora el de teclado y ratón, liberando además el puerto RS-232 usado entonces
mayoritariamente para los ratones, y que presentaba el inconveniente de compartir interrupciones con
otro puerto serial (lo que imposibilitaba el conectar un ratón al COM1 y un modem al COM3, pues
cada vez que se movía el ratón cortaba al modem la llamada)
A su vez, las interfaces de teclado y ratón PS/2, aunque eléctricamente similares, se diferencias en que
en la interfaz de teclado se requiere en ambos lados un colector abierto que para permitir la
comunicación bidireccional. Los ordenadores normales de sobremesa no son capaces de identificar al
teclado y ratón si se intercambian las posiciones.
En cambio en un ordenador portátil o un equipo de tamaño reducido es muy frecuente ver un sólo
conector PS/2 que agrupa en los conectores sobrantes ambas conexiones (ver diagrama) y que
mediante un cable especial las divide en los conectores normales.
112
Manual de Armado y Reparación de PC.
Por su parte el ratón PS/2 es muy diferente eléctricamente de la serie, pero puede usarse mediante
adaptadores en un puerto serie.
En los equipos de marca (Dell, Compaq, HP...) su implementación es rápida, mientras que en los
clónicos 386, 486 y Pentium, al usar cajas tipo AT,
si aparecen es como conectores en uno de los slots.
La aparición del estándar ATX da un vuelco al tema.
Al ser idénticos ambos se producen numerosas
confusiones y códigos de colores e iconos variados
(que suelen generar más confusión entre usuarios de
diferentes marcas), hasta que Microsoft publica las
especificaciones PC 97, que definen un color
estándar violeta para el conector de teclado y un
color verde para el de ratón, tanto en los conectores
de placa madre como en los cables de cada
periférico.
Serie "A" Conectores incluidos en las placas como el Motherbord. Serie "B" se encuentran en los
dispositivos USB como impresoras entre muchos dispositivos.
113
Manual de Armado y Reparación de PC.
1 VBUS +5 V. CC Red
2 D- Data - White
3 D+ Data + Green
Fue creado en 1996 por siete empresas: IBM, Intel, Northern Telecom, Compaq, Microsoft, Digital
Equipment Corporation y NEC.
Pero además, USB nos proporciona un único conector para solventar casi todos los problemas de
comunicación con el exterior, pudiéndose formar una auténtica red de periféricos de hasta 127
elementos.
El diseño del USB tenía en mente eliminar la necesidad de adquirir tarjetas separadas para poner en
los puertos bus ISA o PCI, y mejorar las capacidades plug-and-play permitiendo a esos dispositivos
ser conectados o desconectados al sistema sin necesidad de reiniciar. Cuando se conecta un nuevo
dispositivo, el servidor lo enumera y agrega el software necesario para que pueda funcionar.
El USB puede conectar periféricos como ratones, teclados, escáneres, cámaras digitales, impresoras,
discos duros, tarjetas de sonido y componentes de red. Para dispositivos multimedia como escáneres y
cámaras digitales, el USB se ha convertido en el método estándar de conexión. Para impresoras, el
USB ha crecido tanto en popularidad que ha empezado a desplazar a los puertos paralelos porque el
USB hace sencillo el poder agregar más de una impresora a un ordenador personal.
En el caso de los discos duros, el USB es poco probable que reemplace completamente a los buses
como el ATA (IDE) y el SCSI porque el USB tiene un rendimiento un poco más lento que esos otros
estándares. El nuevo estándar Serial ATA permite tasas de transferencia de hasta aproximadamente
150 MB por segundo. Sin embargo, el USB tiene una importante ventaja en su habilidad de poder
instalar y desinstalar dispositivos sin tener que abrir el sistema, lo cual es útil para dispositivos de
114
Manual de Armado y Reparación de PC.
almacenamiento desinstalables. Hoy en día, una gran parte de los fabricantes ofrece dispositivos USB
portátiles que ofrecen un rendimiento casi indistinguible en comparación con los ATA (IDE).
El estándar USB 1.1 tenía dos velocidades de transferencia: 1.5 Mbit/s para
teclados, ratón, joysticks, etc., y velocidad completa a 12 Mbit/s. La mayor
ventaja del estándar USB 2.0 es añadir un modo de alta velocidad de 480
Mbit/s. En su velocidad más alta, el USB compite directamente con
FireWire.
Las especificaciones USB 1.0, 1.1 y 2.0 definen dos tipos de conectores para conectar dispositivos al
servidor: A y B. Sin embargo, la capa mecánica ha cambiado en algunos conectores. Por ejemplo, el
IBM UltraPort es un conector USB privado localizado en la parte superior del LCD de los ordenadores
portátiles de IBM. Utiliza un conector mecánico diferente mientras mantiene las señales y protocolos
característicos del USB. Otros fabricantes de artículos pequeños han desarrollado también sus medios
de conexión pequeños, y una gran variedad de ellos han aparecido. Algunos de baja calidad.
Una extensión del USB llamada "USB-On-The-Go" permite a un puerto actuar como servidor o como
dispositivo esto se determina por qué lado del cable está conectado al aparato. Incluso después de que
el cable está conectado y las unidades se están comunicando, las 2 unidades pueden "cambiar de
papel" bajo el control de un programa. Esta facilidad está específicamente diseñada para dispositivos
como PDA, donde el enlace USB podría conectarse a un PC como un
dispositivo, y conectarse como servidor a un teclado o ratón. El "USB-On-
The-Go" también ha diseñado 2 conectores pequeños, el mini-A y el mini-B,
así que esto debería detener la proliferación de conectores miniaturizados de
entrada.
115
Manual de Armado y Reparación de PC.
Puerto Firewire:
El IEEE 1394 o FireWire o i.Link es un estándar multiplataforma para
entrada/salida de datos en serie a gran velocidad. Suele utilizarse para la
interconexión de dispositivos digitales como cámaras digitales y
videocámaras a ordenadores.
Historia:
El FireWire fue inventado por Apple Computer a mediados de los 90, para luego convertirse en el
estándar multiplataforma IEEE 1394. A principios de este siglo fue adoptado por los fabricantes de
periféricos digitales hasta convertirse en un estándar establecido. Sony utiliza el estándar IEEE 1394
bajo la denominación i.Link, que sigue los mismos estándares pero solo utiliza 4 conexiones, de las 6
disponibles en la norma IEEE 1394, suprimiendo las dos conexiones encargadas de proporcionar
energía al dispositivo, que tendrá que proveerse de ella mediante una toma separada.
Características
FireWire 400: tiene un ancho de banda 30 veces mayor que el USB 1.1.
IEEE 1394b, FireWire 800 o FireWire 2: duplica la velocidad del FireWire 400.
6 Pines 4 Pines
116
Manual de Armado y Reparación de PC.
Standards
Pinout
Conectores Firewire PC
6 PIN IEEE1394 FEMALE at the Devices.
Diagrama de pines
117
Manual de Armado y Reparación de PC.
Da igual cómo conectes tus dispositivos entre ellos, FireWire 800 funciona a la perfección. Por
ejemplo, puedes incluso enlazar a tu Mac la cadena de dispositivos FireWire 800 por los dos
extremos para mayor seguridad durante acontecimientos en directo.
Compatibilidad retroactiva. Los fabricantes han adoptado el FireWire para una amplia gama de
dispositivos, como videocámaras digitales, discos duros, cámaras fotográficas digitales, audio
profesional, impresoras, escáneres y electrodomésticos para el ocio. Los cables adaptadores para el
conector de 9 contactos del FireWire 800 te permiten utilizar productos FireWire 400 en el puerto
FireWire 800. FireWire 800 comparte las revolucionarias prestaciones del FireWire 400.
Flexibles opciones de conexión. Conecta hasta 63 ordenadores y dispositivos a un único bus:
puedes incluso compartir una cámara entre dos Macs o PCs.
Distribución en el momento. Fundamental para aplicaciones de audio y vídeo, donde un fotograma
que se retrasa o pierde la sincronización arruina un trabajo, el FireWire puede garantizar una
distribución de los datos en perfecta sincronía.
Alimentación por el bus. Mientras el USB 2.0 permite la
alimentación de dispositivos sencillos y lentos que consumen un
máximo de 2,5 W, como un ratón, los dispositivos con FireWire
pueden proporcionar o consumir hasta 45 W, más que suficiente para
discos duros de alto rendimiento y baterías de carga rápida.
Conexiones de enchufar y listo. No tienes más que enchufar un
dispositivo para que funcione.
Ventajas de Firewire
118
Manual de Armado y Reparación de PC.
Aplicaciones de Firewire
La edición de vídeo digital con FireWire ha permitido que tuviera lugar una revolución en la
producción del vídeo con sistemas de escritorio. La incorporación de FireWire en cámaras de vídeo de
bajo costo y elevada calidad (ambas cosas no suelen ir juntas) permite la creación de vídeo profesional
en Macintosh o PC. Atrás quedan las carísimas tarjetas de captura de vídeo y las estaciones de trabajo
con dispositivos SCSI de alto rendimiento. FireWire permite la captura de vídeo directamente de las
nuevas cámaras de vídeo digital con puertos FireWire incorporados y de sistemas analógicos mediante
conversores de audio y vídeo a FireWire.
Como explica Apple, "con este software instalado, se pueden utilizar entre ordenadores Macintosh y
periféricos los protocolos IP existentes, incluyendo AFP, HTTP, FTP, SSH, etcétera. En todos los
casos, se puede utilizar Rendezvous para su configuración, resolución de nombres y descubrimiento."
Si unimos la posibilidad de usar las conexiones FireWire para crear redes TCP/IP a las prestaciones de
FireWire 2 (FireWire 800), tenemos razones muy serias para que Apple recupere rápidamente la
atención de los fabricantes de periféricos para satisfacer las necesidades de los usuarios de
aplicaciones que requieren gran ancho de banda en redes locales, como todas las relacionadas con el
vídeo digital. Por no hablar de introducirse en un posible mercado nuevo.
Puerto Paralelo:
Un puerto paralelo es una interfaz entre un ordenador y un periférico cuya principal característica es
que los bits de datos viajan juntos enviando un byte completo o más a la vez. Es decir, se implementa
un cable o una vía física para cada bit de datos formando un bus.
119
Manual de Armado y Reparación de PC.
utilizado principalmente para conectar impresoras, pero también ha sido usado para programadores
EPROM, escáneres, interfaces de red Ethernet a 10 MB, unidades ZIP y Súper disk y para
comunicación entre dos PCs (MS-DOS trajo en las versiones 5.0 ROM a 6.22 un programa para
soportar esas transferencias).
El puerto paralelo de las computadoras, de acuerdo a la norma Centronic, está compuesto por un bus
de comunicación bidireccional de 8 bits de datos, además de un conjunto de líneas de protocolo. Las
líneas de comunicación cuentan con un retenedor que mantiene el último valor que les fue escrito
hasta que se escribe un nuevo dato, las características eléctricas son:
El sistema operativo gestiona las interfaces de puerto paralelo con los nombres LPT1, LPT2 y así
sucesivamente, las direcciones base de los dos primeros puerto es:
LPT1 = 0x378.
LPT2 = 0x278
La norma 1284 define 5 modos de transmisión de datos. Cada tipo provee un método de transmisión
de datos ya sea la dirección ordenador - periférico, la inversa (Periférico - Ordenador) o bi-direccional.
Los modos son:
120
Manual de Armado y Reparación de PC.
Este modo define los pasos a seguir por la mayoría de PC's a la hora de transferir datos a una
impresora. Es conocido con el nombre de "Centronics". Los datos se sitúan sobre la línea por la que
van a ser enviados y se comprueba el estado de la impresora para comprobar que no esté ocupada
(BUSY). Por último, el software genera un impulso a través de la línea STROBE para detener el envío
de datos a la impresora. Pasos en la fase de transmisión:
2. El programa lee el estado del registro para comprobar que la impresora no esta ocupada (BUSY).
3. Si no esta ocupada, entonces escribe al registro de control para hacer valer la línea STROBE.
Para sacar 1 byte de información se requiere 4 instrucciones de E/S y tantas instrucciones adicionales
más como se requieran. El efecto neto de esto es una limitación de las capacidades del ancho de banda
del puerto del orden de 150 Kbytes por segundo.
Este ancho de banda es suficiente para comunicaciones punto a punto con muchas impresoras, pero
es muy limitado para adaptadores pocket LAN, discos duros móviles y las nuevas generaciones de
impresoras láser. Desde luego este modo es solamente para el canal directo y debe ser combinado con
un canal inverso para conseguir un completo canal bi-direccional.
Fue incluido para proveer compatibilidad a la amplia gama de periféricos e impresoras instalados.
El protocolo EPP ofreció muchas ventajas a los fabricantes de periféricos que utilizaban puertos
paralelos y fue rápidamente adoptado por muchos de ellos. Una asociación de 80 fabricantes se unió
para el desarrollo de este protocolo, esta asociación se llamo el Comité EPP. Este protocolo fue
121
Manual de Armado y Reparación de PC.
desarrollado antes de la aparición de la norma IEEE 1284, por lo tanto hay una pequeña diferencia
entre el anterior EPP y el nuevo EPP después de la norma.
Los ciclos de datos están pensados para transferir datos tanto al ordenador como al periférico. Los ciclos de direcciones son
usados para transferir direcciones, canales, comandos e información de control. La siguiente tabla describe las señales EPP y
sus señales asociadas SPP.
BUSY WAIT IN
Activo indica OK para finalizar el ciclo
Una de las más importantes características es que la transferencia de datos ocurre en un ciclo ISA E/S.
El resultado es que mediante el uso del protocolo EPP para la transmisión de datos un sistema puede
mejorar los ratios de transmisión desde 500 K hasta 2Mbytes por segundo, de esta manera los
periféricos de puertos paralelos pueden operar tan eficientemente como un periférico conectado
directamente a la placa.
122
Manual de Armado y Reparación de PC.
En la anterior figura el canal DataStrobe puede ser conectado a causa de que el canal WAIT esta
desactivado, el canal WAIT se desactiva en respuesta a un canal DataStrobe conectado, un canal
DataStrobe se desactiva en respuesta a que un canal WAIT esta siendo desconectado. Un canal WAIT
se conecta en respuesta a un canal DataStrobe esta siendo desconectado, de esta manera el periférico
puede controlar el tiempo de inicialización requerido para su operación. Esto se hace de la siguiente
manera: el tiempo de inicialización es el que transcurre desde la activación del canal DataStrobe a la
desactivación del canal WAIT, los periféricos son los encargados de controlar este tiempo.
El protocolo de puerto de capacidad extendida o ECP, fue propuesto por Hewlett Packard y Microsoft
como un modo avanzado para la comunicación de periféricos del tipo de los scanners y las impresoras.
Como el protocolo EPP, el ECP proporciona una alta resolución en la comunicación bi-direccional
entre el adaptador del ordenador y el periférico.
1. Ciclos de Datos
2. Ciclos de Comandos
Las características principales del ECP incluyen la RLE (Run Length Encoding) o compresión de
datos en los ordenadores, FIFO para los canales directo e inverso y DMA.
La característica RLE mejora la compresión de datos en tiempo real y puede lograr una compresión de
datos superior 64:1. Esto es particularmente útil para las impresoras y scanners que transfieren gran
cantidad de imágenes y tienen largas cadenas de datos idénticos.
El canal de direcciones contiene una pequeña diferencia con el del EPP. El canal de dirección se
intenta que se use para sistemas lógicos múltiples de dirección con un sistema físico único. Piense en
esta idea como un nuevo sistema multi-función como por ejemplo un Fax/Impresora/Módem. Con este
protocolo se puede estar enviado datos a la impresora y al Módem a la vez.
1. El ordenador sitúa los datos sobre las líneas de datos, inicia un ciclo de datos activando el
HostAck.
2. El ordenador desactiva HostClk para indicar un dato valido.
3. El periférico reconoce el ordenador activando PeriphAck.
4. El ordenador activa HostClk. Este es el punto que debería ser usado para cerrar los datos al
periférico.
5. El periférico desactiva PeriphAck indicando que esta preparado para recibir el siguiente byte.
6. El ciclo se repite pero en un ciclo de comando ya que HostAck esta desactivado.
123
Manual de Armado y Reparación de PC.
Cuando HostAck esta activado indica que un ciclo de datos se esta llevando a cambio. Cuando
HostAck esta desactivado se lleva a cabo un ciclo de comandos, los datos representan un cálculo de
RLE o un canal de direcciones. El bit 8 del byte de datos se usa para indicar una RLE, si el bit 8 es
cero entonces los bits del 1 al 7 representan un calculo de la longitud de cadena de transmisión, si el
bit es 1 entonces los bits 1 al 7 representan un canal de dirección.
Aquí veremos el proceso inverso de transferencia, con las diferencias entre el protocolo ECP y EPP,
con el software del EPP puede mezclar operaciones de lectura escritura sin ningún problema. Con el
protocolo ECP los cambios en la dirección de datos deben ser negociados, el ordenador debe pedir una
transmisión por el canal inverso desactivando el canal ReverseRequest, entonces esperar que el
periférico reconozca la señal desactivando AckReverse. Solamente entonces una transmisión de datos
por canal inverso puede llevarse a cabo.
124
Manual de Armado y Reparación de PC.
En esta sección trataremos la colocación del Motherboard en el Gabinete y sus conexiones (Cables que
conectan al frente de la PC).
Sección de conector al
Gabinete
Aquí insertaremos los cables que vienen del Gabinete para las funciones de:
125
Manual de Armado y Reparación de PC.
Líneas de Interrupción:
Sinopsis
Una petición de interrupción IRQ ("Interrupt Request") es una señal que se origina en un dispositivo
hardware (por ejemplo, un periférico), para indicar al procesador que algo requiere su atención
inmediata; se solicita al procesador que suspenda lo que está haciendo para atender la petición.
Hemos señalado que las interrupciones juegan un papel fundamental, en especial en la operación de
dispositivos E/S, ya que les permite enviar estas peticiones a la CPU. Sin ellas el sistema debería
chequear constantemente los dispositivos para comprobar su actividad, pero las interrupciones
permiten que los dispositivos puedan permanecer en silencio hasta el momento que requieren atención
del procesador. ¿Podría figurarse un sistema telefónico donde hubiera que levantar periódicamente el
auricular para comprobar si alguien nos llama?
Veremos que estas peticiones pueden ser generadas no solo por dispositivos hardware, también por
los programas, e incluso en circunstancias especiales (errores generalmente) por el propio
procesador. Resumimos que existen tres posibles orígenes de estas peticiones: Hardware, Software,
y del procesador.
Principio de funcionamiento
Cuando un dispositivo reclama atención del procesador es para que este haga algo. Este "algo" es lo
que se conoce como servicio; controlador o gestor de la interrupción, ISR ("Interrupt service
routine"). En cualquier caso se trata siempre de ejecutar un programa situado en algún lugar de la
memoria RAM o en la ROM-BIOS. Ocurre que las direcciones de inicio de estos programas, que se
conocen como vectores de interrupción, se copian en una tabla de 1024 Bytes que se carga al
principio de la memoria de usuario (direcciones 0000h a 0400h) durante el proceso de inicio del
sistema, razón por la cual estas rutinas se conocen también como servicios del BIOS.
La citada tabla se denomina tabla de vectores de interrupción IDT ("Interrupt Description Table") y
en sus 1024 bytes pueden almacenarse 256 vectores de 4 bytes. Es decir, los vectores de interrupción
son punteros de 32 bits, numerados de 0 a 255, que señalan las direcciones donde comienza la rutina
que atiende la interrupción.
Como veremos a continuación, el diseño del PC solo permite 16 interrupciones distintas, por lo que
puede parecer extraño que se hayan previsto 256 vectores para atenderlas. La razón es que además de
los servicios del BIOS propiamente dichos, se cargan las direcciones de inicio de otras rutinas del
Sistema Operativo, los denominados servicios del Sistema. Incluso es posible cargar direcciones para
rutinas específicas de usuario.
Al diseñar el 8088, Intel estableció un reparto de estos vectores, reservando los 5 primeros para uso
interno del procesador. A continuación estableció otros 27 de uso reservado, aunque no desveló
ningún uso específico para algunos de ellos. A partir de aquí, los vectores 32 a 255 estaban
disponibles. El esquema resultante se muestra en la tabla adjunta.
126
Manual de Armado y Reparación de PC.
Vector
2 2 Interrupción no enmascarable
5 5 (reservado)
7 7 Coprocesador no disponible
8 8 Fallo doble
10 A TSS no válido
11 B Segmento no disponible
12 C Excepción de pila
13 D Protección general
14 E Fallo de página
15 F (reservado)
16 1A Error de coprocesador
1B-1F
17-31 (reservado)
20-FF
32-255 Disponibles para interrupciones enmascarables
Sin embargo, aunque teóricamente las interrupciones 0 a 31 estaban restringidas, IBM y Microsoft
utilizaron algunas de ellas sin respetar las indicaciones de Intel. En concreto, IBM y Microsoft
utilizaron algunas para los servicios BIOS. Es significativo que, a pesar de haber sufrido
ampliaciones, la especificación inicial se mantiene para las 31 interrupciones iniciales. Lo que hace
posible que pueda cargarse un Sistema PC-DOS 1.0 en una máquina Pentium.
127
Manual de Armado y Reparación de PC.
habilitar el sistema de interrupciones. En cierto sentido, el proceso es similar al que ocurre cuando
aparece la invocación de una función en el código de un programa.
En el párrafo anterior hemos indicado someramente el proceso cuando "se recibe" una petición, pero
cabe una cuestión: ¿Como se recibe la petición? Hemos adelantado que estas peticiones pueden ser
generadas desde el software o incluso por el procesador, lo que nos conduce a que en realidad las
únicas que deben recibirse (desde el exterior) son las que denominadas interrupciones hardware
(que se originan en dispositivos externos al procesador). Antes de describir brevemente el camino
hasta que la solicitud es recibida por la UCP, permitidme adelantar que para su gestión existen tres
tipos de elementos de soporte:
El resumen del proceso es como sigue: Un periférico, tarjeta o dispositivo necesita atención; a tal
efecto pone en tensión baja una de las líneas IRQ del bus de control (que le había sido asignada). La
señal es recogida por el PIC, que la procesa, la clasifica, y envía una señal a una de las patillas del
procesador. A continuación el procesador se da por notificado y pregunta que tipo de excepción debe
atender. Como respuesta, PIC asigna un número de servicio (0-256) en forma de un octeto que es
colocado en el bus de datos, con lo que estamos en el punto inicial del proceso.
Para la asignación del número de servicio a partir de una de las 16 solicitudes de las IRQ, el PIC
realiza un cierto proceso ("Interrupt Handling Routine") a partir de los datos de programación iniciales
y del estado actual del propio sistema de interrupciones. Por ejemplo, puede estar procesándose el
servicio de una interrupción, pero la rutina esta suspendida momentáneamente porque se ha solicitado
otra interrupción de prioridad más alta, o tal vez se recibe otra interrupción del mismo periférico antes
de haber atendido la anterior, Etc.
Aunque internamente se manejan 16 líneas, no todas tienen contacto en los zócalos del bus externo;
Son las marcadas con asterisco (*) en la tabla que sigue. La razón de esta ausencia en los zócalos de
conexión es que son de asignación fija, y nadie más que ciertos dispositivos instalado en la propia
placa tiene que utilizarlas. En concreto la línea NMI está asignada al mecanismo de control de
paridad de la memoria; la línea 0 está asignada al cronómetro del sistema y la línea 1 al chip que
controla el teclado (dispositivos que pueden requerir atención urgente por parte del procesador). Es
costumbre denominar IRQx a las que tienen prolongación en el bus.
128
Manual de Armado y Reparación de PC.
Teóricamente las restantes líneas podrían ser asignadas a cualquier nuevo dispositivo, pero en la
práctica algunas están reservadas a dispositivos estándar. Por ejemplo, IRQ3 está casi siempre
asignado al puerto serie COM2 y IRQ4 a COM1; IRQ6 al controlador estándar de disquetes y IRQ7
al puerto de impresora LPT1. La tabla 1 muestra las asignaciones clásicas para el XT y el AT.
Tabla-1
Cuando se instala un dispositivo E/S que puede necesitar atención del procesador, debe asignársele
una IRQ adecuada. Dicho en otras palabras, cuando requiera atención debe enviar una señal en la
línea IRQ especificada. Inicialmente esta asignación se efectuaba de forma manual, por medio de
puentes ("Jumpers") en la placa o dispositivo, pero actualmente esta selección puede hacerse por
software. Los dispositivos son de enchufar y usar PnP ("Plug and play").
129
Manual de Armado y Reparación de PC.
130
Manual de Armado y Reparación de PC.
131
Manual de Armado y Reparación de PC.
A continuación se nuestra la distribución de líneas IRQ en un ordenador típico, bajo Windows XP.
132
Manual de Armado y Reparación de PC.
Controlador PIC
Las peticiones hardware de interrupción del PC son manejadas por un chip, conocido como PIC#1
("Programmable Interrupt Controller"). Originariamente era un 8259A, que puede manejar 8
peticiones (IRQ0/IRQ7), pero pronto se hizo evidente que eran un número excesivamente corto, por
lo que en 1984 IBM añadió un segundo controlador PIC#2 en el modelo AT, que podía manejar las
peticiones IRQ8 a IRQ15, aunque las interrupciones utilizables resultantes no fuesen de 16 como
cabría suponer, por las razones apuntadas en el párrafo anterior.
Nivel de prioridad
El PIC dispone de 16 niveles de prioridad, numerados del 0 al 15, de forma que los de número
más bajo se atienden antes que los de número más alto. La asignación a cada nivel es como
sigue:
Como puede verse, la prioridad más alta se asigna a las interrupciones no enmascarables ( NMI), a las
que nos referimos más adelante. A continuación se atienden IRQ0 e IRQ1; asignadas como hemos
visto al cronómetro del sistema y al teclado (el cronómetro no puede ser interrumpido por nadie
porque perdería la hora). Después se atienden las peticiones IRQ8 a IRQ15 del controlador esclavo,
que hereda la prioridad de IRQ2 de la que está colgado (en realidad no existe IRQ2). A continuación
se atienden las IRQ3 a IRQ7 de PIC#1. Las peticiones de prioridad más baja son las del controlador
estándar de disquetes (IRQ6) y las del puerto de impresora LPT1 (IRQ7).
Físicamente, el 8259A es un chip de 28 patillas, 8 de las cuales conectan con las líneas IRQ0-IRQ7;
ocho para el bus de datos (D0-D7), una entrada INTA ("Interrupt Acknowledge") y una salida INTR
("Interrupt Request"). Aparte de otras auxiliares, como tensión de alimentación y masa. Como
veremos a continuación, cuando el 8259A recibe una señal IRQ, activa la señal INTR que es recibida
por el procesador. Cuando este responde con un INTA, pone en el bus de datos un byte en el rango
0/256, que es identificado a su vez por el procesador como un número de interrupción.
Desde el punto de vista lógico, PIC #1 responde a las direcciones 020h-021h, mientras que PIC#2 lo
hace en 0A0h-0A1h. Cada PIC dispone de tres registros de 1 byte; IRR, ISR e IMR, que en conjunto
gobiernan las decisiones del dispositivo:
Registro de solicitud de interrupción IRR ("Interrupt Request Register"). Cada bit de este
registro controla el estado de una línea IRQ. Cuando se detecta una petición en una de estas líneas,
el bit correspondiente del IRR es puesto a 1.
Registro de interrupciones activas ISR ("In Service Register"). Cada bit indica si ya existe una
interrupción activada en la línea correspondiente.
133
Manual de Armado y Reparación de PC.
Registro de máscara de interrupciones IMR ("Interrupt Mask Register"). También aquí cada bit
corresponde a una línea IRQ, e indica si esta permitida un interrupción de ese nivel en ese
momento.
El PIC es un dispositivo complejo que realiza varias tareas; a continuación se muestra un resumen de
ellas:
El 8259A tiene distintos modos de operación, uno de los cuales es el utilizado por los diseñadores del
PC; esta selección se realiza vía software en los momentos iniciales. También se decide en este
momento que número de interrupción deberá devolver el PIC en respuesta a las señales recibidas en
las líneas IRQ.
Puntos importantes a destacar es que, como se ha señalado, se trata de un dispositivo programable; que
esta programación es realizada por el BIOS en la fase de inicio, y que el PIC es una parte fundamental
del mecanismo de excepciones hardware.
Otro elemento que interviene en el mecanismo de excepciones son ciertas patillas del procesador.
Todos los miembros de la saga 8088 disponen de dos patillas, designadas INTR y NMI, para este
servicio específico. Sirven respectivamente para atender las interrupciones enmascarables y no
enmascarables (nos referimos a ellas inmediatamente). A su vez, el procesador utiliza ciertas señales
en algunas de sus patillas para generar un ciclo INTA ("Interrupt Acknowledge"), que sirve para
notificar al PIC que ha recibido la interrupción.
Tipos de interrupción
Las interrupciones hardware ocurren cuando un dispositivo necesita atención del procesador y
genera una señal eléctrica en la línea IRQ que tiene asignada. Esta señal es recogida y procesada por
el controlador de excepciones PIC antes de ser enviada al procesador, lo que puede realizarse de dos
formas, según el tipo de interrupción sea enmascarable o no enmascarable.
Interrupción enmascarable significa que, bajo control del software, el procesador puede aceptar o
ignorar (enmascarar) la señal de interrupción. Para ello se envía una señal a la patilla INTR, y el
134
Manual de Armado y Reparación de PC.
procesador la atiende o la ignora en función del contenido de un bit (IF) en un registro (FLAGS) que
puede estar habilitado o deshabilitado. En el primer caso, cuando se recibe la señal, el procesador
concluye la instrucción que estuviese en proceso y a continuación responde con una combinación de
señales en algunas de sus patillas componiendo una sucesión de dos señales INTA ("Interrupt
Acknowledge").
La primera señal es simplemente un aviso; la segunda es una petición para que el PIC coloque en el
bus de datos un Byte con el número de interrupción, de forma que el procesador pueda localizar el
servicio solicitado.
El valor recibido (0-255) es multiplicado por 4 para calcular la dirección del vector correspondiente en
la tabla de vectores de interrupción, lo que se realiza mediante un desplazamiento binario de dos
posiciones a la izquierda. A continuación, el procesador salva en la pila los valores del registro de
estado, del contador de programa (PC) y del segmento de código (CS); deshabilita el bit IF del
registro de estado, para que la interrupción no pueda ser molestada con una nueva interrupción
enmascarable hasta que sea específicamente permitido, y finalmente ejecuta el servicio.
La penúltima secuencia de la rutina de servicio es enviar una señal de que la interrupción ha terminado
(EOI) para que el PIC pueda seguir enviando interrupciones. A continuación debe restaurar los
registros a su estado inicial (existente antes de que se produjera la interrupción).
La segunda mueve el valor EOI (nemónico del valor 20h) al registro AL.
La tercera es una sentencia de escritura a puerto; escribe el contenido del registro AL (el valor EOI
puesto en la sentencia anterior) en el puerto señalado por el contenido del registro DX (establecido en
la primera instrucción).
135
Manual de Armado y Reparación de PC.
La idea importante a resaltar, es que el PIC asocia un número entre 0 y 255 a cada petición. Este
número, que se conoce como número de interrupción, no debe ser confundido con el número de línea
IRQ's que realizó la solicitud. El número de interrupción sirve para identificar el servicio mediante la
tabla IDT. Una vez ejecutado el servicio, deben dejarse las cosas como estaban para que el programa
original pueda continuar su ejecución.
Interrupción no enmascarable significa que la interrupción no puede ser deshabilitada por software.
Este tipo de interrupciones ocurren cuando se recibe una señal en la patilla NMI ("Nonmaskable
Interrupt") del procesador. Se reservan para casos en que es crítica la respuesta, por ejemplo que se
detecte un error de paridad en la memoria. Además son de prioridad más alta que las enmascarables.
La única forma de enmascarar estas interrupciones es a través de circuitos externos al procesador, por
ejemplo a nivel del PIC.
Cuando el procesador recibe una de estas instrucciones no se genera ningún ciclo de reconocimiento
de la instrucción (INTA), y el procesador le asigna un 2 como número de excepción.
Interrupciones software
Los procesadores Intel de la gama x86 y compatibles, disponen de una instrucción INT que permite
generar por software cualquiera de los 256 tipos de interrupción anteriormente descritos. El proceso
seguido es exactamente el mismo que si se recibe una interrupción hardware en la patilla INTR, salvo
que en este caso se conoce el tipo de interrupción, y no se requiere ningún ciclo INTA. Por ejemplo,
en lenguaje ensamblador, la instrucción INT 21 invoca la interrupción 33d (21h), que en MS-DOS es
la llamada a los servicios del Sistema.
Este tipo de interrupciones son de prioridad más alta que las de hardware (enmascarables y no
enmascarables), de forma que si se recibe una interrupción hardware mientras que se ejecuta una
software, esta última tiene prioridad.
Este tipo de interrupciones son utilizadas tanto por el Sistema Operativo como por los programas de
usuario que pueden instalar las suyas particulares (hemos señalado, que algunas de las 255 posiciones
de la tabla de vectores de interrupción están desocupadas). Precisamente, aquellas posiciones de la
IDT que señalan a posiciones dentro de la ROM-BIOS (por encima de la dirección F0000h) se
refieren a interrupciones relacionadas con servicios de la BIOS, mientras que las situadas en la zona de
memoria convencional, se refieren a interrupciones instaladas por el Sistema o los programas de
aplicación.
Durante el funcionamiento del procesador pueden ocurrir circunstancias excepcionales; es usual citar
como ejemplo el caso de una división por cero. En estos casos, el procesador genera una excepción,
que es tratada como si fuese una interrupción software, con la diferencia de que el número de
interrupción asociado depende del tipo de excepción. En el caso de la división por cero el número
asociado es cero. Este era el único tipo de excepción de procesador prevista en el 8088, pero en los
modelos sucesivos de la saga x86 y Pentium esta posibilidad fue ampliándose paulatinamente.
Orden de prioridad
136
Manual de Armado y Reparación de PC.
Las interrupciones tienen un orden de prioridad, de forma que si ocurren dos de forma simultánea es
atendida la de prioridad más alta. El orden en que se atienden es el siguiente:
Las Líneas de IRQ también pueden configurarse o cambiar en algunas ocasiones desde el Setup, en
estas imágenes se muestra el menú de configuración:
Evolución
137
Manual de Armado y Reparación de PC.
El estándar PnP
Puede decirse que desde su nacimiento, el PC arrastraba ciertas carencias congénitas, que podían
resumirse en escasez de Líneas de acceso directo a memoria DMA's; líneas de interrupciones IRQ's;
direcciones de puertos, y memoria convencional. El resultado era que la configuración de los
primeros sistemas era una pesadilla para los instaladores, que debían configurar manualmente los
dispositivos instalados poniendo y quitando los fastidiosos "Jumpers". A pesar de todo, muchas veces
el resultado era que sencillamente no podía instalarse el nuevo dispositivo porque los canales DMA o
líneas IRQ que podían seleccionarse estaban ya ocupadas por otros.
Como consecuencia de tales deficiencias, en una conferencia sobre hardware para Windows celebrada
en marzo de 1993, Microsoft e Intel propusieron un nuevo estándar que intentaba simplificar el
problema. Conocido como Plug and Play (PnP), enchufar y usar (precisamente el "sueño" de los
instaladores en la época), que se basa en varias premisas. La principal, que los dispositivos fueran
configurables por software mediante un programa especial de "Set-up". Además tanto el hardware
como el software (controladores de dispositivos cargados por el Sistema), deberían ser reconfigurables
dinámicamente para adaptarse a los cambios de configuración. Por ejemplo, insertar o retirar un
dispositivo PC-Card de un bus PCMCIA.
Compartir IRQs
La especificación PnP antes comentada, aunque simplificaba las cosas, en realidad no resolvía el
problema de fondo: la escasez de ciertos recursos, principalmente líneas de interrupción. Por lo que al
desarrollar la interfaz PCI, Intel incluyó la posibilidad de que estos dispositivos pudieran compartir la
misma IRQ.
Puede apreciarse que los dispositivos PCI comparten las IRQ11 e IRQ5. Como es habitual, las
controladoras IDE primaria y secundaria, identificadas aquí como ide0 e ide1, utilizan IRQ14 e
IRQ15. Los dispositivos identificados como eth0 y eth1 son sendas tarjetas de red. ttyS03 es un
puerto serie cuya UART es una 16550A. Yenta se refiere al tipo de controladora de conexión de los
dispositivos PCMCIA (se trata de un equipo portátil que dispone de este tipo de bahías).
Interrupciones en Windows
Hemos señalado que en los sistemas Windows, cada aplicación corre en una máquina virtual MV, de
modo que está más alejada del hardware que las aplicaciones que se ejecutan en modo real. En este
caso, las aplicaciones interactúan con dispositivos virtuales VDs ("Virtual devices") a través de
controladores virtuales de dispositivos VxDs.
138
Manual de Armado y Reparación de PC.
En concreto, el controlador PIC es virtualizado por el VPICD ("Virtual PIC Device"); este es un
controlador virtual proporcionado de forma estándar por Windows que emula las funciones del
auténtico controlador programable de interrupciones. Esta simulación implica reflejar las
interrupciones en las máquinas virtuales y simular E/S, por ejemplo, reconocer cuando una MV emite
un final de interrupción EOI ("End of interrupt").
Lo mismo que ocurre en modo real, durante la inicialización del controlador virtual VPICD, se
establece un manejador de excepciones por defecto para cada petición de interrupción (IRQ). Estos
manejadores determinan que máquina virtual será afectada y con que interrupción. También arbitran
los posibles conflictos cuando diversas máquinas virtuales intentan desenmascarar la misma
interrupción.
Si una MV desenmascara una IRQ que fue enmascarada cuando se inició Windows, es declarada
propietaria de dicha interrupción, y la IRQ será reflejada exclusivamente en su máquina propietaria (si
alguna otra MV intenta desenmascarar dicha interrupción, Windows terminará la segunda MV, y
puede señalar la necesidad de reiniciar el sistema).
Si algún otro VxD virtualiza una petición IRQ, es su responsabilidad determinar que MV debe recibir
las interrupciones y arbitrar los posibles conflictos. Además, el controlador por virtual por defecto
VPICD dejará de proporcionar soporte para dicha IRQ.
Controlador Controlador
Primario Secundario
IRQ 0 IRQ 8
IRQ 1 IRQ 9
IRQ 2 IRQ 10
IRQ 3 IRQ 11
IRQ 4 IRQ 12
IRQ 5 IRQ 13
IRQ 6 IRQ 15
IRQ 7 IRQ 15
A Dispositivos de
Hardware
Bus de Control
139
Manual de Armado y Reparación de PC.
El acceso directo a memoria (DMA, del inglés Direct Memory Access) permite a cierto tipo de
componentes de ordenador acceder a la memoria del sistema para leer o escribir independientemente
de la CPU principal. Muchos sistemas hardware utilizan DMA, incluyendo controladores de unidades
de disco, tarjetas gráficas y tarjetas de sonido. DMA es una característica esencial en todos los
ordenadores modernos, ya que permite a dispositivos de diferentes velocidades comunicarse sin
someter a la CPU a una carga masiva de interrupciones.
Cabe destacar que aunque no se necesite a la CPU para la transacción de datos, sí que se necesita el
bus del sistema (tanto bus de datos como bus de direcciones), por lo que existen diferentes estrategias
para regular su uso, permitiendo así que no quede totalmente acaparado por el controlador DMA.
Es utilizado por el microprocesador para señalar la celda de memoria (o el dispositivo de E/S) con el
que se quiere operar. El tipo de operación será de lectura o de escritura y los datos implicados viajarán
por el bus de datos.
Los dispositivos de E/S intercambian la información con el microprocesador mediante los puertos de
E/S. Cada puerto está asociado con un determinado dispositivo y tiene una dirección que lo identifica.
El ancho de este bus también es una medida de la potencia del microprocesador, ya que determina la
cantidad de memoria a la que éste puede acceder, es decir, la cantidad de espacio direccionable. El
espacio de direcciones es el rango de valores distintos que el microprocesador puede seleccionar. La
cantidad máxima de direcciones disponibles será 2 a la n, siendo n el número de líneas del bus de
direcciones.
Módulo de E/S
E/S programada
DMA
140
Manual de Armado y Reparación de PC.
E/S Programada
Los datos se intercambian entre el CPU y el módulo de E/S. El CPU ejecuta un programa que controla
directamente la operación de E/S, incluyendo la comprobación del estado del dispositivo, el envío de
la orden de lectura o escritura y la transferencia del dato. Cuando el CPU envía la orden debe esperar
hasta que la operación de E/S concluya. Si el CPU es más rápido, éste estará ocioso. El CPU es el
responsable de comprobar periódicamente el estado del módulo de E/S hasta que encuentre que la
operación ha finalizado.
Normalmente habrá muchos dispositivos de E/S conectados al sistema a través de los módulos de E/S.
Cada dispositivo tiene asociado un identificador o dirección. Cuando el CPU envía una orden de E/S,
la orden contiene la dirección del dispositivo deseado.
El problema con E/S programada es que el CPU tiene que esperar un tiempo considerable a que el
módulo de E/S en cuestión esté preparado para recibir o transmitir los datos. El CPU debe estar
comprobando continuamente el estado del módulo de E/S. Se degrada el desempeño del sistema.
Una alternativa es que el CPU tras enviar una orden de E/S continúe realizando algún trabajo útil. El
módulo de E/S interrumpirá al CPU para solicitar su servicio cuando esté preparado para intercambiar
datos. El CPU ejecuta la transferencia de datos y después continúa con el procesamiento previo.
E/S Síncronica: cuando la operación de E/S finaliza, el control es retornado al proceso que la
generó. La espera por E/S se lleva a cabo por medio de una instrucción wait que coloca al
CPU en un estado ocioso hasta que ocurre otra interrupción. Aquellas máquinas que no tienen
esta instrucción utilizan un loop. Este loop continúa hasta que ocurre una interrupción
transfiriendo el control a otra parte del sistema de operación. Sólo se atiende una solicitud de
E/S por vez. El sistema de operación conoce exactamente que dispositivo está interrumpiendo.
Esta alternativa excluye procesamiento simultáneo de E/S.
E/S Asincrónica: retorna al programa usuario sin esperar que la operación de E/S finalice. Se
necesita una llamada al sistema que le permita al usuario esperar por la finalización de E/S (si
es requerido). También es necesario llevar un control de las distintas solicitudes de E/S. Para
ello el sistema de operación utiliza una tabla que contiene una entrada por cada dispositivo de
E/S (Tabla de Estado de Dispositivos).
La ventaja de este tipo de E/S es el incremento de la eficiencia del sistema. Mientras se lleva a
cabo E/S, el CPU puede ser usado para procesar o para planificar otras E/S. Como la E/S
puede ser bastante lenta comparada con la velocidad del CPU, el sistema hace un mejor uso de
las facilidades.
Para iniciar una operación de E/S, el CPU actualiza los registros necesarios en el módulo de
E/S.
El módulo de E/S examina el contenido de estos registros pare determinar el tipo de acción a
ser llevada a cabo. Por ejemplo, si encuentra un requerimiento de lectura, el módulo de E/S
empezará a transferir data desde el dispositivo a los buffers locales. Una vez terminada la
141
Manual de Armado y Reparación de PC.
transferencia, el módulo informa al CPU que la operación ha terminado por medio de una
interrupción.
Procesamiento de la Interrupción
Cuando un dispositivo de E/S termina una operación de E/S, se produce la siguiente secuencia de
eventos:
El procesador comprueba si hay alguna interrupción. Si hay alguna, envía una señal de
reconocimiento al dispositivo que la originó
Una vez modificado el PC, el procesador continúa con el ciclo de instrucción siguiente. Es
decir, se transfiere el control a la rutina servidora de la interrupción.
Cuando el CPU recibe una interrupción que indica que se ha finalizado una operación de E/S, el
sistema de operación debe saber a cuál proceso pertenece. Para esto se mantiene una tabla de estado de
dispositivos. Cada entrada en la tabla contiene el tipo de dispositivo, su dirección y su estado (ocioso,
ocupado, no funcionando). Si es dispositivo se encuentra ocupado, entonces el tipo de solicitud junto
con otros parámetros son almacenados en la tabla (lista).
Las operaciones TYPEAHEAD son un esquema usado por algunos dispositivos que permiten a los
usuarios "adelantar" la entrada de datos antes de ser requeridas. Cuando sucede la interrupción de final
de E/S no hay proceso que la requirió, por lo tanto se necesita un buffer para almacenar los caracteres
adelantados hasta que algún programa los requiera. En general, se requiere un buffer para cada
terminal de entrada.
La E/S con interrupciones, aunque más eficiente que la E/S programada, también requiere la
intervención del CPU para transferir datos entre la memoria y el módulo de E/S.
Consideren el siguiente ejemplo. Cuando se va a leer una línea desde un terminal, el primer carácter
escrito es enviado al computador. Cuando el carácter es recibido por el controlador, éste interrumpe al
CPU, que le da servicio a la interrupción y luego continúa con el proceso que estaba ejecutando. Esto
es posible cuando el dispositivo es muy lento comparado con el CPU. Entre un carácter y otro el CPU
lleva a cabo gran cantidad de procesamiento. Pero qué sucede cuando estamos trabajando con
142
Manual de Armado y Reparación de PC.
dispositivos de E/S más veloces? Tendríamos interrupciones muy seguidas y se estaría desperdiciando
mucho tiempo.
Para evitar esto, se utiliza DMA para dispositivos de E/S de alta velocidad. E1 controlador del
dispositivo transfiere un bloque de datos desde o para sus buffers de almacenamiento a memoria
directamente sin intervención del CPU. Solo se produce una interrupción por bloque en lugar de tener
una interrupción por cada byte (o palabra).
Por ejemplo, un programa solicita una transferencia de datos. El Sistema de Operación busca un buffer
disponible. El controlador de DMA tiene sus registros actualizados con las direcciones de la fuente y
del destino y la longitud de la transferencia . Por lo general esta actualización es realizada por el
manejador de dispositivo (rutina). Se indica al controlador de DMA a través de bits de control en un
registro de control pare que inicie la operación de E/S. Mientras tanto el CPU puede llevar a cabo otras
operaciones. El controlador de DMA interrumpe el CPU cuando la transferencia ha sido terminada . El
CPU interviene solo al comienzo y al final de la transferencia.
El controlador de DMA (Direct Memory Access) toma prestado los buses de datos, de direcciones y
de control del sistema y envía un número programado de bytes desde un dispositivo de entrada/salida
hasta la memoria. El "8237 DMA controller" es el nombre del circuito integrado que utilizan los PCS
para esta función.
Cuando un dispositivo tiene un bloque de datos preparado para enviar a la memoria, envía una
petición al DMA poniendo una señal DRQn a "1". Si el canal de DMA se halla disponible, el DMA
enviará una señal HRQ (hold request) al microprocesador. El microprocesador responderá dejando los
buses libres y enviando una señal HLDA (hold acknowledge) al DMA. Luego el DMA obtiene el
control de los buses poniendo la señal AEN a nivel alto y envía la dirección de memoria a ser escrita.
Después el DMA envía la señal de DACKn (DMA acknowledge) al dispositivo. Finalmente el
controlador de DMA se ocupa de manejar las señales de MEMW y IOR del bus de control. Cuando la
transferencia de datos se ha completado vuelve a poner la señal HRQ a nivel bajo y el procesador
recupera el control de los buses de nuevo.
Busmaster DMA
Otra forma del Direct Memory Access es el Busmaster DMA, pero este no tiene nada que ver con el
chip de DMA, integrado en la placa madre, y del actual hemos hablado anteriormente.
En este tipo de acceso, la controladora del disco duro, desconecta a la CPU del BUS y transfiere los
datos con ayuda de un controlador Busmaster DMA con control propio.
De esta manera se pueden conseguir tasas de transferencia de has 8 mb/seg. Busmaster DMA solo se
empleaba en el caso de controladoras SCSI.
143
Manual de Armado y Reparación de PC.
No lo he mencionado al principio del articulo, debido a que no es nada mas que una variante del
Busmaster DMA, implementada en controladoras IDE y aumentada su velocidad de transferencia a 16
MB/s. Posteriormente surgió la UDMA 2 (o UDMA 33) hasta 33 megas/s. Y actualmente ya se están
vendiendo placas madre con controladoras incorporadas a 66 MB/seg.
El microprocesador:
144
Manual de Armado y Reparación de PC.
Funcionamiento de la CPU
Cuando se ejecuta un programa, el registro de la CPU, llamado contador de programa, lleva la cuenta
de la siguiente instrucción, para garantizar que las instrucciones se ejecuten en la secuencia adecuada.
La unidad de control de la CPU coordina y temporiza las funciones de la CPU, tras lo cual recupera la
siguiente instrucción desde la memoria. En una secuencia típica, la CPU localiza la instrucción en el
dispositivo de almacenamiento correspondiente. La instrucción viaja por el bus desde la memoria
hasta la CPU, donde se almacena en el registro de instrucción. Entretanto, el contador de programa se
incrementa en uno para prepararse para la siguiente instrucción. A continuación, la instrucción actual
es analizada por un descodificador, que determina lo que hará la instrucción. Cualquier dato requerido
por la instrucción es recuperado desde el dispositivo de almacenamiento correspondiente y se
almacena en el registro de datos de la CPU. A continuación, la CPU ejecuta la instrucción, y los
resultados se almacenan en otro registro o se copian en una dirección de memoria determinada.
El microprocesador
145
Manual de Armado y Reparación de PC.
Un cristal oscilante situado en el ordenador proporciona una señal de sincronización, o señal de reloj,
para coordinar todas las actividades del microprocesador. La velocidad de reloj de los
microprocesadores más avanzados es de unos 800 megahercios (MHz) —unos 800 millones de ciclos
por segundo—, lo que permite ejecutar más de 2.000 millones de instrucciones cada segundo.
Los microprocesadores suelen tener dos velocidades: Velocidad interna: velocidad a la que funciona
el micro internamente (500, 600, 800 MHz). Velocidad externa o de bus (FSB): velocidad con la que
se comunican el micro y la placa base (generalmente 60, 66 ó 100 MHz).
el encapsulado, que lo rodea para darle consistencia, impedir su deterioro y permitir el enlace
con los conectores externos.
Partes Internas
Todos estos elementos están conectados entre sí por medio de un conjunto de circuitos o conexiones
nombrado bus. Todo su funcionamiento se basa en interpretar las señales eléctricas como números y
de esta forma poder operar sobre ellas, para lo cual hace servir métodos como el álgebra de Boole.
El nombre de microprocesador nos describe sólo el conjunto de todos los componentes que forman la
CPU una vez encajados y listos para funcionar. Podemos
dividir cualquier procesador en dos grandes bloques: la
Unidad de Control (UC) y la Unidad de Proceso (up), se
comunican constantemente entre ellas. La Unidad de Control
es la encargada de gestionar y controlar el correcto
funcionamiento de la Unidad de Proceso, que es la que realiza
el trabajo. Esta tarea de gestión y control de la UC, se lleva a
cabo mediante la activación/desactivación de señales enviadas a
la up, indicadoras de qué acciones he de tomar en cada
momento.
La Unidad de Proceso está formada por más componentes tales como : la ALU, Registros, y buses.
En la imagen podemos ver el interior de la up, ésta en particular es muy simple, tiene unos cuántos
registros, tres buses y una ALU. Los buses A y B traen los datos de los registros hasta la ALU para ser
operados, y el C se encarga de llevar los datos resueltos hacia la memoria, o a los registros para ser
sobre escritos con un nueve valor.
146
Manual de Armado y Reparación de PC.
La UC en cambio, es la encargada de controlar y dar órdenes (qué órdenes pasan y por dónde, quien
va primero, como se ha de operar, etc.) sobre todos los procesos que se lleven a término dentro la up.
Estas órdenes son en el interior de la instrucción a ejecutar, por lo tanto podemos deducir que todas las
instrucciones primero pasan por la UC y de aquí hacia la up. La instrucción, contiene en su interior los
datos a operar, y al principio de todo el tipo de operación a realizar con aquellos datos.
· De transferencia de datos : Es la más típica, implica mover datos desde un sitio a otro. Se ha de
especificar la dirección de entrada y la dirección de destino, y la longitud a transferir.
· Aritméticas : Cuando se usan las operaciones básicas (suma, resto, multiplicación y división).
También hay de otros tipos como coger el valor absoluto de un número, negar (invertir) el operando.
Se pueden llevar a cabo sobre números enteros, pero también es necesario sobre reales. Este tipo de
operaciones son llevadas a cabo por la ALU, la cual puede hacer necesario una operación de
transferencia de datos.
· Lógicas : Realizan operaciones bit a bit, lo hace intermediando operaciones boleanas NOT AND OR
XOR.... Tienen múltiples utilidades, sobre todo si se combinan con operaciones que muevan bit a bit.
· De conversión : Se cambia el formato de los datos, puede ser necesario involucrar alguna operación
de: transferencia, aritméticas, lógicas, etc. ...
· De Entrada/Salida : Tienen que ver con la gestión de los dispositivos de E/S, a menudo utilizan
interrupciones.
147
Manual de Armado y Reparación de PC.
· De control del sistema : Tienen ciertos privilegios sobre los otros tipos de operaciones, por lo
general solamente pueden ser ejecutadas por el Sistema Operativo.
La Unidad Aritmético
Lógica es la que realiza las
operaciones del
microprocesador, se encarga
de sumar, restar, hacer
operaciones lógicas, etc. con
los operandos que le llegan
de los registros X e Y..
La Unidad de Control
gobierna todos los demás
elementos con unas líneas de
control que se van
encendiendo y apagando
sincronizadamente con la
señal de reloj.
Al reiniciar el microprocesador, la Unidad de Control recibe una señal de reset y prepara al resto del sistema y
recibe la señal de reloj que marca la velocidad del procesador.
- El registro PC (Program Counter), o Contador de Programa, se carga con la dirección de memoria en la que
empieza el programa.
- La Unidad de Control hace que el Contador de Programa (PC) aparezca en el bus de direcciones y le indica a la
RAM que quiere leer un dato que tiene almacenado en esa posición.
148
Manual de Armado y Reparación de PC.
- La memoria pone el dato, que es la instrucción del programa, en el bus de datos, desde el que se carga en el
Registro de Instrucciones (RI). La Unidad de Control procesa esto y va activando los movimientos de datos.
- La instrucción pasa del RI al Decodificador de Instrucciones (DI) que contiene una tabla con el significado de
la instrucción. El DI ejecuta la instrucción y sino puede consulta con la Unidad de Control.
- Si la instrucción fuese una suma, la UC cargaría los valores a sumar en los registros A y B de la UAL. Luego le
ordenaría a la UAL que los sumase y lo pusiera en el bus de datos.
- Luego la UC haría que el Contador de Programa avanzara un paso para ejecutar la siguiente instrucción y así
sucesivamente.
Coprocesador
Coprocesador matemático: procesador diferente del microprocesador principal, que ejecuta funciones
adicionales o que ayuda al microprocesador principal. El tipo de coprocesador más común es el de
coma flotante o más correctamente la FPU (Floating Point Unit, Unidad ), también llamado numérico o
matemático, diseñado para ejecutar los cálculos numéricos más rápidamente y mejor que los
microprocesadores de aplicaciones generales utilizados en los PC. Los procesadores de última
generación para PC incorporan lógica de coma flotante, por lo que este tipo de componente resulta
innecesario.
Instrucciones SIMD
Los datos involucrados en las operaciones del microprocesador tienden a ser pequeños valores que
pueden ser representados con un pequeño número de bits.
149
Manual de Armado y Reparación de PC.
Este tipo de operación se llama Single Instruction Múltiple Data (SIMD) y puede reducir el número de
instrucciones que un programa necesita para manejar determinada cantidad de datos.
Las instrucciones SIMD se encuentran integradas en los procesadores de PC actuales y aceleran una
amplia gama de aplicaciones, que incluyen video, reconocimiento de voz, imagen, encriptación,
aplicaciones científicas, de ingeniería y financieras. Sin embargo, para aprovecharlas, el software debe
estar escrito especialmente para ellas.
Las instrucciones SIMD, como 3Dnow! Y SSE2, pueden acelerar operaciones de enteros o de coma
flotante pero su mayor beneficio y uso se da en las segundas. MMX, en cambio, sólo acelera las
operaciones con enteros y gráficos 2D.
MMX
La tecnología MMX fue integrada en la quinta generación de procesadores como un agregado para
mejorar las tareas multimedia. Entre estas funciones se encuentran la compresión y descompresión de
video, la manipulación de imágenes y la encriptación.
En concreto, MMX es un conjunto de 57 nuevas instrucciones específicamente pensadas para acelerar
los programas que usan audio, video y gráficos. Sin embargo, estas instrucciones no alivian el trabajo
de la FPU del procesador sino que refuerzan el trabajo con números enteros (integer). Para aprovechar
la mejora de performance que brinda MMX, el software debe estar programado para hacer uso de las
nuevas instrucciones. Como Intel licenció esta tecnología a sus competidores hoy en día es un estándar
presente en todos los procesadores modernos.
3DNow!
En 1998, AMD presentó una nueva colección de instrucciones en sus procesadores para mejorar el
desempeño 3D. 3Dnow! Consiste en 21 nuevas instrucciones a la manera MMX pero dirigidas a
reforzar las operaciones de coma flotantes. Esta mejora fue importante dada la relativa debilidad de la
FPU de los micros K6 de esa época. Además de realizar cálculos de geometría 3D hay instrucciones
para funciones especificas como la compresión/descompresión de video MPEG-2. Con el procesador
Atolón (K7), AMD integró más instrucciones bajo el nombre de Enhanced 3Dnow! (3Dnow!
Mejorado). 3Dnow! Está presente en los procesadores K6-2, K6-III y Atholon así como también en el
Cyrix III de VIA. Enhanced 3Dnow! Se encuentra en Atholon y posteriores.
SSE
Con el procesador Pentium III, Intel introdujo un nuevo conjunto de instrucciones dirigidas a acelerar
la performance en juegos 3D y aplicaciones con uso intensivo de la FPU. Estas 70 instrucciones son
conocidas como MMX2, KNI (Katmai New Instructions), o más comúnmente, SSE (Streaming SIMD
Extensions). La tecnología SSE fue lanzada 6 meses después de 3Dnow! , Y sus funciones y su
rendimiento son similares.
SSE 2
Streaming SIMD Extensions 2 es una de las características de los procesadores Pentium 4 mas
mencionadas, aunque en verdad poco se sabe de la función que cumplen. Imaginémonos que tenemos
que realizar la misma operación con una gran cantidad de números. Por ejemplo, debemos
multiplicarlos por cierto valor. De una manera convencional, se debería realizar la operación uno por
uno y enviarle la misma instrucción al procesador en cada caso. Con una instrucción SIMD, la orden
que se le entrega es una simple multiplicación de un vector (conjunto de números) por un escalar
(numero simple). De esta forma se ahorra bastante tiempo. Las mejoras de SSE implementadas en el
Pentium 4 se refieren principalmente a la utilización de registros de mayor tamaño, y la inclusión de
mayor cantidad de instrucciones para él caché de los datos.
Obviamente, todo software que no utilice estas instrucciones no se verá beneficiado en absoluto por
esta característica. Por cierto, los procesadores de AMD incluyen soporte completo a las instrucciones
SSE desde los Atholon XP, y a SSE 2 desde los Atholon 64.
150
Manual de Armado y Reparación de PC.
Memoria de computadora
Como el microprocesador no es capaz por sí solo de albergar la gran cantidad de memoria necesaria
para almacenar instrucciones y datos de programa (por ejemplo, el texto de un programa de
tratamiento de texto), pueden emplearse transistores como elementos de memoria en combinación con
el microprocesador. Para proporcionar la memoria necesaria se emplean otros circuitos integrados
llamados chips de memoria de acceso aleatorio (RAM), que contienen grandes cantidades de
transistores. Existen diversos tipos de memoria de acceso aleatorio. La RAM estática (SRAM)
conserva la información mientras esté conectada la tensión de alimentación, y suele emplearse como
memoria caché porque funciona a gran velocidad. Otro tipo de memoria, la RAM dinámica (DRAM),
es más lenta que la SRAM y debe recibir electricidad periódicamente para no borrarse. La DRAM
resulta más económica que la SRAM y se emplea como elemento principal de memoria en la mayoría
de las computadoras.
Microcontrolador
Comparación
Cuando se ejecuta un programa difícil, o extenso, los CISC son más rápidos y eficaces que los RISC.
En cambio cuando tenemos en ejecución un conjunto de instrucciones sencillas, cortas y simples,
tenemos que los RISC son más rápidos. Estas desigualdades también se dan entre los diferentes
modelos y marcas de los dos tipos de procesadores.
Semiconductores
Todos los circuitos integrados se fabrican con semiconductores, sustancias cuya capacidad de conducir
la electricidad es intermedia entre la de un conductor y la de un no conductor o aislante. El silicio es el
material semiconductor más habitual. Como la conductividad eléctrica de un semiconductor puede
variar según la tensión aplicada al mismo, los transistores fabricados con semiconductores actúan
como minúsculos conmutadores que abren y cierran el paso de corriente en sólo unos pocos
nanosegundos (milmillonésimas de segundo). Esto permite que un ordenador pueda realizar millones
de instrucciones sencillas cada segundo y ejecutar rápidamente tareas complejas.
151
Manual de Armado y Reparación de PC.
Transistores
Fabricación de microprocesadores
Los microprocesadores se fabrican empleando técnicas similares a las usadas para otros circuitos
integrados, como chips de memoria. Generalmente, los microprocesadores tienen una estructura más
compleja que otros chips, y su fabricación exige técnicas extremadamente precisas.
Casi todas las capas que se depositan sobre la oblea deben corresponder
con la forma y disposición de los transistores y otros elementos
electrónicos. Generalmente esto se logra mediante un proceso llamado
fotolitografía, que equivale a convertir la oblea en un trozo de película
fotográfica y proyectar sobre la misma una imagen del circuito deseado. Para ello se deposita sobre la
superficie de la oblea una capa fotosensible cuyas propiedades cambian al ser expuesta a la luz. Los
detalles del circuito pueden llegar a tener un tamaño de sólo 0,25 micras. Como la longitud de onda
más corta de la luz visible es de unas 0,5 micras, es necesario emplear luz ultravioleta de baja longitud
de onda para resolver los detalles más pequeños. Después de proyectar el circuito sobre la capa foto
resistente y revelar la misma, la oblea se graba: esto es, se elimina la parte de la oblea no protegida por
la imagen grabada del circuito mediante productos químicos (un proceso conocido como grabado
húmedo) o exponiéndola a un gas corrosivo llamado plasma en una cámara de vacío especial.
En el siguiente paso del proceso, la implantación iónica, se introducen en el silicio impurezas como
boro o fósforo para alterar su conductividad. Esto se logra ionizando los átomos de boro o de fósforo
(quitándoles uno o dos electrones) y lanzándolos contra la oblea a grandes energías mediante un
implantador iónico. Los iones quedan incrustados en la superficie de la oblea.
152
Manual de Armado y Reparación de PC.
En el último paso del proceso, las capas o películas de material empleadas para fabricar un
microprocesador se depositan mediante el bombardeo atómico en un plasma, la evaporación (en la que
el material se funde y posteriormente se evapora para cubrir la oblea) o la deposición de vapor
químico, en la que el material se condensa a partir de un gas a baja
presión o a presión atmosférica. En todos los casos, la película debe
ser de gran pureza, y su espesor debe controlarse con una precisión
de una fracción de micra.
El microprocesador en sí, no es nada más que una fina placa de silicio dónde van soldados un conjunto
de componentes electrónicos, y estos son los encargados de manejar todas las señales eléctricas que
representan los bits (acrónimo de BInary digiT), ceros, cuando hay ausencia de corriente, y unos,
cuando pasa corriente eléctrica. Se utilizan mayoritariamente transistores puesto que estos usan el
silicio, el cual es un material semiconductor, estos materiales tienen la propiedad de que en ciertas
condiciones permiten o no dejar pasar la corriente a través suyo, y así resulta más sencillo simbolizar
el código binario.
Un transistor consta de tres capas de materiales, la primera: de metal, la segunda: aislante, y la tercera
hecha de una mezcla de silicio, uno conductor (n), y el otro aislante (p). En su estado normal no pasa
corriente puesto que el silicio tipo p obstruye el paso de la corriente; pero si aplicamos tensión a la
primera capa, ésta crea un campo positivo que hace que se acumulen electrones en la parte superior del
silicio p, dejando así el paso de la corriente a través suyo (se convierte en silicio n). En el momento
que se quiera dejar de permitir el paso a la corriente, se aplica un campo negativo a la primera capa
obligando de esta forma al silicio p a repeler los electrones, y volver a su estado inicial.
Así pues, tenemos que para simbolizar un cero, no se deja pasar la corriente, y para el uno, en cambio,
si que la dejamos pasar. Y básicamente en esto consiste un microprocesador, en el funcionamiento de
los transistores (ausencia o presencia de corriente eléctrica).
En la imagen, podemos observar como se ven los componentes internos del micro, la mayoría
transistores, a simple vista. En cambio a la derecha observamos una prueba de Intel para mejorar la
estructura interna del micro, es decir, el core. Se está trabajando en la mejora estructural de las capas
que lo componen.
Respecto la CPU, hablaremos de la utilidad del proceso en tiempo compartido en las operaciones del
micro. Estos tipos de procesadores se les denomina "fuera-de orden". En un procesador normal, sin
segmentar, tenemos que empieza las operaciones sólo cuando el anterior ya ha acabado, en cambio en
los procesadores segmentados, las operaciones se intercalan entre ellas, el que se respeta es la duración
de una etapa, acto seguido se usan las interrupciones para dejar pasar primero a una en lugar de otra.
En el gráfico de abajo podemos confirmar que ejecutar operaciones segmentadas es más eficiente que
ejecutarlas sin segmentar, ahora vemos cada una de estas etapas.
153
Manual de Armado y Reparación de PC.
Varias veces dijimos que las complejas tareas de un microprocesador son, en realidad, una enorme
sucesión de tareas simples. Por eso, para entender cómo funciona un microprocesador, sus partes y su
interconexión con el mundo exterior, vamos a dar un ejemplo
sencillo vamos a realizar un programa para la suma de dos
datos, para esto el microprocesador necesitaría cuatro
instrucciones: cargar, sumar, mover y almacenar. Recordemos
que el microprocesador no interpreta instrucciones por
palabras, sino por números, entonces necesitamos una
combinación de cuatro números binarios diferentes para cada
instrucción. Para estas cuatro instrucciones, entonces, sólo
precisamos una tabla de estado de 2 bits.
Necesitamos un programa, que en este caso será “sumar dos datos”. Cada instrucción que se va a
ejecutar y cada dato que se va a procesar están en una posición de memoria diferente, vinculados al
microprocesador a través del bus de datos y el bus de direcciones.
Por cada ciclo o pulso de reloj, se ejecuta una instrucción. Recordemos que el reloj es el que marca el
paso para la coordinación de los pasos. De esta manera, para este programa necesitamos nueve ciclos
de reloj:
154
Manual de Armado y Reparación de PC.
La memoria caché:
Una memoria ultrarrápida que emplea el micro para tener a mano ciertos datos que previsiblemente
serán utilizados en las siguientes operaciones sin tener que acudir a la memoria RAM, reduciendo el
tiempo de espera.
Todos los micros "compatibles PC" desde el 486 poseen al menos la llamada caché interna de primer
nivel o L1; es decir, la que está más cerca del micro, tanto que está encapsulada junto a él. Los micros
más modernos (Pentium III Coppermine, Athlon Thunderbird, etc.) incluyen también en su interior
otro nivel de caché, más grande aunque algo menos rápida, la caché de segundo nivel o L2.
Actualmente ya podemos hablar de cache L3.
Debe tenerse en cuenta que un ordenador con un micro a 600 MHz no será nunca el doble de rápido
que uno con un micro a 300 MHz, hay que tener muy en cuenta otros factores como la velocidad de la
placa o la influencia de los demás componentes. Esto no se tiene apenas en cuenta en el índice
iCOMP, una tabla o gráfico de valores del supuesto rendimiento de los micros marca Intel. Es muy
utilizado por Intel en sus folletos publicitarios, aunque no es en absoluto representativo del
rendimiento final de un ordenador con alguno de esos micros. En realidad, las diferencias están muy
exageradas, a base de realizar pruebas que casi sólo dependen del micro (y no de la placa base, la
tarjeta de vídeo, el disco duro...), por lo que siempre parece que el rendimiento del ordenador crecerá
linealmente con el número de MHz, cosa que no ocurre prácticamente jamás. Un ordenador con
Pentium MMX a 233 MHz es sólo un 3 ó 4% mejor que uno a 200 MHz, y no el 16,5% de su
diferencia de MHz ni el 11,5% de sus índices iCOMP.
155
Manual de Armado y Reparación de PC.
Estructura del P4
156
Manual de Armado y Reparación de PC.
Un Microprocesador CISC entiende y ejecuta cientos de las instrucciones que conforman el set, uno de
tipo RISC hace lo propio con muy pocas instrucciones. A partir de esto, se puede decir que un
procesador CISC es mas rápido y eficiente pero no es así, los de este tipo son mas lentos y
complicados que un RISC, ya que el primero tarda mas tiempo en ejecutar cada instrucción, mientras
un RISC maneja pocas instrucciones simples de forma rápida, logrando en combinación la
equivalencia con las instrucciones complejas de la tecnología RISC.
La tecnología RISC es la empleada en los procesadores Macintosh, así como también en los micros
modernos de PC, como los Pentium 4. Las instrucciones CISC se encuentran generalmente en
microprocesadores más antiguos como el 80486.
Sumada a estas dos versiones, encontramos el sistema de instrucción VLIW (Very Long Instruction
Word), que utiliza instrucciones más largas que las empleadas en las arquitecturas CISC y RISC. El
concepto en este caso es trabajar con varias instrucciones en una sola operación, este sistema no es
empleado por Intel o AMD.
Set de instrucciones
Cada instrucción es un número binario que el microprocesador debe interpretar para hacer la operación
consiguiente. Quien indica a que número binario le corresponde cada instrucción es el set de
instrucciones. Se conoce como set de instrucciones al conjunto de instrucciones que es capaz de
entender y ejecutar un microprocesador. En función del tipo de microprocesador –concretamente, si es
más avanzado o no-, podrá entender y ejecutar más o menos instrucciones.
El HyperTransport corre entre los 200-1400 MHz (comparado con el pci que corre a 33 o 66 MHz). Es
un bus DDR (Doble tasa de transferencia de datos en castellano), el cual permite la transferencia de
datos por dos canales distintos simultáneamente en un mismo ciclo de reloj.
HyperTransport (HT)
157
Manual de Armado y Reparación de PC.
El primer microprocesador fue el Intel 4004, producido en 1971. Se desarrolló originalmente para una
calculadora y resultaba revolucionario para su época. Contenía 2.300 transistores en un
microprocesador de 4 bits que sólo podía realizar 60.000 operaciones por segundo. El primer
microprocesador de 8 bits fue el Intel 8008, desarrollado en 1979 para su empleo en terminales
informáticos. El Intel 8008 contenía 3.300 transistores. El primer microprocesador realmente diseñado
para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4.500 transistores y
podía ejecutar 200.000 instrucciones por segundo. Los microprocesadores modernos tienen una
capacidad y velocidad muchos mayores.
El primer "PC" o Personal Computer fue inventado por IBM en 1.981 (a decir verdad, ya existían
ordenadores personales antes, pero el modelo de IBM tuvo gran éxito, entre otras cosas porque era
fácil de copiar). En su interior había un micro denominado 8088, de una empresa no muy conocida
llamada Intel.
Las prestaciones de dicho chip resultan risibles hoy en día: un chip de 8 bits trabajando a 4,77 MHz
(sí, 4 coma 77), aunque bastante razonables para una época en la que el chip de moda era el Z80 de
Zilog, el motor de aquellos entrañables Spectrum que hicieron furor en aquellos tiempos, gracias sobre
todo a juegos increíbles, con más gracia y arte que muchos actuales para Pentium MMX.
El 8088 era una versión de prestaciones reducidas del 8086, que marcó la coletilla "86" para los
siguientes chips Intel: el 80186 (que se usó principalmente para controlar periféricos), el 80286 (de
cifras aterradoras, 16 bits y hasta 20 MHz) y por fin, en 1.987, el primer micro de 32 bits, el 80386 o
simplemente 386.
Al ser de 32 bits (ya comentaremos qué significa esto de los bits) permitía idear software más
moderno, con funcionalidades como multitarea real, es decir, disponer de más de un programa
trabajando a la vez. A partir de entonces todos los chips compatibles Intel han sido de 32 bits, incluso
el flamante Pentium II.
Aunque sí existen chips compatibles Intel de otras empresas, entre las que destacan AMD y Cyrix.
Estas empresas comenzaron copiando flagrantemente a Intel, hasta hacerle a veces mucho daño (con
productos como el 386 de AMD, que llegaba a 40 MHz frente a 33 MHz del de Intel, o bien en el
mercado 486). Posteriormente perdieron el carro de Intel, especialmente el publicitario, pero hoy en
día resurgen con ideas nuevas, buenas y propias, no adoptadas como antes.
158
Manual de Armado y Reparación de PC.
Volviendo a la historia, un día llegó el 486, que era un 386 con un coprocesador matemático
incorporado y una memoria caché integrada, lo que le hacía más rápido; desde entonces todos los
chips tienen ambos en su interior.
Luego vino el Pentium, un nombre inventado para evitar que surgieran 586s marca AMD o Cyrix, ya
que no era posible patentar un número pero sí un nombre, lo que aprovecharon para sacar fuertes
campañas de publicidad del "Intel Inside" (Intel dentro), hasta llegar a los técnicos informáticos de
colores que anunciaban los Pentium MMX y los Pentium II.
Microprocesadores antiguos
Les juntamos por ser todos prehistóricos y de rendimiento similar. Los ordenadores con los dos
primeros eran en ocasiones conocidos como ordenadores XT, mientras que los que tenían un 286
(80286 para los puristas) se conocían como AT. En España se vendieron muchos ordenadores con
estos micros por la firma Amstrad, por ejemplo.
Ninguno era de 32 bits, sino de 8 ó 16, bien en el bus interno o el externo. Esto significa que los datos
iban por caminos (buses) que eran de 8 ó 16 bits, bien por dentro del chip o cuando salían al exterior,
por ejemplo para ir a la memoria. Este número reducido de bits (un bit es la unidad mínima de
información en electrónica) limita sus posibilidades en gran medida.
Un chip de estas características tiene como entorno preferente y casi único el DOS, aunque puede
hacerse correr Windows 3.1 sobre un 286 a 16 ó 20 MHz si las aplicaciones que vamos a utilizar no
son nada exigentes; personalmente, he usado el procesador de textos AmiPro 1.2 en Windows 3.1 en
un 286 y sólo era cuestión de tomármelo con calma (mucha calma cuando le mandaba imprimir, eso
sí).
386, 386 SX
Estos chips ya son más modernos, aunque aún del Neolítico informático. Su ventaja es que son de 32
bits; o mejor dicho, el 386 es de 32 bits; el 386 SX es de 32 bits internamente, pero de 16 en el bus
externo, lo que le hace hasta un 25% más lento que el original, conocido como DX.
Resulta curioso que el más potente sea el original, el 386. La versión SX fue sacada al mercado por
Intel siguiendo una táctica comercial típica en esta empresa: dejar adelantos tecnológicos en reserva,
manteniendo los precios altos, mientras se sacan versiones reducidas (las "SX") a precios más bajos.
La cuestión es que ambos pueden usar software de 32 bits, aunque si lo que quiere usar es Windows
95 ¡ni se le ocurra pensar en un 386! Suponiendo que tenga suficiente memoria RAM, disco, etc.,
prepárese para esperar horas para realizar cualquier tontería.
Su ámbito natural es DOS y Windows 3.x, donde pueden manejar aplicaciones bastante profesionales
como Microsoft Word sin demasiados problemas, e incluso navegar por Internet de forma
razonablemente rápida. Si lo que quiere es multitarea y software de 32 bits en un 386, piense en los
sistemas operativos OS/2 o Linux.
159
Manual de Armado y Reparación de PC.
La historia se repite, aunque esta vez entra en el campo del absurdo de la mano del marketing "Intel
Inside". El 486 es el original, y su nombre completo es 80486 DX; consiste en:
Es de notar que la puesta a punto del núcleo 386 y sobre todo la memoria caché lo hacen mucho más
rápido, casi el doble, que un 386 a su misma velocidad de reloj (mismos MHz). Hasta aquí el original;
veamos las variantes:
486 SX: un DX sin coprocesador matemático. ¿Que cómo se hace eso? Sencillo: se hacen
todos como DX y se quema el coprocesador, tras lo cual en vez de "DX" se escribe "SX"
sobre el chip. Dantesco, ¿verdad? Pero la teoría dice que si lo haces y lo vendes más barato,
sacas dinero de alguna forma. Lo dicho, alucinante.
486 DX2: o el "2x1": un 486 "completo" que va internamente el doble de rápido que
externamente (es decir, al doble de MHz). Así, un 486 DX2-66 va a 66 MHz en su interior y a
33 MHz en sus comunicaciones con la placa (memoria, caché secundaria...). Buena idea, Intel.
486 DX4: o cómo hacer que 3x1=4. El mismo truco que antes, pero multiplicando por 3 en
vez de por 2 (DX4-100 significa 33x3=99 ó, más o menos, 100). ¿Que por qué no se llama
DX3? El 4 es más bonito y grande...
En este terreno Cyrix y AMD hicieron de todo, desde micros "Light" que eran 386 potenciados (por
ejemplo, con sólo 1 Kb de caché en vez de 8) hasta chips muy buenos como el que usé para empezar a
escribir esto: un AMD DX4-120 (40 MHz por 3), que rinde casi (casi) como un Pentium 75, o incluso
uno a 133 MHz (33 MHz por 4 y con 16 Kb de caché!!).
Por cierto, tanto "por" acaba por generar un cuello de botella, ya que hacer pasar 100 ó 133 MHz por
un hueco para 33 es complicado, lo que hace que más que "x3" acabe siendo algo así como "x2,75"
(que tampoco está mal). Además, genera calor, por lo que debe usarse un disipador de cobre y un
ventilador sobre el chip.
En un 486 se puede hacer de todo, sobre todo si supera los 66 MHz y tenemos suficiente RAM; por
ejemplo, yo hice gran parte de estas páginas, que no es poco.
Microprocesadores modernos
Modernos dentro de un orden, ya que actualmente la mayoría ni se fabrican. De todas formas, son
micros bastante decentes, de la clase que no debería ser cambiada salvo por defunción o puro vicio
(vicio comprensible, sin duda).
¿Y llegó por fin el esperado 586? No, y no llegaría nunca. Intel se hartó de que le copiaran el nombre
de sus micros, desempolvó su latín y se dio cuenta de que
5=Pentium (o algo así), y lo registró con todo tipo de Copyrights.
160
Manual de Armado y Reparación de PC.
Luego los depuraron, les bajaron el voltaje a 3,3 V y empezó de nuevo el marketing. Fijaron las
frecuencias de las placas base en 50, 60 ó 66 MHz, y sacaron, más o menos por este orden, chips a 90,
100, 75, 120, 133, 150, 166 y 200 MHz (que iban internamente a 50, 60 ó 66 x1,5, x2, x2,5...). Una
situación absurda, propia del lema "Intel Inside".
El caso es que sobraban muchas de las variantes, pues un 120 (60x2) no era mucho mejor que un 100
(66x1,5), y entre el 133 (66x2) y el 150 (60x2,5) la diferencia era del orden del 2% (o menor), debido
a esa diferencia a nivel de placa. Además, el "cuello de botella" hacía que el 200 se pareciera
peligrosamente a un 166 en un buen día.
K5 de AMD
Hasta que AMD se cansó de padecer y sacó su "Pentium clónico", que no era tal, pues ni podía
llamarlo Pentium (copyright, chicos) ni estaba copiado, sino que le costó sangre, sudor, lágrimas... y
varios años de retraso.
El K5 era un buen chip, rápido para labores de oficina pero con peor coprocesador matemático que el
Pentium, por lo que no era apropiado para CAD ni para ciertos juegos tipo Quake, que son las únicas
aplicaciones que usan esta parte del micro. Su ventaja, la relación prestaciones/precio.
Técnicamente, los modelos PR75, PR90 y PR100 se configuraban igual que sus PR equivalentes (sus
Performance Rating) en Pentium, mientras que los PR120, PR133 y PR166 eran más avanzados, por
lo que necesitaban ir a menos MHz (sólo 90, 100 y 116,66 MHz) para alcanzar ese PR equivalente.
Un señor avance de Cyrix. Un chip tan bueno que, a los mismos MHz, era algo mejor que un Pentium,
por lo que los llamaban por su PR (un índice que indicaba cuál sería su Pentium equivalente); AMD
usó también este método para tres de sus K5 (los PR120, 133 y 166). Según Cyrix, un 6x86 P133 iba a
menos MHz (en concreto 110), pero rendía tanto o más que un Pentium a 133. Bueno, más o menos;
no siempre era así.
En realidad, algunos cálculos de Cyrix le beneficiaban un poco, ya que le daban un par de puntos más
de los reales; pero esto era insignificante. El auténtico problema radicaba en su unidad de coma
flotante, francamente mala.
El 6x86 (también llamado M1) era una elección fantástica para trabajar rápido y a buen precio con
Office, WordPerfect, Windows 95... Pero mala, peor que un K5 de AMD, si se trataba de AutoCAD,
Microstation o, sobre todo, juegos. Jugar a Quake en un 6x86 es una experiencia horrible, hasta el
punto de que muchos juegos de alta gama no arrancan si lo detectan.
Otro problema de estos chips era que se calentaban mucho, por lo que hicieron una versión de bajo
voltaje llamada 6x86L (low voltage). Ah, Cyrix no tiene fábricas propias, por lo que se lo hace IBM,
que se queda un chip de cada dos. Por eso a veces aparece como "6x86 de IBM", que parece que
asusta menos al comprador.
Pentium Pro
161
Manual de Armado y Reparación de PC.
Mientras AMD y Cyrix padecían su particular viacrucis, Intel decidió innovar el terreno informático y
sacó un "súper-micro", al que tuvo la original idea llamarlo Pro (Profesional).
Este micro era más superescalar que el Pentium, tenía un núcleo más depurado, incluía una unidad
matemática aún más rápida y, sobre todo, tenía la caché de segundo nivel en el encapsulado del chip.
Esto no quiere decir que fuera una nueva caché interna, término que se reserva para la de primer nivel.
Un Pentium Pro tiene una caché de primer nivel junto al resto del micro, y además una de segundo
nivel "en la habitación de al lado", sólo separada del corazón del micro por un centímetro y a la
misma velocidad que éste, no a la de la placa (más baja); digamos que es semi-interna. El micro es
bastante grande, para poder alojar a la caché, y va sobre un zócalo rectangular llamado socket 8.
El único problema de este micro era su carácter profesional. Además de ser muy caro, necesitaba
correr software sólo de 32 bits. Con software de 16 bits, o incluso una mezcla de 32 y 16 bits como
Windows 95, su rendimiento es menor que el de un Pentium clásico; sin embargo, en Windows NT,
OS/2 o Linux, literalmente vuela.
Pentium MMX
Es un micro propio de la filosofía Intel. Con un gran chip como el Pentium Pro ya
en el mercado, y a 3 meses escasos de sacar el Pentium II, decidió estirar un poco
más la tecnología ya obsoleta del Pentium clásico en vez de ofrecer esas nuevas
soluciones a un precio razonable.
Así que se inventó un nuevo conjunto de instrucciones para micro, que para ser
modernos tuvieran que ver con el rendimiento de las aplicaciones multimedia, y
las llamó MMX (MultiMedia eXtensions). Prometían que el nuevo Pentium, con las MMX y el doble
de caché (32 KB), podía tener ¡hasta un 60% más de rendimiento!!
En ocasiones, la ventaja puede llegar al 25%, y sólo en aplicaciones muy optimizadas para MMX (ni
Windows 95 ni Office lo son, por ejemplo). En el resto, no más de un
10%, que además se debe casi en exclusiva al aumento de la caché
interna al doble.
¿La ventaja del chip, entonces? Que su precio final acaba siendo igual
que si no fuera MMX. Además, consume y se calienta menos por tener
voltaje reducido para el núcleo del chip (2,8 V). Por cierto, el modelo a
233 MHz (66 MHz en placa por 3,5) está tan estrangulado por ese
"cuello de botella" que rinde poco más que el 200 (66 por 3).
Pentium II
¿El nuevo súper-extra-chip? Pues no del todo. En realidad, se trata del viejo Pentium Pro, jubilado
antes de tiempo, con algunos cambios (no todos para mejor) y en una nueva y fantástica presentación,
el cartucho SEC: una cajita negra que en vez de a un zócalo se conecta a una ranura llamada Slot 1.
optimizado para MMX (no sirve de mucho, pero hay que estar en la onda, chicos);
nuevo encapsulado y conector a la placa (para eliminar a la competencia, como veremos);
162
Manual de Armado y Reparación de PC.
rendimiento de 16 bits mejorado (ahora sí es mejor que un Pentium en Windows 95, pero a
costa de desaprovecharlo; lo suyo son 32 bits puros);
caché secundaria encapsulada junto al chip (semi-interna, como si dijéramos), pero a la mitad
de la velocidad de éste (un retroceso desde el Pro, que iba a la misma velocidad; abarata los
costes de fabricación).
Vamos, un chip "Pro 2.0", con muchas luces y algunas sombras. La mayor sombra, su método de
conexión, el "Slot 1"; Intel lo patentó, lo que es algo así como patentar un enchufe cuadrado en vez de
uno redondo (salvando las distancias, no nos pongamos puristas). El caso es que la jugada buscaba
conseguir que los PC fueran todos marca Intel; ¡y decían que los sistemas propietarios eran cosa de
Apple!.
Eso sí, durante bastante tiempo fue el mejor chip del mercado, especialmente
desde que se dejó de fabricar el Pro.
AMD K6
Un chip meritorio, mucho mejor que el K5. Incluía la "magia" MMX, aparte de un diseño interno
increíblemente innovador y una caché interna de 64 KB (no hace demasiado, ese tamaño lo tenían las
caché externas).
Aunque es algo peor en cuanto a cálculos de coma flotante (CAD y juegos), para oficina es la opción a
elegir en todo el mundo... excepto España. Aquí nos ha encantado lo de "Intel Pentium Inside", y la
gente no compra nada sin esta frase, por lo que casi nadie lo vende y mucho menos a los precios
ridículos de lugares como EEUU o Alemania. Oferta y demanda, como todo; no basta con una buena
idea, hay que convencer. De todas formas, hasta IBM lo usa en algunos de sus equipos; por algo será.
Nada que añadir a lo dicho sobre el 6x86 clásico y el K6 de AMD; pues eso, un chip muy bueno para
trabajo de oficinas, que incluye MMX y que nunca debe elegirse para CAD o juegos (peor que los
AMD).
En breve: un Pentium II sin la caché secundaria. Pensado para liquidar el mercado de placas base tipo
Pentium no II (con socket 7) y liquidar definitivamente a AMD y otras empresas molestas que usan
estas placas. Muy poco recomendable, rendimiento mucho más bajo que el de Pentium II, casi
idéntico al del Pentium MMX (según lo que la misma Intel dixit). Para saber más, consulte entre los
temas Relacionados el apartado de artículos sobre placas base.
Consiste en una revisión del K6, con un núcleo similar pero añadiéndole capacidades 3D en lo que
AMD llama la tecnología 3DNow! (algo así como un MMX para 3D).
Además, generalmente trabaja con un bus de 100 MHz hacia caché y memoria, lo que le hace rendir
igual que un Pentium II en casi todas las condiciones e incluso mucho mejor que éste cuando se trata
163
Manual de Armado y Reparación de PC.
de juegos 3D modernos (ya que necesitan estar optimizados para este chip o bien usar las DirectX 6 de
Microsoft.
Microprocesadores actuales
AMD K6-III
Un micro casi idéntico al K6-2, excepto por el "pequeño detalle" de que incluye 256 KB de caché
secundaria integrada, corriendo a la velocidad del micro (es decir, a 400 MHz o más), al estilo de
los Celeron Mendocino.
Una revisión muy interesante del Celeron que incluye 128 KB de caché secundaria, la cuarta parte de
la que tiene un Pentium II. Pero mientras que en los Pentium II dicha caché trabaja a la mitad de la
velocidad interna del micro (a 150 MHz para un Pentium II a 300
MHz, por ejemplo), en los nuevos Celeron trabaja a la misma
velocidad que el micro, o lo que es lo mismo: ¡a 300 MHz o más!
Pentium III
Este micro sería al Pentium II lo que el K6-2 era al K6; es decir, que su
única diferencia de importancia radica en la incorporación de unas
nuevas instrucciones (las SSE, Streaming SIMD Extensions), que
aumentan el rendimiento matemático y multimedia... pero sólo en
aplicaciones específicamente optimizadas para ello.
164
Manual de Armado y Reparación de PC.
Pentium III Coppermine "el auténtico Pentium III", porque al tener sus 256 KB de caché secundaria
integrados en el núcleo del micro su rendimiento mejora en todo tipo de aplicaciones (incluso las no
optimizadas). Pero tal vez no sea suficiente para vencer al siguiente
micro de esta lista.
AMD Duron
La gran apuesta de AMD: un micro con una arquitectura totalmente nueva, que le permite ser el más
rápido en todo tipo de aplicaciones. 128 KB de caché de primer nivel (cuatro veces más que el
Pentium III), bus de 200 ó 266 MHz (realmente 100 ó 133 MHz físicos con doble aprovechamiento de
cada señal), 512 ó 256 KB de caché secundaria (los 256 KB integrados = más rápida), instrucciones
3DNow! para multimedia... y el mejor micro de todos los tiempos en cálculos matemáticos (¡todo un
cambio, tratándose de AMD!).
Su único y mínimo inconveniente radica en que necesita placas base específicamente diseñadas para
él, debido a su novedoso bus de 200 MHz o más y a sus
métodos de conexión, "Slot A" (físicamente igual al
Slot 1 de Intel, pero incompatible con él... entre otras
cosas porque Intel no quiso dar licencia a AMD para
utilizarlo) o "Socket A" (un zócalo cuadrado similar al
Socket 370, pero con muchos más pines). Los modelos
actuales usan el núcleo Thunderbird, con la caché
secundaria integrada.
En 2001, Intel lanza su arquitectura Pentium 4 (código Willamette) que tenía una micro arquitectura
radicalmente distinta a la de los núcleos Athlon y P6. Mientras Pentium 4 soporta velocidades de reloj
más altas, el rendimiento de su arquitectura por ciclo de reloj es inferior. Las velocidades más altas
llevaron a muchos a creer que la performance de Pentium 4 es superior, aún contra los resultados de
las pruebas de rendimiento.
Mientras varios analistas de la industria predijeron que P4 volvería a restringir a AMD al mercado de
baja performance / bajo costo, AMD respondió con revisiones incrementales de su núcleo básico K7.
Palomino introdujo un mecanismo inteligente de pre-fetching de memoria, compatibilidad con SSE de
Intel y cache L2 en el chip, con una mejora en velocidad de alrededor del 10%.
165
Manual de Armado y Reparación de PC.
Intel contraatacó a AMD elevando la velocidad de sus procesadores, y por un tiempo AMD debió
luchar. En particular, el núcleo "Thoroughbred" con tecnología de 130nm (2002) sufrió inesperados
problemas de calentamiento y debió ser puesto en una revisión B, con una capa de metal extra que
mejorara la disipación de calor. Posteriormente se presentó el núcleo "Barton" que incrementó el caché
L2 a 512KB. En cada revisión AMD hizo lo suficiente para mantener el rendimiento de sus Athlon en
niveles de competitividad y evitar el retroceso al mercado del bajo costo.
Geode (Cyrix)
En agosto de 2003 AMD compra también Geode business (originalmente Cyrix MediaGX) a National
Semiconductor para extender su línea ya existente de productos x86 para sistemas genéricos. A
mediados de 2004, lanzó sus procesadores Geode de bajo consumo con velocidad máxima de 1,4 GHz.
AMD64 / K8
El proyecto AMD64 puede ser la culminación de la visionaria estrategia de Jerry Sanders, cuya meta
corporativa para AMD fue la de convertirla en una poderosa empresa de investigación por derecho
propio, y no sólo una fábrica de clones de bajo precio, con márgenes estrechos de ganancia.
El primer procesador con soporte para este conjunto de instrucciones fue el Opteron, lanzado en abril
de 2003. Posteriormente ha sido implementado en múltiples variantes del Athlon 64 y del Pentium 4
de Intel, en éste último caso bajo una versión de Intel llamada EM64T.
Descripción de la arquitectura
El conjunto de instrucciones del AMD x86-64 (renombrado posteriormente como AMD64) es una
extensión directa de la arquitectura del x86 a una arquitectura de 64 bits, motivado por el hecho de que
los 4GB de memoria que son direccionales directamente por una CPU de 32 bits ya no es suficiente
para todas las aplicaciones. Algunos de los cambios:
166
Manual de Armado y Reparación de PC.
64 bits. Adicionalmente, el número de registros MMX de 128 bits (usados para las
instrucciones extendidas SIMD) se ha incrementado de 8 a 16. Los registros adicionales
incrementan el rendimiento.
Instrucciones SSE. La arquitectura AMD 64 incluye las extensiones de Intel SSE y SSE2, las
últimas cpu incluyen SSE3 también. También están soportadas las instrucciones del x87 y
MMX.
Bit NX. El bit NX es una característica del procesador que permite al sistema operativo
prohibir la ejecución del código en área de datos, mejorando la seguridad. Esta características
está disponible en los modos de 32 y 64 bits, y está soportada por Linux, Solaris, Windows XP
SP2, Windows Server 2003 SP1.
Modos de funcionamiento
Tamaño
Es necesaria
típico del
Requerido por la Tamaño por defecto Tamaño por
Modo de Extensiones Registro
el Sistema recopilación del defecto de los
funcionamiento del registro de
Operativo de la direccionamiento operandos
Propósito
aplicación
General
Modo 64 bits sí 64 sí 64
32
SO nuevos
Modo largo 32 32
de 64 bits
Modo de
no no
compatibilidad
16 16 16
Modo de Modo SO de 32 no 32 32 no 32
Herencia protegido bit
heredados
16 16
167
Manual de Armado y Reparación de PC.
Modo 8086
virtual
16 16 16
SO de 16
Modo real bit
heredados
Modo Largo
Es el modo de operación principal previsto en la arquitectura; es una combinación del modo de 64 bits
nativo del procesador y un modo de 32 bits para la compatibilidad. También abandona algunas de las
características no desarrolladas o menos utilizadas del 80386. Se utiliza por los sistemas operativos de
64 bits. Entre los que apoyan este modo están Linux, algunos BSDs, Solaris 10 y Windows XP
Professional, edición x64.
Dado que el conjunto de instrucciones es el mismo, no hay una penalización importante en la
ejecución del código x86. Esto no sucede en la arquitectura de Intel IA-64, donde las diferencias en el
ISA subyacente implican que la ejecución de código de 32 bits equivale a utilizar un procesador
completamente diferente. En todo caso, en AMD 64, las aplicaciones de 32 bits del x86 podrían
todavía beneficiarse de una recopilación a 64 bits. Los registros adicionales disponibles en el código
de 64 bits, pueden ser utilizados por un compilador de alto nivel para la optimización.
Usando el modo largo, un sistema operativo de 64 bits puede ejecutar aplicaciones de 32 bits y 64 bits
simultáneamente. También un x86-64 incluye un soporte nativo para ejecutar las aplicaciones de 16
bits del x86. Microsoft, ha excluido explícitamente el soporte para aplicaciones de 16 bits en la edición
x64 de Windows XP Professional debido a los problemas de conseguir que el código de 16 bits del
x86 pueda funcionar con su emulador WoW64.
Modo de Herencia
El modo utilizado por los sistemas operativos de 16 bits, como MS-DOS, y los sistemas operativos de
32 bits, como Windows XP. En este modo, sólo se puede ejecutar código de 16 bits o de 32 bits. Los
programas de 64 bits (como el programa de instalación GUI para Windows XP Professional x64 y
Windows Server 2003 x64) no se ejecutarán.
Estudio de mercado
168
Manual de Armado y Reparación de PC.
Implementaciones
AMD K8
o AMD Athlon 64
o AMD Athlon 64 X2
o AMD Athlon 64 FX
o AMD Opteron
o AMD Turion 64
o AMD Sempron (sólo los modelos 'Palermo' utilizan E6)
EM64T
o Intel Xeon (algunos modelos desde 'Nocona')
o Intel Pentium 4 (algunos modelos desde 'Prescott')
o Intel Pentium D
La tecnología AMD64 proporciona un vanguardista rendimiento del software, así como nuevas
experiencias y posibilidades de computación. En concreto, la tecnología AMD64:
169
Manual de Armado y Reparación de PC.
Proporciona los niveles de rendimiento más elevados en muchas de las aplicaciones actuales
de 32 bits, sin que tener que realizar ningún cambio en las mismas.
Permite la computación simultánea y de alto rendimiento de 32 y de 64 bits, lo que ofrece a
los usuarios un medio sencillo, atractivo y asequible de beneficiarse de las aplicaciones del
futuro que están empezando a surgir.
Duplica el número de registros internos, lo que proporciona un mayor rendimiento.
Amplía enormemente la capacidad de acceso a la memoria, muy por encima de 4 GB, lo que
permite ofrecer un sorprendente realismo en las aplicaciones que incluyen muchos gráficos,
como los juegos 3D, así como resultados en tiempo real para las aplicaciones que requieren
gran cantidad de recursos de memoria, como las de contenidos digitales
Protección Mejorada contra Virus para Windows ® XP SP2
Tecnología HyperTransport™
La tecnología HyperTransport™, con un índice doble de reloj y bidireccional para datos, de
2000 MHz, proporciona una conexión rápida y de baja latencia, en tu sistema informático.
Gracias al tránsito libre de los datos, podrás tener la seguridad de que tus aplicaciones
funcionarán a su máximo potencial
El controlador de memoria DDR (Double Data Rate, doble índice de datos) integrado, reduce
significativamente uno de los peores cuellos de botella del sistema y que se encuentra con mayor
frecuencia en los actuales diseños de plataformas: es lo que se conoce como latencia de la
memoria. El controlador de memoria DDR integrado en el procesador AMD Athlon™ 64 FX:
Proporciona un mayor rendimiento al conectar el procesador directamente con la memoria,
reduciéndose así drásticamente la latencia de la misma. Como resultado, mejora
extraordinariamente el rendimiento en numerosas aplicaciones, especialmente, en aquellas que
requieren muchos recursos, como las de contenido digital y los juegos 3D.
Soporta los módulos de memoria DDR estándar en el sector y ampliamente disponibles, para
los sistemas de alto rendimiento
Incorpora protección ECC, que aumenta la fiabilidad del sistema, ayudando a garantizar que
tus sistemas funcionen con suavidad
AMD Digital Media XPress™ soporta instrucciones SSE, SSE2, SSE3 y MMX
Con la incorporación de las instrucciones SSE2 a la actual tecnología 3DNow!™ Professional,
el procesador AMD Athlon 64 FX es compatible con la amplia gama de software mejorado
para multimedia, que se encuentra instalado en la actualidad.
El software adaptado específicamente para este conjunto de instrucciones, proporciona unas imágenes
ricas, suaves y realistas, un sonido digital de gran precisión y una mejor experiencia Web.
* Protección Mejorada Antivirus. Esta función requiere la versión Microsoft® Windows® XP Service
Pack 2 y, por defecto, protegerá el sistema operativo Windows del usuario únicamente contra algunos
códigos maliciosos, en especial aquellos que ejecutan ataques de desbordamiento de buffer. Después
de instalar Microsoft Windows XP Service Pack 2, los usuarios deberán activar la protección de su
software contra los ataques de desbordamiento de buffer. AMD y Microsoft recomiendan
170
Manual de Armado y Reparación de PC.
encarecidamente que los usuarios sigan utilizando programas antivirus de terceros como parte de su
estrategia de seguridad.
© 2006 Advanced Micro Devices, Inc. AMD, la flecha del logotipo de AMD, AMD Athlon, 3DNow!,
AMD Digital Media Xpress, Cool'n'Quiet y cualquier otra combinación, son marcas registradas de
Advanced Micro Devices, Inc. HyperTransport es una marca comercial con licencia del
HyperTransport Technology Consortium. Linux es una marca registrada de Linus Torvalds. Microsoft
y Windows son marcas registradas de Microsoft Corporation, en los EE.UU. y en otras jurisdicciones.
Los demás nombres han sido utilizados exclusivamente a efectos informativos y pueden ser marcas
comerciales de sus respectivos propietarios.
Pentium 4
La última apuesta de Intel, que representa todo un cambio de arquitectura; pese a su nombre,
internamente poco o nada tiene que ver con otros miembros de la familia Pentium.
Se trata de un micro peculiar: su diseño permite alcanzar mayores velocidades de reloj (más MHz... y
GHz), pero proporcionando mucha menos potencia por cada MHz que los micros anteriores; es decir,
que un Pentium 4 a 1,3 GHz puede ser MUCHO más lento que un Pentium III a "sólo" 1 GHz. Para
ser competitivo, el Pentium 4 debe funcionar a 1,7 GHz o más.
Para la sorpresa de la industria informática, el Pentium 4 no mejoró el viejo diseño P6 según las dos
tradicionales formas para medir el rendimiento: velocidad en el proceso de enteros u operaciones de
coma flotante. La estrategia de Intel fue sacrificar el rendimiento de cada ciclo para obtener a cambio
mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE. Al igual que los demás
procesadores de Intel, el Pentium 4 se comercializa en una versión para equipos de bajo presupuesto
(Celeron) y una orientada a servidores de gama alta (Xeon).
Willamette, la primera versión del Pentium 4, sufrió de importantes demoras durante el diseño. De
hecho, muchos expertos aseguran que los primeros modelos de 1,3, 1,4 y 1,5 y 3.0GHz fueron
lanzados prematuramente para evitar que se extienda demasiado el lapso de demora de los Pentium 4.
Además, los modelos más nuevos del AMD Thunderbird tenían un rendimiento superior al Pentium
III, pero la línea que se encontraba al límite de su capacidad por el momento. Fueron fabricados
utilizando un proceso de 180 nm y utilizaban el Socket 423 para conectarse a la placa madre.
A la hora de los exámenes de rendimiento, los Willamette fueron una decepción ya que no podían
superar claramente a los Thunderbird ni a los Pentium III de mayor velocidad. Incluso la diferencia
con la línea de bajo costo de AMD (Durón) no era significante. Vendió una cantidad moderada de
unidades.
171
Manual de Armado y Reparación de PC.
Con la serie Northwood, los Pentium 4 alcanzaron su madurez. La lucha por la cima del desempeño se
mantuvo reñida, a medida que AMD introducía versiones más veloces del Athlon XP. Sin embargo, la
mayoría de los observadores concluyeron que el Northwood más veloz siempre estaba ligeramente por
encima de los modelos de AMD. Esto se hizo notorio cuando el paso de AMD a la manufacturación de
130 nanómetros fue postergado. Los Pentium IV entre 2,4 y 2,8 GHz fueron, claramente, los más
veloces del mercado.
Un Pentium 4 de 2,4 GHz fue introducido en abril de 2002, uno de 2,53 GHz en mayo (que incluyó un
aumento del FSB de 400 a 533 MHz). En agosto vieron la luz los modelos de 2,6 y 2,8 GHz, y en
noviembre la versión de 3,06 GHz.
El Procesador de 3,06 GHz soporta Hyper Threading, una tecnología originalmente aparecida en los
Xeon que permite al sistema operativo trabajar como si la máquina tuviese dos procesadores.
En abril de 2003, Intel colocó en el mercado nuevas variantes, entre los 2,4 y 3,0 GHz, cuya principal
diferencia era que todos ellos incluían la tecnología Hyper-Threading y el FSB era de 800 MHz.
Supuestamente esto era para competir con la línea Hammer de AMD, pero de momento solo la serie
Opteron salió al mercado, la cual no estaba destinada entonces a competir con los Pentium 4. Por otro
lado, los AMD Athlon XP, a pesar de su FSB aumentado de 333 a 400 MHz y las velocidades más
altas no pudieron alcanzar a los nuevos Pentium 4 de 3,0 y 3,2 GHz. La versión final de los
Northwood, de 3,4 GHz, fue introducida a principios de 2004.
En septiembre de 2003, Intel anunció la edición extrema (Extreme Edition) del Pentium 4, apenas
sobre una semana antes del lanzamiento del Athlon 64, y el Athlon 64 FX. El diseño era idéntico al
Pentium 4 (hasta el punto de que funcionaría en las mismas placas madre), pero se diferenciaba por
tener 2 MB adicionales de Memoria caché L3. Compartió la misma tecnología Gallatin del Xeon MP,
aunque con un Socket 478 (a diferencia del Socket 603 de los Xeon MP) y poseía un FSB de 800MHz,
dos veces más grande que el del Xeon MP. Una versión para Socket LGA775 también fue producida.
Mientras que Intel mantuvo que la Extreme Edition estaba apuntada a los jugadores de videojuegos,
algunos tomaron esta nueva versión como un intento de desviar la atención del lanzamiento de los
172
Manual de Armado y Reparación de PC.
Athlon 64. Otros criticaron a Intel por mezclar la línea Xeon (especialmente orientada a servidores)
con sus procesadores para usuarios individuales, pero poco se criticó cuando AMD hizo lo mismo con
el Athlon 64 FX.
El primero de febrero de 2004, Intel introdujo una nueva versión de Pentium 4 denominada Prescott.
Se utiliza en su manufactura un proceso de fabricación de 90 nm y además se hicieron significativos
cambios en la arquitectura del microprocesador, por lo cual muchos pensaron que Intel lo
promocionaría como Pentium V. A pesar de que un Prescott funcionando a la misma velocidad que un
Northwood rinde menos, la renovada arquitectura del Prescott permite alcanzar mayores velocidades y
el overclock es más viable. El modelo de 3,8 GHz es el más veloz de los que hasta ahora han entrado
en el mercado.
Sin embargo, los primeros Prescott producían un 60% más de calor que un Northwood a la misma
velocidad, y por ese motivo muchos lo criticaron con dureza. Se experimentó con un cambio en el tipo
de zócalo (de Socket 478 a LGA 775) lo cual incrementó en un 10% el consumo de energía del
microprocesador, pero al ser más efectivo el sistema de refrigeración de este zócalo, la temperatura
final bajó algunos grados. En posteriores revisiones del procesador los ingenieros de Intel esperaban
reducir las temperaturas, pero esto nunca ocurrió fuera salvo a bajas velocidades.
Finalmente, los problemas térmicos fueron tan severos, que Intel decidió abandonar la arquitectura
Prescott por completo, y los intentos de hacer correr por encima de los 4 GHz fueron abandonados,
como un gasto inútil de recursos internos. También lo concerniente a las críticas mostradas en casos
extremos de llevar al procesador Prescott a los 5,2 GHz para emparejarlo al Athlon FX-55 que
funcionaba a 2.6GHz (*). Considerando una fanfarronada de Intel el lanzamiento de la arquitectura
Pentium 4 diseñada para operar a 10 GHz, esto puede ser visto como uno de los más significativos,
ciertamente el más público, déficit de ingeniería en la historia de Intel.
Según se dice el Pentium M es ahora la referencia interna para el equipo diseñadores de Intel, y el
desarrollo del P4 ha sido esencialmente abandonado. Hasta este punto el pequeño equipo de diseño
Israelí que produce el Pentium M, tiene ahora que tomar otro proyecto mucho más grande.
¿Por qué del fin de Prescott ha terminado en tal desastre? Puede ser atribuido a las políticas internas de
Intel. El departamento de marketing quería siempre velocidades de procesador más altas, para
diferenciar sus productos de AMD. Los procesadores se diseñaban por las necesidades de marketing,
en vez de las necesidades de la arquitectura. Fueron carreras construidas sobre el concepto de la
velocidad del procesador, la terminación del proyecto P4 finalmente vino y tuvo consecuencias para
muchos miembros del equipo de dirección de la división.
Los Prescott con Socket LGA775 usan el nuevo sistema de puntaje, y están clasificados en la serie
5XX. El más rápido es el 570J, funcionando a 3,8 GHz. Los planes para microprocesadores de 4 o más
GHz fueron cancelados y se les dio prioridad a los proyectos para fabricar procesador doble; en gran
medida debido a los problemas de consumo energía y producción de calor de los modelos Prescott.
El procesador 570J también fue el primero en introducir la tecnología EDB, la cual es idéntica a la
más temprana NX de AMD. El objetivo es prevenir la ejecución de algunos tipos de código maligno .
173
Manual de Armado y Reparación de PC.
Con sus dos núcleos de ejecución, el microprocesador Intel® Core™ Dúo está optimizado para las
aplicaciones de subprocesos múltiples y para la multitarea. Puede ejecutar varias aplicaciones
exigentes simultáneamente, como juegos con gráficos potentes o
programas que requieran muchos cálculos, al mismo tiempo que
puede descargar música o analizar su PC con su antivirus en el
segundo plano.
Intel® Core™ Dúo ha sido implementado en los computadores Apple. Esta decisión de la Compañía
de la manzana mordida permitirá que los Apple puedan hacer uso del sistema operativo Windows con
mayor naturalidad.
Tecnologías futuras
Las técnicas de litografía también tendrán que ser mejoradas. Actualmente el tamaño mínimo de los
elementos de circuito es inferior a 0,2 micras. Con esas dimensiones, es probable que incluso la luz
ultravioleta de baja longitud de onda no alcance la resolución necesaria. Otras posibilidades
alternativas son el uso de haces muy estrechos de electrones e iones o la sustitución de la litografía
óptica por litografía que emplee rayos X de longitud de onda extremadamente corta. Mediante estas
tecnologías, las velocidades de reloj superan los 1.000 MHz.
Lista AMD:
174
Manual de Armado y Reparación de PC.
Lista Intel:
175
Manual de Armado y Reparación de PC.
Pruebas comparativas
Recientemente, los procesadores AMD han tomado la iniciativa en el mercado de los procesadores.
Los acuerdos de compatibilidad entre Intel y AMD ahora benefician a Intel, que construye
procesadores compatibles con los correspondientes AMD. Este cambio en la industria de los
procesadores se ve reflejado en las pruebas comparativas, muestran que los procesadores Intel de la
familia Pentium 4 a 3,6 GHz no alcanzan las velocidades de cómputo de sus correspondientes AMD
Athlon 64 3800+ a 2,4 GHz. Según esas pruebas, las ventajas de los procesadores Athlon se ven mejor
en aplicaciones de oficina, Internet y juegos 3D. Por su parte, los procesadores Intel mostraron su
mejor ángulo en aplicaciones de creación de imágenes 3D y en multiprocesamiento.
176
Manual de Armado y Reparación de PC.
Las Memorias:
177
Manual de Armado y Reparación de PC.
Como su propio nombre indica, son como los slots de expansión a las tarjetas controladoras. Los
módulos de memoria (SDRAM, en nuestro caso) que se insertan en estos zócalos para quedar
conectados a la placa base.
Simm 30 Pines
Simm 72 Pines
Tipo SIMM
Muescas
de
inserción
Una computadora cuenta con memoria física y unidades de almacenamiento. Diferenciamos que las
unidades de almacenamiento mantienen los datos en forma permanente e inalterable, por lo menos
hasta que el usuario decida eliminarlos o modificarlos. En el concepto de memoria física difiere
porque en esta se mantienen los datos solo durante el tiempo necesario de uso (no mas allá del
apagado de la PC).
178
Manual de Armado y Reparación de PC.
Hay dos grupos de memorias físicas, Volátiles y no volátiles. A las primeras se las identifica como
RAM (Random Access Memory) y a las segundas ROM (Read Only Memory).
Memoria Virtual
RAM
ROM
Cache
Registros
Registro de
CPU
CACHE
Nivel 1
Nivel 2
Áreas de
almacenamiento
RAM temporario
RAM Memoria
FISICA virtual
Dispositivos de almacenaje
ROM Unidades
Disco
RED
BIOS Removibles Duro
Internet
Áreas de
almacenamiento
permanente
Memorias RAM:
179
Manual de Armado y Reparación de PC.
RAM (Random Access Memory), un tipo de memoria a la que se puede acceder de forma aleatoria;
esto es, se puede acceder a cualquier byte de la memoria sin pasar por los bytes precedentes. RAM es
el tipo más común de memoria en las computadoras y en otros dispositivos, tales como las impresoras.
Los dos tipos difieren en la tecnología que usan para almacenar los datos. La RAM dinámica necesita
ser refrescada cientos de veces por segundo, mientras que la RAM estática no necesita ser refrescada
tan frecuentemente, lo que la hace más rápida, pero también más cara que la RAM dinámica. Ambos
tipos son volátiles, lo que significa que pueden perder su contenido cuando se desconecta la
alimentación.
En el lenguaje común, el término RAM es sinónimo de memoria principal, la memoria disponible para
programas. En contraste, ROM (Read Only Memory) se refiere a la memoria especial generalmente
usada para almacenar programas que realizan tareas de arranque de la máquina y de diagnósticos. La
mayoría de los computadores personales tienen una pequeña cantidad de ROM (algunos Kbytes). De
hecho, ambos tipos de memoria (ROM y RAM) permiten acceso aleatorio. Sin embargo, para ser
precisos, hay que referirse a la memoria RAM como memoria de lectura y escritura, y a la memoria
ROM como memoria de solo lectura.
Se habla de RAM como memoria volátil, mientras que ROM es memoria no-volátil.
La mayoría de los computadores personales contienen un apequeña cantidad de ROM que almacena
programas críticos tales como aquellos que permiten arrancar la máquina (BIOS CMOS).
Como Funciona
En el sistema operativo, cuando el usuario va abriendo aplicaciones, archivos, documentos, etc., todos
ellos se cargan también en la RAM. Algunas aplicaciones solo se cargan en parte a fin de no
sobrecargar la memoria. Cuando el microprocesador necesita información de la memoria envía una
solicitud al controlador de memoria. Este informara al microprocesador cuando la información este
disponible.
Los archivos permanecen en la RAM hasta que el usuario grabe los cambios y los cierre. Recién allí el
controlador de memoria borra las celdas usadas o direcciones de memorias ocupadas por esos
archivos.
Al igual que los microprocesadores son chips que alojan elementos semiconductores que asociados
logran el efecto de almacenar información durante un
tiempo.
180
Manual de Armado y Reparación de PC.
programas. Todo esto esta interconectado por el controlador de memoria que informa que celda esta en
uso y cual vacía para depositar datos.
Para depositar un dato, se toma los números de dirección binaria, la primera mitad indica la fila y la
segunda la columna. Cuando se desea acceder a una dirección el controlador de memoria selecciona la
fila (RAS Row Address Select) y luego hace lo mismo con la columna (CAS Column Address Select).
Por lo tanto la capacidad de la memoria de un modulo o chip de memoria esta dada por la cantidad de
líneas de direcciones que podrá ubicar una cantidad igual de datos. Calculemos en un chip de un
modulo de 256Mb DDR 333 tiene 32 millones de direcciones con un ancho de 8 bit c/u (32 x 8) lo
cual nos da 256 millones de bits o 32 Mb. Sumando los chip incluidos en el modulo de memoria
obtendremos un total de 256Mb, con un ancho de banda de 64 bits, este ultimo corresponde al bus con
que trabaja la memoria.
Como son?
Un modulo de memoria esta compuesto por chips semiconductores de circuitos integrados. Estos chips
están sobre y forman parte de los módulos de memoria. Es importante destacar la diferencia para no
confundir la tecnología de los chips con la de los módulos, esto es decir la tecnología del modulo con
la forma.
RAM Dinámicas:
En estas memorias cada celda o posición de memoria esta compuesta de un transistor y un capacitor
los cuales trabajan en conjunto, de manera tal que puede alojar un estado alto (1) o bajo (0). Esta
estructura esta construida de manera tal que el capacitor que almacena energía no la mantiene por
mucho tiempo, por eso las memorias compuestas por estos componentes electrónicos hay que refrescar
los datos cada determinado tiempo. Es decir que el microprocesador, a trabes del controlador de
memoria debe revisar el estado de las celdas continuamente para que los datos no se degraden. Otro
problema es que el capacitor se carga y descarga muy lentamente en relación al transistor, dicha
acción le da el nombre de dinámicas, esto lleva tiempo y reduce el rendimiento de las mismas.
Cada par transistor – capacitor esta asociado con una línea de direccionamiento y con una línea de
lectura / escritura de datos. El capacitor es quien tiene el dato y el transistor es quien lo habilita o
deshabilita según corresponda su lectura o escritura. Cuando un capacitor tiene un 50% o más de carga
se lo considera 1, por debajo de eso 0. El tiempo de acceso lectura / escritura y verificación del dato se
mide en tiempo y da la velocidad de la memoria. En la actualidad la velocidad de la memoria ronda los
181
Manual de Armado y Reparación de PC.
30 nanosegundos (ns), modelos anteriores de memorias tenían una velocidad de 60 ns, para realizar
todo este proceso de lectura / escritura y refresco de los datos.
Con la misma tecnología, pero con mejoras en los sistemas de transferencias de datos surgieron
evoluciones de las DRAM. Primero aparecieron las SDRAM o RAM Sincrónicas, que sincronizan su
funcionamiento (transferencia de datos) con la frecuencia del Bus del motherboard, así surgieron las
PC66, PC100 y PC133. Luego aparecieron (2000) las RDRAM o Rambus DRAM de escaso éxito,
técnicamente se diferencian de la SDRAM porque son mas rápidas (frecuencia mas alta y transferencia
de 16bits). Lo ultimo son las DDR SDRAM (Double Data Rate Syncronous Dynamic Random Access
Memory) lo cual significa que por cada ciclo de reloj envía dos paquetes de datos y no uno, por lo cual
duplica y supera a la DIMM (Double Inline Memory Module). Entonces la memoria DDR no trabaja al
doble de frecuencia sino que puede hacer el doble de cosas a la misma frecuencia, de esta manera
superan a la Rambus.
RAM estáticas:
Para esto solo se necesitan dos compuertas (dos transistores), el primero invierte la señal y el segundo
lo vuelve a hacer de manera tal que pueda tener siempre el mismo estado lógico de salida., esto solo
sirve como concepto ya que hay mucho por detrás, la clave de las celdas de memoria de las RAM
estáticas es que la información entra y permanece inalterable hasta tanto no se cambie, por este motivo
al no necesitar ciclo de refresco son mas rápidas, una celda de memoria RAM necesita 6 transistores
para realizar esta tarea. Este tipo de memoria estática son las que se usan para fabricar el cache. Ahora
la pregunta es porque no se usa esta memoria (estática) para la memoria principal? , simple, las RAM
dinámicas usan dos transistores por celda de memoria y las estáticas seis, esto nos lleva a mas espacio
físico y mas costosa la memoria, entonces se la ubica donde realmente se la necesita y en poca
cantidad.
182
Manual de Armado y Reparación de PC.
En esta parte veremos las formas de las memorias, tipos y características, que es la parte con la que
mas reconoce el usuario. Cada tecnología de memoria tiene su modulo y sus dimensiones, cantidad de
conectores y distribución.
Latencia
Sistema de Paridad:
Ya desde el principio, la existencia de errores hizo cobrar relevancia a los mecanismos capaces de
detectar, y en su caso corregir, los posibles errores que se puedan producir en los procesos de
lectura/escritura. A la fecha se emplean principalmente dos métodos para garantizar la integridad de
los datos: la paridad, y el código de corrección de errores ECC ("Error Checking and Correction").
Es el método más común y tradicional. Consiste en que por cada 8 bits (byte) de
almacenamiento, se añade 1 bit adicional (1) si es impar (0). A cambio de aumentar en un
12.5% el tamaño de la memoria, se consigue un cierto control sobre la integridad de los datos,
183
Manual de Armado y Reparación de PC.
ya que este bit adicional contiene información sobre la paridad del conjunto. A este respecto
existen dos protocolos: paridad par e impar. Su funcionamiento se esquematiza en la tabla
siguiente.
El modelo de paridad tiene ciertas limitaciones, la principal es que puede detectar el error pero no
corregirlo (no sabe cual es el bit erróneo). Además, si hay más de un bit incorrecto, los bits
defectuosos pueden cancelarse entre sí y enmascarar el error (sin embargo, la posibilidad de que esto
ocurra es remota).
Paridad artificial.
Algunos fabricantes de equipos de baja calidad utilizan un chip de paridad artificial. Este chip no
almacena en realidad ningún bit extra con la paridad del dato. En su lugar generan un bit adicional
cuando el dato debe se enviado al controlador de paridad con el valor correcto. En realidad es un
método de engañar al controlador de paridad enviándole siempre la señal OK.
La memoria ECC es una memoria más avanzada que puede automáticamente detectar y corregir
errores de un bit sin parar el sistema. También puede para el sistema cuando más de un error es
detectado. Sin embargo, la memoria ECC requiere más recursos del sistema para almacenar datos que
la memoria de paridad, causando por lo tanto alguna degradación de performance en el subsistema de
memoria.
El sistema trabaja en conjunción con el controlador de memoria, y anexa a los bits de datos los bits
ECC, que son almacenados junto con los de datos. Estos bits extras, junto con la decodificación
correspondiente, sirven para realizar la comprobación en el momento de la lectura. Su diferencia
principal con la paridad es que puede detectar el error de un bit y corregirlo, con lo que generalmente
el usuario no detecta que se ha producido un error. Dependiendo del controlador de memoria
utilizado, el sistema ECC también puede detectar errores de 2, 3 y 4 bits (sumamente raros), aunque en
este caso no puede corregirlos; en estos casos devuelve un error de paridad.
184
Manual de Armado y Reparación de PC.
Tener en cuenta que la verificación de errores (ECC o paridad) depende más del la placa-base (tipo de
controlador de memoria utilizado) que de la memoria en sí. La memoria pone el almacenamiento,
pero es el controlador el que decide como se utilizará. Generalmente para poder utilizar una memoria
ECC es necesario un controlador que pueda utilizar esta tecnología.
En ambos casos, paridad o ECC, cuando se detecta un error se produce una excepción no
enmascarable (NMI). Lo que sucede a continuación depende del Sistema. En algunos casos el
procesador se detiene y lanza una rutina que deja la pantalla en blanco (o azul) y muestra el error. En
otros se permite ignorar el error, guardar el trabajo en curso y continuar. En cualquier caso, después
de uno de estos errores, es conveniente pasar al equipo un test de memoria especializado, más severo
que el realizado por la POST de la BIOS.
Chip ECC en el
centro del modulo
de memoria
En los sistemas Windows es frecuente que los errores de memoria en los momentos de carga del
Sistema generen mensajes de aviso indicando que algún fichero importante está corrupto o falta, y
debe reinstalarse el Sistema. En estos casos es imprescindible realizar un chequeo exhaustivo de la
memoria antes de realizar ningún cambio en el software.
RAM Registrada (o también conocida por algunos como RAM buffered) : De manera básica,
podríamos decir que todos los contactos del módulo de memoria usan un buffer basado en un registro
excepto los encargados de proporcionar la señal del clock. De esta manera se consigue un incremento
en la velocidad al transmitir datos de forma continua (gracias al buffer) y es posible instalar más de 4
DIMM en el mismo controlador de memoria; el único inconveniente es una pequeña perdida de
latencia (exactamente 1 ciclo de reloj), pero en ocasiones (dependiendo del chipset) puede ser
enmascarada.
tRCD o Ras-to-CAS delay: Es muy a la rápida el tiempo que se tarda entre una petición RAS y una
CAS. Si me quisiera poner latero, les contaría que es el número de ciclos de reloj necesarios entre que
se encuentra la fila de un dato en memoria hasta que se encuentra la columna. EL valorcillo este va
entre 3 y 5 ciclos, pero tiene a no tener un impacto demasiado grande en performance; esto en general
ocurre porque secuencias más o menos largas de bits de datos suelen almacenarse juntas en la misma
fila en memoria, así que de esta manera las filas no hay que re seleccionarlas tan seguido como las
columnas.
185
Manual de Armado y Reparación de PC.
caso de que los programas ocupen bloques muy largos de memoria que ocupen varias filas.
tRAS o Active-to-Precharge delay: se refiere a la demora en ciclos entre que los pines del módulo
de memoria reciben la orden para buscar un dato y que se inicie la secuencia CAS. En general es el
delay más largo de todos, desde 5 ciclos para arriba en la mayoría de las memorias... en todo caso, no
suele tener un impacto decisivo en la performance del sistema, excepto en caso de que los patrones de
acceso a la memoria cambien frecuente y brutalmente.
Respecto a este último parámetro tRAS, hay opiniones encontradas entre los fabricantes de memorias.
Mushkin, por ejemplo, no incluye en sus especificaciones el timing de tRAS... insiste en que induce a
error y es un engaño por parte de las compañías de memoria... ellos recalcan que un tRAS demasiado
bajo PERJUDICA la performance general, y sugieren la siguiente formula para calcular el tRAS
adecuado: CAS + tRCD + 2... Habría que testear si las memorias con timings 2-2-2-5 andan mejor a 2-
2-2-6.
CMD Rate: Según el fabricante de memorias Mushkin, este parámetro, que en general se puede
ajustar en 1T y 2T, es una latencia del chipset que NO está determinada por la calidad de la memoria y
que tiene que ver con el hecho de ubicar una dirección de memoria entre los distintos bancos FÍSICOS
de memoria. CMD Rate influiría solamente en caso de tener instalado más de un módulo de memoria.
La experiencia indica que es mejor manejarlo en 1T, y en caso de ser necesario bajarlo a 2T para ganar
estabilidad, lo recomendable es benchmarquear los dos settings a ver si la ganancia en MHz compensa
la perdida de performance por poner 2T.
tWR - Write Recovery Time: Es el número de ciclos de reloj necesarios entre la escritura de un dato
y la posibilidad de ordenar otro comando Precharge. tWR es necesario para garantizar que todos los
datos en el buffer de escritura puedan ser escritos correctamente en el core de la memoria.
tRC - Row Cycle Time: Es el intervalo de tiempo mínimo entre comandos ACTIVE sucesivos y
dirigidos al mismo banco de memoria. Este valor debe corresponder a la siguiente suma: tRC = tRAS
+ tRP.
tRRD - Row Active to Row Active Delay: Es el intervalo de tiempo mínimo entre comandos
ACTIVE sucesivos, pero dirigidos a diferentes bancos en la memoria.
tCCD - Column Address to Column Address Delay: Es la demora que ocurre entre el cambio de
dos ubicaciones de columna dentro de la misma fila.
tWTR - Internal Write to Read Command Delay: Es la pausa que debe hacerse después de enviar
el último dato de una operación de escritura a la memoria y hasta solicitar un comando de lectura.
Otros valores que aparecen dentro de las opciones a modificar en la memoria, son:
Max Async Latency: Es un valor cuya configuración depende de nuestra memoria en específico y de
nuestra placa madre. Si lo bajamos debajo de 6ns, perderemos potencial de overclockeo, a cambio de
una pequeña ganancia en ancho de banda. Lo ideal es mantenerlo en 7ns, debiéndose aumentar a 8ns
en caso de estar la memoria inestable. No es bueno manejar valores demasiado abajo ni demasiado
arriba de los mencionados.
Read Preamble Time: Sus valores pueden fluctuar entre 2.0 y 9.5ns, con incrementos de 0.5ns. En
general es bueno mantener este valor en AUTO; en caso de querer modificarlo, valores debajo de 4ns
probablemente no permitirán overclockeos demasiado altos. Lo óptimo es mantenerlo entre 5ns y 6ns.
186
Manual de Armado y Reparación de PC.
Velocidad de acceso:
La memoria, como ya dijimos, anda a una determinada cantidad de ciclos por segundo. Esto es lo que
se conoce como "Velocidad" de la memoria, y se expresa en Mhz. Por ejemplo, hay memorias de 400
Mhz. Otra terminología para designar a las memorias es esa que empieza con "PC----"; esta
terminología viene de la velocidad también, pero específicamente del ancho de banda... por ejemplo,
una memoria PC2100 es una memoria con ancho de banda de 2,1GB/s... una PC3200 es memoria con
ancho de banda 3,2 GB/s.
¿Y esto por qué? Porque la frecuencia de la memoria (e.g. 400 Mhz), al multiplicarla por el ancho de
banda del bus de la Interface (64 bits), nos da el ancho de banda de las memorias... entonces,
400.000.000 Hz x 64 bits = 25.600.000.000 bits x hertz; si recordamos que un hertz= (1/s) y que 1
BYTE= 8 bits, entonces tenemos el mencionado ancho de banda de 3,2GB/s.
Otro dato más que nos habla de la velocidad de las memorias es su "TIEMPO DE ACCESO", que
generalmente se mide en nanosegundos... al hacer la operación 1/Tacc podemos obtener la frecuencia
REAL máxima teórica a la que correrían las memorias por ejemplo, unas memorias de 2,8 ns correrían
máximo a 357 mhz reales, es decir a 714 mhz DDR.
Dynamic Random Access (Dram) (acceso aleatorio dinámico): DRAM es un tipo de memoria
que requiere ser refrescada constantemente para mantener las cargas que mantienen los datos. Este
"refresco" es la principal causa de las demoras entre accesos. Este tipo de memoria puede ser
considerado obsoleto.
Fast Page Mode Dram (FPM) Dram (dram de modo de página rápida): La memoria de
página rápida es similar a la memoria DRAM pero permite sucesivos accesos a la memoria con
mínimas demoras entre ellos. El acceso típico está cronometrado a 5-3-3-3 para un ancho de banda
máximo de 100MB/seg en un sistema de 32-bit y 200MB/seg en un sistema de 64-bit. Este tipo de
memoria también puede ser considerado obsoleto.
Extended-Data Output (EDO) Dram (Dram de salida extendida de datos): EDO DRAM
también llamado modo dram de hyper-página permite al tiempo del ciclo de la memoria ser acortado
condensando el tiempo CAS para obtener mas salida de datos en una secuencia dada de acceso. En
ciclos de CPU esto da 5-2-2-2. El incremento de la performance de la computadora es ganado por el
uso de esta memoria porque la memoria EDO DRAM es cerca de 15% más rápida que la memoria
FPM DRAM. La máxima tasa de transferencia (ancho de banda) de la EDO DRAM es cerca de
264meg/seg. Este tipo de memoria será considerado casi obsoleto para el final de 1998.
187
Manual de Armado y Reparación de PC.
Burst EDO (BEDO) Dram (edo dram por ráfagas): BEDO incorpora algunas características de
modo ráfaga en la EDO DRAM para mayor incremento de la performance. BEDO RAM lee datos en
una ráfaga, que significa que cuando la dirección ha sido dada, los próximos tres accesos son
ejecutados en sólo un ciclo de reloj cada uno, entonces, los datos son leídos en una ráfaga de 5-1-1-1.
Este tipo de memoria es más una transición entre la memoria EDO DRAM y la memoria SDRAM y
nunca ha sido claro que la BEDO DRAM estará en el mercado por un largo período de tiempo.
DDR SDRAM (también llamada SDRAM II): DDR DRAM es una variante de la memoria SDRAM.
The la principal diferencia entre SDRAM y DDR SDRAM es que la DDR SDRAM tiene la
posibilidad de usar tanto los bordes de subida como de bajada del ciclo de reloj para transferir datos lo
cual efectivamente duplica su performance de salida de datos. La tasa máxima de transferencia de la
DDR SDRAM (ancho de banda) es de más de 1gig/seg.
Siglas de Single In line Memory Module, un tipo de encapsulado consistente en una pequeña placa de
circuito impreso que almacena chips de memoria, y que se inserta en un zócalo SIMM en la placa
madre o en la placa de memoria. Los SIMMs son más fáciles de instalar que los antiguos chips de
memoria individuales, y a diferencia de ellos son medidos en bytes en lugar de bits.
SIMM 30 Pines
188
Manual de Armado y Reparación de PC.
SIMM 72 Pines
Un PC usa tanto memoria de nueve bits (ocho bits y un bit de paridad, en 9 chips de memoria RAM
dinámica) como memoria de ocho bits sin paridad. En el primer caso los ocho primeros son para datos
y el noveno es para el chequeo de paridad.
DIMM son las siglas de «Dual In-line Memory Module» y que podemos traducir como Módulo de
Memoria lineal doble. Las memorias DIMM comenzaron a reemplazar a las SIMMs como el tipo
predominante de memoria cuando los microprocesadores Intel Pentium dominaron el mercado.
Son módulos de memoria RAM utilizados en ordenadores personales. Se trata de un pequeño circuito
impreso que contiene chips de memoria y se conecta directamente en ranuras de la placa base. Los
módulos DIMM son reconocibles externamente por poseer sus contactos (o pines) separados en ambos
lados, a diferencia de los SIMM que poseen los contactos de modo que los de un lado están unidos con
los del otro.
189
Manual de Armado y Reparación de PC.
DDR, del acrónimo inglés Double Data Rate, significa memoria de doble tasa de transferencia de
datos en castellano. Son módulos compuestos por memorias síncronicas (SDRAM), disponibles en
encapsulado DIMM, que permite la transferencia de datos por dos canales distintos simultáneamente
en un mismo ciclo de reloj.
Fueron primero adoptadas en sistemas equipados con procesadores AMD Athlon. Intel con su Pentium
4 en un principio utilizó únicamente memorias RAMBUS, más costosas. Ante el avance en ventas y
buen rendimiento de los sistemas AMD basados en DDR SDRAM, Intel se vio obligado a cambiar su
estrategia y utilizar memoria DDR, lo que le permitió competir en precio. Son compatibles con los
procesadores de Intel Pentium 4 que disponen de un FSB (Front Side Bus) de 64 bits de datos y
frecuencias de reloj desde 200 a 400 MHz.
Muchas placas base permiten utilizar estas memorias en dos modos de trabajo distintos: Single
Memory Channel: Todos los módulos de memoria intercambian información con el bus a través de un
sólo canal, para ello sólo es necesario introducir todos los módulos DIMM en el mismo banco de slots.
Dual Memory Channel: Se reparten los módulos de memoria entre los dos bancos de slots
diferenciados en la placa base, y pueden intercambiar datos con el bus a través de dos canales
simultáneos, uno para cada banco.
Estos módulos de memorias utilizan buses de 266 Mhz a 400 Mhz, y sus tamaños de almacenamiento
de datos son: 128, 256, 512 y 1024 MB. Tiene 184 pines o contactos de conexión.
PC-1600: DDR-SDRAM módulo de memoria a 100 MHz usando chips DDR-200, 1.600 Mbytes
(1,6GB) de ancho de banda por canal.
PC-2100: DDR-SDRAM módulo de memoria a 133 MHz usando chips DDR-266, 2.133 Mbytes
(2,1GB) de ancho de banda por canal.
PC-2700: DDR-SDRAM módulo de memoria a 166 MHz usando chips DDR-333, 2.667 Mbytes
(2,6GB) de ancho de banda por canal.
PC-3200: DDR-SDRAM módulo de memoria a 200 MHz usando chips DDR-400, 3.200 Mbytes
(3,2GB) de ancho de banda por canal.
PC-4200: DDR2-SDRAM módulo de memoria a 266 MHz usando chips DDR2-533, 4.400
Mbytes (4,4GB) de ancho de banda por canal.
PC-4800: DDR2-SDRAM módulo de memoria a 300 MHz usando chips DDR2-600, 4.800
Mbytes (4,8GB) de ancho de banda por canal.
190
Manual de Armado y Reparación de PC.
PC-5300: DDR2-SDRAM módulo de memoria a 333 MHz usando chips DDR2-667, 5.300
Mbytes (5,3GB) de ancho de banda por canal.
PC-6400: DDR2-SDRAM módulo de memoria a 400 MHz usando chips DDR2-800, 6.400
Mbytes (6,4GB) de ancho de banda por canal.
191
Manual de Armado y Reparación de PC.
RIMM, acrónimo de Rambus Inline Memory Module, designa a los módulos de memoria RAM que
utilizan una tecnología denominada RDRAM, desarrollada por Rambus Inc. a mediados de los años
1990 con el fin de introducir un módulo de memoria con niveles de rendimiento muy superiores a los
módulos de memoria SDRAM de 100 Mhz y 133 Mhz disponibles en aquellos años.
Los módulos RIMM RDRAM cuentan con 184 pines y debido a sus altas frecuencias de trabajo
requieren de difusores de calor consistentes en una placa metálica que recubre los chips del módulo.
192
Manual de Armado y Reparación de PC.
Se basan en un bus de datos de 16 bits y están disponibles en velocidades de 300MHz (PC-600), 356
Mhz (PC-700), 400 Mhz (PC-800) y 533 Mhz (PC-1066) que por su pobre bus de 16 bits tenía un
rendimiento 4 veces menor que la DDR. La RIMM de 533MHz tiene un rendimiento similar al de un
módulo DDR133, a pesar de que sus latencias son 10 veces peores que la DDR.
Inicialmente los módulos RIMM fueron introducidos para su uso en servidores basados en Intel
Pentium III. Rambus no manufactura módulos RIMM si no que tiene un sistema de licencias para que
estos sean manufacturados por terceros siendo Samsung el principal fabricante de éstos.
Memorias DDR:
DDR, del acrónimo inglés Double Data Rate, significa memoria de doble tasa de transferencia de
datos en castellano. Son módulos compuestos por memorias síncronicas (SDRAM), disponibles en
encapsulado DIMM, que permite la transferencia de datos por dos canales distintos simultáneamente
en un mismo ciclo de reloj.
Fueron primero adoptadas en sistemas equipados con procesadores AMD Athlon. Intel con su Pentium
4 en un principio utilizó únicamente memorias RAMBUS, más costosas. Ante el avance en ventas y
buen rendimiento de los sistemas AMD basados en DDR SDRAM, Intel se vio obligado a cambiar su
estrategia y utilizar memoria DDR, lo que le permitió competir en precio. Son compatibles con los
procesadores de Intel Pentium 4 que disponen de un FSB (Front Side Bus) de 64 bits de datos y
frecuencias de reloj desde 200 a 400 MHz.
193
Manual de Armado y Reparación de PC.
Memorias DDR2:
DDR2 es un tipo de memoria RAM. Forma parte de la familia SDRAM de tecnologías de memoria de
acceso aleatorio, que es una de las muchas implementaciones de la DRAM.
Los módulos DDR2 son capaces de trabajar con 4 bits por ciclo, es decir 2 de ida y 2 de vuelta en un
mismo ciclo mejorando sustancialmente el ancho de banda potencial bajo la misma frecuencia de una
DDR tradicional (si una DDR a 200MHz reales entregaba 400MHz nominales, la DDR2 por esos
mismos 200MHz reales entrega 800mhz nominales). Este sistema funciona debido a que dentro de las
memorias hay un pequeño buffer que es el que guarda la información para luego transmitirla fuera del
modulo de memoria, este buffer en el caso de la DDR1 convencional trabajaba toma los 2 bits para
transmitirlos en 1 solo ciclo lo que aumenta la frecuencia final, en las DDR2 el buffer almacena 4 bits
para luego enviarlos lo que a su vez redobla e la frecuencia nominal sin necesidad de aumentar la
frecuencia real de los módulos de memoria.
Las memorias DDR2 tienen mayores latencias que las que se conseguían para las DDR
convencionales, cosa que perjudicaba el rendimiento. Algunos se preguntarán ¿no es entonces cosa de
hacer DDR2 con latencias más bajas? Sí, pero no es tan fácil. El mismo hecho de que el buffer de la
memoria DDR2 pueda almacenar 4 bits para luego enviarlos es el causante de la mayor latencia,
debido a que se necesita mayor tiempo de "escucha" por parte del buffer y mayor tiempo de trabajo
por parte de los módulos de memoria, para recopilar esos 4 bits antes de poder enviar la información.
Características:
Las memorias DDR2 son una mejora de las memorias DDR (Double Data Rate), que permiten que
los búferes de entrada/salida trabajen al doble de la frecuencia del núcleo, permitiendo que durante
cada ciclo de reloj se realicen cuatro transferencias.
Operan tanto en el flanco alto del reloj como en el bajo, en los puntos de 0 voltios y 1.8 voltios, lo
que reduce el consumo de energía en aproximadamente el 50 por ciento del consumo de las DDR,
que trabajaban a 0 voltios y a 2.5.
Terminación de señal de memoria dentro del chip de la memoria ("Terminación integrada" u
ODT) para evitar errores de transmisión de señal reflejada.
Mejoras operacionales para incrementar el desempeño, la eficiencia y los márgenes de tiempo de
la memoria.
Latencias CAS: 3, 4 y 5.
Tasa de transferencia desde 400 hasta 1024 MB/s y capacidades de hasta 2x2GB actualmente.
Su punto en contra son las latencias en la memoria más largas (casi el doble) que en la DDR.
Estas memorias tiene un nombre propio dependiendo de sus características:
PC4200 512 MB DDRAM 533 MHZ PC4200 1.0 GB DDRAM 533 MHZ PC4600 512 MB DDRAM
667 MHZ PC4600 1.0 GB DDRAM 667 MHZ PC6400 512 MB DDRAM 800 MHZ PC6400 1.0 GB
DDRAM 800 MHZ Algunas marcas de estas memorias son: STD, Transcend, Kingston, Buffalo, NEC
Elixir, Vdata, TRCND.
Chips:
194
Manual de Armado y Reparación de PC.
Nombre del estándar Memoria del reloj Velocidad del reloj Datos transferidos por segundo
DDR2-533 133 MHz 266 MHz 533 Millones
DDR2-667 166 MHz 333 MHz 667 Millones
DDR2-800 200 MHz 400 MHz 800 Millones
DDR2-1000 250 MHz 500 MHz 1.000 Millones
DDR2-1066 266 MHz 533 MHz 1.066 Millones
DDR2-1150 287 MHz 575 MHz 1.150 Millones
Módulos:
Para usar en PCs, las DDR2 SDRAM son suministradas en tarjetas de memoria DIMMs con
240 pines y una localización con una sola ranura. Las tarjetas DIMM son identificadas por su
máxima capacidad de transferencia (usualmente llamado ancho de banda).
Nombre del módulo Velocidad del reloj Tipo de chip Máxima capacidad de transferencia
PC2-4200 266 MHz DDR2-533 4.267 GB/s
PC2-5300 333 MHz DDR2-667 5.333 GB/s1
PC2-6400 400 MHz DDR2-800 6.400 GB/s
PC2-8000 500 MHz DDR2-1000 8.000 GB/s
PC2-8500 533 MHz DDR2-1066 8.500 GB/s
PC2-9200 575 MHz DDR2-1150 9.200 GB/s
DDR2-xxx indica la velocidad de reloj efectiva, mientras que PC2-xxxx indica el ancho de banda
teórico (aunque suele estar redondeado al alza). El ancho de banda se calcula multiplicando la
velocidad de reloj por ocho, ya que la DDR2 es una memoria de 64 bits, hay 8 bits en un byte, y 64 es
8 por 8.
DDR2 no es retrocompatible con DDR, ya que los conectores son diferentes. El zócalo (muesca) de
DDR2 están en una diferente posición a la de DDR y la cantidad de pins, respecto a su densidad
también, es un poco mayor que en DDR. DDR2 posee 240 pines, mientras que DDR tiene 184 pines .
195
Manual de Armado y Reparación de PC.
La variante GDDR:
El primer producto comercial en afirmar que usaba tecnología DDR2 fue la tarjeta gráfica nVIDIA
GeForce FX 5800. Sin embargo, es importante aclarar que la memoria "DDR2" usada en las tarjetas
gráficas (llamada oficialmente GDDR2) no es DDR2, si no un punto intermedio entre las memorias
DDR y DDR2. De hecho, no incluye el (importantísimo) doble ratio del reloj de entrada/salida, y tiene
serios problemas de sobrecalentamiento debido a los voltajes nominales de la DDR. ATI ha
desarrollado aún más el formato GDDR, hasta el GDDR3, que es más similar a las especificaciones de
la DDR2, aunque con varios añadidos específicos para tarjetas gráficas.
Tras la introducción de la GDDR2 con la serie FX 5800, las series 5900 y 5950 volvieron a usar DDR,
pero la 5700 Ultra usaba GDDR2 con una velocidad de 450 MHz (en comparación con los 400 MHz
de la 5800 o los 500 MHz de la 5800 Ultra).
La Radeon 9800 Pro de ATI con 256 MB de memoria (no la versión de 128 MB) usaba también
GDDR2, porque esta memoria necesita menos pines que la DDR. La memoria de la Radeon 9800 Pro
de 256 MB sólo va 20 MHz más rápida que la versión de 128 MB, principalmente para contrarrestar el
impacto de rendimiento causado por su mayor latencia y su mayor número de chips. La siguiente
tarjeta, la 9800 XT, volvió a usar DDR, y posteriormente
ATI comenzó a utilizar GDDR3 en su línea de tarjetas
Radeon X800.
Integración:
DDR2 se introdujo a dos velocidades iniciales: 200 MHz (llamada PC2-3200) y 266 MHz (PC2-
4200). Ambas tienen un menor rendimiento que sus equivalentes en DDR, ya que su mayor latencia
hace que los tiempos totales de acceso sean hasta dos veces mayores. Sin embargo, la DDR no será
oficialmente introducida a ninguna velocidad por encima de los 266 MHz. Existen DDR-533 e incluso
DDR-600, pero la JEDEC ha afirmado que no se estandarizarán. Estos módulos son, principalmente,
optimizaciones de los fabricantes, que utilizan mucha más energía que los módulos con un reloj más
lento, y que no ofrecen un mayor rendimiento.
Actualmente, Intel soporta DDR2 en sus chipsets 9xx. AMD incluye soporte DDR2 en procesadores
de la plataforma AM2 introducidos en el 2006. Los DIMM DDR2 tienen 240 pines, mientras que los
de DDR tienen 184 y los de SDRAM 168.
196
Manual de Armado y Reparación de PC.
197
Manual de Armado y Reparación de PC.
Bus de memoria:
Es un camino o pista por el cual se comunica la memoria con el resto del sistema. Existen tres buses
de datos, de dirección y de control. El primero corresponde a las transferencias de datos, el segundo
es por donde se indica el lugar de la memoria donde se va a trabajar y el tercero corresponde a las
órdenes, esto es decir que se debe hacer con el dato. Ahora nos concentraremos en el bus de datos, este
se suele denominar por el ancho, es decir la capacidad de transferir mayores cantidades de datos en un
ciclo.
El ancho de bus y la frecuencia deben estar nivelados, uno seria el ancho de la pista y el otro la
velocidad con que transitan los datos. Este ancho de bus se mide en Bits. Ejemplos:
DDR SDRAM
PC1600
100 MHZ 2 64 BITS 1600 MB/S
DDR SDRAM
PC2100
133 MHZ 2 64 BITS 2133 MB/S
DDR SDRAM
PC2700
166 MHZ 2 64 BITS 2666 MB/S
DDR SDRAM
PC3200
200 MHZ 2 64 BITS 3200 MB/S
198
Manual de Armado y Reparación de PC.
Son los chips de memoria de solo lectura programables, o PROM (Programmable Read-Only
Memory). Este tipo de circuitos consiste en una matriz de elementos que actúan como fusibles.
Normalmente conducen la electricidad. Sin embargo, al igual que los fusibles, estos elementos pueden
fundirse, lo que detiene el flujo de la corriente.
Los chips PROM están fabricados y desarrollados con todos sus fusibles intactos. Se emplea una
máquina especial llamada programador de PROM o quemador de PROM, para fundir los fusibles uno
por uno según las necesidades del software que se va a codificar en el chip. Este proceso se conoce
normalmente como el “quemado “de la PROM.
Como la mayoría de los incendios, los efectos de quemar la PROM son permanentes. El chip no puede
modificar, ni actualizar, ni revisar el programa que lleva dentro. Definitivamente, las PROM no están
pensadas para la gente que cambia rápidamente de ideas, ni para la industria de cambios rápidos.
Por fortuna, la tecnología nos ha traído otra alternativa: los chips de memoria programables y
borrables de solo lectura, las EPROM. (Erasable Programmable Read-Only Memory). Las EPROM
son internamente semiconductores auto-reparables porque los datos de su interior pueden borrarse y el
chip puede ser reutilizado por otros datos o programas.
Las EPROM son fáciles de distinguir de los otros chips porque tienen una pequeña ventana
transparente en el centro de la cápsula. Invariablemente, esta ventana esta cubierta con una etiqueta de
cualquier clase, y con una buena razón: el chip se puede borrar por la luz ultravioleta de alta intensidad
que entra por la ventana.
199
Manual de Armado y Reparación de PC.
Si la luz del sol llega directamente al chip a través de una ventana, el chip podría borrarse sin que
nadie se diera cuenta. A causa de su versatilidad con la memoria permanente, y por su facilidad de
reprogramación, basta borrarla con luz y programarla de nuevo, las EPROM se encuentran en el
interior de muchos ordenadores.
EEPROM: (Erase Electrically Programmable Read only Memory), esta memoria se utiliza en la
ROMBIOS actuales o en los dispositivos de almacenamiento externos como las tarjetas Flash. La
nueva E viene de Electrically, el principio de funcionamiento es similar a las anteriores, solo se mejoro
el sistema de borrado de la información, los datos pueden eliminados de las celdas individualmente
aplicándole un campo eléctrico de la misma memoria, esto elimina la mirilla de cristal y los problemas
con ella, la desventaja es que la información se borra byte a byte y no bit a bit, esto la hace mas lenta.
Memoria Cache:
Con el aumento de la rapidez de los microprocesadores ocurrió la paradoja de que las memorias
principales no eran suficientemente rápidas como para poder ofrecerles los datos que éstos
necesitaban. Por esta razón, los ordenadores comenzaron a construirse con una memoria caché interna
situada entre el microprocesador y la memoria principal.
Además la caché contiene los datos que más se usan para reducir el tiempo de espera a los mismos.
Por supuesto este aumento de velocidad (unas 5 ó 6 veces más rápida) conlleva un elevado aumento de
precio, razón por la cual no se utiliza la misma tecnología para la memoria RAM.
L1 o interna (situada dentro del propio procesador y por tanto de acceso aún más rápido y aún
más cara). La caché de primer nivel contiene muy pocos kilobytes (unos 32 ó 64 Kb) aunque
con la evolución de los procesadores tenemos modelos de 1mb.
200
Manual de Armado y Reparación de PC.
L2 o externa (situada entre el procesador y la RAM). Los tamaños típicos de la memoria caché
L2 oscilan en la actualidad entre 256 kc. y 2 Mb: la memoria caché es un tipo especial de
memoria que poseen los ordenadores. Esta memoria se sitúa entre el microprocesador y la
memoria RAM y se utiliza para almacenar datos que se utilizan frecuentemente. Permite
agilizar la transmisión de datos entre el microprocesador y la
memoria principal. Es de acceso aleatorio (también conocida
como acceso directo) y funciona de una manera similar a
como lo hace la memoria principal (RAM), aunque es
mucho más rápida.
Composición interna
Las memorias caché están compuestas por dos elementos distintos: un directorio que almacena
etiquetas que identifican la dirección de memoria almacenada y bloques de información, todos de
igual tamaño, que guardan la información propiamente dicha.
Diseño
En el diseño de la memoria caché se deben considerar varios factores que influyen directamente en el
rendimiento de la memoria y por lo tanto en su objetivo de aumentar la velocidad de respuesta de la
jerarquía de memoria. Estos factores son las políticas de ubicación, extracción, reemplazo, escritura y
el tamaño de la caché y de sus bloques.
Política de ubicación
Decide dónde debe colocarse un bloque de memoria principal que entra en la memoria caché. Las más
utilizadas son:
Directa
Asociativa
La memoria caché se divide en varios conjuntos de n bloques, así al bloque i-ésimo de memoria
principal le corresponde el conjunto i módulo (k/n) donde k es el número de bloques de memoria
caché. Dicho bloque de memoria podrá ubicarse en cualquier posición dentro del conjunto asociado de
la memoria caché.
Política de extracción
La política de extracción determina cuando y cual bloque de memoria principal hay que traer a
memoria caché. Existen dos políticas muy extendidas:
201
Manual de Armado y Reparación de PC.
Por demanda
Un bloque solo se trae a memoria caché cuando ha sido referenciado y se produzca un fallo.
Con prebúsqueda
Cuando se referencia el bloque i-ésimo de memoria principal, se trae además el bloque (i+1)-esimo.
Política de reemplazo
Determina que bloque de memoria caché debe abandonarla cuando no existe espacio disponible para
un bloque entrante.
Aleatoria
FIFO
Se usa un algoritmo FIFO (First In First Out, el primero que entra es el primero que sale) para
determinar que bloque debe abandonar la caché. Este algoritmo, generalmente es poco eficiente.
LRU
Acrónimo inglés de Least Recently Used (español: El menos recientemente usado). Determina el
bloque que hace más tiempo que no se referencia, y determina que éste debe ser el que debe abandonar
la caché. Como esta política es difícil de implementar en hardware normalmente se usan versiones un
poco simplificadas.
Política de escritura
Escritura inmediata
También llamada en inglés Write Through. Cuando se escribe un bloque en memoria caché se
actualiza directamente la información también en memoria principal, manteniendo la coherencia en
todo momento.
Escritura aplazada
En inglés Write Back, cuando se escribe un bloque en memoria caché, se marca como sucio usando un
bit especial llamado normalmente dirty bit. Cuando el bloque sea desalojado de memoria caché
(mediante la correspondiente política de reemplazo), se comprueba el bit de sucio, y si está activado se
escribe la información de dicho bloque en memoria principal. También es llamada como política de
post-escritura.
202
Manual de Armado y Reparación de PC.
Memoria virtual
Memoria virtual es un diseño computacional que permite al software usar más memoria principal
(RAM) que la que realmente posee la computadora.
La mayoría de los computadores tienen cuatro tipos de memoria: registros en la CPU, la memoria
cache (tanto dentro como fuera del CPU), la memoria física (generalmente en forma de RAM, donde
la CPU puede escribir y leer directamente y razonablemente rápido) y el disco duro que es mucho más
lento, pero también más grande y barato.
Muchas aplicaciones requieren el acceso a más información (código y datos) que la que puede ser
mantenida en memoria física. Esto es especialmente cierto cuando el sistema operativo permite
múltiples procesos y aplicaciones corriendo simultáneamente. Una solución al problema de necesitar
mayor cantidad de memoria de la que se posee, consiste en que las aplicaciones mantengan parte de su
información en disco, moviéndola a la memoria principal cuando sea necesario. Hay varias formas de
hacer esto. Una opción es que la aplicación misma sea responsable de decidir qué información será
guardada en cada sitio, y de traerla y llevarla. La desventaja de esto, además de la dificultad en el
diseño e implementación de cada programa, es que es muy probable que los intereses sobre la
memoria de dos o varios programas generen conflictos entre sí: cada programador podría realizar su
diseño tomando en cuenta que es el único programa corriendo en el sistema. La alternativa es usar
memoria virtual, donde la combinación entre hardware especial y el sistema operativo hace uso de la
memoria principal y la secundaria para hacer parecer que la computadora tiene mucha más memoria
principal (RAM) que la que realmente posee. Este método es invisible a los procesos, de forma tal que
el resto del software corriendo en la computadora no advierte el artilugio. La cantidad de memoria
máxima que se puede hacer ver que existe tiene que ver con las características del procesador. Por
ejemplo, en un sistema de 32 bits, el máximo es 2 32, lo que da aproximadamente 4000 Megabytes (4
Gigabytes). Todo esto hace el trabajo del programador de aplicaciones mucho más fácil. No importa
cuánta sea la memoria que la aplicación necesita (siempre que sea menor al límite del procesador),
puede actuar como si tuviera esa cantidad de memoria principal. El programador puede ignorar
completamente la necesidad de mover datos entre los distintos tipos de memoria.
Aunque la memoria virtual podría ser implementada por software del sistema operativo, en la práctica
casi universalmente se usa una combinación de hardware y software.
Operación básica
Cuando se usa memoria virtual, o cuando una dirección es leída o escrita por la CPU, una parte del
hardware dentro de la computadora traduce las direcciones de memoria generadas por el software
(direcciones virtuales) en:
Detalles
La traducción de las direcciones virtuales a reales es implementada por una Unidad de Manejo de
Memoria (MMU). El sistema operativo es el responsable de decidir qué partes de la memoria del
programa es mantenida en memoria física. Además mantiene las tablas de traducción de direcciones
(si se usa paginación la tabla se denomina tabla de paginación), que proveen las relaciones entre
203
Manual de Armado y Reparación de PC.
direcciones virtuales y físicas, para uso de la MMU. Finalmente, cuando una excepción de memoria
virtual ocurre, el sistema operativo es responsable de ubicar un área de memoria física para guardar la
información faltante, trayendo la información desde el disco, actualizando las tablas de traducción y
finalmente continuando la ejecución del programa que dio la excepción de memoria virtual desde la
instrucción que causó el fallo.
El hardware que tiene soporte para memoria virtual, la mayoría de las veces también permite
protección de memoria. La MMU puede tener la habilidad de variar su forma de operación de acuerdo
al tipo de referencia a memoria (para leer, escribir, o ejecutar), así como el modo en que se encontraba
el CPU en el momento de hacer la referencia a memoria. Esto permite al sistema operativo proteger su
propio código y datos (como las tablas de traducción usadas para memoria virtual) de corromperse por
una aplicación, y de proteger a las aplicaciones que podrían causar problemas entre sí.
Paginación
En la tabla de páginas de un proceso, se encuentra la ubicación del marco que contiene a cada una de
sus páginas. Las direcciones lógicas ahora se forman como un número de página y de un
desplazamiento dentro de esa página. El número de página es usado como un índice dentro de la tabla
de páginas, y una vez obtenida la dirección real del marco de memoria, se utiliza el desplazamiento
para componer la dirección real. Este proceso es realizado en el hardware del computador.
204
Manual de Armado y Reparación de PC.
De esta forma, cuando un proceso es cargado en memoria, se cargan todas sus páginas en marcos
libres y se completa su tabla de páginas.
Veamos un ejemplo:
La tabla de la derecha muestra una posible configuración de la memoria en un momento dado, con
páginas de 4Kb. La forma en que se llegó a este estado puede haber sido la siguiente:
De esta forma, las tablas simplificadas de cada proceso se ven de esta forma:
Proceso A - -
Página Marco - -
0 1000:0000
1 1000:1000 Proceso C
Proceso B 0 1000:5000
205
Manual de Armado y Reparación de PC.
Proceso D 1 1000:4000
0 1000:3000
0010000011111110 = 20FE
{_}|___________|
| |
| v
v Posición de memoria dentro de la página (00FE)
Número de página (0010 = 2)
Al usar páginas de 4096 bytes, todas las ubicaciones dentro de una página
pueden ser representadas por 12 bits, en el sistema binario (2 12=4096), lo que
deja 4 bits para representar el número de página. Si las páginas hubieran sido de
la mitad del tamaño (2048) se podrían tener 5 bits para el número de página, lo
que significa que a menor tamaño de página se pueden tener tablas con más
páginas.
El único inconveniente del sistema de paginación pura es que todas las páginas
de un proceso deben estar en memoria para que pueda ejecutar. Esto hace que si
los programas son de tamaño considerable, no puedan cargarse muchos a la vez,
disminuyendo el grado de multiprogramación del sistema. Para evitar esto, y
aprovechando el principio de cercanía de referencias donde se puede esperar que
un programa trabaje con un conjunto cercano de referencias a memoria (es decir
con un conjunto residente más pequeño que el total de sus páginas), se permitirá
que algunas páginas del proceso sean guardadas en un espacio de intercambio (en
memoria secundaria) mientras no se necesiten.
206
Manual de Armado y Reparación de PC.
Buffer de datos
Un buffer en informática es un espacio de memoria, en el que se almacenan
datos para evitar que el recurso que los requiere, ya sea hardware o software, se
quede en algún momento sin datos.
El concepto del Buffer es similar al de caché. Pero en el caso del buffer, los datos
que se introducen siempre van a ser utilizados. En la caché sin embargo, no hay
seguridad, sino una mayor probabilidad de utilización.
207
Manual de Armado y Reparación de PC.
Gabinete:
Es el armazón que contiene al CPU, donde se monta la placa madre,
microprocesador, memoria, etc. Existen muchos modelos, pero no han cambiado
mucho desde sus orígenes. Básicamente es una caja metálica para contener las
partes del equipo, con ranuras universales y Bahías que permiten alojar todos los
modelos de Placas Madres, discos duros y lectoras.
208
Manual de Armado y Reparación de PC.
Los Gabinetes o CASE actuales son de aluminio pintado lo cual los hace livianos
pero fáciles de dañar, con frentes plásticos para el acceso a las unidades de
lectura (CD-ROMs, USB frontales, etc.) también en esta sector se encuentran las
luces, los botones de Power y Reset.
La parte Trasera posee ranuras para la salida de los conectores del Motherboard y
placas instaladas en los zócalos de expansión. A diferencia de los anteriores, los
modernos están mejorados en diseño y refrigeración algo importantísimo en las
PC actuales.
209
Manual de Armado y Reparación de PC.
210
Manual de Armado y Reparación de PC.
211
Manual de Armado y Reparación de PC.
Disco Rígido:
Se llama disco duro (en inglés hard disk, abreviado con frecuencia HD o HDD)
al dispositivo encargado de almacenar información de forma persistente en un
ordenador.
212
Manual de Armado y Reparación de PC.
The thin film (7).Una última y fina capa oleosa para proteger la capa electro-
magnética.
Se pueden utilizar ambas caras de los platos para almacenar información.
213
Manual de Armado y Reparación de PC.
Ejes (8): Los ejes son las piezas sobre las que giran algunos elementos móviles
del disco duro. Un eje permite el giro de los platos y el otro el movimiento del
cabezal de lectura/escritura.
Chasis (9): Es la estructura rígida donde se asientan las distintas piezas del disco
duro, pero no interviene en ningún momento en el almacenamiento de la
información.
Motor del disco duro (11): conjunto de elementos cuya finalidad es producir un
movimiento de giro a los platos a una velocidad constante. .
Tipos de interfaces:
SCSI: Aunque al principio competían a nivel usuario con los discos IDE, hoy día
sólo se los puede encontrar en algunos servidores. Para usarlos es necesario
instalar una tarjeta controladora. Permite conectar hasta quince periféricos en
cadena. La última versión del estándar, Ultra4 SCSI, alcanza picos de
transferencia de datos de 320 MBps.
IDE / EIDE: Es el nombre que reciben todos los discos duros que cumplen las
especificaciones ATA. Se caracterizan por incluir la mayor parte de las funciones
de control en el dispositivo y no en una controladora externa. Normalmente los
PCS tienen dos canales IDE, con hasta dos discos en cada uno. Usan cables de
cuarenta hilos, y alcanzan hasta 33 MBps.
ATA 66, 100, 133: Sucesivas evoluciones de la interfaz IDE para cumplir las
nuevas normas ATA le han permitido alcanzar velocidades de 66, 100 y hasta
133 MBps. Para soportar este flujo de datos necesitan utilizar un cable de
ochenta hilos, si se emplea otro el rendimiento será como máximo de 33 MBps.
Son los discos duros más utilizados en la actualidad.
Serie ATA: Es la interfaz que se espera sustituya a corto plazo a los discos IDE.
Entre sus ventajas están una mayor tasa de transferencia de datos (150 frente a
133 MBps) y un cable más largo (hasta un metro de longitud en vez de 40 cm.) y
delgado (sólo siete hilos en lugar de ochenta) que proporciona mayor flexibilidad
en la instalación física de los discos y mejor ventilación de aire en el interior de
la caja.
Tal y como sale de fábrica el disco duro no puede ser utilizado por un sistema
operativo. Antes tenemos que definir en él una o más particiones y luego hemos
de darles un formato que pueda ser entendido por nuestro sistema.
214
Manual de Armado y Reparación de PC.
También existen otro tipo de discos denominados de estado sólido que utilizan
cierto tipo de memorias construidas con semiconductores para almacenar la
información. El uso de esta clase de discos generalmente se limita a las
supercomputadoras, por su elevado precio. Así, el caché de pista es una memoria
de estado sólido, tipo RAM, dentro de un disco duro de estado sólido.
Estructura física
Direccionamiento
215
Manual de Armado y Reparación de PC.
En épocas antiguas, antes del advenimiento de los discos del IDE, los discos
tenían una geometría descrita por tres constantes C, H, S: el número de cilindros,
el número de cabezas, el número de sectores por pista. La dirección de un sector
fue dada por tres números: c, h, s: el número de cilindro (entre 0 y C-1), el
número principal (entre 0 y H-1), y el número del sector dentro de la pista (entre
1 y S), donde por una cierta razón misteriosa c y cuenta de h a partir de la 0, pero
s cuenta a partir de la 1. Se llama esto dirección de CHS.
Ningún disco fabricado hace menos de diez años tiene una geometría, pero esta
dirección antigua del sector 3D todavía es utilizada por el interfaz del BIOS
INT13 (con fantasía numera C, H, S sin relación a cualquier realidad física).
Por lo tanto, para tener acceso a un disco muy viejo del non-SCSI, necesitamos
saber su geometría, es decir, los valores de C, de H y del S.
Sector size
En el actual texto un sector tiene 512 octetos. Esto es casi siempre verdad, pero
por ejemplo ciertos discos del MES utilizan a sector size de 2048 octetos, y todas
las capacidades dadas abajo se deben multiplicar por cuatro. (Al usar el fdisk en
tales discos, cerciorarte de tú tener versión 2.9i o más adelante, y dar “- la opción
de b 2048”.)
Disk size
Un disco con los cilindros de C, las cabezas de H y los sectores de S por pista
tiene sectores de C*H*S en todos, y puede almacenar los octetos C*H*S*512.
Por ejemplo, si la etiqueta del disco dice C/H/S=4092/16/63 entonces el disco
tiene sectores 4092*16*63=4124736, y puede llevar a cabo los octetos
4124736*512=2111864832 (2.11 GB). Hay una convención de la industria para
dar a C/H/S=16383/16/63 para los discos más en gran parte de 8.4 GB, y el
tamaño del disco se puede leer no más apagado en los valores de C/H/S
divulgados por el disco.
216
Manual de Armado y Reparación de PC.
Esta situación fue rectificada cuando las funciones extendidas supuestas INT13
fueron introducidas. Un BIOS moderno no tiene ningún problema el tener acceso
de discos grandes.
El límite de 137 GB
El viejo estándar de ATA describe cómo tratar un sector en un disco del IDE
usando 28 pedacitos (8 pedacitos para el sector, 4 para la cabeza, 16 para el
cilindro). Esto significa que un disco del IDE puede tener a lo más sectores
direccionables 2^28. Con 512 sectores del octeto éste es los octetos 2^37, es
decir, 137.4 GB.
El estándar ATA-6 incluye una especificación cómo tratar más allá de este límite
del sector 2^28. El nuevo estándar permite la dirección de los sectores 2^48. Hay
ayuda en los núcleos recientes de Linux que han incorporado el remiendo del
IDE de Andre Hedrick, por ejemplo 2.4.18-pre7-ac3 y 2.5.3.
Maxtor vende discos de 160 GB IDE desde la caída 2001. Un viejo núcleo tratará
los discos tales como discos de 137.4 GB.
Plato: Cada uno de los discos que hay dentro del disco duro.
217
Manual de Armado y Reparación de PC.
Estructura lógica
Funcionamiento mecánico
218
Manual de Armado y Reparación de PC.
Historia
Antiguo disco duro de IBM (modelo 62PC, "Piccolo"), de 64.5 MB, fabricado en
1979
El primer disco duro fue el IBM 350, inventado por Reynold Johnson y
presentado en 1955 junto con el ordenador IBM 305. Este disco tenía 50 platos
de 61 cm. cada uno, con una capacidad total de 5 millones de caracteres. Se
usaba un solo cabezal para acceder a todos los platos, por lo que el tiempo de
acceso medio era muy lento.
219
Manual de Armado y Reparación de PC.
Modo LBA:
Fabricantes
MAXTOR: Es uno de los más antiguos fabricantes de discos duros y tras pasar
unos apuros económicos en los años noventa, fue adquirida por la multinacional
Hyundai en 1996. Hoy en día, es el mayor fabricante del mundo, habiendo
adquirido Quantum en el año 2001. Solo fabrican discos de 3.5" IDE.
220
Manual de Armado y Reparación de PC.
TOSHIBA: Al igual que antes Hitachi, solo fabrican disco de portátil, siendo
además el poseedor de esta patente.
JTS: Este fabricante fue fundado en EEUU durante el año 1994 por Conner y
algunos trabajadores de IBM, y realizaban la fabricación de sus productos en la
India. Cerraron en 1998.
221
Manual de Armado y Reparación de PC.
NEC: En 1998 firmó un acuerdo con IBM para empezar a fabricar discos de este
último.
Partición de disco
Una partición en el sistema Windows (bajo la arquitectura IBM PC) es una parte
de una unidad de disco duro que puede tener un sistema de archivo
independiente. Hay tres tipos de particiones principales:
1. Partición primaria
2. Partición extendida, que contiene una o más particiones lógicas
3. Partición lógica
Estatus actual
222
Manual de Armado y Reparación de PC.
Particiones primarias
En los sistemas Windows para IBM PCs, las particiones tradicionalmente se han
apoyado usando una estructura llamada Tabla de Partición, que es escrita
apuntando el final del registro de arranque maestro. La tabla, que no puede
contener más de 4 registros de particiones (que son también llamados partition
descriptors), específica para cada uno su principio, final y tamaño en los
diferentes modos de direccionamientos, también como un solo número llamado
partition type, y un marcador que dice si una partición esta activa. Solo una
partición puede normalmente estar activa en un momento. El marcador es usado
durante el arranque: después el BIOS carga el registro de arranque maestro en la
memoria y lo ejecuta, la MBR de DOS checa la tabla de partición a su final, y
localiza la partición activa. Entonces procede para cargar el sector de arranque de
esta partición en la memoria y la corre. Al contrario del registro de arranque
maestro, que es generalmente independiente del sistema operativo, el sector de
arranque está instalado junto con el sistema operativo y de esa manera puede
conocer cómo exactamente cargar el sistema ubicado en ese disco en particular.
223
Manual de Armado y Reparación de PC.
El DOS de todas las versiones puede leer sólo una partición FAT primaria en el
disco duro. Esta, y la deterioración de la FAT de la utilización del disco y el
desempeño como los tamaños de discos se hizo a Microsoft inventar un esquema
mejorado de particionamiento de disco. El esquema fue relativamente simple:
una de las entradas de la tabla de partición principal fue llamada una partición
extendida, y dada un número del tipo de partición especial (0x05). Sólo el campo
de inicio de partición dentro de éste fue usado, para almacenar la ubicación del
primer descriptor de la partición extendida; que a su vez tenía un campo similar
almacenando la ubicación de la siguiente, en efecto que crea una lista unida de
descriptores de partición. Los otros campos de una partición extendida son
indefinidos, y desde estos significados ningún espacio esta asignado a la misma
partición, esta no puede ser usada para almacenamiento de datos. Las particiones
en el inicio de la lista unida con una partición extendida son llamadas las
particiones lógicas. Estas son espacio asignados, y puede usarse para almacenar
datos. Los sistemas operativos viejos, que no eran conscientes de particiones
extendidas, particiones simplemente ignoradas con el número de tipo 0x05, y así
la contabilidad fue preservada. Este esquema puede teóricamente reemplazar el
viejo, como todas las particiones de un disco duro pueden ser puestas dentro de
una sola partición extendida; sin embargo, por alguna razón Microsoft no
actualizo su sistema operativo DOS (o de hecho cualquier otro hasta el
momento), por lo tanto este arrancaría desde una partición extendida, y debido a
que la necesidad para particiones primarias se preservaron. Más encima de, estas
todavía habría sólo permitido una partición FAT primaria por unidad,
significando todas las otras particiones FAT primarias deben temer sus números
de tipo de partición prior cambiando al arranque DOS, para que esta sea capaz de
proceder. Esta técnica, usada por varios administradores de arranque populares,
se volvió conocida como ocultación de la partición.
224
Manual de Armado y Reparación de PC.
Tabla de particiones
La tabla de particiones está alojada en el MBR a partir del byte 446 del sector
de arranque y ocupa 64 bytes, contiene 4 particiones (de 16 bytes cada una),
llamadas particiones primarias, cada registro ocupa 16 bytes en ese registro se
almacena todo lo relacionado con la partición, si es iniciadle, si no lo es, el
formato, el tamaño y el sector de inicio.
225
Manual de Armado y Reparación de PC.
El tamaño de los clústeres depende del sistema de archivos empleado, por lo que
el espacio de almacenamiento perdido debido a los archivos que ocupan menos
que el tamaño del clúster depende del sistema de archivos que emplee el disco.
512 MB to 8,191 MB 4 KB
8,192 MB to 16,383 MB 8 KB
16,384 MB to 32,767 MB 16 KB
Mas de 32,768 MB 32 KB
226
Manual de Armado y Reparación de PC.
EFS
EXT2
EXT3
FAT (sistemas de archivos de DOS y Windows)
UMSDOS
FFS
Fossil
HFS (para Mac OS)
HPFS
ISO 9660 (sistema de archivos de solo lectura para CD-ROM)
JFS
KFS
MFS (para Mac OS)
Minix
NTFS (sistemas de archivos de Windows NT)
OFS
ReiserFS
Reiser4
UDF (usado en DVD y en algunos CD-ROM)
UFS
XFS
227
Manual de Armado y Reparación de PC.
Este diseño permite que la BIOS cargue cualquier sistema operativo sin saber
exactamente dónde comenzar dentro de su partición. Debido a que el MBR se lee
casi inmediatamente cuando se enciende la computadora, muchos virus
funcionan cambiando el código del MBR. En los procesadores de Intel la
secuencia del lenguaje ensamblador se ejecuta en modo real.
Dirección Descripción
228
Manual de Armado y Reparación de PC.
Archivo FAT
FAT16
Esta mejora estuvo disponible en 1988 gracias a MS-DOS 4.0. Mucho más tarde,
Windows NT aumentó el tamaño máximo del cluster a 64 kilobytes gracias al
"truco" de considerar la cuenta de clusters como un entero sin signo. No
obstante, el formato resultante no era compatible con otras implementaciones de
la época, y además, generaba mucha fragmentación interna (se ocupaban clusters
enteros aunque solamente se precisaran unos pocos bytes). Windows 98 fue
compatible con esta extensión en lo referente a lectura y escritura. Sin embargo,
sus utilidades de disco no eran capaces de trabajar con ella.
FAT32
229
Manual de Armado y Reparación de PC.
los 32 gigabytes. Microsoft afirma que es una decisión de diseño, sin embargo, es
capaz de leer particiones mayores creadas por otros medios.
NTFS
NTFS permite definir el tamaño del clúster, a partir de 512 Bytes (tamaño
mínimo de un sector) de forma independiente al tamaño de la partición.
Necesita para sí mismo una buena cantidad de espacio en disco duro, por lo
que no es recomendable su uso en discos con menos de 400 MB libres.
No es compatible con MS-DOS, Windows 95, Windows 98 ni Windows ME.
No puede ser utilizado en disquetes.
Características
230
Manual de Armado y Reparación de PC.
Funcionamiento
Todo lo que tiene que ver con los ficheros, se almacena en forma de metadatos.
Esto permitió una fácil ampliación de características durante el desarrollo de
Windows NT. Un ejemplo lo hallamos en la inclusión de campos de indexado,
añadidos para posibilitar el funcionamiento de Active Directory.
Interoperabilidad
231
Manual de Armado y Reparación de PC.
Formato (disco)
Normalmente solo los Discos Flexibles necesitan ser formateados a bajo nivel.
Los discos duros vienen formateados de fábrica y nunca se pierde el formato por
operaciones normales incluso si son defectuosas (Si que puede perderse por
campos magnéticos o altas temperaturas).
El formato lógico puede ser realizado habitualmente por los usuarios, aunque
muchos medios vienen ya formateados de fábrica. El formato lógico implanta un
sistema de archivos que asigna sectores a archivos.
En los discos duros, para que puedan convivir distintos sistemas de archivos,
antes de realizar un formato lógico hay que dividir el disco en particiones; más
tarde, cada partición se formatea por separado.
Antes de poder usar un disco para guardar información, este deberá ser
formateado. Esto lo prepara para guardar la información. Los discos movibles
(disquetes, CD, USB, Unidad Zip, etc.) que se compran normalmente ya se
encuentran formateados pero puede encontrar algunos no formateados de vez en
cuando. Un disco duro nuevo, o un dispositivo para grabar en cinta, pueden no
haber sido pre-formateados.
232
Manual de Armado y Reparación de PC.
FDISK destruye todos los archivos existentes en cualquier partición cuando ésta
es modificada, por ello es importante realizar una copia de seguridad de dichos
archivos antes de usar FDISK.
Opciones de FDISK
233
Manual de Armado y Reparación de PC.
El menú indica con un número la unidad de disco duro en uso, para un solo disco
duro en nuestro PC siempre se indicará 1, para más de uno el número indicará
con cual de ellos está trabajando FDISK.
PRESENTACIÓN DE INFORMACIÓN
Etiquet
Partici Esta a M Siste Us
Tipo
ón do volume B ma o
n
PRI FAT3 50
C: 1 A 20
DOS 2 %
EXT 50
2 20
DOS %
234
Manual de Armado y Reparación de PC.
Tipo: Indica si es una partición primaria de DOS (PRI DOS), partición extendida
de DOS (EXT DOS) o una partición NO-DOS.
235
Manual de Armado y Reparación de PC.
Sistema: Nos dice el tipo de sistema de archivos que se está usando en cada
partición.
Sistema: Nos dice el tipo de sistema de archivos que se está usando en cada
partición.
Uso: Muestra el porcentaje de espacio ocupado por cada unidad lógica dentro de
la partición extendida.
El disco duro que inicie el sistema debe tener una partición primaria de DOS,
como ya comentábamos, ésta partición podrá ocupar todo el espacio disponible
en el disco duro o sólo una parte.
Si decidimos dejar espacio libre, éste puede ser ocupado por una partición
extendida de DOS con unidades lógicas o por una partición NO-DOS.
236
Manual de Armado y Reparación de PC.
Para crear una partición primaria o unidad lógica de DOS elegiremos la opción
número 1.
¿Desea usar el tamaño máximo disponible para una partición primaria y activar
dicha partición (S/N) ................? [S]
El sistema se reiniciará
Inserte el disco del sistema en la unidad A:
Presione cualquier tecla cuando esté listo
237
Manual de Armado y Reparación de PC.
¿Desea usar el tamaño máximo disponible para una partición primaria y activar
dicha partición (S/N) ................? [N]
Si queremos tener más de una partición en nuestro disco duro, podemos crear
además de la partición primaria, particiones extendidas.
238
Manual de Armado y Reparación de PC.
Seleccionamos la opción 2.
Se nos presentará el tamaño total disponible para una partición extendida en MB,
el valor predeterminado del tamaño de dicha partición extendida será el máximo
disponible en el disco duro menos el tamaño de la partición primaria.
Si queremos usar sólo una parte del espacio disponible, escribiremos el número
de MB o el porcentaje que queremos que ocupe la partición extendida.
Recuerda que una vez terminado el proceso habrá que dar formato a cada unidad
lógica creada.
239
Manual de Armado y Reparación de PC.
Pero si en nuestro segundo disco duro creamos una partición primaria, esta
partición será ahora D convirtiéndose la primera unidad lógica de nuestro primer
disco duro en E (antes D) y la segunda en F (antes E).
Los CD, CDRW, ZIP y demás dispositivos ocuparán las letras consecutivas tras
la última unidad lógica del último disco duro, es decir si nuestro disco duro es C
con sus particiones D y E, el CD será F y la grabadora G.
Recuerda que tras asignar las particiones debemos reiniciar el ordenador para que
las letras de las unidades sean asignadas, si intentamos formatear sin reiniciar el
sistema recibiremos un mensaje de error.
Nos mostrará un menú con la partición activa por defecto indicada por la letra A.
Aquí podremos activar otra partición si fuese necesario.
Sólo es posible activar particiones primarias.
Hay que saber que al eliminar una partición, se eliminará todos los datos
contenidos en la misma, recordad si fuese necesario hacer copias de seguridad de
aquellos archivos que nos resulten de interés.
240
Manual de Armado y Reparación de PC.
Escribimos [S]
FORMAT /S
Este comando copiará al disco los archivos del sistema IO.SYS, MSDOS.SYS y
COMMAND.COM
Modificadores de fdisk
241
Manual de Armado y Reparación de PC.
FDISK/MBR
FDISK/STATUS
Periféricos Internos:
Placas de Video:
Una tarjeta gráfica, tarjeta de vídeo o tarjeta aceleradora de gráficos, es una
tarjeta de expansión para una computadora personal, encargada de procesar los
datos provenientes de la CPU y transformarlos en información comprensible y
representable en un dispositivo de salida, como un monitor o televisor.
242
Manual de Armado y Reparación de PC.
Las tarjetas gráficas no son dominio exclusivo de los PCs; contaron con ellas
dispositivos como los Commodore Amiga (conectadas mediante los slots Zorro
II y Zorro III), Apple II, Apple Macintosh, Spectravideo SVI-328, equipos MSX
y, por supuesto, en las videoconsolas.
Historia
La historia de las tarjetas gráficas comienza a finales de los años 1960, cuando se
pasa de usar impresoras como elemento de visualización a utilizar monitores. Las
encargadas de crear aquellas primeras imágenes fueron las tarjetas de vídeo.
La primera tarjeta gráfica, que se lanzó con los primeros IBM PC, fue
desarrollada por IBM en 1981. La MDA (Monochrome Graphics Adapter)
trabajaba en modo texto y era capaz de representar 25 líneas de 80 caracteres en
pantalla. Contaba con una memoria de vídeo de 4KB, por lo que sólo podía
trabajar con una página de memoria. Se usaba con monitores monocromo, de
tonalidad normalmente verde.
VGA tuvo una aceptación masiva, lo que llevó a compañías como ATI, Cirrus
Logic y S3 Graphics, a trabajar sobre dicha tarjeta para mejorar la resolución y el
número de colores. Así nació el estándar SVGA (Súper VGA). Con dicho
estándar se alcanzaron los 2 MB de memoria de vídeo, así como resoluciones de
1024 x 768 puntos a 256 colores.
243
Manual de Armado y Reparación de PC.
En 2006, NVIDIA y ATI se repartían el liderazgo del mercado con sus series de
chips gráficos GeForce y Radeon, respectivamente.
GPU
Memoria de vídeo
Según la tarjeta gráfica esté integrada en la placa base (bajas prestaciones) o no,
utilizará la memoria RAM propia del ordenador o dispondrá de una propia. Dicha
memoria es la memoria de vídeo o VRAM. Su tamaño oscila entre 128 MB y
768 MB. La memoria empleada en 2006 estaba basada en tecnología DDR,
destacando DDR2, GDDR3 y GDDR4. La frecuencia de reloj de la memoria se
encontraba entre 400 MHz y 1.6 GHz.
244
Manual de Armado y Reparación de PC.
RAMDAC
Salidas
245
Manual de Armado y Reparación de PC.
MCA 32 10 20 Paralelo
246
Manual de Armado y Reparación de PC.
Dispositivos refrigerantes
Debido a las cargas de trabajo a las que son sometidas, las tarjetas gráficas
alcanzan temperaturas muy altas. Si no es tenido en cuenta, el calor generado
puede hacer fallar, bloquear o incluso averiar el dispositivo. Para evitarlo, se
incorporan dispositivos refrigerantes que eliminen el calor excesivo de la tarjeta.
Se distinguen dos tipos:
247
Manual de Armado y Reparación de PC.
Alimentación
Aún así, se
pronostica que no Fabricantes de GPUs
dentro de mucho
ATI NVIDIA
tiempo las tarjetas
gráficas podrían
GECUBE POINT OF VIEW
necesitar una
fuente de RADEON GALAXY
alimentación Fabricantes
propia, SAPPHIRE XFX
convirtiéndose de Tarjetas
dicho conjunto en ASUS ASUS
dispositivos
externos. GIGABYTE AOPEN
Fabricantes
En el mercado de las tarjetas gráficas hay que distinguir dos tipos de fabricantes:
A nivel de programador, trabajar con una tarjeta gráfica es complicado; por ello,
surgieron interfaces que abstrajesen la complejidad y diversidad de las primitivas
de las tarjetas gráficas. Los dos más importantes son:
248
Manual de Armado y Reparación de PC.
Efectos gráficos
A nivel de programador, trabajar con una tarjeta gráfica es complicado; por ello,
surgieron interfaces que abstrajesen la complejidad y diversidad de las primitivas
de las tarjetas gráficas. Los dos más importantes son:
Efectos gráficos
249
Manual de Armado y Reparación de PC.
Lens flare: imitación de los destellos producidos por las fuentes de luz.
Efecto Fresnel (Reflejo especular): reflejos sobre un material
dependiendo del ángulo entre la superficie normal y la dirección de
observación. A mayor ángulo, más reflectante.
Módems
Acrónimo de las palabras modulador/demodulador. El módem actúa como
equipo terminal del circuito de datos (ETCD) permitiendo la transmisión de un
flujo de datos digitales a través de una señal analógica.
Tipos de módems
250
Manual de Armado y Reparación de PC.
o La conexión de los módems telefónicos con el ordenador se realiza
generalmente mediante uno de los puertos serie tradicionales o COM,
por lo que se usa la UART del ordenador, que deberá ser capaz de
proporcionar la suficiente velocidad de comunicación. La UART debe
ser de 16550 o superior para que el rendimiento de un módem de 28.800
bps o más sea el adecuado. Estos módems necesitan un enchufe para su
transformador
o Módems PC Card: son módems en forma de tarjeta, que se utilizaban en
portátiles, antes de la llegada del USB, que puede ser utilizado tantos en
los ordenadores de sobremesa, como en los portátiles. Su tamaño es
similar al de una tarjeta de crédito algo más gruesa, pero sus capacidades
pueden ser igual o más avanzadas que en los modelos normales.
o Existen modelos para puerto USB, de conexión y configuración aún más
sencillas, que no necesitan toma de corriente. Hay modelos tanto para
conexión mediante telefonía fija, como para telefonía móvil. Véase:
Módem USB Vodafone Mobile Connect 3G.
Módems telefónicos
Su uso más común y conocido es en transmisiones de datos por vía telefónica.
Los ordenadores procesan datos de forma digital; sin embargo, las líneas
telefónicas de la red básica sólo transmiten señales analógicas.
251
Manual de Armado y Reparación de PC.
Modems Telefónicos
Externos
Internos
Tipos de modulación
252
Manual de Armado y Reparación de PC.
Tecnología DSL
DSL sigla de Digital Subscriber Line (Línea de abonado digital) es un término
utilizado para referirse de forma global a todas las tecnologías que proveen una
conexión digital sobre línea de abonado de la red telefónica local: ADSL,
ADSL2, ADSL2+ SDSL, IDSL, HDSL, SHDSL, VDSL y VDSL2.
ADSL Tecnología:
ADSL son las siglas de Asymmetric Digital Subscriber Line ("Línea de Abonado
Digital Asimétrica"). Consiste en una línea digital de alta velocidad, apoyada en
el par simétrico de cobre que lleva la línea telefónica convencional o línea de
abonado.
253
Manual de Armado y Reparación de PC.
Tiempo de sincronización 10 a 30 s 3s 3s
Corrección de errores No Sí Sí
Ventajas
254
Manual de Armado y Reparación de PC.
Inconvenientes
No todas las líneas telefónicas pueden ofrecer este servicio, debido a que
las exigencias de calidad del par, tanto de ruido como de atenuación, por
distancia a la central, son más estrictas que para el servicio telefónico
básico. De hecho, el límite teórico para un servicio aceptable, equivale a
5,5 km
Debido al cuidado que requieren estas líneas, el servicio no es
económico en países con pocas o malas infraestructuras, sobre todo si lo
comparamos con los precios en otros países con infraestructuras más
avanzadas.
El router necesario para disponer de conexión, o en su defecto, el módem
ADSL, es caro (en menor medida en el caso del módem).
Se requiere una línea telefónica para su funcionamiento, aunque puede
utilizarse para cursar llamadas.
Cable módem
Un cable módem es un tipo especial de módem diseñado para modular la señal
de datos sobre una infraestructura de televisión por cable. El término Internet por
cable (o simplemente cable) se refiere a la distribución de un servicio de
conectividad a Internet sobre esta infraestructura de telecomunicaciones.
Los cable modems no deben confundirse con antiguos sistemas LAN como
10base2 o 10base5 que utilizaban cables coaxiales y especialmente con
10broad36, el cual realmente utiliza el mismo tipo de cable que los sistemas
CATV.
Una debilidad más significativa de las redes de cable al usar una línea compartida
es el riesgo de la pérdida de privacidad, especialmente considerando la
disponibilidad de herramientas de hacking para cable módems. De este problema
se encarga el cifrado de datos y otras características de privacidad especificadas
en el estándar DOCSIS ("Data Over Cable Service Interface Specification"),
utilizado por la mayoría de cable módems.
255
Manual de Armado y Reparación de PC.
Especificaciones DOCSIS
3Com
Cisco Systems
Ericsson
Motorola
Nortel Networks
RCA
ARRIS
IP-NET
Webstar
Wi-Fi Tecnología
Wi-Fi (o Wi-fi, WiFi, Wifi, wifi) es un conjunto de estándares para redes
inalámbricas basados en las especificaciones IEEE 802.11. Creado para ser
utilizado en redes locales inalámbricas, es frecuente que en la actualidad también
se utilice para acceder a Internet.
Historia
256
Manual de Armado y Reparación de PC.
En el año 2002 eran casi 150 miembros de la asociación WECA. Como la norma
802.11b ofrece una velocidad máxima de transferencia de 11 Mbps ya existen
estándares que permiten velocidades superiores, WECA no se ha querido quedar
atrás. Por ese motivo, WECA anunció que empezaría a certificar también los
equipos IEEE 802.11a de la banda de 5 Ghz mediante la marca Wi-Fi5.
La norma IEEE.802.11 fue diseñada para sustituir a las capas físicas y MAC de
la norma 802.3 (Ethernet). Esto quiere decir que en lo único que se diferencia
una red Wi-Fi de una red Ethernet, es en la forma como los ordenadores y
terminales en general acceden a la red; el resto es idéntico. Por tanto una red
local inalámbrica 802.11 es completamente compatible con todos los servicios de
las redes locales de cable 802.3 (Ethernet).
Normalización
Hay tres tipos de Wi-Fi, basado cada uno de ellos en un estándar IEEE 802.11
aprobado. Un cuarto estándar, el 802.11n, está siendo elaborado y se espera su
aprobación final para la segunda mitad del año 2007.
257
Manual de Armado y Reparación de PC.
Placas de sonido
Una tarjeta de sonido o placa de sonido es una tarjeta de expansión para
computadoras que permite la entrada y salida de audio bajo el control de un
programa informático. El uso típico de las tarjetas de sonido es proveer a las
aplicaciones multimedia del componente de audio. Estas aplicaciones multimedia
engloban composición y edición de video o audio, presentaciones multimedia y
entretenimiento (videojuegos). Algunos equipos tienen la tarjeta ya integrada,
mientras que otros requieren tarjetas de expansión.
Características generales
258
Manual de Armado y Reparación de PC.
Esto último se logra con DACs (por sus siglas en inglés Digital-Analog-
Conversor o Conversor-Digital-Analógico), que tienen la capacidad de
reproducir múltiples muestras digitales a diferentes tonos e incluso aplicarles
efectos en tiempo real como el filtrado o distorsión. Algunas veces, la
reproducción digital de multi-canales puede ser usado para sintetizar música si es
combinado con un banco de instrumentos que por lo general es una pequeña
cantidad de memoria ROM o flash con datos sobre el sonido de distintos
instrumentos musicales. Otra forma de sintetizar música en las PC's es por medio
de los "códecs de audio" los cuales son programas diseñados para esta función
pero consumen mucho tiempo de microprocesador.
Otro conector externo que tiene una tarjeta de sonido típica es el conector para
micrófono. Este conector está diseñado para recibir una señal proveniente de
dispositivos con menor voltaje al utilizado en el conector de entrada "Line-In".
Conexiones
Casi todas las tarjetas de sonido se han adaptado al estándar PC99 de Microsoft
que consiste en asignarle un color a cada conector externo, de este modo:
Color Función
Salida Digital SPDIF (que algunas veces es utilizado como salida análoga para altavoces
Naranja
centrales).
259
Manual de Armado y Reparación de PC.
Los conectores más utilizados para las tarjetas de sonido a nivel de usuario son
los mini-jack al ser los más económicos. Con los conectores RCA se consigue
mayor calidad ya que utilizan dos canales independientes, el rojo y el blanco, uno
para el canal derecho y otro para el izquierdo.
Para poder trabajar con dispositivos MIDI se necesita la entrada y salida MIDI.
Muestreo de sonido
Para producir un sonido el altavoz necesita una posición donde golpear, que
genera, dependiendo del lugar golpeado, una vibración del aire diferente que es
la que capta el oído humano. Para determinar esa posición se necesita una
codificación. Por lo tanto cuanto mayor número de bits se tenga, mayor número
de posiciones diferentes se es capaz de representar.
Frecuencia de muestreo
Las tarjetas de sonido a nivel de usuario trabajan a una frecuencia de 44'1 Khz.,
ya que el oído humano reconoce alrededor de 44.000 sonidos cada segundo. Las
tarjetas de sonido profesionales trabajan desde los 48 Khz. hasta los 100 Khz., lo
que permite obtener mayor calidad, para luego hacer modificaciones sin que el
sonido resultante varíe.
Las tarjetas de sonido eran desconocidas para los ordenadores basados en el IBM
PC hasta 1988, siendo el altavoz interno del PC el único medio para producir
sonido del que se disponía. El altavoz estaba limitado a la producción de ondas
cuadradas, que generaba sonidos descritos como "beeps". Algunas compañías,
entre las que destacaba Access Software, desarrollaron técnicas para la
reproducción del sonido digital en el altavoz del PC. El audio resultante, aunque
funcional, sufría distorsiones, tenía un volumen bajo y normalmente requería de
260
Manual de Armado y Reparación de PC.
Interfaz MIDI
Placas de RED
Tarjeta de red o NIC (Network Interface Controller, Controlador de Interfaz de
Red en español), es una tarjeta de expansión que permite a una DTE (Data
Terminal Equipment) ordenador o impresora acceder a una red y compartir
recursos entre dos o más equipos (discos duros, cdrom, etc.). Hay diversos tipos
de adaptadores en función del tipo de cableado o arquitectura que se utilice en la
red (coaxial fino, coaxial grueso, etc.), pero, actualmente el más común es del
tipo Ethernet utilizando un interfaz o conector RJ45.
261
Manual de Armado y Reparación de PC.
Tipo de conexión
Si está instalando una red que utiliza cables de par trenzado, necesitará una NIC
con un conector RJ45.
NIC especializadas
262
Manual de Armado y Reparación de PC.
· El tipo de conexión que necesita - RJ-45 para par trenzado o BNC para cable
coaxial.
Si tiene un puerto USB, podría considerar utilizar un Interfaz de red USB (USB
Network Interface).
263
Manual de Armado y Reparación de PC.
Los estándares 802.11b y 802.11g utilizan bandas de 2,4 giga hercios (Ghz) que
no necesitan de permisos para su uso. El estándar 802.11a utiliza la banda de 5
GHz. El estándar 802.11n hará uso de ambas bandas, 2,4 GHz y 5 GHz. Las
redes que trabajan bajo los estándares 802.11b y 802.11g pueden sufrir
interferencias por parte de hornos microondas, teléfonos inalámbricos y otros
equipos que utilicen la misma banda de 2,4 Ghz.
CD-ROM
1.- INTRODUCCION
Material: Policarbonato.
264
Manual de Armado y Reparación de PC.
Duración: 74 minutos.
En Marzo de 1979 este prototipo fue probado con éxito en Europa y en Japón;
adoptados por la alianza de Philips y Sony.
3.- ESTANDARES:
265
Manual de Armado y Reparación de PC.
los discos magneto ópticos, CD-MO, que fueron los primeros en utilizarse y
popularizarse, pero que son diferentes a los discos gravables actuales, ya que
utiliza soporte magnético. Otro caso son los discos gravables, o CD-R, que son
los discos que, gracias a una grabadora, pueden almacenar hasta 650 Mbytes de
información, aunque no se pueden borrar y volver a grabar. Este es el tercer caso
contemplado en el "Libro Naranja": los discos compactos regrabables, o CD-RW,
que permiten grabar y borrar datos hasta 1.000 veces. El problema de este último
tipo de discos es que no pueden ser leídos por muchas unidades lectoras antiguas
de CD-ROM ni por muchos lectores de CD de música.
4.- CARATERISTICAS
El master es grabado utilizando un láser de alta potencia (no como los utilizados
para la posterior lectura) con el cual se “imprimen” los unos y los ceros que
consisten en una serie de hoyos microscópicos. Este original es luego utilizado
para crear las copias por presión. Una vez que las copias están correctamente
“impresas” con los hoyos en los sitios adecuados, son recubiertas con una fina
capa de aluminio que caracteriza el habitual aspecto brillante de los CD y que
sirve para reflejar la luz láser del cabezal de lectura. Finalmente se le aplica una
nueva capa plástica.
266
Manual de Armado y Reparación de PC.
4.2.- Estructura
En un CD-ROM los sectores residen sobre una única pista en espiral. Para
obtener un tiempo de acceso rápido, los sectores que contienen los datos de cada
fichero han de ser contiguos. Todos los sectores tienen el mismo tamaño y no
dependen de su posición en el disco. El disco gira a una velocidad variable, más
rápido para los sectores colocados en la parte interior del disco, y más lento para
los sectores colocados en la parte exterior.
Pits y Lands
La luz reflejada en el espejo atraviesa una lente y es enfocada sobre un punto
de la superficie del CD
267
Manual de Armado y Reparación de PC.
El disco puede girar de diferente manera según sea el motor de arrastre que lo
haga girar. En base a esto tenemos dos tipos de rotación diferentes.
268
Manual de Armado y Reparación de PC.
la construcción del lector pero asegura que la tasa de entrada de datos al PC sea
constante.
4.5.-Velocidad de Transferencia
269
Manual de Armado y Reparación de PC.
mayor en el borde del CD. Así un CD-ROM 24X es 24 veces más rápido en el
borde pero en el medio es un 60% más lento respecto a su velocidad máxima.
Tiempo de acceso
Latencia
Una vez que el cabezal de lectura está en el sitio correcto para realizar una
lectura, al estar girando el disco, debe esperar a que pase por el punto adecuado
para comenzar a leer. La cantidad de tiempo que lleva, en media, hasta que la
información pasa por donde espera el cabezal de lectura desde que este está en el
lugar adecuado es lo que se conoce como latencia.
Este parámetro no suele ser dado para un CD-ROM ya que forma parte del
tiempo de acceso que sí es realmente un parámetro de interés.
Tiempo de búsqueda
4.7.- Caché
La mayoría de los CD-ROM suelen incluir una pequeña caché cuya misión es
reducir el número de accesos físicos al disco. Cuando se accede a un dato en el
disco éste se graba en la caché de manera que si volvemos a acceder a él, éste se
270
Manual de Armado y Reparación de PC.
Este es otro de los datos que debemos tener en cuenta en un CD-ROM. Existen
dos tipos diferentes con sus ventajas e inconvenientes.
SCSI es un bus que puede ser usado para distintos dispositivos (no solo CD-
ROM) y se utiliza en dispositivos de alta calidad. La principal diferencia con el
anterior tipo (ATAPI) es el uso del procesador. En este caso, SCSI, ofrece tasas
de transmisión de datos de hasta 40 MB/s, mucho más rápido que los puertos
serie o paralelo estándar. El mayor inconveniente es el elevado precio de este
tipo de controladores.
271
Manual de Armado y Reparación de PC.
Estos formatos tienen su correspondencia con los formatos físicos de los discos,
aunque con matices.
En primer lugar, tenemos el formato Audio-CD, que fue el primero que apareció
y se utiliza en los compactos de música. El segundo formato en aparecer es el
que se utiliza en los CD ROM, e incluye un sistema para corregir errores
producidos por defectos en el disco, como huellas de dedos, ralladuras, polvo,
etcétera. Este formato dio paso al estándar ISO-9660, que es uno de los más
extendidos, ya que los datos grabados en discos CD bajo este estándar pueden ser
leídos por una gran cantidad de sistemas operativos, como el MS-DOS, Windows
95 y 98, UNIX, MacOS, etcétera
Estructura de directorio
Estructura lógica:
272
Manual de Armado y Reparación de PC.
Los CD-ROM ocupan el hueco de una unidad de disco de 5.25 pulgadas, estas
ranuras están estandarizadas y basta con tener una libre para poder introducir
nuestro dispositivo en el equipo. Los dispositivos que el CD-ROM ofrece están
bastante estandarizados y casi siempre nos encontramos con un panel que nos
ofrece:
4.reproducción de audio
6.parar la reproducción
GRABADORAS
1.- MÉTODOS DE GRABACIÓN
El primer paso consiste en grabar los datos de usuario en un disco maestro. Los
picos (vértices) distinguen datos de los valles (áreas planas). Cuando un láser
alcanza en valle, el haz luminoso se refleja; cuando se proyecta sobre un pico, la
luz se dispersa. Como en los viejos discos musicales de vinilo, las pistas de
grabación de un CD-ROM están dispuestas en espiral.
273
Manual de Armado y Reparación de PC.
Existen discos CD-R de tres longitudes: 63 minutos (540 MB) , 74 minutos (650
MB) y 80 minutos (700 MB). Como la diferencia de precio entre ambos es casi
inexistente, es probable que los discos de 63 minutos acaben desapareciendo.
Cuando se está diseñando la organización de los datos del futuro CD, hay que
tener en cuenta las características del rendimiento de la tecnología de discos
ópticos. Los lectores de CD tienen un tiempo de acceso aleatorio muy lento
(entre 10 y 20 veces inferior al de un disco duro) y menor velocidad de
transferencia de datos (varias veces inferior al de un disco duro). Estas
características pueden obligar a rediseñar una aplicación de recuperación de
información, por ejemplo, para trabajar con discos CD-R.
Hay que tener un plan de pruebas antes de verificar de forma rutinaria los
contenidos de un CD-R. Los métodos de prueba pueden ser una suma de
comprobación sobre los archivos de datos, una comparación entre cada byte de
datos fuente y cada byte del disco CD-R, o un programa de pruebas comercial.
274
Manual de Armado y Reparación de PC.
Quien y como son otras cuestiones, si el personal que va a sacar las copias no es
personal cualificado o si se deben de hacer estas copias en paralelo con otras
tareas lo aconsejable son equipos que sacan copias de un original sin pasar por
disco duro: el original se mete en un lector y se sacan CDS iguales a este en el
grabador o grabadores.
La próxima extensión lógica del CD-R es CD-E (disco compacto borrable). Este
estándar utilizará una tecnología de cambio de fase para sobrescribir. Si los
productos CD-R están orientados al intercambio de información y el archivo de
documentos, CD-E competirá directamente contra los sistemas magnetoópticos
(MO) y los discos duros. Además, las unidades CD-E soportarán los actuales
discos CD-ROM, escribirán y leerán discos CD-R y escribirán, leerán y
sobrescribirán discos CD-E.
Gráfico de familias:
275
Manual de Armado y Reparación de PC.
DVD
INTRODUCCIÓN
El correr del tiempo nos demuestra que la tecnología avanza junto a ella. Cuando
nos detenemos a leer un determinado avance tecnológico, es seguro, que
podemos conocer un gran adelanto para la computación. Estos adelantos son los
que merecen ser conocidos ya que después de un corto plazo seguramente nos
estaremos valiendo de ellos. Uno de los adelantos importantísimos son los
medios de almacenamientos, que cada vez pueden contener mayor cantidad de
información en un dispositivo que brinde mejor calidad.
Distintas generaciones.
En el desarrollo de los DVD han ido surgiendo pequeñas mejoras que han dado
lugar a una división por generaciones de los muchos dispositivos de este tipo.
Aunque la inclusión en una u otra no está definida en ningún estándar, un
dispositivo DVD será incluido en una de ellas fundamentalmente debido a la
velocidad de transferencia. Otra de las circunstancias que determinan la presencia
de uno u otro lector en las diferente categorías es la revisión continua de las
especificaciones en los distintos formatos. Estas revisiones se centran sobre todo
en el problema de la compatibilidad con otros formatos, en unificar ciertos
criterios y en perfeccionar el rendimiento en general, principalmente en lo que a
velocidad de transferencia se refiere. Dicha velocidad, que viene indicada por los
fabricantes con los formatos 1x, 2x, etc. No concuerda a menudo con la realidad
y por ello hay cierta confusión a la hora de situar un lector dentro de una u otra
generación, lo que han aprovechado fabricante y distribuidores para vender
unidades denominadas de ultima generación, ya que sea esta la tercera o la
276
Manual de Armado y Reparación de PC.
La tecnología óptica
277
Manual de Armado y Reparación de PC.
Los discos ópticos presentan una capa interna protegida, donde se guardan los
bits mediante distintas tecnologías, siendo que en todas ellas los bits se leen por
medio de un rayo láser incidente. Este, al ser reflejado, permite detectar
variaciones microscópicas de propiedades óptico-reflectivas ocurridas como
consecuencia de la grabación realizada en la escritura. Un sistema óptico con
lentes encamina el haz luminoso, y lo enfoca como un punto en la capa del disco
que almacena los datos. Un disco sobre el que se lee y escribe con luz. En esta
categoría se incluye los CD-ROMs, que son grabados en el momento de su
fabricación y no pueden ser borrados. Los Worms (Write Once Read Many) que
son grabados en el entorno del usuario y tampoco pueden ser borrados. Y los
borrables, que son aquellos que pueden ser reescritos una y otra vez, para esto se
utiliza la tecnología Magneto Óptica(MO) y cambio de fase.
• Por la acción de un haz láser (CD-R y CD-RW, también llamado CD-E), (4)
Los discos ópticos tienen las siguientes características, diferenciada con los
discos magnéticos:
278
Manual de Armado y Reparación de PC.
Los discos ópticos, además de ser medios removibles con capacidad para
almacenar masivamente datos en pequeños espacios -por lo menos diez veces
más que un disco rígido de igual tamaño- son portables y seguros en la
conservación de los datos (que también permanecen sí se corta la energía
eléctrica.) El hecho de ser potables deviene del hecho de que son removibles de
la unidad. Asimismo, tienen bajo costo por byte almacenado. Los CD-ROM se
copian (producen) masivamente. La mayor capacidad de los discos ópticos frente
a los magnéticos se debe al carácter puntual del haz láser incidente, y a la
precisión del enfoque óptico del láser. Ello permite que en una pista los bits estén
más juntos (mayor densidad lineal), y que las pistas estén más próximas (más
t.p.i.).
Los CD son más seguros en la conservación de los datos, dado que la capa que
los almacena es inmune a los campos magnéticos caseros, y está protegida de la
corrosión ambiental, manoseo, etc., por estar cubierto por dos capas transparentes
de policarbonato. Por otra parte, la cabeza móvil -que porta la fuente láser y la
óptica asociada- por estar separada a 1 mm de la superficie del disco, nunca
puede tocarla. Por ello no produce en ella desgaste por rozamiento, ni existe
riesgo de "aterrizaje", como en el disco rígido con cabezas flotantes. Tampoco el
haz láser que incide sobre la información puede afectarla, dada su baja potencia.
• Para servidores de archivos en una red local, así como el uso de CD-R
(gravables por el usuario)
• Bibliotecas de imágenes.
Grabado masivamente por el fabricante, para ser sólo leídos: como lo son el
CD ROM (Disco compacto de sólo lectura) y el DVD ROM (Digital Versátil
Disc de sólo lectura.) En éstos, a partir de un disco "master" grabado con luz
láser, se realizan múltiples copias obtenidas por inyección de material (sin usar
láser.) Se obtienen así discos con una fina capa de aluminio reflectante -entre dos
capas transparentes protectoras-. Dicha capa guarda en una cara unos y ceros
como surcos discontinuos, que forman una sola pista en espiral. La espiral es
leída con luz láser por la unidad de CD del usuario.
Gravable una sola vez por el usuario: el CD-R (CD Recordable) antes llamado
CD-WO (Write once) En la escritura, el haz láser sigue una pista en espiral pre-
construida en una capa de pigmento. Donde el haz incide, su calor decolora para
siempre el punto de incidencia. En la lectura, esta capa deja pasar el haz láser
hacia la capa reflectora dorada que está más arriba, reflejándose de forma distinta
279
Manual de Armado y Reparación de PC.
según que el haz haya atravesado un punto decolorado o no, detectándose así
unos y ceros. Ambas capas están protegidas por dos capas transparentes. Una vez
escrito, un CD-R puede leerse como un CD-ROM.
LA EVOLUCION
Esto se debe a la aparición a finales de 1.995 del sustituto natural del CD-ROM,
llamado DVD. Estas siglas primero correspondieron a Digital video Disk , pero
su desarrollo como medio de almacenamiento de todos tipos de datos hizo que la
“V” pasara a significar Versátil en lugar de video.
Tecnología.
Según la luz del láser se reflecte de uno u otro modo, el lector podrá determinar
si la información leída en cada instante corresponde ha los enteros uno y cero.
Mientras que en un CD la frecuencia es fija y se sitúa en el espectro de luz
infrarrojo, no es fijo y debe variar su frecuencia para poder acceder a las
diferentes caras y capas. Además, las frecuencias de láser que maneja un DVD
son mucho más baja (635-650 nanómetro en contraste con los 780nm de un CD-
ROM) y por lo tanto permite mucho mas precisión a la hora de leer los datos.
Esto es la razón esencial para lo cual un lector de D-ROM habitual no puede
acceder a la información almacenada en un DVD. No así al contrario, la
compatibilidad entre DVD y CD es completa. Otras de las ventajas del DVD
280
Manual de Armado y Reparación de PC.
En un DVD es posible aprovechar las dos caras del disco y aun hay más. En cada
uno de ellos existen las llamadas capas. Por cara, a las que es posible acceder
mediante la variación del haz de láser para que la reflexión se produzca en la
capa de la cara indicada. Por debajo de la laca protectora en la superficie del
disco existen dos capas internas sobre la cual se pueden almacenar información,
una de ellas semi-transparente. Ambas se encuentran separadas lo justo para que
la luz láser sea capaz de incidir en ambas indistintamente.
Información técnica
Un DVD de capa simple puede guardar hasta 4,7 gigabytes (se le conoce como
DVD-5), alrededor de siete veces más que un CD estándar. Emplea un láser de
lectura con una longitud de onda de 650 nm (en el caso de los CD, es de 780 nm)
y una apertura numérica de 0,6 (frente a los 0,45 del CD), la resolución de lectura
se incrementa en un factor de 1,65. Esto es aplicable en dos dimensiones, así que
la densidad de datos física real se incrementa en un factor de 3,3.
Tipos de DVD
según su contenido:
o DVD-Video: Películas (vídeo y audio)
o DVD-Audio: Audio de alta fidelidad
o DVD-Data: Datos cualesquiera
281
Manual de Armado y Reparación de PC.
El disco puede tener una o dos caras, y una o dos capas de datos por cada cara; el
número de caras y capas determina la capacidad del disco. Los formatos de dos
caras apenas se utilizan. También existen DVD de 8 cm. (no confundir con
miniDVD, que son CD conteniendo información de tipo DVD video) que tienen
una capacidad de 1.5 GB.
Velocidad
282
Manual de Armado y Reparación de PC.
Partes y dimensiones
283
Manual de Armado y Reparación de PC.
284
Manual de Armado y Reparación de PC.
285
Manual de Armado y Reparación de PC.
Como se puede observar en la imagen superior los discos de doble capa DVD+R
DL están compuestos de dos capas grabables, denominadas L0 y L1. La primera
capa grabable, L0, está unida a una capa reflectante semitransparente lo que
permite que dependiendo de la intensidad del láser, este pueda leer o grabar en
ella, o bien que la atraviese y pueda leer o grabar en la segunda capa, L1.
La primera capa, L0, tiene una reflectividad superior al 18% lo que le hace
compatible con el estándar DVD-ROM. La segunda capa, L1, tiene una
reflectividad mucho mayor (superior al 50%) y mayor sensibilidad al láser, de
esta forma se compensa la pérdida de intensidad producida al atravesar el metal
semitransparente de la capa L0, quedando una reflectividad efectiva en la
superficie del disco superior al 18%, manteniendo de esta forma la segunda capa,
L1, la compatibilidad con el estándar.
Blu-ray
Blu-ray es un formato de disco óptico de nueva generación
de 12 cm. de diámetro (igual que el CD y el DVD) para
vídeo de alta definición y almacenamiento de datos de alta
densidad. De hecho, compite por convertirse en el estándar
de medios ópticos sucesor del DVD. Su rival es el HD-
DVD. El disco Blu-Ray hace uso de un láser de color azul
de 405 nanómetros, a diferencia del DVD, el cual usa un
láser de color rojo de 650 nanómetros. Esto permite grabar
más información en un disco del mismo tamaño. Blu-ray
obtiene su nombre del color azul del rayo láser ("blue ray" en español significa
"rayo azul"). La letra "e" de la palabra original "blue" fue eliminada debido a
que, en algunos países, no se puede registrar para un nombre comercial una
palabra común. Este rayo azul muestra una longitud de onda corta de 405 nm y,
junto con otras técnicas, permite almacenar sustancialmente más datos que un
DVD o un CD. Blu-ray y HD-DVD comparten las mismas dimensiones y aspecto
externo. Blu-ray fue desarrollado en conjunto por un grupo de compañías
tecnológicas llamado Asociación de Disco Blu-ray (BDA en inglés), liderado por
Sony y Philips.
286
Manual de Armado y Reparación de PC.
HD DVD: Discos de 15GB y 30GB de espacio (una y dos capas), que usan una
tecnología llamada iHD, desarrollada por Microsoft y Toshiba.
Blu-ray: Discos de 25GB y de 50GB (una y dos capas) que funcionan con Java
de Sun.
287
Manual de Armado y Reparación de PC.
Walt Disney
Dice que el disco Blu-Ray de 50GB es una farsa y que por ahora el más
grande es el HD DVD de 30GB. Esto fue desmentido por los Blu-Ray
(ver foto): dijeron que el próximo año el Blu de 50GB sale sí o sí.
Los HD DVDs supuestamente tendrían una aplicación llamada
“managed copy”, que permite hacer copias de una película a un disco
duro. Los de Blu-Ray dicen que ellos también lo tienen.
MS dice que el HD DVD permite una “mayor interactividad”, como por
ejemplo poner un PIP dentro de una película con la imagen de su director
comentando sus locuras.
Los HD DVDs tendrían la ventaja de ser discos “híbridos”, es decir, que
funcionan tanto en los reproductores nuevos HD DVD pero también en
los DVDs antiguos. La contraparte dice que Blu-Ray también es híbrido.
Tecnología
El tamaño del "punto" mínimo en el cual un láser puede ser enfocado está
limitado por la difracción, y depende de la longitud de onda del haz de luz y de la
apertura numérica de la lente utilizada para enfocarlo. En el caso del láser azul-
violeta utilizado en los discos Blu-ray, la longitud de onda es menor que respecto
a tecnologías anteriores, aumentando por tanto apertura numérica (0.85,
comparado con 0.6 para DVD). Con ello, y gracias a un sistemas de lentes duales
y a una cubierta protectora más delgada, el rayo láser puede enfocar de forma
mucho más precisa en la superficie del disco. Dicho de otra forma, los puntos de
información legibles en el disco son mucho más pequeños y, por tanto, el mismo
espacio puede contener mucha más información. Por último, además de las
mejoras en la tecnología óptica, los discos Blu-ray incorporan un sistema
mejorado de codificación de datos que permite empaquetar aún más información.
288
Manual de Armado y Reparación de PC.
frecuentes) o con suciedad. Ello les hace tener una característica novedosa que
será muy agradecida por los usuarios, hartos en muchos casos de CD y DVD
rayados, y supone una ventaja adicional frente al formato competidor HD-DVD.
Por ahora los únicos que pierden somos nosotros. Porque de no haber un acuerdo
en un estándar único, significa que vamos a tener que quedarnos con los 4.7GB
de los DVDs por ahora. ¿Se logrará el acuerdo? Posiblemente, de hecho ocurrió
con el propio DVD (fue la unión entre el Super Disc y el Multimedia CD).
HD-DVD
Descripción
El HD-DVD trabaja con un láser violeta con una longitud de onda de 405 nm.
289
Manual de Armado y Reparación de PC.
Historia
290
Manual de Armado y Reparación de PC.
291
Manual de Armado y Reparación de PC.
292
Manual de Armado y Reparación de PC.
y solo dentro del XP, para poder operarlo solo, es decir sin entorno grafico habrá
que iniciar con un Disco de inicio de DOS.
Comandos internos
Comandos externos
293
Manual de Armado y Reparación de PC.
294