Blogia

yazmin

investigacion # 2

Jumper.

Jumper.

En informática, el jumper es un elemento para interconectar dos terminales de manera temporal sin tener que efectuar una operación que requiera herramienta adicional. Dicha unión de terminales cierra el circuito eléctrico del que forma parte.

 Características

El modo de funcionamiento del dispositivo, que es lo opuesto a la configuración por "software", donde de distinto modo se llega al mismo resultado: cambiar la configuración, o modo de operación del dispositivo, recuerden que es para configurar diferentes opciones de operaciones de tu ordenador.

La principal dificultad al hacer la configuración, es la información del fabricante del dispositivo, que en algunos casos, esta solamente en el manual de operación del mismo o algunas veces, con su leyenda respectiva impresa por la placa de circuito impreso donde está montado el jumper.

Sin los jumpers, el disco duro, el lector de CD-ROM o disquetes, no funcionarían porque no tendrían definido el rol de cada uno (Primario/Master o Secundario/Esclavo/Slave). los jumpers se definen como unidades o dispositivos que permiten controlar el flujo de información que se genera a través de las autopistas.

 Usos

Una de sus aplicaciones más habituales se encuentra en unidades IDE (discos duros, lectores y grabadoras de CD y DVD), donde se emplean para distinguir entre maestro y esclavo. También se usan para definir el voltaje y la velocidad del procesador (Multiplicador del FSB). así como para borrar la configuración de la BIOS, quitando durante un rato un jumper.

Sus usos pueden ser muy variados ya que son unos elementos muy fáciles de programar para todo usuario.

 

SLAVE(ESCLAVO)

Como se ve en la foto además de mestro y esclavo existe otra configuración con el nombre de Cable Select. Si configuramos la unidad como Cable Select el sistema determinará automáticamente la configuración maestro/esclavo de la unidad, pero para que esto funcione todos los dispositivos del mismo cable IDE se deben configurar como Cable Select, además tendrás que comprobar que tu placa base soporta esta configuración.
Para Configurar las unidades como maestro, esclavo o Cable Select se tendrá que colocar adecuadamente el puente (Jumper), como viene en ingles, para aquellos que no anden muy diestros en dicho lenguajeos diremos que maestro es "master" y esclavo "slave", así que siguiendo el dibujo que aparece detrás de la unidad uniremos los pines con el puente conforme nos interese.

Esto nos es útil porque asi podremos instalar 2 unidades en el mismo cable, y esta es la manera que le decimos al sistema cual es el principal (master) y cual es el secundario (slave). Si nuestro disco lo vamos a usar como almacén de datos, entonces deberemos dejarlo como slave, sin embargo, si lo vamos a usar como disco de sistema deberemos colocarlo como master.  Para este manual siendo que lo más usual es que usemos el disco como disco principal, haremos todo el montaje suponiendo que es el disco de sistema master. 

             

MASTER

Memory Improve Master es un programa de control y administración del uso de memoria en tu computadora que puede ayudar mucho a resolver problemas enfrentados con el uso de la memoria. Por lo tanto, para comenzar a usarlo y tener control sobre la ejecución de las funciones en tu máquina, haz clic en el botón de arriba para comenzar la descarga de Memory Improve Master. Después de finalizar la descarga, instálalo normalmente, siguiendo las orientaciones del asistente de instalación.Memory Improve Master posee, también, una medida de seguridad bastante importante.

 La opción “CPU Protection” es esencial para que la memoria no sea comprimida en caso que la utilización del CPU esté sobre un determinado valor (en porcentaje). Se recomienda mantener las configuraciones estándar del programa, así se evitarán riesgos, en caso que no tengas mayores conocimientos sobre el asuntoMemory Improve Master es un excelente programa para el control y liberación de espacio en la memoria de la computadora. Posee una interfaz atractiva y simplificada, con botones distribuidos de manera que el usuario no se pierda al buscar una función u otra.

 De esta forma queda fácil encontrar las herramientas y recursos necesarios para liberar espacio, en caso que la computadora esté sobrecargada. Además, la instalación es bastante simple y no escapa de lo convencional. Después de instalado, el programa es leve y no perjudica el uso de la memoriade Memory Improve Master.

 En esta ventana se puede determinar que el programa se inicie junto con Windows, aceptar o no la exhibición de íconos y mensajes a partir de la Barra de Tareas, usar teclas de atajo para acceder al programa rápidamente y otras informaciones importantes para el buen funcionamiento de la computadora. Queda a criterio del usuario determinar cuáles son las opciones que se adaptan a su perfil.

 IDE

El puerto IDE (Integrated device Electronics) o ATA (Advanced Technology Attachment) controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) y además añade dispositivos como las unidades CD-ROM.

En el sistema IDE el controlador del dispositivo se encuentra integrado en la electrónica del dispositivo. Las diversas versiones de sistemas ATA son:

  • Parallel ATA (se está utilizando la sigla PATA)
    • ATA-1.
    • ATA-2, soporta transferencias rápidas en bloque y multiword DMA.
    • ATA-3, es el ATA-2 revisado y mejorado. Todos los anteriores soportan velocidades de 16 MB/s.
    • ATA-4, conocido como Ultra-DMA o ATA-33, que soporta transferencias en 33 MB/s.
    • ATA-5 o Ultra ATA/66, originalmente propuesta por Quantum para transferencias en 66 MB/s.
    • ATA-6 o Ultra ATA/100, soporte para velocidades de 100 MB/s.
    • ATA-7 o Ultra ATA/133, soporte para velocidades de 133 MB/s.
    • ATA-8 o Ultra ATA/166, soporte para velocidades de 166 MB/s.
  • Serial ATA, remodelación de ATA con nuevos conectores (alimentación y datos), cables, tensión de alimentación y conocida comúnmente como SATA, soporta velocidades de 150 y 300 MB/s.
  • Ata over ethernet implementación sobre Ethernet de comandos ATA para
  • montar una red SAN. Se presenta como alternativa a iSCSI

 

 Ata 20070127 002.jpg

 

En un primer momento, las controladoras IDE iban como tarjetas de ampliación, mayoritariamente ISA, y sólo se integraban en la placa madre de equipos de marca como IBM, Dell o Commodore. Su versión más extendida eran las tarjetas multi I/O, que agrupaban las controladores IDE y de disquete, así como los puertos RS-232 y el puerto paralelo, y sólo modelos de gama alta incorporaban zócalos y conectores SIMM para cachear el disco. La integración de dispositivos trajo consigo que un solo chip fuera capaz de desempeñar todo el trabajo.

Con la aparición del bus PCI, las controladoras IDE casi siempre están incluidas en la placa base, inicialmente como un chip, para pasar a formar parte del chipset. Suele presentarse como dos conectores para dos dispositivos cada uno. De los dos discos duros, uno tiene que estar como esclavo y el otro como maestro para que la controladora sepa a/de qué dispositivo mandar/recibir los datos. La configuración se realiza mediante jumpers. Habitualmente, un disco duro puede estar configurado de una de estas tres formas:

  • Como Maestro (’Master’). Si es el único dispositivo en el cable, debe tener esta configuración, aunque a veces también funciona si está como esclavo. Si hay otro dispositivo, el otro debe estar como esclavo.
  • Como Esclavo (’slave’). Debe haber otro dispositivo que sea maestro.
  • Selección por cable (cable select). El dispositivo será maestro o esclavo en función de su posición en el cable. Si hay otro dispositivo, también debe estar configurado como cable select. Si el dispositivo es el único en el cable, debe estar situado en la posición de maestro. Para distinguir el conector en el que se conectará el primer bus Ide (Ide 1) se utilizan colores distintos.

Este diseño (dos dispositivos a un bus) tiene el inconveniente de que mientras se accede a un dispositivo el otro dispositivo del mismo conector IDE no se puede usar. En algunos chipset (Intel FX triton) no se podría usar siquiera el otro IDE a la vez.

Este inconveniente está resuelto en S-ATA y en SCSI, que pueden usar dos dispositivos por canal.

Los discos IDE están mucho más extendidos que los SCSI debido a su precio mucho más bajo. El rendimiento de IDE es menor que SCSI pero se están reduciendo las diferencias. El UDMA hace la función del Bus Mastering en SCSI con lo que se reduce la carga de la CPU y aumenta la velocidad y el Serial ATA permite que cada disco duro trabaje sin interferir a los demás.

De todos modos aunque SCSI es superior se empieza a considerar la alternativa S-ATA para sistemas informáticos de gama alta ya que su rendimiento no es mucho menor y su diferencia de precio sí resulta más ventajosa.

SATA

SATA (acrónimo de Serial Advanced Technology Attachment) es una interfaz de transferencia de datos entre la placa base y algunos dispositivos de almacenamiento, como puede ser el disco duro, Lectores y regrabadores de CD/DVD/BR, Unidades de Estado Sólido u otros dispositivos de altas prestaciones que están siendo todavía desarrollados. Serial ATA sustituye a la tradicional Parallel ATA o P-ATA. SATA proporciona mayores velocidades, mejor aprovechamiento cuando hay varias unidades, mayor longitud del cable de transmisión de datos y capacidad para conectar unidades en caliente, es decir, insertar el dispositivo sin tener que apagar el ordenador o que sufra un cortocircuito como con los viejos Molex.

Actualmente es una interfaz ampliamente aceptada y estandarizada en las placas base de PC. La Organización Internacional Serial ATA (SATA-IO) es el grupo responsable de desarrollar, de manejar y de conducir la adopción de especificaciones estandarizadas de Serial ATA. Los usuarios de la interfaz SATA se benefician de mejores velocidades, dispositivos de almacenamientos actualizables de manera más simple y configuración más sencilla. El objetivo de SATA-IO es conducir a la industria a la adopción de SATA definiendo, desarrollando y exponiendo las especificaciones estándar para la interfaz SATA

SATA (acrónimo de Serial Advanced Technology Attachment) es una interfaz de transferencia de datos entre la placa base y algunos dispositivos de almacenamiento, como puede ser el disco duro, Lectores y regrabadores de CD/DVD/BR, Unidades de Estado Sólido u otros dispositivos de altas prestaciones que están siendo todavía desarrollados. Serial ATA sustituye a la tradicional Parallel ATA o P-ATA. SATA proporciona mayores velocidades, mejor aprovechamiento cuando hay varias unidades, mayor longitud del cable de transmisión de datos y capacidad para conectar unidades en caliente, es decir, insertar el dispositivo sin tener que apagar el ordenador o que sufra un cortocircuito como con los viejos Molex.

Actualmente es una interfaz ampliamente aceptada y estandarizada en las placas base de PC. La Organización Internacional Serial ATA (SATA-IO) es el grupo responsable de desarrollar, de manejar y de conducir la adopción de especificaciones estandarizadas de Serial ATA. Los usuarios de la interfaz SATA se benefician de mejores velocidades, dispositivos de almacenamientos actualizables de manera más simple y configuración más sencilla. El objetivo de SATA-IO es conducir a la industria a la adopción de SATA definiendo, desarrollando y exponiendo las especificaciones estándar para la interfaz SATA

SATA (acrónimo de Serial Advanced Technology Attachment) es una interfaz de transferencia de datos entre la placa base y algunos dispositivos de almacenamiento, como puede ser el disco duro, Lectores y regrabadores de CD/DVD/BR, Unidades de Estado Sólido u otros dispositivos de altas prestaciones que están siendo todavía desarrollados. Serial ATA sustituye a la tradicional Parallel ATA o P-ATA. SATA proporciona mayores velocidades, mejor aprovechamiento cuando hay varias unidades, mayor longitud del cable de transmisión de datos y capacidad para conectar unidades en caliente, es decir, insertar el dispositivo sin tener que apagar el ordenador o que sufra un cortocircuito como con los viejos Molex.

Actualmente es una interfaz ampliamente aceptada y estandarizada en las placas base de PC. La Organización Internacional Serial ATA (SATA-IO) es el grupo responsable de desarrollar, de manejar y de conducir la adopción de especificaciones estandarizadas de Serial ATA. Los usuarios de la interfaz SATA se benefician de mejores velocidades, dispositivos de almacenamientos actualizables de manera más simple y configuración más sencilla. El objetivo de SATA-IO es conducir a la industria a la adopción de SATA definiendo, desarrollando y exponiendo las especificaciones estándar para la interfaz SATA

SATA (acrónimo de Serial Advanced Technology Attachment) es una interfaz de transferencia de datos entre la placa base y algunos dispositivos de almacenamiento, como puede ser el disco duro, Lectores y regrabadores de CD/DVD/BR, Unidades de Estado Sólido u otros dispositivos de altas prestaciones que están siendo todavía desarrollados. Serial ATA sustituye a la tradicional Parallel ATA o P-ATA. SATA proporciona mayores velocidades, mejor aprovechamiento cuando hay varias unidades, mayor longitud del cable de transmisión de datos y capacidad para conectar unidades en caliente, es decir, insertar el dispositivo sin tener que apagar el ordenador o que sufra un cortocircuito como con los viejos Molex.

Actualmente es una interfaz ampliamente aceptada y estandarizada en las placas base de PC. La Organización Internacional Serial ATA (SATA-IO) es el grupo responsable de desarrollar, de manejar y de conducir la adopción de especificaciones estandarizadas de Serial ATA. Los usuarios de la interfaz SATA se benefician de mejores velocidades, dispositivos de almacenamientos actualizables de manera más simple y configuración más sencilla. El objetivo de SATA-IO es conducir a la industria a la adopción de SATA definiendo, desarrollando y exponiendo las especificaciones estándar para la interfaz SATA

Historia

A principios del año 2000 se formó un grupo con el nombre de Serial ATA Working Group. Los miembros fundadores del grupo continuaron formando el Serial ATA II Working Group para seguir con el desarrollo de la siguiente generación de especificaciones para Serial ATA. La nueva organización, SATA-IO, toma las tareas de mantenimiento de las especificaciones, promoción y venta de Serial ATA. Además de crear un futuro interfaz con especificaciones de velocidad que encabecen la tecnología de almacenamiento durante la siguiente década.

El cambio de Serial ATA II Working Group a una asociación industrial formal fue tomado por el Serial ATA II Steering Committee que encontró que un beneficio comercial mutuo les daría mayor ventaja a la hora de promover cualquier actividad necesaria para la adopción de Serial ATA. La SATA-IO se dedica a construir un mercado robusto y maduro para las ofertas de Serial ATA. Y, en su caso, seguirá actividades tales como: un programa de concienciación tecnológica y de logo, laboratorios de interoperabilidad y encuentros cara a cara.

La diferencia principal entre un grupo de trabajo y una asociación industrial formal es que la segunda es una entidad independiente legalmente. Así es posible tener un presupuesto más formalizado y es capaz de amparar actividades para el desarrollo de SATA. Los miembros de SATA-IO tienen la capacidad de influir o contribuir directamente al desarrollo de las especificaciones de SATA.

 

 

  Miembros

La adición de miembros a SATA-IO está abierta a nuevas compañías. Ser miembro incluye los siguientes beneficios:

  • Acceso solo para miembros a la especificación y al sitio Web del desarrollo de las especificaciones.
  • Elegibilidad para participar en los laboratorios de interoperabilidad de Serial ATA (Plugfests).
  • Oportunidades para participar en programas de marketing y eventos, como cartas de prensa, muestras de productos en el sitio Web, etc.
  • Uso de los logos SATA-IO.
  • Descuentos para eventos SATA-IO.
  • Promoción de la compañía y enlaces desde el sitio Web de SATA-IO.

Los promotores del grupo SATA-IO incluyen a Dell Computer Corporation, Maxtor Corporation, Seagate Technology, Western Digital Corporation, Hitachi High-Technologies Corporation y Vitesse Semiconductor. La lista de los miembros actuales de SATA-IO se puede encontrar en la página oficial de SATA-IO. El número actual de miembros es de 206 compañías que incluyen a todas las compañías conocidas del mundo informático, ya sea de software como de hardware. Sun Microsystems, Hewlett-Packard, Samsung, IBM, etc.

Para hacerse miembro del SATA-IO hay que firmar el acuerdo de calidad de miembro (Membership Agreement) y pagar una couta anual de $1,500 en las oficinas de SATA-IO.

 

  Velocidades

Al referirse a velocidades de transmisión, conviene recordar que en ocasiones se confunden las unidades de medida, y que las especificaciones de la capa física se refieren a la tasa real de datos, mientras que otras especificaciones se refieren a capacidades lógicas.

La primera generación especifica en transferencias de 150 MB por segundo, también conocida por SATA 150 MB/s o Serial ATA-150. Actualmente se comercializan dispositivos SATA II, a 300 MB/s, también conocida como Serial ATA-300 y los SATA III con tasas de transferencias de hasta 600 MB/s.

Las Unidades que soportan la velocidad de 3Gb/s son compatibles con un bus de 1,5 Gb/s.

En la siguiente tabla se muestra el cálculo de la velocidad real de SATAI 1.5 Gb/s y SATAII 3 Gb/s:

 SATA ISATA IISATA III
Frecuencia1500 MHz3000 MHz6000MHz
Bits/clock111
Codificación 8b10b80%80%80%
bits/Byte888
Velocidad real150 MB/s300 MB/s600 MB/s

En Noviembre del 2001, un grupo de fabricantes de hardware (explicado en la parte del trabajo SATA burocrático) crearon el Serial ATA Working Group para hacer frente a las necesidades de la próxima generación de interfaces. Posteriormente, en el 2004, cambiaron el nombre por el de Serial ATA International Organization (SATA-IO).

Por estas fechas, tras las mejoras de la especificación ATA-7, con la que se habían conseguido transferencias de 133 MB/s, el modelo tradicional de interfaz PATA ("Parallel ATA") empezaba a mostrar síntomas de agotamiento, después de haber prestado eficientes servicios desde su concepción inicial a mediados de los 80. Paralelamente, se habían conseguido grandes avances en el campo de las comunicaciones serie. En este ambiente, los esfuerzos se dirigieron a conseguir una nueva especificación de arquitectura serie para la interfaz ATA.

Como se muestra en la figura 1 la nueva arquitectura, conocida como Serial ATA (SATA), adopta una estructura de capas. La capa de órdenes es un superconjunto de la arquitectura ATA anterior; de forma que los nuevos dispositivos son compatibles con los protocolos ATA tradicionales, y son por tanto compatibles respecto a las aplicaciones existentes. Sin embargo la capa física es distinta, lo que representa un punto de ruptura en el sentido de que los nuevos dispositivos SATA no son compatibles con los anteriores. No obstante, la nueva arquitectura ofrece mejoras suficientes para poder justificar el cambio.

La idea es que los dispositivos ATA de cualquier tipo (serie o paralelo) compartan un juego común de órdenes, y organizar la conexión de estos dispositivos en una estructura donde existen direcciones, dominios y dispositivos concretos. Una organización que recuerda vagamente a la de Internet en la que está inspirada (un dominio ATA contiene un controlador host SATA y un dispositivo).

 

  Capa física

Cada puerto, multiplicador, dispositivo o adaptador SATA o SAS ("Serial Attached SCSI") tiene un número de puerto único de 64 bits. Una especie de MAC o código de barras del producto con: un código NAA de 4 bits; un código de fabricante de 24 bits asignado por la autoridad normativa, y un código de dispositivo a disposición de cada fabricante de 36 bits.

 

  Topología

Gráfico de la topología SATA: host – multiplicador - dispositivo.

SATA es una arquitectura "punto a punto". Es decir, la conexión entre puerto y dispositivo es directa, cada dispositivo se conecta directamente a un controlador SATA, así, cada dispositivo disfruta la totalidad del ancho de banda, de la conexión, sin que exista la sobrecarga inherente a los mecanismos de arbitraje y detección de colisiones como sucedía en los viejos PATA que las interfaces se segmentaban en maestras y esclavas.

El controlador host se encuentra embebido en la placa-base o instalado como una tarjeta en uno de sus zócalos, que actúa como puente entre los datos paralelos del bus y el dispositivo SATA. Existen controladores con más de una salida (generalmente 4 u 8) de forma que pueden conectarse varios dispositivos. También se han diseñado multiplicadores de puerto que permiten aumentar el número de conexiones en un puerto del controlador, con el fin de aumentar el número de dispositivos conectados.

Además de la tarea de serializar/paralelizar los datos, una parte importante del trabajo del controlador está relacionada con los protocolos de conexión y desconexión del periférico, que son bastante sofisticados en este tipo de interfaz, ya que está prevista la capacidad de conexión en caliente. El protocolo de conexión es capaz de identificar el tipo de dispositivo conectado; detectar si funciona correctamente; negociar la velocidad de la conexión, etc. La interfaz Serial ATA guarda ciertas similitudes con la interfaz USB, aunque SATA es mucho más rápida que aquella, y los dispositivos no se alimentan del propio bus.

 

Cables y conexiones

Los conectores y los cables son la diferencia más visible entre las unidades SATA y las PATA. Al contrario que los PATA se usa el mismo conector en las Unidades de almacenamiento de equipos de escritorio o servidores (3,5 pulgadas) y los de los portátiles (2,5 pulgadas). Esto permite usar las unidades de 2,5 pulgadas en los sistemas de escritorio sin necesidad de usar adaptadores a la vez que disminuyen los costes.

Por otra parte los dispositivos SATA tienen dos tipos de cables de conexión, de señal y de energía. La forma concreta depende de la posición relativa del dispositivo respecto al controlador host. A este respecto caben tres posibilidades:

  • Dispositivo interno conectado directamente al controlador host.
  • Dispositivo interno conectado a una salida del controlador host mediante cables de alimentación y señal.
  • Dispositivo externo conectado al controlador host mediante un cable de señal. En este caso, el dispositivo dispone de su propia fuente de alimentación.

 

 SATA Externo

Fue estandarizado a mediados de 2004, con definiciones específicas de cables, conectores y requisitos de la señal para unidades eSATA externas. eSATA se caracteriza por:

  • Velocidad de SATA en los discos externos (se han medido 115 MB/s con RAID externos)
  • Sin conversión de protocolos de PATA/SATA a USB/Firewire, todas las características del disco están disponibles para el anfitrión.
  • La longitud de cable se restringe a 2 metros; USB y Firewire permiten mayores distancias.
  • Se aumentó la tensión de transmisión mínima y máxima a 500mV - 600mV (de 400 mV - 600 mV)
  • Voltaje recibido disminuido a 240 mV - 600 mV (de 325 mV - 600 mV)
  • Capacidad de disposición de los discos en RAID 0 y RAID

Actualmente, la mayoría de las placas bases han empezado a incluir conectores eSATA, también es posible usar adaptadores de bus o tarjetas PC-Card y CardBus para portátiles que aun no integran el conector.

 

 Alternativas

También en SCSIW se está preparando un sistema en serie, que además es compatible con SATA, esto es, se podrán conectar discos SATA en una controladora SAS (Serial Attached SCSI). El Serial ATA transfiere los datos por un bus de 7 hilos mucho más delgado y fino que el anterior Parallel ATA que lo hacía por uno de 80 o 40 hilos, lo que permite una mayor circulación de aire en ventilación dentro del equipo disminuyendo así su calentamiento interno y externo

parcial 2 investigacion # 1

Seguridad en la industria

La seguridad en la industria se ocupa de dar lineamientos generales para el manejo de riesgos en la industria.

Las instalaciones industriales incluyen una gran variedad de operaciones de minería, transporte, generación de energía, fabricación y eliminación de desperdicios, que tienen peligros inherentes que requieren

Seguridad industrial

La Seguridad Industrial anticipa, reconoce, evalúa y controla factores de riesgo que pueden ocasionar accidentes de trabajo en industrias. Es un conjunto de técnicas multidisciplinarias que se encarga de identificar el riesgo, determinar su significado, evaluar las medidas correcticas disponibles y la selección del control óptimo.

La seguridad industrial se enfoca principalmente en la protección ocular y en la protección de las extremidades, ya que 25% de los accidentes ocurren en las manos, y el 90% de los accidentes ocurren por no traer consigo los elementos de seguridad pertinentes para realizar la actividad asignada. La seguridad industrial lleva ciertos procesos de seguridad con los cuales se pretende motivar al operador a valorar su vida, y protegerse a sí mismom, evitando accidentes relacionados principalmente a descuidos, o cuando el operador no está plenamente concentrado en su labor. Éste es uno de los principales motivos, ya que el 94% de los accidentados mencionan que no se dieron cuenta del peligro de sufrir el accidente hasta que ya era demasiado tarde.

Es importante diferenciar la Seguridad Ocupacional de la Seguridad Industrial. Seguridad Industrial es un término que ha pasado un poco al desuso, pues se circunscribe exclusivamente a áreas industriales y no incluye oficinas, almacenes, centros de distribución, atención al cliente, y cualquier otra actividad no industrial que también puede tener procesos peligrosos o en donde también pueden ocurrir accidentes de trabajo.

También es de capital importancia discernir entre Seguridad Ocupacional e Higiene o Salud Ocupacional; ésta última anticipa, reconoce, evalúa y controla factores de riesgo que pueden ocasionar enfermedades ocupacionales, a diferencia de la Seguridad Ocupacional, que se enfoca en los Accidentes de Trabajo.

normas  de higiene laboral

es el conjunto de programas y actividades preventivas a desarrollar en la Universidad de Granada (UGR),

para conseguir una mejora continua de las condiciones de trabajo, de todo el

personal de la UGR y por extensión la mejora de la calidad docente de toda la

comunidad universitaria en general. Requiere unas acciones específicas, como

por ejemplo la Evaluación de los Riesgos Laborales, que de una manera

documentada, priorice los programas de actuación.

La puesta en práctica de las medidas preventivas en la UGR implica la

coordinación entre los Órganos de Gobierno, Vicerrectorados, Gerencia y

Directores de Centros y Departamentos junto con el Gabinete de Prevención y

Calidad Ambiental (GABPCA), ya que se encuentran afectados de manera

directa todos los colectivos profesionales e indirectamente alumnos.

El Comité de Seguridad y Salud (CSS), como marco de participación

legal y de consenso, constituye un elemento fundamental en el diseño y control

de las acciones preventivas de la Universidad.

Así, la (UGR) trata de dar respuesta con este Plan a los retos planteados

en la Ley de Prevención de Riesgos Laborales (Ley 31/1995) y fomentar una

cultura preventiva en toda la comunidad universitaria sentando las bases de

actuación.

La

promoción de la seguridad y la salud laboral ha de ser motivo de actuación
 
 
 

de

todos los responsables y a todos los niveles. La aplicación de medidas

preventivas no debe ser fruto únicamente del trabajo de los técnicos de

prevención y delegados de prevención. Cada responsable a su nivel y cada

trabajador en su puesto ha de ser consciente y actuar de acuerdo con las

normas de seguridad establecidas en este

Plan de Higiene Laboral y según la

política de prevención diseñada y consensuadapicture

Para conseguir esta integración de la seguridad y la salud laboral en

todos los niveles de actuación universitarios, se hace indispensable que el

presente Plan se

difunda lo más ampliamente posible a toda la comunidad

universitaria.

normas mexicanas  de v seguridad  industrial

 1.- Condiciones de seguridad para la prevención y protección contra incendios.

 

Esta norma establece las condiciones de seguridad para la prevención contra incendios. Se aplica en aquellos lugares donde las mercancías, materias primas, productos o subproductos que se manejan en los procesos, operaciones y actividades que impliquen riesgos de incendio.

( Nom-002-STPS-1993. de las Normas Oficiales Mexicanas.

 2.- Sistemas de protección y dispositivos de seguridad en maquinaria, equipos y accesorios.

Esta norma tiene por objetivo prevenir y proteger a los trabajadores contra los riesgos de

trabajo. Se aplica donde por la naturaleza de los procesos se emplee maquinaria, equipo y accesorios para la transmisión de energía mecánica.

( Nom-004-STPS-1994. de las Normas Oficiales Mexicanas).

3.- Condiciones de seguridad para el almacenamiento, transporte y manejo de sustancias inflamables y combustibles.

Esta norma tiene por objetivo prevenir y proteger a los trabajadores contra riesgos de trabajo e incendio. Se aplica donde se almacenen, transporten o manejen sustancias inflamables y combustibles.

( Nom-005-STPS-1993. de las Normas Oficiales Mexicanas).

4.- Seguridad e Higiene para el almacenamiento, transporte y manejo de sustancias corrosivas. irritantes y tóxicas.

Su objetivo es prevenir y proteger a los trabajadores contra los riesgos de quemaduras,

irritaciones o intoxicaciones. Se aplica donde se almacenen, trasporten o manejen sustancias corrosivas, irritantes o tóxicas.

( Nom-009-STPS-1994. de las Normas Oficiales Mexicanas).

 5.- Seguridad e higiene en los centros de trabajo donde se produzcan, almacenen o manejen sustancias químicas capaces de generar contaminación en el medio ambiente laboral.

 

Su objetivo es prevenir y proteger la salud de los trabajadores y mejorar las condiciones de seguridad e higiene donde se produzcan, almacenen o manejen sustancias químicas que por sus propiedades, niveles de concentración y tiempo de acción sean capaces de contaminar el medio ambiente laboral y alterar la salud de los trabajadores, así como los niveles máximos permisibles de concentración de dichas sustancias, de acuerdo al tipo de exposición. Se aplica donde se produzcan, almacenen o manejen sustancias químicas capaces de generar contaminación en el ambiente laboral.

( Nom-010-STPS-1994. de las Normas Oficiales Mexicanas).

6.- Seguridad e higiene en los centros de trabajo donde se produzcan, usen, manejen, almacenen o transporten fuentes generadoras o emisoras de radiaciones ionizantes.

Su objetivo es implantar las medidas preventivas y de control a fin de que los trabajadores expuestos a radiaciones ionizantes, no reciban por este motivo dosis que rebasen los límites establecidos en la presente norma. Se aplica donde se produzcan, usen, manejen, almacene o transporten fuentes generadoras o emisoras de radiaciones ionizantes.

( Nom-012-STPS-1994. de las Normas Oficiales Mexicanas).

7.- Protección personal para los trabajadores en los centros de trabajo.

El objetivo de esta norma es establecer los requerimientos de la selección y uso del equipo de protección personal para proteger al trabajador de los agentes del medio ambiente de trabajo que puedan alterar su salud y vida. Se aplica en todos los centros de trabajo como medida de control personal en aquellas actividades laborales que por su naturaleza, los trabajadores estén expuestos a riesgos específicos.

( Nom-015-STPS-1994. de las Normas Oficiales Mexicanas) 

8.- Condiciones de seguridad en donde la electricidad estática represente un riesgo.

Su objetivo es establecer las medidas de seguridad para evitar los riesgos que se derivan por generación de la electricidad estática. Se aplica en los centros de trabajo donde por la

naturaleza de los procedimientos se empleen materiales, sustancias y equipo capaz de

almacenar cargas eléctricas estáticas.

( Nom-022-STPS-1993. de las Normas Oficiales mexicanas).

9.- Señales y avisos de seguridad e higiene.

Establece el código para elaborar señales y avisos de seguridad e higiene; así como las

Características y especificaciones que éstas deben cumplir. Las señales y avisos de seguridad e higiene que deben emplearse en los centros de trabajo, de acuerdo con los casos que establece el Reglamento General de Seguridad e Higiene en el Trabajo, y no es aplicables a señales o avisos con iluminación propia. Por lo tanto se aplica en todos los centros de trabajo.

( Nom-027-STPS-1994. de las Normas Oficiales Mexicanas).

 10.- Medicamentos, materiales de curación y personal que presta los primeros auxilios.

 Establece las condiciones para brindarlos primeros auxilios oportunos y eficazmente. Se aplica en todos los centros de trabajo, para organizar y prestar los primeros auxilios.

( Nom-020-STPS-1994. de las Normas Oficiales Mexicanas

investigacion 7

Los Microprocesadores

 

1. Explicación El Microprocesador

Recibe El Nombre de CPU o UCP. Es la parte que gobierna el funcionamiento del PC. Se divide en dos apartados:

  • a) La UC, (Unidad de Control)

  • b) La ALU, (Unidad Aritmético-Lógica)

    La UC gobierna todos los procesos y La ALU se encarga de todas las operaciones y cálculos.

    • La Unidad De Control: Su función es dirigir y coordinar todas las operaciones que tienen lugar entre las distintas unidades del sistema.

    Para llevarlo a cabo, realiza las siguientes operaciones:

  • Interpreta El Contenido De Las posiciones de memoria, ya sean memorias RAM o ROM.

  • Ordena a cada elemento del sistema la ejecución individual de las instrucciones surgidas.

  • Atiende y decide sobre las interrupciones que le van a producir los elementos del sistema durante la ejecución de sus tareas.

    • La Unidad Aritmético-Lógica: Se encarga dentro de la unidad central de realizar dos tipos de operaciones:

    • Operaciones Aritméticas. (sumas, restas...)

    • Operaciones Lógicas. (comparación, complementos...)

      • . Tipos De Microprocesadores

      • .1 -Microprocesador 4004

      Aparece en 1971 gracias a tres ingenieros: Robert Noyce, Gordon Moore y Andrew Grove. Su Bus de datos era de 4 bits, un bus de direcciones multiplexado de 12 bits que gestionaba hasta 45 bytes y un set de instrucciones de 45. Estaba formado por 2300 transistores e integraba unas 1000 puertas lógicas, implementado todo en 24mm2 con tecnología PMOS y su formato era DIP (Dual Inline Package) cerámico de 16 pines. Su velocidad de proceso era de 60000 operaciones por segundo a una frecuencia de trabajo de 108 KHz.

    • -Microprocesador 4040

      Es otro desarrollo de INTEL. Aparece en 1972 bajo un formato DIP de 24 pines. Usaba tecnología PMOS, 4 bits de bus de datos y 12 bits para manejar un bus de direcciones multiplexado.

    • -Microprocesador 8008

      Aparece en abril de 1972 con una velocidad de proceso de 300KHz. Disponía de un bus de 8 bits y un bus de direccionamiento de memoria multiplexado capaz de manejar 16KB, formado por 14 bits. Su Formato era DIP cerámico de 18 pines con tecnología PMOS, integrando 3300 transistores. Su set de instrucciones era de 66. Los Homónimos del 8008 de INTEL fueron el 6800 de MOTOROLA, el 6502 de MOS TECHNOLOGY y el difundido Z80 de ZILOG.

      2.4 -Microprocesador 8086

      Fue el primer microprocesador de 16 bits desarrollado por INTEL en el año 1978. Se trata de un integrado de 20 pines con una estructura de direcciones de memoria de 20 bits, lo que le permitía direccionar hasta 1 MB. Alcanzaba una velocidad de 4,77MHz y llego a un máximo de 10MHz. Este micro sentó las bases de lo que seria el desarrollo de los microprocesadores.

      2.5 -Microprocesador 8088

      Aparece a instancias de IBM en el año 1981 como sucesor del 8086, integrado en ordenadores con capacidades de memoria de 16KB. Internamente trabajaba con un bus de datos de 16 bits, aunque, externamente, lo hace a 8 bits. Su bus de direcciones, al igual que el 8086 era de 20 bits, lo que conseguía un área de direccionable de memoria de 220= 1.048.576 bytes= 1MB. Con una velocidad de trabajo de 8 MHz, se llegaron a alcanzar los 12 MHz. Este micro trabajaba en lo que se denominaba modo normal o modo real, al igual que el 8086.

      2.6 -Microprocesador 80286

      En el año 1982 nace el 286 o primer microprocesador para ordenadores AT aunque no ve la luz hasta 1984 con distintos formatos en encapsulado PGA.

      Algunos estaban soldados a la placa base, otros se colocaban sobre un zócalo. Aparece un competidor serio de INTEL: AMD.

      El 80286 dispone de un SET de instrucciones mas amplio que los micros anteriores, disponiendo de un bus de datos de 16 bits y un bus de direcciones de 24 bits. Esto conseguía que la memoria pudiese direccionar hasta 224= 16.777.216 bytes= 16MB. La velocidad evoluciono desde los primeros AT-02 y AT-03 de 6 y 8 MHz respectivamente hasta los 12, 16 y 20MHz. Incorporaba un nuevo modo de trabajo: el modo protegido. Este sistema consistiría en la posibilidad de poder trabajar en multitarea o, lo que es lo mismo, aplicar pequeñas particiones de tiempo a diferentes trabajos que se ejecutan de forma alternativa gestionando hasta 16MB de RAM; también permitía el modo real, emulando varios 8086 con 1024 KB de memoria. El 80286 se popularizo gracias a su implementación en las maquinas 5170 AT de IBM.

      2.7 -Microprocesador 80386

      Aparece el 386DX con arquitectura tanto interna como externa de 32 bits. Fue el primero en incluir posibilidades de gráficos en color de alta resolución así como sonido. Este micro, dependiendo del fabricante, trabaja entre 16 y 40MHz. Su formato también variaba según el fabricante, un 386sx INTEL de 100 pines a un 386DX AMD de 132. El 386DX era capaz de direccionar hasta 232= 4.294.967.296 bytes = 4Gb de memoria, pero tenia el serio inconveniente del precio. El 386sx aparece como respuesta al alto precio del 386 ``puro’’ o DX. Se diferencia por trabajar solo con 16 bits de datos externo y un bus de direcciones de 24bits, además de tener un rango de frecuencia de trabajo de 16 hasta 25 MHz. Existe un modelo de 386 con mayor escala de integración que es el 386SL utilizado en ordenadores portátiles. Este microprocesador permitía un nuevo modo de funcionamiento: el modo virtual.

      2.8 -Microprocesador 80486

      En 1989 aparecen los i486DX. El motivo del cambio de nomenclatura se debe a la oficina de patentes de EE.UU. dicha oficina no reconoce tres dígitos como marca registrada, lo que le favorece a la competencia de empresas como CYRIX o AMD que pueden llamar a sus productos con el mismo nombre que INTEL.

      Se trata de un microprocesador que incorpora la propia CPU, además de un coprocesador matemático, un controlador de memoria de caché de 128bits y dos memorias caché de 4KB cada una, que trabajan como búfer intermedio entre la memoria principal y el micro, trabajando tanto de forma externa como interna con una estructura de 32bits. Tiene una alta integración y rendimiento, no era cierto el comentario que afirmaba que un 386DX con coprocesador matemático ofrecía el mismo rendimiento que un 486DX.

      Los distintos modelos que se encuentran en el mercado son SX, DX, SLC, DLC, DX2, Y DX4 con velocidades comprendidas entre 25 y 133 MHz. Los micros DX2 Y DX4 lo que hacen es multiplexar la frecuencia por lo que la velocidad interna del micro es distinta a la externa. Los homónimos del DX y SX en portátiles son el DLC y el SLC, de mayor escala de integración aunque menor rendimiento.

      2.9 Microprocesador PENTIUM

      El Pentium (o ``586’’), de unos 6,4 cm2 aproximadamente, presentó graves problemas en sus inicios debido a un error de fabricación en su modelo a 60 MHz. En el año 1994 se detectaron PENTIUM defectuosos. Este error era provocado, bajo determinadas circunstancias, al realizar una operación de coma flotante y se detectaba en el BIT 13 de la mantisa. Estos errores aparecían con las funciones: FDIV, FDIVR, FPTAN, FPATAN, FPREM y FPREM1 tanto en simple, doble o precisión extendida.

      INTEL dispuso un `` chequeo oficial ’’.

      Posteriormente aparecieron distintos modelos que duplicaban la velocidad del bus, trabajando a 75, 90, 100, 120, 133, 150, 166, 180 y 200 MHz que funcionaban perfectamente. Una de las novedades que incorpora es el trabajar a partir del P/66 a 3,3v de alimentación en lugar de con 5v. Esta novedad ya fue implementada por su competidor AMD en el modelo 486 DX2 Y DX4. La cache utilizada es de 16KB. En AMD, el PENTIUM recibe el nombre de K.5 y en CYRIX, el de 6x86.

      2.9.1 -Funcionamiento de un PENTIUM

      La RAM envía datos o instrucciones codificadas a la BIU (o unidad de interfaz con el BUS) en ``Ráfagas’’ de 64bits. Estos datos son enviados por dos rutas cada una de las memorias caché de que dispone el micro. En una se almacenaran los datos y en la otra las instrucciones que indican que debe hacerse con esos datos.

      Existe una zona llamada Unidad de predicción de bifurcaciones. Esta unidad se encargara de inspeccionar las dos ALUs que tiene el microprocesador para determinar cual será la encargada de gestionar las nuevas instrucciones. Es unidad asegura el rendimiento optimo del microprocesador, evitando que una ALU este ``sin trabajar’’ mientras existan instrucciones que procesar.

      Una nueva memoria, llamada búfer del ``prefetch’’ recupera los códigos de instrucciones y los convierte a un ``lenguaje’’ que la ALU seleccionada pueda ``entender’’. En caso de precisar realizar operaciones con números decimales (llamados ``de coma flotante’’) se usara el procesador interno especializado para tal fin.

      A partir de este momento, cada ALU procesara las instrucciones que le correspondan de manera independiente, recogiendo los datos que le sean precisos desde las caché de datos (registros) y las instrucciones desde cada decodificador de instrucciones. Superaran los 32 bits. Una vez finalizado el proceso, las dos ALUs, así como el procesador de coma flotante, ``entregaran’’ sus resultados a la caché de datos, desde donde serán reenviados a la memoria RAM.

      2.10 -Microprocesador PENTIUM PRO

      Con lo anterior expuesto es facil de deducir que el PENTIUM 4, precisa de una placa base diseñada de forma especifica. El formato en el que se suministra es para socket 423, aunque existen varios rumores por parte de INTEL, sobre un cambio de formato inminente hacia los 478 pines. Ademas el sistema de refrigeración precisa de una caja y fuente de alimentación especiales denominadas ATX 2.03.

      La idea es sencilla: se sigue basando el aumento de rendimiento en una serie de predicciones que, en caso de cumplirse, aumentan significativamente la efectividad de la CPU. El problema viene cuando estas predicciones no son correctas. Así este nuevo chip de INTEL dispone de una canalización distribuida en 20 fases. Esto significa que cuando se realiza una prediccion un total de 20 microinstrucciones pueden quedar en espera de confirmar si la citada prediccion ha sido correcta.

      Otro de los avances es el incremento de velocidad de proceso. Toda la campaña de INTEL asegura que se soporta un bus de sistema de 400MHz. Si se pretende ser serio, realmente no es esta la velocidad de bus a la que se puede trabajar sino que se aplica un doble DDR para obtener mejores resultados. Realmente se mantienen los 100 MHz habituales con un factor multiplicador que empieza a resultar desorbitado. El micro de 1,4GHz y bajo la premisa expuesta de un funcionamiento a 100 MHz, es necesario configurar la placa base con un factor multiplicador de x14. Se alcanzan los 3,2 GB/s frente a 1 GB/s obtenido por el PENTIUM II con un bus de 133 MHz o los 0,5 GB/s del Celeron con un bus de 66MHz.

      3. - Mas de un Micro En Una Misma Placa

      Es habitual para los servidores usar placas donde dos microprocesadores trabajan en paralelo. Se trata de casos especiales donde, en lugar de una CPU, se usan dos o mas. Hay fundamentalmente dos tipos de arquitecturas para el microprocesador.

      - Asociación estrecha (tightly coupled)

      - Asociación Flexible (loosely coupled)

      Habitualmente se usa la arquitectura ``Pipeline’’. Esta técnica permite que, mientras se esta decodificando una instrucción, otra, en paralelo, se esta ejecutando. Esto consigue que en un solo ciclo de reloj se realicen dos instrucciones.

      4. - El OVERCLOKING

      Es el termino que se aplica al hecho de incrementar la velocidad del procesador por encima de la que ha sido diseñado, con el objeto de aumental la velocidad del sistema sin añadir nuevos componentes. Este sistema se ha usado por distribuidores poco profesionales dando, en su dia, ligar a un escandalo provocado por la falsificación de micros: se serigrafian con una velocidad superior y se vendian como microprocesadores de mas frecuencia.

      Todos los micros se pueden trucar, aunque algunos aguantan mejor que otro el overcloking. Los 386 y 486 de INTEL Y AMD aguantaban grandes incrementos de frecuencia. Igualemente ocurria con los 486 de CYRIX. Los MOTOROLA 680x0 eran menos adecuados, ya que el overcloking requiere un subsistema de memoria fiable por parte del microprocesador y el MOTOROLA 68040 no dispone de memoria cache de sengundo nivel.

      Puede darse el caso de que un microprocesador diseñado para trabajar a 100MHz, no consiga funcionar correctamente a esa velocidad pero si a 75MHz. Esto no implica que el micro sea defectuoso, ya que se garantiza el correcto funcionamiento a una frecuencia determinada. Las condiciones de laboratorio no coinciden con las habituales de trabajo.

      El overcloking no produce generalmente ningun daño. La unica consecuencia directa es el sobrecalentamiento que se soluciona mediante el uso de un ventilador/disipador.

      Un problema poco documentado sobre el overcloking es la electromigracion, que consiste en la erosion de las pistas debido al aumento de frecuencia.

      No todos los micros responde igual, el resto de los componentes del ordenador si que guardaran una dependencia con el incremento de velocidad. Si una vez modificados los parámetros de funcionamiento del micro el ordenador no arranca, se podra probar, siempre y cuando la BIOS lo permita, a añadir estados de espera o bajar la velocidad.

      Las tarjetas aceleradoras tambien llamadas ICE son unas placas destinadas a aumentar la velocidad del PC mediante su inserción en una de INTEL.

      5. - Fabricantes Destacados

      • AMD

      • APPLE

      • CYRIX

      • INTEL

      • MOTOROLA

        .flo { font-size:10pt; color:#880000; padding:1em; text-align:left; float:left; border:#990000 1px solid; background-color:#FFFF99; } li {margin-top:0pt; margin-bottom:0pt;} -->

        Disponible la versión 6 de OrganiZATOR
        Descubre un nuevo concepto en el manejo de la información.
        La mejor ayuda para sobrevivir en la moderna jungla de datos la tienes aquí.

        Tecnología del PC

        [Home]  [Inicio]  [Índice]

        // //

        3 El procesador

        §1  Presentación

        En realidad "procesador" es un término relativamente moderno. Se refiere a lo que en los grandes ordenadores de antaño se conocía como Unidad Central de Proceso UCP (CPU "Central Processin Unit" en la literatura inglesa).  Comenzó siendo del tamaño de un armario, posteriormente se redujo al de una gran caja, después se construyó en una placa de unas 15 x 15 pulgadas.  Finalmente se construyó en un solo circuito integrado encapsulado en un "chip" que se inserta en un zócalo de la placa-base [0].

        En los primeros tiempos de la informática personal, que podemos suponer se inicia con la introducción del PC ("Personal Computer") por IBM a mediados de 1981 [1],  el mercado de microprocesadores para el PC estaba copado por Intel, que arrancando con el 8088 [2], un modesto procesador de 16 bits a 4.77 MHz de velocidad de reloj ( H2), fue sufriendo sucesivas mejoras;  principalmente en lo que respecta a la velocidad (que en el 2001 ha alcanzado más de 1 GHz. para equipos comerciales); capacidad de procesamiento en paralelo; capacidad de los registros; cache interna y facilidades hardware para multiprogramación.

        En la imágen adjunta sendas vistas, superior e inferior, de un procesador Intel 80386 de 16 MHz junto con el primitivo 8088.

        Nota:  En la actualidad existen procesadores fabricados por otras compañías (IBM, AMD, Cyrix, Etc.) que son compatibles a nivel ensamblador con el juego de instrucciones Intel, lo que permite que no todos los PCs sean necesariamente "Intel inside".

        §2  Galería de procesadores "Ilustres"

        El cuadro adjunto (referido exclusivamente a los productos Intel), comprende un resumen de urgencia de la historia de los procesadores utilizados en la informática personal.

        ModeloañoRegistros internos (bits)bus de datos (bits) (1)Bus de direcc. (bits)Memoria (4)Frecuencia externa (2)Frecuencia interna máxima (3)Modo
        80881979168201 MB.4.77 MHz14 MHz.Real
        80286198216162416 MB. 12.5 MHz.Real/Prot
        8038619853232324 GB. 20 MHz.Protegido
        8048619893232324 GB. 25 MHz.Protegido
        Pentium19933264 4 GB. 60 MHz.Protegido
        Pentium-pro19953264 64 GB.66 MHz200 MHzProtegido
        Pentium II19973264 64 GB.66/100 MHz266 MHzProtegido
        Pentium III199932/12864 64 GB. 550 MHzProtegido
        Pentium 4200132/12864 64 GB.400 MHz.2 GHzProtegido
        Pentium M2003       
        ?      ? 

        Nota:  Por razones eminentemente comerciales, casi todos los modelos aparecieron en diversas versiones, que se diferenciaban en la frecuencia interna, tamaño de la caché, etc.

        (1) Se refiere al bus "externo", que utiliza el procesador para comunicar con el exterior.  Internamente el procesador dispone de buses que son de 2 a 4 veces esta anchura.

        (2)  Los valores indicados para las frecuencias externas son típicos de los modelos de la época (por tanto aproximados)

        (3)  Los valores de frecuencia interna máxima son los correspondientes al momento de la aparición del modelo.

        (4)  Se refiere a la máxima memoria accesible directamente.

          Es significativo señalar que todos son compatibles hacia atrás con sus predecesores, de forma que pueden ejecutar el código objeto escrito para el 8086, el primer ejemplar de esta prolífica saga aparecido en 1978 (no incluido en el cuadro).

        En la tabla adjunta se muestran las características principales de los procesadores más utilizados en el 2004.

         
        Modelo TransistoresVelocidad del núcleoCaché L2Velocidad bus frontal
        Celeron7,500,0001.06 GHz - 2 GHz256 KB133 MHz y 400 MHz
        Pentium II7,500,000233 MHz - 450 MHz512 KB100 MHz
        Pentium III9,500,000450 MHz - 1 GHz256 KB133 MHz
        Pentium III Xeon28,100,000500 MHz - 1 GHz256 KB - 2 MB100 MHz
        Pentium 455,000,0001.4 GHz - 3.4 GHz256 KB800 MHz
        K6-II9,300,000500 MHz - 550 MHzN/A100 MHz
        K6-III21,300,000400 MHz - 450 MHz256 KB100 MHz
        Athlon (K7)22,000,000850 MHz - 1.2 GHz256 KB200 MHz y 266 MHz
        Athlon XP37,500,0001.67 GHz384 KB266 MHz
        DuronN/A700-800 MHz64 KB200 MHz
        PowerPC G36,500,000233 MHz - 333 MHz512 KB, 1 MB100 MHz
        PowerPC G410,500,000400 MHz - 800 MHz1 MB100 MHz
        Athlon 64105,900,000800 MHz1 MB1.6 GHz
        §3 Evolución

        En esta mini-historia, podemos destacar varios hitos importantes:

        §3.1  Soporte para memoria virtual

        La introducción en 1982 del procesador Intel 80286 marcó un hito importante por varios motivos:  Por primera vez el procesador podía acceder más rápidamente a sus propios registros que a la RAM más rápida existente; desde entonces esta ventaja no ha hecho sino aumentar en favor del procesador.

        Desde el punto de vista del software, el verdadero avance fue la implementación en el micro de un dispositivo que permitía el manejo de memoria virtual ( H5a).  Hasta entonces, el manejo de este tipo de memoria había que realizarlo a nivel del Sistema Operativo, pero el 286 permitía ya manejarlo de forma nativa mediante el procesador [3], con las consiguientes mejoras del rendimiento y la seguridad.

        §3.2  Introducción del coprocesador matemático integrado

        Los procesadores del tipo 8086 solo podían realizar operaciones aritméticas con números enteros.  Para los fraccionarios debían utilizar complicados artificios, por lo que desde el principio se crearon procesadores específicos para operaciones aritméticas con números fraccionarios.

        Conocidos como coprocesadores de punto flotante o coprocesadores matemáticos, eran una opción instalable en un zócalo vacío preparado al efecto en la placa-base, enlazado mediante líneas especiales con el procesador principal.  Estos procesadores aligeraban grandemente los cálculos en las aplicaciones que eran capaces de sacar partido de su existencia, y no solo realizaban operaciones de números fraccionarios (de coma flotante 2.2.4a), también operaciones como raíz cuadrada, e implementanban funciones trascendentes como cálculo del seno, coseno, tangente, arcotangente, logaritmos y exponenciación.

        A partir de la introducción del 80486, Intel incorporó el coprocesador matemático junto con el principal, con lo que su existencia dejó de ser opcional, convirtiéndose en estándar.

        §3.3  Capacidad de procesar varias instrucciones en paralelo

        La ejecución de cada instrucción ensamblador no se realiza en un solo ciclo de reloj.  Cada instrucción puede contener varias microinstrucciones, de forma que en general el rendimiento del procesador no equivale a una instrucción en cada ciclo.  Una forma de aumentar la eficiencia es procesar varias instrucciones en paralelo, de forma que, en la medida de lo posible, varias instrucciones se encuentran en diversas fases de ejecución simultanea de su microcódigo.  Utilizando un número conveniente de estas vías de ejecución paralela se consiguen rendimientos que actualmente han excedido la relación 1:1, de forma que la arquitectura súper escalar [4] del Pentium Pro proporciona rendimientos del orden de tres instrucciones por ciclo de reloj.

        El primero en implementar esta arquitectura en el PC fue el 80386 de Intel, que incluye seis de estas vías de ejecución:

        1. La unidad de interfaz del bus ("Bus Interface Unit") accede a memoria y a otros dispositivos de E/S.
        2. La unidad de precarga de instrucciones ("Code Prefetch Unit") recibe objetos desde la unidad de bus y la sitúa en una cola de 16 bytes.
        3. La unidad de decodificación de instrucciones ("Instruction Decode Unit") decodifica el código objeto recibido en la unidad de precarga y lo traduce a microcódigo.
        4. La unidad de ejecución ("Execution Unit") ejecuta las instrucciones del microcódigo.
        5. La unidad de segmento ("Segment Unit") traduce direcciones lógicas en direcciones absolutas, y realiza comprobaciones de protección.
        6. La unidad de paginación ("Paging Unit") traduce las direcciones absolutas en direcciones físicas; realiza comprobaciones de protección de página, y dispone de una cache con información de las 32 últimas páginas accedidas.
        §3.4  Introducción de soporte para sistemas multiporcesador

        Esta capacidad, originaria del mundo de los mainframe, se introdujo en el procesador Intel 80486, permitiendo así el desarrollo de auténticos sistemas multiproceso en la informática personal.  Este procesador también incluyó por primera vez dispositivos de ahorro de energía, incluyendo que el procesador redujese su velocidad, o incluso suspendiese la ejecución manteniendo su estatus, de forma que pudiera ser reiniciado en el mismo punto de la "hibernación".

        §3.5  Movilidad y conectividad

        En el primer trimestre del 2003 Intel materializa bajo una sola denominación las tendencias más significativas del momento en el mundo de la computación:  movilidad y conectividad (la palabra de moda es "Wireless").  A este efecto anuncia Centrino; más que un procesador es un compendio de tecnología móvil con el que el gigante del hardware se posiciona en el cada vez más importante segmento de los dispositivos móviles [5].  Bajo estas siglas se integran un procesador Pentium M, la familia de chipset Intel 855 y las funciones de red inalámbrica del dispositivo Intel Pro/Wireless 2100 Network Connection para el estándar 802.11.

        §3.6  Multinúcleo

        A lo largo de 2005 se comienzan a popularizar los procesadores de doble núcleo en los ordenadores personales.  Parece que, una vez agotadas las posibilidades de procesamiento de instrucciones en paralelo en un solo procesador ("multi-threading"), los pasos se orientan hacia los procesadores de doble núcleo, en realidad dos procesadores en un mismo chip, cada uno con su propia cache, con lo que el multiproceso cobra un significado real en las máquinas que los montan ("Hyper-threading"").  Los equipos personales, incluso portátiles tienen ahora capacidades de proceso que hasta hace poco estaban restringidas a servidores de gama alta con dos procesadores. Por ejemplo, máquinas Intel con dos procesadores Xeon.

        Nota: no confundir una máquina con dos o más procesadores independientes (multiprocesador) con un procesador de doble núcleo. En general, una máquina con dos procesadores es más rápida que una de doble núcleo, pero en ambos casos, para sacar provecho de sus posibilidades, es necesario que el Sistema Operativo sea capaz de reconocer el "hyperi-threading", y que el software de aplicación también sea capaz de usar procesos multi-hebra SMT ("Simultaneous Multi-threading Technology").  En caso contrario, será detectado y utilizado un solo núcleo [6].

        En este año los equipos personales de gama alta montan procesadores de doble nucleo. Por ejemplo, Intel Pentium D, con discos SATA; grabador DVD+/-RW doble capa, y distintas configuraciones de tarjetas gráficas de altas prestaciones.

        En Noviembre de 2006 Intel presenta en Ginebra, Suiza, su primer procesador con cuatro núcleos (“quad-core”) en un mismo chip.  La prensa especializada destaca que su capacidad multiplica por miles de millones la del primero que salió al mercado en 1971.  El nuevo procesador contiene 2.000 Millones de transistores frente a 2.300 del primero y su frecuencia de reloj es de 2.66 GHerzios, frente a los 740 KHerzios del anterior. Además presentan la ventaja de consumir un 50% menos que la serie precedente.  Los portavoces de Intel recuerdan que si la industria del automóvil se hubiese desarrollado tan rápido como la electrónica digital, a la fecha (2006) un automóvil podría atravesar Estados Unidos de costa a costa en menos de 10 segundos.  Además señalan que, en vista del éxito alcanzado por los de doble núcleo, sus planes incluyen estar fabricando procesadores de 80 núcleos en un plazo de 5 años.

          Inicio.


         

        [0]  Parece ser que los primeros en integrar todos los elementos de una UCP en un solo chip fueron los ingenieros de Texas Instruments, que en Junio de 1971 anunció la primera "CPU on a chip".  Se trataba de un desarrollo hecho por encargo de una empresa denominada Computer Terminal Corporation (que luego sería Datapoint).  El primer microprocesador comercial, el 4004, una UCP de 4 bits fue desarrollado por Intel en 1970; inicialmente fue también un desarrollo por encargo para una compañía Japonesa de calculadoras (Busicom), aunque más tarde, en Noviembre de 1971, fue comercializado como MCS-4 ("Microcomputer System 4-bit").

        [1]  En realidad el asunto había empezado un poco antes, aunque en círculos restringidos, cuando a mediados de los 70 algunos fanáticos de la electrónica comenzaron a hacer desarrollos caseros sobre un kit del tipo "Hágalo Usted mismo" fabricado por una empresa llamada Micro Instrumentation Telemetry Systems, que utilizando un microprocesador Intel 8080 comercializó el ahora legendario Altair.  Rápidamente siguieron los Tandy de Charles Tandy, y los Apple de Wozniak y Jobs, que sin darse cuenta escribieron páginas imborrables de la historia de la tecnología.

        [2]  El procesador Intel 8088, elegido por IBM para su primer modelo de PC era una versión "simplificada" de un procesador más potente, el 8086, que tenía registros y bus de datos de 16 bits.  Sin embargo, por razones de simplificación y economía se eligió el 8088 con registros de 16 bits, pero bus de datos de 8 (coincidente con el bus de datos la placa-base que era también de 8 bits).  No solo el ancho del bus, otros muchos detalles de diseño (que lo hacían parecer a un jovencito Frankestein) han hecho especular largamente acerca de que nadie en IBM parecía tener mucha fe en el futuro del recién nacido.

        [3] Este micro tenía un bus de datos de 24 bits, que le permitía acceder directamente más de 16 MB de memoria física, y hasta 1 GB de memoria virtual.  Implementaba también un mecanismo de multitarea, denominado "modo protegido", que le permitía conmutar entre varias aplicaciones, cada una de las cuales parecía correr en "modo real" (como si estuviese en un 8088), pero el sistema tenía algunas deficiencias, que fueron subsanadas en el 80386.

        [4]  El término "súper escalar" significa que existen vías de procesamiento paralelo en el procesador.  Por ejemplo, se dice que el Pentium Pro utiliza una arquitectura súper escalar de tres vías, lo que supone que su rendimiento equivale tres instrucciones por cada ciclo de reloj.  Esta arquitectura también se conoce como "Pipeline", y ha sido comparada con las cadena de montaje de automóviles, en las que en la misma cadena existen unidades (aquí serían instrucciones) con diverso grado de terminación.  El resultado es un mayor número de unidades terminadas que si ra el 2006 habrá en Europa 13 millones de portátiles, y la tecnología inalámbrica crece de forma imparable.

        [6]  Puede obtener abundante y puntual información sobre esta tecnología en el sitio de Intel. Puede empezar por un magnífico artículo que describe esta tecnología; los beneficios que aporta, y como preparar el código para poder beneficiarse de ella: "Advanced Multi-Threaded Programming", de Intel Software Network  www.devx.com/

        // //
      • Microprocesador: es un chip programable, objeto de estudio de este informe. De él se habla más adelante.

      Microprocesadores de los Sistemas de Control

       

      Figura I.1-1. Sistema de microcomputador con sus componentes principales.

      • Memoria RAM: es una memoria de acceso aleatorio, o sea, en ella se pueden grabar y leer datos. Los datos son almacenados en transistores y capacitores en lenguaje digital. Esta memoria además es volátil, es decir sólo mantiene los datos mienstras está energizada.

      • Memoria ROM: es una memoria de sólo lectura, en ella sólo se pueden leer datos grabados anteriormente. En la memoria ROM se suele contener el BIOS, que es el software principal de un microcomputador, ya que en el están escritas las líneas de programa que permiten las operaciones. Esta memoria no es volátil.

      • Unidades E/S: las unidades E/S (Entrada/Salida) son dispositivos con los cuales los datos entran o salen del microcomputador. Ejemplos de unidades E/S son las unidades de almacenamiento, que son memorias RAM no volátiles de grandes capacidades.

      • Buses de información: caminos o rutas por donde viaja la información, generalmente de 8 bits (o bus de 8 bits es un camino que contiene 8 hilos de oro). Los buses en un sistema de microcomputador son tres: el bus de datos, que es por el cual viaja la información; el bus de direcciones, por el cual el microprocesador indica a que dispositivo está enviando la información o de cual recibe; y el bus de control, por el cual el microprocesador indica la operación que quiere realizar con los datos. Por ejemplo: si el microprocesador necesita enviar el texto “imprimir” a la impresora, la operación sería la siguiente: por el bus de datos envía el texto “imprimir”, por el bus de direcciones envía el código que pertenece a la impresora y por el bus de control el código que pertenece a la operación de imprimir.

      En este informe sólo será desarrollado el componente principal de un microcomputador, el microprocesador.


      I.2 El microprocesador

      El microprocesador es un circuito integrado o chip programable, que, dependiendo del modelo, contiene miles o millones de transistores distribuidos internamente en varios bloques funcionales. También lleva el nombre de Unidad Central de Proceso (CPU). Se dice que es programable porque su principal función es recibir instrucciones con el fin de suministrar las señales para los demás elementos del sistema, buscar y traer datos de un memoria, transferir datos desde y hacia los dispositivos de entrada y salida, decodificar instrucciones, etc.

      I.3 Aplicaciones

      El microprocesador fue diseñado originalmente para ser el “cerebro” de un sistema de cómputo, la cual es su aplicación más importante. Pero debido al crecimiento de la electrónico, hoy en día, se los usa también en electrodomésticos “inteligentes”, juegos electrónicos, intrumentos de medida, equipos de control para industrias, equipos médicos, calculadoras científicas, automóviles, robots, etc., etc., por lo que ha revolucionado totalmente, desde su invensión, la industria electrónica y el mundo en general.

      I.4 Constitución física de un microprocesador

      Un microprocesador es una pastilla envuelta en plástico o cerámica de unos pocos milímetros de longitud que alberga en su interior un gran número de transistores de silicio. La base de un microprocesador es de silicio, y sobre el están alojados los transistores (suiches eléctronicos). Las uniones entre el microchip y los pines metálicos de conexión son por medio de finos cables de oro.

      La fabricación de los microprocesadores se debe realizar en ambientes casi perfectamente limpios, ya que una pequeña partícula de polvo que ingrese a la parte interna de estos puede deteriorarlo definitivamente. Debido a esto, el aire de las salas de impresión de microchips es entre 7 y 10 veces más puro que el de una sala quirúrgica.

      I.5 Unidades de información

      La información en un sistema de microcomputador es almacenada en lenguaje binario. Este sistema fue elegido debido a que es el de más fácil manejo y que el microprocesador sólo debe comprender dos valores o dos estados. Esos estados son: alto y bajo, si el microprocesador recibe una señal de valor alto (entre 3,3 y 5 voltios) lo representa como 1 y si la señal es de valor bajo (aproximadamente 0 volt) lo representa como 0.

      La representación de 1 o 0 es la unidad más pequeña de almacenamiento y se la define como bit.

      La capacidad de operación de un microprocesador está basada en la cantidad de bits que puede manejar por vez. Es obvio que a mayor cantidad de bits manejados mayor será la capacidad. La cantidad de bits varía entre 4 y 64 y su conjunto se llama palabra. El microprocesador más nativo puede operar palabras de 4 bits, una palabra que procesa por vez podría ser: 1010.

      El almacenamiento de la información el microprocesador la realiza en una clase de memoria. Aquí la información es ordenada en registros. Cada registro contiene un dato y su longitud varía (de 4 bits a 32 bits).

      La unidad básica de almacenamiento es el byte, el cual es el conjunto de 8 bits. Cada byte es un caracter de información. Por lo tanto para almacenar el dato “microprocesador” en una memoria se necesitarían 15 bytes de espacio. Debido a que el byte es una unidad muy pequeña se definieron los múltiplos de este:

      Nombre

      Unidad

      Bytes

      Kilobyte

      KB

      1.024

      Megabyte

      MB

      1.048.576 (1.024 KB)

      Gigabyte

      GB

      1.073.741.824 (1.024 MB)

      Terabyte

      TB

      1.099.511.627.776 (1.024 GB)

      I.6 Principales características de los microprocesadores

      Las características de los microprocesadores son las siguientes:

      Fabricante: Compañia fabricadora del chip (Intel, Motorola, Cyrix, Texas Instruments, AMD, etc.).

      Modelo: prototipo (4004, 8008, 8080, 8085, 6800, 80186, 80286, 80386, 80486, etc.)

      Año: época de su invensión.

      Tecnología: tecn. de fabricación (CISC, RISC, etc.)

      Velocidad del reloj: velocidad de proceso en Mhz (8 Mhz, 12 Mhz, 40 Mhz, 75 Mhz, etc.)

      Ancho de bus de datos interno: longitud en bits de la palabra (4 bits, 8 bits, 16 bits, etc.)

      Los nuevos microprocesadores tienen otras características menos relevantes, que no vienen al caso, y que por ello no se las nombran.

      I.7 Reseña histórica

      La electrónica de los años 40 era manejada por los viejos tubos de vacío, los cuales han sido reemplazados hoy en día por componentes de semiconductores (diodos, triacs, tiristores, transistores, etc.)

      Luego de la invensión del transistor en 1947 por los Laboratorios Bell, la microelectrónica ha avanzado muy rápidamente.

      En 1959, la firma Texas Instruments logra plasmar en una misma pastilla 6 transistores, dando origen así a los circuitos integrados.

      En 1971, aparece el primer microprocesador, fabricado por Intel Corp.. El cual manejaba datos de 4 bits y tenía 2.300 transistores.

      En 1972, la misma empresa desarrolla el primer microprocesador de 8 bits, el 8008 con 10 mil transistores.

      En 1979 se crean los microprocesadores 8080 y 8085 de 29 mil transistores. Ese mismo año Motorola (fuerte competidor de Intel) lanza el 6800.

      En 1982, Intel lanza el 80286 de 16 bits con 134 mil transistores.

      En 1985, aparece el 80386 de 32 bits con 275 mil transistores.

      De aquí en más aparecen los sucesivos micros. de 32 bits: 80486, Pentium, K5, 6x86, Pentium Pro, K6, M2, etc, de millones de transistores.

      Actualmente el microprocesador más rápido para microordenadores es el Alpha, de Digital Semiconductor y Mitsubishi Electric. Este es de 64 bits y posee 9.3 millones de transistores y su velocidad es de 400, 466 y 533 Mhz. Otros microprocesadores potentes de 64 bits son el PowerPC y el G3 de Motorola, ampliamente usado hoy en día en las computadoras Macintosh de Apple Corp.

      I.8 Objeto de estudio

      Los microprocesadores dependiendo de el ancho de palabra que pueden trabajar pueden ser de: 4 bits (palabra de 4 bits), 8 bits, 16 bits, 32 bits y 64 bits.

      La computadoras de hoy en día utilizan microprocesadores de 32 y 64 bits, aunque todavía se utilizan micros de 16 bits (micros 80286).

      Los micros de 4 bits, hace años que ya no son utilizados por su baja velocidad de operación. Y los micros de 8 bits se los usan solo en pocas excepciones, como pequeños sistemas de control.

      Resumiendo, los micros de 4, 8 y 16 bits ya no son útiles, y pronto tampoco lo serán los de 32 bits.

      Pero para el estudio, usaremos un microprocesador de 8 bits: el INTEL® 8085. Debido a que los demás micros son muy complejos y la arquitectura básica de todos los microprocesadores es la misma.

      II.1 Arquitectura de un microprocesador de 8 bits

      La forma de operar, así como la arquitectura de todos los microprocesadores de 8 bits, es muy similar. Se ha decidido estudiar el microprocesador 8085 de la firma INTEL® por las razones expuestas en el apartado 1.8.

      El microprocesador 8085 es un dispositivo que, como ya sabemos, opera con una palabra de 8 bits y es capaz de direccionar, con sus 16 líneas, hasta 64K de posiciones de memoria. Fabricado en tecnología NMOS, está constituido por 6.200 transistores. Es un circuito integrado con cápsula dual in line de 40 patillas.

      Para realizar las operaciones el 8085 es capaz de decodificar 74 tipos de instrucciones distintas (ver capítulo III).

      La tensión de alimentación es única y de 5 voltios de corriente contínua, que se aplican en los terminales Vcc (+) y Vss (masa). Como todo microprocesador que forma parte de un sistema digital programable, necesita un reloj o oscilador para sincronizar las operaciones que realiza el sistema. En este caso el reloj está incorporado en el propio chip y genera una señal digital de una frecuencia igual a 3,125 Mhz (es obvio que mienstras mayor sea la frecuencia mayor será la velocidad de proceso, hoy en día existen microprocesadores de más de 500 Mhz).

      II.2 Nomenclatura de los terminales del microprocesador INTEL® 8085

      En la figura II.2-1 se muestra el símbolo lógico del microprocesador 8085 con la denominación de sus cuarenta terminales. Por estos terminales el microprocesador emite o recibe señales digitales. A continuación describiremos la misión que corresponde a cada uno de ellos. Para facilitar la comprensión, unas veces serán tratados simplemente como terminales o patas del dispositivo, otras como señales, y en todos los casos se indicará si son de entrada, de salida o ambas cosas a la vez.

      A8-A15. Estos terminales corresponden a las salidas de los 8 bits más significativos del bus de direcciones del sistema que está integrado el microprocesador.

      AD0-AD7. Es un conjunto de terminales de entrada/salida que realizan una doble función. Mediante un multiplexor, el microprocesador se comunica en primer lugar con los 8 bits más significativos del bus de direcciones y posteriormente con el bus bidireccional de datos.

      ALE. Address Latch Enable (Activación del biestable latch de direcciones). Es una salida que determina si la información presente en las líneas AD0-AD7 corresponde a un dato o a una dirección. Se utiliza para dispara un registro de 8 bits que memoriza la parte baja de una dirección.

      S0-S1. Son salidas que informan del estado del bus de datos. Indican el tipo de ciclo de máquina que el microprocesador realiza: búsqueda, lectura, escritura o paro.

      RD.Read. Salida que se emplea para indicar que la posición de memoria o dispositivo de E/S seleccionado quiere ser leído por la CPU y, además que el bus de datos esté disponible para realizar la transferencia.

      WR.Write. Salida que se utiliza para indicar que la información presente en el bus de datos ha de ser escrita en la posición de memoria o dispositivo de E/S direccionado

  • investigacion 6

    DRAM

    Memoria RAM.JPG

    DRAM(Dynamic Random Access Memory) es un tipo de memoria dinamica de acceso aleatorio que se usa principalmente en los módulos de memoria RAM y en otros dispositivos, como memoria principal del sistema. Se denomina dinámica, ya que para mantener almacenado un dato, se requiere revisar el mismo y recargarlo, cada cierto período, en un ciclo de refresco. Su principal ventaja es la posibilidad de construir memorias con una gran densidad de posiciones y que todavía funcionen a una velocidad alta: en la actualidad se fabrican integrados con millones de posiciones y velocidades de acceso medidos en millones de bit por segundo. Es una memoria volátil, es decir cuando no hay alimentación eléctrica, la memoria no guarda la información. Inventada a finales de los sesenta, es una de las memorias más usadas en la actualidad

    Reinvención de la memoria DRAM

    Para 1973 Intel y otros fabricantes construían y empacaban sus integrados de memoria DRAM empleando un esquema en el que se aumentaba un pin por cada vez que se doblaba la capacidad. De acuerdo a este esquema, un integrado de 64 kilobits tendría 16 pines solo para las direcciones. Dentro de los costos más importantes para el fabricante y el ensamblador de circuitos impresos estaba la cantidad de pines del empaque y en un mercado tan competido era crucial tener los menores precios. Debido a eso, un integrado con una capacidad de 16 pines y 4Kb de capacidad fue un producto apreciado por los usuarios, que encontraban a los integrados de 22 pines, ofrecidos por Intel y Texas Instruments como insumos costosos.

    El lanzamiento de la memoria MK4096 de 4K, con un solo transistor por celda y con direccionamiento multiplexado resultó del trabajo de Robert Proebsting quien observo que en las celdas con un solo transistor, era imposible acceder la información en una posición, enviando al mismo tiempo los datos de fila y columna a la matriz: había que enviar las señales una después de la otra. La solución a nivel de la celda conducía a un ahorro en el empaque, ya que la dirección podría recibirse en dos etapas, reduciendo la cantidad de pines usados.[9] Por ejemplo para un integrado de 64 Kb se pasaba de 16 pines dedicados a solo 8 y dos más para señales de control extra. La multiplexación en tiempo es un esquema de direccionamiento que trae muchas ventajas, a costa de unos pocos cambios en el circuito externo, de manera que se convirtió en un estándar de la industria que todavía se mantiene. Mucha de la terminología usada en la hoja de datos del MK4096 todavía se usa y muchos de los parámetros de temporización como el retardo RAS a CAS fueron instaurados con ese producto, entre otros aspectos.[10]

     Funcionamiento

    Square array of mosfet cells read.png
    Square array of mosfet cells write.png

    La celda de memoria es la unidad básica de cualquier memoria, capaz de almacenar un Bit en los sistemas digitales. La construcción de la celda define el funcionamiento de la misma, en el caso de la DRAM moderna, consiste en un transistor de efecto de campo y un condensador. El principio de funcionamiento básico, es sencillo: una carga se almacena en el condensador significando un 1 y sin carga un 0. El transistor funciona como un interruptor que conecta y desconecta al condensador. Este mecanismo puede implementarse con dispositivos discretos y de hecho muchas memorias anteriores a la época de los semiconductores, se basaban en arreglos de celdas transistor-condensador.

    Las celdas en cualquier sistema de memoria, se organizan en la forma de matrices de dos dimensiones, a las cuales se accede por medio de las filas y las columnas. En la DRAM estas estructuras contienen millones de celdas y se fabrican sobre la superficie de la pastilla de silicio formando áreas que son visibles a simple vista. En el ejemplo tenemos un arreglo de 4x4 celdas, en el cual las líneas horizontales conectadas a las compuertas de los transistores son las llamadas filas y las líneas verticales conectadas a los canales de los FET son las columnas.

    Para acceder a una posición de memoria se necesita una dirección de 4 bits, pero en las DRAM las direcciones están multiplexadas en tiempo, es decir se envían por mitades. Las entradas marcadas como a0 y a1 son el bus de direcciones y por el mismo entra la dirección de la fila y después la de la columna. Las direcciones se diferencian por medio de señales de sincronización llamadas RAS (del inglés Row Address Strobe) y CAS (Column Address Strobe) que indican la entrada de cada parte de la dirección.

    Los pasos principales para una lectura son:

    • Las columnas son precargadas a un voltaje igual a la mitad del voltaje de 1 lógico. Esto es posible ya que las líneas se comportan como grandes condensadores, dada su longitud tienen un valor más alto que la de los condensadores en las celdas.
    • Una fila es energizada por medio del decodificador de filas que recibe la dirección y la señal de RAS. Esto hace que los transistores conectados a una fila conduzcan y permitiendo la conexión electrica entre las líneas de columna y una fila de condensadores. El efecto es el mismo que se produce al conectar dos condensadores, uno cargado y otro de carga desconocida: se produce un balance de que deja a los dos con un voltaje muy similar, compartiendo las cargas. El resultado final depende del valor de carga en el condensador de la celda conectada a cada columna. El cambio es pequeño, ya que la línea de columna es un condensador más grande que el de la celda.
    • El cambio es medido y amplificado por una sección que contiene circuitos de realimentación positiva: si el valor a medir es menor que el la mitad del voltaje de 1 lógico, la salida será un 0, si es mayor, la salida se regenera a un 1. Funciona como un redondeo.
    • La lectura se realiza en todas las posiciones de una fila de manera que al llegar la segunda parte de la dirección, se decide cual es la celda deseada. Esto sucede con la señal CAS. El dato es entregado al bus de datos por medio de la lineo D.O. y las celdas involucradas en el proceso son reescritas, ya que la lectura de la DRAM es destructiva.

    La escritura en una posición de memoria tiene un proceso similar al de arriba, pero en lugar de leer el valor, la línea de columna es llevada a un valor indicado por la línea D.I. y el condensador es cargado o descargado. El flujo del dato es mostrado con una línea gruesa en el gráfico

    SRAM

     

    Static Random Access Memory (SRAM), o Memoria Estática de Acceso Aleatorio es un tipo de memoria basada en semiconductores que, a diferencia de la memoria DRAM, es capaz de mantener los datos (mientras esté alimentada) sin necesidad de circuito de refresco (no se descargan). Sin embargo, sí son memorias volátiles, es decir que pierden la información si se les interrumpe la alimentación eléctrica.

    Diseño
    A six-transistor CMOS SRAM cell.

    Estas memorias son de Acceso Aleatorio, lo que significa que las posiciones en la memoria pueden ser escritas o leídas en cualquier orden, independientemente de cual fuera la última posición de memoria leída o escrita. Cada bit en una SRAM se almacena en cuatro transistores, que forman un biestable. Este biestable tendrá dos estados, utilizados para almacenar un 0 o un 1. Se utilizan otros dos transistores adicionales para controlar el acceso al biestable durante las operaciones de lectura y escritura. Una SRAM típica utilizará seis MOSFET para almacenar cada bit. Adicionalmente, podemos encontrar otros tipos de SRAM, que utilizan ocho, diez, o más transistores por bit.[1] [2] [3] Esto es utilizado para implementar más de un puerto de lectura o escritura en determinados tipos de memoria de video.

    Un menor número de transistores por celda, hará posible reducir el tamaño de esta, reduciendo el coste por bit en la fabricación, al poder implementar más celdas en una misma oblea de silicio.

    Es posible fabricar celdas que utilicen menos de seis transistores, pero en los casos de tres transistores[4] [5] o un solo transistor estaríamos hablando de memoria DRAM, no SRAM.

    El acceso a la celda es controlado por un bus de control (WL en la figura), que controla los dos transistores de acceso M5 y M6, quienes controlan si la celda debe ser conectada a los buses BL y BL. Ambos son utilizados para transmitir datos tanto para las operaciones de lectura como las de escritura, y aunque no es estrictamente necesario disponer de abos buses, se suelen implementar para mejorar los margenes de ruido.

    A diferencia de la DRAM, en la cual la señal de la línea de salida se conecta a un capacitador, y este es el que hace oscilar la señal durante las operaciones de lectura, en las celdas SRAM son los propios biestables los que hacen oscilar dicha señal, mientras que la estructura simétrica permite detectar pequeñas variaciones de voltaje con mayor precisión. Otra ventaja de las memorias SRAM frente a DRAM, es que aceptan recibir todos los bits de dirección al mismo tiempo.

    El tamaño de una memoria SRAM con m líneas de dirección, y n líneas de datos es 2m palabras, o 2m × n bits. Modos de operación de una SRAM

    Una memoria SRAM tiene tres estados distintos de operación: standby, en el cual el circuito está en reposo, reading o lectura, durante el cual los datos son leídos desde la memoria, y writing o escritura, durante el cual se actualizan los datos almacenados en la memoria.

     Reposo

    Si bus de control (WL) no está activado, los transistores de acceso M5 y M6 desconectan la celda de los buses de datos. Los dos biestables formados por M1 – M4 mantendrán los datos almacenados mientras dure la alimentación electrica.

     Lectura

    Asumimos que el contenido de la memoria es 1, y está almacenado en Q. El ciclo de lectura comienza cargando los buses de datos con el 1 lógico, y luego activa WL y los transistores de control. A continuación, los valores almacenados en Q y Q se transfieren a los buses de datos, dejando BL en su valor previo, y ajustando BL a través de M1 y M5 al 0 lógico. En el caso que el dato contenido en la memoria fuera 0, se produce el efecto contrario: BL será ajustado a 1 y BL a 0.

     Escritura

    El ciclo de escritura se inicia aplicando el valor a escribir en el bus de datos. Si queremos escribir un 0, ajustaremos BL a 1 y BL a 0, mientras que para un 1, basta con invertir los valores de los buses. Una vez hecho esto, se activa el bus WL, y el dato queda almacenado.

     Aplicaciones y Usos

    edCaracterísticas

    La memoria SRAM es más cara, pero más rápida y con un menor consumo (especialmente en reposo) que la memoria DRAM. Es utilizada, por tanto, cuando es necesario disponer de un mejor tiempo de acceso, o un consumo reducido, o ambos. Debido a su compleja estructura interna, es menos densa que DRAM, y por lo tanto no es utilizada cuando es necesaria una alta capacidad de datos, como por ejemplo en la memoria principal de los ordenadores personales.

    [ Frecuencia de reloj y potencia

    El consumo electrico de una SRAM varía dependiendo de la frencuencia con la cual se accede a la misma: puede llegar a tener un consumo similar a DRAM cuando es usada en alta frecuencia, y algunos circuitos integrados pueden consumir varios vatios durante su funcionamiento. Por otra parte, las SRAM utilizadas con una frecuencia baja, tienen un consumo muy bajo, del orden de micro-vatios.

     Usos de las SRAM

    • como producto de propósito general:
      • con interfaces asíncronas como chips 32Kx8 de 28 pines (nombrados XXC256), y productos similares que ofrecen transferencias de hasta 16Mbit por chip.
      • con interfaces síncronas, principalmente como caches y otras aplicaciones que requieran transferencias rápidas, de hasta 18Mbit por chip.
    • integrados en chip:
      • como memoria RAM o de cache en micro-controladores.
      • como cache primaria en microcontroladores, como por ejemplo la familia x86.
      • para almacenar los registros de microprocesadores.
      • en circuitos integrados.
      • en FPGAs y CPLDs.

    TONTHOS

    Usos integrados en productos

    Las SRAM se utilizan en sistemas científicos e industriales, electrónica del automóvil, y similares. También se pueden encontrar en prácticamente todos los productos de uso cotidiano que implementen una interfaz electrónica de usuario.

    También podemos encontrar memorias SRAM en los ordenadores personales, estaciones de trabajo, routers y la totalidad de periféricos de los mismos.

     Uso de aficionados

    Los aficionados a la electrónica prefieren las memorias SRAM debido a su sencilla interfaz, ya que es mucho más fácil trabajar con SRAM que con DRAM, al no existir ciclos de refresco, y poder acceder directamente a los buses de dirección y de datos en lugar de tener que utilizar multiplexores. Además, las SRAM solo necesitan tres buses de control: Chip Enable (CE), Write Enable (WE), y Output Enable (OE). En el caso de las SRAM síncronas, tendremos además la señal de reloj (CLK)

     Tipos de SRAM

    SRAM no volátiles

    Las memorias SRAM no volátiles (NVRAM) presentan el funcionamiento típico de las RAM, pero con la característica distintiva de que los datos almacenados en ellas son preservados aun cuando se interrumpe la alimentación eléctrica. Se utilizan en situaciones donde se requiere conservar la información almacenada sin necesidad de alimentación alguna para ello; normalmente donde se desea evitar el uso de baterías (o bien no es posible

    SDRAM

    Memoria SDRAM.

    Synchronous Dynamic Random Access Memory (SDRAM) es una memoria dinámica de acceso aleatorio DRAM que tiene una interfaz síncrona. Tradicionalmente, la memoria dinámica de acceso aleatorio DRAM tiene una interfaz asíncrona, lo que significa que el cambio de estado de la memoria tarda un cierto tiempo, dado por las características de la memoria, desde que cambian sus entradas. En cambio, en las SDRAM el cambio de estado tiene lugar en el momento señalado por una señal de reloj y, por lo tanto, está sincronizada con el bus de sistema del ordenador. El reloj también permite controlar una máquina de estados finitos interna que controla la función de "pipeline" Segmentación (informática)|segmentación de las instrucciones de entrada. Esto permite que el chip tenga un patrón de operación más complejo que la DRAM asíncrona, que no tiene una interfaz de sincronización.

    El método de segmentación significa que el chip puede aceptar una nueva instrucción antes de que haya terminado de procesar la anterior. En una escritura de datos, el comando "escribir" puede ser seguido inmediatamente por otra instrucción, sin esperar a que los datos se escriban en la matriz de memoria. En una lectura, los datos solicitados aparecen después de un número fijo de pulsos de reloj tras la instrucción de lectura, durante los cuales se pueden enviar otras instrucciones adicionales. (Este retraso se llama latencia y es un parámetro importante a considerar cuando se compra una memoria SDRAM para un ordenador.)

    Las SDRAM son ampliamente utilizadas en los ordenadores, desde la original SDRAM y las posteriores DDR SDRAM|DDR (o DDR1), DDR2 y DDR3. Actualmente se está diseñando la DDR4 y se prevé que estará disponible en 2012

    Calendario SDRAM

    Existen varios límites en el desempeño de DRAM. Más conocido es el tiempo de ciclo de lectura, el tiempo entre las sucesivas operaciones de lectura a una fila abierta. Esta vez se redujo de 10 ns a 100 MHz SDRAM de 5 ns para DDR-400, pero se ha mantenido relativamente sin cambios a través de DDR2-800 y DDR3-1600 generaciones. Sin embargo, al operar los circuitos de interfaz en múltiplos cada vez mayor de la tasa de lectura fundamental, el ancho de banda alcanzable ha aumentado rápidamente.

    Otro límite es la latencia CAS, el tiempo entre el suministro de una dirección de la columna y la recepción de los datos correspondientes. De nuevo, esto se ha mantenido relativamente constante a través de 10-15 ns las últimas generaciones de DDR SDRAM.

    En la operación, la latencia CAS es un número específico de ciclos de reloj programado en el modo de registro de la SDRAM y espera por el controlador de memoria DRAM. Cualquier valor puede ser programado, pero la SDRAM no funcionará correctamente si es demasiado bajo. A mayores tasas de reloj, la latencia CAS útil en ciclos de reloj, naturalmente, aumenta. 10-15 ns es de 2-3 ciclos (CL2-3) de reloj de 200 MHz de DDR-400 SDRAM, CL4-6 para DDR2-800, y CL8-12 para DDR3-1600. Más lenta de ciclos de reloj, naturalmente, permitirá a los números más bajos de los ciclos de latencia de CAS.

    Módulos SDRAM tienen sus propias especificaciones de tiempo, que puede ser más lento que los de los chips en el módulo. Cuando los chips SDRAM de 100 MHz aparecieron por primera vez, algunos fabricantes venden "de 100 MHz" módulos que no podrían funcionar de forma fiable en esa frecuencia de reloj. En respuesta, Intel publicó el estándar PC100, que describe los requisitos y directrices para la producción de un módulo de memoria que puede funcionar de forma fiable a 100 MHz. Esta norma fue muy influyente, y el término "PC100" rápidamente se convirtió en un identificador común para módulos SDRAM de 100 MHz, y los módulos son ahora comúnmente designada con "PC"-números de prefijo (PC66, PC100 o PC133 - aunque el significado real de los números ha cambiado).

     SDR SDRAM

    Originalmente conocido simplemente como SDRAM, SDRAM tipo de datos solo puede aceptar un comando y la transferencia de una palabra de datos por ciclo de reloj. Las frecuencias de reloj típicas son 100 y 133 MHz. Chips están hechos con una variedad de tamaños de bus de datos (el más común 4, 8 ó 16 bits), pero los chips son generalmente montados en módulos DIMMs de 168-pines que leen o escriben 64 (non-ECC) o 72 (ECC) de bits a la vez.

    El uso del bus de datos es complejo y requiere un controlador de memoria DRAM complejo. Esto es porque los datos escritos en la memoria DRAM deben ser presentadas en el mismo ciclo que escribir un comando, pero lee producir una salida de 2 o 3 ciclos después de que el comando de lectura. El controlador de memoria DRAM debe asegurarse de que el bus de datos nunca se requiere de una escritura y lectura, al mismo tiempo.

    Típico SDRAM SDR velocidades de reloj de 66, 100 y 133 MHz (períodos de 15, 10, y el 7,5 ns). Frecuencias de reloj de hasta 150 MHz estaban disponibles para los entusiastas del rendimiento.

    Las señales de control de SDRAM

    Todos los comandos están programados en relación con el flanco de subida de una señal de reloj. Además del reloj, hay 6 señales de control, en su mayoría de baja activa, que se muestra en el flanco de subida del reloj:

    • Reloj ‘’’CKE’’’ Habilitar. Cuando esta señal es baja, el chip se comporta como si el reloj se ha detenido. No comandos son interpretados y tiempos de latencia de comando no transcurrir. El estado de las líneas de control de otros no es relevante. El efecto de esta señal es en realidad un retraso de un ciclo de reloj. Es decir, el producto actual ciclo de reloj, como de costumbre, pero el siguiente ciclo de reloj es ignorado, excepto para la prueba de nuevo la entrada de CKE. Reanudar las operaciones normales en el flanco de subida del reloj después de aquel en el que se toman muestras de CKE alta.

    Dicho de otra manera, todas las operaciones de microprocesadores también se programan en relación con el flanco ascendente de un reloj de enmascarados. El reloj enmascarado es el lógico de la entrada de reloj y el estado de la señal de CKE en el flanco de subida anterior de la entrada de reloj.

    • ‘’’/ CS’’’ Chip Select. Cuando esta señal es alta, el chip hace caso omiso de todas las otras entradas (excepto para CKE), y actúa como si se recibe un comando NOP.
    • ‘’’DQM’’’ ocultar los datos. (La letra Q aparece porque, siguiendo las convenciones de la lógica digital, las líneas de datos se conoce como "DQ" líneas.) Al alta, estas señales de supresión de los datos I / O. Cuando acompañan a escribir los datos, los datos no son en realidad por escrito a la DRAM. Cuando afirmó alta dos ciclos antes de un ciclo de lectura, la lectura de datos no es la salida del chip. Hay una línea DQM por 8 bits en un chip x16 de memoria o DIMM.
    • ‘’’/RAS’’’ fila Dirección Strobe. A pesar del nombre, este no es un estrobo, sino simplemente un poco de comandos. Junto con / CAS y / WE, esto selecciona uno de los 8 comandos.
    • ‘’’/ CAS’’’ columna Dirección Strobe. A pesar del nombre, este no es un estrobo, sino simplemente un poco de comandos. Junto con / RAS y / WE, esto selecciona uno de los 8 comandos.
    • ‘’’/ WE’’’ modo escritura. Junto con / RAS y CAS, esta selecciona uno de los 8 comandos. Esto generalmente se distingue de lectura como los comandos de escribir-como comandos.

    Dispositivos SDRAM se dividen internamente en 2 o 4 bancos de datos interna independiente. Uno o dos entradas de la dirección del banco (BA0 y BA1) seleccionar un comando de que el banco se dirige.

    Muchos de los comandos también utilizar una dirección presentados en los pines de dirección de entrada. Algunos comandos, que o bien no utilizar una dirección, o presentar una columna de dirección, también utilizan A10 para seleccionar variantes. Los comandos de entender son los siguientes.

    /CS/RAS/CAS/WEBAnA10AnComandos
    HxxxxxxComando do inhibir (No operación)
    LHHHxxxNinguna operación
    LHHLxxxBurst Terminar: Parada de una ráfaga de lectura o escritura en el progreso estallido.
    LHLHbancoLcolumnaLeer: Leer una ráfaga de datos de la fila activa.
    LHLHbancoHcolumnaLea con precarga automática: Como el anterior, y precarga (fila cerca) cuando termine.
    LHLLbancoLcolumnaEscribe: Escribe una ráfaga de datos a la fila activa.
    LHLLbancoHcolumnaEscribir con precarga automática: Como el anterior, y precarga (fila cerca) cuando termine.
    LLHHbancorowActive (Activar): abrir una línea de comandos Leer y Escribir
    LLHLbancoLxPrecarga: Desactivar la fila actual del banco seleccionado.
    LLHLxHxPrecargar todos: Desactivar la fila actual de todos los bancos.
    LLLHxxxActualización automática: Actualizar una fila de cada banco, utilizando un contador interno. Todos los bancos deben ser precargado.
    LLLL0 0modeRegistro de modo de carga: A0 a través de A9 se cargan para configurar el chip DRAM

    Los ajustes más importantes son la latencia CAS (2 o 3 ciclos) y la longitud de la ráfaga (1, 2, 4 u 8 ciclos

    Modo de registro de SDRAM

    De datos único SDRAM tiene una tasa de 10 páginas a un bit de modo de registro programable. Más tarde, el doble de datos de normas de SDRAM tasa añadir registros modo adicional, se dirigió a utilizar los pines banco de direcciones. Para SDRAM SDR, las clavijas de Dirección del Banco y las líneas de dirección A10 y encima se pasan por alto, pero debe ser cero durante un registro de modo de escribir.

    Los bits se M9 a través de M0, presentado por la A9 a través de líneas de dirección A0 durante un ciclo de carga de registro de modo.

    • M9: Escribe el modo ráfaga. Si es 0, escribe utilizar la longitud de la ráfaga y el modo de leer. Si 1, todas las escrituras no son de estallido (ubicación única).
    • M8, M7: modo de funcionamiento. Reservado, y debe ser 00.
    • M6, M5, M4: latencia CAS. En general, sólo 010 (CL2) y 011 (CL3) son legales. Especifica el número de ciclos entre un comando de lectura y de salida de datos del chip. El chip tiene un límite fundamental de este valor en nanosegundos, durante la inicialización, el controlador de memoria debe utilizar su conocimiento de la frecuencia de reloj de traducir ese límite en los ciclos.
    • M3: Tipo de ráfaga. 0 - peticiones estallido secuencial de pedidos, mientras que 1 peticiones intercalados estallido de pedido.
    • M2, M1, M0: longitud de la ráfaga. Los valores de 000, 001, 010 y 011 especifican un tamaño de ráfaga de 1, 2, 4 u 8 palabras, respectivamente. Cada leer (y escribir, si M9 es 0) llevará a cabo que tiene acceso a muchos, a no ser interrumpido por una parada de reventar o otro comando. Un valor de 111 especifica una explosión fila completa. La explosión continuará hasta que se interrumpan. Full estallidos de fila sólo se permite con el tipo de explosión secuencial.

    Actualización automática

    Es posible cargar un chip de memoria RAM por la apertura y cierre (activación y precarga) cada fila de cada banco. Sin embargo, para simplificar el controlador de memoria, los chips SDRAM de apoyo a una "actualización automática" de comando, que realiza estas operaciones a una fila de cada banco de forma simultánea. La SDRAM también mantiene un contador interno, que itera sobre todos los registros posibles. El controlador de memoria, simplemente debe enviar un número suficiente de comandos de actualización automática (una por fila, 4096 en el ejemplo que hemos estado usando) cada intervalo de actualización (TREF = 64 ms es un valor común). Todos los bancos debe estar inactivo (cerrado, precargado) cuando se emite este comando.

     Modos de bajo consumo

    Como se mencionó, el reloj de habilitar (CKE) de entrada puede ser usada efectivamente para detener el reloj a una SDRAM. La entrada de CKE se muestra cada flanco de subida del reloj, y si es baja, el siguiente flanco de subida del reloj se omite para cualquier otro fin que el control de CKE.

    CKE Si se baja, mientras que la SDRAM está realizando operaciones, sino que simplemente se "congela" en el lugar hasta CKE se eleva de nuevo.

    Si la SDRAM está inactiva (todos los bancos precargado, ningún comando en curso), cuando se baja de CKE, la SDRAM entra automáticamente en modo power-down, poder de consumo mínimo hasta CKE se eleva de nuevo. Esto no debe durar más de TREF el máximo intervalo de actualización, o la memoria del contenido se puede perder. Es legal para detener el reloj en su totalidad durante este tiempo para el ahorro de energía adicional.

    Por último, si CKE se reduce al mismo tiempo, como un auto de comando de actualización se envía a la SDRAM, SDRAM entra en el modo de auto-actualización. Esto es como el poder hacia abajo, pero la SDRAM utiliza un temporizador en chip interno para generar ciclos de actualización cuando sea necesario. El reloj puede ser detenido durante este tiempo. Si bien el modo de auto-actualización consume un poco más de modo power-down, permite que el controlador de memoria para ser desactivado por completo, lo que comúnmente más que compensa la diferencia.

    DIMM

     
     
    Módulos de memoria en formato DIMM (dos módulos SDRAM PC133).

    DIMM son las siglas de «Dual In-line Memory Module» y que podemos traducir como Módulo de Memoria en linea doble. Son módulos de memoria RAM utilizados en ordenadores personales. Se trata de un pequeño circuito impreso que contiene chips de memoria y se conecta directamente en ranuras de la placa base. Los módulos DIMM son reconocibles externamente por poseer sus contactos (o pines) separados en ambos lados, a diferencia de los SIMM que poseen los contactos de modo que los de un lado están unidos con los del otro.

    Las memorias DIMM comenzaron a reemplazar a las SIMM como el tipo predominante de memoria cuando los microprocesadores Intel Pentium dominaron el mercado.

    Un DIMM puede comunicarse con el PC a 64 bits (y algunos a 72 bits) en vez de los 32 bits de los SIMMs.

    Funciona a una frecuencia de 133 MHz cada una.

    Los módulos en formato DIMM (Módulo de Memoria en Línea Doble),al ser memorias de 64 bits, lo cual explica por qué no necesitan emparejamiento. Los módulos DIMM poseen chips de memoria en ambos lados de la placa de circuito impresa, y poseen a la vez, 84 conectores de cada lado, lo cual suma un total de 168 clavijas. Además de ser de mayores dimensiones que los módulos SIMM (130x25mm), estos módulos poseen una segunda muesca que evita confusiones.

    Cabe observar que los conectores DIMM han sido mejorados para facilitar su inserción, gracias a las palancas ubicadas a ambos lados de cada conector.

    También existen módulos más pequeños, conocidos como SO DIMM (DIMM de contorno pequeño), diseñados para ordenadores portátiles. Los módulos SO DIMM sólo cuentan con 144 clavijas en el caso de las memorias de 64 bits, y con 77 clavijas en el caso de las memorias de 32 bits.

    Especificación de los módulos DIMM
    • DIMMs de 168 contactos, [DIMM] SDR SDRAM. (Tipos: PC66, PC100, PC133, ...)
    • DIMMs de 184 contactos, DDR SDRAM. (Tipos: PC1.600 (DDR-200), PC2.100 (DDR-266), PC2.400 (DDR-300), PC2.700 (DDR-333), PC3.00 (DDR-366), PC3.200 (DDR-400), PC3.500 (DDR-433), PC3.700 (DDR-466), PC4.000 (DDR-500), PC4.300 (DDR-533), PC4.800 (DDR-600) => Hasta 1 GiB/módulo)
    • DIMMs de 240 contactos, DDR2 SDRAM. (Tipos: PC2-3.200 (DDR2-400), PC2-3.700 (DDR2-466), PC2-4.200 (DDR2-533), PC2-4.800 (DDR2-600), PC2-5.300 (DDR2-667), PC2-6.400 (DDR2-800), PC2-8.000 (DDR2-1.000), PC2-8.500 (DDR2-1.066), PC2-9.200 (DDR2-1.150) y PC2-9.600 (DDR2-1.200) => Hasta 4 GiB por módulo)
    • DIMMs de 240 contactos, DDR3 SDRAM. (Tipos: PC3-6.400 (DDR3-800), PC3-8.500 (DDR3-1.066), PC3-10.600 (DDR3-1.333), PC3-11.000 (DDR3-1.375), PC3-12.800 (DDR3-1.600),PC3-13.000 (DDR3-1.625), PC3-13.300 (DDR3-1.666), PC3-14.400 (DDR3-1.800), PC3-16.000 (DDR3-2.000) => Hasta 4 GiB por módulo)

    ETC.

    Correción de errores

    Los ECC DIMMs son aquellos que tienen un mayor número de bits de datos, los cuales son usados por los controladores del sistema de memoria para detectar y corregir errores. Hay multitud de esquemas ECC, pero quizás el más común es el Corrector de errores individuales-Detector de errores dobles (SECDED) que usa un byte extra por cada palabra de 64 bits. Los módulos ECC están formados normalmente por múltiplos de 9 chips y no de 8 como es lo más usual.

    Organización

    La mayoría de módulos [DIM] se construyen usando "x4" (de 4) los chips de memoria o "x8" (de 8) con 9 chips de memoria de chips por lado. "X4" o "x8" se refieren a la anchura de datos de los chips DRAM en bits.

    En el caso de los [DIMM] "x4", la anchura de datos por lado es de 36 bits, por lo tanto, el controlador de memoria (que requiere 72 bits) para hacer frente a las necesidades de ambas partes al mismo tiempo para leer y escribir los datos que necesita. En este caso, el módulo de doble cara es único en la clasificación.

    Para "DIMM x8",cada lado es de 72 bits de ancho, por lo que el controlador de memoria sólo se refiere a un lado a la vez (el módulo de dos caras es de doble clasificación).

     "Filas" de los módulos

    Las filas no pueden ser accedidas simultáneamente como si compartieran el mismo camino de datos. El diseño físico de los chips [DRAM] en un módulo DIMM no hace referencia necesariamente al número de filas.

    Las DIMMs frecuentemente son referenciadas como de "un lado" o de "doble lado", refiriéndose a la ubicación de los chips de memoria que están en uno o en ambos lados del chip DIMM. Estos términos pueden causar confusión ya que no se refieren necesariamente a cómo están organizados lógicamente los chips DIMM o a qué formas hay de acceder a ellos.

    Por ejemplo, en un chip DIMM de una fila que tiene 64 bits de datos de entrada/salida, sólo hay conjunto de chips [DRAM] que se activan para leer o recibir una escritura en los 64 bits. En la mayoría de sistemas electronicos, los controladores de memoria son diseñados para acceder a todo el bus de datos del módulo de memoria.

    En un chip DIMM de 64 bits hecho con dos filas, debe haber dos conjuntos de chips DRAM que puedan ser accedidos en tiempos diferentes. Sólo una de las filas puede ser accedida en un instante de tiempo desde que los bits de datos de los DRAM son enlazados para dos cargas en el DIMM.

    Las filas son accedidas mediante señales "chip select" (CS). Por lo tanto para un módulo de dos filas, las dos [DRAM] con los bits de datos entrelazados pueden ser accedidas mediante una señal CS por [DRAM

    SIMM

    SIMM de 30 pines y 72 pines (tercera y cuarta desde arriba).
    30, VRAM de 68, y 72 contactos.

    SIMM (siglas de Single In-line Memory Module), es un formato para módulos de memoria RAM que consisten en placas de circuito impreso sobre las que se montan los integrados de memoria DRAM. Estos módulos se inserta en zócalos sobre la placa base. Los contactos en ambas caras están interconectados, esta es la mayor diferencia respecto de sus sucesores los DIMMs. Fueron muy populares desde principios de los 80 hasta finales de los 90, el formato fue estandarizado por JEDEC bajo el número JESD-

    Patillajes

    SIMM de 30 contactos

    SIMM de 30 pines
    PinNombreDescripción
    1VCC+5 VDC
    2/CASColumn Address Strobe
    3DQ0Data 0
    4A0Address 0
    5A1Address 1
    6DQ1Data 1
    7A2Address 2
    8A3Address 3
    9GNDGround
    10DQ2Data 2
    11A4Address 4
    12A5Address 5
    13DQ3Data 3
    14A6Address 6
    15A7Address 7
    16DQ4Data 4
    17A8Address 8
    18A9Address 9
    19A10Address 10
    20DQ5Data 5
    21/WEWrite Enable
    22GNDGround
    23DQ6Data 6
    24A11Address 11
    25DQ7Data 7
    26QPData Parity Out
    27/RASRow Address Strobe
    28/CASPColumn Address Strobe Parity
    29DPData Parity In
    30VCC+5 VDC
    • QP y DP no está conectados en los modelos sin paridad
    • A9 no está conectado en los de 256 kB.
    • A10 no está conectado en los de 256 kB y 1 MB.
    • A11 no está conectado en los de 256 kB, 1 MB y 4 MB.  SIMM de 72 contactos
    72-pin ECC SIMM Memory Module
    Pin #Non-ParityParitySignal Description
    1VSSVSSGround
    2DQ0DQ0Data 0
    3DQ1DQ1Data 1
    4DQ2DQ2Data 2
    5DQ3DQ3Data 3
    6DQ4DQ4Data 4
    7DQ5DQ5Data 5
    8DQ6DQ6Data 6
    9DQ7DQ7Data 7
    10VCCVCC+5 VDC
    11PD1PD1Presence Detect 1
    12A0A0Address 0
    13A1A1Address 1
    14A2A2Address 2
    15A3A3Address 3
    16A4A4Address 4
    17A5A5Address 5
    18A6A6Address 6
    19A10A10Address 10
    20n/cPQ8Data 8 (Parity 1)
    21DQ9DQ9Data 9
    22DQ10DQ10Data 10
    23DQ11DQ11Data 11
    24DQ12DQ12Data 12
    25DQ13DQ13Data 13
    26DQ14DQ14Data 14
    27DQ15DQ15Data 15
    28A7A7Address 7
    29A11A11Address 11
    30VCCVCC+5 VDC
    31A8A8Address 8
    32A9A9Address 9
    33/RAS3RAS3Row Address Strobe 3
    34/RAS2RAS2Row Address Strobe 2
    35DQ16DQ16Data 16
    36n/cPQ17Data 17 (Parity 2)
    37DQ18DQ18Data 18
    38DQ19DQ19Data 19
    39VSSVSSGround
    40/CAS0CAS0Column Address Strobe 0
    41/CAS2CAS2Column Address Strobe 2
    42/CAS3CAS3Column Address Strobe 3
    43/CAS1CAS1Column Address Strobe 1
    44/RAS0RAS0Row Address Strobe 0
    45/RAS1RAS1Row Address Strobe 1
    46A12A12Address 12
    47/WEWERead/Write
    48A13A13Address 13
    49DQ20DQ20Data 20
    50DQ21DQ21Data 21
    51DQ22DQ22Data 22
    52DQ23DQ23Data 23
    53DQ24DQ24Data 24
    54DQ25DQ25Data 25
    55n/cPQ26Data 26 (Parity 3)
    56DQ27DQ27Data 27
    57DQ28DQ28Data 28
    58DQ29DQ29Data 29
    59DQ31DQ31Data 31
    60DQ30DQ30Data 30
    61VCCVCC+5 VDC
    62DQ32DQ32Data 32
    63DQ33DQ33Data 33
    64DQ34DQ34Data 34
    65n/cPQ35Data 35 (Parity 4)
    66PD2PD2Presence Detect 2
    67PD3PD3Presence Detect 3
    68PD4PD4Presence Detect 4
    69PD5PD5Presence Detect 1
    70PD6PD6Presence Detect 6
    71PD7PD7Presence Detect 7
    72VSSVSSGround

    investigacion unidades de DVD / CD

    Las unidades de CD-ROM modernas pueden alcanzar velocidades de lectura muy altas, a pesar de ello algunas unidades de CD-ROM son capaces de funcionar a velocidades reducidas. Hay varias razones que pueden hacer considerar cambiar la velocidad de la unidad de CD-ROM:

    • Ha habido varios informes de errores de lectura a velocidades altas, especialmente en unidades de CD-ROM en mal estado. Reducir la velocidad puede prevenir la pérdida de datos bajo estas circunstancias.

    • Algunas unidades de CD-ROM son molestamente ruidosas, a menor velocidad se puede reducir el ruido.

    Puede reducir la velocidad de las unidades de CD-ROM IDE con hdparm o con un programa llamado setcd. Funciona de la siguiente manera:

     

    Si tiene privilegios de root la siguiente órden puede también ayudarleEsto establece prelectura de 2MB del archivo, lo cual ayuda en CD-ROMs rayados. Si establece un valor demasiado alto, la unidad puede estar contínuamente girando y parando, y puede decrementar dramáticamente el rendimiento. Se recomienda que también afine su unidad de CD-ROM con hdparm:

    hdparm -d1 -a8 -u1 cdrom device

     

    Esto activa el acceso DMA, pre-lectura, y desenmascarado de IRQ (lea la página de manual de hdparm para una explicación detallada).

    Por favor, diríjase a "/proc/ide/cdrom device/settings" para ajuste-fino de su CD-ROM.

    Las unidades SCSI no tienen una manera uniforme para estableces estos parámetros (¿conoce alguna? ¡Díganoslo!) Aquí hay una herramienta que funciona para unidades Plextor SCSI.

    FreeBSD:

    Speed: cdcontrol [-f dispositivo] speed velocidad

    DMA: sysctl hw.ata.atapi_dma=1

    El disco compacto (conocido popularmente como CD por las siglas en inglés de Compact Disc) es un soporte digital óptico utilizado para almacenar cualquier tipo de información (audio, imágenes, vídeo, documentos y otros datos). En español o castellano ya se puede escribir cedé (como se pronuncia) porque ha sido aceptada y lexicalizada por el uso; en gran parte de Latinoamérica se pronuncia [sidí], como en inglés, pero la Asociación de Academias de la Lengua Española desaconseja —en su Diccionario panhispánico de dudas— esa pronunciación.[1] También se acepta cederrón[2] (de CD-ROM). Hoy en día, sigue siendo el medio físico preferido para la distribución de audio.

    Los CD estándar tienen un diámetro de 12 centímetros y pueden almacenar hasta 80 minutos de audio (o 700 MB de datos). Los MiniCD tienen 8 cm y son usados para la distribución de sencillos y de controladores guardando hasta 24 minutos de audio o 214 MB de datos.

    Esta tecnología fue más tarde expandida y adaptada para el almacenamiento de datos (CD-ROM), de video (VCD y SVCD), la grabación doméstica (CD-R y CD-RW) y el almacenamiento de datos mixtos (CD-i), Photo CD y CD EXTRA.

    El disco compacto sigue gozando de popularidad en el mundo actual. En el año 2007 se habían vendido

     

    Especificaciones
    Lente óptica de un lector.
    • Velocidad de la exploración: 1,2–1,4 m/s, equivale aproximadamente a entre 500 rpm (revoluciones por minuto) y 200 rpm, en modo de lectura CLV (Constant Linear Velocity, 'Velocidad Lineal Constante').
    • Distancia entre pistas: 1,6 µm.
    • Diámetro del disco: 120 u 80 mm.
    • Grosor del disco: 1,2 mm.
    • Radio del área interna del disco: 25 mm.
    • Radio del área externa del disco: 58 mm.
    • Diámetro del orificio central: 15 mm.
    • Tipos de disco compacto:
      • Sólo lectura: CD-ROM (Compact Disc - Read Only Memory).
      • Grabable: CD-R (Compact Disc - Recordable).
      • Regrabable: CD-RW (Compact Disc - Re-Writable).
      • De audio: CD-DA (Compact Disc - Digital Audio). 
      Lectora de CD
      LectoraCD.PNG

      La lectora de CD, también llamada reproductor de CD, es el dispositivo óptico capaz de reproducir los CD de audio, de video, de datos, etc. utilizando un láser que le permite leer la información contenida en dichos discos.

      El lector de discos compactos está compuesto de:

      • Un cabezal, en el que hay un emisor de rayos láser, que dispara un haz de luz hacia la superficie del disco, y que tiene también un fotorreceptor (foto-diodo) que recibe el haz de luz que rebota en la superficie del disco. El láser suele ser un diodo AlGaAs con una longitud de onda en el aire de 780 nm. (Cercano a los infrarrojos, nuestro rango de visión llega hasta aproximadamente 720 nm.) por lo que resulta una luz invisible al ojo humano, pero no por ello inocua. Ha de evitarse siempre dirigir la vista hacia un haz láser. La longitud de onda dentro del policarbonato es de un factor n=1.55 más pequeño que en el aire, es decir 500 nm.
      • Un motor que hace girar el disco compacto, y otro que mueve el cabezal radialmente. Con estos dos mecanismos se tiene acceso a todo el disco. El motor se encarga del CLV (Constant Linear Velocity), que es el sistema que ajusta la velocidad del motor de manera que su velocidad lineal sea siempre constante. Así, cuando el cabezal de lectura está cerca del borde el motor gira más despacio que cuando está cerca del centro. Este hecho dificulta mucho la construcción del lector pero asegura que la tasa de entrada de datos al sistema sea constante. La velocidad de rotación en este caso es controlada por un microcontrolador que actúa según la posición del cabezal de lectura para permitir un acceso aleatorio a los datos. Los CD-ROM, además permiten mantener la velocidad angular constante, el CAV (Constant Angular Velocity). Esto es importante tenerlo en cuenta cuando se habla de velocidades de lectura de los CD-ROM.
      • Un DAC, en el caso de los CD-Audio, y en casi todos los CD-ROM. DAC es Digital to Analogical Converter. Es decir un convertidor de señal digital a señal analógica, la cual es enviada a los altavoces. DAC’s también hay en las tarjetas de sonido, las cuales, en su gran mayoría, tienen también un ADC, que hace el proceso inverso, de analógico a digital.
      • Otros servosistemas, como el que se encarga de guiar el láser a través de la espiral, el que asegura la distancia precisa entre el disco y el cabezal, para que el laser llegue perfectamente al disco, o el que corrige los errores, etcétera.

      Pasos que sigue el cabezal para la lectura de un CD:

      1. Un haz de luz coherente (láser) es emitido por un diodo de infrarrojos hacia un espejo que forma parte del cabezal de lectura, el cual se mueve linealmente a lo largo de la superficie del disco.
      2. La luz reflejada en el espejo atraviesa una lente y es enfocada sobre un punto de la superficie del CD
      3. Esta luz incidente se refleja en la capa de aluminio, atravesando el recubrimiento de policarbonato. La altura de los salientes (pits) es igual en todos y está seleccionada con mucho cuidado, para que sea justo de la longitud de onda del láser en el policarbonato. La idea aquí es que la luz que llega al llano (land) viaje 1/4 + 1/4 = 1/2 de la longitud de onda (en la figura se ve que la onda que va a la zona sin saliente hace medio período, rebota y hace otro medio período, lo que devuelve una onda desfasada medio período ½ cuando va a la altura del saliente), mientras que cuando la luz rebota en un saliente, la señal rebota con la misma fase y período pero en dirección contraria. Esto hace que se cumpla una propiedad de la óptico-física que dice una señal que tiene cierta frecuencia puede ser anulada por otra señal con la misma frecuencia, y misma fase pero en sentido contrario por eso la luz no llega al fotorreceptor, se destruye a sí misma. Se da el valor 0 a toda sucesión de salientes (cuando la luz no llega al fotorreceptor) o no salientes (cuando la luz llega desfasada ½ período, que ha atravesado casi sin problemas al haz de luz que va en la otra dirección, y ha llegando al fotorreceptor), y damos el valor 1 al cambio entre saliente y no saliente, teniendo así una representación binaria. (Cambio de luz a no luz en el fotorreceptor 1, y luz continua o no luz continua 0.)
      4. La luz reflejada se encamina mediante una serie de lentes y espejos a un fotodetector que recoge la cantidad de luz reflejada
      5. La energía luminosa del fotodetector se convierte en energía eléctrica y mediante un simple umbral el detector decidirá si el punto señalado por el puntero se corresponde con un saliente (pit) o un llano (land).

      Grabación

      Los discos ópticos presentan una capa interna protegida, donde se guardan los bits mediante distintas tecnologías, siendo que en todas ellas dichos bits se leen merced a un rayo láser incidente. Este, al ser reflejado, permite detectar variaciones microscópicas de propiedades óptico-reflectivas ocurridas como consecuencia de la grabación realizada en la escritura. Un sistema óptico con lentes encamina el haz luminoso, y lo enfoca como un punto en la capa del disco que almacena los datos.

      Grabado durante la fabricación

      Se puede grabar un CD por moldeado durante la fabricación.

      Mediante un molde de níquel (CD-ROM), una vez creada un aplicación multimedia en el disco duro de una computadora es necesario transferirla a un soporte que permita la realización de copias para su distribución.

      Las aplicaciones CD-ROM se distribuyen en discos compactos de 12 cm de diámetro, con la información grabada en una de sus caras. La fabricación de estos discos requiere disponer de una sala «blanca», libre de partículas de polvo, en la cual se llevan a cabo los siguientes procesos. Sobre un disco finamente pulido en grado óptico se aplica una capa de material fotosensible de alta resolución, del tipo utilizado en la fabricación de microchips. Sobre dicha capa es posible grabar la información gracias a un rayo láser. Una vez acabada la transcripción de la totalidad de la información al disco, los datos que contiene se encuentran en estado latente. El proceso es muy parecido al del revelado de una fotografía. Dependiendo de las zonas a las que ha accedido el láser, la capa de material fotosensible se endurece o se hace soluble al aplicarle ciertos baños. Una vez concluidos los diferentes baños se dispone de una primera copia del disco que permitirá estampar las demás. Sin embargo, la película que contiene la información y está adherida a la placa de vidrio es blanda y frágil, por lo cual se hace imprescindible protegerla mediante un fino revestimiento metálico, que le confiere a la vez dureza y protección. Finalmente, gracias a una combinación de procesos ópticos y electroquímicos, es posible depositar una capa de níquel que penetra en los huecos y se adhiere a la película rnetálica aplicada en primer lugar sobre la capa de vidrio. Se obtiene de este modo un disco matriz o «máster», que permite estampar a posterior miles de copias del CD-ROM en plástico. Una vez obtenidas dichas copias, es posible serigrafiar sobre la capa de laca filtrante ultravioleta de los discos imágenes e informaciones, en uno o varios colores, que permitan identificarlo. Todo ello, lógicamente, por el lado que no contiene la información. La fabricación de los CD-ROMs de una aplicación multimedia concluye con el estuchado de los discos, que es necesario para protegerlos de posibles deterioros. Al estuche se añade un cuadernillo que contiene las informaciones relativas a la utilización de la aplicación. Finalmente, la envoltura de celofán garantiza al usuario que la copia que recibe es original. Estos procesos de fabricación permiten en la actualidad ritmos de producción de hasta 600 unidades por hora en una sola máquina.

      Grabación por acción de láser

      DVD CD pits.PNG

      Otro modo de grabación es por la acción de un haz láser (CD-R y CD-RW, también llamado CD-E).

      Para esto la grabadora crea unos pits y unos lands cambiando la reflectividad de la superficie del CD. Los pits son zonas donde el láser quema la superficie con mayor potencia, creando ahí una zona de baja reflectividad. Los lands, son justamente lo contrario, son zonas que mantienen su alta reflectividad inicial, justamente porque la potencia del láser se reduce.

      Según el lector detecte una secuencia de pits o lands, tendremos unos datos u otros. Para formar un pit es necesario quemar la superficie a unos 250º C. En ese momento, el policarbonato que tiene la superficie se expande hasta cubrir el espacio que quede libre, siendo suficientes entre 4 y 11 mW para quemar esta superficie, claro que el área quemada en cada pit es ridícula.

      Esto es posible ya que es una superficie algo "especial". Está formada en esencia por plata, teluro, indio y antimonio. Inicialmente (el disco está sin nada, completamente vacío de datos...) esta superficie tiene una estructura policristalina o de alta reflectividad. Si el software le "dice" a la grabadora que debe simular un pit, entonces lo que hará será aumentar con el láser la temperatura de la superficie hasta los 600 o 700 °C, con lo que la superficie pasa a tener ahora una estructura no cristalina o de baja reflectividad. Cuando debe aparecer un land, entonces se baja la potencia del láser para dejar intacta la estructura policristalina.

      Para borrar el disco se quema la superficie a unos 200 °C durante un tiempo prolongado (de 20 a 40 minutos) haciendo retornar todo este "mejunge" a su estado critalino inicial. En teoría deberíamos poder borrar la superficie unas 1000 veces, más o menos, aunque con el uso lo más probable es que se estropee el CD y tengas que tirarlo antes de poder usarlo tantas veces.

      Grabación por acción de láser y un campo magnético

      El último medio de grabación de un cd es por la acción de un haz láser en conjunción con un campo magnético (discos magneto-ópticos - MO).

      Los discos ópticos tienen las siguientes características, confrontadas con los discos magnéticos:

      Los discos ópticos, además de ser medios removibles con capacidad para almacenar masivamente datos en pequeños espacios -por lo menos diez veces más que un disco rígido de igual tamaño- son portables y seguros en la conservación de los datos (que también permanecen si se corta la energía eléctrica). El hecho de ser portables deviene del hecho de que son removibles de la unidad.

      Grabado multisesión

      Desde hace tiempo han surgido programas computacionales para grabar CD que nos permiten utilizar un disco CD-R como si de un disco regrabable se tratase. Esto no quiere decir que el CD se pueda grabar y posteriormente borrar, sino que se puede grabar en distintas sesiones, hasta ocupar todo el espacio disponible del CD. Los discos multisesión no son más que un disco normal grabable, ni en sus cajas, ni en la información sobre sus detalles técnicos se resalta que funcione como disco Multisesión, ya que esta función no depende del disco, sino como está grabado.

      Si se graba un CD y este no es finalizado, podemos añadirle una nueva sesión, desperdiciando una parte para separar las sesiones (unos 20 MB aproximadamente). Haremos que un CD sea multisesión en el momento que realizamos la segunda grabación sobre él, este o no finalizado, sin embargo, al grabar un CD de música automáticamente el CD-R queda finalizado y no puede ser utilizado como disco Multisesión.

      No todos los dispositivos ni los sistemas operativos, son capaces de reconocer un disco con multisesión, o que no esté finalizado.

      Diferencias entre CD-R multisesión y CD-RW

      Puede haber confusión entre un CD-R con grabado multisesión y un CD-RW. En el momento en que un disco CD-R se hace multisesión, el software le dará la característica de que pueda ser utilizado en múltiples sesiones, es decir, en cada grabación se crearán «sesiones», que sólo serán modificadas por lo que el usuario crea conveniente. Por ejemplo, si se ha grabado en un CD-R los archivos prueba1.txt, prueba2.txt y prueba 3.txt, se habrá creado una sesión en el disco que será leída por todos los reproductores y que contendrá los archivos mencionados. Si en algún momento no se necesita alguno de los ficheros o se modifica el contenido de la grabación, el programa software creará una nueva sesión, a continuación de la anterior, donde no aparecerán los archivos que no se desee consultar, o se verán las modificaciones realizadas, es decir, es posible añadir más archivos, o incluso quitar algunos que estaban incluidos. Al realizar una modificación la sesión anterior no se borrará, sino que quedará oculta por la nueva sesión dando una sensación de que los archivos han sido borrados o modificados, pero en realidad permanecen en el disco.

      Obviamente las sesiones anteriores, aunque aparentemente no aparecen permanecen en el disco y están ocupando espacio en el mismo, esto quiere decir que algún día ya no será posible «regrabarlo», modificar los archivos que contiene, porque se habrá utilizado toda la capacidad del disco.

      A diferencia de los CD-R, los discos CD-RW sí pueden ser borrados, o incluso formateados (permite usar el disco, perdiendo una parte de su capacidad, pero permitiendo grabar en el ficheros nuevos). En el caso de utilizar un CD-RW cuando borramos, lo borramos completamente, se pueden hacer también borrados parciales, que necesitan una mayor potencia del láser para volver a grabarse. Un disco CD-RW se puede utilizar como un disquete, con software adecuado, siempre que la unidad soporte esta característica, se pueden manipular ficheros como en un disquete, con la salvedad de que no se borra, sino que al borrar un fichero este sigue ocupando un espacio en el disco, aunque al examinarlo no aparezca dicho archivo. Los discos CD-RW necesitan más potencia del láser para poder grabarse, por esta razón los discos regrabables tienen una velocidad de grabación menor que los discos grabables (tardan más en terminar de grabarse).

      Los DVD-RW, DVD+RW funcionan de manera análoga, los DVD-RAM también, pero están diseñados para escritura como con los disquetes.

    Un CD de audio se reproduce a una velocidad tal que se leen 150 KB por segundo. Esta velocidad base se usa como referencia para identificar otros lectores como los de ordenador, de modo que si un lector indica 24x, significa que lee 24 x 150 kB = 3.600 kB/s, aunque se ha de considerar que los lectores con indicación de velocidad superior a 4x no funcionan con velocidad angular variable como los lectores de CD-DA, sino que emplean velocidad de giro constante, siendo el radio obtenible por la fórmula anterior el máximo alcanzable (esto es, al leer los datos grabados junto al borde exterior del disco).

    El área del disco es de 86,05 cm², de modo que la longitud del espiral grabable será de 86,05/1,6 = 5,38 km. Con una velocidad de exploración de 1,2 m/s, el tiempo de duración de un CD-DA es 80 minutos, o alrededor de 700 MB de datos. Si el diámetro del disco en vez de 120 milímetros fuera 115 mm, el máximo tiempo de duración habría sido 68 minutos, es decir, 12 minutos menos

    anticaida del disco duro

    Iomega eGo BlackBelt

    La gran mayoría de discos duros externos suelen ofrecer unas características similares: conexión USB, un tamaño aproximadamente igual al de un disco de 2.5 pulgadas, y poco más. El Iomega eGo BlackBelt va por esa línea, pero añadiendo a mayores una protección extra.

    Dicha protección, denominada PowerGrip por el fabricante y que consta de una banda negra alrededor del disco, permite que los datos permanezcan intactos tras caídas de hasta 2.1 metros, según Iomega. En cuanto a otras características ofrece una capacidad de hasta 500 GB, conectividad USB y sin la necesidad de utilizar un adaptador de corriente externa. Por ahora el único color disponible es el negro.

    El precio es algo más elevado de lo normal, situándose en 140 dólares para Estados Unidos. En España debería rondar los 100 o 120 euros, y tenemos que tener en cuenta que hay dispositivos de igual capacidad y más baratos, aunque sin ese extra de protección frente a caida

     

    investigacion 4

    BIOS

    BIOS: Basic Input/Output System
    Phoenix bios.jpg

     

    El Sistema Básico de Entrada/Salida o BIOS (Basic Input-Output System ) es un código de software que localiza y reconoce todos los dispositivos necesarios para cargar el sistema operativo en la RAM; es un software muy básico instalado en la placa base que permite que esta cumpla su cometido. Proporciona la comunicación de bajo nivel, el funcionamiento y configuración del hardware del sistema que, como mínimo, maneja el teclado y proporciona salida básica (emitiendo pitidos normalizados por el altavoz de la computadora si se producen fallos) durante el arranque. El BIOS usualmente está escrito en lenguaje ensamblador. El primer término BIOS apareció en el sistema operativo CP/M, y describe la parte de CP/M que se ejecutaba durante el arranque y que iba unida directamente al hardware (las máquinas de CP/M usualmente tenían un simple cargador arrancable en la ROM, y nada más). La mayoría de las versiones de MS-DOS tienen un archivo llamado "IBMBIO.COM" o "IO.SYS" que es análogo al CP/M BIOS.

    El BIOS (Basic Input-Output System) es un sistema básico de entrada/salida que normalmente pasa inadvertido para el usuario final de computadoras. Se encarga de encontrar el sistema operativo y cargarlo en memoria RAM. Posee un componente de hardware y otro de software, este último brinda una interfaz generalmente de texto que permite configurar varias opciones del hardware instalado en el PC, como por ejemplo el reloj, o desde qué dispositivos de almacenamiento iniciará el sistema operativo (Windows, GNU/Linux, Mac OS X, etc.).

    El BIOS gestiona al menos el teclado de la computadora, proporcionando incluso una salida bastante básica en forma de sonidos por el altavoz incorporado en la placa base cuando hay algún error, como por ejemplo un dispositivo que falla o debería ser conectado. Estos mensajes de error son utilizados por los técnicos para encontrar soluciones al momento de armar o reparar un equipo. Basic Input/Output System - Sistema básico de entrada/salida de datos). Programa que reside en la memoria EPROM (Ver Memoria BIOS no-volátil). Es un programa tipo firmware. La BIOS es una parte esencial del hardware que es totalmente configurable y es donde se controlan los procesos del flujo de información en el bus del ordenador, entre el sistema operativo y los demás periféricos. También incluye la configuración de aspectos importantísimos de la máquina.

    El mercado de los BIOS

    La gran mayoría de los proveedores de placas madre de computadoras personales delega a terceros la producción del BIOS y un conjunto de herramientas. Estos se conocen como "proveedores independientes de BIOS" o IBV (del inglés independent BIOS vendor). Los fabricantes de placas madre después personalizan este BIOS según su propio hardware. Por esta razón, la actualización del BIOS normalmente se obtiene directamente del fabricante de placas madre. El fabricante puede publicar actualizaciones del firmware por medio de su pagina web, pero una mala compatibilidad con el Hardware puede provocar que el sistema no vuelva a arrancar inutilizándolo hasta reescribir el BIOS directamente en el circuito integrado donde se almacena con un programador de memorias. Los principales proveedores de BIOS son American Megatrends (AMI), General Software, Insyde Software, y Phoenix Technologies (que compró Award Software International en 1998

    RAM son las siglas de random access memory, un tipo de memoria de ordenador a la que se puede acceder aleatoriamente; es decir, se puede acceder a cualquier byte de memoria sin acceder a los bytes precedentes. La memoria RAM es el tipo de memoria más común en ordenadores y otros dispositivos como impresorasRAM) es la memoria desde donde el procesador recibe las instrucciones y guarda los resultadosLa frase memoria RAM se utiliza frecuentemente para referirse a los módulos de memoria que se usan en los computadores personales y servidores. En el sentido estricto, los modulos de memoria contienen un tipo, entre varios de memoria de acceso aleatorio, ya que las ROM, memorias Flash, caché (SRAM), los registros en procesadores y otras unidades de procesamiento también poseen la cualidad de presentar retardos de acceso iguales para cualquier posición. Los módulos de RAM son la presentación comercial de este tipo de memoria, que se compone de circuitos integrados soldados sobre un circuito impreso, en otros dispositivos como las consolas de videojuegos, esa misma memoria va soldada sobre la placa principal.

    Es en esta parte del tiempo, en donde se puede hablar de un área de trabajo para la mayor parte del software de un computador. La RAM continua siendo volátil por lo que posee la capacidad de perder la información una vez que se agote su fuente de energía.[1] Existe una memoria intermedia entre el procesador y la RAM, llamada caché, pero ésta sólo es una copia (de acceso rápido) de la memoria principal (típicamente discos duros) almacenada en los módulos de RAM.[1]

    4MB de memoria RAM para un computador VAX de finales de los 70. Los integrados de memoria DRAM están agrupados arriba a derecha e izquierda.
    Módulos de memoria tipo SIPP instalados directamente sobre la placa base.

    La denominación “de Acceso aleatorio” surgió para diferenciarlas de las memoria de acceso secuencial, debido a que en los comienzos de la computación, las memorias principales (o primarias) de las computadoras eran siempre de tipo RAM y las memorias secundarias (o masivas) eran de acceso secuencial (cintas o tarjetas perforadas). Es frecuente pues que se hable de memoria RAM para hacer referencia a la memoria principal de una computadora, pero actualmente la denominación no es precisa.

    Uno de los primeros tipos de memoria RAM fue la memoria de núcleo magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo de circuitos integrados a finales de los años 60 y principios de los 70. Antes que eso, las computadoras usaban relés y líneas de retardo de varios tipos construidas con tubos de vacío para implementar las funciones de memoria principal con o sin acceso aleatorio.

    En 1969 fueron lanzadas una de las primeras memorias RAM basadas en semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bits de memoria y para el siguiente año se presentó una memoria DRAM de 1 Kibibyte, referencia 1103 que se constituyó en un hito, ya que fue la primera en ser comercializada con éxito, lo que significó el principio del fin para las memorias de núcleo magnético. En comparación con los integrados de memoria DRAM actuales, la 1103 es primitiva en varios aspectos, pero tenía un desempeño mayor que la memoria de núcleos.

    En 1973 se presentó una innovación que permitió otra miniaturización y se convirtió en estándar para las memorias DRAM: la multiplexación en tiempo de la direcciones de memoria. MOSTEK lanzó la referencia MK4096 de 4Kb en un empaque de 16 pines,[2] mientras sus competidores las fabricaban en el empaque DIP de 22 pines. El esquema de direccionamiento[3] se convirtió en un estándar de facto debido a la gran popularidad que logró esta referencia de DRAM. Para finales de los 70 los integrados eran usados en la mayoría de computadores nuevos, se soldaban directamente a las placas base o se instalaban en zócalos, de manera que ocupaban un área extensa de circuito impreso. Con el tiempo se hizo obvio que la instalación de RAM sobre el impreso principal, impedía la miniaturización , entonces se idearon los primeros módulos de memoria como el SIPP, aprovechando las ventajas de la construcción modular. El formato SIMM fue una mejora al anterior, eliminando los pines metálicos y dejando unas áreas de cobre en uno de los bordes del impreso, muy similares a los de las tarjetas de expansión, de hecho los módulos SIPP y los primeros SIMM tienen la misma distribución de pines.

    A finales de los 80 el aumento en la velocidad de los procesadores y el aumento en el ancho de banda requerido, dejaron rezagadas a las memorias DRAM con el esquema original MOSTEK, de manera que se realizaron una serie de mejoras en el direccionamiento como las siguientes:

    Módulos formato SIMM de 30 y 72 pines, los últimos fueron utilizados con integrados tipo EDO-RAM.
    • FPM-RAM (Fast Page Mode RAM)

    Inspirado en técnicas como el "Burst Mode" usado en procesadores como el Intel 486,[4] se implantó un modo direccionamiento en el que el controlador de memoria envía una sola dirección y recibe a cambio esa y varias consecutivas sin necesidad de generar todas las direcciones. Esto supone un ahorro de tiempos ya que ciertas operaciones son repetitivas cuando se desea acceder a muchas posiciones consecutivas. Funciona como si deseáramos visitar todas las casas en una calle: después de la primera vez no seria necesario decir el número de la calle únicamente seguir la misma. Se fabricaban con tiempos de acceso de 70 ó 60 ns y fueron muy populares en sistemas basados en el 486 y los primeros Pentium.

    • EDO-RAM (Extended Data Output RAM)

    Lanzada en 1995 y con tiempos de accesos de 40 o 30 ns suponía una mejora sobre su antecesora la FPM. La EDO, también es capaz de enviar direcciones contiguas pero direcciona la columna que va utilizar mientras que se lee la información de la columna anterior, dando como resultado una eliminación de estados de espera, manteniendo activo el buffer de salida hasta que comienza el próximo ciclo de lectura.

    • BEDO-RAM (Burst Extended Data Output RAM)

    Fue la evolución de la EDO RAM y competidora de la SDRAM, fue presentada en 1997. Era un tipo de memoria que usaba generadores internos de direcciones y accedía a mas de una posición de memoria en cada ciclo de reloj, de manera que lograba un desempeño un 50% mejor que la EDO. Nunca salió al mercado, dado que Intel y otros fabricantes se decidieron por esquemas de memoria sincrónicos que si bien tenían mucho del direccionamiento MOSTEK, agregan funcionalidades distintas como señales de reloj.Arquitectura base

    En origen, la memoria RAM se componía de hilos de cobre que atravesaban toroides de ferrita, la corriente polariza la ferrita. Mientras esta queda polarizada, el sistema puede invocar al procesador accesos a partes del proceso que antes (en un estado de reposo) no es posible acceder. En sus orígenes, la invocación a la RAM, producía la activación de contactores, ejecutando instrucciones del tipo AND, OR y NOT. La programación de estos elementos, consistía en la predisposición de los contactores para que, en una línea de tiempo, adquiriesen las posiciones adecuadas para crear un flujo con un resultado concreto. La ejecución de un programa, provocaba un ruido estruendoso en la sala en la cual se ejecutaba dicho programa, por ello el área central de proceso estaba separada del área de control por mamparas insonorizadas.

    Con las nuevas tecnologías, las posiciones de la ferrita se ha ido sustituyendo por, válvulas de vacío, transistores y en las últimas generaciones, por un material sólido dieléctrico. Dicho estado estado sólido dieléctrico tipo DRAM permite que se pueda tanto leer como escribir información.

     Uso por el sistema

    Se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan "de acceso aleatorio" porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible.

     Módulos de memoria RAM

    Formato SO-DIMM.

    Los módulos de memoria RAM son tarjetas de circuito impreso que tienen soldados integrados de memoria DRAM por una o ambas caras. La implementación DRAM se basa en una topología de Circuito eléctrico que permite alcanzar densidades altas de memoria por cantidad de transistores, logrando integrados de decenas o cientos de Megabits. Además de DRAM, los módulos poseen un integrado que permiten la identificación del mismos ante el computador por medio del protocolo de comunicación SPD.

    La conexión con los demás componentes se realiza por medio de un área de pines en uno de los filos del circuito impreso, que permiten que el modulo al ser instalado en un zócalo apropiado de la placa base, tenga buen contacto eléctrico con los controladores de memoria y las fuentes de alimentación. Los primeros módulos comerciales de memoria eran SIPP de formato propietario, es decir no había un estándar entre distintas marcas. Otros módulos propietarios bastante conocidos fueron los RIMM, ideados por la empresa RAMBUS.

    La necesidad de hacer intercambiable los módulos y de utilizar integrados de distintos fabricantes condujo al establecimiento de estándares de la industria como los JEDEC.

    • Módulos SIMM: Formato usado en computadores antiguos. Tenían un bus de datos de 16 o 32 bits
    • Módulos DIMM: Usado en computadores de escritorio. Se caracterizan por tener un bus de datos de 64 bits.
    • Módulos SO-DIMM: Usado en computadores portátiles. Formato miniaturizado de DIMM.

     Relación con el resto del sistema

    Diagrama de la arquitectura de un ordenador.

    Dentro de la jerarquía de memoria la RAM se encuentra en un nivel después de los registros del procesador y de las cachés. Es una memoria relativamente rápida y de una capacidad media: sobre el año 2010), era fácil encontrar memorias con velocidades de más de 1 Ghz, y capacidades de hasta 8 GB por módulo, llegando a verse memorias pasando la barrera de los 3 Ghz por esa misma fecha mediante overclock. La memoria RAM contenida en los módulos, se conecta a un controlador de memoria que se encarga de gestionar las señales entrantes y salientes de los integrados DRAM. Algunas señales son las mismas que se utilizan para utilizar cualquier memoria: Direcciones de las posiciones, datos almacenados y señales de control.

    El controlador de memoria debe ser diseñado basándose en una tecnología de memoria, por lo general soporta solo una, pero existen excepciones de sistemas cuyos controladores soportan dos tecnologías (por ejemplo SDR y DDR o DDR1 y DDR2), esto sucede en las épocas transitorias de una nueva tecnología de RAM. Los controladores de memoria en sistemas como PC y servidores se encuentran embebidos en el llamado "North Bridge" o "Puente Norte" de la placa base; o en su defecto, dentro del mismo procesador (en el caso de los procesadores desde AMD Athlon 64 e Intel Core i7) y son los encargados de manejar la mayoría de información que entra y sale del procesador.

    Las señales básicas en el módulo están divididas en dos buses y un conjunto misceláneo de líneas de control y alimentación. Entre todas forman el bus de memoria:

    • Bus de datos: Son las líneas que llevan información entre los integrados y el controlador. Por lo general están agrupados en octetos siendo de 8,16,32 y 64 bits, cantidad que debe igualar el ancho del bus de datos del procesador. En el pasado, algunos formatos de modulo, no tenían un ancho de bus igual al del procesador.En ese caso había que montar módulos en pares o en situaciones extremas, de a 4 módulos, para completar lo que se denominaba banco de memoria, de otro modo el sistema no funciona. Esa es la principal razón de haber aumentar el número de pines en los módulos, igualando el ancho de bus de procesadores como el Pentium de 64 bits a principios de los 90.
    • Bus de direcciones: Es un bus en el cual se colocan las direcciones de memoria a las que se requiere acceder. No es igual al bus de direcciones del resto del sistema, ya que está multiplexado de manera que la dirección se envía en dos etapas.Para ello el controlador realiza temporizaciones y usa las líneas de control. En cada estándar de módulo se establece un tamaño máximo en bits de este bus, estableciendo un límite teórico de la capacidad máxima por módulo.
    • Señales misceláneas: Entre las que están las de la alimentación (Vdd, Vss) que se encargan de entregar potencia a los integrados. Están las líneas de comunicación para el integrado de presencia que da información clave acerca del módulo. También están las líneas de control entre las que se encuentran las llamadas RAS (row address strobe) y CAS (column address strobe) que controlan el bus de direcciones y las señales de reloj en las memorias sincrónicas SDRAM.

    Entre las características sobresalientes del controlador de memoria, está la capacidad de manejar la tecnología de canal doble (Dual Channel), tres canales, o incluso cuatro para los procesadores venideros; donde el controlador maneja bancos de memoria de 128 bits. Aunque el ancho del bus de datos del procesador sigue siendo de 64 bits, el controlador de memoria puede entregar los datos de manera intercalada, optando por uno u otro canal, reduciendo las latencias vistas por el procesador. La mejora en el desempeño es variable y depende de la configuración y uso del equipo. Esta característica ha promovido la modificación de los controladores de memoria, resultando en la aparición de nuevos chipsets (la serie 865 y 875 de Intel) o de nuevos zócalos de procesador en los AMD (el 939 con canal doble , reemplazo el 754 de canal sencillo). Los equipos de gama media y alta por lo general se fabrican basados en chipsets o zócalos que soportan doble canal o superior.

     Tecnologías de memoria

    La tecnología de memoria actual usa una señal de sincronización para realizar las funciones de lectura-escritura de manera que siempre esta sincronizada con un reloj del bus de memoria, a diferencia de las antiguas memorias FPM y EDO que eran asíncronas. Hace más de una década toda la industria se decantó por las tecnologías síncronas, ya que permiten construir integrados que funcionen a una frecuencia superior a 66 Mhz (A día de hoy, se han superado con creces los 1600 Mhz).

    Memorias RAM con tecnologías usadas en la actualidad.

    SDR SDRAM

    Artículo principal: SDRAM

    Memoria síncrona, con tiempos de acceso de entre 25 y 10 ns y que se presentan en módulos DIMM de 168 contactos. Fue utilizada en los Pentium II y en los Pentium III , así como en los AMD K6, AMD Athlon K7 y Duron. Está muy extendida la creencia de que se llama SDRAM a secas, y que la denominación SDR SDRAM es para diferenciarla de la memoria DDR, pero no es así, simplemente se extendió muy rápido la denominación incorrecta. El nombre correcto es SDR SDRAM ya que ambas (tanto la SDR como la DDR) son memorias síncronas dinámicas. Los tipos disponibles son:

    • PC100: SDR SDRAM, funciona a un máx de 100 MHz.
    • PC133: SDR SDRAM, funciona a un máx de 133 MHz.

     DDR SDRAM

    Artículo principal: DDR SDRAM

    Memoria síncrona, envía los datos dos veces por cada ciclo de reloj. De este modo trabaja al doble de velocidad del bus del sistema, sin necesidad de aumentar la frecuencia de reloj. Se presenta en módulos DIMM de 184 contactos. Los tipos disponibles son:

    • PC2100 o DDR 266: funciona a un máx de 133 MHz.
    • PC2700 o DDR 333: funciona a un máx de 166 MHz.
    • PC3200 o DDR 400: funciona a un máx de 200 MHz.

    DDR2 SDRAM

    SDRAM DDR2.
    Artículo principal: DDR2

    Las memorias DDR 2 son una mejora de las memorias DDR (Double Data Rate), que permiten que los búferes de entrada/salida trabajen al doble de la frecuencia del núcleo, permitiendo que durante cada ciclo de reloj se realicen cuatro transferencias. Se presentan en módulos DIMM de 240 contactos. Los tipos disponibles son:

    • PC2-4200 o DDR2-533: funciona a un máx de 533 MHz.
    • PC2-5300 o DDR2-667: funciona a un máx de 667 MHz.
    • PC2-6400 o DDR2-800: funciona a un máx de 800 MHz.
    • PC2-8600 o DDR2-1066: funciona a un máx de 1066 MHz.

    DDR3 SDRAM

    Artículo principal: DDR3

    Las memorias DDR 3 son una mejora de las memorias DDR 2, proporcionan significantes mejoras en el rendimiento en niveles de bajo voltaje, lo que lleva consigo una disminución del gasto global de consumo. Los módulos DIMM DDR 3 tienen 240 pines, el mismo número que DDR 2; sin embargo, los DIMMs son físicamente incompatibles, debido a una ubicación diferente de la muesca. Los tipos disponibles son:

    • PC3-8600 o DDR3-1066: funciona a un máx de 1066 MHz.
    • PC3-10600 o DDR3-1333: funciona a un máx de 1333 MHz.
    • PC3-12800 o DDR3-1600: funciona a un máx de 1600 MHz.

     RDRAM (Rambus DRAM)

    Artículo principal: RDRAM

    Memoria de gama alta basada en un protocolo propietario creado por la empresa Rambus, lo cual obliga a sus compradores a pagar regalías en concepto de uso. Esto ha hecho que el mercado se decante por la tecnología DDR, libre de patentes, excepto algunos servidores de grandes prestaciones (Cray) y la consola PlayStation 3. La RDRAM se presenta en módulos RIMM de 184 contactos.

     Detección y corrección de errores

    Existen dos clases de errores en los sistemas de memoria, las fallas (Hard fails) que son daños en el hardware y los errores (soft errors) provocados por causas fortuitas. Los primeros son relativamente fáciles de detectar (en algunas condiciones el diagnóstico es equivocado), los segundos al ser resultado de eventos aleatorios, son más difíciles de hallar. En la actualidad la confiabilidad de las memorias RAM frente a los errores, es suficientemente alta como para no realizar verificación sobre los datos almacenados, por lo menos para aplicaciones de oficina y caseras. En los usos más críticos, se aplican técnicas de corrección y detección de errores basadas en diferentes estrategias:

    • La técnica del bit de paridad consiste en guardar un bit adicional por cada byte de datos, y en la lectura se comprueba si el número de unos es par (paridad par) o impar (paridad impar), detectándose así el error.
    • Una técnica mejor es la que usa ECC, que permite detectar errores de 1 a 4 bits y corregir errores que afecten a un sólo bit esta técnica se usa sólo en sistemas que requieren alta fiabilidad.

    Por lo general los sistemas con cualquier tipo de protección contra errores tiene un costo más alto, y sufren de pequeñas penalizaciones en desempeño, con respecto a los sistemas sin protección. Para tener un sistema con ECC o paridad, el chipset y las memorias debe tener soportar esas tecnologías. La mayoría de placas base no poseen dicho soporte.

    Para los fallos de memoria se pueden utilizar herramientas de software especializadas que realizan pruebas integrales sobre los módulos de memoria RAM. Entre estos programas uno de los más conocidos es la aplicación Memtest86+ que detecta fallos de memoria.

    Memoria RAM registrada

    Es un tipo de módulo usado frecuentemente en servidores y equipos especiales. Poseen circuitos integrados que se encargan de repetir las señales de control y direcciones. Las señales de reloj son reconstruidas con ayuda del PLL que está ubicado en el módulo mismo. Las señales de datos pasan directamente del bus de memoria a los CI de memoria DRAM.

    Estas características permiten conectar múltiples módulos de memoria (más de 4) de alta capacidad sin que haya perturbaciones en las señales del controlador de memoria, haciendo posible sistemas con gran cantidad de memoria principal (8 a 16 GiB). Con memorias no registradas, no es posible, debido a los problemas surgen de sobrecarga eléctrica a las señales enviadas por el controlador, fenómeno que no sucede con las registradas por estar de algún modo aisladas.

    Entre las desventajas de estos módulos están el hecho de que se agrega un ciclo de retardo para cada solicitud de acceso a una posición no consecutiva y por supuesto el precio, que suele ser mucho más alto que el de las memorias de PC. Este tipo de módulos es incompatible con los controladores de memoria que no soportan el modo registrado, a pesar de que se pueden instalar físicamente en el zócalo. Se pueden reconocer visualmente porque tienen un integrado mediano, cerca del centro geométrico del circuito impreso, además de que estos módulos suelen ser algo más altos.

    RON

    Un CD-ROM (siglas del inglés Compact Disc - Read Only Memory, "Disco Compacto - Memoria de Sólo Lectura"), es un disco compacto utilizado para almacenar información no volátil, el mismo medio utilizado por los CD de audio, puede ser leído por un computador con lectora de CD. Un CD-ROM es un disco de plástico plano con información digital codificada en una espiral desde el centro hasta el borde exterior.

    El denominado Yellow Book (o Libro Amarillo) que define el CD-ROM estándar fue establecido en 1985 por Sony y Philips. Pertenece a un conjunto de libros de colores conocido como Rainbow Books que contiene las especificaciones técnicas para todos los formatos de discos compactos.

    Microsoft y Apple Computer fueron entusiastas promotores del CD-ROM. John Sculley, que era CEO de Apple, dijo en 1987 que el CD-ROM revolucionaría el uso de computadoras personales.

    La Unidad de CD-ROM debe considerarse obligatoria en cualquier computador que se ensamble o se construya actualmente, porque la mayoría del software se distribuye en CD-ROM. Algunas de estas unidades leen CD-ROM y graban sobre los discos compactos de una sola grabada(CD-RW). Estas unidades se llaman quemadores, ya que funcionan con un láser que "quema" la superficie del disco para grabar la información.

    Actualmente, aunque aún se utilizan, están empezando a caer en desuso desde que empezaron a ser sustituidos por unidades de DVD. Esto se debe principalmente a las mayores posibilidades de información, ya que un DVD-ROM supera en capacidad a un CD-ROM

    La memoria ROM, (read-only memory) o memoria de sólo lectura, es la memoria que se utiliza para almacenar los programas que ponen en marcha el ordenador y realizan los diagnósticos. La memoria ROM es aquella memoria de almacenamiento que permite sólo la lectura de la información y no su destrucción, independientemente de la presencia o no de una fuente de energía que la alimente.

    La memoria de sólo lectura o ROM (acrónimo en inglés de read-only memory) es una clase de medio de almacenamiento utilizado en ordenadores y otros dispositivos electrónicos. Los datos almacenados en la ROM no se pueden modificar -al menos no de manera rápida o fácil- y se utiliza principalmente para contener el firmware (programa que está estrechamente ligado a hardware específico, y es poco probable que requiera actualizaciones frecuentes) u otro contenido vital para el funcionamiento del dispositivo.

    En su sentido más estricto, se refiere sólo a máscara ROM -en inglés MROM- (el más antiguo tipo de estado sólido ROM), que se fabrica con los datos almacenados de forma permanente, y por lo tanto, su contenido no puede ser modificado. Sin embargo, las ROM más modernas, como EPROM y Flash EEPROM se pueden borrar y volver a programar varias veces, aún siendo descritos como "memoria de sólo lectura (ROM), porque el proceso de reprogramación en general es poco frecuente, relativamente lento y, a menudo, no se permite la escritura en lugares aleatorios de la memoria. A pesar de la simplicidad de la ROM, los dispositivos reprogramables son más flexibles y económicos, por dicha razón, las máscaras ROM no se suelen encontrar en hardware producido a partir de 2007

    Procesador

    El término "procesador" puede referirse a los siguientes artículos:

    Sistema operativ

    Intereaccion entre el SO con el resto de las partes.
    Estimación del uso de sistemas operativos según una muestra de computadoras con acceso a Internet en Noviembre de 2009

    Un Sistema operativo (SO) es un software que actúa de interfaz entre los dispositivos de hardware y los programas usados por el usuario para utilizar un computador.[1] Es responsable de gestionar, coordinar las actividades y llevar a cabo el intercambio de los recursos y actúa como estación para las aplicaciones que se ejecutan en la máquina.

    Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo, pues este, es sólo el núcleo y no necesita de entorno operador para estar operativo y funcional.[2] [3] Uno de los más prominentes ejemplos de esta diferencia, es el SO Linux,[4] el cual junto a las herramientas GNU, forman las llamadas distribuciones Linux.

    Este error de precisión, se debe a la modernización de la informática llevada a cabo a finales de los 80, cuando la filosofía de estructura básica de funcionamiento de los grandes computadores[5] se rediseñó a fin de llevarla a los hogares y facilitar su uso, cambiando el concepto de computador multiusuario, (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más sencillo de gestionar.[6] (Véase AmigaOS, beOS o MacOS como los pioneros[7] de dicha modernización, cuando los Amiga, fueron bautizados con el sobrenombre de Video Toasters[8] por su capacidad para la Edición de vídeo en entorno multitarea round robin, con gestión de miles de colores e interfaces intuitivos para diseño en 3D con programas como Imagine[9] o Scala multimedia, entre muchos otros.)[10]

    Uno de los propósitos de un sistema operativo como programa estación principal, consiste en gestionar los recursos de localización y protección de acceso del hardware, hecho que alivia a los programadores de aplicaciones de tener que tratar con estos detalles. Se encuentran en la mayoría de los aparatos electrónicos que utilizan microprocesadores para funcionar. (teléfonos móviles, reproductores de DVD, computadoras, radios, etc.)

    Parte de la infraestructura de la World Wide Web está compuesta por el Sistema Operativo de Internet, creado por Cisco Systems para gestionar equipos de interconexión como los conmutadores y los enrutadores.

    Sistemas operativos multiprogramados

    Surge un nuevo avance en el hardware: el hardware con protección de memoria. Lo que ofrece nuevas soluciones a los problemas de rendimiento:

    • Se solapa el cálculo de unos trabajos con la entrada/salida de otros trabajos.
    • Se pueden mantener en memoria varios programas.
    • Se asigna el uso de la CPU a los diferentes programas en memoria.

    Debido a los cambios anteriores, se producen cambios en el monitor residente, con lo que éste debe abordar nuevas tareas, naciendo lo que se denomina como Sistemas Operativos multiprogramados, los cuales cumplen con las siguientes funciones:

    • Administrar la memoria.
    • Gestionar el uso de la CPU (planificación).
    • Administrar el uso de los dispositivos de E/S.

    Cuando desempeña esas tareas, el monitor residente se transforma en un sistema operativo multiprogramado.

    Llamadas al sistema operativo

    Definición breve: llamadas que ejecutan los programas de aplicación para pedir algún servicio al SO.

    Cada SO implementa un conjunto propio de llamadas al sistema. Ese conjunto de llamadas es la interfaz del SO frente a las aplicaciones. Constituyen el lenguaje que deben usar las aplicaciones para comunicarse con el SO. Por ello si cambiamos de SO, y abrimos un programa diseñado para trabajar sobre el anterior, en general el programa no funcionará, a no ser que el nuevo SO tenga la misma interfaz. Para ello:

    • Las llamadas correspondientes deben tener el mismo formato.
    • Cada llamada al nuevo SO tiene que dar los mismos resultados que la correspondiente del anterior.

    Modos de ejecución en un CPU

    Las aplicaciones no deben poder usar todas las instrucciones de la CPU. No obstante el Sistema Operativo, tiene que poder utilizar todo el juego de instrucciones del CPU. Por ello, una CPU debe tener (al menos) dos modos de operación diferentes:

    • Modo usuario: el CPU podrá ejecutar sólo las instrucciones del juego restringido de las aplicaciones.
    • Modo supervisor: la CPU debe poder ejecutar el juego completo de instrucDefinición de Sistema Operativo

    2. Tipos de Sistemas Operativos.

    Actualmente los sistemas operativos se clasifican en tres clasificaciones: sistemas operativos por su estructura (visión interna), sistemas operativos por los servicios que ofrecen y sistemas operativos por la forma en que ofrecen sus servicios (visión externa).

    3. Sistemas Operativos por Servicios(Visión Externa).

    Esta clasificación es la más comúnmente usada y conocida desde el punto de vista del usuario final. Esta clasificación se comprende fácilmente con el cuadro sinóptico que a continuación se muestra:

    Por Número de Usuarios:
    Sistema Operativo Monousuario.
    Los sistemas operativos monousuarios son aquéllos que soportan a un usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesoso tareas que el usuario pueda ejecutar en un mismo instante de tiempo. Las computadoras personales típicamente se han clasificado en este renglón.
    En otras palabras los sistemas monousuarios son aquellos que nada más puede atender a un solo usuario, gracias a las limitaciones creadas por el hardware, los programas o el tipo de aplicación que se este ejecutando.

    Sistema Operativo Multiusuario.
    Los sistemas operativos multiusuarios son capaces de dar servicio a más de un usuario a la vez, ya sea por medio de varias terminales conectadas a la computadora o por medio de sesiones remotas en una redde comunicaciones. No importa el número de procesadores en la máquina ni el número de procesos que cada usuario puede ejecutar simultáneamente.
    En esta categoría se encuentran todos los sistemas que cumplen simultáneamente las necesidades de dos o más usuarios, que comparten mismos recursos. Este tipo de sistemas se emplean especialmente en redes. En otras palabras consiste en el fraccionamiento del tiempo (timesharing).

    Por el Número de Tareas:
    Sistema Operativo Monotarea.
    Los sistemas monotarea son aquellos que sólo permiten una tarea a la vez por usuario. Puede darse el caso de un sistema multiusuario y monotarea, en el cual se admiten varios usuarios al mismo tiempo pero cada uno de ellos puede estar haciendo solo una tarea a la vez.
    Los sistemas operativos monotareas son más primitivos y, solo pueden manejar un proceso en cada momento o que solo puede ejecutar las tareas de una en una.

    Sistema Operativo Multitarea.
    Un sistema operativo multitarea es aquél que le permite al usuario estar realizando varias labores al mismo tiempo.
    Es el modo de funcionamiento disponible en algunos sistemas operativos, mediante el cual una computadora procesa varias tareas al mismo tiempo. Existen varios tipos de multitareas. La conmutación de contextos (context Switching) es un tipo muy simple de multitarea en el que dos o más aplicaciones se cargan al mismo tiempo, pero en el que solo se esta procesando la aplicación que se encuentra en primer plano (la que ve el usuario. En la multitarea cooperativa, la que se utiliza en el sistema operativo Macintosh, las tareas en segundo plano reciben tiempo de procesado durante los tiempos muertos de la tarea que se encuentra en primer plano (por ejemplo, cuando esta aplicación esta esperando informacióndel usuario), y siempre que esta aplicación lo permita. En los sistemas multitarea de tiempo compartido, como OS/2, cada tarea recibe la atención del microprocesador durante una fracción de segundo.
    Un sistema operativo multitarea puede estar editando el códigofuente de un programa durante su depuración mientras compila otro programa, a la vez que está recibiendo correo electrónico en un proceso en background. Es común encontrar en ellos interfaces gráficas orientadas al uso de menús y el ratón, lo cual permite un rápido intercambio entre las tareas para el usuario, mejorando su productividad.
    Un sistema operativo multitarea se distingue por su capacidad para soportar la ejecución concurrente de dos o más procesos
    activos. La multitarea se implementa generalmente manteniendo el código y los datos de varios procesos simultáneamente en memoria y multiplexando el procesador y los dispositivos de E/S entre ellos.
    La multitarea suele asociarse con soporte hardware y software para protección de memoria con el fin de evitar que procesos corrompan el espacio de direcciones y el comportamiento de otros procesos residentes.

    Por el Número de Procesadores:
    Sistema Operativo de Uniproceso.
    Un sistema operativo uniproceso es aquél que es capaz de manejar solamente un procesador de la computadora, de manera que si la computadora tuviese más de uno le sería inútil. El ejemplo más típico de este tipo de sistemas es el DOS y MacOS.

    Sistema Operativo de Multiproceso.
    Un sistema operativo multiproceso se refiere al número de procesadores del sistema, que es más de uno y éste es capaz de usarlos todos para distribuir su carga de trabajo. Generalmente estos sistemas trabajan de dos formas: simétrica o asimétricamente.

    Asimétrica.
    Cuando se trabaja de manera asimétrica, el sistema operativo selecciona a uno de los procesadores el cual jugará el papel de procesador maestro y servirá como pivote para distribuir la carga a los demás procesadores, que reciben el nombre de esclavos.

    Simétrica.
    Cuando se trabaja de manera simétrica, los procesos o partes de ellos (threads) son enviados indistintamente a cual quiera de los procesadores disponibles, teniendo, teóricamente, una mejor distribución y equilibrio en la carga de trabajo bajo este esquema.
    Se dice que un thread es la parte activa en memoria y corriendo de un proceso, lo cual puede consistir de un área de memoria, un conjunto de registros con valoresespecíficos, la pila y otros valores de contexto.
    Un aspecto importante a considerar en estos sistemas es la forma de crear aplicaciones para aprovechar los varios procesadores. Existen aplicaciones que fueron hechas para correr en sistemas monoproceso que no toman ninguna ventaja a menos que el sistema operativo o el compilador detecte secciones de código paralelizable, los cuales son ejecutados al mismo tiempo en procesadores diferentes. Por otro lado, el programador puede modificar sus algoritmos y aprovechar por sí mismo esta facilidad, pero esta última opción las más de las veces es costosa en horas hombre y muy tediosa, obligando al programador a ocupar tanto o más tiempo a la paralelización que a elaborar el algoritmo inicial

    Sistemas Operativos por su Estructura (Visión Interna).

    Según, se deben observar dos tipos de requisitos cuando se construye un sistema operativo, los cuales son:
    Requisitos de usuario: Sistema fácil de usar y de aprender, seguro, rápido y adecuado al uso al que se le quiere destinar.
    Requisitos del software: Donde se engloban aspectos como el mantenimiento, forma de operación, restricciones de uso, eficiencia, tolerancia frente a los errores y flexibilidad.
    A continuación se describen las distintas estructuras que presentan los actuales sistemas operativos para satisfacer las necesidades que de ellos se quieren obtener.

    Estructura Monolítica.
    Es la estructura de los primeros sistemas operativos constituidos fundamentalmente por un solo programa compuesto de un conjunto de rutinas entrelazadas de tal forma que cada una puede llamar a cualquier otra. Las características fundamentales de este tipo de estructura son:

    • Construcción del programa final a base de módulos compilados separadamente que se unen a través del ligador.
    • Buena definición de parámetros de enlace entre las distintas rutinas existentes, que puede provocar mucho acoplamiento.
    • Carecen de protecciones y privilegios al entrar a rutinas que manejan diferentes aspectos de los recursos de la computadora, como memoria, disco, etc.

    Generalmente están hechos a medida, por lo que son eficientes y rápidos en su ejecución y gestión, pero por lo mismo carecen de flexibilidad para soportar diferentes ambientes de trabajo o tipos de aplicaciones.

    Estructura Jerárquica.
    A medida que fueron creciendo las necesidades de los usuarios y se perfeccionaron los sistemas, se hizo necesaria una mayor organización del software, del sistema operativo, donde una parte del sistema contenía subpartes y esto organizado en forma de niveles.
    Se dividió el sistema operativo en pequeñas partes, de tal forma que cada una de ellas estuviera perfectamente definida y con un claro interface con el resto de elementos.
    Se constituyó una estructura jerárquica o de niveles en los sistemas operativos, el primero de los cuales fue denominado THE (Technische Hogeschool, Eindhoven), de Dijkstra, que se utilizó con fines didácticos. Se puede pensar también en estos sistemas como si fueran `multicapa'. Multics y Unix caen en esa categoría.

    En la estructura anterior se basan prácticamente la mayoría de los sistemas operativos actuales. Otra forma de ver este tipo de sistema es la denominada de anillos concéntricos o "rings".

    En el sistema de anillos, cada uno tiene una apertura, conocida como puerta o trampa (trap), por donde pueden entrar las llamadas de las capas inferiores. De esta forma, las zonas más internas del sistema operativo o núcleo del sistema estarán más protegidas de accesos indeseados desde las capas más externas. Las capas más internas serán, por tanto, más privilegiadas que las externas.

    Máquina Virtual.
    Se trata de un tipo de sistemas operativos que presentan una interface a cada proceso, mostrando una máquina que parece idéntica a la máquina real subyacente. Estos sistemas operativos separan dos conceptos que suelen estar unidos en el resto de sistemas: la multiprogramación y la máquina extendida. El objetivo de los sistemas operativos de máquina virtual es el de integrar distintos sistemas operativos dando la sensación de ser varias máquinas diferentes.
    El núcleo de estos sistemas operativos se denomina monitor virtual y tiene como misión llevar a cabo la multiprogramación, presentando a los niveles superiores tantas máquinas virtuales como se soliciten. Estas máquinas virtuales no son máquinas extendidas, sino una réplica de la máquina real, de manera que en cada una de ellas se pueda ejecutar un sistema operativo diferente, que será el que ofrezca la máquina extendida al usuario

    Cliente-Servidor(Microkernel).
    El tipo más reciente de sistemas operativos es el denominado Cliente-servidor, que puede ser ejecutado en la mayoría de las computadoras, ya sean grandes o pequeñas.
    Este sistema sirve para toda clase de aplicaciones por tanto, es de propósito general y cumple con las mismas actividades que los sistemas operativos convencionales.
    El núcleo tiene como misión establecer la comunicación entre los clientes y los servidores. Los procesos pueden ser tanto servidores como clientes. Por ejemplo, un programa de aplicación normal es un cliente que llama al servidor correspondiente para acceder a un archivo o realizar una operación de entrada/salida sobre un dispositivo concreto. A su vez, un proceso cliente puede actuar como servidor para otro." [Alcal92]. Este paradigma ofrece gran flexibilidad en cuanto a los servicios posibles en el sistema final, ya que el núcleo provee solamente funciones muy básicas de memoria, entrada/salida, archivos y procesos, dejando a los servidores proveer la mayoría que el usuario final o programador puede usar. Estos servidores deben tener mecanismos de seguridad y protección que, a su vez, serán filtrados por el núcleo que controla el hardware. Actualmente se está trabajando en una versión de UNIX que contempla en su diseño este paradigma.

    5. Sistemas Operativos por la Forma de Ofrecer sus Servicios

    Esta clasificación también se refiere a una visión externa, que en este caso se refiere a la del usuario, el cómo accesa a los servicios. Bajo esta clasificación se pueden detectar dos tipos principales: sistemas operativos de red y sistemas operativos distribuidos.

    Sistema Operativo de Red.
    Los sistemas operativos de red se definen como aquellos que tiene la capacidad de interactuar con sistemas operativos en otras computadoras por medio de un medio de transmisión con el objeto de intercambiar información, transferir archivos, ejecutar comandos remotos y un sin fin de otras actividades. El punto crucial de estos sistemas es que el usuario debe saber la sintaxis de un conjunto de comandos o llamadas al sistema para ejecutar estas operaciones, además de la ubicación de los recursos que desee accesar. Por ejemplo, si un usuario en la computadora hidalgo necesita el archivo matriz.pas que se localiza en el directorio /software/codigo en la computadora morelos bajo el sistema operativo UNIX, dicho usuario podría copiarlo a través de la red con los comandos siguientes: hidalgo% hidalgo% rcp morelos:/software/codigo/matriz.pas . hidalgo%. En este caso, el comando rcp que significa "remote copy" trae el archivo indicado de la computadora morelos y lo coloca en el directorio donde se ejecutó el mencionado comando. Lo importante es hacer ver que el usuario puede accesar y compartir muchos recursos.
    El primer Sistema Operativo de red estaba enfocado a equipos con un procesador Motorola 68000, pasando posteriormente a procesadores Intel como Novell Netware.
    Los Sistemas Operativos de red mas ampliamente usados son: Novell Netware, Personal Netware, LAN Manager, Windows NT Server, UNIX, LANtastic.

    Sistemas Operativos Distribuidos.
    Los sistemas operativos distribuidos abarcan los servicios de los de red, logrando integrar recursos ( impresoras, unidades de respaldo, memoria, procesos, unidades centrales de proceso ) en una sola máquina virtual que el usuario accesa en forma transparente. Es decir, ahora el usuario ya no necesita saber la ubicación de los recursos, sino que los conoce por nombre y simplemente los usa como si todos ellos fuesen locales a su lugar de trabajo habitual. Todo lo anterior es el marco teórico de lo que se desearía tener como sistema operativo distribuido, pero en la realidad no se ha conseguido crear uno del todo, por la complejidad que suponen: distribuir los procesos en las varias unidades de procesamiento, reintegrar sub-resultados, resolver problemas de concurrencia y paralelismo, recuperarse de fallas de algunos recursos distribuidos y consolidar la protección y seguridad entre los diferentes componentes del sistema y los usuarios. Los avances tecnológicos en las redes de área local y la creación de microprocesadoresde 32 y 64 bits lograron que computadoras mas o menos baratas tuvieran el suficiente poder en forma autónoma para desafiar en cierto grado a los mainframes, y a la vez se dio la posibilidad de intercomunicarlas, sugiriendo la oportunidad de partir procesos muy pesados en cálculo en unidades más pequeñas y distribuirlas en los varios microprocesadores para luego reunir los sub-resultados, creando así una máquina virtual en la red que exceda en poder a un mainframe. El sistema integrador de los microprocesadores que hacer ver a las varias memorias, procesadores, y todos los demás recursos como una sola entidad en forma transparente se le llama sistema operativo distribuído. Las razones para crear o adoptar sistemas distribuidos se dan por dos razones principales: por necesidad ( debido a que los problemas a resolver son inherentemente distribuidos ) o porque se desea tener más confiabilidad y disponibilidad de recursos. En el primer caso tenemos, por ejemplo, el control de los cajeros automáticos en diferentes estados de la república. Ahí no es posible ni eficiente mantener un control centralizado, es más, no existe capacidad de cómputo y de entrada/salida para dar servicio a los millones de operaciones por minuto. En el segundo caso, supóngase que se tienen en una gran empresa varios grupos de trabajo, cada uno necesita almacenar grandes cantidades de información en disco duro con una alta confiabilidad y disponibilidad. La solución puede ser que para cada grupode trabajo se asigne una partición de disco duro en servidores diferentes, de manera que si uno de los servidores falla, no se deje dar el servicio a todos, sino sólo a unos cuantos y, más aún, se podría tener un sistema con discos en espejo ( mirror ) a través de la red, de manera que si un servidor se cae, el servidor en espejo continúa trabajando y el usuario ni cuenta se da de estas fallas, es decir, obtiene acceso a recursos en forma transparente.
    Los sistemas distribuidos deben de ser muy confiables, ya que si un componente del sistema se compone otro componente debe de ser capaz de reemplazarlo.
    Entre los diferentes Sistemas Operativos distribuidos que existen tenemos los siguientes: Sprite, Solaris-MC, Mach, Chorus, Spring, Amoeba, Taos, etc.

    6. Proceso.

    Uno de los conceptos mas importantes que gira entorno a un sistema operativo es el de proceso. Un proceso es un programa en ejecución junto con el entorno asociado (registros, variables ,etc.).
    El corazón de un sistema operativo es el núcleo, un programa de control que reacciona ante cualquier interrupción de eventos externos y que da servicio a los procesos, creándolos, terminándolos y respondiendo a cualquier petición de servicio por parte de los mismos.

    Planificación del Procesador.
    La planificación del procesador se refiere a la manera o técnicas que se usan para decidir cuánto tiempo de ejecución y cuando se le asignan a cada proceso del sistema. Obviamente, si el sistema es monousuario y monotarea no hay mucho que decidir, pero en el resto de los sistemas esto es crucial para el buen funcionamiento del sistema.

    Caracteristicas a considerar de los Procesos.
    No todos los equipos de cómputo procesan el mismo tipo de trabajos, y un algoritmo de planificación que en un sistema funciona excelente puede dar un rendimiento pésimo en otro cuyos procesos tienen características diferentes. Estas características pueden ser:

    • Cantidad de Entrada/Salida: Existen procesos que realizan una gran cantidad de operaciones de entrada y salida (aplicaciones de bases de datos, por ejemplo).
    • Cantidad de Uso de CPU: Existen procesos que no realizan muchas operaciones de entrada y salida, sino que usan intensivamente la unidad central de procesamiento. Por ejemplo, operaciones con matrices.
    • Procesos de Lote o Interactivos: Un proceso de lote es más eficiente en cuanto a la lectura de datos, ya que generalmente lo hace de archivos, mientras que un programa interactivo espera mucho tiempo (no es lo mismo el tiempo de lectura de un archivo que la velocidad en que una persona teclea datos) por las respuestas de los usuarios.
    • Procesos en Tiempo Real: Si los procesos deben dar respuesta en tiempo real se requiere que tengan prioridad para los turnos de ejecución.
    • Longevidad de los Procesos: Existen procesos que típicamente requerirán varias horas para finalizar su labor, mientras que existen otros que solo necesitan algunos segundos.

    Un proceso es una actividad que se apoya en datos, recursos, un estado en cada momento y un programa.
    El Bloque de Control de Procesos (PCB).
    Un proceso se representa desde el punto de vista del sistema operativo, por un conjunto de datos donde se incluyen el estado en cada momento, recursos utilizados, registros, etc., denominado Bloque de Control de Procesos (PCB).
    Los objetivos del bloque de control de procesos son los siguientes:
    Localización de la información sobre el proceso por parte del sistema operativo.
    Mantener registrados los datos del proceso en caso de tener que suspender temporalmente su ejecución o reanudarla.
    La información contenida en el bloque de control es la siguiente:
    Estado del proceso. Información relativa al contenido del controlador del programa (Program Counter, PC), estado de procesador en cuanto a prioridad del proceso, modo de ejecución, etc., y por ultimo el estado de los registros internos de la computadora.
    Estadísticas de tiempo y ocupación de recursos para la gestión de la planificación del procesador.
    Ocupación de memoria interna y externa para el intercambio (swapping).
    Recursos en uso (normalmente unidades de entrada/salida).
    Archivos en uso.
    Privilegios.
    Estas informaciones se encuentran en memoria principal en disco y se accede a ellas en los momentos en que se hace necesaria su actualización o consulta. Los datos relativos al estado del proceso siempre se encuentran en memoria principal.
    Existe un Bloque de Control de Sistema (SCB) con objetivos similares al anterior y entre los que se encuentra el enlazado de los bloques de control de procesos existentes en el sistema.
    El cambio de contexto se producirá en caso de ejecución de una instrucción privilegiada, una llamada al sistema operativo o una interrupción, es decir, siempre que se requiera la atención de algún servicio del sistema operativo.

    Estado de los Procesos.
    Los bloques de control de los procesos se almacenan en colas, cada una de las cuales representa un estado particular de los procesos, existiendo en cada bloque, entre otras informaciones. Los estados de los procesos son internos del sistema operativo y transparentes al usuario.
    Los estados de los procesos se pueden dividir en dos tipos: activos e inactivos.
    1.- Estados activos: Son aquellos que compiten con el procesador o están en condiciones de hacerlo. Se dividen en:
    Ejecución. Estado en el que se encuentra un proceso cuando tiene el control del procesador. En un sistema monoprocesador este estado sólo lo puede tener un proceso.
    Preparado. Aquellos procesos que están dispuestos para ser ejecutados, pero no están en ejecución por alguna causa (Interrupción, haber entrado en cola estando otro proceso en ejecución, etc.).
    Bloqueado. Son los procesos que no pueden ejecutarse de momento por necesitar algún recurso no disponible (generalmente recursos de entrada/salida).
    2.- Estados inactivos: Son aquellos que no pueden competir por el procesador, pero que pueden volver a hacerlo por medio de ciertas operaciones. En estos estados se mantiene el bloque de control de proceso aparcado hasta que vuelva a ser activado. Se trata de procesos que no han terminado su trabajo que lo han impedido y que pueden volver a activarse desde el punto en que se quedaron sin que tengan que volver a ejecutarse desde el principio.
    Son de dos tipos:

    • Suspendido bloqueado. Es el proceso que fue suspendido en espera de un evento, sin que hayan desaparecido las causas de su bloqueo.
    • Suspendido programado. Es el proceso que han sido suspendido, pero no tiene causa parta estar bloqueado.

    Operaciones sobre procesos.
    Los sistemas operativos actuales poseen una serie de funciones cuyo objetivo es el de la manipulación de los procesos. Las operaciones que se pueden hacer sobre un proceso son las siguientes:
    Crear el proceso. Se produce con la orden de ejecución del programa y suele necesitar varios argumentos, como el nombre y la prioridad del proceso. Aparece en este momento el PCB, que será insertado en la cola de procesos preparados.

    La creación de un proceso puede ser de dos tipos:
    Jerárquica. En ella, cada proceso que se crea es hijo del proceso creador y hereda el entorno de ejecución de su padre. El primer proceso que ejecuta un usuario será hijo del intérprete de comandos con el que interactúa.
    No jerárquica. Cada proceso creado por otro proceso se ejecuta independientemente de su creador con un entorno diferente. Es un tipo de creación que no suele darse en los sistemas operativos actuales.
    Destruir un proceso. Se trata de la orden de eliminación del proceso con la cual el sistema operativo destruye su PCB.
    Suspender un proceso. Es un proceso de alta prioridad que paraliza un proceso que puede ser reanudado posteriormente. Suele utilizarse en ocasiones de mal funcionamiento o sobrecarga del sistema.
    Reanudar un proceso. Trata de activar un proceso que a sido previamente suspendido.
    Cambiar la prioridad de un proceso.
    Temporizar la ejecución de un proceso. Hace que un determinado proceso se ejecute cada cierto tiempo (segundos, minutos, horas...) por etapas de una sola vez, pero transcurrido un periodo de tiempo fijo.
    Despertar un proceso. Es una forma de desbloquear un proceso que habrá sido bloqueado previamente por temporización o cualquier otra causa.

    Prioridades
    Todo proceso por sus características e importancia lleva aparejadas unas determinadas necesidades de ejecución en cuanto a urgencia y asignación de recursos.
    Las prioridades según los sistemas operativos se pueden clasificar del siguiente modo:
    Asignadas por el sistema operativo. Se trata de prioridades que son asignadas a un proceso en el momento de comenzar su ejecución y dependen fundamentalmente de los privilegios de su propietario y del modo de ejecución.

    • Asignadas por el propietario.
    • Estáticas.
    • Dinámicas.

    El Núcleo del Sistema Operativo.
    Todas las operaciones en las que participan procesos son controladas por la parte del sistema operativo denominada núcleo (nucleus, core o kernel, en inglés). El núcleo normalmente representa sólo una pequeña parte de lo que por lo general se piensa que es todo el sistema operativo, pero es tal vez el código que más se utiliza. Por esta razón, el núcleo reside por lo regular en la memoria principal, mientras que otras partes del sistema operativo son cargadas en la memoria principal sólo cuando se necesitan.
    Los núcleos se diseñan para realizar "el mínimo" posible de procesamiento en cada interrupción y dejar que el resto lo realice el proceso apropiado del sistema, que puede operar mientras el núcleo se habilita para atender otras interrupciones.
    El núcleo de un sistema operativo normalmente contiene el código necesario para realizar las siguientes funciones:

    Manejo de interrupciones.
    Creación y destrucción de procesos.
    Cambio de estado de los procesos.
    Despacho.
    Suspensión y reanudación de procesos.
    Sincronización de procesos.
    Comunicación entre procesos.
    Manipulación de los bloques de control de procesos.
    Apoyo para las actividades de entrada/salida.
    Apoyo para asignación y liberación de memoria.
    Apoyo para el sistema de archivos.
    Apoyo para el mecanismo de llamada y retorno de un procedimiento.
    Apoyo para ciertas funciones de contabilidad del sistema.
    Núcleo o Kernel y niveles de un Sistema Operativo.
    El Kernel consiste en la parte principal del código del sistema operativo, el cual se encargan de controlar y administrar los servicios y peticiones de recursos y de hardware con respecto a uno o varios procesos, este se divide en 5 capas:
    Nivel 1. Gestión de Memoria: que proporciona las facilidades de bajo nivel para la gestión de memoria secundaria necesaria para la ejecución de procesos.
    Nivel 2. Procesador: Se encarga de activar los cuantums de tiempo para cada uno de los procesos, creando interrupciones de hardware cuando no son respetadas.
    Nivel 3. Entrada/Salida: Proporciona las facilidades para poder utilizar los dispositivos de E/S requeridos por procesos.
    Nivel 4. Información o Aplicación o Interprete de Lenguajes: Facilita la comunicación con los lenguajes y el sistema operativo para aceptar las ordenes en cada una de las aplicaciones. Cuando se solicitan ejecutando un programa el software de este nivel crea el ambiente de trabajo e invoca a los procesos correspondientes.
    Nivel 5. Control de Archivos: Proporciona la facilidad para el almacenamiento a largo plazo y manipulación de archivos con nombre, va asignando espacio y acceso de datos en memoria.

    El núcleo y los procesos.
    El núcleo (Kernel) de un sistema operativo es un conjunto de rutinas cuya misión es la de gestionar el procesador, la memoria, la entrada/salida y el resto de procesos disponibles en la instalación. Toda esta gestión la realiza para atender al
    funcionamiento y peticiones de los trabajos que se ejecutan en el sistema.
    Los procesos relacionados con la entidad básica de los sistemas operativos actuales: Los procesos.
    El esquema general del mismo es el siguiente:

    Definición y concepto de proceso.
    El Bloque de Control de Proceso (PCB) como imagen donde el sistema operativo ve el estado del proceso.
    Estados por los que pasa un proceso a lo largo de su existencia en la computadora.
    Operaciones que se pueden realizar sobre un proceso.
    Clasificación de los procesos según su forma de ejecución, de carga, etc.

    7. Dispositivos de Entrada y Salida.

    El código destinado a manejar la entrada y salida de los diferentes periféricos en un sistema operativo es de una extensión considerable y sumamente complejo. Resuelve la necesidades de sincronizar, atrapar interrupciones y ofrecer llamadas al sistema para los programadores.
    Los dispositivos de entrada salida se dividen, en general, en dos tipos: dispositivos orientados a bloques y dispositivos orientados a caracteres.

    Orientados a Bloques.
    Los dispositivos orientados a bloques tienen la propiedad de que se pueden direccionar, esto es, el programador puede escribir o leer cualquier bloque del dispositivo realizando primero una operación de posicionamiento sobre el dispositivo. Los dispositivos más comunes orientados a bloques son los discos duros, la memoria, discos compactos y, posiblemente, unidades de cinta.

    Orientados a Caracteres.
    Los dispositivos orientados a caracteres son aquellos que trabajan con secuencias de bytes sin importar su longitud ni ninguna agrupación en especial. No son dispositivos direccionables. Ejemplos de estos dispositivos son el teclado, la pantalla o display y las impresoras.
    La clasificación anterior no es perfecta, porque existen varios dispositivos que generan entrada o salida que no pueden englobarse en esas categorías. Por ejemplo, un reloj que genera pulsos. Sin embargo, aunque existan algunos periféricos que no se puedan categorizar, todos están administrados por el sistema operativo por medio de una parte electrónica - mecánica y una parte de software.

    8. Principios del Software de Entrada y Salida.

    Los principios de software en la entrada - salida se resumen en cuatro puntos: el software debe ofrecer manejadores de interrupciones, manejadores de dispositivos, software que sea independiente de los dispositivos y software para usuarios.

    Manejadores de Interrupciones.
    El primer objetivo referente a los manejadores de interrupciones consiste en que el programador o el usuario no debe darse cuenta de los manejos de bajo nivel para los casos en que el dispositivo está ocupado y se debe suspender el proceso o sincronizar algunas tareas. Desde el punto de vista del proceso o usuario, el sistema simplemente se tardó más o menos en responder a su petición.

    Manejadores de Dispositivos.
    El sistema debe proveer los manejadores de dispositivos necesarios para los periféricos, así como ocultar las peculiaridades del manejo interno de cada uno de ellos, tales como el formato de la información, los medios mecánicos, los niveles de voltaje y otros. Por ejemplo, si el sistema tiene varios tipos diferentes de discos duros, para el usuario o programador las diferencias técnicas entre ellos no le deben importar, y los manejadores le deben ofrecer el mismo conjunto de rutinas para leer y escribir datos.

    Software que sea independiente de los dispositivos.
    Este es un nivel superior de independencia que el ofrecido por los manejadores de dispositivos. Aquí el sistema operativo debe ser capaz, en lo más posible, de ofrecer un conjunto de utilerías para accesar periféricos o programarlos de una manera consistente. Por ejemplo, que para todos los dispositivos orientados a bloques se tenga una llamada para decidir si se desea usar 'buffers' o no, o para posicionarse en ellos.

    Software para Usuarios.
    La mayoría de las rutinas de entrada - salida trabajan en modo privilegiado, o son llamadas al sistema que se ligan a los programas del usuario formando parte de sus aplicaciones y que no le dejan ninguna flexibilidad al usuario en cuanto a la apariencia de los datos. Existen otras librerías en donde el usuario si tiene poder de decisión (por ejemplo la llamada a "printf" en el lenguaje "C"). Otra facilidad ofrecida son las áreas de trabajos encolados (spooling areas), tales como las de impresión y correo electrónico.

    9. Manejo de los Dispositivos de E/S.

    En el manejo de los dispositivos de E/S es necesario, introducir dos nuevos términos:

    Buffering (uso de memoria intermedia).
    El buffering trata de mantener ocupados tanto la CPU como los dispositivos de E/S. La idea es sencilla, los datos se leen y se almacenan en un buffer, una vez que los datos se han leído y la CPU va a iniciar inmediatamente la operación con ellos, el dispositivo de entrada es instruido para iniciar inmediatamente la siguiente lectura. La CPU y el dispositivo de entrada permanecen ocupados. Cuando la CPU esté libre para el siguiente grupo de datos, el dispositivo de entrada habrá terminado de leerlos. La CPU podrá empezar el proceso de los últimos datos leídos, mientras el dispositivo de entrada iniciará la lectura de los datos siguientes.
    Para la salida, el proceso es análogo. En este caso los datos de salida se descargan en otro buffer hasta que el dispositivo de salida pueda procesarlos.
    Este sistema soluciona en forma parcial el problema de mantener ocupados todo el tiempo la CPU y los dispositivos de E/S. Ya que todo depende del tamaño del buffer y de la velocidad de procesamiento tanto de la CPU como de los dispositivos de E/S.
    El manejo de buffer es complicado. Uno de los principales problemas reside en determinar tan pronto como sea posible que un dispositivo de E/S a finalizado una operación. Este problema se resuelve mediante las interrupciones. Tan pronto como un dispositivo de E/S acaba con una operación interrumpe a la CPU, en ese momento la CPU detiene lo que está haciendo e inmediatamente transfiere el control a una posición determinada. Normalmente las instrucciones que existen en esta posición corresponden a una rutina de servicio de interrupciones. La rutina de servicio de interrupción comprueba si el buffer no está lleno o no está vacío y entonces inicia la siguiente petición de E/S. La CPU puede continuar entonces el proceso interrumpido.
    Cada diseño de computadora tiene su propio mecanismo de interrupción, pero hay varias funciones comunes que todos contemplan.
    El buffering puede ser de gran ayuda pero pocas veces es suficiente.

    Spooling.
    El problema con los sistemas de cintas es que una lectora de tarjetas no podía escribir sobre un extremo mientras la CPU leía el otro. Los sistemas de disco eliminaron esa dificultad, moviendo la cabeza de un área del disco a otra.
    En un sistema de discos, las tarjetas se leen directamente desde la lectora sobre el disco. La posición de las imágenes de las tarjetas se registran en una tabla mantenida por el sistema operativo. En la tabla se anota cada trabajo una vez leído. Cuando se ejecuta un trabajo sus peticiones de entrada desde la tarjeta se satisfacen leyendo el disco. Cuando el trabajo solicita la salida, ésta se copia en el buffer del sistema y se escribe en el disco. Cuando la tarea se ha completado se escribe en la salida realmente.
    Esta forma de procesamiento se denomina spooling, utiliza el disco como un buffer muy grande para leer tan por delante como sea posible de los dispositivos de entrada y para almacenar los ficheros hasta que los dispositivos de salida sean capaces de aceptarlos.
    La ventaja sobre el buffering es que el spooling solapa la E/S de un trabajo con la computación de otro. Es una característica utilizada en la mayoría de los sistemas operativos.
    Afecta directamente a las prestaciones. Por el costo de algo de espacio en disco y algunas tablas, la CPU puede simultanear la computación de un trabajo con la E/S de otros. De esta manera, puede mantener tanto a la CPU como a los dispositivos de E/S trabajando con un rendimiento mucho mayor.
    Además mantiene una estructura de datos llama job spooling, que hace que los trabajos ya leídos permanezcan en el disco y el sistema operativo puede seleccionar cual ejecutar, por lo tanto se hace posible la planificación de trabajos.

    10. Administración de Archivos.

    Un archivo es un conjunto de información, que se encuentra almacenada o guardada en la memoria principal del computador, en el disco duro, en el disquete flexible o en los discos compactos (Cd-Rom).
    Antes de que un archivo pueda leerse o escribirse en él, debe abrirse, momento en el cual se verifican los permisos. Estos archivos se abren especificando en el computador la ruta de acceso al archivo desde el directorio raíz, que es la unidad principal del disco del computador, este puede ser un disco duro o disco flexible. Entonces el sistema operativo visualiza el entorno al abrir un archivo.
    Uno de los problemas mas frecuentes en el manejo de archivos son los deadlock, un deadlock es una situación no deseada de espera indefinida y se da cuando en un grupo de procesos, dos o más procesos de ese grupo esperan por llevar a cabo una tarea que será ejecutada por otro proceso del mismo grupo, entonces se produce el bloqueo. Los bloqueos se dan tanto en los sistemas operativos tradicionales como en los distribuidos, solo que en estos últimos es más difícil de prevenirlos, evitarlos e incluso detectarlos, y si se los logra detectar es muy complicado solucionarlos ya que la información se encuentra dispersa por todo el sistema.
    Una vez que un deadlock se detecta, es obvio que el sistema está en problemas y lo único que resta por hacer es una de dos cosas: tener algún mecanismo de suspensión o reanudación que permita copiar todo el contexto de un proceso incluyendo valores de memoria y aspecto de los periféricos que esté usando para reanudarlo otro día, o simplemente eliminar un proceso o arrebatarle el recurso, causando para ese proceso la pérdida de datos y tiempo.

    Seguridad de un Sistema Operativo.
    En los sistemas operativos se requiere tener una buena seguridad informática, tanto del hardware, programas y datos, previamente haciendo un balance de los requerimientos y mecanismos necesarios. Con el fin de asegurar la integridad de la información contenida.
    Dependiendo de los mecanismos utilizados y de su grado de efectividad, se puede hablar de sistemas seguros e inseguros. En primer lugar, deben imponerse ciertas características en el entorno donde se encuentra la instalación de los equipos, con el fin de impedir el acceso a personas no autorizadas, mantener un buen estado y uso del material y equipos, así como eliminar los riesgos de causas de fuerza mayor, que puedan destruir la instalación y la información contenida.
    En la actualidad son muchas las violaciones que se producen en los sistemas informáticos, en general por acceso de personas no autorizadas que obtienen información confidencial pudiendo incluso manipularla. En ocasiones este tipo de incidencias resulta grave por la naturalezade los datos; por ejemplo si se trata de datos bancarios, datos oficiales que puedan afectar a la seguridad de los estados, etc.
    El software mal intencionado que se produce por diversas causas, es decir pequeños programas que poseen gran facilidad para reproducirse y ejecutarse, cuyos efectos son destructivos nos estamos refiriendo a los virus informáticos.
    Para esto, se analizan cuestiones de seguridad desde dos perspectivas diferentes la seguridad externa y la seguridad interna.
    Todos los mecanismos dirigidos a asegurar el sistema informático sin que el propio sistema intervenga en el mismo se engloban en lo que podemos denominar seguridad externa.
    La seguridad externa puede dividirse en dos grandes grupos:
    Seguridad física. Engloba aquellos mecanismos que impiden a los agentes físicos la destrucción de la información existente en el sistema; entre ellos podemos citar el fuego, el humo, inundaciones descargas eléctricas, campos magnéticos, acceso físico de personas con no muy buena intención, entre otros.
    Seguridad de administración. Engloba los mecanismos más usuales para impedir el acceso lógico de personas físicas al sistema.
    Todos los mecanismos dirigidos a asegurar el sistema informático, siendo el propio sistema el que controla dichos mecanismos, se engloban en lo que podemos denominar seguridad interna.

     

    investigacion 3 disco duro

    Un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo no volátil, que conserva la información aún con la pérdida de energía, que emplea un sistema de grabación magnética digital. Dentro de la carcasa hay una serie de platos metálicos apilados girando a gran velocidad. Sobre los platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. Hay distintos estándares para comunicar un disco duro con la computadora; las interfaces más comunes son Integrated Drive Electronics (IDE, también llamado ATA); SCSI generalmente usado en servidores; Serial ATA, este último estandarizado en el año 2004 y FC exclusivo para servidores.

    Tal y como sale de fábrica, el disco duro no puede ser utilizado por un sistema operativo. Antes se deben definir en él un formato de bajo nivel, una o más particiones y luego hemos de darles un formato que pueda ser entendido por nuestro sistema.

    También existe otro tipo de almacenamiento, a efectos prácticos, sustituto del disco duro mecánico, denominadas Unidades de estado sólido que utilizan memorias de circuitos integrados basadas en Flash para almacenar la información. El uso de esta clase de dispositivos generalmente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya son muchísimo más asequibles para el mercado doméstico.[1] Así, el caché de pista es una memoria de estado sólido, tipo memoria RAM, dentro de una unidad de estado sólido.

    Su traducción del inglés es unidad de disco duro, pero este término es raramente utilizado, debido a la practicidad del término de menor extensión disco duro (o disco rígido).

    Estructura física

    Cabezal de lectura

    Dentro de un disco duro hay uno o varios platos (entre 2 y 4 normalmente, aunque hay hasta de 6 ó 7 platos), que son discos (de aluminio o cristal) concéntricos y que giran todos a la vez. El cabezal (dispositivo de lectura y escritura) es un conjunto de brazos alineados verticalmente que se mueven hacia dentro o fuera según convenga, todos a la vez. En la punta de dichos brazos están las cabezas de lectura/escritura, que gracias al movimiento del cabezal pueden leer tanto zonas interiores como exteriores del disco.

    Cada plato posee dos caras, y es necesaria una cabeza de lectura/escritura para cada cara. Si se observa el esquema Cilindro-Cabeza-Sector de más abajo, a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos, aunque por cuestiones comerciales, no siempre se usan todas las caras de los discos y existen discos duros con un número impar de cabezas, o con cabezas deshabilitadas. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros), debido a una finísima película de aire que se forma entre éstas y los platos cuando éstos giran (algunos discos incluyen un sistema que impide que los cabezales pasen por encima de los platos hasta que alcancen una velocidad de giro que garantice la formación de esta película). Si alguna de las cabezas llega a tocar una superficie de un plato, causaría muchos daños en él, rayándolo gravemente, debido a lo rápido que giran los platos (uno de 7.200 revoluciones por minuto se mueve a 129 km/h en el borde de un disco de 3,5 pulgadas). Direccionamiento

    Cilindro, Cabeza y Sector
    Pista (A), Sector (B), Sector de una pista (C), Clúster (D)

    Hay varios conceptos para referirse a zonas del disco:

    • Plato: cada uno de los discos que hay dentro del disco duro.
    • Cara: cada uno de los dos lados de un plato.
    • Cabeza: número de cabezales.
    • Pista: una circunferencia dentro de una cara; la pista 0 está en el borde exterior.
    • Cilindro: conjunto de varias pistas; son todas las circunferencias que están alineadas verticalmente (una de cada cara).
    • Sector : cada una de las divisiones de una pista. El tamaño del sector no es fijo, siendo el estándar actual 512 bytes, aunque próximamente serán 4 KB. Antiguamente el número de sectores por pista era fijo, lo cual desaprovechaba el espacio significativamente, ya que en las pistas exteriores pueden almacenarse más sectores que en las interiores. Así, apareció la tecnología ZBR (grabación de bits por zonas) que aumenta el número de sectores en las pistas exteriores, y utiliza más eficientemente el disco duro.

    El primer sistema de direccionamiento que se usó fue el CHS (cilindro-cabeza-sector), ya que con estos tres valores se puede situar un dato cualquiera del disco. Más adelante se creó otro sistema más sencillo: LBA (direccionamiento lógico de bloques), que consiste en dividir el disco entero en sectores y asignar a cada uno un único número. Éste es el que actualmente se usa.

     Tipos de conexión

    Si hablamos de disco duro podemos citar los distintos tipos de conexión que poseen los mismos con la placa base, es decir pueden ser SATA, IDE, SCSI o SAS:

    • IDE: Integrated Device Electronics ("Dispositivo con electrónica integrada") o ATA (Advanced Technology Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) Hasta aproximadamente el 2004, el estándar principal por su versatilidad y asequibilidad. Son planos, anchos y alargados.
    • SCSI: Son interfaces preparadas para discos duros de gran capacidad de almacenamiento y velocidad de rotación. Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 milisegundos y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en los discos SCSI Estándares, los 10 Mbps en los discos SCSI Rápidos y los 20 Mbps en los discos SCSI Anchos-Rápidos (SCSI-2). Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador, lo que posibilita una mayor velocidad de transferencia.
    • SATA (Serial ATA): El más novedoso de los estándares de conexión, utiliza un bus serie para la transmisión de datos. Notablemente más rápido y eficiente que IDE. Existen tres versiones, SATA 1 de hasta 1,5 Gigabits por segundo (hoy día descatalogado), SATA 2 de hasta 3 Gigabits por segundo de velocidad de transferencia, el más extendido en la actualidad; y por último SATA 3 de hasta 6 Gigabits por segundo el cual se está empezando a hacer hueco en el mercado. Físicamente es mucho más pequeño y cómodo que los IDE, además de permitir conexión en caliente
    • SAS (Serial Attached SCSI): Interfaz de transferencia de datos en serie, sucesor del SCSI paralelo, aunque sigue utilizando comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la conexión y desconexión en caliente. Una de las principales características es que aumenta la velocidad de transferencia al aumentar el número de dispositivos conectados, es decir, puede gestionar una tasa de transferencia constante para cada dispositivo conectado, además de terminar con la limitación de 16 dispositivos existente en SCSI, es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI. Además, el conector es el mismo que en la interfaz SATA y permite utilizar estos discos duros, para aplicaciones con menos necesidad de velocidad, ahorrando costes. Por lo tanto, las unidades SATA pueden ser utilizadas por controladoras SAS pero no a la inversa, una controladora SATA no reconoce discos SAS.

    Factor de forma

    El más temprano "factor de forma" de los discos duros, heredó sus dimensiones de las disqueteras. Pueden ser montados en los mismos chasis y así los discos duros con factor de forma, pasaron a llamarse coloquialmente tipos FDD "floppy-disk drives" (en inglés).

    La compatibilidad del "factor de forma" continua siendo de 3½ pulgadas (8,89 cm) incluso después de haber sacado otros tipos de disquetes con unas dimensiones más pequeñas.

    • 8 pulgadas: 241,3×117,5×362 mm (9,5×4,624×14,25 pulgadas).
      En 1979, Shugart Associates sacó el primer factor de forma compatible con los disco duros, SA1000, teniendo las mismas dimensiones y siendo compatible con la interfaz de 8 pulgadas de las disqueteras. Había dos versiones disponibles, la de la misma altura y la de la mitad (58,7mm).
    • 5,25 pulgadas: 146,1×41,4×203 mm (5,75×1,63×8 pulgadas). Este factor de forma es el primero usado por los discos duros de Seagate en 1980 con el mismo tamaño y altura máxima de los FDD de 5¼ pulgadas, por ejemplo: 82,5 mm máximo.
      Éste es dos veces tan alto como el factor de 8 pulgadas, que comúnmente se usa hoy; por ejemplo: 41,4 mm (1,64 pulgadas). La mayoría de los modelos de unidades ópticas (DVD/CD) de 120 mm usan el tamaño del factor de forma de media altura de 5¼, pero también para discos duros. El modelo Quantum Bigfoot es el último que se usó a finales de los 90'.
    • 3,5 pulgadas: 101,6×25,4×146 mm (4×1×5.75 pulgadas).
      Este factor de forma es el primero usado por los discos duros de Rodine que tienen el mismo tamaño que las disqueteras de 3½, 41,4 mm de altura. Hoy ha sido en gran parte remplazado por la línea "slim" de 25,4mm (1 pulgada), o "low-profile" que es usado en la mayoría de los discos duros.
    • 2,5 pulgadas: 69,85×9,5-15×100 mm (2,75×0,374-0,59×3,945 pulgadas).
      Este factor de forma se introdujo por PrairieTek en 1988 y no se corresponde con el tamaño de las lectoras de disquete. Este es frecuentemente usado por los discos duros de los equipos móviles (portátiles, reproductores de música, etc...) y en 2008 fue reemplazado por unidades de 3,5 pulgadas de la clase multiplataforma. Hoy en día la dominante de este factor de forma son las unidades para portátiles de 9,5 mm, pero las unidades de mayor capacidad tienen una altura de 12,5 mm.
    • 1,8 pulgadas: 54×8×71 mm.
      Este factor de forma se introdujo por Integral Peripherals en 1993 y se involucró con ATA-7 LIF con las dimensiones indicadas y su uso se incrementa en reproductores de audio digital y su subnotebook. La variante original posee de 2GB a 5GB y cabe en una ranura de expansión de tarjeta de ordenador personal. Son usados normalmente en iPods y discos duros basados en MP3.
    • 1 pulgadas: 42,8×5×36,4 mm.
      Este factor de forma se introdujo en 1999 por IBM y Microdrive, apto para los slots tipo 2 de compact flash, Samsung llama al mismo factor como 1,3 pulgadas.
    • 0,85 pulgadas: 24×5×32 mm.
      Toshiba anunció este factor de forma el 8 de enero de 2004 para usarse en móviles y aplicaciones similares, incluyendo SD/MMC slot compatible con disco duro optimizado para vídeo y almacenamiento para micromóviles de 4G. Toshiba actualmente vende versiones de 4GB (MK4001MTD) y 8GB (MK8003MTD) 5 y tienen el Record Guinness del disco duro más pequeño.

    Los principales fabricantes suspendieron la investigación de nuevos productos para 1 pulgada (1,3 pulgadas) y 0,85 pulgadas en 2007, debido a la caída de precios de las memorias flash, aunque Samsung introdujo en el 2008 con el SpidPoint A1 otra unidad de 1,3 pulgadas.

    El nombre de "pulgada" para los factores de forma normalmente no identifica ningún producto actual (son especificadas en milímetros para los factores de forma más recientes), pero estos indican el tamaño relativo del disco, para interés de la continuidad históEstructura lógica

    Dentro del disco se encuentran:

     

     Integridad

    Debido a la distancia extremadamente pequeña entre los cabezales y la superficie del disco, cualquier contaminación de los cabezales de lectura/escritura o las fuentes puede dar lugar a un accidente en los cabezales, un fallo del disco en el que el cabezal raya la superficie de la fuente, a menudo moliendo la fina película magnética y causando la pérdida de datos. Estos accidentes pueden ser causados por un fallo electrónico, un repentino corte en el suministro eléctrico, golpes físicos, el desgaste, la corrosión o debido a que los cabezales o las fuentes sean de pobre fabricación.

    Cabezal del disco duro

    El eje del sistema del disco duro depende de la presión del aire dentro del recinto para sostener los cabezales y su correcta altura mientras el disco gira. Un disco duro requiere un cierto rango de presiones de aire para funcionar correctamente. La conexión al entorno exterior y la presión se produce a través de un pequeño agujero en el recinto (cerca de 0,5 mm de diámetro) normalmente con un filtro en su interior (filtro de respiración, ver abajo). Si la presión del aire es demasiado baja, entonces no hay suficiente impulso para el cabezal, que se acerca demasiado al disco, y se da el riesgo de fallos y pérdidas de datos. Son necesarios discos fabricados especialmente para operaciones de gran altitud, sobre 3.000 m. Hay que tener en cuenta que los aviones modernos tienen una cabina presurizada cuya presión interior equivale normalmente a una altitud de 2.600 m como máximo. Por lo tanto los discos duros ordinarios se pueden usar de manera segura en los vuelos. Los discos modernos incluyen sensores de temperatura y se ajustan a las condiciones del entorno. Los agujeros de ventilación se pueden ver en todos los discos (normalmente tienen una pegatina a su lado que advierte al usuario de no cubrir el agujero. El aire dentro del disco operativo está en constante movimiento siendo barrido por la fricción del plato. Este aire pasa a través de un filtro de recirculación interna para quitar cualquier contaminante que se hubiera quedado de su fabricación, alguna partícula o componente químico que de alguna forma hubiera entrado en el recinto, y cualquier partícula generada en una operación normal. Una humedad muy alta durante un periodo largo puede corroer los cabezales y los platos.

    Cabezal de disco duro IBM sobre el plato del disco

    Para los cabezales resistentes al magnetismo grandes (GMR) en particular, un incidente minoritario debido a la contaminación (que no se disipa la superficie magnética del disco) llega a dar lugar a un sobrecalentamiento temporal en el cabezal, debido a la fricción con la superficie del disco, y puede hacer que los datos no se puedan leer durante un periodo corto de tiempo hasta que la temperatura del cabezal se estabilice (también conocido como “aspereza térmica”, un problema que en parte puede ser tratado con el filtro electrónico apropiado de la señal de lectura).

    Los componentes electrónicos del disco duro controlan el movimiento del accionador y la rotación del disco, y realiza lecturas y escrituras necesitadas por el controlador de disco. El firmware de los discos modernos es capaz de programar lecturas y escrituras de forma eficiente en la superficie de los discos y de reasignar sectores que hayan fallado.Funcionamiento mecánico

    Piezas de un disco duro

    Un disco duro suele tener:

    • Platos en donde se graban los datos.
    • Cabezal de lectura/escritura.
    • Motor que hace girar los platos.
    • Electroimán que mueve el cabezal.
    • Circuito electrónico de control, que incluye: interfaz con la computadora, memoria caché.
    • Bolsita desecante (gel de sílice) para evitar la humedad.
    • Caja, que ha de proteger de la suciedad, motivo por el cual suele traer algún filtro de aire.

    Historia

    Antiguo disco duro de IBM (modelo 62PC, «Piccolo»), de 64,5 MB, fabricado en 1979

    Al principio los discos duros eran extraíbles, sin embargo, hoy en día típicamente vienen todos sellados (a excepción de un hueco de ventilación para filtrar e igualar la presión del aire).

    El primer disco duro, aparecido en 1956, fue el IBM 350 modelo 1, presentado con la computadora Ramac I: pesaba una tonelada y su capacidad era de 5 MB. Más grande que una nevera actual, este disco duro trabajaba todavía con válvulas de vacío y requería una consola separada para su manejo.

    Su gran mérito consistía en el que el tiempo requerido para el acceso era relativamente constante entre algunas posiciones de memoria, a diferencia de las cintas magnéticas, donde para encontrar una información dada, era necesario enrollar y desenrollar los carretes hasta encontrar el dato buscado, teniendo muy diferentes tiempos de acceso para cada posición.

    La tecnología inicial aplicada a los discos duros era relativamente simple. Consistía en recubrir con material magnético un disco de metal que era formateado en pistas concéntricas, que luego eran divididas en sectores. El cabezal magnético codificaba información al magnetizar diminutas secciones del disco duro, empleando un código binario de «ceros» y «unos». Los bits o dígitos binarios así grabados pueden permanecer intactos años. Originalmente, cada bit tenía una disposición horizontal en la superficie magnética del disco, pero luego se descubrió cómo registrar la información de una manera más compacta.

    El mérito del francés Albert Fert y al alemán Peter Grünberg (ambos premio Nobel de Física por sus contribuciones en el campo del almacenamiento magnético) fue el descubrimiento del fenómeno conocido como magnetorresistencia gigante, que permitió construir cabezales de lectura y grabación más sensibles, y compactar más los bits en la superficie del disco duro. De estos descubrimientos, realizados en forma independiente por estos investigadores, se desprendió un crecimiento espectacular en la capacidad de almacenamiento en los discos duros, que se elevó un 60% anual en la década de 1990.

    Estructura lógica de las particiones

    Dependiendo del sistema de archivos utilizado en cada partición, su estructura lógica será distinta. En los casos de MS-DOS y Windows 95, está formada por sector de arranque, FAT, copia de la FAT, directorio raíz y área de datos. De todas formas, el sector de arranque es un elemento común a todos los tipos de particiones.

    Todas las particiones tienen un sector de arranque (el primero de la partición) con información relativa a la partición. Si la partición tiene instalado un sistema operativo, este sector se encargará de arrancarlo. Si no hubiese ningún sistema operativo (como es el caso de una partición para datos) y se intentara arrancar, mostraría un mensaje de error.

     

    Índice · Publicaciones · Saulo.Net

    5. Secuencia de arranque de un ordenador

    Todos los ordenadores disponen de un pequeño programa almacenado en memoria ROM (Read Only Memory, memoria de sólo lectura), encargado de tomar el control del ordenador en el momento de encenderlo. Lo primero que hace el programa de arranque es un breve chequeo de los componentes hardware. Si todo está en orden, intenta el arranque desde la primera unidad física indicada en la secuencia de arranque. Si el intento es fallido, repite la operación con la segunda unidad de la lista y así hasta que encuentre una unidad arrancable. Si no existiese ninguna, el programa de arranque mostraría una advertencia. Esta secuencia de arranque se define en el programa de configuración del ordenador (también llamado Setup, CMOS o BIOS). Lo usual es acceder a este programa pulsando la tecla Suprimir mientras se chequea la memoria RAM, sin embargo su forma de empleo depende del modelo del ordenador. Por ejemplo, la secuencia A:, C: indica que primero se intentará arrancar desde la disquetera y si no fuera posible, desde el primer disco duro.

    Nota: Normalmente los programas de configuración utilizan la siguiente nomenclatura: la unidad A: es la primera unidad de disquete; B:, la segunda; C:, el primer disco duro; y D:, el segundo.

    Suponiendo que arrancamos desde el disco duro, el programa de arranque de la ROM cederá el control a su programa de inicialización (Master Boot). Este programa buscará en la tabla de particiones la partición activa y le cederá el control a su sector de arranque.

    El programa contenido en el sector de arranque de la partición activa procederá al arranque del sistema operativo.

    Algunas aclaraciones: Cuando compramos un disco duro nuevo, éste viene sin particionar. Esto significa que el disco duro no es arrancable y hay que configurarlo desde un disquete (o un CD-ROM). Para ello es necesario establecer la secuencia de arranque de manera que esté la disquetera antes que el disco duro (de lo contrario puede no lograrse el arranque). Por el contrario, si la secuencia de arranque es C:, A: y el disco duro es ya arrancable, no será posible arrancar desde un disquete, ya que ni siquiera lo leerá.

     

    Índice · Publicaciones · Saulo.Net

    6. Sistemas de archivos

    Un sistema de archivos es una estructura que permite tanto el almacenamiento de información en una partición como su modificación y recuperación. Para que sea posible trabajar en una partición es necesario asignarle previamente un sistema de archivos. Esta operación se denomina dar formato a una partición.

    Generalmente cada sistema de archivos ha sido diseñado para obtener el mejor rendimiento con un sistema operativo concreto (FAT para DOS, FAT32 para Windows 98, NTFS para Windows NT, HPFS para OS/2…). Sin embargo, es usual que el mismo sistema operativo sea capaz de reconocer múltiples sistemas de archivos. A continuación se comentan los sistemas de archivos más comunes.

     

    FAT (File Allocate Table, tabla de asignación de archivos)

    Este sistema de archivos se basa, como su nombre indica, en una tabla de asignación de archivos o FAT. Esta tabla es el índice del disco. Almacena los grupos utilizados por cada archivo, los grupos libres y los defectuosos. Como consecuencia de la fragmentación de archivos, es corriente que los distintos grupos que contienen un archivo se hallen desperdigados por toda la partición. La FAT es la encargada de seguir el rastro de cada uno de los archivos por la partición.

    Grupo .— Un grupo, cluster o unidad de asignación es la unidad mínima de almacenamiento de un archivo en una partición y está formada por uno o varios sectores contiguos del disco. Esto quiere decir que el espacio real ocupado por un archivo en disco será siempre múltiplo del tamaño del grupo. Además, cada grupo puede almacenar información de un solo archivo. Si no cabe en un solo grupo, se utilizarán varios (no necesariamente contiguos). Para hacernos una idea del nefasto resultado de un tamaño de grupo incorrecto, consideremos dos archivos de 1 byte cada uno. Si el tamaño del grupo es de 32 KB, se utilizarán dos grupos y el espacio real ocupado en disco habrá sido de 64 KB = ¡65.536 bytes! en vez de 2 bytes, como sería de esperar.

    Este sistema posee importantes limitaciones: nombres de archivos cortos; tamaño máximo de particiones de 2 GB; grupos (clusters) demasiados grades, con el consiguiente desaprovechamiento de espacio en disco; elevada fragmentación, que ralentiza el acceso a los archivos. Pero tiene a su favor su sencillez y compatibilidad con la mayoría de sistemas operativos.

    Debido a que la FAT de este sistema de archivos tiene entradas de 16 bits (por eso, a veces se llama FAT16), sólo se pueden utilizar 216 = 65.536 grupos distintos. Esto implica que, con el fin de aprovechar la totalidad del espacio de una partición, los grupos tengan tamaños distintos en función del tamaño de la partición. Por ejemplo, con un grupo de 16 KB se puede almacenar hasta 216 grupos * 16 KB/grupo = 220 KB = 1 GB de información. El límite de la partición (2 GB) se obtiene al considerar un grupo máximo de 32 KB (formado por 64 sectores consecutivos de 512 bytes).

     

    VFAT (Virtual FAT)

    Este sistema de archivos logra remediar uno de los mayores problemas del sistema FAT: los nombres de archivos y directorios sólo podían contener 8 caracteres de nombre y 3 de extensión. Con VFAT, se logra ampliar este límite a 255 caracteres entre nombre y extensión.

    La mayor ventaja de VFAT es que tiene plena compatibilidad con FAT. Por ejemplo, es factible utilizar la misma partición para dos sistemas operativos que utilicen uno FAT y otro VFAT (MS-DOS y Windows 95). Cuando entremos desde MS-DOS, los nombres largos de archivos se transforman en nombres cortos según unas reglas establecidas, y pueden ser utilizados de la manera habitual. De todas maneras, hay que prestar cierta atención cuando se trabaja desde MS-DOS con archivos que tienen nombres largos: no se deben realizar operaciones de copiado o borrado, ya que se corre el riesgo de perder el nombre largo del archivo y quedarnos sólo con el corto. Desde Windows 95, se trabaja de forma transparente con nombres cortos y largos.

    Tanto las particiones FAT como las VFAT están limitadas a un tamaño máximo de 2 GB. Esta es la razón por la que los discos duros mayores de este tamaño que vayan a trabajar con alguno de los dos sistemas, necesiten ser particionados en varias particiones más pequeñas. El sistema de arhivos FAT32 ha sido diseñado para aumentar este límite a 2 TB (1 terabyte = 1024 GB).

     

    FAT32 (FAT de 32 bits)

    El sistema FAT32 permite trabajar con particiones mayores de 2 GB. No solamente esto, sino que además el tamaño del grupo (cluster) es mucho menor y no se desperdicia tanto espacio como ocurría en las particiones FAT. La conversión de FAT a FAT32, se puede realizar desde el propio sistema operativo Windows 98, o bien desde utilidades como Partition Magic. Sin embargo, la conversión inversa no es posible desde Windows 98, aunque sí desde Partition Magic.

    Hay que tener en cuenta que ni MS-DOS ni las primeras versiones de Windows 95 pueden acceder a los datos almacenados en una partición FAT32. Esto quiere decir que si tenemos en la misma partición instalados MS-DOS y Windows 98, al realizar la conversión a FAT32 perderemos la posibilidad de arrancar en MS-DOS (opción "Versión anterior de MS-DOS" del menú de arranque de Windows 98). Con una conversión inversa se puede recuperar esta opción. Por estos motivos de incompatibilidades, no es conveniente utilizar este sistema de archivos en particiones que contengan datos que deban ser visibles desde otros sistemas de archivos. En los demás casos, suele ser la opción más recomendable.

    En la siguiente tabla, se comparan los tamaños de grupo utilizados según el tamaño de la partición y el sistema de archivos empleado:

     

    Tamaño de la particiónTamaño del cluster
    FATFAT32
    < 128 MB2 KBNo soportado
    128 MB - 256 MB4 KB
    256 MB - 512 MB8 KB
    512 MB - 1 GB16 KB4 KB
    1 GB - 2 GB32 KB
    2 GB - 8 GBNo soportado
    8 GB - 16 GB8 KB
    16 GB - 32 GB16 KB
    32 GB - 2 TB32 KB



    NTFS (New Technology File System, sistema de archivos de nueva tecnología)

    Este es el sistema de archivos que permite utilizar todas las características de seguridad y protección de archivos de Windows NT. NTFS sólo es recomendable para particiones superiores a 400 MB, ya que las estructuras del sistema consumen gran cantidad de espacio. NTFS permite definir el tamaño del grupo (cluster), a partir de 512 bytes (tamaño de un sector) de forma independiente al tamaño de la partición.

    Las técnicas utilizadas para evitar la fragmentación y el menor desaprovechamiento del disco, hacen de este sistema de archivos el sistema ideal para las particiones de gran tamaño requeridas en grandes ordenadores y servidores.

     

    HPFS (High Performance File System, sistema de archivos de alto rendimiento)

    HPFS es el sistema de archivos propio de OS/2. Utiliza una estructura muy eficiente para organizar los datos en las particiones.

    HPFS no utiliza grupos sino directamente sectores del disco (que equivalen a un grupo de 512 bytes). En vez de utilizar una tabla FAT al principio de la partición, emplea unas bandas distribuidas eficazmente por toda la partición. De esta forma se consigue, suprimir el elevado número de movimientos que los cabezales de lectura/escritura tienen que realizar a la tabla de asignación en una partición FAT. El resultado de este sistema es una mayor velocidad de acceso y un menor desaprovechamiento del espacio en disco.

     

    MS-DOS (y Windows 3.1) reconoce únicamente particiones FAT; Windows 95 admite tanto particiones FAT como VFAT; Windows 98 y Windows 95 OSR2 soportan FAT, VFAT y FAT32; Windows NT 4.0 admite particiones FAT, VFAT y NTFS; el futuro Windows 2000 dará soporte a las particiones FAT, VFAT, FAT32 y NTFS; Linux admite su propio sistema de archivos y, dependiendo de las versiones, la mayoría de los anteriores.

     

    Índice · Publicaciones · Saulo.Net

    7. Arranque específico de cada sistema operativo

    MS-DOS, Windows 95 y Windows 98

    Los sistemas operativos MS-DOS y Windows 9x, necesitan arrancar desde una partición primaria ubicada en la primera unidad física de disco duro. Además, la instalación de estos sistemas operativos en particiones que comiencen después de los primeros 528 MB del disco duro, puede impedir que arranquen. Según lo anterior, el lugar para situar la partición se ve reducida a los primeros 528 MB del primer disco duro. Este límite imposibilita entonces la instalación de varios sistemas operativos basados en FAT en particiones mayores de este tamaño. De todas maneras, algunos gestores de arranque (o la propia BIOS del ordenador) son capaces de cambiar la asignación de discos duros de forma que el primero sea el segundo y el segundo, el primero: en este caso particular sí sería posible arrancar una partición FAT desde una segunda unidad física.

    Windows NT

    Windows NT puede arrancar desde cualquier disco duro, ya sea desde una partición primaria o desde una partición lógica. Sin embargo, en el caso de que se instale en una partición lógica o en un disco duro distinto al primero, es necesario que el gestor de arranque de Windows NT se instale en una partición primaria del primer disco duro. Si tenemos ya instalado otro sistema operativo MS-DOS o Windows 9x, Windows NT instalará su gestor de arranque en el sector de arranque de la partición del anterior sistema operativo. Este gestor de arranque permitirá arrancar tanto el anterior sistema operativo como Windows NT (ya esté en una partición lógica o en otro disco duro).

    Linux

    Linux, al igual que Windows NT, puede instalarse en una partición primaria o en una partición lógica, en cualquiera de los discos duros. Si la instalación no se realiza en una partición primaria del primer disco duro, es necesario instalar un gestor de arranque. Linux proporciona un potente (aunque poco intuitivo) gestor de arranque llamado LILO. Las posibilidades de instalación son dos: instalarlo en la partición de Linux o en el sector de arranque del disco duro (Master Boot Record). La primera opción es preferible si Linux se instala en una partición primaria del primer disco duro (debe ser la partición activa) junto a otro sistema operativo. Para el resto de los casos, no queda más remedio que instalarlo en el Master Boot del primer disco duro. Desde aquí es capaz de redirigir el arranque incluso a una partición lógica (que, como sabemos, no se pueden activar) que contenga Linux. Nótese que, en este caso, si borramos la partición de Linux el gestor de arranque

    LILO seguirá apareciendo (ya que está antes de acceder a cualquier partición). La única manera de desinstalarlo si no podemos hacerlo desde el propio Linux, consiste en restaurar el sector de arranque original. Esto se puede lograr desde MS-DOS con la orden indocumentada FDISK /MBR.

    Otra advertencia más: algunas distribuciones de Linux (como Red Hat) no respetan el espacio libre de una partición extendida. Esto significa que hay que tener cuidado de no solapar una partición primaria de Linux con espacio libre de la partición extendida.

    En todos los casos anteriores, cuando se habla de instalar un sistema operativo en una partición primaria se asume que ésta tiene que estar activada a no ser que se utilice un gestor de arranque. En este caso, si el gestor de arranque se instala en una partición, ésta deberá activarse; pero si se instala en el sector de arranque del disco duro, la partición activa será indiferente.

     

    Índice · Publicaciones · Saulo.Net

    8. Consejos a la hora de crear particiones

    ¿Qué partición elegir?

    La principal decisión que debemos tomar a la hora de crear una partición es elegir entre primaria o lógica. Recordemos que las particiones lógicas deben ser creadas dentro de una partición primaria especial denominada partición extendida. Ya hemos visto que la mejor política que podemos seguir es utilizar, en la medida de lo posible, antes las particiones lógicas que las primarias: podemos crear un número indefinido de particiones lógicas pero sólo cuatro particiones primarias (contando la extendida).

    Las particiones primarias suelen ser el lugar ideal para instalar sistemas operativos, ya que son las únicas que se pueden activar. Los sistemas operativos MS-DOS, Windows 95 y Windows 98 sólo pueden ser instalados en particiones primarias. Y aunque Windows NT, Linux y OS/2 puedan ser instalados en particiones lógicas, puede que ésta no sea siempre la opción más acertada. La razón es que es necesario instalar algún gestor de arranque, ya sea en el sector de arranque del disco duro o en el de alguna partición primaria. Si no deseamos alterar ninguna de las particiones primarias existentes ni el sector de arranque, la única opción es realizar una instalación en una partición primaria del primer disco duro.

     

    ¿Dónde situar la partición?

    Debido a que MS-DOS y Windows 9x presentan problemas al instalarse detrás de los primeros 528 MB del disco duro, es preferible crear sus particiones al principio del disco duro (o lo antes posible, sin superar este límite). Los demás sistemas operativos, en caso de haberlos, se instalarán entonces a continuación. Generalmente suele ser más acertado instalar los sistemas operativos en el primer disco duro. Sin embargo, debido a la flexibilidad de Linux o Windows NT podemos inclinarnos por otras opciones dependiendo de la configuración actual de nuestro equipo.

     

    ¿Cuántas particiones crear?

    Algunos usuarios prefieren separar los sistemas operativos, programas y datos en sus correspondientes particiones. Esto puede aportar una mayor robustez al sistema, ya que la corrupción de los archivos del sistema operativo o los programas no afectan a los datos. Además, si utilizamos particiones separadas para los sistemas operativos y los programas, nos facilita la utilización de los mismos programas desde distintos sistemas operativos. Por ejemplo, una partición lógica FAT para programas permitiría ejecutar los mismos programas desde Windows NT (instalado en una partición NTFS) o desde Windows 98 (instalado en una partición FAT32). Pero esta disposición del disco duro aumenta su complejidad (un mayor número de unidades) y obliga a calcular a priori el tamaño de cada partición. Como ya dijimos anteriormente, las únicas particiones que deben ser primarias son las de los sistemas operativos, el resto serán lógicas.

    Una opción intermedia consiste en separar los archivos del sistema (sistema operativo y programas) de nuestros datos. De esta manera, no se utilizan tantas unidades aunque sí se ofrece una mayor seguridad y organización para nuestros datos.

     

    ¿De qué tamaño?

    Nos quedan por comentar las razones de eficiencia que nos pueden llevar a crear nuevas particiones. Para evitar desperdiciar el menor espacio posible con particiones FAT o VFAT, conviene que tengan un tamaño lo menor posible (recordemos que el tamaño del grupo depende del tamaño de la partición). Sin embargo, el aumento del número de particiones, aunque sea más eficiente, hace más complejo nuestro sistema. Debemos buscar entonces un compromiso entre el número de particiones creadas y el tamaño del grupo (cluster) empleado en cada una de ellas.

    Veamos unos ejemplos (en todos ellos suponemos que deseamos trabajar únicamente en Windows 95 con particiones FAT): si tenemos un disco duro de 2,5 GB y, ya que el máximo de una partición FAT es 2 GB, es más eficiente crear una de 1 GB (grupo de 16 KB) y otra de 1,5 GB (grupo de 32 KB) que dos de 1,25 GB (grupo de 32 KB); si tenemos un disco duro de 3 GB, es igualmente más eficiente una de 1 GB (16 KB) y otra de 2 GB (32 KB) que dos de 1,5 GB (32 KB), aunque en razones de eficiencia sería mucho mejor 3 de 1 GB (16 KB); por último, si tenemos un poco más de 1 GB libre en el disco duro es preferible crear una partición que utilice un grupo de 16 KB, aunque quede espacio sin particionar, que una de 32 KB que ocupe la totalidad del espacio, ya que a la larga el desaprovechamiento sería mayor.

     

    Problemas con las letras de unidades: orden de las particiones

    Cuando se realizan cambios en las particiones, hay que considerar los posibles efectos que esto puede desencadenar en la asignación de letras de unidades. Los sistemas operativos MS-DOS y Windows 9x utilizan la letra C para la unidad del sistema operativo. Al resto de unidades visibles se les asigna letra en el siguiente orden: particiones primarias detrás de la actual, particiones primarias de los siguientes discos duros, particiones lógicas de la unidad actual, particiones lógicas de los siguientes discos duros, particiones primarias anteriores a la actual y, por último, el resto de unidades físicas (como la unidad lectora de CD-ROM).

    Unidades visibles.— Son las unidades que se pueden ver desde un sistema operativo, es decir, aquellas que utilizan un sistema de archivos reconocido por el sistema operativo. Las particiones con un sistema de archivos incompatible con el sistema operativo no son accesibles (es como si no existiesen).

    La única letra que se puede cambiar manualmente es la del CD-ROM, el resto de letras son asignadas automáticamente sin posibilidad de cambio. En ocasiones es preferible asignar una letra alta (por ejemplo la R) a la unidad de CD-ROM ya que así no se ve afectada por los posibles cambios de configuración en las particiones.

    Para cambiar la letra del CD-ROM en MS-DOS es necesario modificar la línea del AUTOXEC.BAT que contenga la orden MSCDEX y añadir al final el modificador /L:unidad, donde unidad es la letra que deseamos asignar. Si no hay suficientes letras de unidades disponibles (por defecto sólo están permitidas hasta la D), es necesario añadir la siguiente línea al CONFIG.SYS: LASTDRIVE=Z. En este caso, se han definido todas las letras posibles de unidades (hasta la Z).

    En Windows 95 o Windows 98, elegimos Sistema del Panel de Control; seleccionamos la segunda ficha (Administrador de dispositivos); hacemos clic en el signo más a la izquierda de CD-ROM; hacemos doble clic sobre nuestra unidad de CD-ROM; y, finalmente, en el campo Letra de la primera unidad de la ficha Configuración, seleccionamos la letra que deseamos asignar a la unidad de CD-ROM.





    Windows NT, permite la asignación dinámica de letras de unidad mediante el Administrador de discos. En Windows NT, la primera letra de unidad es la primera partición primaria del primer disco duro, por lo que puede ocurrir que la propia partición de Windows NT no sea la C.

    Linux carece de estos problemas ya que no trabaja con letras de unidad sino con discos duros físicos (hda, hdb, hdc y hdd) y particiones según el lugar que ocupan en la tabla de particiones (hda1, hda2, hda3…).

    Para evitar que las mismas particiones tengan asignadas distintas letras conviene colocar primero las particiones reconocidas por más sistemas operativos (FAT) y por último las más específicas (como NTFS o la de Linux).

     

    Índice · Publicaciones · Saulo.Net

    9. Trabajar con varios sistemas operativos

    Si instalamos varios sistemas operativos en el mismo ordenador, debemos tener una manera eficiente de arrancar con cada uno de ellos. Una posibilidad poco acertada consiste en activar cada vez la partición que queremos arrancar en la próxima sesión con el ordenador. La otra posibilidad es instalar un gestor de arranque que aparezca antes de cargar algún sistema operativo.

    Los gestores de arranque suelen ofrecer un menú con los distintos sistemas operativos instalados para que el usuario elija uno de ellos cada vez que encienda el ordenador. Es frecuente que tengan alguna opción predeterminada y un contador de tiempo. Si en un tiempo establecido no se elige ninguna opción, se carga automáticamente el sistema operativo predeterminado.

    El gestor de arranque suministrado con Windows NT 4.0 se suele instalar en una partición MS-DOS o Windows 9x, y sólo permite elegir entre esta partición y la de Windows NT.

    LILO, el gestor de arranque de Linux, puede instalarse tanto en el sector de arranque del disco duro como en la partición de Linux. Reconoce la mayoría de los sistemas operativos instalados en el ordenador y puede, incluso, arrancar sistemas operativos MS-DOS o Windows 9x desde un segundo disco duro. El mayor inconveniente es su poco amistoso modo de empleo. Al cargarse aparece un mensaje (LILO Boot) pidiéndonos el nombre del sistema operativo. Es necesario escribirlo y pulsar Enter. La tecla Tabulador permite ver las opciones posibles y Enter activa la opción predeterminada.

    Otros gestores de arranque, como el de IBM (suministrado con Partition Magic 3.0), necesitan una partición primaria del primer disco duro exclusivamente para ellos. Lógicamente, ésta debe ser la partición activa. El gestor de arranque de IBM tiene una interfaz de usuario cómoda, aunque también algunas limitaciones: tiene problemas para arrancar sistemas operativos desde una unidad de disco duro diferente a la primera, ocupa una de las cuatro particiones primarias posibles del primer disco duro, y no es capaz de arrancar una partición primaria FAT32 (Windows 98) si existen en el disco duro otras particiones primarias FAT32 o FAT (como MS-DOS).

    Cuando se trabaja con varios sistemas operativos conviene elegir correctamente los sistemas de archivos de cada partición, con el fin de intercambiar y compartir datos entre los sistemas instalados.

     

    En 1992, los discos duros de 3,5 pulgadas alojaban 250 Megabytes, mientras que 10 años después habían superado 40 Gigabytes (40000 Megabytes). En la actualidad, ya contamos en el uso cotidiano con discos duros de más de 2 terabytes (TB), (2000000 Megabytes)

    En 2005 los primeros teléfonos móviles que incluían discos duros fueron presentados por Samsung y Nokia, aunque no tuvieron mucho éxito ya que las memorias flash los acabaron desplazando, sobre todo por asuntos de fragilidad.Características de un disco duro

    Las características que se deben tener en cuenta en un disco duro son:

    • Tiempo medio de acceso: Tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista), Tiempo de lectura/escritura y la Latencia media (situarse en el sector).
    • Tiempo medio de búsqueda: Tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco.
    • Tiempo de lectura/escritura: Tiempo medio que tarda el disco en leer o escribir nueva información: Depende de la cantidad de información que se quiere leer o escribir, el tamaño de bloque, el número de cabezales, el tiempo por vuelta y la cantidad de sectores por pista.
    • Latencia media: Tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo empleado en una rotación completa del disco.
    • Velocidad de rotación: Revoluciones por minuto de los platos. A mayor velocidad de rotación, menor latencia media.
    • Tasa de transferencia: Velocidad a la que puede transferir la información a la computadora una vez la aguja está situada en la pista y sector correctos. Puede ser velocidad sostenida o de pico.

    Otras características son:

    Presente y futuro

    Actualmente la nueva generación de discos duros utiliza la tecnología de grabación perpendicular (PMR), la cual permite mayor densidad de almacenamiento. También existen discos llamados "Ecológicos" (GP - Green Power), los cuales hacen un uso más eficiente de la energía.

     Unidades de Estado sólido

    Artículo principal: Unidad de estado sólido

    Las unidades de estado sólido son dispositivos electrónicos, construidos únicamente con chips de memoria flash, por ello, no son discos, pero juegan el mismo papel a efectos prácticos con todas las mejoras que ello conlleva.

    Se viene empezando a observar que las Unidades de estado sólido es posible que terminen sustituyendo al disco duro por completo a largo plazo.

    Son muy rápidos ya que no tienen partes móviles y consumen menos energía. Todos esto les hace muy fiables y físicamente casi indestructibles. Sin embargo su costo por GB es aún muy elevado ya que el coste de un disco duro común de 500 GB es equivalente a un SSD de 32 GB, 40 € aproximadamente.

    Los discos que no son discos: Las Unidades de estado sólido han sido categorizadas repetidas veces como "discos", cuando es totalmente incorrecto denominarlas así, puesto que a diferencia de sus predecesores, sus datos no se almacenan sobre superficies cilíndricas ni platos. Esta confusión conlleva habitualmente a creer que "SSD" significa Solid State Disk, en vez de Solid State Drive

     Fabricantes

    Un Western Digital 3.5 pulgadas 250 GB SATA HDD.
    Un Seagate 3.5 pulgadas 1 TB SATA HDD.

    Los recursos tecnológicos y el saber hacer requeridos para el desarrollo y la producción de discos modernos implica que desde 2007, más del 98% de los discos duros del mundo son fabricados por un conjunto de grandes empresas: Seagate (que ahora es propietaria de Maxtor), Western Digital, Samsung e Hitachi (que es propietaria de la antigua división de fabricación de discos de IBM). Fujitsu sigue haciendo discos portátiles y discos de servidores, pero dejó de hacer discos para ordenadores de escritorio en 2001, y el resto lo vendió a Western Digital. Toshiba es uno de los principales fabricantes de discos duros para portátiles de 2,5 pulgadas y 1,8 pulgadas. ExcelStor es un pequeño fabricante de discos duros.

    Decenas de ex-fabricantes de discos duros han terminado con sus empresas fusionadas o han cerrado sus divisiones de discos duros, a medida que la capacidad de los dispositivos y la demanda de los productos aumentó, los beneficios eran menores y el mercado sufrió un significativa consolidación a finales de los 80 y finales de los 90. La primera víctima en el mercado de los PC fue Computer Memories Inc.; después de un incidente con 20 MB defectuosos en discos en 1985, la reputación de CMI nunca se recuperó, y salieron del mercado de los discos duros en 1987. Otro notable fracaso fue el de MiniScribe, quien quebró en 1990: después se descubrió que tenía en marcha un fraude e inflaba el número de ventas durante varios años. Otras muchas pequeñas compañías (como Kalok, Microscience, LaPine, Areal, Priam y PrairieTek) tampoco sobrevivieron a la expulsión, y habían desaparecido para 1993; Micropolis fue capaz de aguantar hasta 1997, y JTS, un recién llegado a escena, duró sólo unos años y desapareció hacia 1999, aunque después intentó fabricar discos duros en India. Su vuelta a la fama se debió a la creación de un nuevo formato de tamaño de 3” para portátiles. Quantum e Integral también investigaron el formato de 3”, pero finalmente se dieron por vencidos. Rodime fue también un importante fabricante durante la década de los 80, pero dejó de hacer discos en la década de los 90 en medio de la reestructuración y ahora se concentra en la tecnología de la concesión de licencias; tienen varias patentes relacionadas con el formato de 3,5“.