viernes, 1 de marzo de 2013

TENDENCIAS FUTURAS

BULLDOZER.



Es el nombre que AMD asigna a su micro arquitectura, dispone de un diseño del chip capaz de disipar entre 10 a 123 Watts, el BULLDOZER es un núcleo procedente de un gran re diseño realizado por AMD para que principalmente sus procesadores sean reducidos en tamaño.

Entre sus especificaciones técnicas podemos decir que la grabación esta hecha en 32 nm, en HKMG la cual es una de las técnicas utilizadas por INTEL a partir de los CORE 2. Otra peculiaridad es que con esta micro arquitectura de AMD se puede observar la aparición de módulos en vez de núcleos.

Un MODULO es la funcion de dos unidades de enteros, y una unidad de punto flotante (2x128 bits), cada unidad con su propia memoria L1 de 2MB de cache L2 compartido, Un modulo no es exactamente equivalente a dos núcleos, a pesar de que AMD vende 1 modulo como si fueran 2 núcleos.

La estrategia de AMD sobre el uso de sus módulos es el de realizar un incremento del 80% a 90 % en relación a una DUAL CORE.



Entre sus CHIP's destacados podemos observar al FX-8120, que empaqueta a 8 núcleos de procesamiento en dos modelos diferentes, uno con una TDP de 128 Watts y la otra de 95 Watts, dispone de una velocidad de reloj de 3,1 Ghz. soporta 32 y 64 bits, tiene un escalonamiento B2, una cache L2 de 8 MB, etc.


Se puede observar en este Benchmark como responde este el FX - 8120 de AMD.

También tenemos al FX - 6100 que dispone de 6 núcleos  los cuales son implementados gracias a la tecnología CMT la cual consiste en separar un núcleo en varias unidades internas, donde se realizan los cálculos necesarios para ejecutar las instrucciones que componen los programas. Pero como estas unidades no son del tipo LÓGICO no todas realizan el mismo tipo de operaciones.


Se puede observar en este Benchmark como responde este el FX - 6100 de AMD.

REFERENCIAS MEDIANTE MEDIOS ELECTRÓNICOS.

AMD Bulldozer FX 6100 VS Phenom II x6. http://computadoras.about.com/od/comparativas/a/Amd-Bulldozer-Fx-6100-Vs-Phenom-Ii-X6.htm. 01 de Marzo del 2013.

¿En que consiste la tecnologia CMT de AMD?. http://computadoras.about.com/od/preguntas-frecuentes/a/En-Que-Consiste-La-Tecnologia-Cmt-De-Amd.htm. 01 de Marzo del 2013.

Primeros datos de los AMD Bulldozer de 8 núcleos: nuevos AMD FX-Series. http://www.xataka.com/componentes-de-pc/primeros-datos-de-los-amd-bulldozer-de-8-nucleos-nuevos-amd-fx-series. 01 de Marzo del 2013.

Las especificaciones de las CPUs AMD Bulldozer FX, filtradas accidentalmente por Gigabyte. http://news.softpedia.es/Las-especificaciones-de-las-CPUs-AMD-Bulldozer-FX-filtradas-accidentalmente-por-Gigabyte-220451.html. 01 de Marzo del 2013.

Página oficial  de AMD. http://www.amd.com/us/products/desktop/processors/amdfx/Pages/amdfx.aspx. 01 de Marzo del 2013.

miércoles, 27 de febrero de 2013

SMP ( Multiproceso Simétrico )

Para empezar con la explicación podríamos entender primero que es el multiproceso, "Es la facultad del sistema operativo para utilizar varios procesadores físicos en el equipo, repartiendo el tratamiento de los procesos del sistema operativo y de las aplicaciones" Staff, 2004, Pág. 10. Esto nos quiere decir que es la habilidad o capacidad del sistema operativo que consiste en poder realizar mas de una operación a la vez en el ordenador.


Como se puede observar en el ejemplo es una ventana de paginas web donde se puede apreciar en sus pestañas una diferente pagina web.

Existen dos tipos de multiproceso, multiproceso asimétrico o ASMP y multiproceso simétrico o SMP, nos vamos a enfocar solamente en SMP.

SMP (MULTIPROCESO SIMÉTRICO).



Es un tipo de arquitectura de computadoras en la cual dos o mas unidades de procesamiento comparten una única memoria y bus "En esta arquitectura, todos los procesadores comparten la memoria y el bus(medio físico por medio del cual los datos son transmitidos a todos los destinos)" Calle, 1996, Pág. 123. En resumen SMP se encarga que las distintas CPU's tengan el mismo trabajo.

Algunas de las ventajas del multiproceso simétrico seria que la programación de las aplicaciones es fácil  tiene una sincronización de datos sencilla.

Entre las desventajas podríamos decir que a un numero mayor de procesadores el bus podría llegar a saturarse.

REFERENCIAS BIBLIOGRÁFICAS.

J. A. Calle Guglieri (1996). Reingeniería y seguridad en el ciberespacio. Ed. Díaz de Santos, S. A.
VV Staff (2004). Windows Server 2003, Ed. ENI

miércoles, 31 de octubre de 2012

TIPOS DE PROTOCOLOS - CLASSFUL y CLASSLESS

Tomamos en cuenta a estos dos tipos de protocolos de enrutamiento que son los Classful y Classless.

Entonces podemos empezar explicando lo siguiente, los protocolos de enrutamiento son el conjunto de reglas utilizadas por un router para que cuando este se comunique con otros router pueda llegar a compartir información de enrutamiento, de este modo va a poder construir y mantener sus tablas de enrutamiento. “Los protocolos de routing son esencialmente aplicaciones en el router. Su propósito es asegurar el correcto intercambio de información y en un tiempo adecuado entre los routers de la red, para que los routers de la red puedan realizar adecuadamente la función de routing y la de switching.”(Collado, 2009, Pág. 11).

Ahora ya entendiendo que es un protocolo de enrutamiento podemos pasar a los tipos de protocolos y empezaremos por:



CLASSLESS

Son los protocolos que incluyen la máscara de subred en sus actualizaciones, de modo que las interfaces de los dispositivos de una misma red pueden tener diferentes mascaras de subredes, es decir VLSM, tienen soporte para dominios sin utilizar clases, es decir CIDR, algunas rutas pueden ser sumarizadas dentro de los límites de una clase ya que esto se hace manualmente

PROTOCOLOS QUE SOPORTA EL CLASSLESS
  • RIP 2
  • OSPF
  • EIGRP
  • IS-IS
  • BGP


CLASSFUL

Son protocolos que no transmiten la máscara de subred en sus actualizaciones, la sumarización ocurre en los límites de la red, las rutas que se intercambian entre redes diferentes se sumarizan al límite de la clase, entonces dentro de la red las rutas a las sub redes se intercambian sin la máscara de sub red, y a diferencia también de la classless todas las interfaces utilizan la misma mascara de sub red. “En este tipo de protocolos el router toma las decisiones basándose en las reglas del classful  aunque si existen en la tabla de routing una entrada a una ruta más específica a una red, esta será reenviada a esa red más específica” (Collado, 2009, Pág. 12).

PROTOCOLOS QUE SOPORTA EL CLASSFUL

  • RIP 1
  • IGRP
TABLA SOBRE LOS PROTOCOLOS


BIBLIOGRAFIA


  • Eduardo Collado Cabeza (2009). Fundamentos de routing.
  • Aaron Balchumas (2006) routeralley. 31 de Octubre del 2012,  PDF.

viernes, 26 de octubre de 2012

SEGMENTACION


La segmentación es similar a la paginación. En este caso se divide a la memoria en diferentes segmentos. A diferencia de la paginación, los segmentos pueden tener diferentes tamaños, pero tienen un tamaño máximo. Por ella es necesario que la CPU incluya registros para marcar el comienzo y el fin de la longitud del segmento.  Al igual que sucedía con la paginación no presenta fragmentación externa, pero si fragmentación interna.

Los procesos se colocan en los diferentes segmentos, pero en este caso el programador es el encargado de gestionar los segmentos. Debe ser quien se encargue de repartir los programas y los datos en los distintos segmentos disponible.

Para acceder a una determinada posición del proceso debemos conocer el comienzo del segmento, su tamaño total y el desplazamiento dentro el mismo.

Existen sistemas en los que es posible mezclar paginación y segmentación, para  tener una segmentación paginada o paginación de segmentos (Sampalo et all, 2005).

La segmentación trocea el programa en porciones más pequeñas para que pueda ser más fácil ubicarlo en memoria. Cada segmento se corresponde a una unidad lógica del programa, como el código, los datos o la pila (Candela et all, 2007).

Fig.1. Memoria Segmentada


Fuente: (Candela et all, 2007)

El procesador también divide el mega en trozos de 64K que se llaman segmentos, el programa debe conocer en todo momento debe conocer en que segmento están los datos o el código y cuál es la posición dentro del segmento.

Un segmento es un área especial en un programa que inicia en un límite de un párrafo, esto es, en una localidad regularmente divisible entre 16 o 10 hex. Aunque un segmento puede estar ubicado casi en cualquier lugar de la memoria y en modo real, puede ser hasta de 64k, solo necesita tanto espacio como el programa requiera para su ejecución.

Los registros de Segmentos son:

  •  CS (Segmento de código): Dirección de instrucción. Contiene las instrucciones de maquina que son ejecutadas. Por lo común, la primera instrucción ejecutable esta al inicio del segmento, y el sistema operativo enlaza a esa localidad para iniciar la ejecución del programa. Como su nombre lo indica, el registro del CS direcciona el segmento de código. Si su área de requiere mas de 64K su programa puede necesitar definir mas de un segmento de código.
  •       DS (Segmento de datos): Dirección de datos. Contiene datos, constantes y áreas  de trabajo definidos por el programa. El registro DS direcciona el segmento de datos. Si su área de datos requiere de mas de 64K, su programa puede necesitar definir mas de un segmento de datos.
  •  SS (Segmento de pila): Dirección de pila. En términos sencillos, la pila contiene datos y direcciones que usted necesita guardar temporalmente o para el uso de sus llamadas subrutinas. El registro del segmento de pila direcciona el segmento de pila.
  • ES (Segmento extra de datos): Dirección de destino de cadenas. 
Podemos decir que gracias a la segmentación se facilita la multiprogramación y existen zonas diferentes para el código, para los datos y para la pila.

Direccionamiento relativo

Se emplea para apuntar a direcciones de memoria dentro de un segmento, Se emplean registros Base y registros Índices. Si BX se emplea como registro base, entonces el registro de segmento que se emplea es el registro DS. Si es BP el registro base, entonces el registro de segmento empleado es el de la pila SS.

Memoria virtual Segmentada

En la memoria virtual segmentada dividimos la memoria en segmentos que pueden tener diferente longitud. Este tamaño es re-dimensionable por el sistema operativo por lo que genera un esquema mucho más flexible al programador (Sampalo et all, 2005).

Ventajas

Entre las ventajas de la segmentación tenemos:

1.    Permite aumentar la capacidad de manejo de memoria de un procesador sin cambiar las instrucciones asociadas al mismo.
2.    Facilita el uso de áreas de memoria separadas para el programa, los datos y la pila (Stack).
3.    Permite que un programa y sus datos sean colocados en diferentes áreas de memoria cada vez que el programa es ejecutado, lo que permite al sistema operativo manejar varias tareas.
4.    El uso de instrucciones de tamaño más reducido aumenta la velocidad de procesamiento ya que ahora el tiempo en el fetch y en la decodificación de la instrucción (Izaguirre-Astralóa, 2008).

REFERENCIAS BIBLIOGRÁFICAS

Sampalo, de la Torre Ma. De los Ángeles. Prieto, Tinoco José Ignacio. Garzón, Villar Ma. Luisa. Leyva, Cortés Esteban (2005). Informática. Volumen Práctico. Profesores de Educación Secundaria. Ed. Mad. España.

Candela, Santiago.García, Carmelo Rubén. Quesada, Alexis.Santana, Francisco José. Santos José Miguel(2007). Fundamentos de sistemas operativos: Teoría y ejercicios resueltos. Ed. Paraninfo. España.

Izaguirre, Aitzol Zuloaga y Astralóa, Armando Cuellar (2008). Sistema de Procesamiento Digital. Delta, Publicaciones Universitarias. España.







miércoles, 24 de octubre de 2012

CISCO DÍA 2

Tenemos la siguiente red donde vamos a configurar y re direccionar las IP de los Routers, Switch y PC.


Tenemos una red de clase “B” con la siguiente IP 172.16.0.0 la cual sería nuestro nombre de red y la que debemos dividir en cuatro porciones iguales y distribuidas, los requerimientos de cada departamento son los siguientes:
              

Cochabamba


La Paz


Santa Cruz

LAN 1: 2000 hosts
LAN 1: 4000 hosts.
LAN 1: 3000 hosts.
LAN 2: 1500 hosts.
LAN 2: 3000 hosts.
LAN 2: 2000 hosts.
LAN 3: 1000 hosts.
LAN 3: 2000 hosts.
LAN 3: 1500 hosts.
LAN 4: 500 hosts.
LAN 4: 1000 hosts.
LAN 4: 1000 hosts.

Una vez que se toma en cuenta todos los requerimientos podemos empezar a trabajar así que seleccionamos el router “HQ_1” 



Y nos vamos a la pestaña CLI (Command Line Interface) presionamos la tecla “ENTER” y nos pedirá el password de verificación de usuario, este password ya lo pusimos en el anterior caso pero para 
repetirlo es “redes” y una vez que lo introducimos nos aparece algo como esto:



Ahora hemos ingresado a la interface de línea de comandos pero para configurar nuestro router debemos estar como usuario con privilegios de modo que introducimos el comando “ENABLE” y nos volverá a pedir el password pero este no será de verificación de usuario sino será para verificar que el que está entrando a la configuración interna del router sea un usuario registrado y autorizado y este es distinto al que ingresamos primero, este es “univalle”. Y veras que si el password es aceptado te aparecerá alado del nombre del router el símbolo numeral (#).



Ahora vamos a entrar a la configuración de la terminal de modo que introducimos lo siguiente:


En este ejemplo vamos a configurar del router 1 o “HQ_1” la interface serial 0/0/0 y la FastEthernet0/0.

Empezando con la interface Serial0/0/0 para empezar a configurar esta terminal hacemos lo
siguiente:


Vamos a ir explicando un poco sobre cada línea:

  1. En la primera línea con el comando “Interface Serial0/0/0” estamos indicando el tipo de interfaz a la cual vamos a seleccionar para modificar.
  2. En la segunda línea con el comando “ip address 172.16.63.5 255.255.255.252” estamos asignando la IP que llegaría a ser “172.16.63.5” y la MASCARA DE RED que llegaría a ser “255.255.255.252” al router.
  3.  En la tercera línea con el comando “description HQ_1 hacia CBBA” estamos dando una descripción sobre desde donde y hacia donde nos va a direccionar nuestra interfaz Serial0/0/0.
  4. En la cuarta línea con el comando “no shutdown” estamos activando la configuración ya asignada a nuestro router de modo que ya empieza a funcionar con estas características.
  5. En la quinta línea del comando “clock rate 64000” estamos asignando la velocidad de transición entre los routers solamente nos sirve para configurar la conexión entre las interfaces seriales.

De modo que con estos comandos ya tenemos configurado nuestra interfaz serial0/0/0 y ahora vamos a configurar nuestra interfaz FastEthernet0/0 pero no es del todo distinto salvo una línea de código para ser exactos solo cambiaría la línea 1 de modo que les muestro a continuación.

Debemos tomar en cuenta las IP de las interfaces deben ser de distinta red y que las interfaces que están conectadas entre sí deben estar en la misma red.

Ahora vamos a entrar a la topología de Cochabamba para tomar como ejemplo la configuración de
un Computador en toda esta red.


De modo que al hacer 1 clic sobre la nube con el nombre “Cochabamba” nos aparecerá lo siguiente:


Aca podemos apreciar 3 routers, 4 switch y también 4 computadores de modo que ahora seguimos con los switch.


Como podemos observar también los switch tienen su CLI (Command Line Interface) y si bien acá se puede configurar las funciones de los puertos en este caso no es necesario, cabe recalcar que se pueden configurar sus VLAN’s.

Entonces podemos pasar a la configuración del computador haciendo un clic sobre este y nos aparecerá lo siguiente:


Entonces para configurar el PC hacemos un clic sobre la imagen de “IP Configuration” y nos aparece 
lo siguiente:


Y en la primera línea “IP Address” ponemos una IP que este con relación a nuestra interfaz conectada a nuestro “SWITCH” que en este caso es “172.16.64.1” de modo que para que nuestra PC este en la misma red ponemos la siguiente “172.16.64.2” y para que ambas también estén en el mismo grupo de red y sub red introducimos la siguiente mascara de red “255.255.248.0” y por último y muy importante es la puerta de enlace, la puerta de enlace es el IP de nuestra interfaz conectada a nuestro SWITCH, si no introducimos correctamente esto no tendremos acceso al exterior desde nuestro PC de modo que debe quedar de la siguiente manera:


Y de esta manera tenemos nuestra red totalmente configurada y funcional.
Espero les haya servido de ayuda hasta la siguiente.

sábado, 20 de octubre de 2012

DISCOS DUROS


Ahora vamos a hablar sobre lo que es un disco duro de estado sólido y también sobre lo que es un disco duro de rotación entonces vamos a comenzar por entender que es un disco duro.

Un disco duro es un dispositivo de almacenamiento no volátil que emplea un sistema de grabación magnética para almacenar datos digitales, ahora que ya sabemos que es un disco duro vamos a hablar sobre lo que son los discos duros de rotación y de estado sólido.



DISCO DURO DE ROTACIÓN.


Un disco duro es uno de los dispositivos más importantes del computador ya que en el podemos almacenar toda nuestra información  hoy en día el disco duro puede almacenar una gran cantidad de gigabytes a diferencia de los primeros discos que empezaron con una capacidad no más de 4 MB. El disco duro está formado por una serie de discos o platos que están ubicados dentro de la carcasa del aparato, estos platos normalmente van desde 2 hasta 4 su estructura es de aluminio o cristal estos giran rápidamente al ser impulsado por un motor, los platos son constituidos por pistas, que son las circunferencias de cada cara, las pistas están divididas por sectores que no tienen un tamaño fijo aunque normalmente son de 512 bytes siendo este la unidad más pequeña de almacenamiento del disco duro.

Para que los cabezales puedan acceder a toda la superficie del plato, éste gira sobre el centro y los cabezales se desplazan de forma perpendicular al sentido de movimiento.

El tiempo de búsqueda de un disco duro depende de su velocidad de rotación medida en RPM. La capacidad de un disco depende de la densidad de bits por plato y el número de platos. Normalmente un plato almacena datos por las dos caras. Cada plato almacena los datos en círculos llamados pistas, cada pista se divide en sectores.

El disco duro está dando vueltas desde que se enciende el ordenador, con el desgaste mecánico que esto conlleva. Es por ello que los ordenadores actuales los desconectan al cabo de un tiempo de no ser necesarios. Al estar desconectados y volver a ponerse en marcha debido a que el usuario quiere hacer una operación con ellos, es necesario un tiempo de aceleración para llegar a las RPM adecuadas.

Para evitar ralladuras en la superficie del disco que dañarían de forma irreversible la sustancia magnética que lo recubre, los discos duros están envasados al vacío. La distancia que separa el disco del cabezal es muy pequeña, pero no hay contacto físico. Una mota de polvo sobre la superficie del disco sería como una montaña que chocaría contra el cabezal. Es por ello muy importante no mover, ni mucho menos golpear el disco mientras está en marcha, ya que el cabezal tocaría la superficie y la rallaría, perdiendo así la información. Cuando el disco está apagado se apartan los cabezales, de tal manera que es seguro transpórtalos.

Otro aspecto a tener en cuenta cuando se trabaja con un disco duro es la fragmentación Esto consiste en la pérdida de velocidad de acceso debido a que los ficheros están distribuidos en diferentes trozos del disco y los cabezales pierden tiempo saltando de un trozo a otro buscándolos por el disco. Esta fragmentación se produce al grabar información en el disco. El ordenador busca los clúster libres y allí la graba, no preocupándose si estos están contiguos.





DISCOS DUROS DE ESTADO SOLIDO


Las unidades de estado sólido podrían ser consideradas las sucesoras de los discos duros. En comparación con los discos duros, son más rápidas, ocupan menos espacio, consumen menos energía, son más silenciosas y son menos susceptibles de sufrir daños por golpes, ya que no tienen partes móviles. La desventaja respecto a los discos duros es que, por ahora, son más caras, tienen menos capacidad y duran menos tiempo. Ahora se utilizan principalmente en notebooks.

Físicamente están formadas por chips de memoria flash, similares a los chips de la memoria RAM, pero que no pierden los datos cuando se pierde la alimentación eléctrica (Rodil-Pardo, 2010).

Estos ofrecen un almacenamiento de estado sólido (conocido como memoria flash), que es una tecnología que guarda datos en circuitos borrables regrabables, y no en discos que giran o en una cinta que se enreda. Se utiliza mucho en dispositivos laptop, PDAs, y teléfonos celulares.

El almacenamiento de estado sólido es portátil y ofrece un acceso bastante rápido a los datos. Es una solución ideal para guardar datos en dispositivos móviles y transportar datos de un dispositivo a otro. 
  • FUNCIONAMIENTO.
    • El almacenamiento de estado sólido contiene una retícula de circuitos. Cada celda en la retícula contiene dos transistores que funcionan como compuertas. Cuando las compuertas se abren, fluye la corriente y la celda tiene un valor que representa un bit “1”. Cuando las compuertas se cierran mediante un proceso llamado canalización de Fowler-Nordheim, la celda tiene un valor que representa un bit “0”. Se requiere muy poca corriente eléctrica para abrir o cerrar las compuertas, lo cual hace ideal el almacenamiento de estado sólido para dispositivos que funcionan con baterías, como las cámaras digitales y los PDAs. Una vez guardado los datos, se vuelven no volátiles: el chip conserva los datos sin necesidad de una fuente externa de corriente.  El almacenamiento de estado sólido aporta un acceso rápido a los datos porque no incluye partes móviles y es muy durable; prácticamente es indiferente a la vibración, los campos magnéticos o las fluctuaciones extremas de temperatura. Una desventaja es que en la actualidad, la capacidad del almacenamiento de estado sólido no alcanza la capacidad que uno quisiera.
  • OPCIONES DE ALMACENAMIENTO.
    • Existen varios tipos. Los formatos para estas pequeñas tarjetas planas son CompactFlash, Multimedia, SecureDigital (SD) y SmartMedia. Existiendo también memorias flash USB y las unidades U3 de estado sólido que sirven para guardar archivos de datos de computadoras y programas (Jamrich-Oja, 2008).
  • PARTE FÍSICA DEL DISCO DURO.
Platos: También llamados discos. Estos discos están elaborados de aluminio o vidrio recubiertos en su superficie por un material ferromagnético apilados alrededor de un eje que gira gracias a un motor, a una velocidad muy rápida. El diámetro de los platos oscila entre los 5cm y 13 cm.
Impulsor de Cabezal: Es un motor que mueve los cabezales sobre el disco hasta llegar a la pista adecuada, donde esperan que los sectores correspondientes giren bajo ellos para ejecutar de manera efectiva la lectura/escritura.                                            
La superficie de un disco está dividida en unos elementos llamadas pistas concéntricas, donde se almacena la información. Las pistas están numeradas desde la parte exterior comenzando por el 0. Las cabezas se mueven entre la pista 0 a la pista más interna.
Cilindro: Es el conjunto de pistas concéntricas de cada cara de cada plato, los cuales están situadas unas encima de las otras. Lo que se logra con esto es que la cabeza no tiene que moverse para poder acceder a las diferentes pistas de un mismo cilindro. Dado que las cabezas de lectura/escritura están alineadas unas con otras, la controladora de disco duro puede escribir en todas las pistas del cilindro sin mover el rotor. Cada pista está formada por uno o más clúster.
Sector: Las pistas están divididas en sectores, el número de sectores es variable. Un sector es la unidad básica de almacenamiento de datos sobre los discos duros. Los discos duros almacenan los datos en pedazos gruesos llamados sectores, la mayoría de los discos duros usan sectores de 512 bytes cada uno. Comúnmente es la controladora del disco duro quien determina el tamaño de un sector en el momento en que el disco es formateado, en cambio en algunos modelos de disco duro se permite especificar el tamaño de un sector.
Clúster: Es un grupo de sectores, cuyo tamaño depende de la capacidad del disco.
  • DISCOS DE ESTADO SOLIDO.
    • Las unidades de estado solido también conocidas como SSD están basadas en un circuito integrado semiconductor, hecho en una única pieza (memoria RAM o memoria FLASH).
          Tomando en cuenta algunas observaciones podemos detallar lo siguiente:
    • Las memorias SLC del ingles "Single Level Store" almacenan los datos en celdas de un nivel simple, lo que resulta en rapidez, confiabilidad y menor consumo de energía.
    • Las memorias MLC del ingles "Multi Level Cell" almacenan los datos en multiples niveles por celda, y esto permite almacenar mas datos (bits) en cada celda.
         Llegando a comparar estos dos tipos de memoria MLC almacena mas datos que SLC y           de acuerdo a su coste MLC es mucho menor en precio que SLC.

  • PARTE MECÁNICA DEL DISCO DURO.


            El formato físico
El primer disco duro comercial tenía un formato de 24”, el tamaño de una lavadora. En la actualidad el formato utilizado casi en exclusiva en PC es el de 3,5”, en ocasiones los platos son sensiblemente más pequeños pero se mantiene el tamaño de la carcasa por compatibilidad. En el mundo portátil los tamaños más comunes son el de 2,5” y el de 1,8”.
  
La capacidad
El primer disco duro comercial tenía algo más de 4 MB de capacidad. Con el paso del tiempo la capacidad de los discos duros ha crecido exponencialmente a medida que se han ido desarrollando las tecnologías de fabricación, aumentando la densidad de los discos y con nuevos métodos de grabación que permiten un uso más eficiente del espacio disponible. En la actualidad la capacidad más común en los discos duros es del orden de cientos de gigabytes (GB), alcanzado ya el terabyte (TB), 1.000 GB.

Velocidad de rotación
Velocidad angular a la que giran los platos, medida en revoluciones por minuto (rpm). Los discos duros modernos de gama media tienen una velocidad de 7.200 rpm. Los discos duros portátiles ofrecen una velocidad menor, de 5.400 rpm. Existen velocidades mayores (10.000-15.000 rpm), pero se utilizan en equipos destinados a un uso profesional. Cuanto mayor sea la velocidad de rotación tardaremos menos en situarnos en el sector en que está situada la información requerida.

Velocidad interna
Este parámetro está influenciado por la velocidad de giro y por la velocidad de las partes mecánicas. Corresponde al flujo máximo de datos que se puede leer/escribir en un determinado momento. Hay que tener en cuenta que a medida que el disco se llena este se vuelve más lento.
Tenemos en cuenta dos velocidades:
- Velocidad máxima de transferencia interna: valor en condiciones teóricas y para cantidades mínimas de datos.
- Velocidad sostenida: indica el rendimiento al leer contenido en cantidades apreciables de datos.

Velocidad externa
Velocidad a la que la interfaz transmite los datos entre la “salida” del disco duro (buffer) y el resto de los componentes del PC.

Tiempos de búsqueda y latencia
Al tratarse de un dispositivo mecánico, el acceso a los datos lleva cierto tiempo, milisegundos (ms), frente a los nanosegundos (ns) de un dispositivo sin partes móviles:

- Tiempo de búsqueda medio: tiempo medio que tarda la aguja en situarse en la pista deseada. Ronda los 8,5 ms.
- Latencia rotacional media: al llegar la cabeza a la pista que contiene el sector que buscamos esta tiene que encontrarlo. Este valor representa el tiempo medio que tarda en alcanzarse el sector requerido.
- Tiempo medio de acceso: tiempo que tarda la cabeza en situarse en la pista y el sector adecuado. Es la suma del tiempo de búsqueda medio, la latencia rotacional media y del tiempo de escritura/lectura.


4. REFERENCIAS BIBLIOGRÁFICAS

  • RODIL, Jiménez Irene, y PARDO, de Vega Camino (2010).Operaciones Auxiliares con tecnologías de la información y la comunicación. 3ra. Edición. Ed. Paraninfo.
  • JAMRICH, Parsons June, y OJA, Dan (2008). Conceptos de Computación: Nuevas Perspectivas. 10ma. Edición. Santa Fe-Argentina.


miércoles, 17 de octubre de 2012

RFC 2328 - OSPF


Hoy vamos a explicar un poco sobre lo que son las RFC respondiéndonos a algunas preguntas como: ¿Que es una RFC?, ¿Para que se utiliza una RFC? y también vamos a hablar sobre la RFC 2328 y para esto empezamos.


La familia de protocolos de internet está todavía evolucionando mediante el mecanismo de petición de comentario o RFC, de modo que los nuevos protocolos han sido diseñados por investigadores y científicos. El internet Architecture Board (IAB) se encarga de supervisar el mecanismo de RFC.

La mayor fuente de RFC‘s es la Internet Engineering Task Force (IETF) que es un subsidiario del IAB. Sin embargo cualquiera puede proponer un memorándum como un RFC al editor de RFC, pero para poder realizar tu propia RFC debes tomar en cuenta ciertas reglas que son descritas en la RFC 1543 donde indica como considerar una propuesta para una RFC.

¿QUÉ ES RFC?
  • RFC viene del acrónimo Request For Comments que en español seria Petición de comentarios, las RFC son documentación estándar sobre internet donde se detalla prácticamente todo lo relacionado con la tecnología de la que se sirve internet como ser: protocolos, recomendaciones, comunicaciones, etc.

¿PARA QUÉ SE UTILIZA UN RFC?
  •  Las RFC se utilizan para especificar estándares, recomendaciones, informativos o documentos que han quedado obsoletos.
  • Cada RFC tiene un título y un número asignado que no puede repetirse ni eliminarse aunque el documento se quede obsoleto.
  • Cada protocolo de los que existen en internet tiene asociado un RFC que lo define y a su vez tienen otros RFC que adicionalmente amplían.
  • Cada una de ellas individualmente es un documento cuyo contenido es una propuesta oficial para un nuevo protocolo de la red internet que se explica con todo detalle para que en caso de ser aceptado pueda ser implementado sin ambigüedades.

RFC 2328 – OSPF

  •       Este documento es una especificación de Open Shortest Path First (OSPF) TCP/IP internet routing protocol. OSPF es clasificado como un Interior Gateway Protocol (IGP). Estos significa que distribuye la ruta de información  entre routers.
  •            Las rutas OSPF son rutas de paquetes IP basados únicamente en la IP de destino que se encuentra en la cabecera del paquete.

Esto es apenas una fracción de lo que realmente se encuentra en la RFC 2328 Si quieres enterarte más acerca de esta RFC 2328 puedes visitar RFC 2328.

De todos modos algunas características principales del OSPF son:
  • RESPUESTA RÁPIDA Y SIN BUCLES ANTE CAMBIOS.
    • La algoritmia SPF sobre la que se basa OSPF permite con la tecnología actual que existe en los nodos un tiempo de respuesta en cuanto tiempo de computación para el cálculo del mapa local de la red mucho más rápido que dicho calculo en el protocolo RIP.
  • SEGURIDAD ANTE LOS CAMBIOS.
    • Para que el algoritmo de routing funcione adecuadamente debe existir una copia idéntica de la topología de la red en cada nodo de esta.
  • SOPORTE DE MÚLTIPLES MÉTRICAS.
    • Evaluando el camino entre dos nodos en base a diferentes métricas es tener distintos mejores caminos según la métrica utilizada en cada caso, pero surge la duda de cuál es el mejor. Esta elección se realizara en base a los requisitos que existan en la comunicación.
  • BALANCEADO DE CARGA EN MÚLTIPLES CAMINOS.
    • Aplica una versión de SPF con una modificación que impide la creación de bucles parciales.
    • Existe un algoritmo que permite calcular la cantidad de tráfico que debe ser enviado por cada camino.
  • ESCALABILIDAD EN EL CRECIMIENTO DE RUTAS EXTERNAS.
    • soluciona este problema permitiendo tener en la base de datos del mapa local los denominados “gateway link state records”. Estos registros nos permiten almacenar el valor de las métricas calculadas y hacen más fácil el cálculo de la ruta óptima para el exterior.
BIBLIOGRAFÍA.