Thank you!

Lorem Ipsum is simply dummy text of the printing and typesetting industry. Lorem Ipsum has been the industry's standard dummy text ever since the 1500s, when an unknown printer took a galley of type ...

Minimal Design

Lorem Ipsum is simply dummy text of the printing and typesetting industry. Lorem Ipsum has been the industry's standard dummy text ever since the 1500s, when an unknown printer took a galley of type ...

Download high quality wordpress themes at top-wordpress.net

Lorem Ipsum is simply dummy text of the printing and typesetting industry. Lorem Ipsum has been the industry's standard dummy text ever since the 1500s, when an unknown printer took a galley of type ...

Easy to use theme’s admin panel

Lorem Ipsum is simply dummy text of the printing and typesetting industry. Lorem Ipsum has been the industry's standard dummy text ever since the 1500s, when an unknown printer took a galley of type ...

Prev Next

CONCEPTO DE PROCESAMIENTO DISTRIBUIDO Y CENTRALIZADO

CONCEPTO DE PROCESAMIENTO DISTRIBUIDO Y CENTRALIZADO

PROCESAMIENTO CENTRALIZADO:

En la década de los años 50's las computadoras eran máquinas del tamaño de todo un cuarto con las siguientes características:
         Un CPU
        Pequeña cantidad de RAM
        Dispositivos DC almacenamiento secundario (cintas)
        Dispositivos d salida (perforadoras de tarjetas)
        Dispositivos de entrada (lectores de tarjeta perforada)

Con el paso del tiempo, las computadoras fueron reduciendo su tamaño y creciendo en sofisticación.
Aunque la industria continuaba siendo dominada por las computadoras grandes (mainframes), con el paso del tiempo las computadoras, fueron capaces de manejar múltiples aplicaciones simultáneamente, convirtiéndose en procesadores centrales (hosts) a los que se les conectaban muchos periféricos y terminales bobas. Estas consistían solamente de dispositivos de entrada/salida (monitor y teclado) y poco espacio de almacenamiento careciendo de posibilidad de procesar los datos por sí mismas. Las terminales locales se conectaban con el procesador central a través de interfaces serie ordinarias de baja velocidad, mientras que las terminales remotas se enlazaban con el host usando módems y líneas telefónicas conmutadas. En este ambiente se ofrecían velocidades de transmisión de 1200, 2400, 4800 o 9600 bps.

Un ambiente como el descripto es lo que se conoce como procesamiento centralizado en su forma más pura "host/terminal".
Aplicaciones características de este tipo de ambiente son:
        Administración de grandes tuses de datos integradas
        Algoritmos científicos de alta velocidad
        Control de inventarios centralizado

Al continuar la evolución de los mainframes, estos se comenzaron a conectar a enlaces de alta velocidad donde algunas tareas relacionadas con las comunicaciones se delegaban a otros dispositivos llamados procesadores de comunicaciones "Front End Processes" (I7EP’s) y controladores de grupo "Cluster Controllers" (CC’s).


PROCESAMIENTO DISTRIBUIDO:

El procesamiento centralizado contaba con varios inconvenientes, entre los que podemos mencionar que un número limitado de personas controlaba el acceso a la información y a los reportes, se requería un grupo muy caro de desarrolladores de sistemas para crear las aplicaciones, y los costos de mantenimiento y soporte eran extremadamente altos. La evolución natural de la computación fue en el sentido del procesamiento distribuido, así las minicomputadoras (a pesar de su nombre siguen siendo máquinas potentes) empezaron a tomar parte del procesamiento que tenían los mainframes.

VENTAJAS: Existen cuatro ventajas del procesamiento distribuido de datos.

La primera, puede dar como resultado un mejor rendimiento que el que se obtiene por un procesamiento centralizado. Los datos pueden colocarse cerca del punto de su utilización, de forma que el tiempo de comunicación sea mas corto. Varias computadoras operando en forma simultánea pueden entregar más volumen de procesamiento que una sola computadora.

Segundo, los datos duplicados aumentan su confiabilidad. Cuando falla una computadora se pueden obtener los datos extraídos de otras computadoras. Los usuarios no dependen de la disponibilidad de una sola fuente para sus datos.

Una tercera ventaja es que los sistemas distribuidos pueden variar su tamaño de un modo más sencillo. Se pueden agregar computadoras adicionales a la red conforme aumentan el número de usuarios y su carga de procesamiento. A menudo es más fácil y más barato agregar una nueva computadora más pequeña que actualizar una computadora única y centralizada. Posteriormente, si la carga de trabajo se reduce el tamaño de la red también puede reducirse.

Por último, los sistemas distribuidos se pueden adecuar de una manera más sencilla a las estructuras de la organización de los usuarios.

VIDEO


FUENTE

Leave a Reply