Lorem Ipsum is simply dummy text of the printing and typesetting industry. Lorem Ipsum has been the industry's standard dummy text ever since the 1500s, when an unknown printer took a galley of type ...
Lorem Ipsum is simply dummy text of the printing and typesetting industry. Lorem Ipsum has been the industry's standard dummy text ever since the 1500s, when an unknown printer took a galley of type ...
Lorem Ipsum is simply dummy text of the printing and typesetting industry. Lorem Ipsum has been the industry's standard dummy text ever since the 1500s, when an unknown printer took a galley of type ...
Lorem Ipsum is simply dummy text of the printing and typesetting industry. Lorem Ipsum has been the industry's standard dummy text ever since the 1500s, when an unknown printer took a galley of type ...
CONCEPTO DE PROCESAMIENTO DISTRIBUIDO
Y CENTRALIZADO
PROCESAMIENTO CENTRALIZADO:
En
la década de los años 50's las computadoras eran máquinas del tamaño de todo un
cuarto con las siguientes características:
•Un CPU
•Pequeña cantidad
de RAM
•Dispositivos DC
almacenamiento secundario (cintas)
•Dispositivos d
salida (perforadoras de tarjetas)
•Dispositivos de
entrada (lectores de tarjeta perforada)
Con
el paso del tiempo, las computadoras fueron reduciendo su tamaño y creciendo en
sofisticación.
Aunque
la industria continuaba siendo dominada por las computadoras grandes
(mainframes), con el paso del tiempo las computadoras, fueron capaces de
manejar múltiples aplicaciones simultáneamente, convirtiéndose en procesadores
centrales (hosts) a los que se les conectaban muchos periféricos y terminales
bobas. Estas consistían solamente de dispositivos de entrada/salida (monitor y
teclado) y poco espacio de almacenamiento careciendo de posibilidad de procesar
los datos por sí mismas. Las terminales locales se conectaban con el procesador
central a través de interfaces serie ordinarias de baja velocidad, mientras que
las terminales remotas se enlazaban con el host usando módems y líneas
telefónicas conmutadas. En este ambiente se ofrecían velocidades de transmisión
de 1200, 2400, 4800 o 9600 bps.
Un
ambiente como el descripto es lo que se conoce como procesamiento centralizado
en su forma más pura "host/terminal".
Aplicaciones
características de este tipo de ambiente son:
•Administración de
grandes tuses de datos integradas
•Algoritmos
científicos de alta velocidad
•Control de
inventarios centralizado
Al
continuar la evolución de los mainframes, estos se comenzaron a conectar a
enlaces de alta velocidad donde algunas tareas relacionadas con las
comunicaciones se delegaban a otros dispositivos llamados procesadores de
comunicaciones "Front End Processes" (I7EP’s) y controladores de
grupo "Cluster Controllers" (CC’s).
PROCESAMIENTO DISTRIBUIDO:
El
procesamiento centralizado contaba con varios inconvenientes, entre los que
podemos mencionar que un número limitado de personas controlaba el acceso a la
información y a los reportes, se requería un grupo muy caro de desarrolladores
de sistemas para crear las aplicaciones, y los costos de mantenimiento y
soporte eran extremadamente altos. La evolución natural de la computación fue
en el sentido del procesamiento distribuido, así las minicomputadoras (a pesar
de su nombre siguen siendo máquinas potentes) empezaron a tomar parte del
procesamiento que tenían los mainframes.
VENTAJAS: Existen cuatro ventajas del procesamiento distribuido
de datos.
La
primera, puede dar como resultado un mejor rendimiento que el que se obtiene
por un procesamiento centralizado. Los datos pueden colocarse cerca del punto
de su utilización, de forma que el tiempo de comunicación sea mas corto. Varias
computadoras operando en forma simultánea pueden entregar más volumen de
procesamiento que una sola computadora.
Segundo,
los datos duplicados aumentan su confiabilidad. Cuando falla una computadora se
pueden obtener los datos extraídos de otras computadoras. Los usuarios no dependen
de la disponibilidad de una sola fuente para sus datos.
Una
tercera ventaja es que los sistemas distribuidos pueden variar su tamaño de un
modo más sencillo. Se pueden agregar computadoras adicionales a la red conforme
aumentan el número de usuarios y su carga de procesamiento. A menudo es más
fácil y más barato agregar una nueva computadora más pequeña que actualizar una
computadora única y centralizada. Posteriormente, si la carga de trabajo se
reduce el tamaño de la red también puede reducirse.
Por
último, los sistemas distribuidos se pueden adecuar de una manera más sencilla
a las estructuras de la organización de los usuarios. VIDEO