sábado, 3 de octubre de 2015

Tareas Clave en Sistemas de Comunicación


MAESTRÍA EN TELECOMUNICACIONES

UNIDAD II: TEORÍA DE LAS TELECOMUNICACIONES

LEONEL SOLÍS HERNÁNDEZ


Tareas clave en sistemas de comunicación.



El término telecomunicaciones se refiere generalmente a todo tipo de comunicación alarga distancia a través de ondas portadoras comunes como el televisor, la radio y el teléfono.

Entre las comunicaciones tenemos un subconjunto que son las comunicaciones de datos, estas constituyen la colección, intercambio y procesamiento electrónicos de datos o información que incluye texto, imágenes, voz entre otras.

El entorno del cómputo actual está disperso tanto geográfica como organizacional mente ubicando las comunicaciones de datos en una función organizacional estratégica.

Los negocios buscan comunicaciones electrónicas esenciales para minimizar limitaciones de tiempo y distancia. Las telecomunicaciones desempeñan una función importante cuando los clientes, proveedores, vendedores y compradores realizan negocios constantemente en cualquier parte del mundo constantemente.

Un sistema de telecomunicación es una colección de hardware y software compatible dispuesto para comunicar información de un lugar a otro.  Estos sistemas pueden transmitir textos, gráficos, voz, documentos o información de video en movimiento completo.

Para establecer una comunicación de calidad y que cumpla con los estándares de comunicación, se deben cumplir ciertas actividades dentro de los sistemas de comunicación. Esas actividades se describen a continuación:

Utilización de los sistemas de transmisión:

Se refiere a la necesidad de hacer un uso eficaz de los recursos utilizados en la transmisión, los cuales típicamente se suelen compartir entre una serie de dispositivos de comunicación. La capacidad total del medio de transmisión se reparte entre los distintos usuarios haciendo uso de técnicas denominadas de multiplexación. Además puede que se necesiten técnicas de control de gestión para garantizar que el sistema no se sature por una demanda excesiva de servicios de transmisión.

Para que un dispositivo pueda transmitir información tendrá que hacerlo a través de la interfaz, con el medio de transmisión. Las técnicas de transmisión dependen en última instancia de la utilización de señales electromagnéticas que se transmitirán a través del medio. De tal manera que, una vez que la interfaz está establecida, se necesitará la generación de la señal.

Implementación de la interfaz

Una interfaz es el puerto (circuito físico) a través del que se envían o reciben señales desde un sistema o subsistemas hacia otros. No existe una interfaz universal, sino que existen diferentes estándares (Interfaz USB, interfaz SCSI, etc.) que establecen especificaciones técnicas concretas (características comunes), con lo que la interconexión sólo es posible utilizando la misma interfaz en origen y destino. Así también, una interfaz puede ser definida como un intérprete de condiciones externas al sistema, a través de transductores y otros dispositivos, que permite una comunicación con actores externos, como personas u otros sistemas, a través de un protocolo común a ambos.

Para transmitir a través de un medio, todo dispositivo lo hará mediante alguna interfaz, esta interfaz especifica también la conexión física. Para que un dispositivo pueda transmitir información tendrá que hacerlo a través de la interfaz, con el medio de transmisión. 

Procesadores De Interfaz

 El procesador de interfaz es una computadora secundaria especializada en manejar todas las comunicaciones rutinarias con dispositivos periféricos, esto se hace con el fin de no desperdiciar el valioso tiempo del procesador central en tareas rutinarias y así se dedique más a tareas importantes.

 Las funciones de este procesador de internas incluye: codificar y descodificar datos, la detección de errores. La recuperación, registro e interpretación de la información. Además tiene la responsabilidad de controlar el acceso a la red, asignar y prioridades a los mensajes, entre otras.

Generación de la señal.

Los medios de telecomunicación pueden conducir dos tipos básicos de señales:

ANALÓGICAS: Son ondas continuas que conducen la información alterando las características de las ondas.  Estas cuentan con dos parámetros: AMPLITUD Y FRECUENCIA.  Por ejemplo; la voz y todos los sonidos viajan por el oído humano en forma de ondas, cuanto más altas (amplitud) sean las ondas más intenso será el sonido y cuanto más cercanas estén unas de otras  mayor será la frecuencia o tono.

Ejemplo de ondas analógicas: el radio, el teléfono, equipos de grabación.

 DIGITALES: Este tipo de señales constituye pulsos discretos, que indican activado-desactivado, que conducen la información en términos de 1 y 0, de igual modo que la CPU de una computadora. Este tipo de señal tiene varias ventajas sobre las analógicas ya que tienden a verse manos afectadas por la interferencia o ruido.

Las características de la señal, tales como la forma y la intensidad, deben ser tales que permitan:

 a).-Ser propagadas a través del medio de transmisión.
 b).-Ser interpretadas en el receptor como datos.

Las señales se deben generar no sólo considerando que deben cumplir los requisitos del sistema de transmisión y del receptor, sino que deben permitir alguna forma de sincronizar el receptor y el emisor. El receptor debe ser capaz de determinar cuándo comienza y cuándo acaba la señal recibida. Igualmente deberá conocer la duración de cada elemento de señal.

Sincronización.

El proceso de digitalización de la red de telecomunicaciones se inicia en los enlaces entre centrales, con la instalación de los sistemas de transmisión. Este proceso se completa con la introducción de las centrales de conmutación digital, constituyéndose la red digital integrada. En esta red, las informaciones de voz y señalización, ambas digitalizadas, son procesadas por los conmutadores y transportadas por los enlaces, obteniéndose entonces una serie de bits que viajan entre los distintos nodos de la red.

Cada una de las centrales de la red posee un reloj que determina, entre otras cosas, los instantes en los cuales se realiza la conmutación de los bits. El reloj se define como una fuente de frecuencia que se acopla a un divisor o contador. Cuando estos bits provienen de otros nodos de la red, debido a diferentes circunstancias, la frecuencia y la fase de sus bases de tiempo presentan diferencias de nodo a nodo, y con el reloj de la central receptora; estas diferencias hacen que haya pérdida o repetición de bits. Este fenómeno que se conoce como deslizamiento, puede llegar a afectar de manera sensible los servicios prestados por la red de telecomunicaciones, razón por la cual se deben tomar medidas para controlarlo, denominadas mecanismos de sincronización.

La sincronización es un aspecto intrínseco de los sistemas digitales y su objetivo es el de satisfacer la necesidad de calidad de los servicios ofrecidos por la red, asignando tolerancias de frecuencia en los nodos de conmutación y estableciendo los métodos de sincronización más adecuados. La función de la sincronización es lograr que todas las centrales digitales de la red trabajen con una señal de reloj básica idéntica o lo más parecida posible en frecuencia y fase, a fin de controlar precisamente la tasa a la cual las señales digitales se transmiten y procesan a través de dicha red.




Gestión del intercambio.

Si se necesita intercambiar datos durante un período de tiempo, las dos partes deben cooperar, el receptor establecerá la llamada y el receptor contestará.
Una forma de analizar la gestión del intercambio de información es analizando la capa de acceso a la red en el modelo TCP/IP.
Esta capa está relacionada con el intercambio de datos entre un sistema terminal (servidor, estación de trabajo, etc.) y la red a la cual está ligada. El equipo emisor debe proporcionar a la red la dirección de la computadora destino, para que la red pueda enrutar los datos hacia el equipo destino correcto. El equipo emisor puede invocar ciertos servicios, como prioridad, la cual es suministrada por la red. El software específico que se emplea en esta capa depende del tipo de red que se va a usar.
Detección y corrección de errores.

durante la transmisión de datos entre dos dispositivos eléctricos de comunicación es muy común, en especial si las líneas de transmisión están en un entorno eléctricamente ruidoso, como la línea telefónica, que las señales eléctricas que representan el flujo de bits transmitido sufren cambios a causa de la interferencia electromagnética que los dispositivos eléctricos cercanos inducen en las líneas. Esto significa que el receptor podría interpretar señales que representan un 1 binario como señales de 0 binario, y viceversa. Para asegurar que la información recibida por un dispositivo eléctrico de destino tenga una alta probabilidad de ser idéntica a la que envió el dispositivo eléctrico transmisor, el receptor debe contar con algún mecanismo que le permita deducir, con suficiente probabilidad, cuando la información recibida contiene errores. Además, si se detectan errores se requerirá un mecanismo para obtener una copia de la información correcta. Son dos las estrategias que se emplean para lograr esto:

Tipos de errores.

Interferencias, calor, magnetismo, etc., influyen en una señal electromagnética, esos factores pueden alterar la forma o temporalidad de una señal. Si la señal transporta datos digitales, los cambios pueden modificar el significado de los datos. Los errores posibles son:

Error de bit
Únicamente un bit de una unidad de datos determinada cambia de 1 a 0 o viceversa.  

Un error de bit altera el significado del dato. Son el tipo de error menos probable en una transmisión de datos serie, puesto que el intervalo de bit es muy breve (1/frecuencia) el ruido tiene que tener una duración muy breve. Sin embargo si puede ocurrir en una transmisión paralela, en que un cable puede sufrir una perturbación y alterar un bit de cada byte.

Error de ráfaga.
El error de ráfaga significa que dos o más bits de la unidad de datos han cambiado. Los errores de ráfaga no indican necesariamente que los errores se produzcan en bits consecutivos. La longitud de la ráfaga se mide desde el primero hasta el último bit correcto, algunos bits intermedios pueden estar bien.
  
Los errores de ráfaga es más probable en transmisiones serie, donde la duración del ruido es normalmente mayor que la duración de un bit, por lo que afectara a un conjunto de bits. El número donde bits afectados depende de la tasa de datos y de la duración del ruido.

Detección.
Se conocen los tipos de errores que pueden existir, el problema es ser capaz de reconocerlos, sólo se podría saber que ha habido un error cuando se lea todo el mensaje y se vea que no tiene sentido. Sin embargo existen determinadas técnicas para detectar los errores producidos en la transmisión:

Redundancia.
La redundancia consiste en enviar dos veces cada unidad de datos, de forma que el dispositivo receptor puede hacer una comparación bit a bit entre ambos datos y detectar si ha habido errores, para corregirlos con el mecanismo apropiado. Esta técnica es muy exacta pero  la velocidad en la transmisión de datos disminuye.

Sin embargo el concepto es aplicable añadiendo al flujo de datos un grupo pequeño de bits al final de cada unidad, siendo estos bits redundantes con una parte de la información, esos bits redundantes se descartan una vez comprobada la integridad de la transmisión.

En las comunicaciones de datos se usan cuatro tipos de comprobación de redundancia: verificación de redundancia vertical (VRC, Vertical Redundancy Check) o verificación de paridad, verificación de redundancia longitudinal (LRC longitudinal Redundancy Check), verificación de redundancia cíclica (CRC Cyclic Redundandy Check) y suma de comprobación (Checksum). Las tres primeras se implementan habitualmente en el nivel físico para que pueda usarlo en nivel de enlace de datos, mientras que la suma de comprobación se usa en los niveles más altos.

Corrección de errores.
Los mecanismos anteriores detectan errores pero no los corrigen. La corrección del error se puede conseguir de dos formas, en la primera, cuando de descubre un error el receptor puede pedir al emisor que retransmita toda la unidad de datos, con la segunda, el receptor puede usar un código de corrección de errores que corrija automáticamente determinados errores. En teoría es posible corregir automáticamente cualquier error en un código binario, sin embargo los códigos de corrección son más sofisticados que los de detección y necesitan más bits de redundancia, el número de bits necesarios es tan alto que su uso no es eficiente, por esa razón la mayoría de la corrección se limita a errores de tres bits o menos.

Control de flujo

Para conseguir que la comunicación de datos sea efectiva, se necesita mucho más; controlar y gestionar el intercambio.
Para llevar a cabo el control necesario, se necesita una lógica denominada control del enlace de datos o protocolo de control del enlace de datos. Cuando se usa un protocolo del enlace de datos el medio de transmisión se denomina enlace de datos.

Para evidenciar la necesidad del control del enlace de datos, a continuación se enumeran los requisitos y los objetivos para que la comunicación de datos entre la estación emisora y la receptora (conectadas directamente) sea efectiva:

·       Sincronización de la trama; los datos se envían en bloques que se denominan tramas. El comienzo y el final de cada trama deben ser identificables.

·      Control del flujo; la estación emisora no debe enviar tramas a una velocidad más rápida de la que la estación receptora pueda absorber.

·         Control de errores; se debe corregir cualquier error introducido por el sistema de transmisión en los bits.

·         Direccionamiento; en una línea multipunto, como, por ejemplo, una red de área local (LAN), se debe identificar a las dos estaciones involucradas en la transmisión.

·         Gestión de enlace; el inicio, mantenimiento y la conclusión del intercambio de datos, así como un alto grado de coordinación y cooperación entre las estaciones, necesitan una serie de procedimientos para gestionar este intercambio.

Control de flujo: El control del flujo es una técnica utilizada para asegurar que la entidad de transmisión no sobrecargue a la entidad receptora con una excesiva cantidad de datos. La entidad receptora reserva generalmente una zona de memoria temporal para la transferencia. Cuando se reciben los datos, el receptor debe realizar cierta cantidad de procedimientos antes de pasar los datos al software de los niveles superiores de comunicación.

Si no hubiera procedimientos para el control del flujo, la memoria temporal del receptor se podría llenar y potencialmente desbordarse mientras se estuvieran procesando datos anteriores.

El modelo a usar se muestra en la figura siguiente, que consiste en un diagrama donde el tiempo se representa sobre la vertical. Este diagrama muestra las dependencias temporales y proporciona una idea de la relación entre el emisor y el receptor. Cada fila representa una única trama que transita por el enlace de datos establecido entre dos estaciones.

Los datos se envían usando una secuencia de tramas, en la que cada trama contiene un campo de datos más información de control.

Se define tiempo de transmisión como el tiempo empleado por una estación para emitir todos los bits de una trama, que por definición será proporcional a la longitud de la trama. Se define como tiempo de propagación al empleado por un bit en atravesar el medio de transmisión desde el origen hasta el destino.

Dirección y encaminamiento.

El direccionamiento se refiere a la forma como se asigna una dirección IP y como se dividen y se agrupan subredes de equipos.

Una  dirección IP es el identificador que permite a otros equipos enviar información, las direcciones IP  tienen 32 bits de longitud divididas en cuatro octetos. Una dirección IP consiste de dos niveles el identificador de red, NETID y el identificador de equipo HOSTID. En el protocolo IP el identificador de red el número de equipos que pueden comunicarse entre sí en una red. El identificador de equipo representa el número de equipo dentro la red. La dirección IP identifica un equipo de manera única en INTERNET.

El enrutamiento consiste en encontrar el mejor camino  que conecte una red con otra, es realizado principalmente por routers que no son más que computadores especializados en recibir y enviar paquetes por diferentes interfaces de red, así como proporcionar opciones de seguridad, redundancia de caminos y eficiencia en la utilización de los recursos.

Un protocolo de enrutamiento es un conjunto de procesos, algoritmos y mensajes que se usan para intercambiar información de enrutamiento usando las tablas de enrutamiento con la elección de los mejores caminos que realiza el protocolo para poder dirigir o en rutar los paquetes hacia diferentes redes. El propósito de un protocolo de enrutamiento incluye: Descubrir redes remotas. Mantener la información de enrutamiento actualizada. Escoger el mejor camino hacia las redes de destino. Poder encontrar un mejor camino nuevo si la ruta actual deja de estar disponible. Su función principal es facilitar el intercambio de información, esto permite compartir información de redes remotas y agregarla automáticamente a la tabla de enrutamiento.

Existen dos tipos de enrutamiento:

Enrutamiento Estático
En una red con un número mínimo de enrutadores puede ser configurada con enrutamiento estático. Una tabla de enrutamiento es construida manualmente por el administrador de red El enrutamiento estático proporciona un método que otorga a los ingenieros de redes control absoluto sobre las rutas por las que se transmiten los datos en una red. Las tablas de enrutamiento estático no se ajustan a los cambios en la red. Si la información de la tabla de enrutamiento no es correcta, el tráfico se reenviará incorrectamente y posiblemente no llegue al destino.

Enrutamiento dinámico
Una red con más de una ruta posible al mismo destino puede usar enrutamiento dinámico.  Una ruta dinámica es construida por la información intercambiada por los protocolos de enrutamiento. Los protocolos son diseñados para distribuir la información ajustando las rutas de entrega al destino dependiendo de las condiciones de la red. Los protocolos de enrutamiento evalúan y eligen la mejor ruta al destino.

Recuperación.

Si los hosts y los enrutadores están sujetos a caídas, la recuperación es fundamental. Si la entidad de transporte está por entero dentro de los hosts, la recuperación de caídas de red y de enrutadores es sencilla. Si la capa de red proporciona servicio de datagramas, las entidades de transporte esperan pérdida de algunas TPDUs todo el tiempo, y saben cómo manejarla. Si la capa de red proporciona servicio orientado a la conexión, entonces la pérdida de un circuito virtual se maneja estableciendo otro nuevo y sondeando la entidad de transporte remota para saber cuáles TPDUs ha recibido y cuáles no.

Un problema más complicado es la manera de recuperarse de caídas del host. Al reactivarse, sus tablas están en el estado inicial y no sabe con precisión donde estaba.

En un intento por recuperar su estado previo, el servidor podría enviar una TPDU de difusión a todos los demás host, anunciando que se acaba de caer y solicitando a todos sus clientes que le informen el estado de todas las conexiones abiertas.

Formato de mensajes.

La información que se envía en una red de telecomunicaciones debe seguir un conjunto de reglas de formato para poder asegurar que la información se envíe y  se entregue correctamente. Cada mensaje de computadora se empaqueta en un formato específico, llamado trama, antes de enviarse a través de la red.

Cuando se envía un mensaje largo de un host a otro atreves de una red es necesario separarlo en partes más pequeñas. Las restricciones de tamaño de las tramas requieren que el host de origen divida un mensaje largo en fragmentos individuales que cumplan los requisitos de tamaño máximo y mínimo.

Seguridad.

El tema de la seguridad informática se toma como una disciplina del conocimiento donde se busca cerrar la brecha de los eventos inesperados que puedan comprometer los activos de una organización y así contar con estrategias para avanzar ante cualquier eventualidad.

Si se parte del criterio de que la seguridad se ocupa de la protección de los bienes, parece natural establecer cuáles son los bienes informáticos a proteger. A primera vista, puede decirse que estos son: el hardware, el software y los datos.

Las medidas tomadas para enfrentar las amenazas informáticas pueden clasificarse en dos grupos: 

 Seguridad física y lógica
 Seguridad técnica o lógica

La  seguridad física se emplea frecuentemente para referirse a las medidas de protección externas. Normalmente, se implementan mediante dispositivos eléctricos, electrónicos, etcétera.

Ellas son, probablemente, las primeras que se introducen en todas las instalaciones informáticas. Esto se debe a dos factores; por un lado, ante la ocurrencia de una catástrofe las pérdidas serían completas, por otro, estas medidas de protección son generalmente las más fáciles de tomar. Su costo no es excesivo (con la excepción de los sistemas de  respaldo eléctrico) y su mantenimiento no presenta dificultades especiales.

La primera medida de protección para las salas de los centros de procesamiento de datos (CPD), común a todas las amenazas expuestas, es la correcta selección de su ubicación geográfica. Una segunda consideración, también de carácter general, es su adecuada construcción y su situación idónea dentro del edificio.

Por su parte, las medidas de seguridad técnicas y lógicas, pretenden proteger, tanto el software (sea de base o de aplicación) como los datos. Pueden implementarse en dispositivos hardware o en productos software.

Gestión de Red.

La gestión de red se define como la planeación, organización, supervisión y control de elementos de telecomunicaciones y recursos humanos para garantizar el óptimo servicio de una red. Tiene como objetivo mejorar la disponibilidad de los elementos de una red, incrementar la efectividad de la misma, manteniendo un costo económico viable para las organizaciones que utilizan los recursos de red.

La gestión de red se basa en tres componentes principales:

Componente Organizacional.
Define la estructura para el proceso de gestión y la estrategia apropiada para llevarlo a cabo de acuerdo con las necesidades de la organización.

 Componente Técnico.
Define las herramientas a usar para realizar la función de gestión y su implantación en la infraestructura.

 Componente Funcional.
Define las funciones de gestión que el componente organizacional debe ejecutar utilizando las herramientas de gestión.



Fuentes.



No hay comentarios:

Publicar un comentario