MAESTRÍA EN TELECOMUNICACIONES
UNIDAD II: TEORÍA DE LAS TELECOMUNICACIONES
LEONEL SOLÍS HERNÁNDEZ
Tareas clave en sistemas de comunicación.
El término telecomunicaciones se
refiere generalmente a todo tipo de comunicación alarga distancia a través de
ondas portadoras comunes como el televisor, la radio y el teléfono.
Entre las comunicaciones tenemos
un subconjunto que son las comunicaciones de datos, estas constituyen la
colección, intercambio y procesamiento electrónicos de datos o información que
incluye texto, imágenes, voz entre otras.
El entorno del cómputo actual está
disperso tanto geográfica como organizacional mente ubicando las comunicaciones
de datos en una función organizacional estratégica.
Los negocios buscan
comunicaciones electrónicas esenciales para minimizar limitaciones de tiempo y
distancia. Las telecomunicaciones desempeñan una función importante cuando los
clientes, proveedores, vendedores y compradores realizan negocios
constantemente en cualquier parte del mundo constantemente.
Un
sistema de telecomunicación es una colección de hardware y software compatible
dispuesto para comunicar información de un lugar a otro. Estos sistemas
pueden transmitir textos, gráficos, voz, documentos o información de video en
movimiento completo.
Para
establecer una comunicación de calidad y que cumpla con los estándares de comunicación,
se deben cumplir ciertas actividades dentro de los sistemas de comunicación. Esas
actividades se describen a continuación:
Utilización de los sistemas de transmisión:
Se refiere a la
necesidad de hacer un uso eficaz de los recursos utilizados en la transmisión,
los cuales típicamente se suelen compartir entre una serie de dispositivos de
comunicación. La capacidad total del medio de transmisión se reparte entre los distintos
usuarios haciendo uso de técnicas denominadas de multiplexación. Además puede
que se necesiten técnicas de control de gestión para garantizar que el sistema
no se sature por una demanda excesiva de servicios de transmisión.
Para que un dispositivo
pueda transmitir información tendrá que hacerlo a través de la interfaz, con el
medio de transmisión. Las técnicas de transmisión dependen en última instancia
de la utilización de señales electromagnéticas que se transmitirán a través del
medio. De tal manera que, una vez que la interfaz está establecida, se
necesitará la generación de la señal.
Implementación
de la interfaz
Una interfaz es el puerto (circuito
físico) a través del que se envían o reciben señales desde un sistema o
subsistemas hacia otros. No existe una interfaz universal, sino que existen
diferentes estándares (Interfaz USB, interfaz SCSI, etc.) que establecen
especificaciones técnicas concretas (características comunes), con lo que la
interconexión sólo es posible utilizando la misma interfaz en origen y destino.
Así también, una interfaz puede ser definida como un intérprete de condiciones
externas al sistema, a través de transductores y otros dispositivos, que
permite una comunicación con actores externos, como personas u otros sistemas,
a través de un protocolo común a ambos.
Para transmitir a través de un
medio, todo dispositivo lo hará mediante alguna interfaz, esta interfaz
especifica también la conexión física. Para que un dispositivo pueda transmitir
información tendrá que hacerlo a través de la interfaz, con el medio de
transmisión.
Procesadores De Interfaz
El procesador de interfaz
es una computadora secundaria especializada en manejar todas las comunicaciones
rutinarias con dispositivos periféricos, esto se hace con el fin de no
desperdiciar el valioso tiempo del procesador central en tareas rutinarias y
así se dedique más a tareas importantes.
Las funciones de este
procesador de internas incluye: codificar y descodificar datos, la detección de
errores. La recuperación, registro e interpretación de la información. Además
tiene la responsabilidad de controlar el acceso a la red, asignar y prioridades
a los mensajes, entre otras.
Generación
de la señal.
Los medios de telecomunicación
pueden conducir dos tipos básicos de señales:
ANALÓGICAS: Son ondas
continuas que conducen la información alterando las características de las
ondas. Estas cuentan con dos parámetros: AMPLITUD Y FRECUENCIA. Por
ejemplo; la voz y todos los sonidos viajan por el oído humano en forma de
ondas, cuanto más altas (amplitud) sean las ondas más intenso será el sonido y
cuanto más cercanas estén unas de otras mayor será la frecuencia o tono.
Ejemplo de ondas analógicas: el
radio, el teléfono, equipos de grabación.
DIGITALES: Este
tipo de señales constituye pulsos discretos, que indican activado-desactivado,
que conducen la información en términos de 1 y 0, de igual modo que la CPU de
una computadora. Este tipo de señal tiene varias ventajas sobre las analógicas
ya que tienden a verse manos afectadas por la interferencia o ruido.
Las características de la señal,
tales como la forma y la intensidad, deben ser tales que permitan:
a).-Ser propagadas a través
del medio de transmisión.
b).-Ser interpretadas en el
receptor como datos.
Las señales se deben generar no
sólo considerando que deben cumplir los requisitos del sistema de transmisión y
del receptor, sino que deben permitir alguna forma de sincronizar el receptor y
el emisor. El receptor debe ser capaz de determinar cuándo comienza y cuándo
acaba la señal recibida. Igualmente deberá conocer la duración de cada elemento
de señal.
Sincronización.
El proceso de digitalización de la red de
telecomunicaciones se inicia en los enlaces entre centrales, con la instalación
de los sistemas de transmisión. Este proceso se completa con la introducción de
las centrales de conmutación digital, constituyéndose la red digital integrada.
En esta red, las informaciones de voz y señalización, ambas digitalizadas, son
procesadas por los conmutadores y transportadas por los enlaces, obteniéndose
entonces una serie de bits que viajan entre los distintos nodos de la red.
Cada una
de las centrales de la red posee un reloj que determina, entre otras cosas, los
instantes en los cuales se realiza la conmutación de los bits. El reloj se
define como una fuente de frecuencia que se acopla a un divisor o contador.
Cuando estos bits provienen de otros nodos de la red, debido a diferentes
circunstancias, la frecuencia y la fase de sus bases de tiempo presentan
diferencias de nodo a nodo, y con el reloj de la central receptora; estas
diferencias hacen que haya pérdida o repetición de bits. Este fenómeno que se
conoce como deslizamiento, puede llegar a afectar de manera sensible los
servicios prestados por la red de telecomunicaciones, razón por la cual se
deben tomar medidas para controlarlo, denominadas mecanismos de sincronización.
La
sincronización es un aspecto intrínseco de los sistemas digitales y su objetivo
es el de satisfacer la necesidad de calidad de los servicios ofrecidos por la
red, asignando tolerancias de frecuencia en los nodos de conmutación y
estableciendo los métodos de sincronización más adecuados. La función de la
sincronización es lograr que todas las centrales digitales de la red trabajen
con una señal de reloj básica idéntica o lo más parecida posible en frecuencia
y fase, a fin de controlar precisamente la tasa a la cual las señales digitales
se transmiten y procesan a través de dicha red.
Gestión
del intercambio.
Si se necesita intercambiar datos
durante un período de tiempo, las dos partes deben cooperar, el receptor
establecerá la llamada y el receptor contestará.
Una forma de analizar la gestión
del intercambio de información es analizando la capa de acceso a la red en el
modelo TCP/IP.
Esta capa está relacionada con el
intercambio de datos entre un sistema terminal (servidor, estación de trabajo, etc.)
y la red a la cual está ligada. El equipo emisor debe proporcionar a la red la
dirección de la computadora destino, para que la red pueda enrutar los datos
hacia el equipo destino correcto. El equipo emisor puede invocar ciertos
servicios, como prioridad, la cual es suministrada por la red. El software
específico que se emplea en esta capa depende del tipo de red que se va a usar.
Detección
y corrección de errores.
durante la transmisión
de datos entre dos dispositivos eléctricos de comunicación es muy común, en
especial si las líneas de transmisión están en un entorno eléctricamente
ruidoso, como la línea telefónica, que las señales eléctricas que representan
el flujo de bits transmitido sufren cambios a causa de la interferencia
electromagnética que los dispositivos eléctricos cercanos inducen en las líneas.
Esto significa que el receptor podría interpretar señales que representan un 1
binario como señales de 0 binario, y viceversa. Para asegurar que la
información recibida por un dispositivo eléctrico de destino tenga una alta
probabilidad de ser idéntica a la que envió el dispositivo eléctrico
transmisor, el receptor debe contar con algún mecanismo que le permita deducir,
con suficiente probabilidad, cuando la información recibida contiene errores.
Además, si se detectan errores se requerirá un mecanismo para obtener una copia
de la información correcta. Son dos las estrategias que se emplean para lograr
esto:
Tipos de errores.
Interferencias, calor,
magnetismo, etc., influyen en una señal electromagnética, esos factores pueden
alterar la forma o temporalidad de una señal. Si la señal transporta datos
digitales, los cambios pueden modificar el significado de los datos. Los
errores posibles son:
Error de bit
Únicamente un bit de una unidad
de datos determinada cambia de 1 a 0 o viceversa.
Un error de bit altera el
significado del dato. Son el tipo de error menos probable en una transmisión de
datos serie, puesto que el intervalo de bit es muy breve (1/frecuencia) el
ruido tiene que tener una duración muy breve. Sin embargo si puede ocurrir en
una transmisión paralela, en que un cable puede sufrir una perturbación y
alterar un bit de cada byte.
Error de ráfaga.
El error de ráfaga significa que
dos o más bits de la unidad de datos han cambiado. Los errores de ráfaga no
indican necesariamente que los errores se produzcan en bits consecutivos. La
longitud de la ráfaga se mide desde el primero hasta el último bit correcto,
algunos bits intermedios pueden estar bien.
Los errores de
ráfaga es más probable en transmisiones serie, donde la duración del ruido es
normalmente mayor que la duración de un bit, por lo que afectara a un conjunto
de bits. El número donde bits afectados depende de la tasa de datos y de la
duración del ruido.
Detección.
Se conocen los tipos de errores
que pueden existir, el problema es ser capaz de reconocerlos, sólo se podría
saber que ha habido un error cuando se lea todo el mensaje y se vea que no
tiene sentido. Sin embargo existen determinadas técnicas para detectar los
errores producidos en la transmisión:
Redundancia.
La redundancia consiste en enviar
dos veces cada unidad de datos, de forma que el dispositivo receptor puede
hacer una comparación bit a bit entre ambos datos y detectar si ha habido
errores, para corregirlos con el mecanismo apropiado. Esta técnica es muy
exacta pero la velocidad en la transmisión de datos disminuye.
Sin embargo el concepto es
aplicable añadiendo al flujo de datos un grupo pequeño de bits al final de cada
unidad, siendo estos bits redundantes con una parte de la información, esos
bits redundantes se descartan una vez comprobada la integridad de la
transmisión.
En las comunicaciones de datos se
usan cuatro tipos de comprobación de redundancia: verificación de redundancia
vertical (VRC, Vertical Redundancy Check) o verificación de paridad,
verificación de redundancia longitudinal (LRC longitudinal Redundancy Check),
verificación de redundancia cíclica (CRC Cyclic Redundandy Check) y suma de
comprobación (Checksum). Las tres primeras se implementan habitualmente en el
nivel físico para que pueda usarlo en nivel de enlace de datos, mientras que la
suma de comprobación se usa en los niveles más altos.
Corrección de errores.
Los mecanismos anteriores
detectan errores pero no los corrigen. La corrección del error se puede
conseguir de dos formas, en la primera, cuando de descubre un error el receptor
puede pedir al emisor que retransmita toda la unidad de datos, con la segunda,
el receptor puede usar un código de corrección de errores que corrija
automáticamente determinados errores. En teoría es posible corregir automáticamente
cualquier error en un código binario, sin embargo los códigos de corrección son
más sofisticados que los de detección y necesitan más bits de redundancia, el
número de bits necesarios es tan alto que su uso no es eficiente, por esa razón
la mayoría de la corrección se limita a errores de tres bits o menos.
Control de
flujo
Para conseguir que la
comunicación de datos sea efectiva, se necesita mucho más; controlar y
gestionar el intercambio.
Para llevar a cabo el
control necesario, se necesita una lógica denominada control del enlace de
datos o protocolo de control del enlace de datos. Cuando se usa un protocolo
del enlace de datos el medio de transmisión se denomina enlace de datos.
Para evidenciar la
necesidad del control del enlace de datos, a continuación se enumeran los
requisitos y los objetivos para que la comunicación de datos entre la estación
emisora y la receptora (conectadas directamente) sea efectiva:
· Sincronización de la trama; los datos se
envían en bloques que se denominan tramas. El comienzo y el final de cada trama
deben ser identificables.
· Control del flujo; la estación emisora
no debe enviar tramas a una velocidad más rápida de la que la estación
receptora pueda absorber.
·
Control de errores; se debe corregir
cualquier error introducido por el sistema de transmisión en los bits.
·
Direccionamiento; en una línea
multipunto, como, por ejemplo, una red de área local (LAN), se debe identificar
a las dos estaciones involucradas en la transmisión.
·
Gestión de enlace; el inicio,
mantenimiento y la conclusión del intercambio de datos, así como un alto grado
de coordinación y cooperación entre las estaciones, necesitan una serie de
procedimientos para gestionar este intercambio.
Control de flujo: El
control del flujo es una técnica utilizada para asegurar que la entidad de
transmisión no sobrecargue a la entidad receptora con una excesiva cantidad de
datos. La entidad receptora reserva generalmente una zona de memoria temporal
para la transferencia. Cuando se reciben los datos, el receptor debe realizar
cierta cantidad de procedimientos antes de pasar los datos al software de los
niveles superiores de comunicación.
Si no hubiera
procedimientos para el control del flujo, la memoria temporal del receptor se
podría llenar y potencialmente desbordarse mientras se estuvieran procesando
datos anteriores.
El modelo a usar se
muestra en la figura siguiente, que consiste en un diagrama donde el tiempo se
representa sobre la vertical. Este diagrama muestra las dependencias temporales
y proporciona una idea de la relación entre el emisor y el receptor. Cada fila
representa una única trama que transita por el enlace de datos establecido
entre dos estaciones.
Los datos se envían
usando una secuencia de tramas, en la que cada trama contiene un campo de datos
más información de control.
Se define tiempo de
transmisión como el tiempo empleado por una estación para emitir todos los bits
de una trama, que por definición será proporcional a la longitud de la trama.
Se define como tiempo de propagación al empleado por un bit en atravesar el
medio de transmisión desde el origen hasta el destino.
Dirección y encaminamiento.
El direccionamiento se
refiere a la forma como se asigna una dirección IP y como se dividen y se
agrupan subredes de equipos.
Una dirección IP es el
identificador que permite a otros equipos enviar información, las direcciones
IP tienen 32 bits de longitud divididas en cuatro octetos. Una dirección
IP consiste de dos niveles el identificador de red, NETID y el identificador de
equipo HOSTID. En el protocolo IP el identificador de red el número de equipos
que pueden comunicarse entre sí en una red. El identificador de equipo
representa el número de equipo dentro la red. La dirección IP identifica un
equipo de manera única en INTERNET.
El enrutamiento consiste
en encontrar el mejor camino que conecte una red con otra, es realizado
principalmente por routers que no son más que computadores especializados en
recibir y enviar paquetes por diferentes interfaces de red, así como proporcionar
opciones de seguridad, redundancia de caminos y eficiencia en la utilización de
los recursos.
Un protocolo de enrutamiento es
un conjunto de procesos, algoritmos y mensajes que se usan para intercambiar
información de enrutamiento usando las tablas de enrutamiento con la elección
de los mejores caminos que realiza el protocolo para poder dirigir o en rutar
los paquetes hacia diferentes redes. El propósito de un protocolo de
enrutamiento incluye: Descubrir redes remotas. Mantener la información de enrutamiento
actualizada. Escoger el mejor camino hacia las redes de destino. Poder
encontrar un mejor camino nuevo si la ruta actual deja de estar disponible. Su
función principal es facilitar el intercambio de información, esto permite
compartir información de redes remotas y agregarla automáticamente a la tabla
de enrutamiento.
Existen dos tipos de
enrutamiento:
Enrutamiento Estático
En una red con un número mínimo
de enrutadores puede ser configurada con enrutamiento estático. Una tabla de
enrutamiento es construida manualmente por el administrador de red El
enrutamiento estático proporciona un método que otorga a los ingenieros de
redes control absoluto sobre las rutas por las que se transmiten los datos en
una red. Las tablas de enrutamiento estático no se ajustan a los cambios en la
red. Si la información de la tabla de enrutamiento no es correcta, el tráfico
se reenviará incorrectamente y posiblemente no llegue al destino.
Enrutamiento dinámico
Una red con más de una ruta
posible al mismo destino puede usar enrutamiento dinámico. Una ruta
dinámica es construida por la información intercambiada por los protocolos de
enrutamiento. Los protocolos son diseñados para distribuir la información
ajustando las rutas de entrega al destino dependiendo de las condiciones de la
red. Los protocolos de enrutamiento evalúan y eligen la mejor ruta al destino.
Recuperación.
Si los hosts y los enrutadores
están sujetos a caídas, la recuperación es fundamental. Si la entidad de
transporte está por entero dentro de los hosts, la recuperación de caídas de
red y de enrutadores es sencilla. Si la capa de red proporciona servicio de
datagramas, las entidades de transporte esperan pérdida de algunas TPDUs todo
el tiempo, y saben cómo manejarla. Si la capa de red proporciona servicio
orientado a la conexión, entonces la pérdida de un circuito virtual se maneja
estableciendo otro nuevo y sondeando la entidad de transporte remota para saber
cuáles TPDUs ha recibido y cuáles no.
Un problema más complicado es la
manera de recuperarse de caídas del host. Al reactivarse, sus tablas están en
el estado inicial y no sabe con precisión donde estaba.
En un intento por recuperar su
estado previo, el servidor podría enviar una TPDU de difusión a todos los demás
host, anunciando que se acaba de caer y solicitando a todos sus clientes que le
informen el estado de todas las conexiones abiertas.
Formato
de mensajes.
La información que se envía en
una red de telecomunicaciones debe seguir un conjunto de reglas de formato para
poder asegurar que la información se envíe y se entregue correctamente.
Cada mensaje de computadora se empaqueta en un formato específico, llamado
trama, antes de enviarse a través de la red.
Cuando se envía un mensaje largo
de un host a otro atreves de una red es necesario separarlo en partes más
pequeñas. Las restricciones de tamaño de las tramas requieren que el host de
origen divida un mensaje largo en fragmentos individuales que cumplan los
requisitos de tamaño máximo y mínimo.
Seguridad.
El tema de la seguridad
informática se toma como una disciplina del conocimiento donde se busca cerrar
la brecha de los eventos inesperados que puedan comprometer los activos de una
organización y así contar con estrategias para avanzar ante cualquier
eventualidad.
Si se parte del criterio de que
la seguridad se ocupa de la protección de los bienes, parece natural establecer
cuáles son los bienes informáticos a proteger. A primera vista, puede decirse
que estos son: el hardware, el software y los datos.
Las medidas tomadas para
enfrentar las amenazas informáticas pueden clasificarse en dos grupos:
Seguridad física y lógica
Seguridad técnica o lógica
La seguridad física se
emplea frecuentemente para referirse a las medidas de protección externas.
Normalmente, se implementan mediante dispositivos eléctricos, electrónicos,
etcétera.
Ellas son, probablemente, las
primeras que se introducen en todas las instalaciones informáticas. Esto se
debe a dos factores; por un lado, ante la ocurrencia de una catástrofe las
pérdidas serían completas, por otro, estas medidas de protección son
generalmente las más fáciles de tomar. Su costo no es excesivo (con la
excepción de los sistemas de respaldo eléctrico) y su mantenimiento no
presenta dificultades especiales.
La primera medida de protección
para las salas de los centros de procesamiento de datos (CPD), común a todas
las amenazas expuestas, es la correcta selección de su ubicación geográfica.
Una segunda consideración, también de carácter general, es su adecuada
construcción y su situación idónea dentro del edificio.
Por su parte, las medidas de
seguridad técnicas y lógicas, pretenden proteger, tanto el software (sea de
base o de aplicación) como los datos. Pueden implementarse en dispositivos
hardware o en productos software.
Gestión
de Red.
La gestión de red se define como
la planeación, organización, supervisión y control de elementos de
telecomunicaciones y recursos humanos para garantizar el óptimo servicio de una
red. Tiene como objetivo mejorar la disponibilidad de los elementos de una red,
incrementar la efectividad de la misma, manteniendo un costo económico viable
para las organizaciones que utilizan los recursos de red.
La gestión de red se basa en tres
componentes principales:
Componente
Organizacional.
Define la estructura para el
proceso de gestión y la estrategia apropiada para llevarlo a cabo de acuerdo
con las necesidades de la organización.
Componente Técnico.
Define las herramientas a usar
para realizar la función de gestión y su implantación en la infraestructura.
Componente Funcional.
Define las funciones de gestión
que el componente organizacional debe ejecutar utilizando las herramientas de
gestión.
Fuentes.
No hay comentarios:
Publicar un comentario