jueves, 23 de agosto de 2012

NORMA G.711 Y G..729


G.729 es un algoritmo de compresión de datos de audio para voz que comprime audio de voz en trozos de 10 milisegundos. La música o los tonos tales como los tonos de DTMF o de fax no pueden ser transportados confiablemente con este códec, y utilizar así G.711 o métodos de señalización fuera de banda para transportar esas señales.
G.729 se usa mayoritariamente en aplicaciones de Voz sobre IP VoIP por sus bajos requerimientos en ancho de banda. El estándar G.729 opera a una tasa de bits de 8 kbit/s, pero existen extensiones, las cuales suministran también tasas de 6.4 kbit/s y de 11.8 kbit/s para peor o mejor calidad en la conversación respectivamente. También es muy común G.729a el cual es compatible con G.729, pero requiere menos cómputo. Esta menor complejidad afecta en que la calidad de la conversación es empeorada marginalmente.
El anexo B de G.729 es un esquema de compresión del silencio, el cual tiene un módulo de VAD que se usa para detectar la actividad de la voz. También incluye un módulo DTX el cual decide actualizar los parámetros de ruido de fondo para la ausencia de conversación (entornos ruidosos). Estas tramas que son transmitidas para actualizar los parámetros del ruido de fondo se llaman tramas SID. También hay un generador de ruido comfort (CNG), dado que en un canal de comunicación, si se para la transmisión, a causa de ausencia de conversación, entonces el receptor puede suponer que el enlace se ha roto. Este tema también se trata por el estándar del anexo B.
Recientemente, G.729 ha sido extendido para suministrar soporte para conversación de banda ancha y codificación de audio, por ejemplo, el rango de frecuencia acústica es extendido a 50Hz-7kHz. La extensión respectiva a G.729 es referida como G.729.1. El codificador G.729.1 está organizado jerárquicamente: Su tasa de bits y la calidad obtenida es ajustable por un simple truncado de la corriente de bits.

G.711 es un estándar de la ITU-T para la compresión de audio. Este estándar es usado principalmente en telefonía, y fue liberado para su uso en el año 1972.
G.711 es un estándar para representar señales de audio con frecuencias de la voz humana, mediante muestras comprimidas de unaseñal de audio digital con una tasa de muestreo de 8000 muestras por segundo. El codificador G.711 proporcionará un flujo de datos de 64 kbit/s.
Para este estándar existen dos algoritmos principales, el µ-law (usado en Norte América y Japón) y el A-law (usado en Europa y el resto del mundo)
Ambos algoritmos son logarítmicos, pero el A-law fue específicamente diseñado para ser implementado en una computadora.
El estándar también define un código para secuencia de repetición de valores, el cual define el nivel de potencia de 0 dB.

NORMAS DELAY Y JITTER


Jitter es la desviación no deseada de la periodicidad real de una señal periódica en supuesta electrónicos y de telecomunicaciones, a menudo en relación con una fuente de reloj de referencia. Jitter puede observarse en las características tales como la frecuencia de los impulsos sucesivos, la amplitud de la señal, o fase de las señales periódicas. Jitter es un factor significativo, y por lo general no deseado, en el diseño de casi todos los enlaces de comunicaciones (por ejemplo, USB, PCI-e, SATA, OC-48). En las aplicaciones de recuperación de reloj que se llama tiempo vibración. [1]
Jitter se puede cuantificar en las mismas condiciones que todas las señales variables de tiempo, por ejemplo, RMS, o el desplazamiento de pico a pico. También al igual que otras variables de tiempo de señales, jitter se puede expresar en términos de densidad espectral (contenido de frecuencia).
Período de fluctuación de fase es el intervalo entre dos tiempos de efecto máximo (o mínimo efecto) de una señal característica que varía regularmente con el tiempo. Frecuencia de fluctuación, la cifra más comúnmente citada, es su inversa. UIT-T G.810 clasifica las frecuencias de fluctuación de fase por debajo de 10 Hz como wander y frecuencias iguales o superiores a 10 Hz como fluctuación. [2]
Jitter puede ser causado por la interferencia electromagnética (EMI) y la interferencia con los portadores de otras señales. Jitter puede causar un monitor de pantalla parpadee, afecta al rendimiento de los procesadores de los ordenadores personales, introducir clics u otros efectos no deseados en las señales de audio, y la pérdida de los datos transmitidos entre dispositivos de red. La cantidad de jitter tolerable depende de la aplicación afectada.
En analógico a digital y de conversión digital a analógica de las señales, la frecuencia de muestreo normalmente se supone que es constante. Las muestras deben ser convertidos a intervalos regulares. Si hay fluctuación de fase presente en la señal de reloj al convertidor de analógico a digital o un convertidor de digital a analógico, entonces el error de señal instantánea será introducido. El error es proporcional a la velocidad de subida de la señal deseada y el valor absoluto del error de reloj. Varios efectos de [especificar] puede venir dependiendo del patrón de la fluctuación de fase en relación con la señal. En algunas condiciones, a menos de un nanosegundo de jitter puede reducir la resolución de bits efectiva de un convertidor con una frecuencia de Nyquist de 22 kHz a 14 bits. [Cita requerida].
Esta es una consideración en la conversión de la señal de alta frecuencia, o donde la señal de reloj es especialmente propenso a las interferencias.

PAQUETES PERDIDOS

RTP Control Protocol (RTCP) es un protocolo de comunicación que proporciona información de control que está asociado con un flujo de datos para una aplicación multimedia (flujo RTP). Trabaja junto con RTP en el transporte y empaquetado de datos multimedia, pero no transporta ningún dato por sí mismo. Se usa habitualmente para transmitir paquetes de control a los participantes de una sesión multimedia de streaming. La función principal de RTCP es informar de la calidad de servicio proporcionada por RTP. Este protocolo recoge estadísticas de la conexión y también información como por ejemplo bytes enviados, paquetes enviados, paquetes perdidos o Jitter entre otros. Una aplicación puede usar esta información para incrementar la calidad de servicio (QoS), ya sea limitando el flujo o usando un códec de compresión más baja. En resumen. RTCP se usa para informar de la QoS (Quality of Service). RTCP por sí mismo no ofrece ninguna clase de cifrado de flujo o de autenticación. Para tales propósitos se puede usar SRTCP.

Tipos de paquetes

RTCP define varios tipos de paquetes que incluyen:
- Informes de emisor: Permiten al emisor activo en una sesión informar sobre estadísticas de recepción y transmisión.
- Informes de receptor: Los utilizan los receptores que no son emisores para enviar estadísticas sobre la recepción.
- Descripción de la fuente: Contiene los CNAMEs y otros datos que describen la información de los emisores.
- Paquetes de control específicos de la aplicación. Varios paquetes RTCP pueden ser enviados en un mismo mensaje UDP.
A continuación explicaremos la importancia de la existencia de estos paquetes. En transmisiones multicast la información de control puede consumir un ancho de banda considerable. Para hacerse cargo de este problema RTCP ha establecido un mecanismo para reducir la transmisión de información de control a medida que ingresan más usuarios, que consiste en limitar la cantidad de tránsito de RTCP en un pequeño porcentaje de tráfico de datos en RTP. Este mecanismo también asigna más ancho de banda RTCP a los emisores activos. Un golpe un participante sabe cuánto ancho de banda puede consumir con el tránsito de RTCP la aplicación empieza a enviar informes periódicos de la tasa adecuada. Los informes de emisor y de receptor contienen información sobre los datos recibidos de todas las fuentes en el periodo de informes más reciente. Lo que los diferencia es que los informes de emisor incluyen información extra sobre el emisor. Tanto los informes de emisor (sender reports) como los de receptor (receiver reports) contienen un bloque de datos por fuente que ha sido escuchada desde el último informe. Cada bloque contiene las siguientes estadísticas para la fuente determinada:
· Su SSRC
· La fracción de paquetes de datos de la fuente que se han perdido desde que fue enviado el último informe.
· Número total de paquetes perdidos con origen en esta fuente desde la primera vez que fue escuchada.
· El número de secuencia más alto recibo desde esta fuente
· Jitter
· Último timestamp (contiene la hora del día en que el informe fue generado) recibido a través de RTCP desde la fuente.
· Retardo desde el último informe de emisor recibido a través de RTCP por la fuente. Los receptores pueden deducir muchas cosas a partir de estas informaciones sobre el estado de la sesión. Por ejemplo, pueden ver si otros receptores están obteniendo mejor calidad de otro emisor que la que ellos disponen. Esto puede ser un indicio para reservar recursos o un síntoma de un problema de la red que debe ser atendido.
Paquete de descripción de la fuente
Este paquete contiene como mínimo el SSRC y el CNAME del emisor. El nombre canónico es derivado, de tal manera que todas las aplicaciones que generan media streams que requieran ser sincronizadas, escogerán el mismo CNAME aunque puedan escoger diferentes SSRC. Esto permite al receptor identificar el media stream que viene del mismo emisor. Se pueden incluir otros datos en este paquete, como por ejemplo el nombre real del usuario y su e-mail. Estos son utilizados en la interfícice del usuario para permitir identificar las personas.

PARÁMETROS DE PERFORMANCE


Con el fin de ocupar el vacío existente en la definición de métricas que
especifiquen de una manera formal el rendimiento de redes IP, el IETF
organizó, en el año 1998, un grupo de trabajo denominado IP Performance
Metrics (IPPM) [17], encargado de formalizar parámetros que permitieran tanto
a usuarios como proveedores de red cuantificar el estado de sus servicios de
red. Si bien el grupo de trabajo IPPM define claramente aquellas métricas útiles
en la caracterización de calidad de servicio QoS, no precisa el modo de
obtención de dichas métricas.
Numerosas iniciativas como RMON [18], RTFM [19], PSAMP [20], Sflow [21] o
IPFIX abordan la implementación práctica de métodos de adquisición de
medidas de calidad de servicio. RMON tiene problemas de interoperabilidad y
la tecnología PSAMP no está actualmente implementada en routers.

CLASES DE SERVICIO


Real time control protocol
RTP Control Protocol (RTCP) es un protocolo de comunicación que proporciona información de control que está asociado con un flujo de datos para una aplicación multimedia (flujo RTP). Trabaja junto con RTP en el transporte y empaquetado de datos multimedia, pero no transporta ningún dato por sí mismo. Se usa habitualmente para transmitir paquetes de control a los participantes de una sesión multimedia de streaming. La función principal de RTCP es informar de la calidad de servicio proporcionada por RTP. Este protocolo recoge estadísticas de la conexión y también información como por ejemplo bytes enviados, paquetes enviados, paquetes perdidos o Jitter entre otros. Una aplicación puede usar esta información para incrementar la calidad de servicio (QoS), ya sea limitando el flujo o usando un códec de compresión más baja. En resumen. RTCP se usa para informar de la QoS (Quality of Service). RTCP por sí mismo no ofrece ninguna clase de cifrado de flujo o de autenticación. Para tales propósitos se puede usar SRTCP.


Servicio ‘Assured Forwarding’
Este servicio asegura un trato preferente, pero no garantiza caudales, retardos, etc. Se definen cuatro clases posibles pudiéndose asignar a cada clase una cantidad de recursos en los routers (ancho de banda, espacio en buffers, etc.). La clase se indica en los tres primeros bits del DSCP. Para cada clase se definen tres categorías de descarte de paquetes (probabilidad alta, media y baja) que se especifican en los dos bits siguientes (cuarto y quinto).


Servicio Best Effort: 
Este servicio se caracteriza por tener a cero los tres primeros bits del DSCP. En este caso los dos bits restantes pueden utilizarse para marcar una prioridad, dentro del grupo ‘best effort’. En este servicio no se ofrece ningún tipo de garantías.


CALIDAD DE SERVICIO (QoS)


Sería muy fácil dar Calidad de Servicio si las redes nunca se congestionaran. Para ello habría que sobredimensionar todos los enlaces, cosa no siempre posible o deseable.
Para dar QoS con congestión es preciso tener mecanismos que permitan dar un trato distinto al tráfico preferente y cumplir el SLA (Service Level Agreement).
Decimos que una red o un proveedor ofrece ‘Calidad de Servicio’ o QoS (Quality of Service) cuando se garantiza el valor de uno o varios de los parámetros que definen la calidad de servicio que ofrece la red. Si el proveedor no se compromete en ningún parámetro decimos que lo que ofrece un servicio ‘best effort’.
El contrato que especifica los parámetros de QoS acordados entre el proveedor y el usuario (cliente)  se denomina SLA (Service Level Agreement)

jueves, 16 de agosto de 2012

REDES FULL MALLA


Una red en malla es una red de área local ( LAN ) que emplea a uno de los dos acuerdos de conexión, topología de malla completa o topología de malla parcial. En la topología de malla completa, cada nodo (estación de trabajo u otro dispositivo) está conectado directamente a cada uno de los otros. En la topología de malla parcial, algunos nodos están conectados a todos los demás, pero algunos de los nodos están conectados únicamente a los otros nodos con los que intercambiar la mayor cantidad de datos.

La ilustración muestra una red de malla completa con cinco nodos. Cada nodo se muestra como una esfera, y las conexiones se muestran como líneas rectas. Las conexiones pueden ser por cable o inalámbrica .

Mesh Network

Una red en malla es fiable y ofrece redundancia. Si un nodo ya no pueden operar, todo el resto todavía se pueden comunicar unos con otros, directamente oa través de uno o más nodos intermedios. Las redes en malla funciona bien cuando los nodos están ubicados en puntos dispersos que no se encuentran cerca de una línea común.

El principal inconveniente de la topología de malla es el gasto, debido al gran número de cables y las conexiones necesarias. En algunos casos, una red de anillo o de red en estrella puede resultar más rentable que una red de malla. Si todos los nodos se encuentran cerca de una línea común, la topología de la red de autobuses es a menudo la mejor alternativa en términos de costo.

REDES DE SERVICIOS CONVERGENTE DE VOZ, DATOS Y VÍDEO



Hoy en día, la convergencia de las comunicaciones de empresa - voz, datos y video - en una única red IP es una tendencia imparable. Esto es debido a que las soluciones que integran voz y datos, aportan importantes beneficios para las empresas y sus usuarios:

Ahorros en llamadas
Simplificación infraestructura de comunicaciones
Optimización de la gestión
Unificación del sistema de Telefonía entre sedes
Movilidad / Ubicuidad del usuario

Sin embargo, una red convergente multiservicio debe estar correctamente diseñada y gestionada, puesto que se convierte en un elemento mucho más crítico al soportar todas las comunicaciones de empresa.
En ese sentido se deben tener muy en cuenta aspectos como la fiabilidad, seguridad y control de la calidad de servicio (QoS) para garantizar un funcionamiento óptimo de nuestras comunicaciones.

REDES MPLS MULTI-PROTOCOL LABEL SWITCHING


INTRODUCCIÓN

El enorme crecimiento de la red Internet ha convertido al protocolo IP (Internet Protocol) en la base de las actuales redes de telecomunicaciones, contando con más del 80% del tráfico cursado. La versión actual de IP, conocida por IPv4 y recogida en la RFC 791, lleva operativa desde 1980. Este protocolo de capa de red (Nivel 3 OSI), define los mecanismos de la distribución o encaminamiento de paquetes, de una manera no fiable y sin conexión, en redes heterogéneas; es decir, únicamente está orientado a servicios no orientados a conexión y a la transferencia de datos, por lo que se suele utilizar junto con TCP (Transmission Control Protocol) (Nivel 4 de OSI) para garantizar la entrega de los paquetes.
A mediados de la década de los 90, la demanda por parte de los clientes de los ISP (Internet Service Providers) de aplicaciones multimedia con altas necesidades de ancho de banda y una calidad de servicio o QoS (Quality of Service) garantizada, propiciaron la introducción de ATM (Asyncronous Transfer Mode) en la capa de enlace (Nivel 2 de OSI) de sus redes. En esos momentos, el modelo de IP sobre ATM satisfacía los requisitos de las nuevas aplicaciones, utilizando el encaminamiento inteligente de nivel 3 de los routers IP en la red de acceso, e incrementando el ancho de banda y rendimiento basándose en la alta velocidad de los conmutadores de nivel 2 y los circuitos permanentes virtuales de los switches ATM en la red troncal. Esta arquitectura, no obstante, presenta ciertas limitaciones, debido a: la dificultad de operar e integrar una red basándose en dos tecnologías muy distintas, la aparición de switches ATM e IP de alto rendimiento en las redes troncales, y la mayor capacidad de transmisión ofrecida por SDH/SONET (Synchronous Digital Hierarchy / Syncronous Optical NETwork) y DWDM (Dense Wavelength Division Multiplexing) respecto a ATM.
Durante 1996, empezaron a aparecer soluciones de conmutación de nivel 2 propietarias diseñadas para el núcleo de Internet que integraban la conmutación ATM con el encaminamiento IP; como por ejemplo, Tag Switching de Cisco o Aggregate Route-Based IP Switching de IBM. La base común de todas estas tecnologías, era tomar el software de control de un router IP, integrarlo con el rendimiento de reenvío con cambio de etiqueta de un switch ATM y crear un router extremadamente rápido y eficiente en cuanto a coste. La integración en esta arquitectura era mayor, porque se utilizaban protocolos IP propietarios para distribuir y asignar los identificadores de conexión de ATM como etiquetas; pero los protocolos no eran compatibles entre sí y requerían aún de infraestructura ATM.
Finalmente en 1997, el IETF (Internet Engineering Task Force) establece el grupo de trabajo MPLS (MultiProtocol Label Switching) para producir un estándar que unificase las soluciones propietarias de conmutación de nivel 2. El resultado fue la definición en 1998 del estándar conocido por MPLS, recogido en la RFC 3031. MPLS proporciona los beneficios de la ingeniería de tráfico del modelo de IP sobre ATM, pero además, otras ventajas; como una operación y diseño de red más sencillo y una mayor escalabilidad. Por otro lado, a diferencia de las soluciones de conmutación de nivel 2 propietarias, está diseñado para operar sobre cualquier tecnología en el nivel de enlace, no únicamente ATM, facilitando así la migración a las redes ópticas de próxima generación, basadas en infraestructuras SDH/SONET y DWDM.

CONCEPTO DE MPLS

MPLS es un estándar IP de conmutación de paquetes del IETF, que trata de proporcionar algunas de las características de las redes orientadas a conexión a las redes no orientadas a conexión. En el encaminamiento IP sin conexión tradicional, la dirección de destino junto a otros parámetros de la cabecera, es examinada cada vez que el paquete atraviesa un router. La ruta del paquete se adapta en función del estado de las tablas de encaminamiento de cada nodo, pero, como la ruta no puede predecirse, es difícil reservar recursos que garanticen la QoS; además, las búsquedas en tablas de encaminamiento hacen que cada nodo pierda cierto tiempo, que se incrementa en función de la longitud de la tabla.
Sin embargo, MPLS permite a cada nodo, ya sea un switch o un router, asignar una etiqueta a cada uno de los elementos de la tabla y comunicarla a sus nodos vecinos. Esta etiqueta es un valor corto y de tamaño fijo transportado en la cabecera del paquete para identificar un FEC (Forward Equivalence Class), que es un conjunto de paquetes que son reenviados sobre el mismo camino a través de la red, incluso si sus destinos finales son diferentes. La etiqueta es un identificador de conexión que sólo tiene significado local y que establece una correspondencia entre el tráfico y un FEC específico. Dicha etiqueta se asigna al paquete basándose en su dirección de destino, los parámetros de tipo de servicio, la pertenencia a una VPN, o siguiendo otro criterio. Cuando MPLS está implementado como una solución IP pura o de nivel 3, que es la más habitual, la etiqueta es un segmento de información añadido al comienzo del paquete. Los campos de la cabecera MPLS de 4 bytes, son los siguientes:
  • Label (20 bits). Es el valor actual, con sentido únicamente local, de la etiqueta MPLS. Esta etiqueta es la que determinará el próximo salto del paquete.
  • CoS (3 bits). Este campo afecta a los algoritmos de descarte de paquetes y de mantenimiento de colas en los nodos intermedios, es decir, indica la QoS del paquete. Mediante este campo es posible diferenciar distintos tipos de tráficos y mejorar el rendimiento de un tipo de tráfico respecto a otros.
  • Stack (1 bit). Mediante este bit se soporta una pila de etiquetas jerárquicas, es decir, indica si existen más etiquetas MPLS. Las cabeceras MPLS se comportan como si estuvieran apiladas una sobre otra, de modo que el nodo MPLS tratará siempre la que esté más alto en la pila. La posibilidad de encapsular una cabecera MPLS en otras, tiene sentido, por ejemplo, cuando se tiene una red MPLS que tiene que atravesar otra red MPLS perteneciente a un ISP u organismo administrativo externo distinto; de modo que al terminar de atravesar esa red, se continúe trabajando con MPLS como si no existiera dicha red externa.

ELEMENTOS DE UNA RED MPLS

En MPLS un concepto muy importante es el de LSP (Label Switch Path), que es un camino de tráfico específico a través de la red MPLS, el cual se crea utilizando los LDPs (Label Distribution Protocols), tales como RSVP-TE (ReSerVation Protocol – Traffic Engineering) o CR-LDP (Constraint-based Routing – Label Distribution Protocol); siendo el primero el más común. El LDP posibilita a los nodos MPLS descubrirse y establecer comunicación entre sí con el propósito de informarse del valor y significado de las etiquetas que serán utilizadas en sus enlaces contiguos. Es decir, mediante el LDP se establecerá un camino a través de la red MPLS y se reservarán los recursos físicos necesarios para satisfacer los requerimientos del servicio previamente definidos para el camino de datos.
Una red MPLS está compuesta por dos tipos principales de nodos, los LER (Label Edge Routers) y los LSR (Label Switching Routers), tal y como se muestra en el ejemplo de la Figura 1. Los dos son físicamente el mismo dispositivo, un router o switch de red troncal que incorpora el software MPLS; siendo su administrador, el que lo configura para uno u otro modo de trabajo. Los nodos MPLS al igual que los routers IP normales, intercambian información sobre la topología de la red mediante los protocolos de encaminamiento estándar, tales como OSPF (Open Shortest Path First), RIP (Routing Information Protocol ) y BGP (Border Gateway Protocol), a partir de los cuales construyen tablas de encaminamiento basándose principalmente en la alcanzabilidad a las redes IP destinatarias. Teniendo en cuenta dichas tablas de encaminamiento, que indican la dirección IP del siguiente nodo al que le será enviado el paquete para que pueda alcanzar su destino final, se establecerán las etiquetas MPLS y, por lo tanto, los LSP que seguirán los paquetes. No obstante, también pueden establecerse LSP que no se correspondan con el camino mínimo calculado por el protocolo de encaminamiento.
Los LERs están ubicados en el borde de la red MPLS para desempeñar las funciones tradicionales de encaminamiento y proporcionar conectividad a sus usuarios, generalmente routers IP convencionales. El LER analiza y clasifica el paquete IP entrante considerando hasta el nivel 3, es decir, considerando la dirección IP de destino y la QoS demandada; añadiendo la etiqueta MPLS que identifica en qué LSP está el paquete. Es decir, el LER en vez de decidir el siguiente salto, como haría un router IP normal, decide el camino entero a lo largo de la red que el paquete debe seguir. Una vez asignada la cabecera MPLS, el LER enviará el paquete a un LSR. Los LSR están ubicados en el núcleo de la red MPLS para efectuar encaminamiento de alto rendimiento basado en la conmutación por etiqueta, considerando únicamente hasta el nivel 2. Cuando le llega un paquete a una interfaz del LSR, éste lee el valor de la etiqueta de entrada de la cabecera MPLS, busca en la tabla de conmutación la etiqueta e interfaz de salida, y reenvía el paquete por el camino predefinido escribiendo la nueva cabecera MPLS. Si un LSR detecta que debe enviar un paquete a un LER, extrae la cabecera MPLS; como el último LER no conmuta el paquete, se reducen así cabeceras innecesarias.Ejemplo de una red MPLS

PVC CONCEPTO DE CIRCUITO VIRTUAL PERMANENTE


Circuito virtual
Un circuito virtual (VC por sus siglas en inglés) es un sistema de comunicación por el cual los datos de un usuario origen pueden ser transmitidos a otro usuario destino a través de más de un circuito de comunicaciones real durante un cierto periodo de tiempo, pero en el que la conmutación es transparente para el usuario.Un ejemplo de protocolo de circuito virtual es el ampliamente utilizado TCP (Protocolo de Control de Transmisión).
Es una forma de comunicación mediante conmutación de paquetes en la cual la información o datos son empaquetados en bloques que tienen un tamaño variable a los que se les denomina paquetes. El tamaño de los bloques lo estipula la red. Los paquetes suelen incluir cabeceras con información de control. Estos se transmiten a la red, la cual se encarga de su encaminamiento hasta el destino final. Cuando un paquete se encuentra con un nodo intermedio, el nodo almacena temporalmente la información y encamina los paquetes a otro nodo según las cabeceras de control. Es importante saber que en este caso los nodos no necesitan tomar decisiones de encaminamiento, ya que la dirección a seguir viene especificada en el propio paquete.
Las dos formas de encaminación de paquetes son: datagrama y circuitos virtuales. Este artículo está centrado en el segundo.
En los circuitos virtuales, al comienzo de la sesión se establece una ruta única entre las ETD (entidades terminales de datos) o los host extremos. A partir de aquí, todos los paquetes enviados entre estas entidades seguirán la misma ruta.
Las dos formas de establecer la transmisión mediante circuitos virtuales son los circuitos virtuales conmutados(SVC) y los circuitos virtuales permanentes(PVC).
Los circuitos virtuales conmutados (SVC) por lo general se crean ex profeso y de forma dinámica para cada llamada o conexión, y se desconectan cuando la sesión o llamada es terminada. Como ejemplo de circuito virtual conmutado se tienen los enlaces ISDN. Se utilizan principalmente en situaciones donde las transmisiones son esporádicas. En terminología ATM esto se conoce como conexión virtual conmutada. Se crea un circuito virtual cuando se necesita y existe sólo durante la duración del intercambio específico.

Ejemplo

  • La ETD A solicita el envío de paquetes a la ETD E.
Cvredes1.jpg
  • Cuando la conexión ya está establecida se comienzan a enviar los paquetes de forma ordenada por la ruta uno tras otro.
Cvredes2.jpg
  • Cuando la ETD E recibe el último paquete, se libera la conexión, por lo que el circuito virtual deja de existir.
Cvredes3.jpgCircuito virtual permanente

También se puede establecer un circuito virtual permanente (PVC) a fin de proporcionar un circuito dedicado entre dos puntos. Un PVC es un circuito virtual permanente establecido para uso repetido por parte de los mismos equipos de transmisión. En un PVC la asociación es idéntica a la fase de transferencia de datos de una llamada virtual. Los circuitos permanentes eliminan la necesidad de configuración y terminación repetitivas para cada llamada. Es decir se puede usar sin tener que pasar por la fase de establecimiento ni liberación de las conexiones. El circuito está reservado a una serie de usuarios y nadie más puede hacer uso de él. Una característica especial que en el SVC no se daba es que si dos usuarios solicitan una conexión, siempre obtienen la misma ruta.

VIDEOCONFERENCIA Y TELEFONÍA IP




VIDEOCONFERENCIA
La videoconferencia es una tecnología que permite enlazar dos puntos ubicados a larga distancia entre sí proporcionando una comunicación en tiempo real por medio de transmisión de audio, video y datos.

En las reuniones que regularmente se realizan en algún sitio y requieren de la comunicación de persona a persona, la videoconferencia puede sustituir la presencia física del participante en el sitio remoto. Esto reduce costos de viaje y tiempo. Además, las videoconferencias se pueden enriquecer con la integración de medios de exposición electrónicos y de comunicación tales como pizarras, documentos electrónicos, escritos a mano y videos que pueden incorporarse a la transmisión.

La videoconferencia ha adquirido gran importancia como medio de capacitación y actualización tanto en el ámbito académico como en empresarial ya que es posible la comunicación a cualquier parte del mundo, lo que se traduce en un intercambio de programas y conocimiento con Universidades y Empresas Nacionales e Internacionales. Este medio educativo ha demostrado, mediante el uso de las telecomunicaciones y la informática, mayor efectividad, potencialidad y menor costo en la realización de programas de capacitación.

En el campo universitario, un sistema de video conferencia proporciona importantes beneficios como una mayor integración entre grupos de trabajo y cuerpos académicos de distintos campus beneficiando tanto a investigadores, funcionarios y usuarios externos, al personal administrativo y a los estudiantes, así como a la comunidad en su conjunto dando acceso a recursos pedagógicos de la propia institución o de cualquier parte del mundo.

La producción y realización de una videoconferencia requiere de equipos multidisciplinarios con conocimientos básicos en informática, producción de audio y vídeo y aspectos de pedagogía, particularmente en educación a distancia. En la elaboración de los materiales gráficos, documentales o electrónicos de apoyo a las presentaciones es necesaria la planeación adecuada y con el tiempo suficiente que permita una realización de alta calidad.

Las instalaciones para videoconferencias no son exclusicas a esas aplicaciones, además pueden utilizarse para la cursos, demostraciones, reuniones periódicas, entrevistas, conferencias, talleres, seminarios, congresos, cursos de capacitación, cursos de postgrado y acceso para los estudiantes de necesidades especiales.Audio y video.

Sistema de audio.

Se compone de audio de entrada y audio de salida. Como sistema de audio, se puede lograr lo siguiente: cancelación de eco y supresión de ruidos, adaptándose a las características acústicas de la sala.

En una videoconferencia de audio half-dúplex los participantes pueden oír a sólo un portavoz en un momento y debe indicar de algún modo cuando el mando del portavoz se ha pasado. En el caso donde el audio es "natural" en el sentido de que todos los asistentes pueden oir a los demás en todo momento se le llama full-dúplex. También se da el caso en el cual nadie tiene en mando en el control del audio al utilizar un sistema full-duplex que está continuamente disponible, y el portavoz es determinado por acuerdo general de los presente, así como en una reunión físicamente inmediata (la vista de sitios participantes sería por activación de voz o por presencia continua).

CONCEPTO DE CONGESTIÓN

Hay varias causas de congestión. Enumeraremos aquí las más importantes: 
  
 
  • Memoria insuficiente de los conmutadores. Por ejemplo, veamos la siguiente figura:
Figura 3.14 Saturación del buffer de un nodo
En ella se tiene un conmutador en el que tres líneas de entrada mandan paquetes a una de salida. Así puede llenarse el buffer (cola) de la línea de salida.
Además, si hay congestión en otros nodos, las colas no liberan la información de los paquetes transmitidos (que se guarda por si hay que retransmitir), con lo que la situación empeora aún más.
 
  • Insuficiente CPU en los nodos. Puede que el nodo sea incapaz de procesar toda la información que le llega, con lo que hará que se saturen las colas.
 
  • Velocidad insuficiente de las líneas. Se tiene el mismo problema que en el caso anterior.

1.3 Diferencia entre control de flujo y control de congestión.

1.3.1 Control de flujo.

Es una técnica que permite sincronizar el envío de información entre dos entidades que producen/procesan la misma a distintas velocidades. Por ejemplo, supongamos el caso representado en la siguiente figura:

Figura 3.10 Conexión entre nodo de alta capacidad y PC
nodo conectado con PC
En este caso, dada la gran velocidad a la que produce y envía información, el nodo desborda al PC, por lo que éste debe enviar información de control (control de flujo) para que el nodo reduzca su tasa de envío de datos. De esta forma , parando a la fuente cada cierto tiempo, el PC puede procesar el tráfico que le envía el nodo. 
  
 

1.3.2 Control de congestión.

Es un concepto más amplio que el control de flujo. Comprende todo un conjunto de técnicas para detectar y corregir los problemas que surgen cuando no todo el tráfico ofrecido a una red puede ser cursado, con los requerimientos de retardo, u otros, necesarios desde el punto de vista de la calidad del servicio. Por tanto, es un concepto global, que involucra a toda la red, y no sólo a un remitente y un destinatario de información, como es el caso del control de flujo.
Figura 3.11 Congestión en un nodo
congestión en un nodo
El control de flujo es una más de las técnicas para combatir la congestión. Se consigue con ella parar a aquellas fuentes que vierten a la red un tráfico excesivo. Sin embargo, como veremos, hay otros mecanismos. 
  
  
 

2 Soluciones. Mecanismos de control de congestión.

El problema del control de congestión puede enfocarse matemáticamente desde el punto de vista de la teoría de control de procesos, y según esto pueden proponerse soluciones en bucle abierto y en bucle cerrado
  
 

FORMATO DE TRAMA DE NIVEL 2


ISDN Líneas digitales. Formato de trama de nivel 2
La Red Digital de Servicios Integrados (R.D.S.I.) - según la definición establecida por la UIT-T (Unión Internacional de Telecomunicaciones)- es una red que procede por evolución de la Red Digital Integrada y que facilita conexiones digitales extremo a extremo para proporcionar una amplia gama de servicios, tanto de voz como de otros tipos, y a la que los usuarios acceden a través de un conjunto definido de interfaces normalizados.
DEFINICIONES:
RED: “Un conjunto de nodos y enlaces que proveen conexiones entre dos o más puntos definidos para facilitar la telecomunicación entre ellos.”

Como las redes son grandes y complejas, se trata de reducir el concepto a suma de elementos más simples y la representaremos como una caja negra.La red se puede representar como una caja que contiene los nodos y enlaces capaz de proveer toda la información electrónica que el usuario pueda necesitar, desde una simple llamada telefónica a una sofisticada transmisión de datos, de imagen o de textos. Todo esto es posible dentro de la RDSI.

DIGITAL: (Señal digital) “Señal discretizada y representada en el sistema binario con señal-ausencia de señal.”

La información que se lleva en las redes puede ser de diferentes tipos, por ejemplo, cuando hablamos por un micrófono en teléfono convencional, las variaciones de presión en el micrófono son convertidas en variaciones de tensión, esta señal es analógica pues varía de una forma continua con el tiempo. Esta señal es la que se enviaba por las redes telefónicas hasta hace muy poco tiempo. Esta señal se puede convertir en una representación de señal-ausencia de señal (Unos y ceros) por medio de un convertidor analógico digital.

SERVICIOS: “Algo que se provee al usuario”


El término servicios es lo que más controversia ha conseguido con el nacimiento de nuevos sistemas de información y telecomunicaciones.
Antes los servicios estaban muy claros como la telefonía, telegrafía facsímil, telex y su entorno estaba regulado por leyes y monopolios en ciertos países, sin embargo en los últimos años cuando se han podido añadir opciones como mensajería, telefonía móvil etc., las distinciones han dejado de tener sentido. Además la liberalización de las telecomunicaciones el pasado 1 de diciembre ha abierto un amplísimo campo para que nuevas compañías ofrezcan nuevos servicios.


INTEGRADOS: “Que sus partes forman composición de un todo”
El término integrado se ha usado para expresar dos atributos de la red digital diferentes, al principio el uso del término significaba la posibilidad de conectar diferentes redes digitales de manera que parecieran una, más recientemente durante las discusiones de las recomendaciones se ha tomado más como la descripción de la red de proveer múltiples servicios como telefonía y datos etc.

ISDN LINEAS DIJITALES


Se define la RDSI (Red Digital de Servicios Integrados, en ingles ISDN) como una evolución de las Redes actuales, que presta conexiones extremo a extremo a nivel digital y capaz de ofertar diferentes servicios.

Decimos Servicios integrados porque utiliza la misma infraestructura para muchos servicios que tradicionalmente requerían interfaces distintas (télex, voz, conmutación de circuitos, conmutación de paquetes...); es digital porque se basa en la transmisión digital, integrando las señales analógicas mediante la transformación Analógico - Digital, ofreciendo una capacidad básica de comunicación de 64 Kbps.
*Velocidad:=las comunicaciones a través de una línea telefónicas empleando señales analógicas entre central y usuario mediante el uso de modems está alrededor de los 56Kbps. En la práctica las velocidades se limitan a unos 45Kbps debido a la calidad de la línea.                                                                               *Conexión de múltiples dispositivos.                                                                                           *Señalización= Establecer la llamada de esta manera requiere bastante tiempo. Por ejemplo, entre 30 y 60 segundos con la norma V.34 para modems.                                                                                          *Servicios= télex, facsímil, videoconferencia, conexión a Internet.., y opciones como llamada en espera, identidad del origen...

ORIENTANDO A LA CONEXIÓN Y NO FIABLE


Protocolo orientado a la conexión
Un protocolo orientado a la conexión identifica el flujo de tráfico con un identificador de conexión en lugar de utilizar explícitamente las direcciones de la fuente y el destino. Típicamente, el identificador de conexión es un escalar (por ejemplo en Frame Relay son 10 bits y en Asynchronous Transfer Mode 24 bits). Esto hace a los conmutadores de red substancialmente más rápidos (las tablas de encaminamiento son más sencillas, y es más fácil construir el hardware de los conmutadores). El impacto es tan grande, que protocolos típicamente no orientados a la conexión, tal como el tráfico de IP, utilizan prefijos orientados a la conexión (por ejemplo IPv6 incorpora el campo "etiqueta de flujo").
Se dice que un servicio de comunicación entre dos entidades es orientado a conexión cuando antes de iniciar la comunicación se verifican determinados datos (disponibilidad, alcance, etc.) entre estas entidades y se negocian unas credenciales para hacer esta conexión más segura y eficiente. Este tipo de conexiones suponen mayor carga de trabajo a una red (y tal vez retardo) pero aportan la eficiencia y fiabilidad necesaria a las comunicaciones que la requieran.
Algunos protocolos orientados a la conexión son Transmission Control Protocol, Frame Relay y Asynchronous Transfer Mode.Seguridad

Hay cierta confusión sobre la seguridad y los servicios orientados a la conexión y no orientados a la conexión. En el pasado, cuando había menos servicios y protocolos, y había menos aplicaciones, se creía que los servicios orientados a la conexión eran seguros y los no orientados a la conexión no eran seguros.
Estas equivalencias no son ciertas.[cita requerida] Es posible diseñar una capa de transporte que proporciona un servicio orientado a la conexión no seguro. De forma similar, una capa de transporte puede proporcionar un servicio no orientado a la conexión seguro, si utiliza una capa de red segura.

PROTOCOLO FRAME RELAY



Frame Relay
Frame Relay o (Frame-mode Bearer Service) es una técnica de comunicación mediante retransmisión de tramas para redes de circuito virtual, introducida por la ITU-T a partir de la recomendación I.122 de 1988. Consiste en una forma simplificada de tecnología de conmutación de paquetes que transmite una variedad de tamaños de tramas o marcos (“frames”) para datos, perfecto para la transmisión de grandes cantidades de datos.
La técnica Frame Relay se utiliza para un servicio de transmisión de voz y datos a alta velocidad que permite la interconexión de redes de área local separadas geográficamente a un coste menor.
Frame Relay proporciona conexiones entre usuarios a través de una red pública, del mismo modo que lo haría una red privada punto a punto, esto quiere decir que es orientado a la conexión.
Las conexiones pueden ser del tipo permanente, (PVC, Permanent Virtual Circuit) o conmutadas (SVC, Switched Virtual Circuit). Por ahora sólo se utiliza la permanente. De hecho, su gran ventaja es la de reemplazar las líneas privadas por un sólo enlace a la red.
El uso de conexiones implica que los nodos de la red son conmutadores, y las tramas deben llegar ordenadas al destinatario, ya que todas siguen el mismo camino a través de la red, puede manejar tanto tráfico de datos como de voz.
Al contratar un servicio Frame Relay, contratamos un ancho de banda determinado en un tiempo determinado. A este ancho de banda se le conoce como CIR (Commited Information Rate). Esta velocidad, surge de la división de Bc (Committed Burst), entre Tc (el intervalo de tiempo). No obstante, una de las características de Frame Relay es su capacidad para adaptarse a las necesidades de las aplicaciones, pudiendo usar una mayor velocidad de la contratada en momentos puntuales, adaptándose muy bien al tráfico en ráfagas. Aunque la media de tráfico en el intervalo Tc no deberá superar la cantidad estipulada Bc.
Estos bits de Bc serán enviados de forma transparente. No obstante, cabe la posibilidad de transmitir por encima del CIR contratado, mediante los Be (Excess Burst). Estos datos que superan lo contratado, serán enviados en modo best-effort, activándose el bit DE de estas tramas, con lo que serán las primeras en ser descartadas en caso de congestión en algún nodo.Fr cir.PNG