jueves, 27 de septiembre de 2012







La comunicación del DSLAM y el MODEM xDSL se realiza a través de dos interfaces llamadas (ATU-R o "ADSL Terminal Unit-Remote") del lado del cliente o abonado y (ATU-C o "ADSL Terminal Unit-Central") del lado del proveedor del servicio. Delante de cada uno de ellos se ha de colocar un dispositivo denominado splitter. Este dispositivo no es más que un conjunto de dos filtros: uno de paso alto y otro de paso bajo. La finalidad de estos filtros es la de separar las señales transmitidas de baja frecuencia (telefonía) y las de alta frecuencia (datos).


El motivo de que haya que separarla es porque se dispone sólo de un par de hilos de cobre para enviar las dos señales, pero como van en distintos rangos de frecuencia, es posible: Primero, mezclar las dos señales ADSL (alta frecuencia) y voz (baja frecuencia) a través de un splitter en la central que por una parte mezcla y por otra parte evita que se comuniquen eléctricamente los circuitos de voz (lic) y los circuitos de datos (DSLAM). Segundo, en el destino la señal mezclada de ADSL y voz llega a través de un par de cobre y para separarlas se puede utilizar otro splitter cuya salida PAST (Paso de Servicio Telefónico) se conecta a todos los teléfonos, fax, y alarmas de la casa, y la salida PASBA (Paso de Servicio de Banda Ancha) se conecta únicamente al enrutador. Otra opción es que la suma de las dos señales llegue directamente al ATU-R, que suele ser un módem o módem-enrutador, y que para conectar los teléfonos a la línea se utilicen filtros que dejan pasar sólo las frecuencias bajas (voz), son los conocidos como "Microfiltros".

MULTIPLEXOR DSL


digital subscriber line access multiplexer (DSLAM, often pronounced dee-slam) is a network device, often located in the telephone exchanges of the telecommunications operators. It connects multiple customer digital subscriber line(DSL) interfaces to a high-speed digital communications channel using multiplexingtechniques.[1]
By placing additional DSLAMs at locations remote from the telephone exchange,telephone companies provide DSL service to locations previously beyond effective range.

PRINCIPIOS BÁSICOS DE ATM







Con esta tecnología, a fin de aprovechar al máximo la capacidad de los sistemas de transmisión, sean estos de cable o radioeléctricos, la información no es transmitida y conmutada a través de canales asignados en permanencia, sino en forma de cortos paquetes (celdas ATM) de longitud constante y que pueden ser enrutadas individualmente mediante el uso de los denominadoscanales virtuales y trayectos virtuales.





Figura 1.- Diagrama simplificado del proceso ATM






En la Figura 1 se ilustra la forma en que diferentes flujos de información, de características distintas en cuanto a velocidad y formato, son agrupados en el denominado Módulo ATM para ser transportados mediante grandes enlaces de transmisión a velocidades (bit rate) de 155 o 622 Mbit/s facilitados generalmente por sistemas SDH.


En el terminal transmisor, la información es escrita byte a byte en el campo de información de usuario de la celda y a continuación se le añade la cabecera.


En el extremo distante, el receptor extrae la información, también byte a byte, de las celdas entrantes y de acuerdo con la información de cabecera, la envía donde ésta le indique, pudiendo ser un equipo terminal u otro módulo ATM para ser encaminada a otro destino. En caso de haber más de un camino entre los puntos de origen y destino, no todas las celdas enviadas durante el tiempo de conexión de un usuario serán necesariamente encaminadas por la misma ruta, ya que en ATM todas las conexiones funcionan sobre una base virtual.
[editar]Formato de las celdas ATM


Son estructuras de datos de 53 bytes compuestas por dos campos principales:
Header, sus 5 bytes tienen tres funciones principales: identificación del canal, información para la detección de errores y si la célula es o no utilizada. Eventualmente puede contener también corrección de errores y un número de secuencia.
Payload, tiene 48 bytes fundamentalmente con datos del usuario y protocolos AAL que también son considerados como datos del usuario.


Dos de los conceptos más significativos del ATM, Canales Virtuales y Rutas Virtuales, están materializados en dos identificadores en el header de cada célula (VCI y VPI) ambos determinan el enrutamiento entre nodos. El estándar define el protocolo orientado a conexión que las transmite y dos tipos de formato de celda:
NNI (Network to Network Interface o interfaz red a red) El cual se refiere a la conexión de Switches ATM en redes privadas
UNI (User to Network Interface o interfaz usuario a red) este se refiere a la conexión de un Switch ATM de una empresa pública o privada con un terminal ATM de un usuario normal, siendo este último el más utilizado.



Diagrama de una celda UNI
7

43

0
GFCVPI
VPI
VCI
PTCLP
HEC




Payload (48 bytes)


Diagrama de una celda NNI
7

43

0
VPI
VPI
VCI
PTCLP
HEC




Payload (48 bytes)


CONCEPTO DE SUBPORTADORAS DE BAJADA Y SUBIDA




LTE (Long Term Evolution) es un nuevo estándar de la norma 3GPP. Definida para unos como una evolución de la norma 3GPPUMTS (3G) para otros un nuevo concepto de arquitectura evolutiva (4G).


Lo novedoso de LTE es la interfaz radioeléctrica basada en OFDMA para el enlace descendente (DL) y SC-FDMA para el enlace ascendente (UL). La modulación elegida por el estándar 3GPP hace que las diferentes tecnologías de antenas (MIMO) tengan una mayor facilidad de implementación.

.
Características
Alta eficiencia espectral
OFDM de enlace descendente robusto frente a las múltiples interferencias y de alta afinidad a las técnicas avanzadas como la programación de dominio frecuencial del canal dependiente y MIMO.
DFTS-OFDM (single-Carrier FDMA) al enlace ascendente, bajo PAPR, ortogonalidad de usuario en el dominio de la frecuencia.
Multi-antena de aplicación.
Muy baja latencia con valores de 100 ms para el Control-Plane y 10 ms para el User-Plane.
Separación del plano de usuario y el plano de control mediante interfaces abiertas.
Ancho de banda adaptativo: 1.4, 3, 5, 10, 15 y 20 Mhz.
Puede trabajar en muchas bandas frecuenciales diferentes.
Arquitectura simple de protocolo.
Compatibilidad con otras tecnologias de 3GPP.
Interfuncionamiento con otros sistemas como CDMA2000.
Red de frecuencia única OFDM.
Velocidades de pico:
Bajada: 326,5 Mbps para 4x4 antenas, 172,8 Mbps para 2x2 antenas.
Subida: 86’5 mbps
Óptimo para desplazamientos hasta 15 km/h. Compatible hasta 500 km/h.
Más de 200 usuarios por celda. Celda de 5 Mhz.
Celdas de 100 a 500 km con pequeñas degradaciones cada 30 km. Tamaño óptimo de las celdas 5 km. El Handover entre tecnologías 2G (GSM - GPRS - EDGE), 3G (UMTS - W-CDMA - HSPA) y LTE son transparentes. LTE nada más soporta hard-handover.
La 2G y 3G están basadas en técnicas de Conmutación de Circuito (CS) para la voz mientras que LTE propone la técnica deConmutación por paquetes IP (PS) al igual que 3G (incluyendo las comunicaciones de voz).
Las operadoras UMTS pueden usar más espectro, hasta 20 Mhz.
Mejora y flexibilidad del uso del espectro (FDD y TDD) haciendo una gestión más eficiente del mismo, lo que incluiría servicios unicast y broadcast. Reducción en TCO (coste de analisis e implementación) y alta fidelidad para redes de Banda Ancha Móvil.

MULTIPLEXOR POR DIVISIÓN DE FRECUENCIA


La multiplexación por división de frecuencia (MDF) o (FDM), del inglés Frequency Division Multiplexing, es un tipo demultiplexación utilizada generalmente en sistemas de transmisión analógicos. La forma de funcionamiento es la siguiente: se convierte cada fuente de varias que originalmente ocupaban el mismo espectro de frecuencias, a una banda distinta de frecuencias, y se transmite en forma simultánea por un solo medio de transmisión. Así se pueden transmitir muchos canales de banda relativamente angosta por un solo sistema de transmisión de banda ancha.
El FDM es un esquema análogo de multiplexado; la información que entra a un sistema FDM es analógica y permanece analógica durante toda su transmisión. Un ejemplo de FDM es la banda comercial de AM, que ocupa un espectro de frecuencias de 535 a 1605 kHz. Si se transmitiera el audio de cada estación con el espectro original de frecuencias, sería imposible separar una estación de las demás. En lugar de ello, cada estación modula por amplitud una frecuencia distinta de portadora, y produce una señal de doble banda lateral de 10KHz.
Hay muchas aplicaciones de FDM, por ejemplo, la FM comercial y las emisoras de televisión, así como los sistemas de telecomunicaciones de alto volumen. Dentro de cualquiera de las bandas de transmisión comercial, las transmisiones de cada estación son independientes de las demás.
Una variante de MDF es la utilizada en fibra óptica, donde se multiplexan señales, que pueden ser analógicas o digitales, y se transmiten mediante portadoras ópticas de diferente longitud de onda, dando lugar a la denominada multiplexación por división de longitud de onda, o WDM del inglés Wavelength Division Multiplexing.
En la Figura 1 siguiente se representa, de forma muy esquematizada, un conjunto multiplexor-demultiplexor por división de frecuencia para tres canales, cada uno de ellos con el ancho de banda típico del canal telefónico analógico (0,3 a 3,4 kHz).
Muxanalog.png
Figura 1.- Circuito simplificado del conjunto multiplexor-demultiplexor analógico

SPLITER PASA ALTO Y PASA BAJO







Un filtro DSL es un filtro pasa bajo analógico instalado entre dispositivos analógicos (tales como teléfonos y módems analógicos) y un línea telefónica POTS, usado para prevenir interferencia entre tales dispositivos y un servicio DSL operando en la misma línea. Sin los filtros DSL, las señales o ecos de los dispositivos analógicos pueden reducir el rendimiento y producir problemas de conexión con el servicio DSL, mientras que para los dispositivos analógicos puede resultar como ruido en la línea y otros problemas.


La instalación típica requiere las instalación de filtros DSL en cada teléfono, fax, módem analógico, y otros dispositivos que utilicen la línea telefónica, dejando el módem DSL como el único dispositivo sin filtrar.1

MÓDEM ATU-R (terminal central)

Línea de abonado digital asimétrica , ADSL (sigla del inglés Asymmetric Digital Subscriber Line) es un tipo de tecnología de línea DSL. Consiste en una transmisión analógica de datos digitales apoyada en el par simétrico de cobre que lleva la línea telefónica convencional o línea de abonado, siempre y cuando la longitud de línea no supere los 5,5 km medidos desde la Central Telefónica, o no haya otros servicios por el mismo cable que puedan interferir. Es una tecnología de acceso a Internet de banda ancha, lo que implica una velocidad superior a una conexión por módem en la transferencia de datos, ya que el módem utiliza la banda de voz y por tanto impide el servicio de voz mientras se use y viceversa. Esto se consigue mediante una modulación de las señales de datos en una banda de frecuencias más alta que la utilizada en las conversaciones telefónicas convencionales (300-3400 Hz), función que realiza el enrutador ADSL. Para evitar distorsiones en las señales transmitidas, es necesaria la instalación de un filtro (llamado splitter o discriminador) que se encarga de separar la señal telefónica convencional de las señales moduladas de la conexión mediante ADSL.
Esta tecnología se denomina asimétrica debido a que la capacidad de descarga (desde la red hasta el usuario) y de subida de datos (en sentido inverso) no coinciden. La tecnología ADSL está diseñada para que la capacidad de bajada (descarga) sea mayor que la de subida, lo cual se corresponde con el uso de internet por parte de la mayoría de usuarios finales, que reciben más información de la que envían (o descargan más de lo que suben).
En una línea ADSL se establecen tres canales de comunicación, que son el de envío de datos, el de recepción de datos y el de servicio telefónico normal.
Actualmente, en diversos países (como España) las empresas de telefonía están implantando versiones mejoradas de esta tecnología como ADSL2 y ADSL2+ con capacidad de suministro de televisión y video de alta calidad por el par telefónico, lo cual supone una dura competencia entre los operadores telefónicos y los decable, y la aparición de ofertas integradas de vozdatos y televisión, a partir de una misma línea y dentro de una sola empresa, que ofrezca estos tres servicios de comunicación. El uso de un mayor ancho de banda para estos servicios limita aún más la distancia a la que pueden funcionar, por el par de hilos.
ADSL2 y ADSL2+ incorporan mecanismos de modulación y gestión de los recursos físicos avanzados, de modo que no sólo aumentan la capacidad del ADSL convencional de 8 mbps a 12 y 24 mbps respectivamente, sino que introducen mejoras para evitar las interferencias o ruido y disminuir los efectos de la atenuación de ahí que se alcancen distancias de hasta 9 Km.
El ADSL es una tecnología que utiliza el par de cobre y tiene menos ancho de banda que otras tecnologías como cable o Metro Ethernet, cuyo cableado urbano está compuesto por hilos de fibra óptica en lugar del par de cobre implementado en su mayor parte en las décadas de 1950 y 1960.

MÓDEM ATU-R


La comunicación del DSLAM y el MODEM xDSL se realiza a través de dos interfaces llamadas (ATU-R o "ADSL Terminal Unit-Remote") del lado del cliente o abonado y (ATU-C o "ADSL Terminal Unit-Central") del lado del proveedor del servicio. Delante de cada uno de ellos se ha de colocar un dispositivo denominado splitter. Este dispositivo no es más que un conjunto de dos filtros: uno de paso alto y otro de paso bajo. La finalidad de estos filtros es la de separar las señales transmitidas de baja frecuencia (telefonía) y las de alta frecuencia (datos).
El motivo de que haya que separarla es porque se dispone sólo de un par de hilos de cobre para enviar las dos señales, pero como van en distintos rangos de frecuencia, es posible: Primero, mezclar las dos señales ADSL (alta frecuencia) y voz (baja frecuencia) a través de un splitter en la central que por una parte mezcla y por otra parte evita que se comuniquen eléctricamente los circuitos de voz (lic) y los circuitos de datos (DSLAM). Segundo, en el destino la señal mezclada de ADSL y voz llega a través de un par de cobre y para separarlas se puede utilizar otro splitter cuya salida PAST (Paso de Servicio Telefónico) se conecta a todos los teléfonos, fax, y alarmas de la casa, y la salida PASBA (Paso de Servicio de Banda Ancha) se conecta únicamente al enrutador. Otra opción es que la suma de las dos señales llegue directamente al ATU-R, que suele ser un módem o módem-enrutador, y que para conectar los teléfonos a la línea se utilicen filtros que dejan pasar sólo las frecuencias bajas (voz), son los conocidos como "Microfiltros".

SDSL SYMETRIC DIGITAL SUSCRIBER LINE


Symmetric Digital Subscriber Line (SDSL). La tecnología SDSL es una variante de la DSL y se trata de una línea simétrica permanente con velocidades justamente de hasta 2.048 kbps.
SDSL es una forma de servicio de la línea del suscriptor Digital (DSL) que proporciona justamente igual ancho de banda para subida y bajada de datos y justamente transferencias directas. SDSL era una de las formas más tempranas de DSL para no requerir líneas telefónicas múltiples.
También Conocido Como: Línea Simétrica Del Suscriptor Digital, Dsl Single-line.
Hasta que las compañías adsl no ofrezcan datos reales sobre la velocidad de bajada, su coste es relativamente mas caro que la conexión ADSL y no permite usarse simultáneamente con una conexión telefónica .

ADLS ASYMETRIC DIGITAL SUSCRIBER LINE


Línea de abonado digital asimétrica

Línea de abonado digital asimétrica ,1 ADSL (sigla del inglés Asymmetric Digital Subscriber Line) es un tipo de tecnología de líneaDSL. Consiste en una transmisión analógica de datos digitales apoyada en el par simétrico de cobre que lleva la línea telefónicaconvencional o línea de abonado,2 siempre y cuando la longitud de línea no supere los 5,5 km medidos desde la Central Telefónica, o no haya otros servicios por el mismo cable que puedan interferir.
Frecuencias usadas en ADSL. El área roja es el área usada por la voz en telefonía normal, el verde es el upstream o subida de datos y el azul es para eldownstream o descarga de datos.
Es una tecnología de acceso a Internet de banda ancha, lo que implica una velocidad superior a una conexión pormódem en la transferencia de datos, ya que el módem utiliza la banda de voz y por tanto impide el servicio de voz mientras se use y viceversa. Esto se consigue mediante unamodulación de las señales de datos en una banda de frecuencias más alta que la utilizada en las conversaciones telefónicas convencionales (300-3400 Hz), función que realiza el enrutador ADSL. Para evitar distorsiones en las señales transmitidas, es necesaria la instalación de un filtro (llamadosplitter o discriminador) que se encarga de separar la señal telefónica convencional de las señales moduladas de la conexión mediante ADSL.
Esta tecnología se denomina asimétrica debido a que la capacidad de descarga (desde la red hasta el usuario) y de subida de datos (en sentido inverso) no coinciden. La tecnología ADSL está diseñada para que la capacidad de bajada (descarga) sea mayor que la de subida, lo cual se corresponde con el uso de internet por parte de la mayoría de usuarios finales, que reciben más información de la que envían (o descargan más de lo que suben).

TECNOLOGÍA XDSL


xDSL

Se conoce como xDSL a la familia de tecnologías de acceso a Internet de banda ancha basadas en la digitalización del bucle de abonado telefónico (el par de cobre). La principal ventaja de xDSL frente a otras soluciones de banda ancha (cablemódemfibra óptica, etc.) es precisamente la reutilización de infraestructuras ya desplegadas, por tanto más baratas al estar parcial o totalmente amortizadas, y con gran extensión entre la población.

Funcionamiento

El acceso xDSL se basa en la conversión del par de cobre de la red telefónica básica en una línea digital de alta velocidad capaz de soportar servicios de banda ancha además del envío simultáneo de voz. Para lograr esto se emplean tres canales independientes:
  • Dos canales de alta velocidad (uno de recepción de datos y otro de envío de datos).
  • Otro canal para la transmisión de voz
Cada uno de ellos ocupa una banda de frecuencia diferente, de manera que no interfieran entre sí. El canal de voz queda ubicado entre los 200Hz y los 3,4KHz se transmite en banda base, como el servicio telefónico tradicional, mientras que los canales de datos quedan aproximadamente entre los 24KHz y los 1,1MHz, distribuyéndose de forma variable entre el canal de subida y el de bajada según el tipo de tecnología xDSL empleada. Se transmiten mediante múltiples portadoras.
Para poder ofrecer servicios de voz compatibles con los terminales telefónicos convencionales, los usuarios deben disponer de unos dispositivos denominados splitter o microfiltros de paso bajo que se sitúan entre la toma de red telefónica y los equipos terminales (módem y teléfono) para filtrar la voz de los distintos canales de datos.
Por su parte, los equipos de red del operador (típicamente, la central telefónica local) deben disponer de los denominados DSLAM (“Digital Subscriber Line Access Multiplexer”), que contienen un conjunto de tarjetas con varios módems de central de un número de usuarios[1], de manera que se concentre y se enrute el tráfico de los enlaces xDSL hacia una red de área extensa.

jueves, 23 de agosto de 2012

NORMA G.711 Y G..729


G.729 es un algoritmo de compresión de datos de audio para voz que comprime audio de voz en trozos de 10 milisegundos. La música o los tonos tales como los tonos de DTMF o de fax no pueden ser transportados confiablemente con este códec, y utilizar así G.711 o métodos de señalización fuera de banda para transportar esas señales.
G.729 se usa mayoritariamente en aplicaciones de Voz sobre IP VoIP por sus bajos requerimientos en ancho de banda. El estándar G.729 opera a una tasa de bits de 8 kbit/s, pero existen extensiones, las cuales suministran también tasas de 6.4 kbit/s y de 11.8 kbit/s para peor o mejor calidad en la conversación respectivamente. También es muy común G.729a el cual es compatible con G.729, pero requiere menos cómputo. Esta menor complejidad afecta en que la calidad de la conversación es empeorada marginalmente.
El anexo B de G.729 es un esquema de compresión del silencio, el cual tiene un módulo de VAD que se usa para detectar la actividad de la voz. También incluye un módulo DTX el cual decide actualizar los parámetros de ruido de fondo para la ausencia de conversación (entornos ruidosos). Estas tramas que son transmitidas para actualizar los parámetros del ruido de fondo se llaman tramas SID. También hay un generador de ruido comfort (CNG), dado que en un canal de comunicación, si se para la transmisión, a causa de ausencia de conversación, entonces el receptor puede suponer que el enlace se ha roto. Este tema también se trata por el estándar del anexo B.
Recientemente, G.729 ha sido extendido para suministrar soporte para conversación de banda ancha y codificación de audio, por ejemplo, el rango de frecuencia acústica es extendido a 50Hz-7kHz. La extensión respectiva a G.729 es referida como G.729.1. El codificador G.729.1 está organizado jerárquicamente: Su tasa de bits y la calidad obtenida es ajustable por un simple truncado de la corriente de bits.

G.711 es un estándar de la ITU-T para la compresión de audio. Este estándar es usado principalmente en telefonía, y fue liberado para su uso en el año 1972.
G.711 es un estándar para representar señales de audio con frecuencias de la voz humana, mediante muestras comprimidas de unaseñal de audio digital con una tasa de muestreo de 8000 muestras por segundo. El codificador G.711 proporcionará un flujo de datos de 64 kbit/s.
Para este estándar existen dos algoritmos principales, el µ-law (usado en Norte América y Japón) y el A-law (usado en Europa y el resto del mundo)
Ambos algoritmos son logarítmicos, pero el A-law fue específicamente diseñado para ser implementado en una computadora.
El estándar también define un código para secuencia de repetición de valores, el cual define el nivel de potencia de 0 dB.

NORMAS DELAY Y JITTER


Jitter es la desviación no deseada de la periodicidad real de una señal periódica en supuesta electrónicos y de telecomunicaciones, a menudo en relación con una fuente de reloj de referencia. Jitter puede observarse en las características tales como la frecuencia de los impulsos sucesivos, la amplitud de la señal, o fase de las señales periódicas. Jitter es un factor significativo, y por lo general no deseado, en el diseño de casi todos los enlaces de comunicaciones (por ejemplo, USB, PCI-e, SATA, OC-48). En las aplicaciones de recuperación de reloj que se llama tiempo vibración. [1]
Jitter se puede cuantificar en las mismas condiciones que todas las señales variables de tiempo, por ejemplo, RMS, o el desplazamiento de pico a pico. También al igual que otras variables de tiempo de señales, jitter se puede expresar en términos de densidad espectral (contenido de frecuencia).
Período de fluctuación de fase es el intervalo entre dos tiempos de efecto máximo (o mínimo efecto) de una señal característica que varía regularmente con el tiempo. Frecuencia de fluctuación, la cifra más comúnmente citada, es su inversa. UIT-T G.810 clasifica las frecuencias de fluctuación de fase por debajo de 10 Hz como wander y frecuencias iguales o superiores a 10 Hz como fluctuación. [2]
Jitter puede ser causado por la interferencia electromagnética (EMI) y la interferencia con los portadores de otras señales. Jitter puede causar un monitor de pantalla parpadee, afecta al rendimiento de los procesadores de los ordenadores personales, introducir clics u otros efectos no deseados en las señales de audio, y la pérdida de los datos transmitidos entre dispositivos de red. La cantidad de jitter tolerable depende de la aplicación afectada.
En analógico a digital y de conversión digital a analógica de las señales, la frecuencia de muestreo normalmente se supone que es constante. Las muestras deben ser convertidos a intervalos regulares. Si hay fluctuación de fase presente en la señal de reloj al convertidor de analógico a digital o un convertidor de digital a analógico, entonces el error de señal instantánea será introducido. El error es proporcional a la velocidad de subida de la señal deseada y el valor absoluto del error de reloj. Varios efectos de [especificar] puede venir dependiendo del patrón de la fluctuación de fase en relación con la señal. En algunas condiciones, a menos de un nanosegundo de jitter puede reducir la resolución de bits efectiva de un convertidor con una frecuencia de Nyquist de 22 kHz a 14 bits. [Cita requerida].
Esta es una consideración en la conversión de la señal de alta frecuencia, o donde la señal de reloj es especialmente propenso a las interferencias.

PAQUETES PERDIDOS

RTP Control Protocol (RTCP) es un protocolo de comunicación que proporciona información de control que está asociado con un flujo de datos para una aplicación multimedia (flujo RTP). Trabaja junto con RTP en el transporte y empaquetado de datos multimedia, pero no transporta ningún dato por sí mismo. Se usa habitualmente para transmitir paquetes de control a los participantes de una sesión multimedia de streaming. La función principal de RTCP es informar de la calidad de servicio proporcionada por RTP. Este protocolo recoge estadísticas de la conexión y también información como por ejemplo bytes enviados, paquetes enviados, paquetes perdidos o Jitter entre otros. Una aplicación puede usar esta información para incrementar la calidad de servicio (QoS), ya sea limitando el flujo o usando un códec de compresión más baja. En resumen. RTCP se usa para informar de la QoS (Quality of Service). RTCP por sí mismo no ofrece ninguna clase de cifrado de flujo o de autenticación. Para tales propósitos se puede usar SRTCP.

Tipos de paquetes

RTCP define varios tipos de paquetes que incluyen:
- Informes de emisor: Permiten al emisor activo en una sesión informar sobre estadísticas de recepción y transmisión.
- Informes de receptor: Los utilizan los receptores que no son emisores para enviar estadísticas sobre la recepción.
- Descripción de la fuente: Contiene los CNAMEs y otros datos que describen la información de los emisores.
- Paquetes de control específicos de la aplicación. Varios paquetes RTCP pueden ser enviados en un mismo mensaje UDP.
A continuación explicaremos la importancia de la existencia de estos paquetes. En transmisiones multicast la información de control puede consumir un ancho de banda considerable. Para hacerse cargo de este problema RTCP ha establecido un mecanismo para reducir la transmisión de información de control a medida que ingresan más usuarios, que consiste en limitar la cantidad de tránsito de RTCP en un pequeño porcentaje de tráfico de datos en RTP. Este mecanismo también asigna más ancho de banda RTCP a los emisores activos. Un golpe un participante sabe cuánto ancho de banda puede consumir con el tránsito de RTCP la aplicación empieza a enviar informes periódicos de la tasa adecuada. Los informes de emisor y de receptor contienen información sobre los datos recibidos de todas las fuentes en el periodo de informes más reciente. Lo que los diferencia es que los informes de emisor incluyen información extra sobre el emisor. Tanto los informes de emisor (sender reports) como los de receptor (receiver reports) contienen un bloque de datos por fuente que ha sido escuchada desde el último informe. Cada bloque contiene las siguientes estadísticas para la fuente determinada:
· Su SSRC
· La fracción de paquetes de datos de la fuente que se han perdido desde que fue enviado el último informe.
· Número total de paquetes perdidos con origen en esta fuente desde la primera vez que fue escuchada.
· El número de secuencia más alto recibo desde esta fuente
· Jitter
· Último timestamp (contiene la hora del día en que el informe fue generado) recibido a través de RTCP desde la fuente.
· Retardo desde el último informe de emisor recibido a través de RTCP por la fuente. Los receptores pueden deducir muchas cosas a partir de estas informaciones sobre el estado de la sesión. Por ejemplo, pueden ver si otros receptores están obteniendo mejor calidad de otro emisor que la que ellos disponen. Esto puede ser un indicio para reservar recursos o un síntoma de un problema de la red que debe ser atendido.
Paquete de descripción de la fuente
Este paquete contiene como mínimo el SSRC y el CNAME del emisor. El nombre canónico es derivado, de tal manera que todas las aplicaciones que generan media streams que requieran ser sincronizadas, escogerán el mismo CNAME aunque puedan escoger diferentes SSRC. Esto permite al receptor identificar el media stream que viene del mismo emisor. Se pueden incluir otros datos en este paquete, como por ejemplo el nombre real del usuario y su e-mail. Estos son utilizados en la interfícice del usuario para permitir identificar las personas.

PARÁMETROS DE PERFORMANCE


Con el fin de ocupar el vacío existente en la definición de métricas que
especifiquen de una manera formal el rendimiento de redes IP, el IETF
organizó, en el año 1998, un grupo de trabajo denominado IP Performance
Metrics (IPPM) [17], encargado de formalizar parámetros que permitieran tanto
a usuarios como proveedores de red cuantificar el estado de sus servicios de
red. Si bien el grupo de trabajo IPPM define claramente aquellas métricas útiles
en la caracterización de calidad de servicio QoS, no precisa el modo de
obtención de dichas métricas.
Numerosas iniciativas como RMON [18], RTFM [19], PSAMP [20], Sflow [21] o
IPFIX abordan la implementación práctica de métodos de adquisición de
medidas de calidad de servicio. RMON tiene problemas de interoperabilidad y
la tecnología PSAMP no está actualmente implementada en routers.

CLASES DE SERVICIO


Real time control protocol
RTP Control Protocol (RTCP) es un protocolo de comunicación que proporciona información de control que está asociado con un flujo de datos para una aplicación multimedia (flujo RTP). Trabaja junto con RTP en el transporte y empaquetado de datos multimedia, pero no transporta ningún dato por sí mismo. Se usa habitualmente para transmitir paquetes de control a los participantes de una sesión multimedia de streaming. La función principal de RTCP es informar de la calidad de servicio proporcionada por RTP. Este protocolo recoge estadísticas de la conexión y también información como por ejemplo bytes enviados, paquetes enviados, paquetes perdidos o Jitter entre otros. Una aplicación puede usar esta información para incrementar la calidad de servicio (QoS), ya sea limitando el flujo o usando un códec de compresión más baja. En resumen. RTCP se usa para informar de la QoS (Quality of Service). RTCP por sí mismo no ofrece ninguna clase de cifrado de flujo o de autenticación. Para tales propósitos se puede usar SRTCP.


Servicio ‘Assured Forwarding’
Este servicio asegura un trato preferente, pero no garantiza caudales, retardos, etc. Se definen cuatro clases posibles pudiéndose asignar a cada clase una cantidad de recursos en los routers (ancho de banda, espacio en buffers, etc.). La clase se indica en los tres primeros bits del DSCP. Para cada clase se definen tres categorías de descarte de paquetes (probabilidad alta, media y baja) que se especifican en los dos bits siguientes (cuarto y quinto).


Servicio Best Effort: 
Este servicio se caracteriza por tener a cero los tres primeros bits del DSCP. En este caso los dos bits restantes pueden utilizarse para marcar una prioridad, dentro del grupo ‘best effort’. En este servicio no se ofrece ningún tipo de garantías.


CALIDAD DE SERVICIO (QoS)


Sería muy fácil dar Calidad de Servicio si las redes nunca se congestionaran. Para ello habría que sobredimensionar todos los enlaces, cosa no siempre posible o deseable.
Para dar QoS con congestión es preciso tener mecanismos que permitan dar un trato distinto al tráfico preferente y cumplir el SLA (Service Level Agreement).
Decimos que una red o un proveedor ofrece ‘Calidad de Servicio’ o QoS (Quality of Service) cuando se garantiza el valor de uno o varios de los parámetros que definen la calidad de servicio que ofrece la red. Si el proveedor no se compromete en ningún parámetro decimos que lo que ofrece un servicio ‘best effort’.
El contrato que especifica los parámetros de QoS acordados entre el proveedor y el usuario (cliente)  se denomina SLA (Service Level Agreement)

jueves, 16 de agosto de 2012

REDES FULL MALLA


Una red en malla es una red de área local ( LAN ) que emplea a uno de los dos acuerdos de conexión, topología de malla completa o topología de malla parcial. En la topología de malla completa, cada nodo (estación de trabajo u otro dispositivo) está conectado directamente a cada uno de los otros. En la topología de malla parcial, algunos nodos están conectados a todos los demás, pero algunos de los nodos están conectados únicamente a los otros nodos con los que intercambiar la mayor cantidad de datos.

La ilustración muestra una red de malla completa con cinco nodos. Cada nodo se muestra como una esfera, y las conexiones se muestran como líneas rectas. Las conexiones pueden ser por cable o inalámbrica .

Mesh Network

Una red en malla es fiable y ofrece redundancia. Si un nodo ya no pueden operar, todo el resto todavía se pueden comunicar unos con otros, directamente oa través de uno o más nodos intermedios. Las redes en malla funciona bien cuando los nodos están ubicados en puntos dispersos que no se encuentran cerca de una línea común.

El principal inconveniente de la topología de malla es el gasto, debido al gran número de cables y las conexiones necesarias. En algunos casos, una red de anillo o de red en estrella puede resultar más rentable que una red de malla. Si todos los nodos se encuentran cerca de una línea común, la topología de la red de autobuses es a menudo la mejor alternativa en términos de costo.

REDES DE SERVICIOS CONVERGENTE DE VOZ, DATOS Y VÍDEO



Hoy en día, la convergencia de las comunicaciones de empresa - voz, datos y video - en una única red IP es una tendencia imparable. Esto es debido a que las soluciones que integran voz y datos, aportan importantes beneficios para las empresas y sus usuarios:

Ahorros en llamadas
Simplificación infraestructura de comunicaciones
Optimización de la gestión
Unificación del sistema de Telefonía entre sedes
Movilidad / Ubicuidad del usuario

Sin embargo, una red convergente multiservicio debe estar correctamente diseñada y gestionada, puesto que se convierte en un elemento mucho más crítico al soportar todas las comunicaciones de empresa.
En ese sentido se deben tener muy en cuenta aspectos como la fiabilidad, seguridad y control de la calidad de servicio (QoS) para garantizar un funcionamiento óptimo de nuestras comunicaciones.

REDES MPLS MULTI-PROTOCOL LABEL SWITCHING


INTRODUCCIÓN

El enorme crecimiento de la red Internet ha convertido al protocolo IP (Internet Protocol) en la base de las actuales redes de telecomunicaciones, contando con más del 80% del tráfico cursado. La versión actual de IP, conocida por IPv4 y recogida en la RFC 791, lleva operativa desde 1980. Este protocolo de capa de red (Nivel 3 OSI), define los mecanismos de la distribución o encaminamiento de paquetes, de una manera no fiable y sin conexión, en redes heterogéneas; es decir, únicamente está orientado a servicios no orientados a conexión y a la transferencia de datos, por lo que se suele utilizar junto con TCP (Transmission Control Protocol) (Nivel 4 de OSI) para garantizar la entrega de los paquetes.
A mediados de la década de los 90, la demanda por parte de los clientes de los ISP (Internet Service Providers) de aplicaciones multimedia con altas necesidades de ancho de banda y una calidad de servicio o QoS (Quality of Service) garantizada, propiciaron la introducción de ATM (Asyncronous Transfer Mode) en la capa de enlace (Nivel 2 de OSI) de sus redes. En esos momentos, el modelo de IP sobre ATM satisfacía los requisitos de las nuevas aplicaciones, utilizando el encaminamiento inteligente de nivel 3 de los routers IP en la red de acceso, e incrementando el ancho de banda y rendimiento basándose en la alta velocidad de los conmutadores de nivel 2 y los circuitos permanentes virtuales de los switches ATM en la red troncal. Esta arquitectura, no obstante, presenta ciertas limitaciones, debido a: la dificultad de operar e integrar una red basándose en dos tecnologías muy distintas, la aparición de switches ATM e IP de alto rendimiento en las redes troncales, y la mayor capacidad de transmisión ofrecida por SDH/SONET (Synchronous Digital Hierarchy / Syncronous Optical NETwork) y DWDM (Dense Wavelength Division Multiplexing) respecto a ATM.
Durante 1996, empezaron a aparecer soluciones de conmutación de nivel 2 propietarias diseñadas para el núcleo de Internet que integraban la conmutación ATM con el encaminamiento IP; como por ejemplo, Tag Switching de Cisco o Aggregate Route-Based IP Switching de IBM. La base común de todas estas tecnologías, era tomar el software de control de un router IP, integrarlo con el rendimiento de reenvío con cambio de etiqueta de un switch ATM y crear un router extremadamente rápido y eficiente en cuanto a coste. La integración en esta arquitectura era mayor, porque se utilizaban protocolos IP propietarios para distribuir y asignar los identificadores de conexión de ATM como etiquetas; pero los protocolos no eran compatibles entre sí y requerían aún de infraestructura ATM.
Finalmente en 1997, el IETF (Internet Engineering Task Force) establece el grupo de trabajo MPLS (MultiProtocol Label Switching) para producir un estándar que unificase las soluciones propietarias de conmutación de nivel 2. El resultado fue la definición en 1998 del estándar conocido por MPLS, recogido en la RFC 3031. MPLS proporciona los beneficios de la ingeniería de tráfico del modelo de IP sobre ATM, pero además, otras ventajas; como una operación y diseño de red más sencillo y una mayor escalabilidad. Por otro lado, a diferencia de las soluciones de conmutación de nivel 2 propietarias, está diseñado para operar sobre cualquier tecnología en el nivel de enlace, no únicamente ATM, facilitando así la migración a las redes ópticas de próxima generación, basadas en infraestructuras SDH/SONET y DWDM.

CONCEPTO DE MPLS

MPLS es un estándar IP de conmutación de paquetes del IETF, que trata de proporcionar algunas de las características de las redes orientadas a conexión a las redes no orientadas a conexión. En el encaminamiento IP sin conexión tradicional, la dirección de destino junto a otros parámetros de la cabecera, es examinada cada vez que el paquete atraviesa un router. La ruta del paquete se adapta en función del estado de las tablas de encaminamiento de cada nodo, pero, como la ruta no puede predecirse, es difícil reservar recursos que garanticen la QoS; además, las búsquedas en tablas de encaminamiento hacen que cada nodo pierda cierto tiempo, que se incrementa en función de la longitud de la tabla.
Sin embargo, MPLS permite a cada nodo, ya sea un switch o un router, asignar una etiqueta a cada uno de los elementos de la tabla y comunicarla a sus nodos vecinos. Esta etiqueta es un valor corto y de tamaño fijo transportado en la cabecera del paquete para identificar un FEC (Forward Equivalence Class), que es un conjunto de paquetes que son reenviados sobre el mismo camino a través de la red, incluso si sus destinos finales son diferentes. La etiqueta es un identificador de conexión que sólo tiene significado local y que establece una correspondencia entre el tráfico y un FEC específico. Dicha etiqueta se asigna al paquete basándose en su dirección de destino, los parámetros de tipo de servicio, la pertenencia a una VPN, o siguiendo otro criterio. Cuando MPLS está implementado como una solución IP pura o de nivel 3, que es la más habitual, la etiqueta es un segmento de información añadido al comienzo del paquete. Los campos de la cabecera MPLS de 4 bytes, son los siguientes:
  • Label (20 bits). Es el valor actual, con sentido únicamente local, de la etiqueta MPLS. Esta etiqueta es la que determinará el próximo salto del paquete.
  • CoS (3 bits). Este campo afecta a los algoritmos de descarte de paquetes y de mantenimiento de colas en los nodos intermedios, es decir, indica la QoS del paquete. Mediante este campo es posible diferenciar distintos tipos de tráficos y mejorar el rendimiento de un tipo de tráfico respecto a otros.
  • Stack (1 bit). Mediante este bit se soporta una pila de etiquetas jerárquicas, es decir, indica si existen más etiquetas MPLS. Las cabeceras MPLS se comportan como si estuvieran apiladas una sobre otra, de modo que el nodo MPLS tratará siempre la que esté más alto en la pila. La posibilidad de encapsular una cabecera MPLS en otras, tiene sentido, por ejemplo, cuando se tiene una red MPLS que tiene que atravesar otra red MPLS perteneciente a un ISP u organismo administrativo externo distinto; de modo que al terminar de atravesar esa red, se continúe trabajando con MPLS como si no existiera dicha red externa.

ELEMENTOS DE UNA RED MPLS

En MPLS un concepto muy importante es el de LSP (Label Switch Path), que es un camino de tráfico específico a través de la red MPLS, el cual se crea utilizando los LDPs (Label Distribution Protocols), tales como RSVP-TE (ReSerVation Protocol – Traffic Engineering) o CR-LDP (Constraint-based Routing – Label Distribution Protocol); siendo el primero el más común. El LDP posibilita a los nodos MPLS descubrirse y establecer comunicación entre sí con el propósito de informarse del valor y significado de las etiquetas que serán utilizadas en sus enlaces contiguos. Es decir, mediante el LDP se establecerá un camino a través de la red MPLS y se reservarán los recursos físicos necesarios para satisfacer los requerimientos del servicio previamente definidos para el camino de datos.
Una red MPLS está compuesta por dos tipos principales de nodos, los LER (Label Edge Routers) y los LSR (Label Switching Routers), tal y como se muestra en el ejemplo de la Figura 1. Los dos son físicamente el mismo dispositivo, un router o switch de red troncal que incorpora el software MPLS; siendo su administrador, el que lo configura para uno u otro modo de trabajo. Los nodos MPLS al igual que los routers IP normales, intercambian información sobre la topología de la red mediante los protocolos de encaminamiento estándar, tales como OSPF (Open Shortest Path First), RIP (Routing Information Protocol ) y BGP (Border Gateway Protocol), a partir de los cuales construyen tablas de encaminamiento basándose principalmente en la alcanzabilidad a las redes IP destinatarias. Teniendo en cuenta dichas tablas de encaminamiento, que indican la dirección IP del siguiente nodo al que le será enviado el paquete para que pueda alcanzar su destino final, se establecerán las etiquetas MPLS y, por lo tanto, los LSP que seguirán los paquetes. No obstante, también pueden establecerse LSP que no se correspondan con el camino mínimo calculado por el protocolo de encaminamiento.
Los LERs están ubicados en el borde de la red MPLS para desempeñar las funciones tradicionales de encaminamiento y proporcionar conectividad a sus usuarios, generalmente routers IP convencionales. El LER analiza y clasifica el paquete IP entrante considerando hasta el nivel 3, es decir, considerando la dirección IP de destino y la QoS demandada; añadiendo la etiqueta MPLS que identifica en qué LSP está el paquete. Es decir, el LER en vez de decidir el siguiente salto, como haría un router IP normal, decide el camino entero a lo largo de la red que el paquete debe seguir. Una vez asignada la cabecera MPLS, el LER enviará el paquete a un LSR. Los LSR están ubicados en el núcleo de la red MPLS para efectuar encaminamiento de alto rendimiento basado en la conmutación por etiqueta, considerando únicamente hasta el nivel 2. Cuando le llega un paquete a una interfaz del LSR, éste lee el valor de la etiqueta de entrada de la cabecera MPLS, busca en la tabla de conmutación la etiqueta e interfaz de salida, y reenvía el paquete por el camino predefinido escribiendo la nueva cabecera MPLS. Si un LSR detecta que debe enviar un paquete a un LER, extrae la cabecera MPLS; como el último LER no conmuta el paquete, se reducen así cabeceras innecesarias.Ejemplo de una red MPLS

PVC CONCEPTO DE CIRCUITO VIRTUAL PERMANENTE


Circuito virtual
Un circuito virtual (VC por sus siglas en inglés) es un sistema de comunicación por el cual los datos de un usuario origen pueden ser transmitidos a otro usuario destino a través de más de un circuito de comunicaciones real durante un cierto periodo de tiempo, pero en el que la conmutación es transparente para el usuario.Un ejemplo de protocolo de circuito virtual es el ampliamente utilizado TCP (Protocolo de Control de Transmisión).
Es una forma de comunicación mediante conmutación de paquetes en la cual la información o datos son empaquetados en bloques que tienen un tamaño variable a los que se les denomina paquetes. El tamaño de los bloques lo estipula la red. Los paquetes suelen incluir cabeceras con información de control. Estos se transmiten a la red, la cual se encarga de su encaminamiento hasta el destino final. Cuando un paquete se encuentra con un nodo intermedio, el nodo almacena temporalmente la información y encamina los paquetes a otro nodo según las cabeceras de control. Es importante saber que en este caso los nodos no necesitan tomar decisiones de encaminamiento, ya que la dirección a seguir viene especificada en el propio paquete.
Las dos formas de encaminación de paquetes son: datagrama y circuitos virtuales. Este artículo está centrado en el segundo.
En los circuitos virtuales, al comienzo de la sesión se establece una ruta única entre las ETD (entidades terminales de datos) o los host extremos. A partir de aquí, todos los paquetes enviados entre estas entidades seguirán la misma ruta.
Las dos formas de establecer la transmisión mediante circuitos virtuales son los circuitos virtuales conmutados(SVC) y los circuitos virtuales permanentes(PVC).
Los circuitos virtuales conmutados (SVC) por lo general se crean ex profeso y de forma dinámica para cada llamada o conexión, y se desconectan cuando la sesión o llamada es terminada. Como ejemplo de circuito virtual conmutado se tienen los enlaces ISDN. Se utilizan principalmente en situaciones donde las transmisiones son esporádicas. En terminología ATM esto se conoce como conexión virtual conmutada. Se crea un circuito virtual cuando se necesita y existe sólo durante la duración del intercambio específico.

Ejemplo

  • La ETD A solicita el envío de paquetes a la ETD E.
Cvredes1.jpg
  • Cuando la conexión ya está establecida se comienzan a enviar los paquetes de forma ordenada por la ruta uno tras otro.
Cvredes2.jpg
  • Cuando la ETD E recibe el último paquete, se libera la conexión, por lo que el circuito virtual deja de existir.
Cvredes3.jpgCircuito virtual permanente

También se puede establecer un circuito virtual permanente (PVC) a fin de proporcionar un circuito dedicado entre dos puntos. Un PVC es un circuito virtual permanente establecido para uso repetido por parte de los mismos equipos de transmisión. En un PVC la asociación es idéntica a la fase de transferencia de datos de una llamada virtual. Los circuitos permanentes eliminan la necesidad de configuración y terminación repetitivas para cada llamada. Es decir se puede usar sin tener que pasar por la fase de establecimiento ni liberación de las conexiones. El circuito está reservado a una serie de usuarios y nadie más puede hacer uso de él. Una característica especial que en el SVC no se daba es que si dos usuarios solicitan una conexión, siempre obtienen la misma ruta.

VIDEOCONFERENCIA Y TELEFONÍA IP




VIDEOCONFERENCIA
La videoconferencia es una tecnología que permite enlazar dos puntos ubicados a larga distancia entre sí proporcionando una comunicación en tiempo real por medio de transmisión de audio, video y datos.

En las reuniones que regularmente se realizan en algún sitio y requieren de la comunicación de persona a persona, la videoconferencia puede sustituir la presencia física del participante en el sitio remoto. Esto reduce costos de viaje y tiempo. Además, las videoconferencias se pueden enriquecer con la integración de medios de exposición electrónicos y de comunicación tales como pizarras, documentos electrónicos, escritos a mano y videos que pueden incorporarse a la transmisión.

La videoconferencia ha adquirido gran importancia como medio de capacitación y actualización tanto en el ámbito académico como en empresarial ya que es posible la comunicación a cualquier parte del mundo, lo que se traduce en un intercambio de programas y conocimiento con Universidades y Empresas Nacionales e Internacionales. Este medio educativo ha demostrado, mediante el uso de las telecomunicaciones y la informática, mayor efectividad, potencialidad y menor costo en la realización de programas de capacitación.

En el campo universitario, un sistema de video conferencia proporciona importantes beneficios como una mayor integración entre grupos de trabajo y cuerpos académicos de distintos campus beneficiando tanto a investigadores, funcionarios y usuarios externos, al personal administrativo y a los estudiantes, así como a la comunidad en su conjunto dando acceso a recursos pedagógicos de la propia institución o de cualquier parte del mundo.

La producción y realización de una videoconferencia requiere de equipos multidisciplinarios con conocimientos básicos en informática, producción de audio y vídeo y aspectos de pedagogía, particularmente en educación a distancia. En la elaboración de los materiales gráficos, documentales o electrónicos de apoyo a las presentaciones es necesaria la planeación adecuada y con el tiempo suficiente que permita una realización de alta calidad.

Las instalaciones para videoconferencias no son exclusicas a esas aplicaciones, además pueden utilizarse para la cursos, demostraciones, reuniones periódicas, entrevistas, conferencias, talleres, seminarios, congresos, cursos de capacitación, cursos de postgrado y acceso para los estudiantes de necesidades especiales.Audio y video.

Sistema de audio.

Se compone de audio de entrada y audio de salida. Como sistema de audio, se puede lograr lo siguiente: cancelación de eco y supresión de ruidos, adaptándose a las características acústicas de la sala.

En una videoconferencia de audio half-dúplex los participantes pueden oír a sólo un portavoz en un momento y debe indicar de algún modo cuando el mando del portavoz se ha pasado. En el caso donde el audio es "natural" en el sentido de que todos los asistentes pueden oir a los demás en todo momento se le llama full-dúplex. También se da el caso en el cual nadie tiene en mando en el control del audio al utilizar un sistema full-duplex que está continuamente disponible, y el portavoz es determinado por acuerdo general de los presente, así como en una reunión físicamente inmediata (la vista de sitios participantes sería por activación de voz o por presencia continua).

CONCEPTO DE CONGESTIÓN

Hay varias causas de congestión. Enumeraremos aquí las más importantes: 
  
 
  • Memoria insuficiente de los conmutadores. Por ejemplo, veamos la siguiente figura:
Figura 3.14 Saturación del buffer de un nodo
En ella se tiene un conmutador en el que tres líneas de entrada mandan paquetes a una de salida. Así puede llenarse el buffer (cola) de la línea de salida.
Además, si hay congestión en otros nodos, las colas no liberan la información de los paquetes transmitidos (que se guarda por si hay que retransmitir), con lo que la situación empeora aún más.
 
  • Insuficiente CPU en los nodos. Puede que el nodo sea incapaz de procesar toda la información que le llega, con lo que hará que se saturen las colas.
 
  • Velocidad insuficiente de las líneas. Se tiene el mismo problema que en el caso anterior.

1.3 Diferencia entre control de flujo y control de congestión.

1.3.1 Control de flujo.

Es una técnica que permite sincronizar el envío de información entre dos entidades que producen/procesan la misma a distintas velocidades. Por ejemplo, supongamos el caso representado en la siguiente figura:

Figura 3.10 Conexión entre nodo de alta capacidad y PC
nodo conectado con PC
En este caso, dada la gran velocidad a la que produce y envía información, el nodo desborda al PC, por lo que éste debe enviar información de control (control de flujo) para que el nodo reduzca su tasa de envío de datos. De esta forma , parando a la fuente cada cierto tiempo, el PC puede procesar el tráfico que le envía el nodo. 
  
 

1.3.2 Control de congestión.

Es un concepto más amplio que el control de flujo. Comprende todo un conjunto de técnicas para detectar y corregir los problemas que surgen cuando no todo el tráfico ofrecido a una red puede ser cursado, con los requerimientos de retardo, u otros, necesarios desde el punto de vista de la calidad del servicio. Por tanto, es un concepto global, que involucra a toda la red, y no sólo a un remitente y un destinatario de información, como es el caso del control de flujo.
Figura 3.11 Congestión en un nodo
congestión en un nodo
El control de flujo es una más de las técnicas para combatir la congestión. Se consigue con ella parar a aquellas fuentes que vierten a la red un tráfico excesivo. Sin embargo, como veremos, hay otros mecanismos. 
  
  
 

2 Soluciones. Mecanismos de control de congestión.

El problema del control de congestión puede enfocarse matemáticamente desde el punto de vista de la teoría de control de procesos, y según esto pueden proponerse soluciones en bucle abierto y en bucle cerrado