viernes, 26 de abril de 2013

Laboratorio : Resumen

Highly-Resilient, Energy-Efficient Multipath Routing in Wireless Sensor Networks

por Deepak Ganesan, Ramesh Govindan, Scott Shenker y Deborah Estrin

Introducción.
Tres criterios impulsan el diseño de redes de sensores a gran escala: la escalabilidad (estas redes podrían involucrar miles de nodos), la eficiencia energética (en particular, la comunicación inalámbrica puede implicar significativamente mayor costo de la energía de computación), y la solidez (a los efectos ambientales y los fallos del nodo y enlace).

Estas redes pueden requerir técnicas de enrutamiento novedosos para la difusión de datos escalables y robustas, como la difusión dirigida. De particular interés es la noción de trayectoria-refuerzo, para que un nodo de la red puede hacer que una decisión local (basada posiblemente en las características del tráfico percibidos) para extraer los datos de uno o más vecinos de preferencia a otros vecinos.

En este trabajo, se propone el uso de múltiples rutas de enrutamiento para aumentar la resistencia de fallo de un nodo. Se exploran algoritmos localizados por dos enfoques diferentes para la construcción de trayectorias múltiples entre dos nodos. Uno de ellos es el clásico múltiples nodos disjuntos. El otro enfoque abandona el requisito de caminos disjuntos y en su lugar se basa en muchos caminos trenzadas.

Se miden dos cosas de estos algoritmos que son la resistencia y la sobrecarga de mantenimiento Hay una compensación entre estas dos cantidades ya que ser más resistente por lo general consumen más energía.

Multitrayecto disjunto.
El primer mecanismo de multitrayecto que se considera, construye un pequeño número de caminos alternativos que son nodos-disjuntos con la ruta principal, y unos con otros. Estos caminos alternativos son por lo tanto afectados por fallos en el camino principal, pero pueden ser potencialmente menos deseable (por ejemplo, tener latencia más larga) que la ruta o camino principal.

Este es un algoritmo localizada para la posible construcción de trayectos disjuntos. Suponemos por un momento que algunas muestras de baja velocidad inicial se han inundado en toda la red. El sumidero tiene alguna información empírica acerca de cuál de sus vecinos puede proporcionarle los datos de mayor calidad (menor pérdida o demora más baja). Para este vecino más preferido, le envía un refuerzo primario de la ruta. Al igual que con el esquema de difusión de dirección básica, entonces ese vecino determina localmente a su vecino más preferido en la dirección de la fuente, y así sucesivamente.

Poco después, a partir de entonces, el sumidero envía una ruta alternativa de refuerzo a su vecino más preferido. Al limitar cada nodo para aceptar sólo un refuerzo, la configuración de rutas alternativas se garantiza que sea mutuamente disjuntos y disjuntos con la ruta principal. Un nodo que recibe más de un reforzamiento, refuerza negativamente todos los refuerzos. Este mecanismo se puede extender trivialmente para construir trayectorias múltiples disjuntos. A esto se le llamara trayectos múltiples disjuntos localizadas.

Multitrayecto trenzado.
Mientras que los trayectos disjuntos tienen algunas propiedades de resistencia atractivas, pueden ser ineficiente para la energía, desde el nodo de caminos-disjuntos podrían ser potencialmente más larga que la ruta o camino principal. El multitrayecto trenzado relaja la exigencia del nodo desarticulado. Vías alternas en una trenza están parcialmente disjunta de la ruta principal, no del todo en el nodo disjunto.

La mejor ruta alternativa no tiene que ser necesariamente completamente un nodo disjunto, con la ruta principal. Al conjunto resultante de caminos (incluyendo la ruta de acceso primario) se le llamó multitrayecto trenzado idealizado. Como su nombre lo indica, los vínculos que constituyen una trenza o bien se encuentran en la ruta de acceso principal, o pueden esperar a estar geográficamente cerca de la ruta principal. En este sentido, los caminos alternativos que forman una trenza serían gastar energía comparable a la ruta o camino principal.

Ahora se describirá como es que trabaja este algoritmo, como en la sección anterior, el sumidero envía un refuerzo por el camino primario a su vecino más preferido. Además, el sumidero envía una ruta de refuerzo alternativo a su vecino preferido. Además, de forma recursiva cada otro nodo en la ruta o camino principal se origina una ruta de refuerzo alternativo a su vecino más preferido. Al hacer esto, cada nodo intenta una ruta alrededor de su vecino inmediato en el camino principal hacia la fuente.

METODOLOGÍAS DE EVALUACIÓN.
Sobrecarga de mantenimiento.
La sobrecarga de mantenimiento de un régimen es una medida de energía necesaria para mantener estos caminos alternativos, usando periódicos mecanismos keep-alive. Se supone que la fuente difunde "r" eventos en algún intervalo de tiempo "T" sobre el camino primario. Entonces, los eventos "εr" se envían por los caminos alternativos de la disjuntos o el multitrayecto trenzado, con cada ruta alternativa que recibe la misma proporción de este tráfico keep-alive. Entonces, la energía necesaria para mantener las rutas alternativas es proporcional a la duración media (en número de saltos) de los caminos alternativos.
Para calibrar significativamente la sobrecarga de mantenimiento, se normaliza con respecto a la longitud del camino más corto. Por lo tanto, la métrica sobrecarga de mantenimiento es:
(La - Lp)/Lp

donde "La" es la longitud media de un camino alternativo, y "Lp" la longitud de la ruta o camino principal.

Fallas.
Se estudia la capacidad de recuperación de los esquemas de enrutamiento multitrayecto a dos modelos muy diferentes de fallo: fallos en los nodos independientes y fracasos geográficamente correlacionados.
  • Las fallas aisladas: El primer modelo de fallo captura fallos en los nodos independientes y representan el cambio de los efectos ambientales locales. Entonces, para cada uno de los esquemas de multitrayecto, se define la resistencia al fracaso aislado en el sentido de la probabilidad de que al menos una ruta alternativa que está disponible dentro del intervalo de, dado que al menos un nodo en el camino principal ha fallado.
  • Las fallas modeladas: El modelo de segundo fracaso captura fracasos geográficamente relacionados. La justificación aproximada para este modelo es que la actividad sostenida o el medio ambiente (como la lluvia) dentro de una región geográfica pueden ocasionar dicho incumplimiento relacionada, ya sea debido a la pérdida de conectividad o debido a la disipación de energía. 
Resultados de la simulación.
Al realizar los experimentos de simulación, el objetivo era entender el equilibrio de energía/capacidad de recuperación entre los distintos esquemas de multitrayectorua, su dependencia a la densidad de la red, y la validación de los modelos idealizados. Un sencillo ejemplo de la compensación de energía/capacidad de recuperación se ilustra en la siguiente figura.


Se puede apreciar que las fallas aisladas, 2 disjuntos multitrayectos idealizadas son mucho menos resistentes, y tienen una mayor sobrecarga de mantenimiento de multitrayecto trenzados idealizado. Para fallas modeladas, los esquemas idealizados tienen la capacidad de recuperación comparable, pero 2 disjuntos tiene una mayor sobrecarga de mantenimiento. Existen diferencias similares a los mecanismos localizados. En las simulaciones se estudia cuidadosamente las repercusiones de cada medida de la variación de los diferentes parámetros.
  • Sobrecarga de mantenimiento: En general, las multrayectos idealizados trenzados requieren menos sobrecarga de mantenimiento que 2-disjuntos multitrayectos idealizados, siendo la diferencia significativa en las densidades más bajas. La heurística trenzada localizada no presenta las mismas propiedades que la versión idealizada a bajas densidades, pero sigue de cerca a densidades más altas. Por último, se cree que los resultados muestran que podría ser más fácil de construir trenzas sobrecargadas que construir caminos disjuntos sobrecargadas utilizando algoritmos localizadas. 
  • La resistencia a fallos aislados: En general, la trenza idealizada es más resistente que el idealizada multitrayecto disjunto, siendo la diferencia significativa en las densidades más altas. Algoritmos localizadas son ligeramente menos resistentes que sus semejantes idealizadas. Las razones de estos es que tanto la trenza localizada y el multitrayecto disjuntos localizada pueden descubrir caminos más largos que sus homólogos idealizadas. 
  • Resistencia a las fallas modeladas: La resistencia al fracaso de la trenza idealizada se compara bien con el idealizado 2-disjuntos y caminos 3-disjuntos. La trenza localizada varía de manera diferente a la densidad que el esquema idealizado con el aumento de la frecuencia de fallo, o el radio de fallo, la resistencia disminuye, aunque el impacto de radio es más dramático. El aumento del nivel de desarticulación (de caminos disjuntos) sólo nos da ganancia modesta capacidad de recuperación, y está sujeto a diferencia de coste grande.

Conclusiones.
Se demuestra que el enrutamiento de trayectos múltiples, se puede utilizar para la recuperación de energía eficiente desde el fracaso en redes de sensores inalámbricos. Se analiza y evalúa un nuevo diseño trenzado que puede ser utilizado a futuro. Para una configuración de múltiples disjuntos en donde el modelado falla de la resistencia se puede comparar a la de trayectos múltiples trenzados, los trayectos múltiples trenzados tienen alrededor del 50% mayor capacidad de resistencia a fallos aislados y un tercio de la parte superior para el mantenimiento de vía de acceso alternativa. 

Se cree que es más difícil de diseñar mecanismos de eficiencia energética para la construcción de caminos disjuntos alternativos, debido a que los algoritmos localizados no tienen información necesaria para encontrar caminos disjuntos de baja latencia. Por último, el aumento del número de caminos disjuntos hace que aumente la resistencia de trayectos múltiples disjuntos, pero con un coste de energía más elevado. No es el caso de que un gasto de energía pequeña mejora la capacidad de recuperación de caminos disjuntos.


Referencias:
Highly-Resilient, Energy-Efficient Multipath Routing in Wireless Sensor Networks
http://dl.acm.org/citation.cfm?id=509514

http://www.it.uc3m.es/~jgr/Doctorado/RSING/Papers/rsing-iseoane.pdf

"Imagenes sacadas de los pdf "

jueves, 25 de abril de 2013

Puntos extra: LZW algoritmo de compersion con diccionario.

Algoritmo de codificación
  1. Inicializar el diccionario para todos los bloques de una longitud (D = {O, V, E​​}).
  2. Buscar el bloque más largo W que ha aparecido en el diccionario.
  3. Codificar W por su índice en el diccionario.
  4. Añadir W seguido por el primer símbolo de la manzana siguiente al diccionario.
  5. Vaya al paso 2.
Estos son los paso que se hacen para realizar el algoritmo, pero explicare mejor con un poco de representación.

Primero tenemos los datos(generados con random en python en mi caso puede ser un texto escrito):

Datos: V, O, E, E, O, V, O, V, V, O

y el diccionario con las letras que aparecen con el índice del 1 al 3 ya que son 3 letras diferentes

Así exactamente:


       Diccionario.
índice             entrada                                                          
    1                           V
    2                           O
    3                           E              

Se irán agregando índices y nuevas combinaciones de letras conforme vayamos barriendo los datos.

- > Ahora empezamos a revisar los datos dándoles el valor que corresponde a su índice
Datos: V, O, E, E, O, V, O, V, V, O

Entonces V = 1 dando el valor que se encuentra en el diccionario. (como podemos ver anteriormente)

Seguimos barriendo los datos, checando la letra anterior y la letra que le sigue, si no estan en nuestro diccionario los agregamos.

Datos: V, O, E, E, O, V, O, V, V, O 
       Diccionario.
índice             entrada                                                          
    1                           V
    2                           O
    3                           E
    4                          VO

Después de agregar al diccionario le damos el valor a la letra O que seria igual a 2.

- > Seguimos barriendo los datos, de igual manera

Datos: V, O, E, E, O, V, O, V, V, O 

Pasando a la siguiente letra en conjunta a la que le hemos dado valor y agregamos al diccionario si no esta.

       Diccionario.
índice             entrada                                                          
    1                           V
    2                           O
    3                           E
    4                          VO
    5                          EO

Y le damos el valor a E según nos muestra el diccionario en este caso 3.


- > Seguimos barriendo los datos de igual manera

Datos: V, O, E, E, O, V, O, V, V, O 

De igual manera en conjunto con la letra ya evaluada con la que sigue y si no se encuentra en el diccionario agregamos.

       Diccionario.
índice             entrada                                                          
    1                           V
    2                           O
    3                           E
    4                          VO
    5                          EO
    6                          EE

y le damos el valor al E que en este caso es 3 nuevamente.

-> Ahora viene algo interesante cuando vamos a checar las siguientes letras nos damos cuenta de que estas si están en nuestro diccionario.

 Datos: V, O, E, E, O, V, O, V, V, O

Entonces este no se agrega y solamente se le da el valor que se encuentra en nuestro diccionario.  Que es el valor de 5 como vemos en en la tabla anterior

- > Ahora como hemos elegido una datos que si estaban en el diccionario se agarraran 3
 Datos: V, O, E, E, O, V, O, V, V, O

Y como no esta en el diccionario lo agregamos.

       Diccionario.
índice             entrada                                                          
    1                           V
    2                           O
    3                           E
    4                          VO
    5                          EO
    6                          EE
    7                         EOV

- >  Ahora cuando vamos a evaluar  otra letra que existe solo le damos su valor. En este caso 4
  Datos: V, O, E, E, O, V, O, V, V, O


      Diccionario.
índice             entrada                                                          
    1                         V
    2                         O
    3                         E
    4                        VO
    5                        EO
    6                        EE
    7                       EOV

- > Así nos seguimos hasta terminar el texto.

Así nos queda nuestro diccionario.
      Diccionario.
índice             entrada                                                          
   1                            V
   2                            O
   3                            E
   4                           VO
   5                           EO
   6                           EE
   7                          EOV
   8                          VOV
   9                           VV

y el resultado codificado es: 1 2 3 3 5 1 4 1 4

Y para decodificarlo es solo de mirar el diccionario 


Referencia:
http://www.data-compression.com/lempelziv.html (otorgado por la doctora)

lunes, 22 de abril de 2013

Laboratorio telecomunicacion: Resumen

ACC: Utilizar una red activa para mejorar la reacción del mecanismos de control de congestión
por Theodore Faber


La congestión de control activo (ACC) utiliza la tecnología de red activa (AN) para hacer la retroalimentación de control de congestión más sensible a la congestión de la red. Los sistemas de control de congestión de retroalimentación de extremo a extremo actuales detectan y alivian la congestión sólo en los puntos finales. ACC incluye programas en cada paquete de datos que indican a los routers cómo reaccionar a la congestión, sin incurrir en el retraso de ida y vuelta, que reduce la eficacia de la información en las redes de área amplia.

Se presenta un modelo para ampliar la retroalimentación de control de la congestión en una red activa, aplicado al modelo para el control de congestión TCP, y recientes simulaciones que muestran que el sistema resultante exhibe hasta el 18 por ciento de rendimiento.


Introducción.
El control de congestión de red activo (ACC) es un sistema que utiliza la tecnología de una red activa (AN) para reducir en gran medida el control de retardo que la retroalimentación de control de congestión de sistemas expone. Cada paquete de ACC contiene ya sea un programa para un router o datos usados ​​por un programa de tal manera que permite a un router reaccionar a la congestión de la red evitando de este modo el retardo en la comunicación de información de congestión a los puntos finales.
 

Se presentan estudios de simulación de un sistema ACC basados en mecanismos de control de congestión de TCP. Las simulaciones comparan el sistema activo de control de congestión de TCP estándar en redes con y sin ráfagas de tráfico cruzado. En simulaciones sin tráfico a ráfagas, los sistemas se comportan comparativamente. Cuando se añade a ráfagas de tráfico cruzado, el sistema activa muestra una mejora de rendimiento de 18 por ciento.

La idea de reprogramar routers con paquetes de datos, ofrece una oportunidad para hacer frente a la carencia de control de retroalimentación. AN se ha propuesto para abordar muchos problemas de redes propuestas. En el trabajo de Bhattacharjee se han aplicado unas ideas para control de congestión sin retroalimentación (ATM). ACC se aplica esas ideas para la retroalimentación de control de congestión.

ACC mueve los algoritmos de control de congestión en la red de punto final donde pueden reaccionar inmediatamente a la congestión. El estado actual del algoritmo de retroalimentación del punto final está incluido en todos los paquetes. Este estado es pequeño, un entero o dos, para mantener los gastos por paquete bajo. Cuando un router experimenta la congestión, por ejemplo, que se ve obligado a descartar un paquete, el router calcula el nuevo tamaño de la ventana que el punto final sería elegir si se hubiera detectado al instante la congestión.

El router entonces elimina los paquetes que el punto final no habría enviado e informa al punto final de su nuevo estado. Por lo tanto, los routers ACC, al instante envían paquetes que tendrían la congestión prolongada en la red. ACC puede reaccionar con mayor rapidez a la congestión que un sistema convencional de retroalimentación, lo que reduce la duración de cada episodio de la congestión.


Los sistemas simulados en este artículo son simples con el fin de demostrar cómo ACC hace que el control de retroalimentación sea más sensible. La segunda sección de este artículo describe el sistema ACC, y la creación de instancias de la misma basado en TCP, llamada ACC TCP. La tercera sección describe los estudios de simulación, y la última sección presenta conclusiones.


El sistema ACC.
El sistema ACC utiliza una técnica para permitir la participación del router, tanto en la detección de la congestión y la recuperación de la congestión. El sistema de retroalimentación de control de la congestión se extiende desde los puntos finales en los routers.

En un sistema de retroalimentación convencional, el alivio de la congestión debe moverse desde el punto final a la congestión esto reduce la tasa de envío de punto final; en ACC el alivio de la congestión comienza en el nodo congestionado y el cambio de estado que sostiene el alivio se propaga hasta el punto final.

Un sistema de retroalimentación convencional va a experimentar un retraso en la reacción a la congestión, tal como en la situación representada en la figura.

 

1. Los flujos de paquetes de A y B cruzan en el router interno, C, en el camino hasta el punto final D, congestionando C. Un sistema de retroalimentación en A o B detectará que hay congestión, ya sea cuando se recibe una notificación del router congestionado, o cuando deduzca la existencia de congestión debido a la pérdida de paquetes o el retraso excesivo. Según el ACC, elimina este retraso. Si el router C ha sido programado por el primer paquete de la conexión con las instrucciones sobre cómo reaccionar a la congestión, y los paquetes subsiguientes incluyan información sobre el estado actual del algoritmo de control de congestión del extremo. Cuando C detecta la congestión, se decide la acción que el punto final tendría si se hubiera detectado la congestión, en el estado se refleja en su paquete más reciente.

En el router se instalan filtros que eliminan los paquetes que el punto final no habría enviado. Estos filtros se pueden instalar en las interfaces del router congestionado o en las del vecino del router congestionado. Finalmente el router congestionado envía un mensaje al extremo diciendo el nuevo estado de su sistema de control de la congestión. Si se pierde este mensaje, los mecanismos de congestión de punto final van a seguir funcionando y deducir una reacción razonable a la congestión, la pérdida de estos mensajes no es un fallo catastrófico.
 

Este proceso se representa en la figura. 2. Los pequeños círculos son los paquetes que están siendo enviados a puntos terminales (A y B) para cambiar su estado. A raíz de esos paquetes, los routers E y F comienzan el filtrado de paquetes que no han sido enviados por el sistema ACC. El círculo en el router C representa el componente de red activa que detecta la congestión.

ACC para TCP.
Como prueba de los principios del ACC mencionados anteriormente, se ha definido un control de la congestión activa basada en TCP. El algoritmo de modulación de ventana en TCP es un algoritmo clásico lineal de aumento/disminución multiplicativa. Cuando se detecta la congestión, la ventana se reduce a la mitad de su tamaño actual. Cuando una ventana completa de paquetes consecutivos ha sido reconocido sin que se detecte congestión, la ventana se aumenta en un paquete de tamaño máximo.

La aplicación del ACC basado en TCP, llamado ACC TCP, sigue el mismo algoritmo, excepto que la modificación de tráfico comienza en el router congestionado.Cuando un router detecta una pérdida de paquetes, se calcula el tamaño de la ventana correcta para el punto final de la información que proporciona en cada paquete, y reenvía un paquete con el nuevo tamaño de la ventana para el punto final. Bajo ACC, el método preferido de detección de congestión es la notificación por router congestionado, pero los aparatos de destilación del sistema siguen el algoritmo de control de congestión de TCP en ausencia de la retroalimentación. Debido a que TCP sólo responde a una gota de tiempo por paquete de ida y vuelta, los paquetes son reducidos en los filtros no causarán que los puntos finales cierren las ventanas más rápido de lo que lo harían en la cara de una sola gota de paquetes.

La reacción a la congestión comienza en el router con la instalación del filtro de paquetes. Esto es en contraste a TCP con la Notificación de Congestión Explicita (ECN), que utiliza routers para notificar a los puntos finales de la congestión, sino que se aplica la acción correctiva desde el punto final. Así ACC va a reaccionar con mayor rapidez a la congestión demostrando que el ACC apoya a TCP con ECN.

Estudios de simulación. 

Los estudios de simulación de ACC TCP muestra que aumenta el rendimiento promedio del punto final hasta en un 18 por ciento en comparación con el estándar TCP en presencia de tráfico a ráfagas, y ofrece un rendimiento comparable en una red estable.
Las simulaciones se realizaron utilizando los enlaces con anchos de banda entre 1,5 y 10Mb/s. Todas las simulaciones se realizaron utilizando ns, La siguiente figura muestra la plantilla para las simulaciones reportadas en esta sección.



Todos los enlaces de un punto final a un router tienen un retraso de 10 ms y el ancho de banda de 10 Mb/s. Cada simulación se repite para diferentes retardos en el enlace desde el R1 al R2. Un router de detección aleatoria temprana (RED) recoge un paquete al azar para descartar. Un router RED también descarta los paquetes antes de que la cola está llena. La probabilidad de que un paquete que llega, provoque un descarte es proporcional a la cantidad de corriente que la longitud de la cola del router supera a un mínimo configurado. Todos los rendimientos se basan en el número de paquetes útiles recibidos por el punto final de destino. Paquetes retransmitidos no se consideran útiles.


Simulaciones de red estable.

Estas simulaciones muestran que el TCP y ACC TCP se comportan comparativamente en la ausencia de tráfico a ráfagas cruz. ACC TCP reduce el tiempo de reacción cuando los cambios en la red indican, pero no reduce el rendimiento en el caso estable. Las simulaciones de esta sección utilizan la configuración de simulación estándar (Fig. 3), sin tráfico transversal. El rendimiento promedio de las 10 fuentes se representa gráficamente en la figura. 4 para diversos valores de retardo; las barras son desviaciones estándar.Cada punto representado en la figura. 4 es el rendimiento medio de un punto final en esta configuración. Los routers tienen 25 buffers de paquetes, y el uso de FIFO DropTail cola. FIFO DropTail routers paquetes cola primero en entrar primero en salir y dejar caer el último paquete recibido cuando la cola está llena.


Las distribuciones para ambos sistemas son bimodal. Esto es debido a los efectos de sincronización en la red causada por las pérdidas simultáneas de varios puntos finales. El resultado es que algunos puntos finales experimentan muy pocas pérdidas, y alguna experimentan muchos. La distribución bimodal de rendimientos refleja la presencia de dos grupos de criterios de valoración, sincronizados y no sincronizados. Los puntos finales se vuelven sincronizado por la pérdida de paquetes simultánea, lo que resulta en la retransmisión simultánea. Estos puntos finales entran en la fase de inicio lento para evitar la congestión de TCP, en el que dos paquetes se envían para cada acuse de recibo.

ACC funciona de forma transparente a través de RED, lo que reduce en gran medida el congestionamiento de los routers. Para demostrar esto, se repiten las simulaciones anteriores con cola RED en los routers. Los resultados se resumen en la figura 6. Los dos sistemas realizan prácticamente lo mismo en condiciones estables utilizando RED. ACC implica el uso de RED para conseguir la equidad razonable, pero en AN, esta condición es fácil de cumplir. Estas simulaciones han demostrado que el ACC TCP da un rendimiento comparable en redes estables; el siguiente conjunto de simulaciones se mostrará que el ACC TCP se comporta mejor que TCP en un rápido cambio, la red de alto ancho de banda.

Trafico de cruce.
Estas simulaciones demuestran que el ACC TCP reacciona mejor que el punto final de TCP al tráfico cruzado controlado. El tráfico de cruce utiliza UDP, que no reacciona a la congestión. Cada fuente de tráfico cruzado envía un promedio de 2,5s a 100Kb y es tranquilo durante 2,5s. La figura 7 muestra el rendimiento medio visto por las fuentes de tráfico contra el retardo variable (que refleja directamente el cambio en el producto ancho de banda-retardo).


ACC se comporta mejor que TCP sin modificaciones hasta en un 18 por ciento. El rendimiento de ambos sistemas "se degrada a medida que aumenta el retardo de ancho de banda de productos, ya que ambos no dependen del punto final a la comunicación del router. Debido a que ACC no depende únicamente de la comunicación, supera a TCP.

Los sistemas muestran un rendimiento similar a los pequeños productos de retardo de ancho de banda debido a los routers en el sistema de ACC que están solamente editando el tráfico en nombre de los criterios de valoración para los intervalos cortos, el ciclo de realimentación es lo suficientemente corto para que los métodos tradicionales de retroalimentación sean efectivos. En las configuraciones con productos de mayor ancho de banda-retardo, el ACC TCP reduce el tiempo de los episodios de congestión y el número de puntos finales afectadas.

Ambos sistemas presentan buenas propiedades de equidad, así, como se muestra en las desviaciones estándar de la siguiente tabla, también informa de la mejora del uso de ACC TCP como porcentaje del rendimiento de TCP para cada valor de retardo.

Conclusión. 
Este trabajo se ha centrado en la descripción de cómo las redes activas se pueden utilizar para aumentar el control de la congestión de retroalimentación y que hay beneficios tangibles para hacerlo. Se afirma que en una arquitectura de red activa y práctica, teniendo routers, el tráfico de punto final, dentro de la red puede mejorar el rendimiento durante la congestión, y no reducir el rendimiento en redes estables. Se ha demostrado que los sistemas ACC derivados de TCP muestran notablemente mejor rendimiento en sistemas de simulación de TCP puro. Los sistemas se comportan de forma equivalente en redes estables, pero el sistema ACC reacciona más rápido a la congestión.Sistemas ACC son superiores a maximizar el rendimiento de las redes de fuentes de tráfico a ráfagas. Este trabajo demostró que los protocolos existentes pueden beneficiarse de la ampliación de sus sistemas de retroalimentación en la red. Un sistema de información diseñado con un conocimiento de programación puede hacer un control más agresivo en la red.

Referencias:

ACC: Using Active Networking t Enhance
o
Feedback Congestion Control Mechanisms 
por Theodore Faber 
University of Southern California, Information Sciences Institute





"Imagenes sacadas del pdf" 

martes, 16 de abril de 2013

Laboratorio: Monitoreo ns2

Para esta entrada se encargo monitoraer el desempeño de las transmisiones de una simulación en ns2/3, en mi caso ns2.

Lo que se midió en esta simulación fue el throughput que son la cantidad de bits que se transmiten exitosamente por segundo y la latencia que es la velocidad en que se propaga la señal, dependiendo del medio por el que viaja.

La simulación que se muestra a continuación, se intento reproducir un videostreaming, donde el transmisor esta emitiendo un "show" en vivo, y donde los paquetes viajan por UDP (ya que es la mejor para videoconferencias o cosas por el estilo), estos paquetes llegan al servidor y estas son enviadas a los routers de las personas que quieran verlo y asi hasta llegar a las computadoras de los usuarios.

Aquí el código:



Como se puede apreciar dos de los receptores no pudieron ver u oír el vídeo ya que hubo problema con la conexión y por lo tanto no llegaron los paquetes.

Thrughput
Código:


Aquí el archivo creado con los resultados:

Aquí el resultado en forma de gráfica:
 
Como se puede apreciar la se transmitía cada vez mejor, aumentando poco a poco.

Latencia
Código:



Aquí una parte del resultado del código:

Aquí los resultados en gráfica:

Esto nos indica que la velocidad no siempre es la misma al entregar los paquetes.



Bibliografias:
http://nile.wpi.edu/NS/simple_ns.html

martes, 9 de abril de 2013

Topologia ns2, enrutamiento

Algo de información:
Ruteo o rutear , en redes es dirigir la información que se transmite a traves de una red desde su origen hasta su destino, eligiendo el mejor camino posible a traves de las o las redes que los separan.

Los componentes dentro del ruteo son las dos partes que se están comunicando, es decir, un equipo origen y uno destino. Ambos deben tener los protocolos compatibles entre si para poder crear un vinculo para intercambiar información.

Además del origen y destino están los dispositivos de red, que se encargan de direccionar el mensaje (entiéndase como información) desde su origen hasta su destino, esto se hace en base a las denominadas direcciones IP y MACAddress. Estos dispositivos depende la magnitud de la red con la que se trabaje pueden ser Hubs, Switches, Bridges, Modems y Routers.


Topologías:
La topología de red de computadores conforman una red para intercambiar datos. El concepto de red puede definirse como "conjunto de nodos interconectados". Un nodo es el punto en el que una curva se intercepta a sí misma. Lo que un nodo es concretamente, depende del tipo de redes a que nos refiramos.



Tipos:
Los estudios de topología de red reconocen ocho tipos básicos de topologías:
  • Punto a punto (abreviadamente PtP).
  • En bus.
  • En estrella.
  • En anillo o circular.
  • En malla.
  • En árbol
  • Híbrida (los más habituales son circular de estrella y bus de estrella)
  • Cadena margarita (o daisy chain)

Enrutamiento ns2
Aqui el código:


Reproducción del código:

Esto es una representación sencilla de una topología de árbol, como se aprecia hay una caída en los puntos de los nodos por lo cual cambia de entrega de paquetes hasta que se arregle el otro

Bibliografías:
http://members.tripod.com/a_pizano/Impresion/cap2.html
http://upcommons.upc.edu/pfc/bitstream/2099.1/5386/3/Levy_Bunan_memòria_2.pdf
http://es.wikipedia.org/wiki/Topolog%C3%ADa_de_red

Presentacion proyecto